CN117496184A - 一种单目深度估计网络的确定方法、装置、设备及介质 - Google Patents
一种单目深度估计网络的确定方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN117496184A CN117496184A CN202311676475.8A CN202311676475A CN117496184A CN 117496184 A CN117496184 A CN 117496184A CN 202311676475 A CN202311676475 A CN 202311676475A CN 117496184 A CN117496184 A CN 117496184A
- Authority
- CN
- China
- Prior art keywords
- depth estimation
- network
- task
- branch
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000012549 training Methods 0.000 claims abstract description 78
- 239000011159 matrix material Substances 0.000 claims abstract description 74
- 230000004927 fusion Effects 0.000 claims abstract description 62
- 239000013598 vector Substances 0.000 claims description 48
- 238000007781 pre-processing Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 abstract description 11
- 238000012545 processing Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 102000003712 Complement factor B Human genes 0.000 description 1
- 108090000056 Complement factor B Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种单目深度估计网络的确定方法、装置、设备及介质。单目深度估计网络的确定方法,包括:获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征;根据深度估计特征以及支线任务特征,确定空域相似性矩阵,并通过空域相似性矩阵调整支线任务特征,得到待融合支线任务特征;将深度估计特征与待融合支线任务特征,进行特征融合,得到目标融合特征;根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络。本发明实施例的技术方案能够提升深度估计的网络模型应用效果。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种单目深度估计网络的确定方法、装置、设备及介质。
背景技术
随着深度估计的使用越来越普遍,其局限性也逐渐展现。传统图像处理技术通过建立双目图像或者图像序列成像过程的物理模型以进一步计算模型参数求解深度,但由于其推导在固定的视觉系统下实现,需要进行视觉系统标定或者图像特征匹配,因此面对复杂场景系统泛化能力及灵活性有待提高。在利用深度学习实现单目深度估计的研究中,监督学习通过尽可能降低预测深度与真实深度之间的损失实现网络训练,但目前公开的高质量深度标注数据规模有限,使得监督学习模型精度不理想;半监督学习利用少量标注数据合成图像丰富数据集以训练网络,但合成图像的质量有待提高;无监督学习过程利用估计深度模拟双目视觉系统或者相机运动形成损失训练网络,但存在训练过程耦合训练图像对应视觉系统的相机内参等系统参数的问题,训练后的单目深度估计网络精度及泛化能力有待进一步加强。
发明内容
本发明提供了一种单目深度估计网络的确定方法、装置、设备及介质,以解决现有深度估计的网络模型应用效果不佳的问题。
根据本发明的一方面,提供了一种单目深度估计网络的确定方法,包括:
获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征;
根据深度估计特征以及支线任务特征,确定空域相似性矩阵,并通过空域相似性矩阵调整支线任务特征,得到待融合支线任务特征;
将深度估计特征与待融合支线任务特征,进行特征融合,得到目标融合特征;
根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络。
根据本发明的另一方面,提供了一种单目深度估计网络的确定装置,包括:
特征获取模块,用于获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征;
特征调整模块,用于根据深度估计特征以及支线任务特征,确定空域相似性矩阵,并通过空域相似性矩阵调整支线任务特征,得到待融合支线任务特征;
特征融合模块,用于将深度估计特征与待融合支线任务特征,进行特征融合,得到目标融合特征;
目标单目深度估计网络确定模块,用于根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络。
根据本发明的另一方面,提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的单目深度估计网络的确定方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的单目深度估计网络的确定方法。
本发明实施例的技术方案,通过获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征,从而根据深度估计特征以及支线任务特征,确定空域相似性矩阵,并通过空域相似性矩阵调整支线任务特征,得到待融合支线任务特征,进而将深度估计特征与待融合支线任务特征,进行特征融合,得到目标融合特征,并根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络。在本方案中,可以利用支线任务特征丰富网络提取能力,并通过空域相似性矩阵挖掘深度估计特征与支线任务特征之间的差距,而根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络,增强了对支线任务特征的充分利用,有效提升了深度估计网络模型的精度与泛化能力,解决了现有深度估计的网络模型应用效果不佳的问题,能够提升深度估计的网络模型应用效果。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一提供的一种单目深度估计网络的确定方法的流程图;
图2为本发明实施例二提供的一种单目深度估计网络的确定方法的流程图;
图3为本发明实施例三提供的一种单目深度估计网络的确定装置的结构示意图;
图4示出了可以用来实施本发明的实施例的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1为本发明实施例一提供的一种单目深度估计网络的确定方法的流程图,本实施例可适用于通过对支线任务特征的利用,提升深度估计网络的应用效果的情况,该方法可以由单目深度估计网络的确定装置来执行,该单目深度估计网络的确定装置可以采用硬件和/或软件的形式实现,该单目深度估计网络的确定装置可配置于电子设备中。如图1所示,该方法包括:
步骤110、获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征。
其中,单目深度估计网络可以是进行主线任务处理的网络,用于提取与深度估计关联的特征。深度估计特征可以是单目深度估计网络提取的与深度估计关联的特征。支线任务网络可以是进行支线任务处理的网络。支线任务特征可以是支线任务网络提取与支线任务关联的特征。主线任务可以包括但不限于单目深度估计任务。支线任务可以包括但不限于语义分割任务、物体检测任务以及光流估计等视觉任务等。主线任务与支线任务可以是属于一个图像识别业务下的不同任务。
在本发明实施例中,可以首先获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征。
需要说明的是,确定单目深度估计网络的深度估计特征的同时,单目深度估计网络的部分网络参数已经确定,确定支线任务网络的支线任务特征的同时,支线任务网络的部分网络参数已经确定。
步骤120、根据深度估计特征以及支线任务特征,确定空域相似性矩阵,并通过空域相似性矩阵调整支线任务特征,得到待融合支线任务特征。
其中,空域相似性矩阵可以是描述深度估计特征以及支线任务特征之间相似程度的矩阵。待融合支线任务特征可以是基于空域相似性矩阵调整后的支线任务特征。
在本发明实施例中,可以按照空域位置,计算深度估计特征以及支线任务特征之间的相似程度,得到空域相似性矩阵,从而基于空域相似性矩阵对支线任务特征进行调整,得到待融合支线任务特征。
步骤130、将深度估计特征与待融合支线任务特征,进行特征融合,得到目标融合特征。
其中,目标融合特征可以是深度估计特征与待融合支线任务特征的特征融合结果。
在本发明实施例中,可以将深度估计特征与待融合支线任务特征,进行级联,得到目标融合特征。
步骤140、根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络。
其中,深度估计训练数据集可以用于确定单目深度估计网络以及支线任务网络的部分网络参数。目标单目深度估计网络可以是基于目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集确定的网络模型。目标单目深度估计网络可以用于对待分析的图像进行深度估计,为图像三维重建提供数据基础。
在本发明实施例中,可以根据目标融合特征,确定单目深度估计网络以及支线任务网络的部分网络参数,并将确定出的网络参数配置于单目深度估计网络以及支线任务网络中,进而通过深度估计训练数据集对完成网络参数配置的网络进行训练,得到目标单目深度估计网络。
本发明实施例的技术方案,通过获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征,从而根据深度估计特征以及支线任务特征,确定空域相似性矩阵,并通过空域相似性矩阵调整支线任务特征,得到待融合支线任务特征,进而将深度估计特征与待融合支线任务特征,进行特征融合,得到目标融合特征,并根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络。在本方案中,可以利用支线任务特征丰富网络提取能力,并通过空域相似性矩阵挖掘深度估计特征与支线任务特征之间的差距,而根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络,增强了对支线任务特征的充分利用,有效提升了深度估计网络模型的精度与泛化能力,解决了现有深度估计的网络模型应用效果不佳的问题,能够提升深度估计的网络模型应用效果。
实施例二
图2为本发明实施例二提供的一种单目深度估计网络的确定方法的流程图,本实施例以上述实施例为基础进行具体化,给出了获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征的具体的可选的实施方式。如图2所示,该方法包括:
步骤210、基于深度估计训练数据集,训练第一编解码网络结构,得到单目深度估计网络。
其中,第一编解码网络结构可以是单目深度估计网络的预训练网络。深度估计训练数据集可以是对第一编解码网络结构训练的数据集。深度估计训练数据集可以包括双目图像,为开源图像数据集。
在本发明实施例中,可以先选定第一编解码网络结构,并通过深度估计训练数据集对第一编解码网络结构进行训练,得到单目深度估计网络,以通过单目深度估计网络提取深度估计特征。
步骤220、基于支线任务训练数据集,训练第二编解码网络结构,得到支线任务网络。
其中,支线任务训练数据集可以是训练支线任务的数据集。第二编解码网络结构可以是支线任务网络的预训练网络,即第二编解码网络结构完成训练后为支线任务网络。第一编解码网络结构与第二编解码网络结构,可以是相同或不同的编码器解码器网络结构。示例性的,编码器解码器结构可以包括但不限于U-net或者Light-weight RefineNet。
在本发明实施例中,可以在选定第二编解码网络结构之后,利用支线任务训练数据集,对第二编解码网络结构训练,得到支线任务网络,以通过支线任务网络提取支线任务特征。
步骤230、获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征。
步骤240、根据深度估计特征以及支线任务特征,确定空域相似性矩阵,并通过空域相似性矩阵调整支线任务特征,得到待融合支线任务特征。
在本发明的一个可选实施例中,根据深度估计特征以及支线任务特征,确定空域相似性矩阵,可以包括:对深度估计特征以及支线任务特征进行归一化处理,得到深度估计预处理特征以及支线任务预处理特征;根据各空域维度坐标下深度估计预处理特征的深度描述向量均值,以及支线任务预处理特征的支线描述向量,计算空域相似性矩阵。
其中,归一化处理可以用于对特征尺寸进行归一化。深度估计预处理特征可以是深度估计特征进行归一化处理的结果。支线任务预处理特征可以是支线任务特征进行归一化处理的结果。空域维度坐标可以是二维特征图对应特征点的坐标。深度描述向量均值可以是以特征点为统计单元确定的深度估计特征中描述向量的均值。支线描述向量可以是以特征点为统计单元确定的支线任务特征中的描述向量。
在本发明实施例中,得到深度估计特征以及支线任务特征之后,可以将深度估计特征进行归一化处理,得到深度估计预处理特征,并对支线任务特征进行归一化处理,得到支线任务预处理特征。进一步,确定二维特征图上的各特征点对应的空域维度坐标,从而计算每个空域维度坐标下深度估计预处理特征的描述向量的均值即深度描述向量均值,以及各空域维度坐标下的支线任务预处理特征的支线描述向量,从而分别针对各空域维度坐标,计算深度描述向量均值与支线描述向量的相似度,得到空域相似性矩阵。
在本发明的一个可选实施例中,通过空域相似性矩阵调整支线任务特征,得到待融合支线任务特征,可以包括:对空域相似性矩阵进行二维卷积计算,得到空域缩放矩阵以及空域偏差矩阵;根据空域缩放矩阵、空域偏差矩阵以及支线任务预处理特征的支线描述向量,调整支线任务特征,得到待融合支线任务特征。
其中,空域缩放矩阵可以用于对支线描述向量进行缩放。空域偏差矩阵可以用于对支线描述向量进行偏差叠加。
在本发明实施例中,可以对空域相似性矩阵进行二维卷积计算,得到空域缩放矩阵以及空域偏差矩阵,从而利用空域缩放矩阵对支线任务预处理特征的支线描述向量进行缩放,并利用空域偏差矩阵对完成缩放的支线描述向量进行偏差叠加,以实现支线任务特征的调整,得到待融合支线任务特征。
步骤250、将深度估计特征与待融合支线任务特征,进行特征融合,得到目标融合特征。
步骤260、根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络。
在本发明的一个可选实施例中,根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络,可以包括:根据目标融合特征、单目深度估计网络以及支线任务网络,确定深度估计整体网络;根据深度估计训练数据集,训练深度估计整体网络,得到目标单目深度估计网络。
其中,深度估计整体网络可以是基于目标融合特征,对单目深度估计网络以及支线任务网络进行部分参数确定后得到的完整网络模型。
在本发明实施例中,可以利用目标融合特征,对单目深度估计网络以及支线任务网络中的部分网络结构进行训练,进而将训练后的相应网络部分的参数进行固定,得到深度估计整体网络,从而基于深度估计训练数据集,训练深度估计整体网络,并将完成训练的深度估计整体网络作为目标单目深度估计网络。
在本发明的一个可选实施例中,根据目标融合特征、单目深度估计网络以及支线任务网络,确定深度估计整体网络,可以包括:根据目标融合特征,确定单目深度估计网络的第一解码器参数以及支线任务网络的第二解码器参数;根据第一解码器参数、第二解码器参数、单目深度估计网络以及支线任务网络,创建深度估计整体网络。
其中,第一解码器参数可以是基于目标融合特征确定的单目深度估计网络中解码器的参数。第二解码器参数可以是基于目标融合特征确定的支线任务网络中解码器的参数。
在本发明实施例中,可以利用目标融合特征对单目深度估计网络中的解码器进行参数确定,得到第一解码器参数,并利用目标融合特征对支线任务网络中的解码器进行参数确定,得到第二解码器参数,从基于第一解码器参数对单目深度估计网络中的解码器进行参数固定,并基于第二解码器参数对支线任务网络中的解码器进行参数固定,得到深度估计整体网络。
在本发明的一个可选实施例中,根据深度估计训练数据集,训练深度估计整体网络,得到目标单目深度估计网络,可以包括:根据深度估计训练数据集,训练深度估计整体网络,确定整体网络损失函数;根据整体网络损失函数,确定目标单目深度估计网络。
其中,整体网络损失函数可以是描述深度估计整体网络好坏程度的函数。
在本发明实施例中,可以选定一种损失函数的计算方式,对深度估计训练数据集训练的深度估计整体网络进行模型精准度评估,得到整体网络损失函数,并根据整体网络损失函数调整深度估计整体网络的网络参数,从而将符合模型精度需要的深度估计整体网络作为目标单目深度估计网络。
可选的,在本方案中可以将单目深度估计任务作为主线任务,增加其他视觉任务作为支线任务(如语义分割、物体检测、光流估计等视觉任务),通过比较每个支线任务特征与深度估计特征之间在空域维度的相似性,形成对支线任务特征的空域注意力,通过注意力调整支线任务特征后,将两者进行融合,利用融合后更丰富的图像特征实现单目深度估计。
在一个具体的例子中,单目深度估计网络的确定方法,具体可以包括如下步骤:
Step1、训练主线任务网络(编码器解码器网络结构):利用主线任务单目深度估计对应的训练数据集,训练主线任务网络,得到单目深度估计网络。单目深度估计网络能够提取深度估计有关特征(深度估计特征)。
Step2、训练与深度估计相同的编码器解码器网络结构,利用与支线任务对应的训练数据集训练本步骤选定的网络结构,得到支线任务网络。支线任务网络能够提取支线任务有关特征(支线任务特征)。
Step3、利用深度估计特征及支线任务特征之间的空域相似性调整支线特征,再将调整后支线任务特征及深度估计特征进行融合。针对特征图上某一特征点,能够在深度估计特征及支线任务特征中,分别得到深度描述向量及支线描述向量。对应了输入图像中某一局部区域特征,两个特征描述向量对应取景框中相同图像区域。计算两个向量之间的空域相似性矩阵,利用该矩阵可以形成对支线任务特征的空域调整权重及空域调整偏差,并对支线任务特征进行调整,将调整后的支线任务特征与同尺度深度估计特征进行级联,实现特征融合,形成最终进行深度估计的深度估计整体网络,具体为:
1)首先对深度估计特征及支线任务特征进行归一化,将特征尺寸进行归一化处理,其大小为H×W×C,H、W、C分别为特征的宽、长及通道数。
2)计算空域相似性矩阵A,进而确定空域缩放矩阵Z及空域偏差矩阵B。针对特征图上某一特征点,取在每一通道上该特征点空域维度坐标,得到大小为1×1×C的描述向量,即从深度估计特征及支线任务特征中得到在该坐标的特征点的深度描述向量及支线描述向量。由于卷积计算特性,在网络提取的高层级特征中,每一特征点对应输入图像中的某一局部区域,描述向量中每个值反映了该局部区域在某一通道的图像特征。基于这两个描述向量,形成对支线任务特征的空域相似性矩阵A,其大小为H×W,进而得到对支线任务特征的空域注意力:
假设空域维度坐标为(i,j),以在支线描述向量s(s1,s2,...,sc)为例,首先计算其对应的深度描述向量d(d1,d2,...,dc)的均值,即在深度估计特征中空域维度坐标为(i,j)的描述向量的均值,其均值均值反映了向量d所对应的图像区域中深度特征信息主要分布,进而计算/>Δp表征了支线描述向量整体与深度特征均值的距离,当Δp越小说明该支线描述向量与对应深度描述向量之间差距越小,则认为该支线描述向量在融合后的特征中冗余性越高,对其分配的注意力需减少,反之则应该增加对该支线描述向量的注意力,此时Ai,j=Δp。以此类推,对支线任务特征的所有特征点的支线描述向量依次计算Δp,遍历所有特征点后得到整个空域相似性矩阵A。对空域相似性矩阵A进行二维卷积计算,该卷积核可通过后续训练不断优化,分别得到Z及B。
3)利用Z及B对支线任务特征进行调整。利用Z对支线任务特征进行缩放:如对于位于(i,j)的支线描述向量s利用Z中对应的缩放因子zi,j进行缩放即zi,j×s,进而利用B对支线任务特征叠加偏差,即将B中对应的偏差因子bi,j分别与支线描述向量s中每个元素进行叠加,即zi,j×s+bi,j,其中bi,j为用bi,j填充的C维向量。通过缩放及偏差实现对单个特征点对应的支线描述向量的调整,遍历所有特征点的支线描述向量实现对整体支线任务特征的调整。
4)通过调整支线任务特征,进而与深度特征进行级联,得到融合后的特征(目标融合特征),送入解码器进行解码,构建起初始深度估计整体网络。
Step4、将预训练的网络参数迁移到深度估计整体网络中,具体为:将步骤Step1中网络训练得到的参数迁移到步骤Step3中构建的初始深度估计整体网络中的主线任务分支上,将步骤Step2中的网络训练得到的参数迁移到初始深度估计整体网络中的支线任务分支上,得到深度估计整体网络,即相当于对单目深度估计网络以及支线任务网络进行解码器的参数确定后,得到深度估计整体网络。
Step5、利用与主线任务网络对应的训练数据集(深度估计训练数据集)训练步骤Step4中的深度估计整体网络,具体为:通过空域注意力机制,计算与深度估计训练数据集对应的支线任务特征与深度估计特征之间的空域相似性,并对支线任务特征进行调整,再与深度估计特征进行融合,并通过解码器解码得到预测深度,进而基于整体网络损失函数训练深度估计整体网络,得到目标单目深度估计网络。最终可以将目标单目深度估计网络,对图像进行深度估计,完成视觉识别任务。
本方案融合了深度估计网络对支线任务特征的利用,可实现对支线任务特征中与深度估计特征差异性更大的描述向量的关注,减少对支线任务特征中与深度估计特征差异性更小的描述向量的关注,使得网络能够在面对复杂变化的场景时,展现出出色的泛化性能和深度灵敏性,实现精确且健壮的深度估计。在实际应用中,兼具低成本、低时延特性,为高质量图像三维重建提供了技术支撑,进而能够增强无人机及机器人等智能检测设备的环境感知能力,具有广泛的实际应用意义。
本发明实施例的技术方案,通过基于深度估计训练数据集,训练第一编解码网络结构,得到单目深度估计网络,从而基于支线任务训练数据集,训练第二编解码网络结构,得到支线任务网络,并根据深度估计特征以及支线任务特征,确定空域相似性矩阵,并通过空域相似性矩阵调整支线任务特征,得到待融合支线任务特征,从而将深度估计特征与待融合支线任务特征,进行特征融合,得到目标融合特征,进而根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络。在本方案中,可以利用支线任务特征丰富网络提取能力,并通过空域相似性矩阵挖掘深度估计特征与支线任务特征之间的差距,而根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络,增强了对支线任务特征的充分利用,有效提升了深度估计网络模型的精度与泛化能力,解决了现有深度估计的网络模型应用效果不佳的问题,能够提升深度估计的网络模型应用效果。
实施例三
图3为本发明实施例三提供的一种单目深度估计网络的确定装置的结构示意图。如图3所示,该装置包括:
特征获取模块310,用于获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征;
特征调整模块320,用于根据深度估计特征以及支线任务特征,确定空域相似性矩阵,并通过空域相似性矩阵调整支线任务特征,得到待融合支线任务特征;
特征融合模块330,用于将深度估计特征与待融合支线任务特征,进行特征融合,得到目标融合特征;
目标单目深度估计网络确定模块340,用于根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络。
本发明实施例的技术方案,通过获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征,从而根据深度估计特征以及支线任务特征,确定空域相似性矩阵,并通过空域相似性矩阵调整支线任务特征,得到待融合支线任务特征,进而将深度估计特征与待融合支线任务特征,进行特征融合,得到目标融合特征,并根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络。在本方案中,可以利用支线任务特征丰富网络提取能力,并通过空域相似性矩阵挖掘深度估计特征与支线任务特征之间的差距,而根据目标融合特征、单目深度估计网络、支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络,增强了对支线任务特征的充分利用,有效提升了深度估计网络模型的精度与泛化能力,解决了现有深度估计的网络模型应用效果不佳的问题,能够提升深度估计的网络模型应用效果。
可选的,单目深度估计网络的确定装置包括网络确定模块,用于基于所述深度估计训练数据集,训练第一编解码网络结构,得到所述单目深度估计网络;基于支线任务训练数据集,训练第二编解码网络结构,得到所述支线任务网络。
可选的,特征调整模块320包括空域相似性矩阵确定单元以及待融合支线任务特征确定单元。空域相似性矩阵确定单元,用于对所述深度估计特征以及所述支线任务特征进行归一化处理,得到深度估计预处理特征以及支线任务预处理特征;根据各空域维度坐标下所述深度估计预处理特征的深度描述向量均值,以及所述支线任务预处理特征的支线描述向量,计算所述空域相似性矩阵。待融合支线任务特征确定单元,用于对所述空域相似性矩阵进行二维卷积计算,得到空域缩放矩阵以及空域偏差矩阵;根据所述空域缩放矩阵、所述空域偏差矩阵以及所述支线任务预处理特征的支线描述向量,调整所述支线任务特征,得到待融合支线任务特征。
可选的,目标单目深度估计网络确定模块340,包括深度估计整体网络创建单元,以及目标单目深度估计网络确定单元。深度估计整体网络创建单元,用于根据所述目标融合特征、所述单目深度估计网络以及所述支线任务网络,确定深度估计整体网络。目标单目深度估计网络确定单元,用于根据所述深度估计训练数据集,训练所述深度估计整体网络,得到所述目标单目深度估计网络。
可选的,深度估计整体网络创建单元,用于根据所述目标融合特征,确定所述单目深度估计网络的第一解码器参数以及所述支线任务网络的第二解码器参数;根据所述第一解码器参数、所述第二解码器参数、所述单目深度估计网络以及所述支线任务网络,创建所述深度估计整体网络。
可选的,目标单目深度估计网络确定单元,用于根据所述深度估计训练数据集,训练所述深度估计整体网络,确定整体网络损失函数;根据所述整体网络损失函数,确定所述目标单目深度估计网络。
本发明实施例所提供的单目深度估计网络的确定装置可执行本发明任意实施例所提供的单目深度估计网络的确定方法,具备执行方法相应的功能模块和有益效果。
实施例四
图4示出了可以用来实施本发明的实施例的电子设备的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图4所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
电子设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许电子设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如单目深度估计网络的确定方法。
在一些实施例中,单目深度估计网络的确定方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的单目深度估计网络的确定方法的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行单目深度估计网络的确定方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (10)
1.一种单目深度估计网络的确定方法,其特征在于,包括:
获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征;
根据所述深度估计特征以及所述支线任务特征,确定空域相似性矩阵,并通过所述空域相似性矩阵调整所述支线任务特征,得到待融合支线任务特征;
将所述深度估计特征与所述待融合支线任务特征,进行特征融合,得到目标融合特征;
根据所述目标融合特征、所述单目深度估计网络、所述支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络。
2.根据权利要求1所述的方法,其特征在于,在所述获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征之前,还包括:
基于所述深度估计训练数据集,训练第一编解码网络结构,得到所述单目深度估计网络;
基于支线任务训练数据集,训练第二编解码网络结构,得到所述支线任务网络。
3.根据权利要求1所述的方法,其特征在于,所述根据所述深度估计特征以及所述支线任务特征,确定空域相似性矩阵,包括:
对所述深度估计特征以及所述支线任务特征进行归一化处理,得到深度估计预处理特征以及支线任务预处理特征;
根据各空域维度坐标下所述深度估计预处理特征的深度描述向量均值,以及所述支线任务预处理特征的支线描述向量,计算所述空域相似性矩阵。
4.根据权利要求3所述的方法,其特征在于,所述通过所述空域相似性矩阵调整所述支线任务特征,得到待融合支线任务特征,包括:
对所述空域相似性矩阵进行二维卷积计算,得到空域缩放矩阵以及空域偏差矩阵;
根据所述空域缩放矩阵、所述空域偏差矩阵以及所述支线任务预处理特征的支线描述向量,调整所述支线任务特征,得到待融合支线任务特征。
5.根据权利要求1所述的方法,其特征在于,所述根据所述目标融合特征、所述单目深度估计网络、所述支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络,包括:
根据所述目标融合特征、所述单目深度估计网络以及所述支线任务网络,确定深度估计整体网络;
根据所述深度估计训练数据集,训练所述深度估计整体网络,得到所述目标单目深度估计网络。
6.根据权利要求5所述的方法,其特征在于,所述根据所述目标融合特征、所述单目深度估计网络以及所述支线任务网络,确定深度估计整体网络,包括:
根据所述目标融合特征,确定所述单目深度估计网络的第一解码器参数以及所述支线任务网络的第二解码器参数;
根据所述第一解码器参数、所述第二解码器参数、所述单目深度估计网络以及所述支线任务网络,创建所述深度估计整体网络。
7.根据权利要求5所述的方法,其特征在于,所述根据所述深度估计训练数据集,训练所述深度估计整体网络,得到所述目标单目深度估计网络,包括:
根据所述深度估计训练数据集,训练所述深度估计整体网络,确定整体网络损失函数;
根据所述整体网络损失函数,确定所述目标单目深度估计网络。
8.一种单目深度估计网络的确定装置,其特征在于,包括:
特征获取模块,用于获取单目深度估计网络的深度估计特征,以及支线任务网络的支线任务特征;
特征调整模块,用于根据所述深度估计特征以及所述支线任务特征,确定空域相似性矩阵,并通过所述空域相似性矩阵调整所述支线任务特征,得到待融合支线任务特征;
特征融合模块,用于将所述深度估计特征与所述待融合支线任务特征,进行特征融合,得到目标融合特征;
目标单目深度估计网络确定模块,用于根据所述目标融合特征、所述单目深度估计网络、所述支线任务网络以及深度估计训练数据集,确定目标单目深度估计网络。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的单目深度估计网络的确定方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-7中任一项所述的单目深度估计网络的确定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311676475.8A CN117496184A (zh) | 2023-12-07 | 2023-12-07 | 一种单目深度估计网络的确定方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311676475.8A CN117496184A (zh) | 2023-12-07 | 2023-12-07 | 一种单目深度估计网络的确定方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117496184A true CN117496184A (zh) | 2024-02-02 |
Family
ID=89683016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311676475.8A Pending CN117496184A (zh) | 2023-12-07 | 2023-12-07 | 一种单目深度估计网络的确定方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117496184A (zh) |
-
2023
- 2023-12-07 CN CN202311676475.8A patent/CN117496184A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112966587B (zh) | 目标检测模型的训练方法、目标检测方法及相关设备 | |
CN114550177B (zh) | 图像处理的方法、文本识别方法及装置 | |
CN113674421B (zh) | 3d目标检测方法、模型训练方法、相关装置及电子设备 | |
CN113971751A (zh) | 训练特征提取模型、检测相似图像的方法和装置 | |
CN113361710B (zh) | 学生模型训练方法、图片处理方法、装置及电子设备 | |
CN112862877A (zh) | 用于训练图像处理网络和图像处理的方法和装置 | |
CN112861830A (zh) | 特征提取方法、装置、设备、存储介质以及程序产品 | |
CN113129352A (zh) | 一种稀疏光场重建方法及装置 | |
CN113378712A (zh) | 物体检测模型的训练方法、图像检测方法及其装置 | |
CN116188893A (zh) | 基于bev的图像检测模型训练及目标检测方法和装置 | |
CN114419519B (zh) | 目标对象检测方法、装置、电子设备和存储介质 | |
CN117745944A (zh) | 预训练模型确定方法、装置、设备以及存储介质 | |
CN114549904B (zh) | 视觉处理及模型训练方法、设备、存储介质及程序产品 | |
CN115953468A (zh) | 深度和自运动轨迹的估计方法、装置、设备及存储介质 | |
CN115641643A (zh) | 步态识别模型的训练方法、步态识别方法、装置及设备 | |
CN115330851A (zh) | 单目深度估计方法、装置、电子设备、存储介质及车辆 | |
CN117496184A (zh) | 一种单目深度估计网络的确定方法、装置、设备及介质 | |
CN111783609A (zh) | 行人再识别的方法、装置、设备和计算机可读存储介质 | |
CN116452741B (zh) | 对象重建方法、对象重建模型的训练方法、装置及设备 | |
CN116229209B (zh) | 目标模型的训练方法、目标检测方法及装置 | |
CN112131902A (zh) | 闭环检测方法及装置、存储介质和电子设备 | |
CN113177483B (zh) | 视频目标分割方法、装置、设备以及存储介质 | |
CN113240796B (zh) | 视觉任务处理方法及装置、计算机可读介质和电子设备 | |
CN113221920B (zh) | 图像识别方法、装置、设备、存储介质以及计算机程序产品 | |
CN116385643B (zh) | 虚拟形象生成、模型的训练方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |