CN114663810B - 基于多模态的物体图像增广方法及装置、设备及存储介质 - Google Patents
基于多模态的物体图像增广方法及装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114663810B CN114663810B CN202210280587.0A CN202210280587A CN114663810B CN 114663810 B CN114663810 B CN 114663810B CN 202210280587 A CN202210280587 A CN 202210280587A CN 114663810 B CN114663810 B CN 114663810B
- Authority
- CN
- China
- Prior art keywords
- motion
- amplified
- point cloud
- augmented
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000003416 augmentation Effects 0.000 title claims abstract description 49
- 230000033001 locomotion Effects 0.000 claims abstract description 259
- 230000003190 augmentative effect Effects 0.000 claims abstract description 108
- 238000012549 training Methods 0.000 claims abstract description 26
- 230000003321 amplification Effects 0.000 claims abstract description 6
- 238000003199 nucleic acid amplification method Methods 0.000 claims abstract description 6
- 238000005070 sampling Methods 0.000 claims description 66
- 239000013598 vector Substances 0.000 claims description 46
- 230000000875 corresponding effect Effects 0.000 claims description 23
- 238000005286 illumination Methods 0.000 claims description 21
- 238000012216 screening Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 6
- 230000002596 correlated effect Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 239000000470 constituent Substances 0.000 claims description 2
- 238000010801 machine learning Methods 0.000 abstract description 4
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 6
- 239000002245 particle Substances 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000029777 axis specification Effects 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本公开提供了一种基于多模态的物体图像增广方法及装置、设备及存储介质,涉及机器学习图像识别技术领域。该方法包括:获取待增广物体的三维点云模型;对三维点云模型进行分割,得到待增广物体的多个组成区块;获取待增广物体的实际运动视频数据,并根据实际运动视频数据,确定待增广物体的一个或多个运动轴;根据待增广物体的一个或多个运动轴,从多个组成区块中识别出待增广物体的一个或多个运动区块;对待增广物体的各个运动区块设置不同的运动状态,以生成待增广物体的图像增广数据。本公开增广了三维物体的图像,扩充了用于图像识别模型训练的数据集,提高了图像识别模型的鲁棒性。
Description
技术领域
本公开涉及机器学习图像识别技术领域,尤其涉及一种基于多模态的物体图像增广方法及装置、设备及存储介质。
背景技术
随着深度学习技术的不断发展,基于神经网络的图像识别系统的性能也在不断提升。然而目前所实现的图像识别模型还无法达到人类的认知识别水平,其识别能力依赖于用于训练的数据集。训练的数据集从三维物体中采集,三维物体受不同角度、不同强度的光照会产生不同的光影效果,这种变化无法用简单的二维数据增强进行模拟。现有技术中,通过多视角的二维图像或二维深度图像对物体进行三维建模,之后利用特定算法对三维模型进行旋转、添加不同光照等操作,再重新投影为二维图像添加背景,从而生成同一三维物体不同角度的图像作为用于训练的数据集,解决了三维物体受不同角度、不同强度的光照会产生不同的光影效果的问题。但许多三维物体包括不止一个组成部件,各部件间相对位置关系(即物体姿态)的不同,也会极大地影响图像识别模型对其的识别能力。因此,相关技术对于三维物体不同的姿态数据不能有效扩充,能够用于图像识别模型训练的数据集不够全面,导致图像识别模型的鲁棒性较弱。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种基于多模态的物体图像增广方法及装置、设备及存储介质,至少在一定程度上克服相关技术中物体图像数据增广方法对于三维物体不同的姿态数据不能有效扩充的技术问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种基于多模态的物体图像增广方法,包括:获取待增广物体的三维点云模型;对所述三维点云模型进行分割,得到所述待增广物体的多个组成区块;获取所述待增广物体的实际运动视频数据,并根据所述实际运动视频数据,确定所述待增广物体的一个或多个运动轴;
根据所述待增广物体的一个或多个运动轴,从所述多个组成区块中识别出所述待增广物体的一个或多个运动区块;对所述待增广物体的各个运动区块设置不同的运动状态,以生成所述待增广物体的图像增广数据。
在本公开的一个实施例中,获取待增广物体的三维点云模型包括:获取待增广物体的多视角图像;根据所述待增广物体的多视角图像,建立所述待增广物体的三维点云模型。
在本公开的一个实施例中,对所述三维点云模型进行分割,得到所述待增广物体的多个组成区块包括:获取所述三维点云模型中各个采样点的坐标信息;将所述三维点云模型中各个采样点的坐标信息输入预先训练好的点云特征向量生成模型,输出所述三维点云模型中各个采样点的特征向量;根据所述三维点云模型中各个采样点的特征向量,对所述三维点云模型进行分割,得到所述待增广物体的多个组成区块。
在本公开的一个实施例中,在将所述三维点云模型中各个采样点的坐标信息输入预先训练好的点云特征向量生成模型,输出所述三维点云模型中各个采样点的特征向量之前,所述方法还包括:获取模型训练的样本数据,所述样本数据包含:多个已知物体的三维点云模型及对应模型中各个采样点的特征向量;根据所述样本数据,对点云特征向量生成模型进行训练,得到所述点云特征向量生成模型。
在本公开的一个实施例中,所述获取所述待增广物体的实际运动视频数据,并根据所述实际运动视频数据,确定所述待增广物体的一个或多个运动轴包括:获取所述待增广物体的实际运动视频数据,并从所述实际运动视频数据中提取待增广物体的一个或多个关键像素点,所述关键像素点为反映所述待增广物体运动的像素点;将提取出的各个关键像素点与所述待增广物体的三维点云模型进行关联,以获取所述三维点云模型中与各个关键像素点关联的采样点;将所述三维点云模型中与各个关键像素点关联的采样点,按照相应关键像素点在所述实际运动视频数据中的运动轨迹进行运动,以确定所述待增广物体的运动轴。
在本公开的一个实施例中,所述获取所述待增广物体的实际运动视频数据,并根据所述实际运动视频数据,确定所述待增广物体的一个或多个运动轴包括:利用预先训练好的运动轴提取模型,从待增广物体的三维点云模型中提取出第一数量的运动轴;利用预先训练好的运动轴筛选模型,从所述第一数量的运动轴筛选出第二数量的运动轴,其中,所述第二数量小于所述第一数量;根据筛选出的运动轴和所述待增广物体的各个组成区块,生成待增广物体的虚拟运动视频数据;将所述待增广物体的实际运动视频数据与虚拟运动视频数据输入到预先训练好的生成式对抗网络模型,输出所述待增广物体的各个运动轴。
在本公开的一个实施例中,对所述待增广物体的各个运动区块设置不同的运动状态,以生成所述待增广物体的图像增广数据包括:对所述待增广物体的各个运动区块设置不同的运动状态,得到所述待增广物体在不同运动状态下的模型;为所述待增广物体在不同运动状态下的模型设置多种光照属性信息,得到所述待增广物体在不同运动状态、不同光照属性下的多个模型;对所述待增广物体在不同运动状态、不同光照属性下的多个模型分别进行采样,得到所述待增广物体对应的图像增广数据。
根据本公开的另一个方面,提供一种基于多模态的物体图像增广的装置,包括:获取模型模块,用于获取待增广物体的三维点云模型;分割模型模块,用于对所述三维点云模型进行分割,得到所述待增广物体的多个组成区块;获取视频模块,用于获取所述待增广物体的实际运动视频数据,并根据所述实际运动视频数据,确定所述待增广物体的一个或多个运动轴;识别运动区块模块,用于根据所述待增广物体的一个或多个运动轴,从所述多个组成区块中识别出所述待增广物体的一个或多个运动区块;增广数据模块,用于对所述待增广物体的各个运动区块设置不同的运动状态,以生成所述待增广物体的图像增广数据。
根据本公开的再一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述的基于多模态的物体图像增广的方法。
根据本公开的又一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的基于多模态的物体图像增广的方法。
本公开的实施例所提供的基于多模态的物体图像增广方法及装置、设备及存储介质,根据分割待增广物体的三维点云模型,得到多个组成区块,同时根据待增广物体的实际运动视频数据,确定待增广物体的运动轴,进而根据运动轴,从组成区块中识别出待增广物体的运动区块,通过对待增广物体的运动区块设置不同的运动状态,生成待增广物体的图像增广数据。本公开实施例中,将三维点云模型切割和实际运动视频分析结合,改变三维物体的姿态,获得三维物体不同的姿态数据,增广了三维物体的图像,扩充了用于图像识别模型训练的数据集,提高了图像识别模型的鲁棒性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种基于多模态的物体图像增广方法流程图;
图2示出本公开实施例中一种三维点云模型建立流程图;
图3示出本公开实施例中一种三维点云模型分割流程图;
图4示出本公开实施例中一种点云特征向量生成模型训练流程图;
图5示出本公开实施例中一种运动轴确定流程图;
图6示出本公开实施例中一种可选的运动轴确定流程图;
图7示出本公开实施例中一种图像数据增广流程图;
图8示出本公开实施例中一种基于多模态的物体图像增广装置示意图;
图9示出本公开实施例中一种基于多模态的物体图像增广电子设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本公开提供的方案,根据分割待增广物体的三维点云模型,得到多个组成区块,同时根据待增广物体的实际运动视频数据,确定待增广物体的运动轴,进而根据运动轴,从组成区块中识别出待增广物体的运动区块,通过对待增广物体的运动区块设置不同的运动状态,生成待增广物体的图像增广数据。
首先,本公开实施例中提供了一种基于多模态的物体图像增广方法,该方法可以由任意具备计算处理能力的电子设备执行。
图1示出本公开实施例中一种基于多模态的物体图像增广方法流程图,如图1所示,本公开实施例中提供的基于多模态的物体图像增广方法包括如下步骤:
S102,获取待增广物体的三维点云模型。
需要说明的是,上述待增广物体可以是需要进行图像增广的物体。上述三维点云模型可以是物体在三维坐标系下的点的数据集,通常是由三维扫描仪扫描物体并以点的形式输出的数据集,其中,每一个点包含有三维坐标,有些可能含有颜色信息(RGB,Red GreenBlue)或反射强度信息(Intensity)。
在本公开的一个实施例中,三维激光扫描仪对需要进行图像增广的物体扫描进行数据采集,获取到需要进行图像增广的物体的三维点云数据,将此三维点云数据通过算法拟合生成曲面,得到需要进行图像增广的物体的三维点云模型。
S104,对三维点云模型进行分割,得到待增广物体的多个组成区块。
需要说明的是,上述组成区块可以是待增广物体的三维点云模型按区域划分后,所有组成待增广物体的区域。
在本公开的一个实施例中,对三维点云模型根据点云的几何特征和空间特征对三维点云模型进行按区域划分,使得同一个区域内的点云具有相近的属性特征,其中,同一个区域内的点云构成待增广物体的一个组成区块。
S106,获取待增广物体的实际运动视频数据,并根据实际运动视频数据,确定待增广物体的一个或多个运动轴。
需要说明的是,上述实际运动视频数据可以是对待增广物体的实际运动视频进行解码生成的,其中,实际运动视频可以是待增广物体的真实运动视频。运动轴可以是支承转动部位并与之一起回转以传递运动、扭矩或弯矩的部位。
在本公开的一个实施例中,拍摄待增广物体的实际运动视频并解码,得到实际运动视频数据,从待增广物体的实际运动视频数据中,提取待测物体的关键像素点,根据待增广物体的实际运动视频数据绘制关键像素点的运动轨迹,将三维点云模型中的点与视频关键像素点进行关联,令三维点云模型中的点复现视频中关键像素点的运动轨迹,从而标注三维点云模型中的点的运动轨迹和范围,根据运动轨迹和范围计算得到其旋转轴或平移轴(相当于上述运动轴)。
S108,根据待增广物体的一个或多个运动轴,从多个组成区块中识别出待增广物体的一个或多个运动区块。
需要说明的是,上述运动区块可以是由组成区块及其对应的运动轴组成的能够改变姿态的部位。
在本公开的一个实施例中,将具有完全相同运动轴的组成区块及其共同运动轴划分至同一运动区块。
S110,对待增广物体的各个运动区块设置不同的运动状态,以生成待增广物体的图像增广数据。
需要说明的是,上述运动状态可以是各个组成区块通过运动轴产生相对位置关系变化的姿态。
在本公开的一个实施例中,转动运动轴,带动连接此运动轴的组成区块产生姿态变化,采样产生姿态变化后的待增广物体,生成待增广物体的图像增广数据。
上述S102-S110,通过改变三维物体的姿态,获得三维物体不同的姿态数据,增广了三维物体的图像,扩充了用于图像识别模型训练的数据集,提高了图像识别模型的鲁棒性。
在本公开的一个实施例中,如图2所示,本公开实施例中提供的基于多模态的物体图像增广方法可以通过如下步骤来获取待增广物体的三维点云模型:
S202,获取待增广物体的多视角图像。
需要说明的是,上述多视角图像可以是从至少两个角度拍摄的待增广物体的图像。
在本公开的一个实施例中,利用相机从多个不同的角度(正视、侧视、俯视、仰视)分别拍摄待增广物体的多张照片。多视角有利于三维点云模型的建立。
S204,根据待增广物体的多视角图像,建立待增广物体的三维点云模型。
上述S202-S204,在一个实施例中,采用MVS(Multi View System,多视角立体视觉)技术,将拍摄得到的摄待增广物体的多张照片和相应的相机参数数据,转换成最终的待增广物体的三维点云模型。
在本公开的一个实施例中,如图3所示,本公开实施例中提供的基于多模态的物体图像增广方法可以通过如下步骤来三维点云模型进行分割,得到待增广物体的多个组成区块:
S302,获取三维点云模型中各个采样点的坐标信息。
需要说明的是,上述采样点可以是准确表征或近似表征三维点云模型特征的点云数据。上述坐标信息可以是三维笛卡尔坐标(X,Y,Z),其中,X,Y,Z分别是拥有共同的零点且彼此相互正交的X轴,Y轴,Z轴的坐标值。
S304,将三维点云模型中各个采样点的坐标信息输入预先训练好的点云特征向量生成模型,输出三维点云模型中各个采样点的特征向量。
需要说明的是,上述点云特征向量生成模型可以是对PointNet++网络训练得到的神经网络模型,PointNet是一种直接处理点云的新型神经网络,PointNet++在PointNet的基础上加入了多层次结构(hierarchical structure),PointNet++网络的每一组hierarchical structure(也称为Set Abstraction Layers)主要包括3个部分:Samplinglayer,Grouping layer and PointNet layer。Sample Layer:主要是对输入点进行采样,在这些点中选出若干个中心点;Grouping Layer:是利用上一步得到的中心点将点集划分成若干个区域;PointNet Layer:是对上述得到的每个区域进行编码,变成特征向量。PointNet++通过输入点云,划分子区域,提取出子区域的特征。上述特征向量可以是反映三维点云模型特征的点的集合。
S306,根据三维点云模型中各个采样点的特征向量,对三维点云模型进行分割,得到待增广物体的多个组成区块。
在本公开的一个实施例中,将三维点云模型中各个采样点的坐标信息输入到PointNet++网络,PointNet++网络的Sampling layer通过使用FPS算法(farthest pointsampling)选出一系列点作为质点N'。PointNet++网络的Grouping Layer根据Samplinglayer生成的质点N',使用Ball query方法生成N'个局部区域,即将这些质点N'与质点N'周围的采样点共同构成一个局部区域(group)。PointNet++网络的PointNet layer把Grouping Layer得到的局部区域(group)作为输入,对每个局部区域进行编码,输出三维点云模型中各个采样点的特征向量。根据各个采样点的特征向量之间的距离对三维点云模型进行分割,得到待增广物体的多个组成区块。本实施例能够对三维点云模型进行准确分割得到待增广物体的多个组成区块。
在本公开的一个实施例中,如图4所示,在将三维点云模型中各个采样点的坐标信息输入预先训练好的点云特征向量生成模型,输出三维点云模型中各个采样点的特征向量之前,本公开实施例中提供的基于多模态的物体图像增广方法还包括如下步骤:
S402,获取模型训练的样本数据,样本数据包含:多个已知物体的三维点云模型及对应模型中各个采样点的特征向量。
S404,根据样本数据,对点云特征向量生成模型进行训练,得到点云特征向量生成模型。
在本公开的一个实施例中,将多个已知物体的三维点云模型及对应模型中各个采样点的特征向量作为训练数据集,输入到PointNet++网络,得到PointNet++点云特征向量生成模型。
在本公开的一个实施例中,如图5所示,本公开实施例中提供的基于多模态的物体图像增广方法可以通过如下步骤确定待增广物体的一个或多个运动轴:
S502,获取待增广物体的实际运动视频数据,并从实际运动视频数据中提取待增广物体的一个或多个关键像素点,关键像素点为反映待增广物体运动的像素点。
S504,将提取出的各个关键像素点与待增广物体的三维点云模型进行关联,以获取三维点云模型中与各个关键像素点关联的采样点。
S506,将三维点云模型中与各个关键像素点关联的采样点,按照相应关键像素点在实际运动视频数据中的运动轨迹进行运动,以确定待增广物体的运动轴。
需要说明的是,关键像素点可以是待增广物体能够产生运动的对应的像素点。
在本公开的一个实施例中,获取待增广物体的实际运动视频,并对待增广物体的实际运动视频进行解码以生成待增广物体的实际运动视频数据。解码主要是将待压缩的原始视频画面进行解码生成视频格式为YUV(像素格式)的实际运动视频数据。进一步对实际运动视频数据采用智能分析引擎将视频画面中的运动物体进行关键像素点提取,具体地表现为对运动物体对应的像素点(相当于上述关键像素点)进行标记。将提取出的各个关键像素点与待增广物体的三维点云模型进行关联,三维点云模型中能够与各个关键像素点关联的点为采样点,将采样点按照相应关键像素点在实际运动视频数据中的运动轨迹进行运动,标注采样点的运动轨迹和范围,计算得到旋转轴或平移轴,即为待增广物体的运动轴。
在本公开的一个实施例中,如图6所示,本公开实施例中提供的基于多模态的物体图像增广方法还可以通过如下步骤确定待增广物体的一个或多个运动轴:
S602,利用预先训练好的运动轴提取模型,从待增广物体的三维点云模型中提取出第一数量的运动轴。
需要说明的是,上述运动轴提取模型可以是通过机器学习训练得到的一个模型;在一个实施例中,可以是对PointNet++网络训练得到的模型。在具体实施时,可通过如下步骤来实现:将多个已知物体的三维点云数据和对应运动轴作为第一训练样本数据,对PointNet++网络进行训练,得到一个根据三维点云模型数据预测运动轴的运动轴提取模型,将待增广物体的三维点云数据输入到运动轴提取模型,可得到该待增广物体的一个或多个运动轴。
S604,利用预先训练好的运动轴筛选模型,从第一数量的运动轴筛选出第二数量的运动轴,其中,第二数量小于第一数量。
需要说明的是,上述运动轴筛选模型可以是通过机器学习训练得到的一个模型;在一个实施例中,可以是对PointNet++网络训练得到的模型。在具体实施时,可通过如下步骤来实现:将多个已知物体的三维点云数据和对应运动轴作为第二训练样本数据,对PointNet++网络进行训练,得到一个根据三维点云模型数据预测运动轴的运动轴筛选模型,将待增广物体的一个或多个运动轴的点云数据输入到运动轴提取模型,可得到该待增广物体小于输入数量的一个或多个运动轴。
S606,根据筛选出的运动轴和待增广物体的各个组成区块,生成待增广物体的虚拟运动视频数据。
需要说明的是,上述虚拟运动视频数据可以是通过不断改变运动轴带动连接此运动轴的组成区块产生姿态变化,然后进行采样得到的待增广物体的三维点云模型的运动视频数据。
S608,将待增广物体的实际运动视频数据与虚拟运动视频数据输入到预先训练好的生成式对抗网络模型,输出待增广物体的各个运动轴。
需要说明的是,上述生成式对抗网络模型(Generative Adversarial Networks,GAN)是一种生成模型,由一个生成器和一个判别器构成,GAN的生成生成新的数据样本,GAN的判别器是一个二分类器,判别输入的是真实数据还是生成的样本。
在本公开的一个实施例中,如图7所示,本公开实施例中提供的基于多模态的物体图像增广方法还可以通过如下步骤生成待增广物体的图像增广数据:
S702,对待增广物体的各个运动区块设置不同的运动状态,得到待增广物体在不同运动状态下的模型;
S704,为待增广物体在不同运动状态下的模型设置多种光照属性信息,得到待增广物体在不同运动状态、不同光照属性下的多个模型;
S706,对待增广物体在不同运动状态、不同光照属性下的多个模型分别进行采样,得到待增广物体对应的图像增广数据。
在一个实施例中,对待增广物体的运动轴转动带动连接此运动轴的组成区块产生姿态变化,得到待增广物体的不同状态,对待增广物体的不同状态分别施加不同光照属性,光照属性可以包括如下条件任意一个或多个组合:角度、强度、色彩。对施加不同光照属性的待增广物体的不同状态,进行多次不同采样方式(不同角度、不同距离),生成图像数据。本公开通过对待增广物体设置不同运动状态、添加不同光照属性的操作,从而生成同一待增广物体不同角度的图像作为用于训练的数据集,解决了三维物体受不同角度、不同强度的光照会产生不同的光影效果的问题。
本公开实施例中,将三维点云模型切割和实际运动视频分析结合,利用现有的大量视频数据实现物体图像增广,对物体姿态进行扩充以达到进一步提升被训练模型的泛化能力的目的。
基于同一发明构思,本公开实施例中还提供了一种基于多模态的物体图像增广的装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图8示出本公开实施例中一种基于多模态的物体图像增广的装置示意图,如图8所示,该装置包括:获取模型模块801、分割模型模块802、获取视频模块803、识别运动区块模块804、增广数据模块805、获取样本模块806和生成模型模块807。
其中,获取模型模块801,用于获取待增广物体的三维点云模型;分割模型模块802,用于对三维点云模型进行分割,得到待增广物体的多个组成区块;获取视频模块803,用于获取待增广物体的实际运动视频数据,并根据实际运动视频数据,确定待增广物体的一个或多个运动轴;识别运动区块模块804,用于根据待增广物体的一个或多个运动轴,从多个组成区块中识别出待增广物体的一个或多个运动区块;增广数据模块805,用于对待增广物体的各个运动区块设置不同的运动状态,以生成待增广物体的图像增广数据。
在本公开的一个实施例中,上述获取模型模块801具体用于:获取待增广物体的多视角图像;根据待增广物体的多视角图像,建立待增广物体的三维点云模型。
在本公开的一个实施例中,上述分割模型模块802具体用于:获取三维点云模型中各个采样点的坐标信息;将三维点云模型中各个采样点的坐标信息输入预先训练好的点云特征向量生成模型,输出三维点云模型中各个采样点的特征向量;根据三维点云模型中各个采样点的特征向量,对三维点云模型进行分割,得到待增广物体的多个组成区块。
在一个实施例中,本公开实施例中提供的基于多模态的物体图像增广的装置还可以包括:获取样本模块806,用于获取模型训练的样本数据,样本数据包含:多个已知物体的三维点云模型及对应模型中各个采样点的特征向量;生成模型模块807,用于根据样本数据,对点云特征向量生成模型进行训练,得到点云特征向量生成模型。
在本公开的一个实施例中,上述获取视频模块803具体用于:获取待增广物体的实际运动视频数据,并从实际运动视频数据中提取待增广物体的一个或多个关键像素点,关键像素点为反映待增广物体运动的像素点;将提取出的各个关键像素点与待增广物体的三维点云模型进行关联,以获取三维点云模型中与各个关键像素点关联的采样点;将三维点云模型中与各个关键像素点关联的采样点,按照相应关键像素点在实际运动视频数据中的运动轨迹进行运动,以确定待增广物体的运动轴。
在本公开的一个实施例中,上述获取视频模块803具体用于:利用预先训练好的运动轴提取模型,从待增广物体的三维点云模型中提取出第一数量的运动轴;利用预先训练好的运动轴筛选模型,从第一数量的动轴筛选出第二数量的运动轴,其中,第二数量小于第一数量;根据筛选出的运动轴和待增广物体的各个组成区块,生成待增广物体的虚拟运动视频数据;将待增广物体的实际运动视频数据与虚拟运动视频数据输入到预先训练好的生成式对抗网络模型,输出待增广物体的各个运动轴。
在本公开的一个实施例中,上述增广数据模块805具体用于:对待增广物体的各个运动区块设置不同的运动状态,得到待增广物体在不同运动状态下的模型;为待增广物体在不同运动状态下的模型设置多种光照属性信息,得到待增广物体在不同运动状态、不同光照属性下的多个模型;对待增广物体在不同运动状态、不同光照属性下的多个模型分别进行采样,得到待增广物体对应的图像增广数据。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图9来描述根据本公开的这种实施方式的电子设备900。图9显示的电子设备900仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,电子设备900以通用计算设备的形式表现。电子设备900的组件可以包括但不限于:上述至少一个处理单元910、上述至少一个存储单元920、连接不同系统组件(包括存储单元920和处理单元910)的总线930。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元910执行,使得所述处理单元910执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
例如,所述处理单元910可以执行上述方法实施例的如下步骤:获取待增广物体的三维点云模型;对三维点云模型进行分割,得到待增广物体的多个组成区块;获取待增广物体的实际运动视频数据,并根据实际运动视频数据,确定待增广物体的一个或多个运动轴;根据待增广物体的一个或多个运动轴,从多个组成区块中识别出待增广物体的一个或多个运动区块;对待增广物体的各个运动区块设置不同的运动状态,以生成待增广物体的图像增广数据。
在一个实施例中,处理单元910可以执行上述方法实施例的如下步骤来获取待增广物体的三维点云模型:获取待增广物体的多视角图像;根据待增广物体的多视角图像,建立待增广物体的三维点云模型。
在一个实施例中,处理单元910可以执行上述方法实施例的如下步骤来对三维点云模型进行分割,得到待增广物体的多个组成区块:获取三维点云模型中各个采样点的坐标信息;将三维点云模型中各个采样点的坐标信息输入预先训练好的点云特征向量生成模型,输出三维点云模型中各个采样点的特征向量;根据三维点云模型中各个采样点的特征向量,对三维点云模型进行分割,得到待增广物体的多个组成区块。
在一个实施例中,处理单元910执行上述方法的在将三维点云模型中各个采样点的坐标信息输入预先训练好的点云特征向量生成模型,输出三维点云模型中各个采样点的特征向量之前,可以执行上述方法实施例的如下步骤:获取模型训练的样本数据,样本数据包含:多个已知物体的三维点云模型及对应模型中各个采样点的特征向量;根据样本数据,对点云特征向量生成模型进行训练,得到点云特征向量生成模型。
所述处理单元910执行获取待增广物体的实际运动视频数据,并根据实际运动视频数据,确定待增广物体的一个或多个运动轴时,可以包括如下步骤:获取待增广物体的实际运动视频数据,并从实际运动视频数据中提取待增广物体的一个或多个关键像素点,关键像素点为反映待增广物体运动的像素点;将提取出的各个关键像素点与待增广物体的三维点云模型进行关联,以获取三维点云模型中与各个关键像素点关联的采样点;将三维点云模型中与各个关键像素点关联的采样点,按照相应关键像素点在实际运动视频数据中的运动轨迹进行运动,以确定待增广物体的运动轴。
所述处理单元910执行获取待增广物体的实际运动视频数据,并根据实际运动视频数据,确定待增广物体的一个或多个运动轴时,还可以包括如下步骤:利用预先训练好的运动轴提取模型,从待增广物体的三维点云模型中提取出第一数量的运动轴;利用预先训练好的运动轴筛选模型,从多个候选运动轴筛选出第二数量的运动轴;根据筛选出的运动轴和待增广物体的各个组成区块,生成待增广物体的虚拟运动视频数据;将待增广物体的实际运动视频数据与虚拟运动视频数据输入到预先训练好的生成式对抗网络模型,输出待增广物体的各个运动轴。
所述处理单元910执行对待增广物体的各个运动区块设置不同的运动状态,以生成待增广物体的图像增广数据可以包括如下步骤:对待增广物体的各个运动区块设置不同的运动状态,得到待增广物体在不同运动状态下的模型;为待增广物体在不同运动状态下的模型设置多种光照属性信息,得到待增广物体在不同运动状态、不同光照属性下的多个模型;对待增广物体在不同运动状态、不同光照属性下的多个模型分别进行采样,得到待增广物体对应的图像增广数据。
存储单元920可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)9201和/或高速缓存存储单元9202,还可以进一步包括只读存储单元(ROM)9203。
存储单元920还可以包括具有一组(至少一个)程序模块9205的程序/实用工具9204,这样的程序模块9205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线930可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备900也可以与一个或多个外部设备940(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备900交互的设备通信,和/或与使得该电子设备900能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口950进行。并且,电子设备900还可以通过网络适配器960与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器960通过总线930与电子设备900的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备900使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (10)
1.一种基于多模态的物体图像增广方法,其特征在于,包括:
获取待增广物体的三维点云模型;
对所述三维点云模型进行分割,得到所述待增广物体的多个组成区块;
获取所述待增广物体的实际运动视频数据,并根据所述实际运动视频数据,确定所述待增广物体的一个或多个运动轴;
根据所述待增广物体的一个或多个运动轴,从所述多个组成区块中识别出所述待增广物体的一个或多个运动区块;
对所述待增广物体的各个运动区块设置不同的运动状态,以生成所述待增广物体的图像增广数据。
2.根据权利要求1所述的基于多模态的物体图像增广方法,其特征在于,获取待增广物体的三维点云模型包括:
获取待增广物体的多视角图像;
根据所述待增广物体的多视角图像,建立所述待增广物体的三维点云模型。
3.根据权利要求1所述的基于多模态的物体图像增广方法,其特征在于,对所述三维点云模型进行分割,得到所述待增广物体的多个组成区块包括:
获取所述三维点云模型中各个采样点的坐标信息;
将所述三维点云模型中各个采样点的坐标信息输入预先训练好的点云特征向量生成模型,输出所述三维点云模型中各个采样点的特征向量;
根据所述三维点云模型中各个采样点的特征向量,对所述三维点云模型进行分割,得到所述待增广物体的多个组成区块。
4.根据权利要求3所述的基于多模态的物体图像增广方法,其特征在于,在将所述三维点云模型中各个采样点的坐标信息输入预先训练好的点云特征向量生成模型,输出所述三维点云模型中各个采样点的特征向量之前,所述方法还包括:
获取模型训练的样本数据,所述样本数据包含:多个已知物体的三维点云模型及对应模型中各个采样点的特征向量;
根据所述样本数据,对点云特征向量生成模型进行训练,得到所述点云特征向量生成模型。
5.根据权利要求1所述的基于多模态的物体图像增广方法,其特征在于,所述获取所述待增广物体的实际运动视频数据,并根据所述实际运动视频数据,确定所述待增广物体的一个或多个运动轴包括:
获取所述待增广物体的实际运动视频数据,并从所述实际运动视频数据中提取待增广物体的一个或多个关键像素点,所述关键像素点为反映所述待增广物体运动的像素点;
将提取出的各个关键像素点与所述待增广物体的三维点云模型进行关联,以获取所述三维点云模型中与各个关键像素点关联的采样点;
将所述三维点云模型中与各个关键像素点关联的采样点,按照相应关键像素点在所述实际运动视频数据中的运动轨迹进行运动,以确定所述待增广物体的运动轴。
6.根据权利要求1所述的基于多模态的物体图像增广方法,其特征在于,所述获取所述待增广物体的实际运动视频数据,并根据所述实际运动视频数据,确定所述待增广物体的一个或多个运动轴包括:
利用预先训练好的运动轴提取模型,从待增广物体的三维点云模型中提取出第一数量的运动轴;
利用预先训练好的运动轴筛选模型,从所述第一数量的运动轴筛选出第二数量的运动轴,其中,所述第二数量小于所述第一数量;
根据筛选出的运动轴和所述待增广物体的各个组成区块,生成待增广物体的虚拟运动视频数据;
将所述待增广物体的实际运动视频数据与虚拟运动视频数据输入到预先训练好的生成式对抗网络模型,输出所述待增广物体的各个运动轴。
7.根据权利要求1所述的基于多模态的物体图像增广方法,其特征在于,对所述待增广物体的各个运动区块设置不同的运动状态,以生成所述待增广物体的图像增广数据包括:
对所述待增广物体的各个运动区块设置不同的运动状态,得到所述待增广物体在不同运动状态下的模型;
为所述待增广物体在不同运动状态下的模型设置多种光照属性信息,得到所述待增广物体在不同运动状态、不同光照属性下的多个模型;
对所述待增广物体在不同运动状态、不同光照属性下的多个模型分别进行采样,得到所述待增广物体对应的图像增广数据。
8.一种基于多模态的物体图像增广的装置,其特征在于,包括:
获取模型模块,用于获取待增广物体的三维点云模型;
分割模型模块,用于对所述三维点云模型进行分割,得到所述待增广物体的多个组成区块;
获取视频模块,用于获取所述待增广物体的实际运动视频数据,并根据所述实际运动视频数据,确定所述待增广物体的一个或多个运动轴;
识别运动区块模块,用于根据所述待增广物体的一个或多个运动轴,从所述多个组成区块中识别出所述待增广物体的一个或多个运动区块;
增广数据模块,用于对所述待增广物体的各个运动区块设置不同的运动状态,以生成所述待增广物体的图像增广数据。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7中任意一项所述基于多模态的物体图像增广方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的基于多模态的物体图像增广方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210280587.0A CN114663810B (zh) | 2022-03-21 | 2022-03-21 | 基于多模态的物体图像增广方法及装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210280587.0A CN114663810B (zh) | 2022-03-21 | 2022-03-21 | 基于多模态的物体图像增广方法及装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114663810A CN114663810A (zh) | 2022-06-24 |
CN114663810B true CN114663810B (zh) | 2023-11-10 |
Family
ID=82030647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210280587.0A Active CN114663810B (zh) | 2022-03-21 | 2022-03-21 | 基于多模态的物体图像增广方法及装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114663810B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116740820B (zh) * | 2023-08-16 | 2023-10-31 | 南京理工大学 | 基于自动增广的单视角点云三维人体姿态与形状估计方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797264A (zh) * | 2019-04-09 | 2020-10-20 | 北京京东尚科信息技术有限公司 | 图像增广与神经网络训练方法、装置、设备及存储介质 |
CN111832745A (zh) * | 2020-06-12 | 2020-10-27 | 北京百度网讯科技有限公司 | 数据增广的方法、装置及电子设备 |
CN111932673A (zh) * | 2020-09-22 | 2020-11-13 | 中国人民解放军国防科技大学 | 一种基于三维重建的物体空间数据增广方法及系统 |
CN112116720A (zh) * | 2020-09-18 | 2020-12-22 | 平安科技(深圳)有限公司 | 三维点云的增广方法、装置、存储介质及计算机设备 |
CN113126115A (zh) * | 2021-04-06 | 2021-07-16 | 北京航空航天大学杭州创新研究院 | 基于点云的语义slam方法、装置、电子设备和存储介质 |
CN113689540A (zh) * | 2021-07-22 | 2021-11-23 | 清华大学 | 基于rgb视频的物体重建方法和装置 |
-
2022
- 2022-03-21 CN CN202210280587.0A patent/CN114663810B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797264A (zh) * | 2019-04-09 | 2020-10-20 | 北京京东尚科信息技术有限公司 | 图像增广与神经网络训练方法、装置、设备及存储介质 |
CN111832745A (zh) * | 2020-06-12 | 2020-10-27 | 北京百度网讯科技有限公司 | 数据增广的方法、装置及电子设备 |
CN112116720A (zh) * | 2020-09-18 | 2020-12-22 | 平安科技(深圳)有限公司 | 三维点云的增广方法、装置、存储介质及计算机设备 |
WO2021169498A1 (zh) * | 2020-09-18 | 2021-09-02 | 平安科技(深圳)有限公司 | 三维点云的增广方法、装置、存储介质及计算机设备 |
CN111932673A (zh) * | 2020-09-22 | 2020-11-13 | 中国人民解放军国防科技大学 | 一种基于三维重建的物体空间数据增广方法及系统 |
CN113126115A (zh) * | 2021-04-06 | 2021-07-16 | 北京航空航天大学杭州创新研究院 | 基于点云的语义slam方法、装置、电子设备和存储介质 |
CN113689540A (zh) * | 2021-07-22 | 2021-11-23 | 清华大学 | 基于rgb视频的物体重建方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114663810A (zh) | 2022-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11501507B2 (en) | Motion compensation of geometry information | |
Liang et al. | Stereo matching using multi-level cost volume and multi-scale feature constancy | |
US11348285B2 (en) | Mesh compression via point cloud representation | |
US11373339B2 (en) | Projection-based mesh compression | |
CN109683699B (zh) | 基于深度学习实现增强现实的方法、装置及移动终端 | |
US20100194679A1 (en) | Gesture recognition system and method thereof | |
CN110379020B (zh) | 一种基于生成对抗网络的激光点云上色方法和装置 | |
KR20160003066A (ko) | 일반적인 카메라 움직임 및 파노라마 카메라 움직임을 갖는 단안 시각 slam | |
CN108537844B (zh) | 一种融合几何信息的视觉slam回环检测方法 | |
CN109635783A (zh) | 视频监控方法、装置、终端和介质 | |
JP2021119506A (ja) | ナンバープレート認識方法、ナンバープレート認識モデルの訓練方法及び装置 | |
Luo et al. | A disocclusion inpainting framework for depth-based view synthesis | |
CN113313832B (zh) | 三维模型的语义生成方法、装置、存储介质与电子设备 | |
CN114663810B (zh) | 基于多模态的物体图像增广方法及装置、设备及存储介质 | |
CN116194951A (zh) | 用于基于立体视觉的3d对象检测与分割的方法和装置 | |
CN112085842B (zh) | 深度值确定方法及装置、电子设备和存储介质 | |
CN112862953B (zh) | 一种点云数据的处理方法、装置、电子设备及存储介质 | |
US20220068024A1 (en) | Determining a three-dimensional representation of a scene | |
CN115115699A (zh) | 姿态估计方法、装置、相关设备和计算机产品 | |
Pan et al. | An automatic 2D to 3D video conversion approach based on RGB-D images | |
CN112615993A (zh) | 深度信息获取方法、双目摄像模组、存储介质及电子设备 | |
Babahajiani | Geometric computer vision: Omnidirectional visual and remotely sensed data analysis | |
CN115100360B (zh) | 图像生成方法及装置、存储介质和电子设备 | |
US20240161337A1 (en) | Matching between 2d and 3d for direct localization | |
CN116310408B (zh) | 一种建立事件相机与帧相机数据关联的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |