CN117456236A - 一种3d点云数据零样本分类方法、装置、设备及存储介质 - Google Patents
一种3d点云数据零样本分类方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN117456236A CN117456236A CN202311360007.XA CN202311360007A CN117456236A CN 117456236 A CN117456236 A CN 117456236A CN 202311360007 A CN202311360007 A CN 202311360007A CN 117456236 A CN117456236 A CN 117456236A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- projection direction
- determining
- disturbance noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000009792 diffusion process Methods 0.000 claims abstract description 49
- 238000004590 computer program Methods 0.000 claims description 16
- 238000009877 rendering Methods 0.000 claims description 16
- 238000012847 principal component analysis method Methods 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 5
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种3D点云数据零样本分类方法、装置、设备及存储介质,所述方法包括:获取待分类的3D点云数据,确定初始投影方向;根据初始投影方向将3D点云数据进行投影得到2D点云数据;获取至少两个类别的语意描述信息,结合训练好的隐层扩散模型,确定2D点云数据分别针对各类别的语意描述信息的最小预测扰动噪声误差;将各最小预测扰动噪声误差中的最小值对应的类别作为零样本分类结果。本发明提供的3D点云数据零样本分类方法,利用隐层扩散模型预测投影后的2D点云数据针对各类别的语意描述信息的最小预测扰动噪声误差,从而准确找到与图像最匹配的语意信息对应的类别。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种3D点云数据零样本分类方法、装置、设备及存储介质。
背景技术
传统的深度学习在计算机视觉领域任务中取得了卓越的成果,然而其表现高度依赖于训练数据的数量。为了模拟人类在毫无样本的情境中仅通过有限的描述信息来构建对新类别的认知过程,零样本学习任务被提出,要求模型通过利用不同于样本模态的辅助信息来识别来自于未见过类别的样本。
近年来,一些大规模的3D点云数据集,如ModelNet、ShapeNet和ScanNet等,已经被发布用于3D物体分类和场景理解任务。这些数据集为研究人员提供了用于评估算法性能和比较不同方法的基准。
现有的3D零样本分类方法包括将3D点云样本特征映射到统一的目标空间进行匹配的方法,以及将3D点云投影得到的2D图像和未见过类别的文本特征在同一个特征空间中进行匹配的方法,但这些方法需要借鉴大型的预训练模型引入其他模态的先验知识。前者由于文本特征和3D样本特征存在模态差异性,尽管映射到统一的目标空间,还是会导致这些方法在3D点云数据集上的分类准确率较低;后者存在投影角度选择的问题。且现有的方法都是通过预先设定的投影角度进行投影,然而对于未标定的点云,这种方法会导致投影的主体对于分类的有效信息在2D图像中被遮挡,影响最终分类的性能。
发明内容
本发明提供了一种3D点云数据零样本分类方法、装置、设备及存储介质,以实现通过零样本学习对3D点云数据进行准确分类。
根据本发明的一方面,提供了一种3D点云数据零样本分类方法,包括:
获取待分类的3D点云数据,确定初始投影方向;
根据所述初始投影方向将所述3D点云数据进行投影得到2D点云数据;
获取至少两个类别的语意描述信息,结合训练好的隐层扩散模型,确定所述2D点云数据分别针对各类别的语意描述信息的最小预测扰动噪声误差;
将各所述最小预测扰动噪声误差中的最小值对应的类别作为零样本分类结果。
进一步地,确定初始投影方向,包括:
确定所述3D点云数据中的中心点,以所述中心点为原点建立三维坐标系;
根据所述3D点云数据中的各点在所述三维坐标系中的坐标确定投影的视点;
将所述视点的方向作为投影旋转中心轴,将旋转角度为零的方向作为所述初始投影方向。
进一步地,根据所述3D点云数据中的各点在所述三维坐标系中的坐标确定投影的视点,包括:
根据主成分分析方法,分析所述3D点云数据中的各点在所述三维坐标系中的坐标,得到坐标分布方差;
将所述坐标分布方差按照从大到小的顺序排序,在所述坐标分布方差中的最小值对应的方向上确定所述视点的位置。
进一步地,所述隐层扩散模型中包含编码器和扩散模型,结合训练好的隐层扩散模型,确定所述2D点云数据分别针对各类别的语意描述信息的最小预测噪声误差,包括:
将所述2D点云数据输入所述编码器中,得到所述2D点云数据对应的隐层特征;
在所述隐层特征中加入随机噪声,得到噪声特征;
将所述噪声特征与各类别的语意描述信息分别同时输入所述扩散模型中,得到各类别对应的预测扰动噪声及预测扰动噪声误差;
针对每个类别对应的预测扰动噪声误差,分别确定对于投影方向的偏导,调整投影方向并重新确定预测扰动噪声误差对投影方向的偏导,直到偏导小于设定阈值或达到迭代次数,将最后一次迭代对应的投影方向作为目标投影方向,将所述目标投影方向对应的预测扰动噪声误差确定为所述最小预测噪声误差。
进一步地,调整投影方向包括:
将上一次迭代中的投影方向与偏导的差值确定为下一次迭代的投影方向。
进一步地,所述2D点云数据包括以下至少一种:对所述3D点云数据投影渲染得到的渲染图像、根据相机与所述3D点云数据的距离得到的深度图像和对所述渲染图像提取边缘得到的边缘图像。
进一步地,将所述2D点云数据输入所述编码器中,得到所述2D点云数据对应的隐层特征,包括:
将所述渲染图像、所述深度图像和所述边缘图像中的至少两个分别输入所述编码器中,得到至少两个单一特征;
将所述至少两个单一特征进行融合,将融合结果作为所述隐层特征。
根据本发明的另一方面,提供了一种3D点云数据零样本分类装置,包括:
初始投影方向确定模块,用于获取待分类的3D点云数据,确定初始投影方向;
投影模块,用于根据所述初始投影方向将所述3D点云数据进行投影得到2D点云数据;
最小预测扰动噪声误差确定模块,用于获取至少两个类别的语意描述信息,结合训练好的隐层扩散模型,确定所述2D点云数据分别针对各类别的语意描述信息的最小预测扰动噪声误差;
零样本分类结果确定模块,用于将各所述最小预测扰动噪声误差中的最小值对应的类别作为零样本分类结果。
可选的,初始投影方向确定模块还用于:
确定所述3D点云数据中的中心点,以所述中心点为原点建立三维坐标系;
根据所述3D点云数据中的各点在所述三维坐标系中的坐标确定投影的视点;
将所述视点的方向作为投影旋转中心轴,将旋转角度为零的方向作为所述初始投影方向。
可选的,初始投影方向确定模块还用于:
根据主成分分析方法,分析所述3D点云数据中的各点在所述三维坐标系中的坐标,得到坐标分布方差;
将所述坐标分布方差按照从大到小的顺序排序,在所述坐标分布方差中的最小值对应的方向上确定所述视点的位置。
可选的,所述隐层扩散模型中包含编码器和扩散模型,最小预测扰动噪声误差确定模块还用于:
将所述2D点云数据输入所述编码器中,得到所述2D点云数据对应的隐层特征;
在所述隐层特征中加入随机噪声,得到噪声特征;
将所述噪声特征与各类别的语意描述信息分别同时输入所述扩散模型中,得到各类别对应的预测扰动噪声及预测扰动噪声误差;
针对每个类别对应的预测扰动噪声误差,分别确定对于投影方向的偏导,调整投影方向并重新确定预测扰动噪声误差对投影方向的偏导,直到偏导小于设定阈值或达到迭代次数,将最后一次迭代对应的投影方向作为目标投影方向,将所述目标投影方向对应的预测扰动噪声误差确定为所述最小预测噪声误差。
可选的,最小预测扰动噪声误差确定模块还用于:
将上一次迭代中的投影方向与偏导的差值确定为下一次迭代的投影方向。
可选的,所述2D点云数据包括以下至少一种:对所述3D点云数据投影渲染得到的渲染图像、根据相机与所述3D点云数据的距离得到的深度图像和对所述渲染图像提取边缘得到的边缘图像。
可选的,最小预测扰动噪声误差确定模块还用于:
将所述渲染图像、所述深度图像和所述边缘图像中的至少两个分别输入所述编码器中,得到至少两个单一特征;
将所述至少两个单一特征进行融合,将融合结果作为所述隐层特征。
根据本发明的另一方面,提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的3D点云数据零样本分类方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的3D点云数据零样本分类方法。
本发明公开的3D点云数据零样本分类方法,首先获取待分类的3D点云数据,确定初始投影方向;然后根据初始投影方向将3D点云数据进行投影得到2D点云数据;再获取至少两个类别的语意描述信息,结合训练好的隐层扩散模型,确定2D点云数据分别针对各类别的语意描述信息的最小预测扰动噪声误差;最后将各最小预测扰动噪声误差中的最小值对应的类别作为零样本分类结果。本发明提供的3D点云数据零样本分类方法,利用隐层扩散模型预测投影后的2D点云数据针对各类别的语意描述信息的最小预测扰动噪声误差,从而准确找到与图像最匹配的语意信息对应的类别。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例一提供的一种3D点云数据零样本分类方法的流程图;
图2是根据本发明实施例二提供的一种3D点云数据零样本分类方法的流程图;
图3是根据本发明实施例二提供的一种3D点云数据零样本分类过程示意图;
图4为根据本发明实施例三提供的一种3D点云数据零样本分类装置的结构示意图;
图5是实现本发明实施例四的3D点云数据零样本分类方法的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1为本发明实施例一提供的一种3D点云数据零样本分类方法的流程图,本实施例可适用于在零样本学习的场景中对3D点云数据进行分类的情况,该方法可以由3D点云数据零样本分类装置来执行,该装置可以采用硬件和/或软件的形式实现,该装置可配置于电子设备中。如图1所示,该方法包括:
S110、获取待分类的3D点云数据,确定初始投影方向。
其中,3D点云数据为空间中的一组或多组数据点,为对3D点云数据进行分类,需要对其进行投影,投影的结果与投影方向相关,为找到最优的投影方向,可以确定投影方向的初始值并通过设定的算法对投影方向的初始值进行优化,直到得到最优的投影方向,该投影方向的初始值即初始投影方向。
在本实施例中,获取到待分类的3D点云数据后,可以建立三维坐标系,并得到3D点云数据中的各点在该三维坐标系中的坐标,根据对各坐标的分析确定初始投影方向。
可选的,可以根据各坐标在三维坐标系中的分布的离散情况,重新建立坐标系,将离散程度最大的方向作为初始投影方向。
S120、根据初始投影方向将3D点云数据进行投影得到2D点云数据。
其中,为对3D点云数据进行分类,需要对其进行投影,即将3D点云数据转化为2D点云数据,2D点云数据即投影的结果。
在本实施例中,确定初始投影方向后,按照该方向对待分类的3D点云数据进行投影处理,即可得到2D点云数据。
优选地,在进行投影的过程中,可以使用第三方支持库Pytorch3d对待分类的3D点云进行投影渲染获得2D渲染图作为本实施例中所需的2D点云数据。其中,PyTorch3D是一个用于3D深度学习的模块化,高效且可微的运算符库,它包括一个用于网格和点云的快速,模块化,可微的渲染器,支持按合成进行分析的方法。
S130、获取至少两个类别的语意描述信息,结合训练好的隐层扩散模型,确定2D点云数据分别针对各类别的语意描述信息的最小预测扰动噪声误差。
其中,语意描述信息是用来说明图像内容的描述图像的语意信息,在本实施例中,为对3D点云数据进行分类,需要获取至少两个类别的语意描述信息,例如,语意描述信息可以是“动物”和“植物”,则根据投影得到的2D点云数据,结合训练好的隐层扩散模型,可以确定待分类的3D点云数据的分类结果,即确定这组数据点构成的图像属于动物还是植物。
进一步地,隐层扩散模型(Diffusion Model)是一类生成模型,在前向阶段对图像逐步施加噪声,直至图像被破坏变成完全的高斯噪声,然后在逆向阶段学习从高斯噪声还原为原始图像。
在本实施例中,利用隐层扩散模型,可以确定2D点云数据分别针对各类别的语意描述信息的最小预测扰动噪声误差。
具体的,隐层扩散模型包含预训练的解码编码过程和隐层特征空间的扩散过程。其中编码器E可将每个图像样本p映射到特定的隐层特征空间得到对应隐层特征f=E(p),解码器D可将每个隐层特征f映射回样本空间得到重建的对应图像样本p'=D(f)。扩散过程是针对隐层特征f的扰动添加和去除过程。其中,前向扩散过程是一个扰动添加过程,即以隐层特征作为初始特征(f0=f),逐步增加扰动噪声直至其符合随机噪声分布的过程。逆向扩散过程对应的是扰动去除过程,其噪声估拟模块F通过以语义描述S为条件信息的CUNet(Conditional UNet,条件卷积神经网络)架构近似地估拟由第t步反推第t-1步特征的概率分布q(ft-1|ft,S),从而预测出第t步的扰动噪声估拟εt'=F(ft,S,t)用于进行扰动去除。
S140、将各最小预测扰动噪声误差中的最小值对应的类别作为零样本分类结果。
在本实施例中,根据获取的各类别的语意描述信息,确定2D点云数据分别针对各类别的语意描述信息的最小预测扰动噪声误差后,可以确定各最小预测扰动噪声误差中的最小值,该最小值对应的类别即最终的3D点云数据零样本分类结果。
具体的,设待分类的3D点云数据为x(n),通过上述步骤可以得到的各类别的最小预测扰动噪声误差表示为MSEk (n),其中k表示类别,通过比较该数据样本的各类别对应的最小预测扰动噪声误差,得到其中的最小值对应的类别为此时得到的即最后的分类结果。至此,达到3D点云样本在零样本情境下的类别预测目的。
本发明公开的3D点云数据零样本分类方法,首先获取待分类的3D点云数据,确定初始投影方向;然后根据初始投影方向将3D点云数据进行投影得到2D点云数据;再获取至少两个类别的语意描述信息,结合训练好的隐层扩散模型,确定2D点云数据分别针对各类别的语意描述信息的最小预测扰动噪声误差;最后将各最小预测扰动噪声误差中的最小值对应的类别作为零样本分类结果。本发明提供的3D点云数据零样本分类方法,利用隐层扩散模型预测投影后的2D点云数据针对各类别的语意描述信息的最小预测扰动噪声误差,从而准确找到与图像最匹配的语意信息对应的类别。
实施例二
图2为本发明实施例二提供的一种3D点云数据零样本分类方法的流程图,本实施例为上述实施例的特征细化与追加。如图2所示,该方法包括:
S210、获取待分类的3D点云数据,确定3D点云数据中的中心点,以中心点为原点建立三维坐标系。
在本实施例中,获取到待分类的3D点云数据后,可以先建立一个三维坐标系,以便后续步骤中确定初始投影方向。
具体的,将待分类的3D点云数据表示为x(n),在建立三维坐标系时,可以找到x(n)的中心点,将该中心点作为原点,然后以随机的相互垂直的三个方向为坐标轴建立三维坐标系。
S220、根据3D点云数据中的各点在三维坐标系中的坐标确定投影的视点。
其中,投影是把三维坐标表示的几何形体变换成二维坐标表示的图形,视点即投影中心。
在本实施例中,以3D点云数据的中心点为原点建立三维坐标系后,可以根据各点云数据在该三维坐标系中的坐标进行分析,确定一个合适的位置作为视点。
可选的,根据3D点云数据中的各点在三维坐标系中的坐标确定投影的视点的方式可以是:根据主成分分析方法,分析3D点云数据中的各点在三维坐标系中的坐标,得到坐标分布方差;将坐标分布方差按照从大到小的顺序排序,在坐标分布方差中的最小值对应的方向上确定视点的位置。
具体的,可以采用主成分分析方法对样本x(n)中所有点的对应坐标进行分析,其中,主成分分析(Principal Component Analysis,PCA)是一种多变量统计方法,它是最常用的降维方法之一,通过正交变换将一组可能存在相关性的变量数据转换为一组线性不相关的变量,转换后的变量被称为主成分。通过主成分分析方法,可以先根据各点坐标数据计算协方差矩阵,然后对该协方差矩阵进行奇异值分解,即可得到三个互相垂直的方向向量,同时还可以得到各向量对应的方差,在方差最小的向量对应的方向上固定视点。
例如,通过主成分分析方法得到的三个相互垂直的方向分别为[0.75,-0.27,-0.60],[0.65,0.15,0.75],[-0.11,-0.95,0.28],对应的方差分别为0.32、0.06和0.05,则其中方差最小的方向为[-0.11,-0.95,0.28],可以在该方向上固定视点,并令视点距离原点距离为2,即可确定视点的位置。
S230、将视点的方向作为投影旋转中心轴,将旋转角度为零的方向作为初始投影方向。
其中,视点的方向为上述步骤中视点所在的方差最小的方向。
在本实施例中,可以固定以视点的方向为投影旋转中心轴,并令初始旋转角度θ(n)=0,从而获得固定以该方向为中心轴的初始化旋转角度,获得基于视点位置和对应旋转角度θ(n)=0的初始投影方向。
S240、根据初始投影方向将3D点云数据进行投影得到2D点云数据。
在本实施例中,确定初始投影方向后,按照该方向对待分类的3D点云数据进行投影处理,即可得到2D点云数据,2D点云数据即投影的结果。
S250、将2D点云数据输入编码器中,得到2D点云数据对应的隐层特征。
其中,隐层扩散模型中包含编码器和扩散模型。
具体的,隐层扩散模型是基于稳定扩散模型(Stablediffusion)利用LAION-2B数据集预训练的隐层扩散模型,其中包含有一个编码器E、解码器D和一个扩散模型CUNet。优选地,在本实施例中仅采用编码器E和扩散模型CUNet,其中编码器E用于提取投影图像的隐层特征,输入的投影图像表示成宽高通道数为512*512*3,输出则为隐层特征表示成宽高通道数为64*64*4;扩散模型的输入是隐层特征加上采样的扰动噪声以及类别语意描述,输出则为预测的扰动噪声,输入和输出的特征表示成宽高通道数为64*64*4。
进一步地,令待分类的3D点云数据为x(n),投影得到的2D点云数据为p(n),将p(n)输入预训练的隐层扩散模型的编码器E中,可以获得对应隐层特征f(n)=E(p(n))。
进一步地,2D点云数据包括以下至少一种:对3D点云数据投影渲染得到的渲染图像、根据相机与3D点云数据的距离得到的深度图像和对渲染图像提取边缘得到的边缘图像。
具体的,根据获得的相机视点和对应的投影方向,利用第三方支持库Pytorch3d对待分类的3D点云数据进行投影渲染可以获得渲染图像pr (n);同时,也可以利用相机到物体网格面的距离计算相应的深度图像pd (n);除此之外,还可以通过边缘检测算法Candy提取渲染图的边缘图像pe (n)。
相应的,将2D点云数据输入编码器中,得到2D点云数据对应的隐层特征的方式可以是:将渲染图像、深度图像和边缘图像中的至少两个分别输入编码器中,得到至少两个单一特征;将至少两个单一特征进行融合,将融合结果作为隐层特征。
具体的,2D点云数据可以是渲染图像pr (n)、深度图像pd (n)和边缘图像pe (n)中的一种或多种,当得到渲染图像、深度图像和边缘图像中的至少两个图像时,可以通过将它们分别输入编码器得到的单一特征进行融合,将得到的融合特征作为隐层特征进行下一步处理,以提高分类的准确性。
S260、获取至少两个类别的语意描述信息,在隐层特征中加入随机噪声,得到噪声特征,将噪声特征与各类别的语意描述信息分别同时输入扩散模型中,得到各类别对应的预测扰动噪声及预测扰动噪声误差。
其中,噪声特征为在隐层特征中加入随机噪声后得到的包含噪声的特征信息,预测扰动噪声为经过扩散模型预测得到的扰动噪声。
在本实施例中,可以令随机噪声为ε(随机噪声ε服从于标准正态分布),选定扩散过程中的时间步t,则在隐层特征f(n)中加入随机噪声ε后得到的第t步的噪声特征可以表示为其中,αt=1-βt,/>βt为预先设定的扰动系数。令语意描述信息为Sk,其中k表示类别,将噪声特征ft (n)和每一类对应的语意描述信息Sk成对输入隐层扩散模型中,可以预测出时间步t时刻的类别k对应的预测扰动噪声ε(k,t) (n)=F(ft (n),Sk,t)。然后,可以计算出该样本在初始投影方向下的每类预测扰动噪声误差MSE(k,0) (n)=Dif(x(n),θ(k,0) (n),ε,,Sk,t)=‖ε-ε(k,t) (n)‖2,其中,θ(k,0) (n)为第k个类别对应的样本x(n)的初始投影方向。
根据上述方法,针对每一个类别都可以得到一个在初始投影方向下的预测扰动噪声误差,例如,假设共有10个类别,即k的取值为1-10之间的正整数,令时间步t=600,扰动系数βt=0.8392,扩散模型CUNet可以预存出t=600时刻的预测扰动噪声ε(1,600) (n)、ε(2,600) (n)、…、ε(10,600) (n),以及对应的预测扰动噪声误差MSE(1,0) (n)、MSE(2,0) (n)、…、MSE(10,0) (n)。在仿真实验中,得到的初始投影方向下的各预测扰动噪声误差数据为{125.0,109.1,116.0,109.3,104.5,112.9,110.4,109.1,113.6,111.8}。
S270、针对每个类别对应的预测扰动噪声误差,分别确定对于投影方向的偏导,调整投影方向并重新确定预测扰动噪声误差对投影方向的偏导,直到偏导小于设定阈值或达到迭代次数,将最后一次迭代对应的投影方向作为目标投影方向,将目标投影方向对应的预测扰动噪声误差确定为最小预测噪声误差。
在本实施例中,为了寻找每个类别对应的最优的投影方向,可以通过迭代的方式,计算预测扰动噪声误差对于投影方向的偏导,然后以最小化各类噪声为目标,不断调整每一类对应的投影方向,直到偏导小于设定阈值或达到迭代次数,找到每类最小的预测噪声误差。
其中,调整投影方向的方式可以是:将上一次迭代中的投影方向与偏导的差值确定为下一次迭代的投影方向。
具体的,对于类别k,计算第k类预测扰动噪声误差对于投影方向θ(k,i) (n)的偏导的方式可以是:
其中,i为迭代次数,x(n)为待分类的3D点云数据,ε为随机噪声,Sk为语意描述信息,t为表示时间步。
以最小化各类噪声误差为目标,可以通过梯度下降的方法不断调整每一类语意描述对应的投影方向,投影方向的调整方式可以表示为:
其中,q为优化系数。
当迭代次数达到限定优化步数或计算出的偏导小于固定阈值后,可以得到该样本每类对应的最终投影方向θk (n)和每类的最小预测噪声误差MSEk (n)=Dif(x(n),θk (n),ε,Sk,t)。这里每个类别的迭代计算中的初始投影方向均为上述步骤在得到的初始投影方向,即θk,0 (n)=θ(n)=0。
S280、将各最小预测扰动噪声误差中的最小值对应的类别作为零样本分类结果。
在本实施例中,根据获取的各类别的语意描述信息,确定2D点云数据分别针对各类别的语意描述信息的最小预测扰动噪声误差后,可以确定各最小预测扰动噪声误差中的最小值,该最小值对应的类别即最终的3D点云数据零样本分类结果。
图3是本发明实施例提供的一种3D点云数据零样本分类过程示意图,如图所示,确定待分类的3D点云数据的初始投影方向后,将3D点云数据进行投影得到2D点云数据,然后将其输入编码器中得到对应的隐层特征,在隐层特征中加入随机噪声ε,得到噪声特征,再将噪声特征与各类别的语意描述信息分别同时输入扩散模型中,得到各类别对应的预测扰动噪声ε(k,t) (n)及预测扰动噪声误差MSE(k,0) (n),其中,预测扰动噪声误差MSE(k,0) (n)=‖ε-ε(k,t) (n)‖2。最后,根据每个类别对应的预测扰动噪声误差迭代计算,寻找最优的投影方向,并得到最小预测噪声误差,将各最小预测扰动噪声误差中的最小值对应的类别作为零样本分类结果。
进一步地,由于待分类的3D点云数据投影得到的2D点云数据为p(n)可以包括渲染图像pr (n)、深度图像pd (n)和边缘图像pe (n),可以把这三种图像分别输入编码器得到隐层特征,再分别计算各类别对应的预测扰动噪声及预测扰动噪声误差。通过这种方式,针对各个类别这三种图像都可以得到各自的最小预测噪声误差MSEk,r (n)、MSEk,d (n)和MSEk,e (n),然后可以对相同类别的三个最小预测噪声误差求平均值MSEk-average (n),再将每个类别的误差平均值中的最小值对应的类别作为零样本分类结果。
例如,若某待分类的3D点云样本最终得到的10个类别的最小预测噪声误差的平均值分别为{84.8,81.2,85.3,90.3,78.1,87.3,84.9,93.8,89.1,92.2},其中的最小值78.1对应的类别为5,即因此,该样本在零样本情境下的类别预测结果就是第五类。
本发明公开的3D点云数据零样本分类方法,利用隐层扩散模型预测投影后的2D点云数据针对各类别的语意描述信息的最小预测扰动噪声误差,从而准确找到与图像最匹配的语意信息对应的类别。并且本方法提出了利用主成分分析法的投影方向优化方法,解决了3D点云数据未标定样本投影角度选择的问题,此外,本方法在对3D点云数据的投影中结合了渲染图、深度图和边缘图三种图像,进一步地提升了分类的准确性。
实施例三
图4为本发明实施例三提供的一种3D点云数据零样本分类装置的结构示意图。如图4所示,该装置包括:初始投影方向确定模块310,投影模块320,最小预测扰动噪声误差确定模块330和零样本分类结果确定模块340。
初始投影方向确定模块310,用于获取待分类的3D点云数据,确定初始投影方向。
投影模块320,用于根据初始投影方向将3D点云数据进行投影得到2D点云数据。
最小预测扰动噪声误差确定模块330,用于获取至少两个类别的语意描述信息,结合训练好的隐层扩散模型,确定2D点云数据分别针对各类别的语意描述信息的最小预测扰动噪声误差。
零样本分类结果确定模块340,用于将各最小预测扰动噪声误差中的最小值对应的类别作为零样本分类结果。
可选的,初始投影方向确定模块310还用于:
确定3D点云数据中的中心点,以中心点为原点建立三维坐标系;根据3D点云数据中的各点在三维坐标系中的坐标确定投影的视点;将视点的方向作为投影旋转中心轴,将旋转角度为零的方向作为初始投影方向。
可选的,初始投影方向确定模块310还用于:
根据主成分分析方法,分析3D点云数据中的各点在三维坐标系中的坐标,得到坐标分布方差;将坐标分布方差按照从大到小的顺序排序,在坐标分布方差中的最小值对应的方向上确定视点的位置。
可选的,述隐层扩散模型中包含编码器和扩散模型,最小预测扰动噪声误差确定模块330还用于:
将2D点云数据输入编码器中,得到2D点云数据对应的隐层特征;在隐层特征中加入随机噪声,得到噪声特征;将噪声特征与各类别的语意描述信息分别同时输入扩散模型中,得到各类别对应的预测扰动噪声及预测扰动噪声误差;针对每个类别对应的预测扰动噪声误差,分别确定对于投影方向的偏导,调整投影方向并重新确定预测扰动噪声误差对投影方向的偏导,直到偏导小于设定阈值或达到迭代次数,将最后一次迭代对应的投影方向作为目标投影方向,将目标投影方向对应的预测扰动噪声误差确定为最小预测噪声误差。
可选的,最小预测扰动噪声误差确定模块330还用于:
将上一次迭代中的投影方向与偏导的差值确定为下一次迭代的投影方向。
可选的,2D点云数据包括以下至少一种:对3D点云数据投影渲染得到的渲染图像、根据相机与3D点云数据的距离得到的深度图像和对渲染图像提取边缘得到的边缘图像。
可选的,最小预测扰动噪声误差确定模块330还用于:
将渲染图像、深度图像和边缘图像中的至少两个分别输入编码器中,得到至少两个单一特征;将至少两个单一特征进行融合,将融合结果作为隐层特征。
本发明实施例所提供的3D点云数据零样本分类装置可执行本发明任意实施例所提供的3D点云数据零样本分类方法,具备执行方法相应的功能模块和有益效果。
实施例四
图5示出了可以用来实施本发明的实施例的电子设备10的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图5所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
电子设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许电子设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如3D点云数据零样本分类方法。
在一些实施例中,3D点云数据零样本分类方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的3D点云数据零样本分类的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行3D点云数据零样本分类方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (10)
1.一种3D点云数据零样本分类方法,其特征在于,包括:
获取待分类的3D点云数据,确定初始投影方向;
根据所述初始投影方向将所述3D点云数据进行投影得到2D点云数据;
获取至少两个类别的语意描述信息,结合训练好的隐层扩散模型,确定所述2D点云数据分别针对各类别的语意描述信息的最小预测扰动噪声误差;
将各所述最小预测扰动噪声误差中的最小值对应的类别作为零样本分类结果。
2.根据权利要求1所述的方法,其特征在于,确定初始投影方向,包括:
确定所述3D点云数据中的中心点,以所述中心点为原点建立三维坐标系;
根据所述3D点云数据中的各点在所述三维坐标系中的坐标确定投影的视点;
将所述视点的方向作为投影旋转中心轴,将旋转角度为零的方向作为所述初始投影方向。
3.根据权利要求2所述的方法,其特征在于,根据所述3D点云数据中的各点在所述三维坐标系中的坐标确定投影的视点,包括:
根据主成分分析方法,分析所述3D点云数据中的各点在所述三维坐标系中的坐标,得到坐标分布方差;
将所述坐标分布方差按照从大到小的顺序排序,在所述坐标分布方差中的最小值对应的方向上确定所述视点的位置。
4.根据权利要求1所述的方法,其特征在于,所述隐层扩散模型中包含编码器和扩散模型,结合训练好的隐层扩散模型,确定所述2D点云数据分别针对各类别的语意描述信息的最小预测噪声误差,包括:
将所述2D点云数据输入所述编码器中,得到所述2D点云数据对应的隐层特征;
在所述隐层特征中加入随机噪声,得到噪声特征;
将所述噪声特征与各类别的语意描述信息分别同时输入所述扩散模型中,得到各类别对应的预测扰动噪声及预测扰动噪声误差;
针对每个类别对应的预测扰动噪声误差,分别确定对于投影方向的偏导,调整投影方向并重新确定预测扰动噪声误差对投影方向的偏导,直到偏导小于设定阈值或达到迭代次数,将最后一次迭代对应的投影方向作为目标投影方向,将所述目标投影方向对应的预测扰动噪声误差确定为所述最小预测噪声误差。
5.根据权利要求4所述的方法,其特征在于,调整投影方向包括:
将上一次迭代中的投影方向与偏导的差值确定为下一次迭代的投影方向。
6.根据权利要求4所述的方法,其特征在于,所述2D点云数据包括以下至少一种:对所述3D点云数据投影渲染得到的渲染图像、根据相机与所述3D点云数据的距离得到的深度图像和对所述渲染图像提取边缘得到的边缘图像。
7.根据权利要求6所述的方法,其特征在于,将所述2D点云数据输入所述编码器中,得到所述2D点云数据对应的隐层特征,包括:
将所述渲染图像、所述深度图像和所述边缘图像中的至少两个分别输入所述编码器中,得到至少两个单一特征;
将所述至少两个单一特征进行融合,将融合结果作为所述隐层特征。
8.一种3D点云数据零样本分类装置,其特征在于,包括:
初始投影方向确定模块,用于获取待分类的3D点云数据,确定初始投影方向;
投影模块,用于根据所述初始投影方向将所述3D点云数据进行投影得到2D点云数据;
最小预测扰动噪声误差确定模块,用于获取至少两个类别的语意描述信息,结合训练好的隐层扩散模型,确定所述2D点云数据分别针对各类别的语意描述信息的最小预测扰动噪声误差;
零样本分类结果确定模块,用于将各所述最小预测扰动噪声误差中的最小值对应的类别作为零样本分类结果。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的3D点云数据零样本分类方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-7中任一项所述的3D点云数据零样本分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311360007.XA CN117456236A (zh) | 2023-10-19 | 2023-10-19 | 一种3d点云数据零样本分类方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311360007.XA CN117456236A (zh) | 2023-10-19 | 2023-10-19 | 一种3d点云数据零样本分类方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117456236A true CN117456236A (zh) | 2024-01-26 |
Family
ID=89595804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311360007.XA Pending CN117456236A (zh) | 2023-10-19 | 2023-10-19 | 一种3d点云数据零样本分类方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117456236A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117745956A (zh) * | 2024-02-20 | 2024-03-22 | 之江实验室 | 一种基于位姿引导的图像生成方法、装置、介质及设备 |
-
2023
- 2023-10-19 CN CN202311360007.XA patent/CN117456236A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117745956A (zh) * | 2024-02-20 | 2024-03-22 | 之江实验室 | 一种基于位姿引导的图像生成方法、装置、介质及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7373554B2 (ja) | クロスドメイン画像変換 | |
US20230267730A1 (en) | Image abnormality detection model training | |
WO2019214344A1 (zh) | 系统增强学习方法和装置、电子设备、计算机存储介质 | |
CN115423946B (zh) | 大场景弹性语义表征与自监督光场重建方法及装置 | |
CN115147558A (zh) | 三维重建模型的训练方法、三维重建方法及装置 | |
CN114792355B (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN113793370B (zh) | 三维点云配准方法、装置、电子设备及可读介质 | |
CN117456236A (zh) | 一种3d点云数据零样本分类方法、装置、设备及存储介质 | |
CN113129352A (zh) | 一种稀疏光场重建方法及装置 | |
CN115578515A (zh) | 三维重建模型的训练方法、三维场景渲染方法及装置 | |
CN116563493A (zh) | 基于三维重建的模型训练方法、三维重建方法及装置 | |
CN114708374A (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN112861940A (zh) | 双目视差估计方法、模型训练方法以及相关设备 | |
CN115937546A (zh) | 图像匹配、三维图像重建方法、装置、电子设备以及介质 | |
CN108985375A (zh) | 考虑粒子权值空间分布的多特征融合跟踪方法 | |
CN111161238A (zh) | 图像质量评价方法及装置、电子设备、存储介质 | |
CN113409307A (zh) | 基于异质噪声特性的图像去噪方法、设备及介质 | |
CN116596750A (zh) | 一种点云处理方法、装置、电子设备及存储介质 | |
CN115457365B (zh) | 一种模型的解释方法、装置、电子设备及存储介质 | |
CN116798027A (zh) | 基于多尺度特征提取的三维点云实时云匹配方法及装置 | |
CN115375740A (zh) | 位姿确定方法和三维模型的生成方法、装置、设备、介质 | |
CN111914751A (zh) | 一种图像人群密度识别检测方法及系统 | |
CN115082539A (zh) | 一种图像深度预测方法及电子设备 | |
Li et al. | Spatial-temporal graph Transformer for object tracking against noise spoofing interference | |
CN116452741B (zh) | 对象重建方法、对象重建模型的训练方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |