CN116051427B - 点云去噪模型获取方法、点云融合方法及其相关设备 - Google Patents
点云去噪模型获取方法、点云融合方法及其相关设备 Download PDFInfo
- Publication number
- CN116051427B CN116051427B CN202310331215.0A CN202310331215A CN116051427B CN 116051427 B CN116051427 B CN 116051427B CN 202310331215 A CN202310331215 A CN 202310331215A CN 116051427 B CN116051427 B CN 116051427B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- model
- data
- denoising model
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 47
- 238000000605 extraction Methods 0.000 claims abstract description 43
- 238000009792 diffusion process Methods 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 77
- 238000004590 computer program Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 3
- 230000004927 fusion Effects 0.000 abstract description 15
- 239000004973 liquid crystal related substance Substances 0.000 description 20
- 230000009286 beneficial effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Indication And Recording Devices For Special Purposes And Tariff Metering Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请属于数据融合技术领域,公开了一种点云去噪模型获取方法、点云融合方法及其相关设备,基于扩散模型同时对噪声提取模型和点云去噪模型进行迭代训练,以得到训练后的点云去噪模型,可使得到的点云去噪模型能够有效剔除点云数据中的噪声,利用该点云去噪模型对待融合点云数据进行去噪处理后,再进行点云融合,可提高点云融合的精度。
Description
技术领域
本申请涉及数据融合技术领域,具体而言,涉及一种点云去噪模型获取方法、点云融合方法及其相关设备。
背景技术
随着图像处理技术的不断发展,作为图像处理技术的重要分支之一的三维重建技术在机器人领域的应用越来越广泛和实用。例如,移动机器人使用三维重建技术来感知环境和识别场景从而实现地图构建和导航,工业机器人采用三维重建技术对目标物体进行重建和感知从而实现智能作业。
三维重建过程主要涉及点云数据的融合,通过相机、雷达等传感器采集的点云数据通常是含有噪声的,噪声的存在会影响点云融合的精度,因此,需要寻求一种能够有效剔除点云数据中的噪声的点云去噪模型,用以在点云融合前剔除点云数据的噪声。
发明内容
本申请的目的在于提供一种点云去噪模型获取方法、点云融合方法及其相关设备,有利于有效地剔除点云数据中的噪声以提高点云融合的精度。
第一方面,本申请提供了一种点云去噪模型获取方法,包括步骤:
A1.采集多帧无噪声点云数据用以与预设噪声结合形成多帧第一点云数据;
A2.分别以各所述第一点云数据的所述预设噪声和所述无噪声点云数据作为各所述第一点云数据的第一参考数据和第二参考数据,用每个所述第一点云数据和对应的所述第一参考数据及对应的所述第二参考数据组成一个训练样本,得到训练样本集;
A3.基于扩散模型,用所述训练样本集同时对噪声提取模型和点云去噪模型进行迭代训练,直到总损失函数收敛,得到训练好的点云去噪模型;所述总损失函数与所述噪声提取模型的输出数据、所述点云去噪模型的输出数据、所述第一参考数据和所述第二参考数据相关。
基于扩散模型同时对噪声提取模型和点云去噪模型进行迭代训练,可使得到的点云去噪模型能够有效剔除点云数据中的噪声,从而有利于提高点云融合的精度。
优选地,所述扩散模型为:
其中,为所述噪声提取模型的模型函数,/>为/>的反函数,/>为所述点云去噪模型的模型函数,/>为输入的点云数据,/>为所述噪声提取模型的模型参数,/>为所述点云去噪模型的模型参数,/>为所述噪声提取模型的第一输出数据,/>为所述点云去噪模型的第二输出数据,/>为所述噪声提取模型的反函数输出数据。
通过噪声提取模型得到使点云变为纯噪声的变换趋势的特征,然后进行反向变换从而可将噪声从原始点云数据中剔除,可以非常有效地剔除噪声。
优选地,步骤A3中,每次迭代过程包括步骤:
A301.把所述训练样本的所述第一点云数据输入所述噪声提取模型,以获取所述噪声提取模型的第一输出数据和反函数输出数据;
A302.根据所述训练样本的所述第一参考数据和所述第一输出数据计算第一损失函数;
A303.把所述反函数输出数据输入所述点云去噪模型,以获取所述点云去噪模型的第二输出数据;
A304.根据所述训练样本的所述第二参考数据和所述第二输出数据计算第二损失函数;
A305.根据所述第一损失函数和所述第二损失函数计算所述总损失函数;
A306.根据所述总损失函数更新所述噪声提取模型和所述点云去噪模型的模型参数;
A307.若所述总损失函数收敛,则停止迭代。
优选地,步骤A302包括:
根据以下公式计算所述第一损失函数:
优选地,步骤A304包括:
根据以下公式计算所述第二损失函数:
优选地,步骤A305包括:
根据以下公式计算所述总损失函数:
优选地,步骤A306包括:
根据以下公式更新所述噪声提取模型和所述点云去噪模型的模型参数:
利用该方法更新模型参数,有利于提高总损失函数的收敛速度。
第二方面,本申请提供了一种点云融合方法,包括步骤:
B1.获取多帧待融合点云数据;
B2.依次把各所述待融合点云数据输入点云去噪模型,得到所述点云去噪模型输出的无噪点云数据;所述点云去噪模型通过前文所述点云去噪模型获取方法得到;
B3.融合所述无噪点云数据得到融合点云数据。
第三方面,本申请提供了一种电子设备,包括处理器和存储器,所述存储器存储有所述处理器可执行的计算机程序,所述处理器执行所述计算机程序时,运行如前文所述点云去噪模型获取方法或者如前文所述点云融合方法中的步骤。
第四方面,本申请提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时运行如前文所述点云去噪模型获取方法或者如前文所述点云融合方法中的步骤。
有益效果:本申请提供的云去噪模型获取方法、点云融合方法及其相关设备,基于扩散模型同时对噪声提取模型和点云去噪模型进行迭代训练,以得到训练后的点云去噪模型,可使得到的点云去噪模型能够有效剔除点云数据中的噪声,利用该点云去噪模型对待融合点云数据进行去噪处理后,再进行点云融合,可提高点云融合的精度。
附图说明
图1为本申请实施例提供的点云去噪模型获取方法的流程图。
图2为本申请实施例提供的点云融合方法的流程图。
图3为本申请实施例提供的电子设备的结构示意图。
标号说明:301、处理器;302、存储器;303、通信总线。
具体实施方式
下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参照图1,图1是本申请一些实施例中的一种点云去噪模型获取方法,包括步骤:
A1.采集多帧无噪声点云数据用以与预设噪声结合形成多帧第一点云数据;
A2.分别以各第一点云数据的预设噪声和无噪声点云数据作为各第一点云数据的第一参考数据和第二参考数据,用每个第一点云数据和对应的第一参考数据及对应的第二参考数据组成一个训练样本,得到训练样本集;
A3.基于扩散模型,用训练样本集同时对噪声提取模型和点云去噪模型进行迭代训练,直到总损失函数收敛,得到训练好的点云去噪模型;总损失函数与噪声提取模型的输出数据、点云去噪模型的输出数据、第一参考数据和第二参考数据相关。
基于扩散模型同时对噪声提取模型和点云去噪模型进行迭代训练,可使得到的点云去噪模型能够有效剔除点云数据中的噪声,从而有利于提高点云融合的精度。
其中,预设噪声可以是任意噪声,由于大部分噪声是满足高斯分布的,因此,预设噪声可以是满足高斯分布的噪声,但不限于此。
具体地,扩散模型为:
其中,为噪声提取模型的模型函数,/>为/>的反函数,/>为点云去噪模型的模型函数,/>为输入的点云数据(即输入到噪声提取模型的点云数据),/>为噪声提取模型的模型参数,/>为点云去噪模型的模型参数,/>为噪声提取模型的第一输出数据(此处,为了便于与点云去噪模型的输出数据进行区分,把噪声提取模型的输出数据称为第一输出数据),/>为点云去噪模型的第二输出数据(此处,为了便于与噪声提取模型的输出数据进行区分,把点云去噪模型的输出数据称为第二输出数据),/>为噪声提取模型的反函数输出数据。
通过噪声提取模型得到使点云变为纯噪声的变换趋势的特征,然后进行反向变换从而可将噪声从原始点云数据中剔除,可以非常有效地剔除噪声。
在一些优选实施方式中,步骤A3中,每次迭代过程包括步骤:
A301.把训练样本的第一点云数据输入噪声提取模型,以获取噪声提取模型的第一输出数据和反函数输出数据;
A302.根据训练样本的第一参考数据和第一输出数据计算第一损失函数;
A303.把反函数输出数据输入点云去噪模型,以获取点云去噪模型的第二输出数据;
A304.根据训练样本的第二参考数据和第二输出数据计算第二损失函数;
A305.根据第一损失函数和第二损失函数计算总损失函数;
A306.根据总损失函数更新噪声提取模型和点云去噪模型的模型参数;
A307.若总损失函数收敛,则停止迭代。
在一些实施例中,步骤A302包括:
根据以下公式计算第一损失函数:
优选地,每个训练样本的预设噪声(即第一参考数据)的分布特征不同,以保证训练得到的点云去噪模型具有较好的适用性。例如,对于第t次迭代所使用的训练样本,其预设噪声满足高斯分布N(0,1/t),但不限于此。
其中,步骤A303中,根据公式(3)得到点云去噪模型的第二输出数据。
在一些实施例中,步骤A304包括:
根据以下公式计算第二损失函数:
在一些实施例中,步骤A305包括:
根据以下公式计算总损失函数:
在一些实施例中,步骤A306包括:
根据以下公式更新噪声提取模型和点云去噪模型的模型参数:
利用该方法更新模型参数,有利于提高总损失函数的收敛速度。
由上可知,该点云去噪模型获取方法,通过采集多帧无噪声点云数据用以与预设噪声结合形成多帧第一点云数据,分别以各第一点云数据的预设噪声和无噪声点云数据作为各第一点云数据的第一参考数据和第二参考数据,用每个第一点云数据和对应的第一参考数据及对应的第二参考数据组成一个训练样本,得到训练样本集,基于扩散模型,用训练样本集同时对噪声提取模型和点云去噪模型进行迭代训练,直到总损失函数收敛,得到训练好的点云去噪模型;总损失函数与噪声提取模型的输出数据、点云去噪模型的输出数据、第一参考数据和第二参考数据相关;从而可使得到的点云去噪模型能够有效剔除点云数据中的噪声,有利于提高点云融合的精度。
参考图2,本申请提供了一种点云融合方法,包括步骤:
B1.获取多帧待融合点云数据;
B2.依次把各待融合点云数据输入点云去噪模型,得到点云去噪模型输出的无噪点云数据;点云去噪模型通过前文的点云去噪模型获取方法得到;
B3.融合无噪点云数据得到融合点云数据。
由于采用通过前文的点云去噪模型获取方法得到点云去噪模型能够有效提取待融合点云数据中的噪声,再利用去噪后的无噪点云数据进行点云融合,可得到精确的融合点云数据。
其中,可采用现有的点云融合算法对无噪点云数据进行融合,例如ICP算法,但不限于此。
请参照图3,图3为本申请实施例提供的一种电子设备的结构示意图,本申请提供一种电子设备,包括:处理器301和存储器302,处理器301和存储器302通过通信总线303和/或其他形式的连接机构(未标出)互连并相互通讯,存储器302存储有处理器301可执行的计算机程序,当电子设备运行时,处理器301执行该计算机程序,以执行上述实施例的任一可选的实现方式中的点云去噪模型获取方法,以实现以下功能:采集多帧无噪声点云数据用以与预设噪声结合形成多帧第一点云数据,分别以各第一点云数据的预设噪声和无噪声点云数据作为各第一点云数据的第一参考数据和第二参考数据,用每个第一点云数据和对应的第一参考数据及对应的第二参考数据组成一个训练样本,得到训练样本集,基于扩散模型,用训练样本集同时对噪声提取模型和点云去噪模型进行迭代训练,直到总损失函数收敛,得到训练好的点云去噪模型;总损失函数与噪声提取模型的输出数据、点云去噪模型的输出数据、第一参考数据和第二参考数据相关;或者执行上述实施例的任一可选的实现方式中的点云融合方法,以实现以下功能:获取多帧待融合点云数据,依次把各待融合点云数据输入点云去噪模型,得到点云去噪模型输出的无噪点云数据,该点云去噪模型通过前文的点云去噪模型获取方法得到,融合无噪点云数据得到融合点云数据。
本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时,执行上述实施例的任一可选的实现方式中的点云去噪模型获取方法,以实现以下功能:采集多帧无噪声点云数据用以与预设噪声结合形成多帧第一点云数据,分别以各第一点云数据的预设噪声和无噪声点云数据作为各第一点云数据的第一参考数据和第二参考数据,用每个第一点云数据和对应的第一参考数据及对应的第二参考数据组成一个训练样本,得到训练样本集,基于扩散模型,用训练样本集同时对噪声提取模型和点云去噪模型进行迭代训练,直到总损失函数收敛,得到训练好的点云去噪模型;总损失函数与噪声提取模型的输出数据、点云去噪模型的输出数据、第一参考数据和第二参考数据相关;或者执行上述实施例的任一可选的实现方式中的点云融合方法,以实现以下功能:获取多帧待融合点云数据,依次把各待融合点云数据输入点云去噪模型,得到点云去噪模型输出的无噪点云数据,该点云去噪模型通过前文的点云去噪模型获取方法得到,融合无噪点云数据得到融合点云数据。
其中,计算机可读存储介质可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(Static Random Access Memory, 简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory, 简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read Only Memory, 简称EPROM),可编程只读存储器(Programmable Red-Only Memory, 简称PROM),只读存储器(Read-Only Memory, 简称ROM),磁存储器,快闪存储器,磁盘或光盘。
在本申请所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,既可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
再者,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (8)
1.一种点云去噪模型获取方法,其特征在于,包括步骤:
A1.采集多帧无噪声点云数据用以与预设噪声结合形成多帧第一点云数据;
A2.分别以各所述第一点云数据的所述预设噪声和所述无噪声点云数据作为各所述第一点云数据的第一参考数据和第二参考数据,用每个所述第一点云数据和对应的所述第一参考数据及对应的所述第二参考数据组成一个训练样本,得到训练样本集;
A3.基于扩散模型,用所述训练样本集同时对噪声提取模型和点云去噪模型进行迭代训练,直到总损失函数收敛,得到训练好的点云去噪模型;所述总损失函数与所述噪声提取模型的输出数据、所述点云去噪模型的输出数据、所述第一参考数据和所述第二参考数据相关;
所述扩散模型为:
f1(p,θ1)=O1;
O2=f1 -1(p,θ1);
f2(O2,θ2)=O;
其中,f1为所述噪声提取模型的模型函数,f1 -1为f1的反函数,f2为所述点云去噪模型的模型函数,p为输入的点云数据,θ1为所述噪声提取模型的模型参数,θ2为所述点云去噪模型的模型参数,O1为所述噪声提取模型的第一输出数据,O为所述点云去噪模型的第二输出数据,O2为所述噪声提取模型的反函数输出数据;
步骤A3中,每次迭代过程包括步骤:
A301.把所述训练样本的所述第一点云数据输入所述噪声提取模型,以获取所述噪声提取模型的第一输出数据和反函数输出数据;
A302.根据所述训练样本的所述第一参考数据和所述第一输出数据计算第一损失函数;
A303.把所述反函数输出数据输入所述点云去噪模型,以获取所述点云去噪模型的第二输出数据;
A304.根据所述训练样本的所述第二参考数据和所述第二输出数据计算第二损失函数;
A305.根据所述第一损失函数和所述第二损失函数计算所述总损失函数;
A306.根据所述总损失函数更新所述噪声提取模型和所述点云去噪模型的模型参数;
A307.若所述总损失函数收敛,则停止迭代。
6.一种点云融合方法,其特征在于,包括步骤:
B1.获取多帧待融合点云数据;
B2.依次把各所述待融合点云数据输入点云去噪模型,得到所述点云去噪模型输出的无噪点云数据;所述点云去噪模型通过权利要求1-5任一项所述点云去噪模型获取方法得到;
B3.融合所述无噪点云数据得到融合点云数据。
7.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有所述处理器可执行的计算机程序,所述处理器执行所述计算机程序时,运行如权利要求1-5任一项所述点云去噪模型获取方法或者如权利要求6所述点云融合方法中的步骤。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时运行如权利要求1-5任一项所述点云去噪模型获取方法或者如权利要求6所述点云融合方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310331215.0A CN116051427B (zh) | 2023-03-31 | 2023-03-31 | 点云去噪模型获取方法、点云融合方法及其相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310331215.0A CN116051427B (zh) | 2023-03-31 | 2023-03-31 | 点云去噪模型获取方法、点云融合方法及其相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116051427A CN116051427A (zh) | 2023-05-02 |
CN116051427B true CN116051427B (zh) | 2023-07-04 |
Family
ID=86118546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310331215.0A Active CN116051427B (zh) | 2023-03-31 | 2023-03-31 | 点云去噪模型获取方法、点云融合方法及其相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116051427B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109754376A (zh) * | 2018-12-28 | 2019-05-14 | 深圳美图创新科技有限公司 | 图像去噪方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111402161B (zh) * | 2020-03-13 | 2023-07-21 | 北京百度网讯科技有限公司 | 点云障碍物的去噪方法、装置、设备和存储介质 |
CN111539881B (zh) * | 2020-04-16 | 2021-07-13 | 南京航空航天大学 | 一种基于深度学习的航空零部件点云去噪方法 |
CN115249349B (zh) * | 2021-11-18 | 2023-06-27 | 上海仙途智能科技有限公司 | 一种点云去噪方法、电子设备及存储介质 |
CN115660931A (zh) * | 2022-11-01 | 2023-01-31 | 南京信息工程大学 | 基于Transformer和去噪扩散模型的鲁棒水印方法 |
-
2023
- 2023-03-31 CN CN202310331215.0A patent/CN116051427B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109754376A (zh) * | 2018-12-28 | 2019-05-14 | 深圳美图创新科技有限公司 | 图像去噪方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116051427A (zh) | 2023-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108304921B (zh) | 卷积神经网络的训练方法及图像处理方法、装置 | |
US10860453B2 (en) | Index anomaly detection method and apparatus, and electronic device | |
CN109492674B (zh) | 用于目标检测的ssd框架的生成方法及装置 | |
CN107730514B (zh) | 场景分割网络训练方法、装置、计算设备及存储介质 | |
KR102170620B1 (ko) | 지역적 특징을 가지는 분류기 학습을 위한 학습 데이터 생성 방법 및 그 시스템 | |
CN110852349A (zh) | 一种图像处理方法、检测方法、相关设备及存储介质 | |
CN110705337A (zh) | 一种针对眼镜遮挡的人脸识别方法及装置 | |
US10762657B2 (en) | Mesh denoising | |
CN112348828A (zh) | 基于神经网络的实例分割方法和装置以及存储介质 | |
CN108491812B (zh) | 人脸识别模型的生成方法和装置 | |
US20190197425A1 (en) | Deep convolutional factor analyzer | |
Shi et al. | Weighted median guided filtering method for single image rain removal | |
US11501045B2 (en) | Method for analyzing a simulation of the execution of a quantum circuit | |
CN114529574A (zh) | 基于图像分割的图像抠图方法、装置、计算机设备及介质 | |
CN113989616A (zh) | 一种目标检测方法、装置、设备和存储介质 | |
CN117274072A (zh) | 一种基于二维多模态范围图像的点云去噪方法及装置 | |
CN117315263B (zh) | 一种目标轮廓装置、训练方法、分割方法、电子设备及存储介质 | |
CN116051427B (zh) | 点云去噪模型获取方法、点云融合方法及其相关设备 | |
CN116740362B (zh) | 一种基于注意力的轻量化非对称场景语义分割方法及系统 | |
CN112348001B (zh) | 表情识别模型的训练方法、识别方法、装置、设备及介质 | |
CN116912923A (zh) | 一种图像识别模型训练方法和装置 | |
CN110874387B (zh) | 移动设备识别符共现关系稀疏图的构建方法及装置 | |
CN109543557B (zh) | 视频帧的处理方法、装置、设备以及存储介质 | |
CN116502700A (zh) | 皮肤检测模型训练方法、皮肤检测方法、装置及电子设备 | |
CN117058330B (zh) | 一种电力走廊三维重建方法、重建模型以及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |