CN113160089B - 基于局部密度损失的图像去噪方法 - Google Patents

基于局部密度损失的图像去噪方法 Download PDF

Info

Publication number
CN113160089B
CN113160089B CN202110508093.9A CN202110508093A CN113160089B CN 113160089 B CN113160089 B CN 113160089B CN 202110508093 A CN202110508093 A CN 202110508093A CN 113160089 B CN113160089 B CN 113160089B
Authority
CN
China
Prior art keywords
matrix
value
density loss
loss function
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110508093.9A
Other languages
English (en)
Other versions
CN113160089A (zh
Inventor
王石平
方惠
王允斌
陈昭炯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202110508093.9A priority Critical patent/CN113160089B/zh
Publication of CN113160089A publication Critical patent/CN113160089A/zh
Application granted granted Critical
Publication of CN113160089B publication Critical patent/CN113160089B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提出一种基于局部密度损失的图像去噪方法,其特征在于:首先,采用全连接神经网络模型对图像像素值缺失的矩阵进行矩阵补全;然后,通过反向传播和梯度下降更新参数,将高斯影响函数进行求导得出高斯密度损失函数,且将高斯密度损失函数用于衡量模型预测的好坏。本发明能够有效地完成矩阵补全,引入局部密度损失函数进行模型预测好坏的衡量,在图像去噪任务上对比其他方法能够具有更加良好的性能,具有较高的实用价值。

Description

基于局部密度损失的图像去噪方法
技术领域
本发明属于神经网络,矩阵补全和图像去噪技术领域,尤其涉及一种基于局部密度损失的图像去噪方法。
背景技术
图像去噪的研究是计算机视觉领域的重要组成部分。近年来,基于深度学习的去噪方法被成功应用于合成噪声,但对真实噪声的泛化性能较差。真实噪声是指由拍照设备在照明条件差、相机抖动、物体运动、空间像素不对准、颜色亮度不匹配等情况下获取的图像中存在的噪声,具有噪声水平未知、噪声类型多样、噪声分布复杂且难以参数化等特点。而合成噪声是指噪声类型符合某种概率分布,且噪声水平可自主设定,如高斯噪声、椒盐噪声、斑点噪声等。目前,图像去噪方法已广泛应用于遥感图像处理、医学影像分析、人脸和指纹识别等诸多领域。
图像去噪方法主要分为:基于人工特征的传统去噪方法和基于深度学习的去噪方法。基于人工特征的传统图像去噪方法使用离散余弦变换、小波变换等修改变换系数,用平均邻域值计算局部相似性。NLM方法和BM3D方法利用自相似补丁在图像保真度和视觉质量上取得突出效果。基于这两种方法,许多变体方法如SADCT、SAPCA、NLB等方法被提出,这些方法在不同的变换域中寻找自相似补片来补全更多的边缘信息。传统去噪方法对图像特征的编码依赖于原始图像的假设,编码特征在真实图像中匹配度较低,降低了方法在实际应用中的性能和灵活性,且方法的特征提取过程繁琐、费时、计算量大,不适用于处理具有复杂分布的真实噪声。
相对于传统图像去噪方法,基于深度学习的图像去噪方法具有强大的学习能力,不仅可以拟合复杂噪声分布,还节省了计算时间。早期深度学习图像去噪方法使用强化学习技术,如政策梯度和Q-learning训练递归神经网络。但基于强化学习的方法计算量大,搜索效率低。深度学习去噪方法结合跳跃连接、注意力机制、多尺度特征融合等方式提高网络特征表达能力。但这些方法的网络结构较深,容易在训练过程中出现梯度爆炸或弥散问题。近年来,一些采用迁移学习和模型压缩思想的去噪方法,如AINDNet和MPI_DA_CNN把已经训练好的参数转移到新的轻量模型上,从而加快并优化学习效率,有效避免梯度问题的出现。
发明内容
有鉴于此,本发明的目的在于提供一种基于局部密度损失的图像去噪方法,其首先采用全连接神经网络模型对图像像素值缺失的矩阵进行矩阵补全;然后,通过反向传播和梯度下降更新参数,将高斯影响函数进行求导得出高斯密度损失函数,且将密度损失函数用于衡量模型预测的好坏;最后,在常用的图像去噪数据集上进行了广泛的实验。此外,此方法还采用了两个广泛使用的指标,分别是均方根误差和峰值信噪比,来衡量图像像素值矩阵缺失值的恢复精度。本发明能够有效地完成矩阵补全,引入局部密度损失函数进行模型预测好坏的衡量,在图像去噪任务上对比其他方法能够具有更加良好的性能,具有较高的实用价值。
本发明具体采用以下技术方案:
一种基于局部密度损失的图像去噪方法,其特征在于:首先,采用全连接神经网络模型对图像像素值缺失的矩阵进行矩阵补全;然后,通过反向传播和梯度下降更新参数,将高斯影响函数进行求导得出高斯密度损失函数,且将高斯密度损失函数用于衡量模型预测的好坏。
进一步地,采用均方根误差和峰值信噪比衡量图像像素值矩阵缺失值的恢复精度。
以及,一种基于局部密度损失的图像去噪方法,其特征在于,包括以下步骤:
步骤S1:输入一个带有噪声的图像像素值矩阵Y,将整个像素值矩阵的低秩优化问题转换为矩阵补全问题,初始化各问题的相关参数和初始值;
步骤S2:利用输入的像素值矩阵,提取R G B三个通道信息的特征,并建立每个信息的全连接层,其中全连接神经网络包括线性部分和非线性部分,使用反向传播和梯度下降算法更新参数wi以及bi,得出预测的像素值,从而得到重构的像素值矩阵;
步骤S3:应用局部密度损失函数计算损失函数值,通过连续迭代,更新预测值及网络参数,若损失值未收敛到稳定值则返回步骤S2;
步骤S4:输出优化得到的图像像素值矩阵。
进一步地,步骤S1具体包括以下步骤:
步骤S11:确定问题目标是寻求预测矩阵
Figure BDA0003058820810000031
作为矩阵Y的估计,并且建立目标函数:
Figure BDA0003058820810000032
其中yij是像素值矩阵Y中的值,
Figure BDA0003058820810000033
通过PΩ投影操作获得含有空值的矩阵,Ω是坐标集合[m]×[n]的一个子集,含有缺失值的矩阵中,下标在Ω集合中的元素取Y矩阵中原值,反之用0填充;
步骤S12:使用全连接神经网络获得预测矩阵
Figure BDA0003058820810000034
将预测矩阵与原始矩阵中元素之差的平方和最小化,从而得到最佳预测矩阵。
进一步地,在步骤S11中,通过迭代更新超参w和b来得到新的预测值
Figure BDA0003058820810000035
使得yij
Figure BDA0003058820810000036
的值不断接近以获得最优解。
进一步地,步骤S2具体包括以下步骤:
步骤S21:初始化网络参数w和b,对于输入向量X=[x1,x2,…,xn]T,其通过隐藏层得到线性输出向量Z=[z1,z2,…,zn]T,其公式如下:
Z=wTx+b,
线性输出向量再通过ReLU激活函数后得到非线性输出向量
Figure BDA0003058820810000037
Figure BDA0003058820810000038
公式如下:
Figure BDA0003058820810000039
步骤S22:建立关于w和b的函数,表示如下:
Figure BDA00030588208100000310
接着利用梯度下降法计算w和b,更新过程如下所示:
Figure BDA00030588208100000311
Figure BDA00030588208100000312
根据上述计算公式,求出预测的像素值。
进一步地,步骤S3具体包括以下步骤:
步骤S31:通过给全局密度损失函数施加条件得到局部密度损失函数,条件是考虑附近点的影响,忽略远点的影响,即x*∈near(x):d(x*,x)≤σnear,其中d(·)为距离函数,σnear为假设的值,通过输入取得,局部密度损失函数公式如下:
Figure BDA0003058820810000041
步骤S32:通过局部密度损失函数的梯度,计算损失函数值,通过连续迭代,得到最小损失值,公式如下:
Figure BDA0003058820810000042
步骤S33:迭代不断更新预测值
Figure BDA0003058820810000043
及网络参数w和b。
步骤S34:若局部密度损失函数收敛到稳定值,则进入步骤S4,否则返回继续执行步骤S2。
进一步地,步骤S4具体包括以下步骤:
步骤S41:输出优化得到的图像像素值矩阵
Figure BDA0003058820810000044
与现有技术相比,本发明及其优选方案具有以下有益效果:
本发明采用局部高斯密度损失函数用于衡量模型预测的效果。此外,所提出的基于图像像素值的全连接神经网络模型的矩阵补全方法,可以用于恢复像素值矩阵中的缺失值。该发明进行了大量的实验并讨论了不同参数的影响。实验表明,该发明优于现有的其他模型,能有效地完成矩阵补全,在图像去噪任务上对比其他方法能够具有更加良好的性能,具有一定的实用价值。
附图说明
下面结合附图和具体实施方式对本发明进一步详细的说明:
图1为本发明实施例方法流程示意图;
图2为本发明实施例神经网络架构示意图;
图3为本发明实施例效果示例示意图。
具体实施方式
为让本专利的特征和优点能更明显易懂,下文特举实施例,作详细说明如下:
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1、2、3所示,本实施例提供了一种基于局部密度损失的图像去噪方法,包括以下步骤:
步骤S1:输入一个带有噪声的图像像素值矩阵Y,将整个像素值矩阵的低秩优化问题转换为矩阵补全问题,初始化各问题的相关参数和初始值;
步骤S2:利用输入的像素值矩阵,提取R G B三个通道信息的特征,并建立每个信息的全连接层,其中全连接神经网络包括线性部分和非线性部分,使用反向传播和梯度下降算法更新参数wi以及bi,得出预测的像素值,从而得到重构的像素值矩阵;
步骤S3:应用局部密度损失函数计算损失函数值,通过连续迭代,更新预测值及网络参数,若损失值未收敛到稳定值则返回步骤S2;
步骤S4:输出优化得到的图像像素值矩阵。
在本实施例中,步骤S1具体包括以下步骤:
确定问题目标是寻求预测矩阵
Figure BDA0003058820810000051
作为矩阵Y的估计,并且建立目标函数:
Figure BDA0003058820810000052
其中yij是像素值矩阵Y中的值,
Figure BDA0003058820810000053
通过PΩ投影操作获得含有空值的矩阵,Ω是坐标集合[m]×[n]的一个子集,含有缺失值的矩阵中,下标在Ω集合中的元素取Y矩阵中原值,反之用0填充。通过全连接神经网络来获得预测矩阵
Figure BDA0003058820810000054
将预测矩阵与原始矩阵中元素之差的平方和最小化,来得到最佳预测矩阵。不断迭代更新超参w和b来得到新的预测值
Figure BDA0003058820810000055
使得yij
Figure BDA0003058820810000056
的值不断接近以获得最优解。
在本实施例中,步骤S2具体包括以下步骤:
步骤S21:初始化网络参数w和b,对于输入向量X=[x1,x2,…,xn]T,其通过隐藏层首先得到了线性输出向量Z=[z1,z2,…,zn]T,它主要由权重向量和偏移向量决定,公式如下:
Z=wTx+b,
其次,线性输出向量再通过ReLU激活函数后得到非线性输出向量
Figure BDA0003058820810000061
Figure BDA0003058820810000062
公式如下:
Figure BDA0003058820810000063
步骤S22:建立关于w和b的函数,表示如下:
Figure BDA0003058820810000064
接着利用梯度下降法来计算w和b,更新过程如下所示:
Figure BDA0003058820810000065
Figure BDA0003058820810000066
根据上述计算公式,求出预测的像素值。
在本实施例中,步骤S3具体包括以下步骤:
步骤S31:通过给全局密度损失函数施加条件得到局部密度损失函数,条件是考虑附近点的影响,忽略远点的影响,即x*∈near(x):d(x*,x)≤σnear,其中d(·)为距离函数,σnear为假设的值,通过输入取得,局部密度损失函数公式如下:
Figure BDA0003058820810000067
步骤S32:通过局部密度损失函数的梯度,来计算损失函数值,通过连续迭代,得到最小损失值,公式如下:
Figure BDA0003058820810000068
步骤S33:迭代不断更新预测值
Figure BDA0003058820810000069
及网络参数w和b。
步骤S34:若局部密度损失函数收敛到稳定值,则进入步骤S4,否则返回继续执行步骤S2。
在本实施例中,步骤S4具体包括以下步骤:
步骤S41:输出优化得到的图像像素值矩阵
Figure BDA0003058820810000071
本实施例从实际应用出发,首先,输入一个含噪声的图像像素值矩阵Y,将整个像素值矩阵的低秩优化问题转换为矩阵补全问题,初始化各问题的相关参数和初始值;然后,利用输入的矩阵以及R G B三通道信息,提取每个信息的特征,并建立每个信息的全连接层,使用反向传播和梯度下降算法计算参数wi以及bi,得出预测的像素值,从而得到重构的像素值矩阵;接着,应用局部密度损失函数计算损失函数值,通过连续迭代,更新预测值及网络参数,直至局部密度损失函数收敛;最后,输出优化得到的图像像素值矩阵。本实施例基于局部密度损失,有效地完成矩阵补全,在图像去噪任务上具有良好的性能,具有一定的应用价值。如图3所示,是其具体实施的效果示意,证明了其图像去噪的良好效果。
本专利不局限于上述最佳实施方式,任何人在本专利的启示下都可以得出其它各种形式的基于局部密度损失的图像去噪方法,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本专利的涵盖范围。

Claims (1)

1.一种基于局部密度损失的图像去噪方法,其特征在于,包括以下步骤:
步骤S1:输入一个带有噪声的图像像素值矩阵Y,将整个像素值矩阵的低秩优化问题转换为矩阵补全问题,初始化各问题的相关参数和初始值;
步骤S2:利用输入的像素值矩阵,提取RGB三个通道信息的特征,并建立每个信息的全连接层,其中全连接神经网络包括线性部分和非线性部分,使用反向传播和梯度下降算法更新参数wi以及bi,得出预测的像素值,从而得到重构的像素值矩阵;
步骤S3:应用局部密度损失函数计算损失函数值,通过连续迭代,更新预测值及网络参数,若损失值未收敛到稳定值则返回步骤S2;
步骤S4:输出优化得到的图像像素值矩阵;
步骤S1具体包括以下步骤:
步骤S11:确定问题目标是寻求预测矩阵
Figure FDA0003775071760000011
作为矩阵Y的估计,并且建立目标函数:
Figure FDA0003775071760000012
其中yij是像素值矩阵Y中的值,
Figure FDA0003775071760000013
通过PΩ投影操作获得含有空值的矩阵,Ω是坐标集合[m]×[n]的一个子集,含有缺失值的矩阵中,下标在Ω集合中的元素取Y矩阵中原值,反之用0填充;
步骤S12:使用全连接神经网络获得预测矩阵
Figure FDA0003775071760000014
将预测矩阵与原始矩阵中元素之差的平方和最小化,从而得到最佳预测矩阵;
在步骤S11中,通过迭代更新超参w和b来得到新的预测值
Figure FDA0003775071760000015
使得yij
Figure FDA0003775071760000016
的值不断接近以获得最优解;
步骤S2具体包括以下步骤:
步骤S21:初始化网络参数w和b,对于输入向量X=[x1,x2,···,xn]T,其通过隐藏层得到线性输出向量Z=[z1,z2,···,zn]T,其公式如下:
Z=wTx+b,
线性输出向量再通过ReLU激活函数后得到非线性输出向量
Figure FDA0003775071760000021
Figure FDA0003775071760000022
公式如下:
Figure FDA0003775071760000023
步骤S22:建立关于w和b的函数,表示如下:
Figure FDA0003775071760000024
接着利用梯度下降法计算w和b,更新过程如下所示:
Figure FDA0003775071760000025
Figure FDA0003775071760000026
根据上述计算公式,求出预测的像素值;
步骤S3具体包括以下步骤:
步骤S31:通过给全局密度损失函数施加条件得到局部密度损失函数,条件是考虑附近点的影响,忽略远点的影响,即x*∈near(x):d(x*,x)≤σnear,其中d(·)为距离函数,σnear为假设的值,通过输入取得,局部密度损失函数公式如下:
Figure FDA0003775071760000027
步骤S32:通过局部密度损失函数的梯度,计算损失函数值,通过连续迭代,得到最小损失值,公式如下:
Figure FDA0003775071760000028
步骤S33:迭代不断更新预测值
Figure FDA0003775071760000029
及网络参数w和b;
步骤S34:若局部密度损失函数收敛到稳定值,则进入步骤S4,否则返回继续执行步骤S2;
步骤S4具体包括以下步骤:
步骤S41:输出优化得到的图像像素值矩阵
Figure FDA00037750717600000210
CN202110508093.9A 2021-05-10 2021-05-10 基于局部密度损失的图像去噪方法 Active CN113160089B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110508093.9A CN113160089B (zh) 2021-05-10 2021-05-10 基于局部密度损失的图像去噪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110508093.9A CN113160089B (zh) 2021-05-10 2021-05-10 基于局部密度损失的图像去噪方法

Publications (2)

Publication Number Publication Date
CN113160089A CN113160089A (zh) 2021-07-23
CN113160089B true CN113160089B (zh) 2022-10-04

Family

ID=76874282

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110508093.9A Active CN113160089B (zh) 2021-05-10 2021-05-10 基于局部密度损失的图像去噪方法

Country Status (1)

Country Link
CN (1) CN113160089B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111291A (zh) * 2019-05-10 2019-08-09 衡阳师范学院 基于局部和全局优化融合图像卷积神经网络风格迁移方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3647052B2 (ja) * 1993-04-15 2005-05-11 キヤノン株式会社 撮像装置
CN104123702A (zh) * 2014-07-08 2014-10-29 浙江传媒学院 一种基于交替方向法的高效图像修复方法
CN109754376B (zh) * 2018-12-28 2020-11-10 深圳美图创新科技有限公司 图像去噪方法及装置
AU2020100462A4 (en) * 2020-03-26 2020-04-30 Hu, Xiaoyan MISS Edge-preserving image super-resolution via low rank and total variation model
CN112258410B (zh) * 2020-10-22 2022-09-06 福州大学 一种可微分的低秩学习网络图像修复方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111291A (zh) * 2019-05-10 2019-08-09 衡阳师范学院 基于局部和全局优化融合图像卷积神经网络风格迁移方法

Also Published As

Publication number Publication date
CN113160089A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN109949255B (zh) 图像重建方法及设备
CN108986140B (zh) 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
WO2022036777A1 (zh) 基于卷积神经网络的人体动作姿态智能估计方法及装置
CN107529650B (zh) 闭环检测方法、装置及计算机设备
CN108776975B (zh) 一种基于半监督特征和滤波器联合学习的视觉跟踪方法
WO2019174377A1 (zh) 一种基于单目相机的三维场景稠密重建方法
CN112434655B (zh) 一种基于自适应置信度图卷积网络的步态识别方法
CN109977757B (zh) 一种基于混合深度回归网络的多模态的头部姿态估计方法
Zaied et al. A novel approach for face recognition based on fast learning algorithm and wavelet network theory
CN114492574A (zh) 基于高斯均匀混合模型的伪标签损失无监督对抗域适应图片分类方法
CN112288011B (zh) 一种基于自注意力深度神经网络的图像匹配方法
CN112085055B (zh) 一种基于迁移模型雅克比阵特征向量扰动的黑盒攻击方法
WO2021004361A1 (zh) 一种人脸美丽等级预测方法、装置及存储介质
Chen et al. One-stage CNN detector-based benthonic organisms detection with limited training dataset
Chen et al. Convolutional neural network based dem super resolution
CN110175649A (zh) 一种关于重新检测的快速多尺度估计目标跟踪方法
WO2019136591A1 (zh) 基于弱监督时空级联神经网络的显著目标检测方法及系统
CN115937254B (zh) 一种基于半监督学习的多空中飞行目标跟踪方法和系统
Lu et al. 3D articulated skeleton extraction using a single consumer-grade depth camera
CN110135435B (zh) 一种基于广度学习系统的显著性检测方法及装置
CN114973071A (zh) 基于长短期时序特征的无监督视频目标分割方法及系统
CN114119690A (zh) 一种基于神经网络重建高斯混合模型的点云配准方法
CN113763274A (zh) 一种联合局部相位锐度定向描述的多源图像匹配方法
CN113160089B (zh) 基于局部密度损失的图像去噪方法
JP6600288B2 (ja) 統合装置及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant