CN113869503A - 一种基于深度矩阵分解补全的数据处理方法及存储介质 - Google Patents
一种基于深度矩阵分解补全的数据处理方法及存储介质 Download PDFInfo
- Publication number
- CN113869503A CN113869503A CN202111454575.7A CN202111454575A CN113869503A CN 113869503 A CN113869503 A CN 113869503A CN 202111454575 A CN202111454575 A CN 202111454575A CN 113869503 A CN113869503 A CN 113869503A
- Authority
- CN
- China
- Prior art keywords
- matrix
- completion
- block variable
- module
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000011159 matrix material Substances 0.000 title claims abstract description 168
- 238000000354 decomposition reaction Methods 0.000 title claims abstract description 36
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 32
- 238000011084 recovery Methods 0.000 claims abstract description 30
- 238000000034 method Methods 0.000 claims abstract description 23
- 230000006870 function Effects 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000013135 deep learning Methods 0.000 claims abstract description 16
- 230000008439 repair process Effects 0.000 claims abstract description 11
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 230000003190 augmentative effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 10
- 230000000694 effects Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Mathematics (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于深度矩阵分解补全的数据处理方法及存储介质,包括:S1构建深度矩阵分解补全模型,所述模型的核心结构是恢复模块;S2在进行观测矩阵的奇异值分解前,对观测矩阵的缺失位置进行预填充;S3基于Frobenius范数构建所述恢复模块的损失函数;S4采用VOC数据集对深度矩阵分解补全模型进行训练。与传统算法相比,本发明基于深度学习与非线性的深度矩阵分解补全网络能够在更短的时间内获得更好的处理性能,端到端的深度矩阵分解补全网络是基于矩阵的全局信息对整个数据文件进行修复,不管是时间上还是修复效果上都能有明显的提升。与线性和非线性矩阵补全方法进行比较。深度矩阵分解补全网络能够使用更短的时间提供更高的矩阵补全精度。
Description
技术领域
本发明涉及数据处理领域,尤其涉及基于深度矩阵分解补全的数据处理领域。
背景技术
矩阵补全是从一个欠采样或不完整数据中恢复出一个完整矩阵,它已被广泛应用于协同过滤、图像修复、图像去噪与图像分类等研究领域中。矩阵补全方法试图从部分观测数据(或欠采样数据)中恢复出原始完整矩阵。在原始完全矩阵是低秩的假设下,求解矩阵补全的两种常用方法为基于核范数和矩阵分解的方法。
虽然矩阵补全在数据处理领域中已有广泛的应用前景,但同时也存在挑战。传统的矩阵补全方法一般都是基于浅层的线性模型,并假设得到的不完全矩阵是来自于低秩矩阵。当原始矩阵很大但获得的观测数据很少时,便容易导致过拟合,性能也随之显著下降。近期,研究人员尝试将深度学习与非线性技术应用到矩阵补全中,但由于矩阵尺寸的限制,大部分的基于深度学习的矩阵补全算法都是将矩阵的每一行(或每一列)作为网络的输入,通过优化训练对其进行恢复,但并没有考虑到矩阵数据的整体结构关系,丢失了矩阵的全局结构信息。尤其将其应用于图像修复时,由于图像具有很强的结构性,如果在对图像修复时抛弃其整体结构性而仅仅对其每一列(每一行)信息进行独立修复并不能得到理想的结果。
发明内容
为了解决现有技术中存在的上述问题,本发明提供:
一种基于深度矩阵分解补全的数据处理方法,包括以下步骤:
S1 构建深度矩阵分解补全网络模型,模型的核心结构是恢复模块;
S2 在进行观测矩阵的奇异值分解前,对观测矩阵的缺失位置进行预填充;
S3 基于Frobenius范数构建恢复模块的损失函数;
S4 采用VOC数据集对深度矩阵分解补全模型进行训练;
其中,恢复模块包括块变量U更新模块、块变量V更新模块和块变量X更新模块,采用深度学习算法,将变量映射到固定深度的神经网络来实现恢复模块的变量更新。
作为一个实施例,S1构建深度矩阵分解补全网络模型具体包括以下步骤:
S1.1 构建使用低秩矩阵分解的图像矩阵补全模型;
S1.2 使用矩阵分解代替传统的核范数最小化;
S1.3 基于交替方向乘子法,每次迭代求解时只优化块变量U, 块变量V,拉格朗日乘子S和块变量X中一个变量,同时将其他的变量固定在它们的最新值,以此获得迭代模型,并将该模型映射到神经网络中进行求解。
作为一个实施例,S1.1构建使用低秩矩阵分解的图像矩阵补全模型包括:
使用低秩矩阵分解的图像矩阵补全模型的通用优化目标用下列公式表示:
其中,是观测矩阵;是想从欠采样矩阵Y中恢复出来的矩阵,为正则项系数;是矩阵X的核范数;表示Y的观测项的重构误差,其中表示哈达玛积(Hadamard product),,若Y在(i,j)位置处缺失数据,则值为0,否则为1。
作为一个实施例,使用矩阵分解代替传统的核范数最小化的模型用下列公式表示:
对应于公式(2)的增广拉格朗日函数为:
作为一个实施例,S1.3具体包括以下步骤:
S1.3.1 构建块变量U更新模块和块变量V更新模块;
S1.3.2 构建块变量X更新模块。
作为一个实施例,S1.3.1 构建块变量U更新模块和块变量V更新模块具体包括:
块变量U更新模块和块变量V更新模块的更新公式如下:
作为一个实施例,S1.3.2 构建块变量X更新模块具体包括:
其中,为初始欠采样矩阵, 为正则项系数;当图像中某点的像素值缺失,便将网络输出的对应位置的值直接赋给;若该点未被破坏,则将网络的输出与图像对应位置的像素值通过加权平均获得最终该位置的重建后的像素值;是该恢复模块获得的最终结果。
作为一个实施例,S2对观测矩阵的缺失位置进行预填充具体包括:
通过神经网络算法实现预填充,和/或,通过改进的最近邻均值填充算法实现预填充。
作为一个实施例,深度矩阵分解补全网络模型包括恢复模块,恢复模块的损失函数用下列公式表示:
本发明还提供一种存储介质,其存储有计算机程序;当计算机程序被计算机设备中的处理器执行时,计算机设备执行如上述任一项所述的方法。
本发明结合深度学习与传统矩阵补全算法提出了用于数据处理的深度矩阵分解补全网络模型。将传统矩阵补全算法模型中的变量迭代更新映射到固定深度的神经网络中,通过端到端的可训练方式学习观测到的矩阵数据之间的潜在关系,从而形成高性能且易于部署的非线性矩阵补全解决方案。与传统算法相比,基于深度学习与非线性的深度矩阵分解补全网络能够在更短的时间内获得更好的恢复性能,而比起目前流行的基于深度学习的矩阵补全算法,端到端的深度矩阵分解补全网络是基于数据矩阵的全局信息对整个数据文件进行修复,不管是时间上还是修复效果上都能有明显的提升。在数据处理任务中,将深度矩阵分解补全网络与最先进的线性和非线性矩阵补全方法进行了比较。实验结果表明,深度矩阵分解补全网络能够使用更短的时间提供比现有方法更高的矩阵补全精度。
附图说明
为了更清楚地说明发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1-1 本发明的网络架构图
图1-2 本发明恢复模块的结构示意图
图1-3 本发明块变量U更新模块和块变量V更新模块的模型示意图
图2 本发明的方法流程图
图3 本发明改进的最近邻均值填充算法示意图
图4 本发明的不同填充算法在训练期间的损失收敛情况和测试数据的重构结果图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
实施例一
为解决现有技术存在的问题,本实施例提供一种基于深度矩阵分解补全的数据处理方法,其流程图如图2所示,主要包括以下步骤:
S1 构建深度矩阵分解补全(深度矩阵分解补全网络)模型,模型的核心结构是恢复模块。
具体的,S1构建深度矩阵分解补全(深度矩阵分解补全网络)模型包括以下步骤:
S1.1 构建使用低秩矩阵分解的图像矩阵补全模型。
具体的,其通用优化目标用下列公式表示:
其中,是观测矩阵,其缺失信息被预定义常数代替。是想从欠采样矩阵Y中恢复出来的矩阵,为正则项系数。是矩阵X的核范数,用于限制X的秩。表示Y的观测项的重构误差,其中表示哈达玛积(Hadamard product),,若Y在(i,j)位置处缺失数据,则值为0,否则为1。
S1.2 使用矩阵分解代替传统的核范数最小化。
具体的,其模型具体可描述为:
对应于(2)的增广拉格朗日函数为:
S1.3 基于交替方向乘子法,每次迭代求解时只优化块变量U, 块变量V,拉格朗日乘子S和块变量X中一个变量,同时将其他的变量固定在它们的最新值,以此获得迭代模型,并将该模型映射到神经网络中进行求解。
具体的,本发明遵循如下框架:
由于直接用传统算法求解会有很多局限性,本发明提出的深度矩阵分解补全网络算法采用深度学习的方法来解决上述优化问题。深度矩阵分解补全网络的具体思想是通过将变量映射到固定深度的神经网络来更新变量。同时,由于深度学习和神经网络的优越性,本发明期望变量只需更新一次就能得到满意的结果。
在图1-1所示的基础上构建了一个网络结构,深度矩阵分解补全网络的核心结构是恢复模块,它包含三个更新模块,如图1-2所示。完整的恢复模块包括用于更新矩阵U和V的块变量U更新模块和块变量V更新模块,以及用于恢复欠采样图像的块变量X更新模块。
具体的,S1.3包括以下步骤:
S1.3.1 构建块变量U更新模块和块变量V更新模块。
如图1-3所示,当欠采样图像被输入到恢复模块时,将首先被输入到块变量U更新模块,然后被输入到块变量V更新模块。块变量U和V的第一次迭代的更新公式如下所示:
如(5)所示,U的更新公式中涉及变量和,因此本发明选择将它们添加到块变量U更新模块的输入中。此外,为了学习最大卷积特征,还添加了作为块变量U更新模块的输入。另外,(5)中的辅助矩阵变量通常被初始化为零矩阵,因此在块变量U更新模块和块变量V更新模块中可以省略它。因此在(5)的基础上,对于块变量U更新模块,本发明将变量、和在通道维度上进行拼接作为输入,并使用固定深度的卷积神经网络来映射变量的更新。
此外,U和V的初始化将影响恢复结果,为了获得更好的初始化值,需要首先对欠采样图像进行奇异值分解(SVD),记为:
为了保持最大信息量,网络中采用密集卷积结构,并加入残差结构来使得在较深网络中任然训练稳定。网络中采用步长为1并且进行padding的卷积运算使其卷积前后尺寸不变,由于Mish函数在曲线几乎所有点上的平滑度,能够允许更好的信息流入神经网络,本文选择其作为激活函数,同时卷积之间加入了批归一化操作(BN)来加快收敛速度。
S1.3.2 构建块变量X更新模块。
为了提高重建性能,我们将输入到由卷积层构成的自动编码器中。如图1-3所示,网络包含四个卷积运算,前两个卷积是正常卷积,后两个卷积是反卷积。除最后一层的激活函数使用TANH外,其余层均包含卷积运算后的批归一化运算和MISH激活函数。在实验中,发明人发现如果简单地将预测值填充到图像的缺失像素中,而不修改观测像素值,则输出图像不平滑,网络训练更加困难。因此,块变量X更新模块中的自动编码器的输出与原始欠采样矩阵进行加权平均运算,如下所示:
其中,为初始欠采样矩阵, 为正则项系数。当图像中某点的像素值缺失,便将网络输出的对应位置的值直接赋给。若该点未被破坏,则将网络的输出与图像对应位置的像素值通过加权平均获得最终该位置的重建后的像素值。是该恢复模块获得的最终结果。
S2在进行观测矩阵的奇异值分解前,对观测矩阵的缺失位置进行预填充。
具体的,本发明提供两种预填充算法--深度矩阵分解补全网络-1算法和深度矩阵分解补全网络-2算法的网络架构图如图1-1所示。
深度矩阵分解补全网络-1算法,通过神经网络实现预填充,具体包括:
公式(12)便是通过神经网络初步推测图像矩阵缺失的值。将预测值填充到观测矩阵的缺失位置,然后将填充后得到的X作为第二个修复模块的输入再次进行修复。由于第二个修复模块中的和是通过新的进行奇异值分解得到的,能够很大程度消除使用随机常数填充带来的负面影响,所以通过第二个修复模块能够获得更好的修复结果。
深度矩阵分解补全网络-2算法,基于最近邻均值填充(Nearest Neighbor MeanFilling,NNMF)算法实现填充,具体包括:
具体的,本发明基于改进的最近邻均值填充算法,通过动态规划可以有效地计算所有缺失数据位置处的填充值。如图3所示,首先按顺时针方向填充边缘缺失像素,然后在四个方向上生成四个矩阵,最后将生成的四个矩阵加和求均值即可得到填充后的矩阵。使用NNMF算法对观测矩阵进行预填充操作得到的矩阵作为恢复模块的输入。
本发明提出的NNMF计算方法不同于传统最近邻均值填充需遍历每一个缺失位置然后依次寻找缺失位置的上下左右四个值的计算方式,可以有效减少计算时间。
在训练过程中,只需对卷积网络U、V和自动编码器中的参数进行优化。
S3 基于Frobenius范数构建恢复模块的损失函数。
具体的,本发明使用Frobenius范数来限制网络中的变量,由此可得出一个恢复模块的损失函数:
本发明除了在损失函数中加入了修复模块最终输出的X来对其每个模块的输出都加以限制,还对模块中的中间变量进行限制,基于迭代模型搭建的可解释性网络中的每个变量都是具有实际意义的,相比于一般的卷积神经网络只能通过约束网络最后的输出来对整个网络权值进行全局优化,本发明的训练更加稳定且高效。
S4 采用VOC数据集对深度矩阵分解补全模型进行训练。
基于VOC数据集的多样性,为了适应更加复杂的图片的恢复,本发明选择该数据集作为训练样本。首先将图像转换成尺寸为256×256的灰度图,然后将图像中部分随机像素值用255代替。训练中超参数的设置如下,初始化U、V矩阵时设置的奇异值个数为前50个奇异值。训练网络时选择Adam作为优化器,逐步训练每个迭代模型时学习率设为,趋于稳定后学习率降为,全局微调时学习率设为。块变量X更新模块中设置为,设置为10。损失函数正则项系数和分别设置为0.1和0.01。块变量X更新模块中的自动编码器总共包含三个隐藏层,尺寸分别为、和。
为了使其能够对缺失图像更有针对性的进行恢复,本发明为深度矩阵分解补全网络-1和深度矩阵分解补全网络-2网络各训练了两个模型。第一个模型使用的数据集为含有30%到50%缺失率的图像,所以该模型主要用于对缺失率为50%及以下的图像进行恢复。第二个模型使用的数据集为含有50%到70%缺失率的图像,这个模型则用于对缺失率达到50%至70%的图像进行恢复。其中训练深度矩阵分解补全网络-1时以一个修复模块作为训练单元采用逐步训练的策略进行训练,即先训练第一个修复模块,训练完成后冻结第一个修复模块的权重,接着训练新增的第二个修复模块,第二个修复模块训练完成后解冻第一个修复模块的权重进行全局微调。图4所示为两个模型训练期间损失收敛情况与测试数据的重建效果。
相比于CelebFaces Attributes DataSet(CelebA)数据集,在实现复杂图像的恢复时,本发明采用的VOC数据集训练的网络的丢失和重建性能更优,更具有针对性。
本发明结合深度学习与传统矩阵补全算法提出了用于数据处理的深度矩阵分解补全网络。将传统矩阵补全算法模型中的变量迭代更新映射到固定深度的神经网络中,通过端到端的可训练方式学习观测到的矩阵数据之间的潜在关系,从而形成高性能且易于部署的非线性矩阵补全解决方案。与传统算法相比,基于深度学习与非线性的深度矩阵分解补全网络能够在更短的时间内获得更好的恢复性能,而比起目前流行的基于深度学习的矩阵补全算法,端到端的深度矩阵分解补全网络是基于数据矩阵的全局信息对整个数据文件进行修复,不管是时间上还是修复效果上都能有明显的提升。在数据处理任务中,将深度矩阵分解补全网络与最先进的线性和非线性矩阵补全方法进行了比较。实验结果表明,深度矩阵分解补全网络能够使用更短的时间提供比现有方法更高的矩阵补全精度。
实施例二
本实施例提供一种存储介质,其存储有计算机程序;当所述计算机程序被计算机设备中的处理器执行时,计算机设备执行如上述任一项所述的方法。
本发明结合深度学习与传统矩阵补全算法提出了用于数据处理的深度矩阵分解补全网络(深度矩阵分解补全网络)。将传统矩阵补全算法模型中的变量迭代更新映射到固定深度的神经网络中,通过端到端的可训练方式学习观测到的矩阵数据之间的潜在关系,从而形成高性能且易于部署的非线性矩阵补全解决方案。与传统算法相比,基于深度学习与非线性的深度矩阵分解补全网络能够在更短的时间内获得更好的恢复性能,而比起目前流行的基于深度学习的矩阵补全算法,端到端的深度矩阵分解补全网络是基于数据矩阵的全局信息对整个数据文件进行修复,不管是时间上还是修复效果上都能有明显的提升。在数据处理任务中,将深度矩阵分解补全网络与最先进的线性和非线性矩阵补全方法进行了比较。实验结果表明,深度矩阵分解补全网络能够使用更短的时间提供比现有方法更高的矩阵补全精度。
为了说明的目的,前述描述使用具体命名以提供对所述实施方案的透彻理解。然而,对于本领域的技术人员而言将显而易见的是,不需要具体细节即可实践所述实施方案。因此,出于例示和描述的目的,呈现了对本文所述的具体实施方案的前述描述。这些描述并非旨在是穷举性的或将实施方案限制到所公开的精确形式。对于本领域的普通技术人员而言将显而易见的是,鉴于上面的教导内容,许多修改和变型是可行的。另外,当在本文中用于指部件的位置时,上文和下文的术语或它们的同义词不一定指相对于外部参照的绝对位置,而是指部件的参考附图的相对位置。
此外,前述附图和描述包括许多概念和特征,其可以多种方式组合以实现多种有益效果和优点。因此,可组合来自各种不同附图的特征,部件,元件和/或概念,以产生未必在本说明书中示出或描述的实施方案或实施方式。此外,在任何特定实施方案和/或实施方式中,不一定需要具体附图或说明中所示的所有特征,部件,元件和/或概念。应当理解,此类实施方案和/或实施方式落入本说明书的范围。
Claims (10)
1.一种基于深度矩阵分解补全的数据处理方法,其特征在于,包括以下步骤:
S1 构建深度矩阵分解补全模型,所述深度矩阵分解补全模型的核心结构是恢复模块;
S2 在进行观测矩阵的奇异值分解前,对观测矩阵的缺失位置进行预填充;
S3 基于Frobenius范数构建所述恢复模块的损失函数;
S4 采用VOC数据集对深度矩阵分解补全模型进行训练;
其中,所述恢复模块包括块变量U更新模块、块变量V更新模块和块变量X更新模块,采用深度学习算法,将变量映射到固定深度的神经网络来实现所述恢复模块的变量更新。
2.一种如权利要求1所述的基于深度矩阵分解补全的数据处理方法,其特征在于,所述S1构建深度矩阵分解补全模型具体包括以下步骤:
S1.1 构建使用低秩矩阵分解的图像矩阵补全模型;
S1.2 使用矩阵分解代替传统的核范数最小化;
S1.3 基于交替方向乘子法,每次迭代求解时只优化块变量U, 块变量V,拉格朗日乘子S和块变量X中一个变量,同时将其他的变量固定在它们的最新值,以此获得迭代模型,并将该模型映射到神经网络中进行求解。
5.一种如权利要求2所述的基于深度矩阵分解补全的数据处理方法,其特征在于,S1.3具体包括以下步骤:
S1.3.1 构建块变量U更新模块和块变量V更新模块;
S1.3.2 构建块变量X更新模块。
8.一种如权利要求1所述的基于深度矩阵分解补全的数据处理方法,其特征在于,所述S2对观测矩阵的缺失位置进行预填充具体包括:
通过神经网络算法实现预填充,和/或,
通过改进的最近邻均值填充算法实现预填充。
10.一种存储介质,其特征在于,其存储有计算机程序;当所述计算机程序被计算机设备中的处理器执行时,计算机设备执行如权利要求1-9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111454575.7A CN113869503B (zh) | 2021-12-02 | 2021-12-02 | 一种基于深度矩阵分解补全的数据处理方法及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111454575.7A CN113869503B (zh) | 2021-12-02 | 2021-12-02 | 一种基于深度矩阵分解补全的数据处理方法及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113869503A true CN113869503A (zh) | 2021-12-31 |
CN113869503B CN113869503B (zh) | 2022-03-01 |
Family
ID=78985447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111454575.7A Active CN113869503B (zh) | 2021-12-02 | 2021-12-02 | 一种基于深度矩阵分解补全的数据处理方法及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113869503B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114817668A (zh) * | 2022-04-21 | 2022-07-29 | 中国人民解放军32802部队 | 用于电磁大数据的自动化标注与目标关联方法 |
CN118134805A (zh) * | 2024-02-05 | 2024-06-04 | 中国人民解放军总医院 | 一种基于机器学习数据补全算法的图像处理方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109671030A (zh) * | 2018-12-10 | 2019-04-23 | 西安交通大学 | 一种基于自适应秩估计黎曼流形优化的图像补全方法 |
US20190318227A1 (en) * | 2018-04-13 | 2019-10-17 | Fabula Al Limited | Recommendation system and method for estimating the elements of a multi-dimensional tensor on geometric domains from partial observations |
CN110473151A (zh) * | 2019-07-04 | 2019-11-19 | 北京航空航天大学 | 基于分区卷积和关联损失的双阶段图像补全方法及系统 |
US20190369190A1 (en) * | 2018-06-04 | 2019-12-05 | Korea Advanced Institute Of Science And Technology | Method for processing interior computed tomography image using artificial neural network and apparatus therefor |
CN111506832A (zh) * | 2020-04-20 | 2020-08-07 | 盐城禅图智能科技有限公司 | 一种基于块矩阵补全的异构对象补全方法 |
-
2021
- 2021-12-02 CN CN202111454575.7A patent/CN113869503B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190318227A1 (en) * | 2018-04-13 | 2019-10-17 | Fabula Al Limited | Recommendation system and method for estimating the elements of a multi-dimensional tensor on geometric domains from partial observations |
US20190369190A1 (en) * | 2018-06-04 | 2019-12-05 | Korea Advanced Institute Of Science And Technology | Method for processing interior computed tomography image using artificial neural network and apparatus therefor |
CN109671030A (zh) * | 2018-12-10 | 2019-04-23 | 西安交通大学 | 一种基于自适应秩估计黎曼流形优化的图像补全方法 |
CN110473151A (zh) * | 2019-07-04 | 2019-11-19 | 北京航空航天大学 | 基于分区卷积和关联损失的双阶段图像补全方法及系统 |
CN111506832A (zh) * | 2020-04-20 | 2020-08-07 | 盐城禅图智能科技有限公司 | 一种基于块矩阵补全的异构对象补全方法 |
Non-Patent Citations (3)
Title |
---|
徐冰冰等: "图卷积神经网络综述", 《计算机学报》 * |
朱鉴等: "基于低秩矩阵补全的单幅图像去雨算法", 《广东工业大学学报》 * |
杨旭等: "多视角数据缺失补全", 《软件学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114817668A (zh) * | 2022-04-21 | 2022-07-29 | 中国人民解放军32802部队 | 用于电磁大数据的自动化标注与目标关联方法 |
CN118134805A (zh) * | 2024-02-05 | 2024-06-04 | 中国人民解放军总医院 | 一种基于机器学习数据补全算法的图像处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113869503B (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104866900B (zh) | 一种反卷积神经网络训练方法 | |
CN109087273B (zh) | 基于增强的神经网络的图像复原方法、存储介质及系统 | |
CN111369487B (zh) | 一种高光谱和多光谱图像融合方法、系统及介质 | |
CN110175951B (zh) | 基于时域一致性约束的视频风格迁移方法 | |
CN113869503B (zh) | 一种基于深度矩阵分解补全的数据处理方法及存储介质 | |
CN107133930A (zh) | 基于低秩矩阵重建和稀疏表示的行列缺失图像填充方法 | |
CN111986075B (zh) | 一种目标边缘清晰化的风格迁移方法 | |
CN109005398B (zh) | 一种基于卷积神经网络的立体图像视差匹配方法 | |
CN112700370B (zh) | 超参数保真与深度先验联合学习的高光谱图像超分辨方法 | |
CN110648292A (zh) | 一种基于深度卷积网络的高噪声图像去噪方法 | |
CN113870124B (zh) | 基于弱监督的双网络互激励学习阴影去除方法 | |
CN112184547B (zh) | 红外图像的超分辨率方法及计算机可读存储介质 | |
Xu et al. | Deep sparse representation based image restoration with denoising prior | |
CN112884668A (zh) | 基于多尺度的轻量级低光图像增强方法 | |
CN113744136A (zh) | 基于通道约束多特征融合的图像超分辨率重建方法和系统 | |
CN116402679B (zh) | 一种轻量级红外超分辨率自适应重建方法 | |
CN112101364A (zh) | 基于参数重要性增量学习的语义分割方法 | |
CN116797456A (zh) | 图像超分辨率重建方法、系统、设备和存储介质 | |
Li et al. | Flexicurve: Flexible piecewise curves estimation for photo retouching | |
CN109741258B (zh) | 基于重建的图像超分辨率方法 | |
CN114359039A (zh) | 基于知识蒸馏的图像超分方法 | |
Xu et al. | Depth map super-resolution via joint local gradient and nonlocal structural regularizations | |
CN106407932A (zh) | 基于分数阶微积分与广义逆神经网络的手写数字识别方法 | |
CN111914904B (zh) | 一种融合DarkNet与CapsuleNet模型的图像分类方法 | |
Liu et al. | Optimization-derived learning with essential convergence analysis of training and hyper-training |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230726 Address after: Room 313-3648, Floor 3, Shanshui Building, No. 3, Gulou East Street, Miyun District, Beijing Patentee after: Zhonggong Shitong (Beijing) Technology Co.,Ltd. Address before: Beijing University of architecture, No. 1 zhanzhanguan Road, Xicheng District, Beijing 100066 Patentee before: Beijing University of Civil Engineering and Architecture |
|
TR01 | Transfer of patent right |