CN103226714B - 基于较大编码系数强化的稀疏编码方法 - Google Patents
基于较大编码系数强化的稀疏编码方法 Download PDFInfo
- Publication number
- CN103226714B CN103226714B CN201310168219.8A CN201310168219A CN103226714B CN 103226714 B CN103226714 B CN 103226714B CN 201310168219 A CN201310168219 A CN 201310168219A CN 103226714 B CN103226714 B CN 103226714B
- Authority
- CN
- China
- Prior art keywords
- test sample
- alpha
- reconstructed
- coefficient
- sparse coding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明提供了一种基于较大编码系数强化的稀疏编码方法,方法流程为:首先构造测试样本列向量和训练样本矩阵。第二,用主成分分析方法(PCA)将两者降维,降维后的训练样本矩阵也叫做字典。第三,将测试样本列向量表示为字典的线性组合,表示系数为稀疏编码系数。最后,字典与每一类对应的稀疏编码系数相乘,得到每一类的重构样本,然后将测试样本和重构样本相减,得到标准重构误差;同样选择其中较大的一部分编码系数,将字典与之相乘,也得到一种重构样本,然后将测试样本和重构样本相减,得到另一种重构误差,两类误差的最小值对应的类别即为测试样本所属类别。经大量实验验证,本发明在人脸识别中得到了应用,识别率很高,有很好的性能与适用性。
Description
技术领域
本发明涉及基于较大编码系数强化的稀疏编码方法,属于利用稀疏编码方法进行模式识别的技术领域。
背景技术
随着近年来稀疏编码得到了越来越广泛的关注,它也在盲信号分离、特征提取、数据分类、视觉图像处理以及模式识别等领域得到了越来越多的应用。下面以稀疏编码在人脸识别中的应用为例,介绍一下现有的2种稀疏编码方法:
1.稀疏编码(SparseRepresentationbasedClassification,SRC)方法的步骤为:
首先,提取含有多个类别的训练样本,将之表示为字典,然后将测试样本表示为字典的线性组合,得到稀疏编码系数,其中每个系数分别对应每个训练样本,同时每个类别的系数也对应每个类别的训练样本;
然后将各个类别对应的稀疏编码系数与字典相乘得到重构样本,然后测试样本与重构样本相减得到误差;
最终,得到系数重构样本与测试样本所得到的误差最小,其重构样本所对应的类别即为最终判定测试样本的所属类别。
2.研究人员之后又提出了鲁棒稀疏编码(RobustSparseCoding,RSC)方法,该方法对图像中包含异常像素的情况表现出很好的鲁棒性,其方法步骤为:
与稀疏编码(SparseRepresentationbasedClassification,SRC)相比,在表示过程中加入权值矩阵,当训练样本不能较好的表示测试样本时,即冗余误差较大时,权值矩阵能够减小冗余误差,这样,如果遇到较大的遮挡物或噪声,鲁棒稀疏编码(RobustSparseCoding,RSC)仍旧能够得到稀疏系数,使得最终识别率不受影响。同时,在重构过程中也加入权值矩阵W,与表示过程相对应。判定最终类别方法也同稀疏编码(SparseRepresentationbasedClassification,SRC)一样。
但是在实际应用中,以上两种稀疏编码方法在重构过程中的错误率较高,识别率较低。
发明内容
针对现有技术的不足,本发明提出基于较大编码系数强化的稀疏编码方法,该方法目的在于提出了稀疏编码中的一种新的重构方法。因为当编码系数很杂乱或者不能满足稀疏的要求时,通常不能够正确的分类,所以通过选择其中较大的一部分编码系数也参与样本的重构过程,使得算法在人脸识别的应用中能够获得更高的识别率。
本发明的技术方案如下:
一种基于较大编码系数强化的稀疏编码方法,包括应用于稀疏编码的方法(ALargerCoefficientsEmphasisFrameworkforSparseRepresentation,LCE-SRC),和应用于鲁棒稀疏编码的方法(ALargerCoefficientsEmphasisFrameworkforRobustSparseCoding,LCE-RSC):
其中,本发明应用于稀疏编码的方法(ALargerCoefficientsEmphasisFrameworkforSparseRepresentation,LCE-SRC),包括步骤(a)-(e):
a:首先提取1个测试样本的特征,将其表示为一个列向量,同样也提取k个训练样本的特征,将其表示为k列的矩阵;
b:用主成分分析方法(PCA)将测试样本列向量和训练样本矩阵的每个列向量降维至m维,所以得到m维的测试样本列向量和大小为m×k的训练样本矩阵,其中,称降维后的训练样本矩阵为训练样本字典;
c:稀疏表示:
其中式(1)是稀疏编码(SparseRepresentationbasedClassification,SRC)的拉格朗日算子表示公式,x是测试样本列向量,D是训练样本字典,α是式(1)中唯一的自变量,是编码系数向量;e=y-Dα,其中e为编码冗余;式(1)通过第一项编码冗余的l2范数和第二项编码系数的l1范数使得训练样本表示测试样本和编码系数向量稀疏,最终得到最优稀疏编码系数α,即通过求式(1)最小值得到α;
d:样本重构。
在式(2)中,第一项是标准重构误差,根据训练样本字典与训练样本的每一类对应的稀疏编码系数δi(α)相乘,得到每一类的重构样本,然后将测试样本和重构样本相减,得到标准重构误差;加权的第二项中,α'是α中最大的一部分元素:根据α中的元素大小进行排序,选出前十项组成α',即最大的一部分元素,δi(α')是由α'向量中第i类对应的元素组成的向量,δi(α')max是α'中最大的元素值,length(δi(α'))是δi(α')的长度,β为加权系数,选择其中较大的一部分编码系数,也将训练样本字典与之相乘,得到新的重构样本,然后将测试样本和新的重构样本相减,得到新的标准重构误差,两类误差和的最小值对应的类别即为测试样本所属类别;
e:读取其他测试样本,返回a步骤继续识别分类;
本发明应用于鲁棒稀疏编码的方法(ALargerCoefficientsEmphasisFrameworkforRobustSparseCoding,LCE-RSC),包括步骤(f)-(m):
f:首先提取1个测试样本的特征,将其表示为一个列向量,同样也提取k个训练样本的特征,将其表示为k列的矩阵;
g:用主成分分析方法(PCA)将测试样本列向量和训练样本矩阵的每个列向量降维至m维,所以得到m维的测试样本列向量和大小为m×k的训练样本字典矩阵;
h:令t=1;求权值矩阵W;
定义初始冗余误差e(t)=y(t)-yrec (t),yrec (t)为所有训练样本的平均值;
i:稀疏表示过程:
在式(3)中第一项中加入权值矩阵W,当训练样本不能较好的表示测试样本时,即冗余误差较大时,W能够减小冗余误差;这样,如果遇到较大的遮挡物或噪声,RSC能够得到稀疏系数,使得最终识别率不受影响;
j:用α(t)将测试样本重新表示:
k:令t=t+1;返回h步骤,直至达到设定的循环次数为止;例如,当识别比较简单时,t设为2,当遇到较大的遮挡物或噪声时,t设为10;
l:样本重构:
在式4中第一项是标准重构误差,根据字典与训练样本的每一类对应的稀疏编码系数δi(α)相乘,得到每一类的重构样本,然后将测试样本和重构样本相减,将差值与权值矩阵相乘,得到标准重构误差;加权的第二项中,α'是α中最大的一部分元素:根据α中的元素大小进行排序,选出前十项组成α',即最大的一部分元素,δi(α')是由α'向量中第i类对应的元素组成的向量,δi(α')max是α'中最大的元素值,length(δi(α'))是δi(α')的长度,β为加权系数,选择其中较大的一部分编码系数,也将字典与之相乘,得到新的重构样本,然后将测试样本和新的重构样本相减,将差值与权值矩阵相乘,得到新的标准重构误差,两类误差的最小值对应的类别即为测试样本所属类别;
m:读取其他测试样本,返回f步骤继续识别分类。
本发明的优势在于:
本发明所述的基于较大编码系数强化的稀疏编码方法,流程为:首先构造测试样本列向量和训练样本矩阵。第二,用主成分分析方法(PCA)将两者降维,降维后的训练样本矩阵也叫做字典。第三,将测试样本列向量表示为字典的线性组合,表示系数为稀疏编码系数。最后,字典与每一类对应的稀疏编码系数相乘,得到每一类的重构样本,然后将测试样本和重构样本相减,得到标准重构误差;同样选择其中较大的一部分编码系数,将字典与之相乘,也得到一种重构样本,然后将测试样本和重构样本相减,得到另一种重构误差,两类误差的最小值对应的类别即为测试样本所属类别。经大量实验验证,本发明在人脸识别中得到了应用,识别率很高,有很好的性能与适用性。
附图说明:
图1是利用本发明所述方法对应用于人脸识别时,能够正确分类的α系数向量;
图2是现有的稀疏编码方法应用于人脸识别时,是不能够正确分类的α系数向量;
图3是本发明所述稀疏编码方法的流程图。
具体实施方式
下面结合具体的实施例对本发明做详细的说明,但不限于此。
实施例、
一种基于较大编码系数强化的稀疏编码方法,包括应用于稀疏编码的方法(ALargerCoefficientsEmphasisFrameworkforSparseRepresentation,LCE-SRC),和应用于鲁棒稀疏编码的方法(ALargerCoefficientsEmphasisFrameworkforRobustSparseCoding,LCE-RSC):
其中,本发明应用于稀疏编码的方法(ALargerCoefficientsEmphasisFrameworkforSparseRepresentation,LCE-SRC),包括步骤(a)-(e):
a:首先提取1个测试样本的特征,将其表示为一个列向量,同样也提取k个训练样本的特征,将其表示为k列的矩阵;
b:用主成分分析方法(PCA)将测试样本列向量和训练样本矩阵的每个列向量降维至m维,所以得到m维的测试样本列向量和大小为m×k的训练样本矩阵,其中,称降维后的训练样本矩阵为训练样本字典;
c:稀疏表示:
其中式(1)是稀疏编码(SparseRepresentationbasedClassification,SRC)的拉格朗
日算子表示公式,x是测试样本列向量,D是训练样本字典,α是式(1)中唯一的自变量,
是编码系数向量;e=y-Dα,其中e为编码冗余;式(1)通过第一项编码冗余的l2范数
和第二项编码系数的l1范数使得训练样本表示测试样本和编码系数向量稀疏,最终得到最
优稀疏编码系数α,即通过求式(1)最小值得到α;
d:样本重构。
在式(2)中,第一项是标准重构误差,根据训练样本字典与训练样本的每一类对应的稀疏编码系数δi(α)相乘,得到每一类的重构样本,然后将测试样本和重构样本相减,得到标准重构误差;加权的第二项中,α'是α中最大的一部分元素:根据α中的元素大小进行排序,选出前十项组成α',即最大的一部分元素,δi(α')是由α'向量中第i类对应的元素组成的向量,δi(α')max是α'中最大的元素值,length(δi(α'))是δi(α')的长度,β为加权系数,选择其中较大的一部分编码系数,也将训练样本字典与之相乘,得到新的重构样本,然后将测试样本和新的重构样本相减,得到新的标准重构误差,两类误差和的最小值对应的类别即为测试样本所属类别;
e:读取其他测试样本,返回a步骤继续识别分类;
本发明应用于鲁棒稀疏编码的方法(ALargerCoefficientsEmphasisFrameworkforRobustSparseCoding,LCE-RSC),包括步骤(f)-(m):
f:首先提取1个测试样本的特征,将其表示为一个列向量,同样也提取k个训练样本的特征,将其表示为k列的矩阵;
g:用主成分分析方法(PCA)将测试样本列向量和训练样本矩阵的每个列向量降维至m维,所以得到m维的测试样本列向量和大小为m×k的训练样本字典矩阵;
h:令t=1;求权值矩阵W;
定义初始冗余误差e(t)=y(t)-yrec (t),yrec (t)为所有训练样本的平均值;
i:稀疏表示过程:
在式(3)中第一项中加入权值矩阵W,当训练样本不能较好的表示测试样本时,即冗余误差较大时,W能够减小冗余误差;这样,如果遇到较大的遮挡物或噪声,RSC能够得到稀疏系数,使得最终识别率不受影响;
j:用α(t)将测试样本重新表示:
k:令t=t+1;返回h步骤,直至达到设定的循环次数为止;例如,当识别比较简单时,t设为2,当遇到较大的遮挡物或噪声时,t设为10;
l:样本重构:
在式4中第一项是标准重构误差,根据字典与训练样本的每一类对应的稀疏编码系数δi(α)相乘,得到每一类的重构样本,然后将测试样本和重构样本相减,将差值与权值矩阵相乘,得到标准重构误差;加权的第二项中,α'是α中最大的一部分元素:根据α中的元素大小进行排序,选出前十项组成α',即最大的一部分元素,δi(α')是由α'向量中第i类对应的元素组成的向量,δi(α')max是α'中最大的元素值,length(δi(α'))是δi(α')的长度,β为加权系数,选择其中较大的一部分编码系数,也将字典与之相乘,得到新的重构样本,然后将测试样本和新的重构样本相减,将差值与权值矩阵相乘,得到新的标准重构误差,两类误差的最小值对应的类别即为测试样本所属类别;
m:读取其他测试样本,返回f步骤继续识别分类。
在附图1和2中可以看到,利用本发明所述的方法能够正确分类的α呈稀疏分布,并且较大的一些数值分布在正确类别所在的位置;而现有的稀疏编码方法不能够正确分类的α分布很杂乱,并且稀疏分布不明显,有很多误导分类的干扰信息。基于较大编码系数强化算法选取了较大的数值同样进行重构,过滤上述干扰信息。经观察同样可知,最大系数δi(α')max和编码系数在第i类的长度最大值length(δi(α'))也通常处在正确类别所在的位置,所以将这两项放入加权公式的分母项上。
LCE-SRC的步骤d和LCE-RSC的步骤g的意义在于,强化了较大的系数在样本重构中的作用,经过加权之后,纠正了类似附图2中的α在a步骤中的偏差,使得重构误差能够更好的分类测试样本,从而实现识别率的提高。
β的取值范围为[0.03,1],较大数值的个数取为10。经过在AR和ExtendedYaleB人脸库上的仿真实验可以看出,LCE-SRC和LCE-RSC比起经典算法识别率都得到了提高。
分别利用现有的稀疏编码(SparseRepresentationbasedClassification,SRC)、鲁棒稀疏编码(RobustSparseCoding,RSC)方法,和本发明所述的方法对AR人脸库上进行识别应用的结果比较,样本为具有表情和光照变化的人脸图片,比较结果参见表1:
表1:
Dimension | SRC | LCE-SRC | RSC | LCE-RSC |
30 | 81.09 | 81.38 | 84.24 | 84.24 |
60 | 91.98 | 92.26 | 93.7 | 93.12 |
90 | 92.26 | 93.12 | 94.84 | 94.56 |
120 | 91.69 | 93.41 | 95.99 | 96.28 |
150 | 93.7 | 93.7 | 96.56 | 96.85 |
180 | 94.27 | 94.27 | 96.56 | 96.85 |
210 | 93.98 | 94.27 | 96.85 | 97.42 |
240 | 94.27 | 95.13 | 96.56 | 97.42 |
270 | 94.56 | 94.84 | 96.56 | 97.13 |
300 | 93.98 | 94.84 | 96.85 | 97.13 |
330 | 93.98 | 94.84 | 96.85 | 97.71 |
表1列出了四种方法在AR库的识别率,其中测试样本和训练样本都用PCA降维,表中降至30-330维。与SRC相比,在大部分维度下,LCE-SRC都提高了1%的识别率。很明显,LCE-RSC在四种方法中识别率最高,除了在30、60和90维度下,LCE-RSC比RSC同样提高了1%的识别率,因为当维数过低时,任何方法的识别率都不高。可以看出,本发明所述方法的效果比原来的方法效果更好;
分别利用现有的稀疏编码(SparseRepresentationbasedClassification,SRC)、鲁棒稀疏编码(RobustSparseCoding,RSC)方法,和本发明所述的方法对ExtendedYaleB人脸库上进行识别应用的结果比较。样本为具有拍摄角度和光照变化的人脸图片,比较结果参见表2:
表2
Dimension | SRC | LCE-SRC | RSC | LCE-RSC |
30 | 49.34 | 49.18 | 48.44 | 49.01 |
60 | 56.17 | 56.41 | 57.73 | 58.39 |
90 | 63.73 | 64.31 | 65.54 | 65.95 |
120 | 66.61 | 67.68 | 68.42 | 69.74 |
150 | 69.49 | 70.97 | 71.88 | 72.99 |
180 | 70.81 | 74.18 | 72.45 | 74.84 |
210 | 72.12 | 76.4 | 72.86 | 76.97 |
240 | 73.85 | 78.04 | 75.08 | 79.03 |
270 | 74.75 | 79.28 | 76.23 | 81.15 |
300 | 75.9 | 80.26 | 76.73 | 81.25 |
330 | 76.56 | 80.51 | 76.73 | 81.41 |
表2列出了四种方法在ExtendedYaleB库的识别率,其中测试样本和训练样本都用PCA降维,表中降至30-330维。与SRC相比,除了在30维度下,都提高了4-5%的识别率。很明显,LCE-RSC在四种方法中识别率最高,LCE-RSC比RSC同样提高了识别率,特别是在维度较高时,提高效果更明显。可以看出,本发明的方法效果比现有的方法效果更好。
分别利用现有的鲁棒稀疏编码(RobustSparseCoding,RSC)方法,和本发明所述的方法对AR人脸库上进行识别应用的结果比较。训练样本为表情变化的人脸图片,测试样本为带眼睛和围巾的人脸图片。比较结果参见表3:
表3
Sunglasses | Scarf | |
RSC | 99.5% | 96% |
LCE-RSC | 100% | 98% |
表3列出了两种方法在AR人脸库上进行识别应用的结果比较。训练样本为表情变化的人脸图片,测试样本为戴眼镜和围巾的人脸图片。LCE-RSC在测试样本为戴眼镜图片时,将识别率提高了0.5%,在测试样本为戴围巾图片时,将识别率提高了2%。可以看出,本发明的算法效果比现有的方法效果更好。
分别利用现有的鲁棒稀疏编码(RobustSparseCoding,RSC)方法,和本发明所述的方法对AR人脸库上进行识别应用的结果比较。训练样本为光照变化的人脸图片,测试样本为光照变化情况下,带眼睛和围巾的人脸图片。比较结果参见表4:
表4:
Sunglasses | Scarf | |
RSC | 77% | 71.67% |
LCE-RSC | 82.67% | 73% |
表4列出了两种方法在AR人脸库上进行识别应用的结果比较。训练样本为光照变化的人脸图片,测试样本为戴眼镜和围巾的人脸图片。LCE-RSC在测试样本为戴眼镜图片时,将识别率提高了5.67%,在测试样本为戴围巾图片时,将识别率提高了1.33%。可以看出,本发明的方法效果比现有的方法效果更好。
Claims (2)
1.一种基于较大编码系数强化的稀疏编码方法,其特征在于,包括应用于稀疏编码的方法(ALargerCoefficientsEmphasisFrameworkforSparseRepresentation,LCE-SRC),和应用于鲁棒稀疏编码的方法:
其中,本发明应用于稀疏编码的方法(ALargerCoefficientsEmphasisFrameworkforSparseRepresentation,LCE-SRC),包括步骤(a)-(e):
a:首先提取1个测试样本的特征,将其表示为一个列向量,同样也提取k个训练样本的特征,将其表示为k列的矩阵;
b:用主成分分析方法(PCA)将测试样本列向量和训练样本矩阵的每个列向量降维至m维,所以得到m维的测试样本列向量和大小为m×k的训练样本矩阵,其中,称降维后的训练样本矩阵为训练样本字典;
c:稀疏表示:
其中式(1)是稀疏编码(SparseRepresentationbasedClassification,SRC)的拉格朗日算子表示公式,x是测试样本列向量,D是训练样本字典,α是式(1)中唯一的自变量,是编码系数向量;e=y-Dα,其中e为编码冗余;式(1)通过第一项编码冗余的l2范数和第二项编码系数的l1范数使得训练样本表示测试样本和编码系数向量稀疏,最终得到最优稀疏编码系数α,即通过求式(1)最小值得到α;
d:样本重构;
在式(2)中,第一项是标准重构误差,根据训练样本字典与训练样本的每一类对应的稀疏编码系数δi(α)相乘,得到每一类的重构样本,然后将测试样本和重构样本相减,得到标准重构误差;加权的第二项中,α'是α中最大的一部分元素:根据α中的元素大小进行排序,选出前十项组成α',即最大的一部分元素,δi(α')是由α'向量中第i类对应的元素组成的向量,δi(α′)max是α'中最大的元素值,length(δi(α′))是δi(α')的长度,β为加权系数,选择其中较大的一部分编码系数,也将训练样本字典与之相乘,得到新的重构样本,然后将测试样本和新的重构样本相减,得到新的标准重构误差,两类误差和的最小值对应的类别即为测试样本所属类别;
e:读取其他测试样本,返回a步骤继续识别分类。
2.一种应用权利要求1所述的一种基于较大编码系数强化的稀疏编码方法应用于鲁棒稀疏编码的方法,包括步骤(f)-(m):
f:首先提取1个测试样本的特征,将其表示为一个列向量,同样也提取k个训练样本的特征,将其表示为k列的矩阵;
g:用主成分分析方法(PCA)将测试样本列向量和训练样本矩阵的每个列向量降维至m维,所以得到m维的测试样本列向量和大小为m×k的训练样本字典矩阵;
h:令t=1;求权值矩阵W;
定义初始冗余误差e(t)=y(t)-yrec (t),yrec (t)为所有训练样本的平均值;
i:稀疏表示过程:
在式(3)中第一项中加入权值矩阵W,当训练样本不能较好的表示测试样本时,即冗余误差较大时,W能够减小冗余误差;这样,如果遇到较大的遮挡物或噪声,RSC能够得到稀疏系数,使得最终识别率不受影响;
j:用α(t)将测试样本重新表示:
k:令t=t+1;返回h步骤,直至达到设定的循环次数为止;例如,当识别比较简单时,t设为2,当遇到较大的遮挡物或噪声时,t设为10;
l:样本重构:
在式4中第一项是标准重构误差,根据字典与训练样本的每一类对应的稀疏编码系数δi(α)相乘,得到每一类的重构样本,然后将测试样本和重构样本相减,将差值与权值矩阵相乘,得到标准重构误差;加权的第二项中,α'是α中最大的一部分元素:根据α中的元素大小进行排序,选出前十项组成α',即最大的一部分元素,δi(α')是由α'向量中第i类对应的元素组成的向量,δi(α')max是α'中最大的元素值,length(δi(α'))是δi(α')的长度,β为加权系数,选择其中较大的一部分编码系数,也将字典与之相乘,得到新的重构样本,然后将测试样本和新的重构样本相减,将差值与权值矩阵相乘,得到新的标准重构误差,两类误差的最小值对应的类别即为测试样本所属类别;
m:读取其他测试样本,返回f步骤继续识别分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310168219.8A CN103226714B (zh) | 2013-05-09 | 2013-05-09 | 基于较大编码系数强化的稀疏编码方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310168219.8A CN103226714B (zh) | 2013-05-09 | 2013-05-09 | 基于较大编码系数强化的稀疏编码方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103226714A CN103226714A (zh) | 2013-07-31 |
CN103226714B true CN103226714B (zh) | 2016-04-06 |
Family
ID=48837155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310168219.8A Expired - Fee Related CN103226714B (zh) | 2013-05-09 | 2013-05-09 | 基于较大编码系数强化的稀疏编码方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103226714B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103761533A (zh) * | 2014-01-21 | 2014-04-30 | 南京信息工程大学 | 基于核鉴别线性表示的分类方法 |
CN104848883B (zh) * | 2015-03-27 | 2017-10-17 | 重庆大学 | 一种基于稀疏表示的传感器噪声与故障的判别方法 |
CN105069402A (zh) * | 2015-07-17 | 2015-11-18 | 西安交通大学 | 一种面向人脸识别的改进鲁棒稀疏编码算法 |
CN105787428A (zh) * | 2016-01-08 | 2016-07-20 | 上海交通大学 | 基于稀疏编码的唇语特征身份认证方法 |
CN106056141B (zh) * | 2016-05-27 | 2019-04-19 | 哈尔滨工程大学 | 一种使用空间稀疏编码的目标识别与角度粗估计算法 |
CN105930878B (zh) * | 2016-06-24 | 2020-01-14 | 山东大学 | 一种基于差分切片能量图和稀疏编码的微表情识别方法 |
CN108229512B (zh) * | 2016-12-22 | 2021-10-08 | 扬州大学 | 一种基于非负表示系数的两阶段识别方法 |
CN107392190B (zh) * | 2017-09-07 | 2020-08-11 | 南京信息工程大学 | 基于半监督多视图字典学习的彩色人脸识别方法 |
CN111370124A (zh) * | 2020-03-05 | 2020-07-03 | 湖南城市学院 | 一种基于面手部识别和大数据的健康分析系统及方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102968635A (zh) * | 2012-11-23 | 2013-03-13 | 清华大学 | 一种基于稀疏编码的图像视觉特征提取方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8235260B2 (en) * | 2009-02-27 | 2012-08-07 | Kieu Thi-Bich Phan | Garment washing device for plus size brassieres |
-
2013
- 2013-05-09 CN CN201310168219.8A patent/CN103226714B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102968635A (zh) * | 2012-11-23 | 2013-03-13 | 清华大学 | 一种基于稀疏编码的图像视觉特征提取方法 |
Non-Patent Citations (1)
Title |
---|
对角线稀疏矩阵的SPMV自适应性能优化;孙相征等;《计算机研究与发展》;20130331;第648-656页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103226714A (zh) | 2013-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103226714B (zh) | 基于较大编码系数强化的稀疏编码方法 | |
CN109492101A (zh) | 基于标签信息与文本特征的文本分类方法、系统及介质 | |
CN105740790B (zh) | 基于多核字典学习的彩色人脸识别方法 | |
CN103440471B (zh) | 基于低秩表示的人体行为识别方法 | |
CN109002859B (zh) | 基于主成分分析的传感器阵列特征选择和阵列优化方法 | |
CN109685093A (zh) | 无监督的自适应特征选择方法 | |
CN105678261B (zh) | 基于有监督图的直推式数据降维方法 | |
CN104008375A (zh) | 基于特征融合的集成人脸识别方法 | |
CN111105241B (zh) | 一种应用于信用卡交易反欺诈的识别方法 | |
CN101359373A (zh) | 退化字符的识别方法和装置 | |
CN105046272A (zh) | 一种基于简洁非监督式卷积网络的图像分类方法 | |
CN108256016A (zh) | 基于个人微博的个人异常情绪检测方法及装置 | |
CN105609116A (zh) | 一种语音情感维度区域的自动识别方法 | |
CN109063983B (zh) | 一种基于社交媒体数据的自然灾害损失实时评估方法 | |
CN105184266A (zh) | 一种手指静脉图像识别方法 | |
CN105426441A (zh) | 一种时间序列自动预处理方法 | |
CN105139856A (zh) | 基于先验知识规整协方差的概率线性鉴别说话人识别方法 | |
CN116012653A (zh) | 一种注意力残差单元神经网络高光谱图像分类方法及系统 | |
CN114332544A (zh) | 一种基于图像块评分的细粒度图像分类方法和装置 | |
CN109447153A (zh) | 用于非均衡数据分类的散度-激励自编码器及其分类方法 | |
CN104978569A (zh) | 一种基于稀疏表示的增量人脸识别方法 | |
CN102902984B (zh) | 基于局部一致性的遥感影像半监督投影降维方法 | |
CN112966735B (zh) | 一种基于谱重建的监督多集相关特征融合方法 | |
CN105069403A (zh) | 一种基于分块统计特征与字典学习稀疏表示分类的三维人耳识别 | |
CN107133579A (zh) | 基于CSGF(2D)2PCANet卷积网络的人脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160406 Termination date: 20170509 |