CN111753874A - 一种结合半监督聚类的图像场景分类方法及系统 - Google Patents

一种结合半监督聚类的图像场景分类方法及系统 Download PDF

Info

Publication number
CN111753874A
CN111753874A CN202010410756.9A CN202010410756A CN111753874A CN 111753874 A CN111753874 A CN 111753874A CN 202010410756 A CN202010410756 A CN 202010410756A CN 111753874 A CN111753874 A CN 111753874A
Authority
CN
China
Prior art keywords
kmeans
svm
samples
semi
supervised
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010410756.9A
Other languages
English (en)
Inventor
姜震
冯路捷
陆宇
毛启容
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Kingyoung Intelligent Science And Technology Co ltd
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN202010410756.9A priority Critical patent/CN111753874A/zh
Publication of CN111753874A publication Critical patent/CN111753874A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种结合半监督聚类的图像场景分类方法及系统,利用有标签样本,重新定义半监督Kmeans的目标函数,同时,补充定义SVM的目标函数,得到半监督Kmeans聚类和基于SVM分类的基学习器;两个基学习器进行协同训练,制定伪标签样本的选择和迭代训练方案;最后依据置信度,将两个学习器的结果进行融合,得到样本所属的场景图像类别。本发明利用图像场景分类领域不同类型的方法构建基分类器并进行协同训练。同时,引入伪标签样本来扩充训练集从而有效解决有标签样本不足的问题。进一步的,本发明在无标签样本上聚类以获得其分布特征,解决了概念漂移问题。最终实现了降低场景图像的标注成本、解决概念漂移并提高了图像场景分类准确率。

Description

一种结合半监督聚类的图像场景分类方法及系统
技术领域
本发明涉及图像场景分类领域,尤其涉及一种结合半监督聚类的图像场景分类方法及系统。
背景技术
图像场景分类是指系统根据提供的图像信息来进行分类得到该图像所属的场景,从而达到图像场景分类的目的。目前图像场景分类研究已经取得很大的进步,但是由于不同图像的场景构成差别大,不仅存在内类差异和类间相似性的相关问题,而且场景图像中往往存在着复杂多变的目标内容,这导致了同一种分类方法在不同的场景数据集上的分类效果经常存在较大差异,即尚没有一种分类方法能在多类图像场景数据库中兼具有良好的分类表现。
目前在图像场景分类领域中,图像场景分类算法分为两大类:
1)基于统计机器学习的算法
在统计机器学习的图像场景分类方法中,主要是图像特征的提取算法和几种分类算法。常用的图像特征有SIFT特征、Harris角点检测等,这些方法对于图像特征的提取具有较好的效果。常用的分类算法有:K邻近算法、贝叶斯分类、支持向量机等。K邻近算法作为一种常用的分类算法通过计算待测样本数据与训练数据中不同类别数据点间的相似度进而进行待测样本分类,其常用的距离测量公式为欧式距离。贝叶斯分类方法其分类性能主要取决于估计的条件概率项的准确性,训练数据稀缺时,条件概率项的估计精度较低,会导致朴素贝叶斯方法的分类性能下降。支持向量机(SVM)通过构造超平面在高维空间中实现原空间中的非线性决策,能克服传统的人工神经网络等算法的欠和过学习的不足,具有较好的泛化能力。
2)基于深度学习的算法
在现有的深度学习图像场景分类算法中,常用的有卷积神经网络和递归神经网络。卷积神经网络一般由数据输入层、卷积层、池化层、全连接层、输出层组成,其中卷积层能自动提取图像的特征,所以避免了传统机器学习中对于某一固定特征的繁琐提取。递归神经网络(RNN)也是常用的深度学习的分类方法,其常用的模型为LSTM(长短期记忆网络),构建这种结构主要是为了解决较长序列在训练过程中由于链式求导产生的梯度消失或者梯度爆炸问题。
上述的算法都存在一定的不足,为了获得好的分类效果,往往需要大量的成本高昂的人工标注训练样本,这导致了有标签样本不足的问题。同时,由于场景图像中存在大量未标注样本,且随着时间推移,这些未标注样本数量与日俱增,这些样本的分布也随着时间发生不可预测的变化,此时,原有的分类器将无法适应变化后的场景图像,从而导致了分类器性能下降。为了改善上述标注瓶颈和概念漂移的问题,本发明提出了一种结合半监督聚类的图像场景分类方法及系统。
发明内容
本发明的目的在于针对图像场景分类现有技术的缺陷和不足,提供了一种结合半监督聚类的图像场景分类方法及系统,用以改善图像场景分类过程中所发生的有标签样本不足,以及随着时间的推移,由于样本数据的分布发生变化所带来的概念漂移等问题。
实现本发明目的的技术方案是:
一种结合半监督聚类的图像场景分类方法,包括:
S1.基于半监督Kmeans的图像场景聚类:在传统半监督Kmeans的基础上,结合有标签的场景图像数据所携带的有效信息,重新定义半监督Kmeans的目标函数,得到一个基于半监督Kmeans图像场景聚类的一个基学习器。接着,利用Kmeans基学习器对测试样本进行聚类。聚类时同一个簇中的图像样本,根据簇中占多数的有标签样本的类别,将样本标注为同一个类,并计算各样本聚类结果的置信度;
S2.基于SVM的图像场景分类:在传统的SVM基础上,补充定义了SVM的目标函数,得到基于SVM的场景图像分类的基学习器。接着,利用SVM基学习器对测试样本进行分类,并计算各样本分类结果的置信度;
S3.结合半监督Kmeans和SVM的协同训练:基于半监督Kmeans的图像场景聚类和基于SVM的场景图像分类可以得到两个基学习器,同时,这两个基学习器可以分别得到各个测试样本分类结果的置信度,按照类别比例和置信度,分别选择一定数量的测试样本,作为伪标签样本,加入到对方的训练集中,在新得到的训练集上对半监督Kmeans基学习器和SVM基学习器进行迭代训练。同时,根据目标函数评估这两个学习器的性能,如果当前学习器的性能相较迭代前性能下降,则撤销当前这批伪标签样本的加入,返回迭代之前的结果;
S4.融合半监督Kmeans和SVM的图像场景分类:利用协同训练后的半监督Kmeans和SVM学习器对样本进行场景分类,并计算其置信度,根据各自的置信度,对Kmeans和SVM学习器的分类结果进行融合,获得最终的图像场景类别。
作为本发明的进一步改进,所述步骤S1之前还包括下列步骤:
S01.建立场景分类样本图像数据库,首先选取场景分类的样本图像,使样本图像中包含各类常见的场景:如沙滩、森林、雪地、卧室、厨房、浴室、操场、教室等,其中每一类场景都选取上百个样本。接着,对于每个样本图像,提取GIST、SIFT等特征,进一步得到特征稀疏向量表示。考虑到场景图像往往包含着巨大的数据量,所以使用主成分分析(PrincipalComponent Analysis,PCA)方法进行降维,得到最终的样本数据集。对于每个数据集,本发明将数据集随机分为训练集和测试集。
作为本发明的进一步改进,所述步骤S1具体包括:
S11.在传统半监督Kmeans的基础上,利用有标签的场景图像数据所携带的有效信息,重新定义半监督Kmeans的目标函数,得到一个基于半监督Kmeans图像场景聚类的一个基学习器;
S12.利用Kmeans基学习器对测试样本进行聚类。聚类时同一个簇中的图像样本,根据簇中占多数的有标签样本的类别,将样本标注为同一个类,并计算各样本聚类结果的置信度。
作为本发明的进一步改进,所述步骤S2具体包括:
S21.在传统的SVM基础上,补充定义SVM的目标函数,得到基于SVM的场景图像分类的基学习器;
S22.利用SVM基学习器对测试样本进行分类,并计算各样本分类结果的置信度。
作为本发明的进一步改进,所述步骤S3具体包括:
S31.利用当前的Kmeans学习器对测试样本进行聚类,并计算各样本聚类结果的置信度;
S32.从Kmeans学习器的聚类结果中按照类别比例和置信度,来选择一定数量的样本,作为伪标签样本,加入SVM学习器的训练集中;
S33.利用当前的SVM学习器对测试样本进行分类,并计算各样本分类结果的置信度;
S34.从SVM学习器的分类结果中按照类别比例和置信度,来选择一定数量的样本,作为伪标签样本,加入Kmeans学习器的训练集中;
S35.分别在新训练集上对Kmeans和SVM进行重新训练;
S36.评估基于Kmeans和SVM的学习器的性能;
S37.如果当前的Kmeans和SVM学习器的性能下降,则撤销当前这批伪标签样本的加入,返回迭代之前的结果;
S38.重复以上S31-S37步骤,直到SVM和Kmeans的学习器参数都不再发生变化,或者重复次数达到指定上限为止,则得到最终的SVM和Kmeans分类器和模型。
作为本发明的进一步改进,所述步骤S4具体包括:
S41.利用协同训练后的半监督Kmeans模型对样本进行场景聚类,并计算其置信度;
S42.利用协同训练后的SVM分类器对样本进行场景分类,并计算其置信度;
S43.根据分别由半监督Kmeans模型和SVM分类器得到的置信度,对结果进行融合,获得样本最终的图像场景类别。
相应地,设计一种结合半监督聚类的图像场景分类系统,包括:
样本预处理单元:用于对样本图像进行预处理,包括对于每个样本图像,提取GIST特征、SIFT特征等,进一步得到特征稀疏向量表示。考虑到场景图像往往包含着巨大的数据量,所以使用主成分分析(Principal Component Analysis,PCA)方法进行降维,得到最终的样本数据集。对于每个数据集,本发明将数据集随机分为训练集和测试集,同时尽量使得这两个集在每个类中的数据数量保持相等。
基于半监督Kmeans的图像场景聚类单元:用于重新定义半监督Kmeans的目标函数,以得到一个基于半监督Kmeans图像场景聚类的一个基学习器,在训练样本上训练以求解模型参数,并通过该模型进行样本图像的场景聚类。聚类时同一个簇中的图像样本,根据簇中占多数的有标签样本的类别,将样本标注为同一个类;
基于SVM的图像场景分类单元:用于补充定义传统SVM的目标函数,以得到基于SVM的场景图像分类的基学习器,在训练样本上训练以求解模型参数,并通过该模型进行样本图像的场景分类;
协同训练单元:用于对基于半监督Kmeans的图像场景聚类和基于SVM的场景图像分类的两个基学习器进行迭代的协同训练,以进一步提高二者的分类性能;
结果融合单元:用于融合协同训练后的半监督Kmeans和SVM两个学习器分类结果,得到样本图像最终所属的场景类别。
本发明的有益效果:
本发明提出的方法利用图像场景分类领域不同类型的方法来构建基分类器进行协同训练,可以实现不同方法的优势互补,同时,引入伪标签样本来扩充训练集从而有效解决有标签样本不足的问题。进一步的,该方法在迭代过程中在无标签样本上聚类以获得其分布特征,从而解决了概念漂移问题。最终实现了降低建立图像场景分类模型的标注成本、解决概念漂移问题并提高图像场景分类准确率的目的。
附图说明
图1为本发明实施实例中结合半监督聚类的图像场景分类方法的流程图。
图2为图1中步骤S3的具体流程图。
图3为本发明一种结合半监督聚类的图像场景分类方法及系统的框架图。
图4为本发明中协同训练的示意图。
图5为本发明一种结合半监督聚类的图像场景分类系统的示意图
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
参图1所示为本发明实施实例中结合半监督聚类的图像场景分类方法的流程图,该方法包括:
S1.基于半监督Kmeans的图像场景聚类:在传统半监督Kmeans的基础上,结合有标签的场景图像数据所携带的有效信息,重新定义半监督Kmeans的目标函数,得到一个基于半监督Kmeans图像场景聚类的一个基学习器。接着,利用Kmeans基学习器对测试样本进行聚类。聚类时同一个簇中的图像样本,根据簇中占多数的有标签样本的类别,将样本标注为同一个类,并计算各样本聚类结果的置信度;
S2.基于SVM的图像场景分类:在传统的SVM基础上,补充定义了SVM的目标函数,得到基于SVM的场景图像分类的基学习器。接着,利用SVM基学习器对测试样本进行分类,并计算各样本分类结果的置信度;
S3.结合半监督Kmeans和SVM的协同训练:基于半监督Kmeans的图像场景聚类和基于SVM的场景图像分类可以得到两个基学习器,这两个基学习器可以分别得到各个测试样本分类结果的置信度,按照类别比例和置信度,分别选择一定数量的测试样本,作为伪标签样本,加入到对方的训练集中,在新得到的训练集上对半监督Kmeans基学习器和SVM基学习器进行迭代训练。同时,根据目标函数评估这两个学习器的性能,如果当前学习器的性能相较迭代前性能下降,则撤销当前这批伪标签样本的加入,返回迭代之前的结果;
S4.融合半监督Kmeans和SVM的图像场景分类:利用协同训练后的半监督Kmeans和SVM学习器对样本进行场景分类,并计算其置信度,根据各自的置信度,对Kmeans和SVM学习器的分类结果进行融合,获得最终的图像场景类别。
作为本发明的进一步改进,所述步骤S1之前还包括下列步骤:
S01.建立场景分类样本图像数据库,首先选取场景分类的样本图像,使样本图像中包含各类常见的场景:如沙滩、森林、雪地、卧室、厨房、浴室、操场、教室等,其中每一类场景都选取上百个样本。接着,对于每个样本图像,提取GIST特征、SIFT特征等,进一步得到特征稀疏向量表示。考虑到场景图像往往包含着巨大的数据量,所以使用主成分分析(Principal Component Analysis,PCA)方法进行降维,得到最终的样本数据集。对于每个数据集,本发明将数据集随机分为训练集和测试集。
作为本发明的进一步改进,所述步骤S1具体包括:
S11.在传统半监督Kmeans的基础上,利用有标签的场景图像数据所携带的有效信息,重新定义半监督Kmeans的目标函数,得到一个基于半监督Kmeans图像场景聚类的一个基学习器;
S12.利用Kmeans基学习器对测试样本进行聚类。聚类时同一个簇中的图像样本,根据簇中占多数的有标签样本的类别,将样本标注为同一个类,并计算各样本聚类结果的置信度。
作为本发明的进一步改进,所述步骤S2具体包括:
S21.在传统的SVM基础上,补充定义SVM的目标函数,得到基于SVM的场景图像分类的基学习器;
S22.利用SVM基学习器对测试样本进行分类,并计算各样本分类结果的置信度。
作为本发明的进一步改进,所述步骤S3见图2,具体包括:
S31.利用当前的Kmeans学习器对测试样本进行聚类,并计算各样本聚类结果的置信度;
S32.从Kmeans学习器的聚类结果中按照类别比例和置信度,来选择一定数量的样本,作为伪标签样本,加入SVM学习器的训练集中;
S33.利用当前的SVM学习器对测试样本进行分类,并计算各样本分类结果的置信度;
S34.从SVM学习器的分类结果中按照类别比例和置信度,来选择一定数量的样本,作为伪标签样本,加入Kmeans学习器的训练集中;
S35.分别在新训练集上对Kmeans和SVM进行重新训练;
S36.评估基于Kmeans和SVM的学习器的性能;
S37.如果当前的Kmeans和SVM学习器的性能下降,则撤销当前这批伪标签样本的加入,返回迭代之前的结果;
S38.重复以上S31-S37步骤,直到SVM和Kmeans的学习器参数都不再发生变化,或者重复次数达到指定上限为止,则得到最终的SVM和Kmeans分类器和模型。
作为本发明的进一步改进,所述步骤S4具体包括:
S41.利用协同训练后的半监督Kmeans模型对样本进行场景聚类,并计算其置信度;
S42.利用协同训练后的SVM分类器对样本进行场景分类,并计算其置信度;
S43.根据分别由半监督Kmeans模型和SVM分类器得到的置信度,对结果进行融合,获得样本最终的图像场景类别。
图3为本发明一种结合半监督聚类的图像场景分类系统的框架图,对本发明做了进一步说明。
本发明是结合图像场景分类领域不同类型的方法来构建基分类器,进行协同训练,可以实现不同方法的优势互补。同时,引入伪标签样本来扩充训练集从而有效解决有标签样本不足的问题。进一步的,该方法在迭代过程中在无标签样本上聚类以获得其分布特征,从而解决了概念漂移问题。最终实现了降低建立图像场景分类模型的标注成本、解决概念漂移问题并提高图像场景分类准确率的目的。
本发明使用的样本图像中包含各类常见的场景:如沙滩、森林、雪地、卧室、厨房、浴室、操场、教室等。其中每一类场景都选取上百个样本。对于每个样本图像,提取GIST特征、SIFT特征等,进一步得到特征稀疏向量表示。考虑到场景图像往往包含着巨大的数据量,所以使用主成分分析(Principal Component Analysis,PCA)方法进行降维,得到最终的样本数据集。对于每个数据集,本发明将数据集随机分为训练集和测试集。
表1符号说明
序列 符号 符号说明
1 L 有标签数据集
2 U 无标签数据集
3 P 簇集
4 P1,P2 伪标签数据集
5 C 类集
建立好图像场景分类的图像数据库后,本发明的具体实施分为Kmean基学习器、SVM基学习器、协同训练和结果融合四个阶段,结合图3所示。
1.Kmean基学习器阶段:在传统半监督Kmeans的基础上,结合有标签的场景图像数据所携带的有效信息,重新定义半监督Kmeans的目标函数,得到一个基于半监督Kmeans图像场景聚类的一个基学习器。接着,利用Kmeans基学习器对测试样本进行聚类。聚类时同一个簇中的图像样本,根据簇中占多数的有标签样本的类别,将样本标注为同一个类,并计算各样本聚类结果的置信度。
该阶段具体由以下几个步骤构成:
1.1在传统半监督Kmeans的基础上,利用有标签的场景图像数据所携带的有效信息,重新定义半监督Kmeans的目标函数,得到一个基于半监督Kmeans图像场景聚类的一个基学习器;
1.2利用Kmeans基学习器对测试样本进行聚类。聚类时同一个簇中的图像样本,根据簇中占多数的有标签样本的类别,将样本标注为同一个类,并计算各样本聚类结果的置信度。
其中步骤1.1中重新定义半监督Kmeans的目标函数具体如下:
利用监督信息,重新定义Kmeans目标函数,见公式(1):
Jj(X,YL,Y′L;θ)=λAcc([YL,YP1],[Y′L,Y′P1];θ)-(1-λ)SSE(X;θ) (1)
在公式(1)中,X是一个在未知分布Q上定义的实例空间,L是X中的有标签数据,P1表示半监督Kmeans的伪标记数据集,YL和YP1是L、P1的类标签向量,Y′P1是半监督Kmeans对P1的预测,YL′是对L的预测,SSE是Kmeans的原始目标函数,θ是Kmeans的原始目标函数的相关参数。λ∈[0,1]是一个权衡参数,第一项Acc用来衡量经验误差,其定义见公式(2):
Figure BDA0002493121380000091
其中,|L|和|P1|是L和P1的大小,yi和y′i是L和P1中的样本标签和预测样本标签,每个mj是第j个类别的质心,M={m1,m2,…mk},mj定义见公式(3):
Figure BDA0002493121380000092
公式(3)中pj∈P是由主类标签标记的一个簇,|pj|是pj的大小,xi是pj中的第i个样本。
考虑到公式(1)中的两项可能具有不同的衡量尺度,本发明将第j次迭代中的两项归一化如下公式(4)(5):
Figure BDA0002493121380000093
Figure BDA0002493121380000094
其中,Ej为第j次迭代中的经验误差,θj为Ej的相关参数。
所以,本发明得到最终的新的目标函数,见公式(6),E′j为归一化后的经验误差。
Jj(X,YL,Y′L;θ)=E′j(YL,Y′L;θ)+λSSE′j(X;θ) (6)
2.SVM基学习器阶段:在传统的SVM基础上,补充定义了SVM的目标函数,得到基于SVM的场景图像分类的基学习器。接着,利用SVM基学习器对测试样本进行分类,并计算各样本分类结果的置信度。
该阶段具体由以下几个步骤构成:
2.1在传统的SVM基础上,补充定义SVM的目标函数,得到基于SVM的场景图像分类的基学习器;
2.2利用SVM基学习器对测试样本进行分类,并计算各样本分类结果的置信度。
初始SVM模型目标函数为公式(7):
Figure BDA0002493121380000101
其中,w、b是SVM决策超平面的相关参数,ξi是xi∈L∪P2的松弛变量,C是给定的惩罚参数,该目标函数通常转化为对偶问题,利用gauss-seidel/smo方法计算对偶问题。
本发明提出了一个补充后的SVM目标函数,见公式(8):
Figure BDA0002493121380000102
在公式(8)中,λ∈[0,1]为权衡参数,P2表示SVM的伪标记数据集,,YL和YP2是L、P2的类标签向量,Y′P2是SVM对P2的预测,qi是标签yi的投票权重。第一项Acc定义见公式(4),dis(xi,yi|Λ)定义见公式(9):
Figure BDA0002493121380000103
其中,wt是yi决策超平面t的法向量。
3.协同训练阶段:本发明通过阶段1和阶段2可以得到两个基学习器,这两个基学习器可以分别得到各个测试样本分类结果的置信度,按照类别比例和置信度,分别选择一定数量的测试样本,作为伪标签样本,加入到对方的训练集中,在新得到的训练集上对半监督Kmeans基学习器和SVM基学习器进行迭代训练。同时,根据目标函数评估这两个学习器的性能,如果当前学习器的性能相较迭代前性能下降,则撤销当前这批伪标签样本的加入,返回迭代之前的结果。
具体由以下几个步骤构成:
3.1利用当前的Kmeans学习器对测试样本进行聚类,并计算各样本聚类结果的置信度;
3.2从Kmeans学习器的聚类结果中按照类别比例和置信度,来选择一定数量的样本,作为伪标签样本,加入SVM学习器的训练集中;
3.3利用当前的SVM学习器对测试样本进行分类,并计算各样本分类结果的置信度;
3.4从SVM学习器的分类结果中按照类别比例和置信度,来选择一定数量的样本,作为伪标签样本,加入Kmeans学习器的训练集中;
3.5分别在新训练集上对Kmeans和SVM进行重新训练;
3.6依据公式(6)和公式(8)评估基于Kmeans和SVM的学习器的性能;
3.7如果当前的Kmeans和SVM学习器的性能下降,则撤销当前这批伪标签样本的加入,返回迭代之前的结果;
3.8重复以上S31-S37步骤,直到SVM和Kmeans的学习器参数都不再发生变化,或者重复次数达到指定上限为止,则得到最终的SVM和Kmeans分类器和模型。
4.结果融合阶段:利用协同训练阶段后的半监督Kmeans和SVM学习器对样本进行场景分类,并计算其置信度,根据各自的置信度,对Kmeans和SVM学习器的分类结果进行融合,获得最终的图像场景类别。
公式(10)是Kmeans和SVM的置信度公式:
Figure BDA0002493121380000111
其中,P(y|x;Θ)、P(y|x;Λ)分别是Kmeans和SVM的置信度,其中,M={m1,......mk}为质心矩阵,mi是簇pi的质心,S是簇pi质心的集合,μ作为用来调节两个模型比例的权重参数。
接着,按照公式(11)给出最终的分类结果
Figure BDA0002493121380000112
其中μ∈[0,1]是一个用来调节SVM和Kmeans权重的参数。
相应的,如图5所示,本发明一实施方式中的结合半监督聚类的图像场景分类系统如下:
一、图像样本预处理单元
对于图像样本进行预处理,包含选择各类常见的场景:如沙滩、森林、雪地、卧室、厨房、浴室、操场、教室等。其中每一类场景都选取上百个样本。对于每个样本图像,提取GIST特征、SIFT特征等,进一步得到特征稀疏向量表示,最后把这些特征串行融合起来,形成样本的最终特征。对于每个数据集,本发明将数据集随机分为训练集和测试集,同时尽量使得这两个集在每个类中的数据数量保持相等。
二、半监督Kmeans基学习器单元
在传统半监督Kmeans的基础上,结合有标签的场景图像数据所携带的有效信息,重新定义半监督Kmeans的目标函数,得到一个基于半监督Kmeans图像场景聚类的一个基学习器。接着,利用Kmeans基学习器对测试样本进行聚类。聚类时同一个簇中的图像样本,根据簇中占多数的有标签样本的类别,将样本标注为同一个类,并计算各样本聚类结果的置信度。
三、SVM基学习器单元
在传统的SVM基础上,补充定义了SVM的目标函数,得到基于SVM的场景图像分类的基学习器。接着,利用SVM基学习器对测试样本进行分类,并计算各样本分类结果的置信度。
四、协同训练单元
基于半监督Kmeans基学习器单元和SVM基学习器单元可以得到两个基学习器。这两个基学习器可以分别得到各个测试样本分类结果的置信度,按照类别比例和置信度,分别选择一定数量的测试样本,作为伪标签样本,加入到对方的训练集中,在新得到的训练集上对半监督Kmeans基学习器和SVM基学习器进行迭代训练。同时,根据目标函数评估这两个学习器的性能,如果当前学习器的性能相较迭代前性能下降,则撤销当前这批伪标签样本的加入,返回迭代之前的结果。
五、结果融合单元
利用协同训练单元后的半监督Kmeans和SVM学习器对样本进行场景分类,并计算其置信度,根据各自的置信度,对Kmeans和SVM学习器的分类结果进行融合,获得最终的图像场景类别。
与现有技术相比,本发明是结合图像场景分类领域不同类型的方法来构建基分类器,进行协同训练,实现不同方法的优势互补。同时,引入伪标签样本来扩充训练集从而有效解决有标签样本不足的问题。进一步的,该方法在迭代过程中在无标签样本上聚类以获得其分布特征,从而解决了概念漂移问题。最终实现了降低建立图像场景分类模型的标注成本、解决概念漂移问题并提高图像场景分类准确率的目的。
应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施方式中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技术所创的等效方式或变更均应包含在本发明的保护范围之内。

Claims (10)

1.一种结合半监督聚类的图像场景分类方法,其特征在于,包括:
S1.基于半监督Kmeans的图像场景聚类:在传统半监督Kmeans的基础上,结合有标签的场景图像数据所携带的有效信息,重新定义半监督Kmeans的目标函数,得到一个基于半监督Kmeans图像场景聚类的一个基学习器;接着,利用Kmeans基学习器对测试样本进行聚类,聚类时同一个簇中的图像样本,根据簇中占多数的有标签样本的类别,将样本标注为同一个类,并计算各样本聚类结果的置信度;
S2.基于SVM的图像场景分类:在传统的SVM基础上,补充定义了SVM的目标函数,得到基于SVM的场景图像分类的基学习器;接着,利用SVM基学习器对测试样本进行分类,并计算各样本分类结果的置信度;
S3.结合半监督Kmeans和SVM的协同训练:基于半监督Kmeans的图像场景聚类和基于SVM的场景图像分类可以得到两个基学习器,同时,这两个基学习器可以分别得到各个测试样本分类结果的置信度,按照类别比例和置信度,分别选择一定数量的测试样本,作为伪标签样本,加入到对方的训练集中,在新得到的训练集上对半监督Kmeans基学习器和SVM基学习器进行迭代训练;同时,根据目标函数评估这两个学习器的性能,如果当前学习器的性能相较迭代前性能下降,则撤销当前这批伪标签样本的加入,返回迭代之前的结果;
S4.融合半监督Kmeans和SVM的图像场景分类:利用协同训练后的半监督Kmeans和SVM学习器对样本进行场景分类,并计算其置信度,根据各自的置信度,对Kmeans和SVM学习器的分类结果进行融合,获得最终的图像场景类别。
2.根据权利要求1所述的一种结合半监督聚类的图像场景分类方法,其特征在于,所述步骤S1之前还包括下列步骤:
S01.建立场景分类样本图像数据库,首先选取场景分类的样本图像,使样本图像中包含各类常见的场景:如沙滩、森林、雪地、卧室、厨房、浴室、操场、教室等,其中每一类场景都选取上百个样本;接着,对于每个样本图像,提取GIST、SIFT等特征,进一步得到特征稀疏向量表示,使用主成分分析方法进行降维,得到最终的样本数据集,对于每个数据集,将数据集随机分为训练集和测试集。
3.根据权利要求1所述的一种结合半监督聚类的图像场景分类方法,其特征在于,所述步骤S1具体包括:
S11.在传统半监督Kmeans的基础上,利用有标签的场景图像数据所携带的有效信息,重新定义半监督Kmeans的目标函数,得到一个基于半监督Kmeans图像场景聚类的一个基学习器;
S12.利用Kmeans基学习器对测试样本进行聚类,聚类时同一个簇中的图像样本,根据簇中占多数的有标签样本的类别,将样本标注为同一个类,并计算各样本聚类结果的置信度。
4.根据权利要求3所述的一种结合半监督聚类的图像场景分类方法,其特征在于,所述重新定义半监督Kmeans的目标函数的方法包括如下:
设kmeans目标函数如公式(1):
Jj(X,YL,Y′L;θ)=λAcc([YL,YP1],[Y′L,Y′P1];θ)-(1-λ)SSE(X;θ) (1)
在公式(1)中,X是一个在未知分布Q上定义的实例空间,L是X中的有标签数据,P1表示半监督Kmeans的伪标记数据集,YL和YP1是L、P1的类标签向量,Y′P1是半监督Kmeans对P1的预测,SSE是Kmeans的原始目标函数,θ是Kmeans的原始目标函数的相关参数,λ∈[0,1]是一个权衡参数,第一项Acc用来衡量经验误差,其定义如公式(2):
Figure FDA0002493121370000021
其中,|L|和|P1|是L和P1的大小,yi和y′i是L和P1中的样本标签和预测样本标签,每个mj是第j个类别的质心,M={m1,m2,…mk},mj定义如公式(3):
Figure FDA0002493121370000022
公式(3)中pj∈P是由主类标签标记的一个簇,|pj|是pj的大小,xi是pj中的第i个样本;
针对公式(1)中的两项可能具有不同的衡量尺度,将第j次迭代中的两项归一化如下公式(4)(5):
Figure FDA0002493121370000031
Figure FDA0002493121370000032
其中,Ej为第j次迭代中的经验误差,θj为Ej的相关参数;
所以,本发明得到最终的新的目标函数,见公式(6),E′j为归一化后的经验误差;
Jj(X,YL,Y′L;θ)=E′j(YL,Y′L;θ)+λSSE′j(X;θ) (6) 。
5.根据权利要求1所述的一种结合半监督聚类的图像场景分类方法,其特征在于,所述步骤S2具体包括:
S21.在传统的SVM基础上,补充定义SVM的目标函数,得到基于SVM的场景图像分类的基学习器;
S22.利用SVM基学习器对测试样本进行分类,并计算各样本分类结果的置信度。
6.根据权利要求5所述的一种结合半监督聚类的图像场景分类方法,其特征在于,所述步骤S21的具体过程包括如下:
设初始SVM模型目标函数为公式(7):
Figure FDA0002493121370000033
其中,w、b是SVM决策超平面的相关参数,ξi是xi∈L∪P2的松弛变量,C是给定的惩罚参数,将该目标函数转化为对偶问题,利用gauss-seidel/smo方法计算该对偶问题;
设计补充后的SVM目标函数如公式(8):
Figure FDA0002493121370000034
在公式(8)中,λ∈[0,1]为权衡参数,P2表示SVM的伪标记数据集,,YL和YP2是L、P2的类标签向量,Y′P2是SVM对P2的预测,qi是标签yi的投票权重,第一项Acc定义见公式(4),dis(xi,yi|Λ)定义如公式(9):
Figure FDA0002493121370000041
其中,wt是yi决策超平面t的法向量。
7.根据权利要求1所述的一种结合半监督聚类的图像场景分类方法,其特征在于,所述步骤S3具体包括:
S31.利用当前的Kmeans学习器对测试样本进行聚类,并计算各样本聚类结果的置信度;
S32.从Kmeans学习器的聚类结果中按照类别比例和置信度,来选择一定数量的样本,作为伪标签样本,加入SVM学习器的训练集中;
S33.利用当前的SVM学习器对测试样本进行分类,并计算各样本分类结果的置信度;
S34.从SVM学习器的分类结果中按照类别比例和置信度,来选择一定数量的样本,作为伪标签样本,加入Kmeans学习器的训练集中;
S35.分别在新训练集上对Kmeans和SVM进行重新训练;
S36.评估基于Kmeans和SVM的学习器的性能;
S37.如果当前的Kmeans和SVM学习器的性能下降,则撤销当前这批伪标签样本的加入,返回迭代之前的结果;
S38.重复以上S31-S37步骤,直到SVM和Kmeans的学习器参数都不再发生变化,或者重复次数达到指定上限为止,则得到最终的SVM和Kmeans分类器和模型。
8.根据权利要求1所述的一种结合半监督聚类的图像场景分类方法,其特征在于,所述步骤S4具体包括:
S41.利用协同训练后的半监督Kmeans模型对样本进行场景聚类,并计算其置信度;
S42.利用协同训练后的SVM分类器对样本进行场景分类,并计算其置信度;
S43.根据分别由半监督Kmeans模型和SVM分类器得到的置信度,对结果进行融合获得样本最终的图像场景类别。
9.根据权利要求8所述的一种结合半监督聚类的图像场景分类方法,其特征在于,所述Kmeans和SVM的置信度计算方法如下公式(10):
Figure FDA0002493121370000051
其中,P(y|x;Θ)、P(y|x;Λ)分别是Kmeans和SVM的置信度,其中,M={m1,......mk}为质心矩阵,mi是簇pi的质心,S是簇pi质心的集合,μ作为用来调节两个模型比例的权重参数;
对结果进行融合获得样本最终的图像场景类别的方法如下:
按照公式(11)给出最终的分类结果
条件1:P(y|x,θ)≠P(y|x,Λ)
条件2:
Figure FDA0002493121370000052
Figure FDA0002493121370000053
其中μ∈[0,1]是一个用来调节SVM和Kmeans权重的参数。
10.一种结合半监督聚类的图像场景分类系统,其特征在于,包括:
样本预处理单元:用于对样本视频进行预处理,包括选取视频的首帧、中间帧、尾帧作为关键帧,然后对每个关键帧提取颜色特征、纹理特征,径向矩特征,多尺度LBP特征这四种特征作为表征动作,最后把这些特征融合起来,作为样本的最终特征以供后续的模型训练和动作识别使用;
基于模板的识别单元:采用KNN作为人体动作识别的模型,在训练样本上训练以求解模型参数,并通过该模型的进行样本的动作识别;
样本预处理单元:用于对样本图像进行预处理,包括对于每个样本图像,提取GIST特征、SIFT特征等,得到特征稀疏向量表示,最后把这些特征串行融合起来,形成样本的最终特征;对于每个数据集,将数据集随机分为训练集和测试集,同时尽量使得这两个集在每个类中的数据数量保持相等;
基于半监督Kmeans的图像场景聚类单元:用于重新定义半监督Kmeans的目标函数,以得到一个基于半监督Kmeans图像场景聚类的一个基学习器,在训练样本上训练以求解模型参数,并通过该模型进行样本图像的场景聚类,聚类时同一个簇中的图像样本,根据簇中占多数的有标签样本的类别,将样本标注为同一个类;
基于SVM的图像场景分类单元:用于补充定义传统SVM的目标函数,以得到基于SVM的场景图像分类的基学习器,在训练样本上训练以求解模型参数,并通过该模型进行样本图像的场景分类;
协同训练单元:用于对基于半监督Kmeans的图像场景聚类和基于SVM的场景图像分类的两个基学习器进行迭代的协同训练,以提高二者类性能;
结果融合单元:用于融合协同训练后的半监督Kmeans和SVM两个学习器分类结果,得到样本图像最终所属的场景类别。
CN202010410756.9A 2020-05-15 2020-05-15 一种结合半监督聚类的图像场景分类方法及系统 Pending CN111753874A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010410756.9A CN111753874A (zh) 2020-05-15 2020-05-15 一种结合半监督聚类的图像场景分类方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010410756.9A CN111753874A (zh) 2020-05-15 2020-05-15 一种结合半监督聚类的图像场景分类方法及系统

Publications (1)

Publication Number Publication Date
CN111753874A true CN111753874A (zh) 2020-10-09

Family

ID=72673307

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010410756.9A Pending CN111753874A (zh) 2020-05-15 2020-05-15 一种结合半监督聚类的图像场景分类方法及系统

Country Status (1)

Country Link
CN (1) CN111753874A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200245A (zh) * 2020-10-10 2021-01-08 深圳市华付信息技术有限公司 一种基于半监督的图像分类方法
CN112560998A (zh) * 2021-01-19 2021-03-26 德鲁动力科技(成都)有限公司 针对目标检测的少样本数据扩增方法
CN112861999A (zh) * 2021-03-17 2021-05-28 中山大学 一种基于主动半监督字典学习的图像分类方法
CN112990377A (zh) * 2021-05-08 2021-06-18 创新奇智(北京)科技有限公司 视觉类别的发现方法及装置、电子设备、存储介质
CN113408606A (zh) * 2021-06-16 2021-09-17 中国石油大学(华东) 基于图协同训练的半监督小样本图像分类方法
CN114092798A (zh) * 2021-10-26 2022-02-25 北京工业大学 一种基于半监督学习策略的火灾实例分割方法
CN114523985A (zh) * 2022-04-24 2022-05-24 新石器慧通(北京)科技有限公司 基于传感器的感知结果的无人车运动决策方法及装置
CN115130619A (zh) * 2022-08-04 2022-09-30 中建电子商务有限责任公司 一种基于聚类选择集成的风险控制方法
CN115147426A (zh) * 2022-09-06 2022-10-04 北京大学 基于半监督学习的模型训练与图像分割方法和系统
CN115272777A (zh) * 2022-09-26 2022-11-01 山东大学 面向输电场景的半监督图像解析方法
CN116310463A (zh) * 2023-05-25 2023-06-23 深圳市森歌数据技术有限公司 一种无监督学习的遥感目标分类方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778796A (zh) * 2016-10-20 2017-05-31 江苏大学 基于混合式协同训练的人体动作识别方法及系统
CN110309302A (zh) * 2019-05-17 2019-10-08 江苏大学 一种结合svm和半监督聚类的不平衡文本分类方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778796A (zh) * 2016-10-20 2017-05-31 江苏大学 基于混合式协同训练的人体动作识别方法及系统
CN110309302A (zh) * 2019-05-17 2019-10-08 江苏大学 一种结合svm和半监督聚类的不平衡文本分类方法及系统

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200245A (zh) * 2020-10-10 2021-01-08 深圳市华付信息技术有限公司 一种基于半监督的图像分类方法
CN112560998A (zh) * 2021-01-19 2021-03-26 德鲁动力科技(成都)有限公司 针对目标检测的少样本数据扩增方法
CN112861999A (zh) * 2021-03-17 2021-05-28 中山大学 一种基于主动半监督字典学习的图像分类方法
CN112861999B (zh) * 2021-03-17 2023-09-19 中山大学 一种基于主动半监督字典学习的图像分类方法
CN112990377A (zh) * 2021-05-08 2021-06-18 创新奇智(北京)科技有限公司 视觉类别的发现方法及装置、电子设备、存储介质
CN112990377B (zh) * 2021-05-08 2021-08-13 创新奇智(北京)科技有限公司 视觉类别的发现方法及装置、电子设备、存储介质
CN113408606B (zh) * 2021-06-16 2022-07-22 中国石油大学(华东) 基于图协同训练的半监督小样本图像分类方法
CN113408606A (zh) * 2021-06-16 2021-09-17 中国石油大学(华东) 基于图协同训练的半监督小样本图像分类方法
CN114092798A (zh) * 2021-10-26 2022-02-25 北京工业大学 一种基于半监督学习策略的火灾实例分割方法
CN114092798B (zh) * 2021-10-26 2024-06-11 北京工业大学 一种基于半监督学习策略的火灾实例分割方法
CN114523985A (zh) * 2022-04-24 2022-05-24 新石器慧通(北京)科技有限公司 基于传感器的感知结果的无人车运动决策方法及装置
CN115130619A (zh) * 2022-08-04 2022-09-30 中建电子商务有限责任公司 一种基于聚类选择集成的风险控制方法
CN115147426A (zh) * 2022-09-06 2022-10-04 北京大学 基于半监督学习的模型训练与图像分割方法和系统
CN115272777A (zh) * 2022-09-26 2022-11-01 山东大学 面向输电场景的半监督图像解析方法
CN115272777B (zh) * 2022-09-26 2022-12-23 山东大学 面向输电场景的半监督图像解析方法
CN116310463A (zh) * 2023-05-25 2023-06-23 深圳市森歌数据技术有限公司 一种无监督学习的遥感目标分类方法
CN116310463B (zh) * 2023-05-25 2024-01-26 深圳市森歌数据技术有限公司 一种无监督学习的遥感目标分类方法

Similar Documents

Publication Publication Date Title
CN111753874A (zh) 一种结合半监督聚类的图像场景分类方法及系统
Haeusser et al. Associative deep clustering: Training a classification network with no labels
Zhong et al. Ghostvlad for set-based face recognition
CN107480261B (zh) 一种基于深度学习细粒度人脸图像快速检索方法
Yin et al. Scene classification based on single-layer SAE and SVM
Masnadi-Shirazi et al. Cost-sensitive boosting
Doersch et al. Mid-level visual element discovery as discriminative mode seeking
Li et al. Semisupervised hyperspectral image segmentation using multinomial logistic regression with active learning
Hu et al. Nonlinear dictionary learning with application to image classification
Calik et al. Large-scale offline signature recognition via deep neural networks and feature embedding
Xinshao et al. Weed seeds classification based on PCANet deep learning baseline
CN111523621A (zh) 图像识别方法、装置、计算机设备和存储介质
CN112528928B (zh) 一种基于自注意力深度网络的商品识别方法
Bargshady et al. The modeling of human facial pain intensity based on Temporal Convolutional Networks trained with video frames in HSV color space
CN107943856A (zh) 一种基于扩充标记样本的文本分类方法及系统
Davari et al. GMM-based synthetic samples for classification of hyperspectral images with limited training data
CN115205570B (zh) 一种基于对比学习的无监督跨域目标重识别方法
Elguebaly et al. Simultaneous high-dimensional clustering and feature selection using asymmetric Gaussian mixture models
Dehshibi et al. Cubic norm and kernel-based bi-directional PCA: toward age-aware facial kinship verification
Wu et al. Manifold kernel sparse representation of symmetric positive-definite matrices and its applications
Yang et al. Data-driven compressive sampling and learning sparse coding for hyperspectral image classification
CN106296734B (zh) 基于极限学习机和boosting多核学习的目标跟踪方法
CN105069478A (zh) 基于超像素张量稀疏编码的高光谱遥感地物分类方法
He et al. Object-oriented mangrove species classification using hyperspectral data and 3-D Siamese residual network
Puthenputhussery et al. A sparse representation model using the complete marginal fisher analysis framework and its applications to visual recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20240411

Address after: 1003, Building A, Zhiyun Industrial Park, No. 13 Huaxing Road, Henglang Community, Dalang Street, Longhua District, Shenzhen City, Guangdong Province, 518000

Applicant after: Shenzhen Wanzhida Technology Transfer Center Co.,Ltd.

Country or region after: China

Address before: Zhenjiang City, Jiangsu Province, 212013 Jingkou District Road No. 301

Applicant before: JIANGSU University

Country or region before: China

TA01 Transfer of patent application right

Effective date of registration: 20240611

Address after: Building 6, 7th Floor, Artificial Intelligence Industrial Park, No. 266 Chuangyan Road, Qilin Technology Innovation Park, Nanjing City, Jiangsu Province, 211135

Applicant after: NANJING KINGYOUNG INTELLIGENT SCIENCE AND TECHNOLOGY Co.,Ltd.

Country or region after: China

Address before: 1003, Building A, Zhiyun Industrial Park, No. 13 Huaxing Road, Henglang Community, Dalang Street, Longhua District, Shenzhen City, Guangdong Province, 518000

Applicant before: Shenzhen Wanzhida Technology Transfer Center Co.,Ltd.

Country or region before: China