CN112464014A - 一种基于图卷积的无监督哈希工业布匹纹理图片检索方法 - Google Patents
一种基于图卷积的无监督哈希工业布匹纹理图片检索方法 Download PDFInfo
- Publication number
- CN112464014A CN112464014A CN202011428434.3A CN202011428434A CN112464014A CN 112464014 A CN112464014 A CN 112464014A CN 202011428434 A CN202011428434 A CN 202011428434A CN 112464014 A CN112464014 A CN 112464014A
- Authority
- CN
- China
- Prior art keywords
- layer
- picture
- graph convolution
- hidden variable
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于图卷积的无监督哈希工业布匹纹理图片检索方法,包括以下步骤:S1:建立数据集;S2:提取特征向量;S3:组成源特征库,形成自定义预测网络;S4:载入待检索布匹图片,获得预测特征向量;S5:预测特征向量经编码器层的编码函数转换得到隐变量b和连续隐变量c;S6:图卷积网络计算隐变量z;S7:解码器层转换后得到z*;S8:计算待检索布匹图片X的二进制编码;S9:输出最相似图片。本发明通过结合图卷积网络和哈希算法,利用图卷积网络动态更新庞大的数据集,利用哈希算法将待检索布匹图片高维内容映射为低维的二进制编码,从而减少了空间占用量,提高了检索速度和检索结果的准确性,可以完成庞大数据量的图片检索任务。
Description
技术领域
本发明涉及图片检索领域,更具体地,涉及一种基于图卷积的无监督哈希工业布匹纹理图片检索方法。
背景技术
随着科学技术的不断革新,图像检索的技术也就愈发成熟,从最开始的应用机器学习到现在的深度学习,最近邻检索(ANN)作为检索领域中使用最多的技术一直以来学术界研究的大热点,又分为最近邻检索和近似最近邻检索,前一种是对结构本身进行优化从而提高检索效果,后一种是从数据进行处理,但面对庞大的高维数据不是很好的解决方法,图卷积网络(GCN)的作用与最近邻检索(ANN)类似,是一个特征提取器,但GCN作用的对象是图数据。GCN设计了一种从图数据中提取特征的方法,可以对图数据进行节点分类、图分类、边预测,还可以得到图的嵌入表示,应用范围广泛。面对庞大高维数据时就要用到哈希(hash)方法进行处理。大概流程是使用特征提取器提取一个图像集特征,将特征映射到二值空间中,生成一个低维的哈希序列表示一幅图片,大大降低了计算机内存,提高了检索速度,实现从海量图片中快速找到相似图片。
针对工业布匹这种大规模的纹理图像检索,现有技术主要是应用小波变换和灰度共生矩阵这种方法,这种方法对于检索大规模的纹理图像提取出的特征计算量庞大,内存占用量多,计算用时长,图片检索的速度十分缓慢。
2019年6月25日公开的中国专利CN109934287A公开了一种基于LBP与GLCM的服装纹理识别分类方法,包括以下步骤:S1、LBP纹理特征提取;S2、GLCM纹理图像特征统计量提取函数的设计;S3、纹理特征值的计算;S4、使用SVM算法训练特征向量,对纹理图片分类。该发明解决了时尚服装中纹理识别的挑战,解放了人工识别的束缚,但仍是通过计算灰度图像得到共生矩阵,透过计算该共生矩阵得到矩阵的部分特征值。该专利仍无法完成庞大数据量的图片检索任务。
发明内容
本发明为克服上述现有技术无法完成庞大数据量的图片检索任务的缺陷,提供一种基于图卷积的无监督哈希工业布匹纹理图片检索方法。
本发明的技术方案如下:
本发明提供一种基于图卷积的无监督哈希工业布匹纹理图片检索方法,所述方法包括以下步骤:
S1:建立数据集,所述数据集包含N张布匹纹理信息图片;
S2:使用特征提取网络对数据集中的每张布匹纹理信息图片进行特征提取,获得特征向量,并对特征向量进行L2范数归一化处理;
S3:利用处理后特征向量组成源特征库;
在源特征库中载入基础预测网络,利用微调网络(Fine Tune)对基础预测网络进行修改,形成自定义预测网络;
S4:将待检索布匹图片X载入到源特征库中的自定义预测网络获得预测特征向量,将预测特征向量保存为tfrecords格式,输入到编码器层;
S5:预测特征向量经编码器层的编码函数转换后得到隐变量b和连续隐变量c,编码器层将隐变量b和连续隐变量c输出至图卷积网络;
S6:图卷积网络依据隐变量b构造汉明邻接矩阵A,利用汉明邻接矩阵A和连续隐变量c计算隐变量z,将隐变量z输入到解码器层;
S7:隐变量z经解码器层的解码函数转换后得到z*,解码器层将z*输出至二进制编码模块;
S8:二进制编码模块依据z*计算待检索布匹图片X的二进制编码b(q),并比较待检索布匹图片X和数据集中所有布匹纹理信息图片的汉明距离,将所述汉明距离从小到大排列,选取前y个汉明距离对应的布匹纹理信息图片作为最相似图片输出。
优选地,所述S2中,使用DenseNet121网络对数据集中的每张布匹纹理信息图片进行特征提取。
优选地,所述S3中,使用Resnet101网络作为基础预测网络。
优选地,所述S5中,编码器层由两层全连接层组成,第一全连接层为编码器激活层,第二全连接层为编码层;
所述编码器激活层将预测特征向量激活后发送至编码层,所述编码层对激活后的预测特征向量进行编码转换,得到隐变量b和连续隐变量c。
优选地,所述编码器激活层利用线性整流(Relu)函数对预测特征向量进行激活。
优选地,所述编码层利用Sigmoid函数将预测特征向量转换为隐变量b、利用Switch函数将预测特征向量转换为连续隐变量c,即:
b=a(f1(x),ε)
c=f2(x)
其中,a(·,ε)是带有随机变量的函数,随机变量ε是分布在0-1的随机数,x为预测特征向量,f1()为Sigmoid函数,f2()为Switch函数。
优选地,所述S6中,隐变量z由下面公式计算:
D*=diag(A×ΓT)
优选地,所述S7中,解码器层由两层全连接层组成,第一全连接层为解码器激活层,第二全连接层为解码层;
所述解码器激活层将隐变量z激活后发送至编码层,所述解码层对激活后的隐变量z进行编码转换,得到z*。
优选地,所述解码器激活层利用线性整流(Relu)函数对隐变量z进行激活;所述解码层利用Idenity函数将激活后的隐变量z解码转换为z*,即:z*=g(z)其中,g(·)为Idenity函数。
优选地,所述S8中待检索布匹图片X的二进制编码b(q)有下面公式计算:
其中,f1()为Sigmoid函数,sign()为符号函数。
与现有技术相比,本发明技术方案的有益效果是:
本发明通过结合图卷积网络和哈希算法,利用图卷积网络动态更新庞大的数据集,利用哈希算法将待检索布匹图片高维内容映射为低维的二进制编码,使用低维的二进制编码表示待检索布匹图片,从而减少了空间占用量,提高了检索速度和检索结果的准确性,可以完成庞大数据量的图片检索任务。
附图说明
图1为实施例1所述一种基于图卷积的无监督哈希工业布匹纹理图片检索方法的流程图;
图2为实施例1所述一种基于图卷积的无监督哈希工业布匹纹理图片检索方法的检索效果图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
本实施例一种基于图卷积的无监督哈希工业布匹纹理图片检索方法,如图1所示,所述方法包括以下步骤:
S1:建立数据集,所述数据集包含N张布匹纹理信息图片,本实施例中,数据集包含5000张布匹纹理信息图片,大小为3024x4032像素;
S2:使用特征提取网络对数据集中的每张布匹纹理信息图片进行特征提取,获得特征向量,并对特征向量进行L2范数归一化处理;
S3:利用处理后特征向量组成源特征库;
在源特征库中载入基础预测网络,利用微调网络(Fine Tune)对基础预测网络进行修改,形成自定义预测网络;
S4:将待检索布匹图片X载入到自定义预测网络获得预测特征向量,将预测特征向量保存为tfrecords格式,输入到编码器层;
S5:预测特征向量经编码器层的编码函数转换后得到隐变量b和连续隐变量c,编码器层将隐变量b和连续隐变量c输出至图卷积网络;
S6:图卷积网络依据隐变量b构造汉明邻接矩阵A,利用汉明邻接矩阵A和连续隐变量c计算隐变量z,将隐变量z输入到解码器层;
S7:隐变量z经解码器层的解码函数转换后得到z*,解码器层将z*输出至二进制编码模块;
S8:二进制编码模块依据z*计算待检索布匹图片X的二进制编码b(q),并比较待检索布匹图片X和数据集中所有布匹纹理信息图片的汉明距离,将所述汉明距离从小到大排列,选取前y个汉明距离对应的布匹纹理信息图片作为最相似图片输出。如图2所示,本实施例中,输出4张最相似图片,左侧图片是输入的待检索布匹图片,右侧图片是数据集中与待检索布匹图片相似度最高的4张布匹纹理信息图片,并将所述4张布匹纹理信息图片按相似度由高到低依次排序后输出。
所述S2中,使用DenseNet121网络对数据集中的每张布匹纹理信息图片进行特征提取。
所述S3中,使用Resnet101网络作为基础预测网络,使用微调网络(Fine Tune)对ResNet-101网络进行修改,去掉ResNet-101网络后面的全局平均池化和原有全连接层,加入两个输出维度分别是1024和10的全连接层。
所述S5中,编码器层由两个全连接层组成,第一全连接层为编码器激活层,第二全连接层为编码层;
所述编码器激活层将预测特征向量激活后发送至编码层,所述编码层对激活后的预测特征向量进行编码转换,得到隐变量b和连续隐变量c。
所述编码器激活层利用线性整流(Relu)函数对预测特征向量进行激活,线性整流(Relu)函数的输出维度为1024。
所述编码层利用Sigmoid函数将预测特征向量转换为隐变量b、利用Switch函数将预测特征向量转换为连续隐变量c,即:
b=a(f1(x),ε)
c=f2(x)
其中,a(·,ε)是带有随机变量的函数,随机变量ε是分布在0-1的随机数,x为预测特征向量,f1()为Sigmoid函数,输出维度为32,f2()为Switch函数,输出维度为512。
所述S6中,隐变量z由下面公式计算:
D*=diag(A×ΓT)
所述S7中,解码器层由两层全连接层组成,第一全连接层为解码器激活层,第二全连接层为解码层;
所述解码器激活层将隐变量z激活后发送至编码层,所述解码层对激活后的隐变量z进行编码转换,得到z*。
所述解码器激活层利用线性整流(Relu)函数对隐变量z进行激活;所述解码层利用Idenity函数将激活后的隐变量z解码转换为z*,即:
z*=g(z)
其中,g(·)为Idenity函数。
所述S8中待检索布匹图片X的二进制编码b(q)有下面公式计算:
其中,f1()为Sigmoid函数,sign()为符号函数。
本实施例在检索前先对待检索布匹图片的类别进行预测,在预测类别中进行检索,降低检索时间的同时还提高了检索结果的准确性;通过结合图卷积网络和哈希算法,利用图卷积网络动态更新庞大的数据集,利用哈希算法将待检索布匹图片高维内容映射为低维的二进制编码,使用低维的二进制编码表示待检索布匹图片,从而减少了空间占用量,提高了检索速度和检索结果的准确性,可以完成庞大数据量的图片检索任务。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种基于图卷积的无监督哈希工业布匹纹理图片检索方法,其特征在于,所述方法包括以下步骤:
S1:建立数据集,所述数据集包含N张布匹纹理信息图片;
S2:使用特征提取网络对数据集中的每张布匹纹理信息图片进行特征提取,获得特征向量,并对特征向量进行L2范数归一化处理;
S3:利用处理后特征向量组成源特征库;
在源特征库中载入基础预测网络,利用微调网络对基础预测网络进行修改,形成自定义预测网络;
S4:将待检索布匹图片X载入到自定义预测网络获得预测特征向量,将预测特征向量输入到编码器层;
S5:预测特征向量经编码器层的编码函数转换后得到隐变量b和连续隐变量c,编码器层将隐变量b和连续隐变量c输出至图卷积网络;
S6:图卷积网络依据隐变量b构造汉明邻接矩阵A,利用汉明邻接矩阵A和连续隐变量c计算隐变量z,将隐变量z输入到解码器层;
S7:隐变量z经解码器层的解码函数转换后得到z*,解码器层将z*输出至二进制编码模块;
S8:二进制编码模块依据z*计算待检索布匹图片X的二进制编码b(q),并比较待检索布匹图片X和数据集中所有布匹纹理信息图片的汉明距离,将所述汉明距离从小到大排列,选取前y个汉明距离对应的布匹纹理信息图片作为最相似图片输出。
2.根据权利要求1所述的一种基于图卷积的无监督哈希工业布匹纹理图片检索方法,其特征在于,所述S2中,使用DenseNet121网络对数据集中的每张布匹纹理信息图片进行特征提取。
3.根据权利要求2所述的一种基于图卷积的无监督哈希工业布匹纹理图片检索方法,其特征在于,所述S3中,使用Resnet101网络作为基础预测网络。
4.根据权利要求3所述的一种基于图卷积的无监督哈希工业布匹纹理图片检索方法,其特征在于,所述S5中,编码器层由两层全连接层组成,第一全连接层为编码器激活层,第二全连接层为编码层;
所述编码器激活层将预测特征向量激活后发送至编码层,所述编码层对激活后的预测特征向量进行编码转换,得到隐变量b和连续隐变量c。
5.根据权利要求4所述的一种基于图卷积的无监督哈希工业布匹纹理图片检索方法,其特征在于,所述编码器激活层利用线性整流函数对预测特征向量进行激活。
6.根据权利要求5所述的一种基于图卷积的无监督哈希工业布匹纹理图片检索方法,其特征在于,所述编码层利用Sigmoid函数将预测特征向量转换为隐变量b、利用Switch函数将预测特征向量转换为连续隐变量c,即:
b=a(f1(x),ε)
c=f2(x)
其中,a(·,ε)是带有随机变量的函数,随机变量ε是分布在0-1的随机数,x为预测特征向量,f1()为Sigmoid函数,f2()为Switch函数。
8.根据权利要求7所述的一种基于图卷积的无监督哈希工业布匹纹理图片检索方法,其特征在于,所述S7中,解码器层由两层全连接层组成,第一全连接层为解码器激活层,第二全连接层为解码层;
所述解码器激活层将隐变量z激活后发送至编码层,所述解码层对激活后的隐变量z进行编码转换,得到z*。
9.根据权利要求8所述的一种基于图卷积的无监督哈希工业布匹纹理图片检索方法,其特征在于,所述解码器激活层利用线性整流函数对隐变量z进行激活;所述解码层利用Idenity函数将激活后的隐变量z解码转换为z*,即:z*=g(z)其中,g(·)为Idenity函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011428434.3A CN112464014B (zh) | 2020-12-09 | 2020-12-09 | 一种基于图卷积的无监督哈希工业布匹纹理图片检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011428434.3A CN112464014B (zh) | 2020-12-09 | 2020-12-09 | 一种基于图卷积的无监督哈希工业布匹纹理图片检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112464014A true CN112464014A (zh) | 2021-03-09 |
CN112464014B CN112464014B (zh) | 2022-03-25 |
Family
ID=74800393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011428434.3A Active CN112464014B (zh) | 2020-12-09 | 2020-12-09 | 一种基于图卷积的无监督哈希工业布匹纹理图片检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112464014B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113886607A (zh) * | 2021-10-14 | 2022-01-04 | 哈尔滨工业大学(深圳) | 基于图神经网络的哈希检索方法、装置、终端及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109885709A (zh) * | 2019-01-08 | 2019-06-14 | 五邑大学 | 一种基于自编码预降维的图像检索方法、装置和存储介质 |
US20200143579A1 (en) * | 2017-04-08 | 2020-05-07 | Intel Corporation | Sub-graph in frequency domain and dynamic selection of convolution implementation on a gpu |
-
2020
- 2020-12-09 CN CN202011428434.3A patent/CN112464014B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200143579A1 (en) * | 2017-04-08 | 2020-05-07 | Intel Corporation | Sub-graph in frequency domain and dynamic selection of convolution implementation on a gpu |
CN109885709A (zh) * | 2019-01-08 | 2019-06-14 | 五邑大学 | 一种基于自编码预降维的图像检索方法、装置和存储介质 |
Non-Patent Citations (2)
Title |
---|
何奕江等: "基于深度卷积神经网络的图像自编码算法", 《山东大学学报(工学版)》 * |
郑宝玉等: "基于深度卷积神经网络的弱监督图像语义分割", 《南京邮电大学学报(自然科学版)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113886607A (zh) * | 2021-10-14 | 2022-01-04 | 哈尔滨工业大学(深圳) | 基于图神经网络的哈希检索方法、装置、终端及存储介质 |
CN113886607B (zh) * | 2021-10-14 | 2022-07-12 | 哈尔滨工业大学(深圳) | 基于图神经网络的哈希检索方法、装置、终端及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112464014B (zh) | 2022-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111639197B (zh) | 标签嵌入在线哈希的跨模态多媒体数据检索方法及系统 | |
CN110909801B (zh) | 基于卷积神经网络的数据分类方法、系统、介质及设备 | |
CN112131421B (zh) | 医学图像分类方法、装置、设备及存储介质 | |
CN108984642B (zh) | 一种基于哈希编码的印花织物图像检索方法 | |
CN112732864B (zh) | 一种基于稠密伪查询向量表示的文档检索方法 | |
US20230005217A1 (en) | Systems and methods of hierarchical implicit representation in octree for 3d modeling | |
CN112163114B (zh) | 一种基于特征融合的图像检索方法 | |
CN113870286B (zh) | 一种基于多级特征和掩码融合的前景分割方法 | |
CN113313173A (zh) | 基于图表示和改进Transformer的人体解析方法 | |
CN112464014B (zh) | 一种基于图卷积的无监督哈希工业布匹纹理图片检索方法 | |
Eban et al. | Structured multi-hashing for model compression | |
CN110674333B (zh) | 基于多视图增强深度哈希的大规模图像高速检索方法 | |
CN108805280B (zh) | 一种图像检索的方法和装置 | |
CN114996493A (zh) | 一种基于数据清除消冗的电力场景图像数据筛选方法 | |
CN110083734B (zh) | 基于自编码网络和鲁棒核哈希的半监督图像检索方法 | |
CN109035318B (zh) | 一种图像风格的转换方法 | |
Sun et al. | Sliced sparse gradient induced multi-view subspace clustering via tensorial arctangent rank minimization | |
CN118038032A (zh) | 基于超点嵌入和聚类的点云语义分割模型及其训练方法 | |
Fu et al. | Joint multiple dictionary learning for tensor sparse coding | |
Chung et al. | Filter pruning by image channel reduction in pre-trained convolutional neural networks | |
Ju et al. | A novel neutrosophic logic svm (n-svm) and its application to image categorization | |
CN109344279B (zh) | 基于哈希检索的手写英文单词智能识别方法 | |
CN106250926A (zh) | 一种二次判别函数分类器存储空间的压缩方法 | |
CN112487231A (zh) | 一种基于双图正则化约束和字典学习的图像自动标注方法 | |
CN114332260B (zh) | 基于分块编码与Transformer的中文字形字库自动生成方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |