CN112861976A - 一种基于孪生图卷积哈希网络的敏感图像识别方法 - Google Patents
一种基于孪生图卷积哈希网络的敏感图像识别方法 Download PDFInfo
- Publication number
- CN112861976A CN112861976A CN202110185763.8A CN202110185763A CN112861976A CN 112861976 A CN112861976 A CN 112861976A CN 202110185763 A CN202110185763 A CN 202110185763A CN 112861976 A CN112861976 A CN 112861976A
- Authority
- CN
- China
- Prior art keywords
- hash
- image
- network
- training
- twin
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 57
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 37
- 238000000605 extraction Methods 0.000 claims abstract description 5
- 230000001902 propagating effect Effects 0.000 claims abstract description 4
- 210000002569 neuron Anatomy 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000013139 quantization Methods 0.000 claims description 6
- 230000003213 activating effect Effects 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 230000008034 disappearance Effects 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 12
- 230000008901 benefit Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000004630 mental health Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于孪生图卷积哈希网络的敏感图像识别方法,包括:构建训练图像样本数据库;将所述训练图像样本数据库中的训练图像样本集输入孪生卷积神经网络模型,对所述训练图像样本集中的敏感图像进行特征提取,得到全连接层低维的敏感图像卷积特征;采用哈希编码的方法对全连接层低维的敏感图像卷积特征进行编码得到哈希编码;根据所述哈希编码的汉明距离和类标签计算出似然损失,反向传播更新网络的参数,训练一个分类网络,将获取待识别图像数据输入分类网络中通过计算待识别图像的哈希编码与敏感图像数据库中图像哈希编码的汉明距离,得到敏感图像识别结果,本发明采用孪生卷积神经网络及哈希编码相结合的方式,可有效识别敏感图像。
Description
技术领域
本发明涉及图像识别技术领域,尤其涉及到一种基于孪生图卷积哈希网络的敏感图像识别方法。
背景技术
随着科技水平的发展和互联网的快速普及,网络传播成为了人们分享信息的重要方式,但由于互联网信息传播内容冗杂,如果无法对某些敏感信息进行有效的筛选和监管,造成一些非法、暴力和色情图像等不良信息大量传播,会极大地危害到社会稳定和人们的身心健康,尤其影响青少年的健康成长。因此,采取相关技术手段,遏制互联网不良信息产业发展,严厉打击从事非法服务的信息网站是一个需要重视的社会问题。因为互联网数据特性,其需要识别的敏感图像数据量十分庞大,而目前的图像识别模型存在实时识别速率较低,且精准度不高等问题。
综上所述,提供一种识别效率更快,且识别精准度更高,适应性较好的基于孪生图卷积哈希网络的敏感图像识别方法,是本领域技术人员急需解决的问题。
发明内容
本方案针对上文提到的问题和需求,提出一种基于孪生图卷积哈希网络的敏感图像识别方法,其由于采取了如下技术方案而能够解决上述技术问题。
为实现上述目的,本发明提供如下技术方案:一种基于孪生图卷积哈希网络的敏感图像识别方法,包括:步骤S10:获取训练图像数据集,对所述训练图像数据集中的所有图像进行尺寸调整并对部分图像进行分类和标签标记,构建训练图像样本数据库;
步骤S20:将所述训练图像样本数据库中的训练图像样本集输入孪生卷积神经网络模型,对所述训练图像样本集中的敏感图像进行特征提取,得到全连接层低维的敏感图像卷积特征;
步骤S30:采用哈希编码的方法对所述全连接层低维的敏感图像卷积特征进行编码得到哈希编码;
步骤S40:根据所述哈希编码的汉明距离和类标签计算出似然损失,然后反向传播更新网络的参数,训练一个分类网络;
步骤S50:获取待识别图像数据,并对待识别图像进行光照补偿,将所述待识别图像经过步骤S10和步骤S20处理得到的低维卷积特征输入到所述分类网络中,得到待识别图像的哈希编码,通过计算待识别图像的哈希编码与敏感图像数据库中图像的哈希编码的汉明距离,得到敏感图像识别结果。
进一步地,所述训练图像样本数据库中每一个训练图像样本集有一组图像对。
更进一步地,所述步骤S20具体包括:步骤S21:将训练图像样本集中的一组图像对分别输入孪生卷积神经网络;步骤S22:并根据成对的类标签计算似然损失,对孪生卷积神经网络进行预训练获得参数和丰富的图像表示,所述孪生卷积神经网络包括两个结构相同、权值共享的深度卷积神经网络,每个深度卷积神经网络包括5层卷积层和2层全连接层,由所述深度卷积神经网络输出的神经元节点作为特征表达。
更进一步地,所述步骤S30具体包括:步骤S31:所述深度卷积神经网络输出的神经元节点集合oi至哈希编码层;步骤S32:哈希编码层通过激活函数来限制输出值得范围得到哈希码集合。
进一步地,所述对部分图像进行标签标记包括:在训练图像数据集中给定一个包含N个样本点的训练集,构建成对标签B={bij},bij=1表示样本Xi和Xj相似,bij=0表示样本Xi和Xj不相似,bij由图片的语义标签构建而来,所述相似为有相同的类标签,所述不相似为没有相同的类标签。
更进一步地,所述似然损失根据公式 计算,其中,表示哈希码ri和rj之间的内积,ri和rj表示一对样本xi和xj的哈希编码,β为正则化参数项,用于平衡似然误差和量化误差,防止反向传播过程中梯度消失,WTφ(xi;θ)+ε表示哈希编码层的每个节点的输出组成的向量,W表示哈希编码层的权重矩阵,ε表示其偏置向量。
更进一步地,更新网络的参数采用标准的BP算法训练神经网络直至收敛,得到分类网络模型。
从上述的技术方案可以看出,本发明的有益效果是:本发明采用孪生卷积神经网络及哈希编码相结合的方式,可有效识别敏感图像,识别效率更快,且识别精准度更高,适应性较好。
除了上面所描述的目的、特征和优点之外,下文中将结合附图对实施本发明的最优实施例进行更详尽的描述,以便能容易地理解本发明的特征和优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下文将对本发明实施例或现有技术描述中所需要使用的附图作简单地介绍,其中,附图仅仅用于展示本发明的一些实施例,而非将本发明的全部实施例限制于此。
图1为本发明一种基于孪生图卷积哈希网络的敏感图像识别方法的步骤示意图。
图2为本实施例中深度卷积神经网络的训练过程的步骤示意图。
图3为本实施例中哈希编码过程的步骤示意图。
图4为本实施例中孪生图卷积哈希网络的组成结构示意图。
图5为本实施例中基于孪生图卷积哈希网络的敏感图像识别方法的具体流程示意图。
具体实施方式
为了使得本发明的技术方案的目的、技术方案和优点更加清楚,下文中将结合本发明具体实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。附图中相同的附图标记代表相同的部件。需要说明的是,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种采用孪生卷积神经网络及哈希编码相结合的方式,可有效识别敏感图像的基于孪生图卷积哈希网络的敏感图像识别方法。如图1至图5所示,该方法采用网络监管部门数据库中的图像数据集作为训练数据集,其中包含有50000张训练图像和10000张测试图像,为了方便计算,将所有图像的尺寸归一化为128×128,训练图像中的敏感图像和普通图像相混合。
如步骤S10:获取训练图像数据集,对所述训练图像数据集中的所有图像进行尺寸调整并对部分图像进行分类和标签标记,构建训练图像样本数据库。所述对部分图像进行标签标记包括:在训练图像数据集中选择一个包含N个样本点的训练集,构建成对标签B={bij},bij=1表示样本Xi和Xj相似,bij=0表示样本Xi和Xj不相似,bij由图片的语义标签构建而来,所述相似为有相同的类标签,所述不相似为没有相同的类标签。
获取训练图像样本集后,然后构建孪生图卷积哈希网络,并对网络进行初始化。如步骤S20至步骤S40所述,先将训练图像样本集输入孪生卷积神经网络模型进而输出训练图像数据的特征表达神经元,将这些神经元集合的经过哈希编码层编码后,计算与输入图像哈希编码之间的汉明距离,根据汉明距离与哈希编码内积之间的关系,得到图像识别结果。提取的特征表达包括暴恐和色情等敏感图像中人皮肤的纹理、颜色和尺寸等。
步骤S20:将所述训练图像样本数据库中的训练图像样本集输入孪生卷积神经网络模型,对所述训练图像样本集中的敏感图像进行特征提取,得到全连接层低维的敏感图像卷积特征。
如图2所示,深度卷积神经网络的训练过程如下:
步骤S21:将训练图像样本集中的一组图像对分别输入孪生卷积神经网络;
步骤S22:并根据成对的类标签计算似然损失,对孪生卷积神经网络进行预训练获得参数和丰富的图像表示,所述孪生卷积神经网络包括两个结构相同、权值共享的深度卷积神经网络,每个深度卷积神经网络包括5层卷积层和2层全连接层,由所述深度卷积神经网络输出的神经元节点作为特征表达。卷积神经网络是一种前馈神经网络,其在图像和语音识别方面的效果远远超出其他深度学习结构,并且具有训练过程中调整参数较少的优势,而孪生卷积神经网络主要由两个完全相同的子神经网络组成,本实施例中,分别给出两个输入并通过两个网络主体获得量化后的哈希码,然后比较两个哈希码的相似程度来进行图像特征提取和哈希函数的优化。训练过程中两个相同的网络会共享同样的训练参数,以此确保输出空间的一致性。孪生网络结构通过学习使得相似样本之间的距离越来越小,非近似样本之间的距离越来越大。
在本方法中,步骤S30具体采用哈希编码的方法对所述全连接层低维的敏感图像卷积特征进行编码得到哈希编码。
如图3所示,哈希编码过程如下:
步骤S31:所述深度卷积神经网络输出的神经元节点集合oi至哈希编码层;
步骤S32:哈希编码层通过激活函数来限制输出值得范围得到哈希码集合。所述激活函数采用双正切函数对网络的输出进行限制,最后再利用符号函数完成量化,得到哈希编码集合 n为所述深度卷积神经网络输出的神经元节点数,rn中的各个值ri∈{1,-1}。
步骤S40:根据所述哈希编码的汉明距离和类标签计算出似然损失,然后反向传播更新网络的参数,训练一个分类网络。
哈希学习的目的是学习一个非线性的哈希函数来编码每一个样本点到一个y位的哈希编码。根据贝叶斯理论和哈希编码空间特性,所述成对标签的似然函数可表示为可知,汉明距离越小,内积越大,p({bij=1|ri,rj)越大,即样本xi和xj相似的概率越大;内积越小,p({bij=0|ri,rj)越大。
在本实施例中,似然损失根据公式 计算,其中,表示哈希码ri和rj之间的内积,ri和rj表示一对样本xi和xj的哈希编码,β为正则化参数项,用于平衡似然误差和量化误差,防止反向传播过程中梯度消失,WTφ(xi;θ)+ε表示哈希编码层的每个节点的输出组成的向量,W表示哈希编码层的权重矩阵,ε表示其偏置向量。其中,更新网络的参数采用标准的BP算法训练神经网络直至收敛,得到分类网络模型。即通过BP算法来调整神经网络的权重等参数,实现对数据集特征的提取,完成识别模型构建。
在训练得到完整的网络模型后,输入需要测试的待识别图像,进行分类识别。
如步骤S50:获取待识别图像数据,并对待识别图像进行光照补偿,将所述待识别图像经过步骤S10和步骤S20处理得到的低维卷积特征输入到所述分类网络中,得到待识别图像的哈希编码,通过计算待识别图像的哈希编码与敏感图像数据库中图像的哈希编码的汉明距离,得到敏感图像识别结果,根据似然损失公式可得H越小,则哈希码之间的内积越小,图像之间的相似度越高,若识别结果为敏感图像则立即上报并进行标记,若为非敏感信息继续进行下一张图像识别,直到识别完所有图像。
本方法主要利用孪生神经网络进行暴恐和色情等敏感图像特征的自动提取,并利用二进制哈希码压缩高维敏感图像特征数据,实现敏感图像的快速识别,然后利用敏感数据在预训练的孪生多层级卷积神经网络基础上进行调整,生成敏感图像识别模型,提取数据库中敏感图像的普通特征码和哈希特征码,再根据训练好的模型提取输入图像的普通特征码和哈希特征码,将其与敏感图像的哈希特征码和普通特征码进行对比,分别计算汉明距离,则会得到与输入图像相似的存储在数据库中的多幅图像,对这多幅图像的标签进行统计,哪个标签种类多则属于哪种标签,以达到分类识别的目的。
在本实施例中,所述训练图像样本数据库中每一个训练图像样本集有一组图像对。本方法具有很好的识别效果,如图4所示,孪生卷积神经网络可以很好的提取敏感图像的全局和局部图像特征信息,并且通过哈希编码层,可以使计算所需存储空间更少,更容易进行后期的相似度计算以及匹配,提高了实时识别性能。
应当说明的是,本发明所述的实施方式仅仅是实现本发明的优选方式,对属于本发明整体构思,而仅仅是显而易见的改动,均应属于本发明的保护范围之内。
Claims (9)
1.一种基于孪生图卷积哈希网络的敏感图像识别方法,其特征在于,包括如下步骤;
步骤S10:获取训练图像数据集,对所述训练图像数据集中的所有图像进行尺寸调整并对部分图像进行分类和标签标记,构建训练图像样本数据库;
步骤S20:将所述训练图像样本数据库中的训练图像样本集输入孪生卷积神经网络模型,对所述训练图像样本集中的敏感图像进行特征提取,得到全连接层低维的敏感图像卷积特征;
步骤S30:采用哈希编码的方法对所述全连接层低维的敏感图像卷积特征进行编码得到哈希编码;
步骤S40:根据所述哈希编码的汉明距离和类标签计算出似然损失,然后反向传播更新网络的参数,训练一个分类网络;
步骤S50:获取待识别图像数据,并对待识别图像进行光照补偿,将所述待识别图像经过步骤S10和步骤S20处理得到的低维卷积特征输入到所述分类网络中,得到待识别图像的哈希编码,通过计算待识别图像的哈希编码与敏感图像数据库中图像的哈希编码的汉明距离,得到敏感图像识别结果。
2.如权利要求1所述的基于孪生图卷积哈希网络的敏感图像识别方法,其特征在于,所述训练图像样本数据库中每一个训练图像样本集有一组图像对。
3.如权利要求2所述的基于孪生图卷积哈希网络的敏感图像识别方法,其特征在于,所述步骤S20具体包括:步骤S21:将训练图像样本集中的一组图像对分别输入孪生卷积神经网络;步骤S22:并根据成对的类标签计算似然损失,对孪生卷积神经网络进行预训练获得参数和丰富的图像表示,所述孪生卷积神经网络包括两个结构相同、权值共享的深度卷积神经网络,每个深度卷积神经网络包括5层卷积层和2层全连接层,由所述深度卷积神经网络输出的神经元节点作为特征表达。
4.如权利要求3所述的基于孪生图卷积哈希网络的敏感图像识别方法,其特征在于,所述步骤S30具体包括:步骤S31:所述深度卷积神经网络输出的神经元节点集合oi至哈希编码层;步骤S32:哈希编码层通过激活函数来限制输出值得范围得到哈希码集合。
6.如权利要求1所述的基于孪生图卷积哈希网络的敏感图像识别方法,其特征在于,所述对部分图像进行标签标记包括:在训练图像数据集中给定一个包含N个样本点的训练集,构建成对标签B={bij},bij=1表示样本Xi和Xj相似,bij=0表示样本Xi和Xj不相似,bij由图片的语义标签构建而来,所述相似为有相同的类标签,所述不相似为没有相同的类标签。
8.如权利要求7所述的基于孪生图卷积哈希网络的敏感图像识别方法,其特征在于,更新网络的参数采用标准的BP算法训练神经网络直至收敛,得到分类网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110185763.8A CN112861976B (zh) | 2021-02-11 | 2021-02-11 | 一种基于孪生图卷积哈希网络的敏感图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110185763.8A CN112861976B (zh) | 2021-02-11 | 2021-02-11 | 一种基于孪生图卷积哈希网络的敏感图像识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112861976A true CN112861976A (zh) | 2021-05-28 |
CN112861976B CN112861976B (zh) | 2024-01-12 |
Family
ID=75988417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110185763.8A Active CN112861976B (zh) | 2021-02-11 | 2021-02-11 | 一种基于孪生图卷积哈希网络的敏感图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112861976B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114170333A (zh) * | 2021-11-24 | 2022-03-11 | 西安理工大学 | 基于直推式半监督深度学习的图像哈希编码方法 |
CN114379416A (zh) * | 2022-03-23 | 2022-04-22 | 蔚来汽车科技(安徽)有限公司 | 基于车辆底盘检测来控制换电操作的方法和系统 |
CN114662624A (zh) * | 2022-05-25 | 2022-06-24 | 浙江大学 | 基于可再训练孪生网络的非侵入式负荷识别方法及系统 |
CN114783446A (zh) * | 2022-06-15 | 2022-07-22 | 北京信工博特智能科技有限公司 | 一种基于对比预测编码的语音识别方法及系统 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103065302A (zh) * | 2012-12-25 | 2013-04-24 | 中国科学院自动化研究所 | 一种基于离群数据挖掘的图像显著性检测方法 |
CN105894046A (zh) * | 2016-06-16 | 2016-08-24 | 北京市商汤科技开发有限公司 | 卷积神经网络训练及图像处理的方法和系统、计算机设备 |
CN106227851A (zh) * | 2016-07-29 | 2016-12-14 | 汤平 | 基于深度卷积神经网络端对端的通过分层深度搜索的图像检索方法 |
WO2017092183A1 (zh) * | 2015-12-03 | 2017-06-08 | 中山大学 | 一种基于可变长深度哈希学习的图像检索方法 |
CN106980641A (zh) * | 2017-02-09 | 2017-07-25 | 上海交通大学 | 基于卷积神经网络的无监督哈希快速图片检索系统及方法 |
CN107369169A (zh) * | 2017-06-08 | 2017-11-21 | 温州大学 | 一种gpu加速的基于方向对齐与匹配传递的近似最相似图像块匹配方法 |
CN107403153A (zh) * | 2017-07-20 | 2017-11-28 | 大连大学 | 一种基于卷积神经网络和哈希编码的掌纹图像识别方法 |
CN107506711A (zh) * | 2017-08-15 | 2017-12-22 | 江苏科技大学 | 基于卷积神经网络的双目视觉障碍物检测系统及方法 |
WO2018121018A1 (zh) * | 2016-12-30 | 2018-07-05 | 腾讯科技(深圳)有限公司 | 图片识别方法、装置、服务器及存储介质 |
CN108304573A (zh) * | 2018-02-24 | 2018-07-20 | 江苏测联空间大数据应用研究中心有限公司 | 基于卷积神经网络和监督核哈希的目标检索方法 |
CN108734106A (zh) * | 2018-04-23 | 2018-11-02 | 中国科学院自动化研究所 | 基于对比的快速暴恐视频识别方法 |
CN109918528A (zh) * | 2019-01-14 | 2019-06-21 | 北京工商大学 | 一种基于语义保护的紧凑的哈希码学习方法 |
EP3506150A1 (en) * | 2017-12-30 | 2019-07-03 | Wipro Limited | Method and device for detecting objects from scene images by using dynamic knowledge base |
CN110298404A (zh) * | 2019-07-02 | 2019-10-01 | 西南交通大学 | 一种基于三重孪生哈希网络学习的目标跟踪方法 |
-
2021
- 2021-02-11 CN CN202110185763.8A patent/CN112861976B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103065302A (zh) * | 2012-12-25 | 2013-04-24 | 中国科学院自动化研究所 | 一种基于离群数据挖掘的图像显著性检测方法 |
WO2017092183A1 (zh) * | 2015-12-03 | 2017-06-08 | 中山大学 | 一种基于可变长深度哈希学习的图像检索方法 |
CN105894046A (zh) * | 2016-06-16 | 2016-08-24 | 北京市商汤科技开发有限公司 | 卷积神经网络训练及图像处理的方法和系统、计算机设备 |
CN106227851A (zh) * | 2016-07-29 | 2016-12-14 | 汤平 | 基于深度卷积神经网络端对端的通过分层深度搜索的图像检索方法 |
WO2018121018A1 (zh) * | 2016-12-30 | 2018-07-05 | 腾讯科技(深圳)有限公司 | 图片识别方法、装置、服务器及存储介质 |
CN106980641A (zh) * | 2017-02-09 | 2017-07-25 | 上海交通大学 | 基于卷积神经网络的无监督哈希快速图片检索系统及方法 |
CN107369169A (zh) * | 2017-06-08 | 2017-11-21 | 温州大学 | 一种gpu加速的基于方向对齐与匹配传递的近似最相似图像块匹配方法 |
CN107403153A (zh) * | 2017-07-20 | 2017-11-28 | 大连大学 | 一种基于卷积神经网络和哈希编码的掌纹图像识别方法 |
CN107506711A (zh) * | 2017-08-15 | 2017-12-22 | 江苏科技大学 | 基于卷积神经网络的双目视觉障碍物检测系统及方法 |
EP3506150A1 (en) * | 2017-12-30 | 2019-07-03 | Wipro Limited | Method and device for detecting objects from scene images by using dynamic knowledge base |
CN108304573A (zh) * | 2018-02-24 | 2018-07-20 | 江苏测联空间大数据应用研究中心有限公司 | 基于卷积神经网络和监督核哈希的目标检索方法 |
CN108734106A (zh) * | 2018-04-23 | 2018-11-02 | 中国科学院自动化研究所 | 基于对比的快速暴恐视频识别方法 |
CN109918528A (zh) * | 2019-01-14 | 2019-06-21 | 北京工商大学 | 一种基于语义保护的紧凑的哈希码学习方法 |
CN110298404A (zh) * | 2019-07-02 | 2019-10-01 | 西南交通大学 | 一种基于三重孪生哈希网络学习的目标跟踪方法 |
Non-Patent Citations (3)
Title |
---|
刘琴;袁家政;刘宏哲;李兵;王佳颖;叶子;: "一种有效深度哈希图像拷贝检测算法", 计算机应用与软件, no. 03 * |
刘雁斌;: "基于哈希算法的行人再识别技术研究", 交通运输工程与信息学报, no. 04 * |
吴泽斌;于俊清;何云峰;管涛;: "一种用于图像检索的多层语义二值描述符", 计算机学报, no. 09 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114170333A (zh) * | 2021-11-24 | 2022-03-11 | 西安理工大学 | 基于直推式半监督深度学习的图像哈希编码方法 |
CN114379416A (zh) * | 2022-03-23 | 2022-04-22 | 蔚来汽车科技(安徽)有限公司 | 基于车辆底盘检测来控制换电操作的方法和系统 |
CN114662624A (zh) * | 2022-05-25 | 2022-06-24 | 浙江大学 | 基于可再训练孪生网络的非侵入式负荷识别方法及系统 |
CN114662624B (zh) * | 2022-05-25 | 2022-09-13 | 浙江大学 | 基于可再训练孪生网络的非侵入式负荷识别方法及系统 |
CN114783446A (zh) * | 2022-06-15 | 2022-07-22 | 北京信工博特智能科技有限公司 | 一种基于对比预测编码的语音识别方法及系统 |
CN114783446B (zh) * | 2022-06-15 | 2022-09-06 | 北京信工博特智能科技有限公司 | 一种基于对比预测编码的语音识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112861976B (zh) | 2024-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Improved deep hashing with soft pairwise similarity for multi-label image retrieval | |
CN111291212B (zh) | 基于图卷积神经网络的零样本草图图像检索方法和系统 | |
US10248664B1 (en) | Zero-shot sketch-based image retrieval techniques using neural networks for sketch-image recognition and retrieval | |
CN112861976B (zh) | 一种基于孪生图卷积哈希网络的敏感图像识别方法 | |
CN114169330B (zh) | 融合时序卷积与Transformer编码器的中文命名实体识别方法 | |
CN109389151B (zh) | 一种基于半监督嵌入表示模型的知识图谱处理方法和装置 | |
CN111461157B (zh) | 一种基于自学习的跨模态哈希检索方法 | |
CN109685087B (zh) | 信息处理方法和装置以及信息检测方法 | |
CN113313232B (zh) | 一种基于预训练和图神经网络的功能脑网络分类方法 | |
TW202032423A (zh) | 圖像處理方法及裝置 | |
CN114896434B (zh) | 一种基于中心相似度学习的哈希码生成方法及装置 | |
CN110188827A (zh) | 一种基于卷积神经网络和递归自动编码器模型的场景识别方法 | |
CN112765370B (zh) | 知识图谱的实体对齐方法、装置、计算机设备和存储介质 | |
CN111858940A (zh) | 一种基于多头注意力的法律案例相似度计算方法及系统 | |
CN115526236A (zh) | 一种基于多模态对比学习的文本网络图分类方法 | |
CN117036760A (zh) | 一种基于图对比学习的多视图聚类模型实现方法 | |
CN114743037A (zh) | 一种基于多尺度结构学习的深度医学图像聚类方法 | |
CN114036298B (zh) | 一种基于图卷积神经网络与词向量的节点分类方法 | |
CN112035689A (zh) | 一种基于视觉转语义网络的零样本图像哈希检索方法 | |
CN108122613B (zh) | 基于健康预测模型的健康预测方法和装置 | |
CN115588487A (zh) | 一种基于联邦学习和生成对抗网络的医学图像数据集制作方法 | |
CN112487231B (zh) | 一种基于双图正则化约束和字典学习的图像自动标注方法 | |
Chung et al. | Filter pruning by image channel reduction in pre-trained convolutional neural networks | |
CN113901820A (zh) | 一种基于bert模型的中文三元组抽取方法 | |
Zhang et al. | Nonlinear dictionary learning based deep neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |