CN116433925A - 一种基于深度学习的箱包鉴定方法、系统及存储介质 - Google Patents

一种基于深度学习的箱包鉴定方法、系统及存储介质 Download PDF

Info

Publication number
CN116433925A
CN116433925A CN202310417642.0A CN202310417642A CN116433925A CN 116433925 A CN116433925 A CN 116433925A CN 202310417642 A CN202310417642 A CN 202310417642A CN 116433925 A CN116433925 A CN 116433925A
Authority
CN
China
Prior art keywords
luggage
convolutional neural
neural network
deep learning
fake
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310417642.0A
Other languages
English (en)
Inventor
李莉
祁斌川
龚炜
赵慧
于青云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202310417642.0A priority Critical patent/CN116433925A/zh
Publication of CN116433925A publication Critical patent/CN116433925A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于深度学习的箱包鉴定方法、系统及存储介质,所述方法包括:采集箱包不同位置的多张图像,输入到多头卷积神经网络模型中;对所述多头卷积神经网络模型进行联合训练;根据多头卷积神经网络模型的输出结果,得到箱包各个部位和整体的预测为真的概率以及判断是否为新的箱包造假模式。本发明基于深度学习的箱包鉴定方法和系统可以显著提高箱包的鉴定精度,并且可对新的箱包造假方法进行甄别。

Description

一种基于深度学习的箱包鉴定方法、系统及存储介质
技术领域
本发明涉及箱包鉴定技术领域,具体地,涉及一种基于深度学习的箱包鉴定方法、系统及存储介质。
背景技术
传统对二手箱包的甄别,基本都是基于人工经验,以及通过在商品上增加一些鉴别标记比如唯一码、RFID芯片和掉包扣等。传统依赖人工的方式,鉴别专家通过观察实物或者拍摄的包含有鉴别点的关键部位照片,结合自身经验的来鉴别,人工鉴别存在效率低、成本高并且每个人的经验不同造成对同一二手箱包鉴别结果不一致的问题。传统增加鉴别标记的方法存在以下问题:1.不论是唯一码、掉包扣或者RFID都是可以仿造的;2.二手交易中这些鉴别标记可能已经损坏,无法用于鉴别;3.外设的鉴别标记会带来成本的上升。
目前,基于机器学习的赝品识别技术已经得到越来越多的研究,基于机器学习技术的图像鉴伪,实际应用的效果除了模型的拟合和泛化能力外,还取决于收集到的数据集。当数据集中存在未覆盖的造假方式时,上述方法失败的风险非常高。其次,已有识别方法都是关注分类的准确率等技术指标,在实际应用中,更加关注的是判别为良品的准确率,因为将劣品当成良品出售,不论对平台和用户都会造成严重伤害。另外,假品不一定是整个商品的各个部分都存在问题,比如在奢侈品箱包造假中常见到拉链是假的,其他部分是真的。
发明内容
针对现有技术中的缺陷,本发明的目的在于提供一种基于深度学习的箱包鉴定方法、系统及存储介质,本发明的方法和系统可以显著提高箱包的鉴定精度,并且可对新的箱包造假方法进行甄别。
为解决上述问题,本发明的技术方案为:
一种基于深度学习的箱包鉴定方法,包括以下步骤:
采集箱包不同位置的多张图像,输入到多头卷积神经网络模型中;
对所述多头卷积神经网络模型进行联合训练;
根据多头卷积神经网络模型的输出结果,得到箱包各个部位和整体的预测为真的概率以及判断是否为新的箱包造假模式。
优选地,所述采集箱包不同位置的多张图像,输入到多头卷积神经网络系统中的步骤中,所述多头卷积神经网络包括一个共享主干CNN、若干个子网络、融合模块以及造假模式挖掘模块。
优选地,所述采集箱包不同位置的多张图像,输入到多头卷积神经网络模型中的步骤具体包括:
首先将图像缩放后输入到MH-CNN中;
共享主干卷积网络CNN采用resnet-50;
每个子网络结构包含一个Average Pooling层、一个带PReLU的全连接层FC以及一个计算深度特征的全连接层;
将各个子网络输出的模式特征进行拼接,得到融合特征,并将该特征输入到所述融合模块,得到对于整个物品为真的预测概率;
所述造假模式挖掘模块由带Softmax函数的全连接层构成。
优选地,所述造假模式挖掘模块的处理流程包括以下步骤:
步骤1:将部位i的所有模式特征进行K均值聚类,得到K个聚类中心,使用K个聚类中心初始化全连接层;
步骤2:每个训练样本提取的模式特征通过全连接层后使用Softmax函数映射为K维的向量,造假模式挖掘模块优化的目标使用损失函数表示为:
Figure BDA0004185540140000021
其中pi,k表示第i个样本部位得到的K维距离向量的第k个值。
优选地,所述对所述多头卷积神经网络模型进行联合训练的步骤中,采用吸引子损失函数,其形式为:其中yj是部位图像xj的标签,γ是用来平衡交叉熵损失(CE)和我们提出的吸引子损失项,/>
Figure BDA0004185540140000023
表示子网络Hi的预测结果,吸引子损失项形式为:/>
Figure BDA0004185540140000024
其中/>
Figure BDA0004185540140000031
表示子网络Hi计算得到的模式特征,α是控制样本拟合程度的变量,/>
Figure BDA0004185540140000032
代表部位i的真品模式特征的均值。
优选地,所述对所述多头卷积神经网络模型进行联合训练的步骤具体包括:
前向计算:给定一个训练数据集合,首先随机选择N个样本作为一批X=[(x1,l1,1),…(xj,lj,j),…(xN,lN,N)],其中X=[x1,…xj,…xN]是样本图像,L=[l1,…lj,…lN]是各个部位对应的标签,J=[1,…j,…N]是序列索引,首先把X输入到MH-CNN,假设O=[o1,…oj,…oN]是共享主干CNN的输出,然后根据其部位分类标签lj,把Oj送入到对应的子网络,假设子网络Hi的输出使用
Figure BDA0004185540140000033
表示,计算出损失:/>
Figure BDA0004185540140000034
最后得到总损失为:/>
Figure BDA0004185540140000035
误差反传:当得到总损失,根据链式法则计算每一层的梯度。
优选地,所述根据多头卷积神经网络模型的输出结果,得到箱包各个部位和整体的预测为真的概率以及判断是否为新的箱包造假模式的步骤具体包括:仅当箱包所有采集部位的多头卷积神经网络模型输出结果大于设定的真假分界值,且整体预测结果也为真的情况下,才判定当前箱包商品为真,在其他的情况下均判定该箱包商品为非真。
进一步地,本发明还提供一种基于深度学习的箱包鉴定系统,所述系统包括图像采集装置和多头卷积神经网络,通过图像采集装置采集箱包不同位置的多张图像并输入到多头卷积神经网络中,所述多头卷积神经网络包括一个共享主干CNN、若干个子网络、融合模块以及造假模式挖掘模块。
优选地,所述共享主干CNN采用resnet-50,每个子网络结构包含一个AveragePooling层、一个带PReLU的全连接层FC以及一个计算深度特征的全连接层,所述融合模块包括多个带PReLU的全连接层,将各个子网络输出的模式特征进行拼接后输入到所述融合模块,得到整个物品为真的预测概率,所述造假模式挖掘模块由带Softmax函数的全连接层构成。
进一步地,本发明还提供一种可读存储介质,所述可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时用于实现如上所述的基于深度学习的箱包鉴定方法。
与现有技术相比,本发明提出了一种基于深度学习的箱包鉴定方法和系统,本发明方法将多头卷积神经网络(MH-CNN)应用到商品图像的真假鉴别中,并且与吸引子损失(AtL)的损失函数相结合,从而可以显著提高真品判断的精度。另外,使用造假模式挖掘模块挖掘现有造假模式,对已有造假模式进行表征学习,当出现和当前造假表征差异较大的样本,就判断为新的造假手段并对新的造假方法进行甄别。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例提供的基于深度学习的箱包鉴定方法流程框图;
图2为本发明实施例提供的基于深度学习的箱包鉴定系统结构框图;
图3为本发明实施例提供的基于深度学习的箱包鉴定系统子网络结构示意图;
图4a为本发明实施例提供的模型训练前向计算过程图;
图4b为本发明实施例提供的模型训练误差反传过程图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
具体地,本发明提供一种基于深度学习的箱包鉴定方法,如图1所示,所述方法包括以下步骤:
S1:采集箱包不同位置的多张图像,输入到多头卷积神经网络模型中;
如图2所示,假设箱包有三个位置容易出现伪冒问题并可以用于鉴别真伪,首先采集箱包不同位置的多张图像,然后输入到多头卷积神经网络(Multi-head ConvolutionNeural Network,MH-CNN)系统中,所述多头卷积神经网络MH-CNN包括一个用于提取共同特征的共享CNN主干和用于组合物体不同位置的多头子网络,所述子网络分别负责处理单个部位的造假问题,以输出每个位置的深层特征。
具体地,所述多头卷积神经网络MH-CNN包括一个共享主干CNN、n个子网络[H1,H2,…Hn]、融合模块以及造假模式挖掘模块。
假设多个部位的输入图片表示为X=[x1,x2,…xn],对应的真假标签为L=[l1,l2,…ln],其中xi表示RGB(3通道)的图片,在将图像输入到MH-CNN网络前需要对图像做去除背景,分割得到关键区域,以及对关键部位进行位置矫正操作。li表示第i个位置的对应真假标签,也就是对应商品的真假。具体处理步骤如下:
1、首先将图像缩放后输入到MH-CNN中;
2、共享的主干卷积网络CNN采用resnet-50,网络包含49个卷积层,输出为7×7×2048大小的特征图;
3、如图3所示,每个子网络结构包含一个Average Pooling层、一个带PReLU的全连接层FC以及一个计算深度特征的全连接层。所述Average Pooling层输出的特征图大小为1×1×2048,将其摊平为一个2048维度的向量,然后送到FC层得到一个512-维度的向量,将该向量称之为模式特征。将模式特征输入到最后一层全连接层,得到该部位为真的预测概率,将这部分对应的损失表示为:
Figure BDA0004185540140000051
4、将各个子网络输出的模式特征进行拼接,得到一个1536维度的融合特征,并将该特征输入到所述融合模块,得到对于整个物品为真的预测概率,所述融合模块是由3个带PReLU的全连接层构成,将融合模块对应的损失表示为Lf
5、所述造假模式挖掘模块由带Softmax函数的512×K的全连接层构成,每个部位可以对应一个独立的造假模式挖掘模块,该造假模式挖掘模块的处理流程如下:
步骤1:将部位i的所有模式特征进行K均值聚类,得到K个聚类中心,使用K个聚类中心初始化全连接层;
步骤2:每个训练样本提取的模式特征通过全连接层后使用Softmax函数映射为K维的向量。
这个向量就表征了当前样本部位对应的模式和已有模式的距离。如果当前样本部位的模式同已有模式的距离都很远,则说明该样本的部位可能是一种新的未被发现的造假模式,存在风险并需要录入。造假模式挖掘模块优化的目标使用损失函数表示为:
Figure BDA0004185540140000052
其中pi,k表示第i个样本部位得到的K维距离向量的第k个值。
S2:对所述多头卷积神经网络模型进行联合训练;
进一步地,为了提高系统预测为真的精确率,提出了一种新的损失函数,称之为吸引子损失函数,其形式如下:
Figure BDA0004185540140000053
其中yj是部位图像xj的标签,γ是用来平衡交叉熵损失(CE)和我们提出的吸引子损失项,
Figure BDA0004185540140000061
表示子网络Hi的预测结果。
吸引子损失项形式如下:
Figure BDA0004185540140000062
其中
Figure BDA0004185540140000063
表示子网络Hi计算得到的模式特征,α是控制样本拟合程度的变量,/>
Figure BDA0004185540140000064
代表部位i的真品模式特征的均值。在训练过程中,使用每个批次中正样本的模式特征的均值来表示/>
Figure BDA0004185540140000065
即/>
Figure BDA0004185540140000066
其中Ni是当前批次中正样本的个数,/>
Figure BDA0004185540140000067
是子网络Hi得到的模式特征。
具体地,本发明使用的MH-CNN模型采用一对多结构,即一个共享主干网络对应多个子网络和两个独立模块,对所述MH-CNN网络模型进行联合训练步骤如下:
1、前向计算
如图4a所示,给定一个训练数据集合,首先随机选择N个样本作为一批(batch)X=[(x1,l1,1),…(xj,lj,j),…(xN,lN,N)],其中X=[x1,…xj,…xN]是样本图像,L=[l1,…lj,…lN]是各个部位对应的标签,J=[1,…j,…N]是序列索引。在图4a中展示了计算的过程,首先把X输入到MH-CNN,假设O=[o1,…oj,…oN]是共享主干CNN的输出,然后根据其部位分类标签lj,把Oj送入到对应的子网络。假设子网络Hi的输出使用
Figure BDA0004185540140000068
表示,则就可以根据下面的公式计算出损失:
Figure BDA0004185540140000069
最后得到总的损失为:
Figure BDA00041855401400000610
2、误差反传
如图4b所示,首字母为g的表示梯度,当得到了总损失,就可以根据链式法则计算每一层的梯度。其中样本索引J表示将总损失分配到共享主干CNN的输出上。
S3:根据多头卷积神经网络模型的输出结果,得到箱包各个部位和整体的预测为真的概率以及判断是否为新的箱包造假模式。
具体地,为了防止假货被鉴别为真品,假设输入为X=[x1,x2,…xn],通过上面的MH-CNN网络模型的输出结果,可以得到各个部位和整体的预测为真的概率。仅当箱包所有采集部位的多头卷积神经网络模型输出结果大于设定的真假分界值,且整体预测结果也为真的情况下,才判定当前箱包商品为真。在其他的情况下均判定该箱包商品为非真。并且使用造假模式挖掘模块对已有造假模式进行表征学习,当出现和当前造假表征差异较大的样本,就判断为新的造假手段并对新的造假方法进行甄别。
与现有技术相比,本发明提出了一种基于深度学习的箱包鉴定方法和系统,本发明方法将多头卷积神经网络(MH-CNN)应用到商品图像的真假鉴别中,并且与吸引子损失(AtL)的损失函数相结合,从而可以显著提高真品判断的精度。另外,使用造假模式挖掘模块挖掘现有造假模式,对已有造假模式进行表征学习,当出现和当前造假表征差异较大的样本,就判断为新的造假手段并对新的造假方法进行甄别。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (10)

1.一种基于深度学习的箱包鉴定方法,其特征在于,所述方法包括以下步骤:
采集箱包不同位置的多张图像,输入到多头卷积神经网络模型中;
对所述多头卷积神经网络模型进行联合训练;
根据多头卷积神经网络模型的输出结果,得到箱包各个部位和整体的预测为真的概率以及判断是否为新的箱包造假模式。
2.根据权利要求1所述的基于深度学习的箱包鉴定方法,其特征在于,所述采集箱包不同位置的多张图像,输入到多头卷积神经网络模型中的步骤中,所述多头卷积神经网络包括一个共享主干CNN、若干个子网络、融合模块以及造假模式挖掘模块。
3.根据权利要求2所述的基于深度学习的箱包鉴定方法,其特征在于,所述采集箱包不同位置的多张图像,输入到多头卷积神经网络系统中的步骤具体包括:
首先将图像缩放后输入到MH-CNN中;
共享主干卷积网络CNN采用resnet-50;
每个子网络结构包含一个Average Pooling层、一个带PReLU的全连接层FC以及一个计算深度特征的全连接层;
将各个子网络输出的模式特征进行拼接,得到融合特征,并将该特征输入到所述融合模块,得到对于整个物品为真的预测概率;
所述造假模式挖掘模块由带Softmax函数的全连接层构成。
4.根据权利要求3所述的基于深度学习的箱包鉴定方法,其特征在于,所述造假模式挖掘模块的处理流程包括以下步骤:
步骤1:将部位i的所有模式特征进行K均值聚类,得到K个聚类中心,使用K个聚类中心初始化全连接层;
步骤2:每个训练样本提取的模式特征通过全连接层后使用Softmax函数映射为K维的向量,造假模式挖掘模块优化的目标使用损失函数表示为:
Figure FDA0004185540100000011
其中pi,k表示第i个样本部位得到的K维距离向量的第k个值。
5.根据权利要求1所述的基于深度学习的箱包鉴定方法,其特征在于,所述对所述多头卷积神经网络模型进行联合训练的步骤中,采用吸引子损失函数,其形式为:
Figure FDA0004185540100000021
其中yj是部位图像xj的标签,γ是用来平衡交叉熵损失(CE)和我们提出的吸引子损失项,/>
Figure FDA0004185540100000022
表示子网络Hi的预测结果,吸引子损失项形式为:
Figure FDA0004185540100000023
其中/>
Figure FDA0004185540100000024
表示子网络Hi计算得到的模式特征,α是控制样本拟合程度的变量,/>
Figure FDA0004185540100000025
代表部位i的真品模式特征的均值。
6.根据权利要求5所述的基于深度学习的箱包鉴定方法,其特征在于,所述对所述多头卷积神经网络模型进行联合训练的步骤具体包括:
前向计算:给定一个训练数据集合,首先随机选择N个样本作为一批X=[(x1,l1,1),…(xj,lj,j),…(xN,lN,N)],其中X=[x1,…xj,…xN]是样本图像,L=[l1,…lj,…lN]是各个部位对应的标签,J=[1,…j,…N]是序列索引,首先把X输入到MH-CNN,假设O=[o1,…oj,…oN]是共享主干CNN的输出,然后根据其部位分类标签lj,把Oj送入到对应的子网络,假设子网络Hi的输出使用
Figure FDA0004185540100000026
表示,计算出损失:/>
Figure FDA0004185540100000027
最后得到总损失为:/>
Figure FDA0004185540100000028
误差反传:当得到总损失,根据链式法则计算每一层的梯度。
7.根据权利要求1所述的基于深度学习的箱包鉴定方法,其特征在于,所述根据多头卷积神经网络模型的输出结果,得到箱包各个部位和整体的预测为真的概率以及判断是否为新的箱包造假模式的步骤具体包括:仅当箱包所有采集部位的多头卷积神经网络模型输出结果大于设定的真假分界值,且整体预测结果也为真的情况下,才判定当前箱包商品为真,在其他的情况下均判定该箱包商品为非真。
8.一种基于深度学习的箱包鉴定系统,其特征在于,所述系统包括图像采集装置和多头卷积神经网络,通过图像采集装置采集箱包不同位置的多张图像并输入到多头卷积神经网络中,所述多头卷积神经网络包括一个共享主干CNN、若干个子网络、融合模块以及造假模式挖掘模块。
9.根据权利要求8所述的基于深度学习的箱包鉴定系统,其特征在于,所述共享主干CNN采用resnet-50,每个子网络结构包含一个Average Pooling层、一个带PReLU的全连接层FC以及一个计算深度特征的全连接层,所述融合模块包括多个带PReLU的全连接层,将各个子网络输出的模式特征进行拼接后输入到所述融合模块,得到整个物品为真的预测概率,所述造假模式挖掘模块由带Softmax函数的全连接层构成。
10.一种可读存储介质,其特征在于,所述可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时用于实现权利要求1至7任一所述的基于深度学习的箱包鉴定方法。
CN202310417642.0A 2023-04-18 2023-04-18 一种基于深度学习的箱包鉴定方法、系统及存储介质 Pending CN116433925A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310417642.0A CN116433925A (zh) 2023-04-18 2023-04-18 一种基于深度学习的箱包鉴定方法、系统及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310417642.0A CN116433925A (zh) 2023-04-18 2023-04-18 一种基于深度学习的箱包鉴定方法、系统及存储介质

Publications (1)

Publication Number Publication Date
CN116433925A true CN116433925A (zh) 2023-07-14

Family

ID=87083002

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310417642.0A Pending CN116433925A (zh) 2023-04-18 2023-04-18 一种基于深度学习的箱包鉴定方法、系统及存储介质

Country Status (1)

Country Link
CN (1) CN116433925A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117392684A (zh) * 2023-11-02 2024-01-12 北京邮电大学 奢侈品鉴定模型训练方法、奢侈品鉴定方法及其装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117392684A (zh) * 2023-11-02 2024-01-12 北京邮电大学 奢侈品鉴定模型训练方法、奢侈品鉴定方法及其装置
CN117392684B (zh) * 2023-11-02 2024-05-14 北京邮电大学 奢侈品鉴定模型训练方法、奢侈品鉴定方法及其装置

Similar Documents

Publication Publication Date Title
CN111767882B (zh) 一种基于改进yolo模型的多模态行人检测方法
Wu et al. Busternet: Detecting copy-move image forgery with source/target localization
CN105719188B (zh) 基于多张图片一致性实现保险理赔反欺诈的方法及服务器
CN110245678B (zh) 一种基于异构孪生区域选取网络的图像匹配方法
CN111222434A (zh) 基于局部二值模式和深度学习的合成人脸图像取证方法
CN107657249A (zh) 多尺度特征行人重识别的方法、装置、存储介质及处理器
CN109740603A (zh) 基于cnn卷积神经网络下的车辆字符识别方法
CN112288758B (zh) 一种电力设备红外与可见光图像配准方法
Li et al. A review of deep learning methods for pixel-level crack detection
CN110210503A (zh) 一种印章识别方法和装置以及设备
CN112580480A (zh) 一种高光谱遥感影像分类方法及装置
CN116433925A (zh) 一种基于深度学习的箱包鉴定方法、系统及存储介质
CN114913498A (zh) 一种基于关键点估计的并行多尺度特征聚合车道线检测方法
CN113988147A (zh) 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置
CN109074663A (zh) 物体体积测量方法、相关装置及计算机可读存储介质
CN108596244A (zh) 一种基于光谱角度密度峰值的高光谱图像标签噪声检测方法
CN113128518B (zh) 基于孪生卷积网络和特征混合的sift误匹配检测方法
CN114861761A (zh) 一种基于孪生网络特征与几何验证的回环检测方法
JP4245872B2 (ja) 類似度判定方法および装置並びにプログラム
CN114170526A (zh) 基于轻量化网络的遥感影像多尺度目标检测识别方法
CN113869418A (zh) 一种基于全局注意力关系网络的小样本船舶目标识别方法
CN113704276A (zh) 地图更新方法、装置、电子设备及计算机可读存储介质
CN110210561B (zh) 神经网络的训练方法、目标检测方法及装置、存储介质
CN108960005A (zh) 一种智能视觉物联网中对象视觉标签的建立及显示方法、系统
CN111144439B (zh) 一种物体识别中选择最优图像匹配算法的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination