CN112966673B - 一种行人重识别模型的构建方法及行人重识别方法 - Google Patents
一种行人重识别模型的构建方法及行人重识别方法 Download PDFInfo
- Publication number
- CN112966673B CN112966673B CN202110542713.0A CN202110542713A CN112966673B CN 112966673 B CN112966673 B CN 112966673B CN 202110542713 A CN202110542713 A CN 202110542713A CN 112966673 B CN112966673 B CN 112966673B
- Authority
- CN
- China
- Prior art keywords
- convolution
- pedestrian
- matrix
- identification
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Algebra (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种行人重识别模型的构建方法及行人重识别方法,构建方法包括:步骤1,构建非全连接卷积,对于非全连接卷积,不同的位置将会被不同的卷积核进行卷积运算,计算得到非全连接卷积中卷积核的数目,即被卷积操作的位置数量为N;步骤2,将非全连接卷积和普通卷积通过加权方式结合,形成全局‑局部注意力模块;使用全局‑局部注意力模块替换OSNet中的所有普通卷积,保留OSNet的其余结构不变,形成基于非全连接卷积的行人重识别模型。通过构建非全连接卷积,平衡了在实际场景下的识别精度和运算速度,达到实时检测的要求。
Description
技术领域
本发明涉及计算机视觉和行人重识别研究领域,具体涉及一种行人重识别模型的构建方法及行人重识别方法。
背景技术
行人重识别是利用计算机视觉技术判断图像或者视频中是否存在特定行人的技术,其核心方式为给定一个监控行人图像,检索跨设备下的该行人图像,作为跨摄像头跟踪的主要方式,一个高效并且实时的行人重识别系统能够为智慧城市的构建从安全性的角度提供切实的保障。在实现本发明过程中,发明人发现现有技术中至少存在如下问题:现有的行人重识别网络存在着如下问题:参数量较少的模型只能识别较为模糊的图像,如256*128像素精度的图像,对于精度较高的图像,如1280*640的图片,识别性能不佳,原因在于模型参数量较少,无法拟合过于庞大的数据集;参数量较多的模型,虽然可以解决对于高清图像的识别问题,但是随着图像像素的上升,识别时间和训练时间会呈现指数级上升,虽然现在有减枝、知识蒸馏、量化等多种将模型压缩的手段,但是参数量过于庞大的模型大大降低识别的实时性。
发明内容
为了克服现有技术的不足,本公开实施例提供了一种行人重识别模型的构建方法及行人重识别方法,通过构建非全连接卷积,平衡了在实际场景下的识别精度和运算速度,达到实时检测的要求。技术方案如下:
第一方面,提供了一种行人重识别模型的构建方法,包括如下步骤:
步骤1,构建非全连接卷积,对于非全连接卷积,不同的位置将会被不同的卷积核进行卷积运算,所述不同的卷积核表示卷积核大小相同,参数不同,图像经过非全连接卷积后的尺寸和普通卷积相比不发生改变;
设定I代表输入的尺寸,p代表padding操作的大小,f代表卷积核的尺寸,s代表步长,那么根据公式可得到非全连接卷积中卷积核的数目N:
即被卷积操作的位置数量为N;
步骤2,将非全连接卷积和普通卷积通过加权方式结合,形成全局-局部注意力模块;使用全局-局部注意力模块替换OSNet中的所有普通卷积,保留OSNet的其余结构不变,形成基于非全连接卷积的行人重识别模型。
优选的,步骤1中构建非全连接卷积的方法,具体如下:
(1)将输入图片通过Unfold操作,该操作为根据输入的图像尺寸以及卷积核长宽,将输入图片重新整合成对应的大小M*N,M为输入图片的通道数乘Unfold操作的卷积核大小,代表每个将被卷积位置的特征数量,N为被卷积操作的位置数量;
(2)构建一个特定对角线为1的稀疏矩阵,假定上述的输入图片的通道为inC,卷积核的长宽记为W和H,卷积操作的位置数量记作N,初始化一个全零矩阵,其大小为(N,inC*W*H*N),并将其特定对角线元素设置为1,具体为:记len等于inC*W*H,对于第i行来说,第i*len列到第(i+1)*len列将会被初始化为1;
(3)将第(1)步中获得的M*N大小的矩阵先进行转置操作,得到N*M的矩阵,从行这个维度对N*M的矩阵进行复制和连接的操作,复制和连接次数为非全连接卷积中卷积核的数目N,得到一个拼接矩阵N*(N*M);
(4)将第(2)步构建的稀疏矩阵和第(3)步中的拼接矩阵做哈德曼积,得到特定对角线元素为相应位置特征的矩阵Z;
(5)构建非全连接卷积核,具体为,构建N个长宽为W*H的张量,并且通过随机初始化的方式初始化这些张量,并将其拼接起来,构建非全连接卷积核;
(6)将所述特定对角线元素为相应位置特征的矩阵Z和非全连接卷积核做矩阵乘法,将矩阵乘法的结果转化成标准输出的相应大小的张量,张量的长宽为非全连接卷积中卷积核的数目N的两个乘子。
优选的,所述步骤2中将非全连接卷积和普通卷积通过加权方式结合,具体为:将普通的卷积操作记为conv,将非全连接卷积记为uconv,两者输出大小相同,将两者的输出通过w和1-w进行加权,其中,w是一个和上述两个卷积输出大小相同、并且通过sigmoid函数将其限制在0-1范围之内的张量。
优选的,步骤2中保留OSNet的其余结构不变,为保留OSNet的多尺度机制不变。
第二方面,提供了一种行人重识别方法,采用所有可能的实现方式中任一项所述的一种行人重识别模型的构建方法构建的行人重识别模型,进行行人特征提取和识别,在行人重识别数据集的构建方面,进行如下优化:
通过使用mask-rcnn的方式,将行人从这些背景中提取出来,并将其背景色统一设置成120-130,得到背景设置成120-130的行人图片;同时,构建特定场景常见背景库,通过随机的方式为行人更换背景,得到更换背景的图片;在对行人重识别模型进行训练时,将原始图片、背景设置成120-130的行人图片、以及更换背景的图片混合,使用triplet loss进行训练,在识别时,将背景设置成120-130的行人图片作为底库进行匹配。
优选的,在行人重识别数据集的构建方面,优化还包括:通过在现有行人ID的行人主体上增加透明深色掩码的方式,人为增加深色衣物行人数据的数量。
优选的,在行人重识别数据集的构建方面,优化还包括:通过使用First ordermodel增加同一行人的不同姿态,First order model通过一张运动中的行人图像去驱动另一张资源图像,达到模仿生成的效果,进而达到模拟多个摄像角度的效果。
与现有技术相比,上述技术方案中的一个技术方案具有如下有益效果:通过构建非全连接卷积,使用新设计的非全连接卷积构建新的注意力机制,提升模型对于行人细节之处的识别精度,并通过注意力加权的方式将其融入OSNet中,同时兼顾了模型的识别速度和模型的识别精度。平衡了在实际场景下的识别精度和运算速度,完全可以达到实时检测的要求;不需要通过分割图片投入训练的方式,就能提升模型对于行人各个部位的识别精度。
从数据构建方面,分离背景、相似衣物、相似姿态等情况对识别的干扰,能够更精确的匹配,提升行人重识别rank1的识别精度;更加快速地构建大量线上行人重识别数据集。将多样化的同质和异质分块进行结合,从模型和数据两个方面对其进行性能优化,有效提取和分析行人的全局特征和局部特征。
具体实施方式
为了阐明本发明的技术方案和工作原理,下面将对本公开实施方式做进一步的详细描述。上述所有可选技术方案,可以采用任意结合形成本公开的可选实施例,在此不再一一赘述。
本申请的说明书和权利要求书中的术语“步骤1”、“步骤2”、“步骤3”等类似描述是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里描述的那些以外的顺序实施。
第一方面,本公开实施例提供了一种行人重识别模型的构建方法,包括如下步骤:
步骤1,构建非全连接卷积,对于非全连接卷积,不同的位置将会被不同的卷积核进行卷积运算,所述不同的卷积核表示卷积核大小相同,参数不同,图像经过非全连接卷积后的尺寸和普通卷积相比不发生改变。
在传统的卷积中,不同的位置将会被相同卷积核进行运卷积算,但是对于非连接卷积,不同的位置将会被不同的卷积核进行卷积运算,但是图像经过非全连接卷积后的尺寸和普通卷积相比不发生改变,这样做的目的是为了让模型通过这种卷积方式,能够更加关注行人各个部分的信息,而不是通过图像分割,来提升模型对行人各个部位的关注。
设定I代表输入的尺寸(即长宽,可不同),p代表padding操作的大小,f代表卷积核的尺寸,s代表步长,那么根据公式:
可以得到非全连接卷积中卷积核的数目为N,即被卷积操作的位置数量为N。
所述构建非全连接卷积的方法,具体如下:
(1)将输入图片通过一个操作,命名为Unfold操作,该操作将根据输入的图像尺寸以及卷积核长宽,将输入图片重新整合成对应的大小M*N,M为输入图片的通道数乘Unfold操作的卷积核大小,代表每个将被卷积位置的特征数量,N为被卷积操作的位置数量。例如,一个长为12宽为10,3通道的RGB图片,假设普通卷积核大小为4*5,那么经过设定参数为4*5的Unfold操作,将得到大小为60*56的输出,其中,60是根据3*4*5获得,即图像通道数乘以Unfold操作参数,代表每个卷积所包含的特征,而56则是通过所述公式计算获得,代表将被卷积操作的位置数量。
(2)之后需要构建一个特定对角线为1的稀疏矩阵,假设上述的输入图片的通道为inC,卷积核的长宽记为W和H,卷积操作的位置数量记作N,初始化一个全零矩阵,其大小为(N, inC * W *H * N),并将其特定对角线元素设置为1,具体为:记len等于inC * W *H,那么对于第i行来说,第 i * len列到第(i +1) * len列将会被初始化为1。
(3)将第(1)步中获得的M*N大小的矩阵先进行转置操作,得到N*M的矩阵,从行这个维度对N*M的矩阵进行复制和连接的操作,复制和连接次数为非全连接卷积中卷积核的数目N,得到一个拼接矩阵N*(N*M);在拼接矩阵的计算过程中,暂不考虑通道的数量,在每个通道上拼接矩阵的运算是相同的。
(4)将第(2)步构建的稀疏矩阵和第(3)步中的拼接矩阵做哈德曼积,得到特定对角线元素为相应位置特征的矩阵Z。
(5)构建非全连接卷积核,具体为,构建N个长宽为W*H的张量,并且通过随机初始化的方式初始化这些张量,并将其拼接起来,构建非全连接卷积核;
(6)将所述特定对角线元素为相应位置特征的矩阵Z和非全连接卷积核做矩阵乘法,这样做的好处是:通过数学变化,构建了一种使得图像相应位置特征(即矩阵Z中非零特征)和非全连接卷积核相应参数运算的方式,通过这种运算,只需要做一次矩阵乘法,相比于循环结构,运算速度大大提高;将矩阵乘法的结果转化成标准输出的相应大小的张量,张量的长宽为非全连接卷积中卷积核的数目N的两个乘子。例如,(1)中的56将会被转化成长为8,宽为7的张量。
步骤2,将非全连接卷积和普通卷积通过加权方式结合,形成全局-局部注意力模块。
这样做的目的是让模型自主选择考虑全局特征还是局部特征,并根据实际的情况调整两者的占比,将普通的卷积操作记为conv,将非全连接卷积记为uconv,两者输出大小相同,将两者的输出通过w和1-w进行加权,其中,w是一个和上述两个卷积输出大小相同、并且通过sigmoid函数将其限制在0-1范围之内的张量。
使用全局-局部注意力模块替换OSNet中的所有普通卷积,保留OSNet的其余结构不变,(优选的,保留OSNet的多尺度机制不变),形成基于非全连接卷积的行人重识别模型。
第二方面,本公开实施例提供了一种行人重识别方法,
采用所有可能的实现方式中任一项所述的一种行人重识别模型的构建方法构建的行人重识别模型,进行行人特征提取和识别,在行人重识别数据集的构建方面,进行如下优化:
(1)在特定场景例如小区场景之下,存在着许多重复的要素,例如广告牌,栏杆,车障等,这些重复要素组成了特征鲜明的背景,这些构成了行人图像的背景部分,如果当前被识别的行人和底库行人图片的背景较为相似,那么对于就存在误识别的可能性,必须降低这种错误匹配的情况。因此,通过使用mask-rcnn的方式,将行人从这些背景中提取出来,并将其背景色统一设置成120-130(可以为127,即255的一半),得到背景设置成120-130的行人图片;同时,构建特定场景常见背景库,通过随机的方式为行人更换背景,得到更换背景的图片;例如,每个行人ID增加10个不同背景,通过此种方式,可以将行人数据扩大10倍。在对行人重识别模型进行训练时,将原始图片、背景设置成120-130(127)的行人图片、以及更换背景的图片混合,使用triplet loss进行训练,在识别时,将背景设置成120-130(127)的行人图片作为底库进行匹配,进一步去除背景的影响。triplet loss的效果在于,可以通过指定图片类别的方式,将同一类内的图片的余弦相似度增大,不同类的图片的余弦相似度减小,通过这种方式,让模型从数据的角度关注于图片中的行人,而不是背景,与此同时,又使得去除背景的图像能够和更改背景的图像保持较高的相似度。
优选的,还包括(2)行人本身身着深色衣物时,由于其衣物特征不明显,很难进行正确匹配,容易引起误识别。通过在现有行人ID的行人主体上增加透明深色掩码的方式,人为增加深色衣物行人数据的数量,对于行人穿着深色衣服的情况,使得模型的注意力从服装颜色的角度转移到服装纹理的角度,提升行人重识别性能。
优选的,还包括(3)由于摄像头数量的限制,绝大多数情况下,只能采集到同一行人单一轨迹的数据,这些数据中的行人姿态变化不大,且角度单一,因此,通过使用Firstorder model增加同一行人的不同姿态,First order model通过一张运动中的行人图像去驱动另一张资源图像,从而达到模仿生成的效果,进而达到模拟多个摄像角度的效果。
First order model通过一张运动中的图像去驱动一张资源图像,由于是自监督,且First order model的机制能够比较好的处理背景信息,所以在背景稳定的情况下,完全不需要去除背景,因此,可以和上述两种方式结合起来使用,大幅增加行人重识别数据集的ID数量以及ID内样本数量。
以上从数据构建方面,将常见小区场景如广告牌/路障/栏杆等融入训练任务,通过行人提取的方式,减少由于行人背景过于相似导致的误识别过程;通过将线上易发生误识别的深色图像,进行数据增强,同时保存衣服的纹理特征,提升模型对于深色服装的适配性问题;对于摄像头较少的场景,所获取的行人图像只能有单一角度,通过使用FirstOrder Model,构建不同角度以及姿态的行人图像,可迅速并且高效地构建相应场景下的行人重识别数据集。
以上对本发明进行了示例性描述,显然,本发明具体实现并不受上述方式的限制,凡是采用了本发明的方法构思和技术方案进行的各种非实质性的改进;或者未经改进、等同替换,将本发明的上述构思和技术方案直接应用于其他场合的,均在本发明的保护范围之内。
Claims (6)
1.一种行人重识别模型的构建方法,其特征在于,包括如下步骤:
步骤1,构建非全连接卷积,对于非全连接卷积,不同的位置将会被不同的卷积核进行卷积运算,所述不同的卷积核表示卷积核大小相同,参数不同,图像经过非全连接卷积后的尺寸和普通卷积相比不发生改变;
设定I代表输入的尺寸,p代表padding操作的大小,f代表卷积核的尺寸,s代表步长,那么根据公式可得到非全连接卷积中卷积核的数目N:
即被卷积操作的位置数量为N;
步骤2,将非全连接卷积和普通卷积通过加权方式结合,形成全局-局部注意力模块;使用全局-局部注意力模块替换OSNet中的所有普通卷积,保留OSNet的其余结构不变,形成基于非全连接卷积的行人重识别模型;
步骤1中构建非全连接卷积的方法,具体如下:
(1)将输入图片通过Unfold操作,该操作为根据输入的图像尺寸以及卷积核长宽,将输入图片重新整合成对应的大小M*N,M为输入图片的通道数乘Unfold操作的卷积核大小,代表每个将被卷积位置的特征数量,N为被卷积操作的位置数量;
(2)构建一个特定对角线为1的稀疏矩阵,假定上述的输入图片的通道为inC,卷积核的长宽记为W和H,卷积操作的位置数量记作N,初始化一个全零矩阵,其大小为(N,inC*W*H*N),并将其特定对角线元素设置为1,具体为:记len等于inC*W*H,对于第i行来说,第i*len列到第(i+1)*len列将会被初始化为1;
(3)将第(1)步中获得的M*N大小的矩阵先进行转置操作,得到N*M的矩阵,从行这个维度对N*M的矩阵进行复制和连接的操作,复制和连接次数为非全连接卷积中卷积核的数目N,得到一个拼接矩阵N*(N*M);
(4)将第(2)步构建的稀疏矩阵和第(3)步中的拼接矩阵做哈德曼积,得到特定对角线元素为相应位置特征的矩阵Z;
(5)构建非全连接卷积核,具体为,构建N个长宽为W*H的张量,并且通过随机初始化的方式初始化这些张量,并将其拼接起来,构建非全连接卷积核;
(6)将所述特定对角线元素为相应位置特征的矩阵Z和非全连接卷积核做矩阵乘法,将矩阵乘法的结果转化成标准输出的相应大小的张量,张量的长宽为非全连接卷积中卷积核的数目N的两个乘子。
2.根据权利要求1所述的一种行人重识别模型的构建方法,其特征在于,所述步骤2中将非全连接卷积和普通卷积通过加权方式结合,具体为:将普通的卷积操作记为conv,将非全连接卷积记为uconv,两者输出大小相同,将两者的输出通过w和1-w进行加权,其中,w是一个和上述两个卷积输出大小相同、并且通过sigmoid函数将其限制在0-1范围之内的张量。
3.根据权利要求1-2任一项所述的一种行人重识别模型的构建方法,其特征在于,步骤2中保留OSNet的其余结构不变,为保留OSNet的多尺度机制不变。
4.一种行人重识别方法,其特征在于,采用权利要求1-3任一项所述的一种行人重识别模型的构建方法构建的行人重识别模型,进行行人特征提取和识别,在行人重识别数据集的构建方面,进行如下优化:
通过使用mask-rcnn的方式,将行人从这些背景中提取出来,并将其背景色统一设置成120-130,得到背景设置成120-130的行人图片;同时,构建特定场景常见背景库,通过随机的方式为行人更换背景,得到更换背景的图片;在对行人重识别模型进行训练时,将原始图片、背景设置成120-130的行人图片、以及更换背景的图片混合,使用triplet loss进行训练,在识别时,将背景设置成120-130的行人图片作为底库进行匹配。
5.根据权利要求4所述的一种行人重识别方法,其特征在于,在行人重识别数据集的构建方面,优化还包括:通过在现有行人ID的行人主体上增加透明深色掩码的方式,人为增加深色衣物行人数据的数量。
6.根据权利要求4-5任一项所述的一种行人重识别方法,其特征在于,在行人重识别数据集的构建方面,优化还包括:通过使用First order model增加同一行人的不同姿态,First order model通过一张运动中的行人图像去驱动另一张资源图像,达到模仿生成的效果,进而达到模拟多个摄像角度的效果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110542713.0A CN112966673B (zh) | 2021-05-19 | 2021-05-19 | 一种行人重识别模型的构建方法及行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110542713.0A CN112966673B (zh) | 2021-05-19 | 2021-05-19 | 一种行人重识别模型的构建方法及行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112966673A CN112966673A (zh) | 2021-06-15 |
CN112966673B true CN112966673B (zh) | 2021-07-23 |
Family
ID=76275617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110542713.0A Active CN112966673B (zh) | 2021-05-19 | 2021-05-19 | 一种行人重识别模型的构建方法及行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112966673B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113627477A (zh) * | 2021-07-07 | 2021-11-09 | 武汉魅瞳科技有限公司 | 车辆多属性识别方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596138A (zh) * | 2018-05-03 | 2018-09-28 | 南京大学 | 一种基于迁移层次网络的人脸识别方法 |
CN109035779A (zh) * | 2018-08-30 | 2018-12-18 | 南京邮电大学 | 基于DenseNet的高速公路交通流预测方法 |
CN110298831A (zh) * | 2019-06-25 | 2019-10-01 | 暨南大学 | 一种基于分块深度学习的医学图像处理系统及其方法 |
CN111259837A (zh) * | 2020-01-20 | 2020-06-09 | 福州大学 | 一种基于部位注意力的行人重识别方法及系统 |
CN111291633A (zh) * | 2020-01-17 | 2020-06-16 | 复旦大学 | 一种实时行人重识别方法及装置 |
CN111507217A (zh) * | 2020-04-08 | 2020-08-07 | 南京邮电大学 | 一种基于局部分辨特征融合的行人重识别方法 |
CN112287891A (zh) * | 2020-11-23 | 2021-01-29 | 福州大学 | 基于表情及行为特征提取的通过视频评估学习专注力的方法 |
CN112651369A (zh) * | 2020-12-31 | 2021-04-13 | 南京视察者智能科技有限公司 | 一种监控场景下行人识别的方法及装置 |
CN112651242A (zh) * | 2021-01-20 | 2021-04-13 | 重庆大学 | 一种基于内外注意力机制和可变尺度卷积的文本分类方法 |
CN112784764A (zh) * | 2021-01-27 | 2021-05-11 | 南京邮电大学 | 一种基于局部与全局注意力机制的表情识别方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9692939B2 (en) * | 2013-05-29 | 2017-06-27 | Yeda Research And Development Co. Ltd. | Device, system, and method of blind deblurring and blind super-resolution utilizing internal patch recurrence |
CN111199202B (zh) * | 2019-12-30 | 2024-04-26 | 南京师范大学 | 基于循环注意力网络的人体动作识别方法及识别装置 |
-
2021
- 2021-05-19 CN CN202110542713.0A patent/CN112966673B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596138A (zh) * | 2018-05-03 | 2018-09-28 | 南京大学 | 一种基于迁移层次网络的人脸识别方法 |
CN109035779A (zh) * | 2018-08-30 | 2018-12-18 | 南京邮电大学 | 基于DenseNet的高速公路交通流预测方法 |
CN110298831A (zh) * | 2019-06-25 | 2019-10-01 | 暨南大学 | 一种基于分块深度学习的医学图像处理系统及其方法 |
CN111291633A (zh) * | 2020-01-17 | 2020-06-16 | 复旦大学 | 一种实时行人重识别方法及装置 |
CN111259837A (zh) * | 2020-01-20 | 2020-06-09 | 福州大学 | 一种基于部位注意力的行人重识别方法及系统 |
CN111507217A (zh) * | 2020-04-08 | 2020-08-07 | 南京邮电大学 | 一种基于局部分辨特征融合的行人重识别方法 |
CN112287891A (zh) * | 2020-11-23 | 2021-01-29 | 福州大学 | 基于表情及行为特征提取的通过视频评估学习专注力的方法 |
CN112651369A (zh) * | 2020-12-31 | 2021-04-13 | 南京视察者智能科技有限公司 | 一种监控场景下行人识别的方法及装置 |
CN112651242A (zh) * | 2021-01-20 | 2021-04-13 | 重庆大学 | 一种基于内外注意力机制和可变尺度卷积的文本分类方法 |
CN112784764A (zh) * | 2021-01-27 | 2021-05-11 | 南京邮电大学 | 一种基于局部与全局注意力机制的表情识别方法及系统 |
Non-Patent Citations (4)
Title |
---|
Omni-Scale Feature Learning for Person Re-Identification;Kaiyang Zhou 等;《2019 IEEE/CVF International Conference on Computer Vision (ICCV)》;20201231;第3701-3711页 * |
一种简洁高效的加速卷积神经网络的方法;刘进锋 等;《科学技术与工程》;20141130;第14卷(第33期);第240-244页 * |
基于局部调节卷积神经网络的图像识别方法;吴禄慎 等;《计算机工程》;20181231;第44卷(第12期);第240-246页 * |
多分支协作OSNet的微结构优化研究;张磊 等;《信号处理》;20200831;第36卷(第8期);第1335-1343页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112966673A (zh) | 2021-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI805869B (zh) | 計算場景的主要分類的系統及方法 | |
CN110176027B (zh) | 视频目标跟踪方法、装置、设备及存储介质 | |
Wang et al. | Detect globally, refine locally: A novel approach to saliency detection | |
Xu et al. | Deep image matting | |
Yu et al. | High-resolution deep image matting | |
Le et al. | Deeply Supervised 3D Recurrent FCN for Salient Object Detection in Videos. | |
Johnston et al. | A review of digital video tampering: From simple editing to full synthesis | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
CN111739027B (zh) | 一种图像处理方法、装置、设备及可读存储介质 | |
US20130188866A1 (en) | Method to assess aesthetic quality of photographs | |
CN111681177B (zh) | 视频处理方法及装置、计算机可读存储介质、电子设备 | |
US9311567B2 (en) | Manifold learning and matting | |
CN101211356A (zh) | 一种基于显著区域的图像查询方法 | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN109657715B (zh) | 一种语义分割方法、装置、设备及介质 | |
JP2019028991A (ja) | 目標検出方法、目標検出装置及び画像処理装置 | |
Li et al. | Spectral-Spatial-Temporal attention network for hyperspectral tracking | |
Li et al. | Learning a coordinated network for detail-refinement multiexposure image fusion | |
CN109657538B (zh) | 基于上下文信息指导的场景分割方法和系统 | |
Obrador et al. | Towards category-based aesthetic models of photographs | |
CN111612024A (zh) | 特征提取方法、装置、电子设备及计算机可读存储介质 | |
CN103942778A (zh) | 一种主成分特征曲线分析的快速视频关键帧提取方法 | |
Wang et al. | Single-column CNN for crowd counting with pixel-wise attention mechanism | |
CN112966673B (zh) | 一种行人重识别模型的构建方法及行人重识别方法 | |
CN115482529A (zh) | 近景色水果图像识别方法、设备、存储介质及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |