CN110414430B - 一种基于多比例融合的行人重识别方法及装置 - Google Patents
一种基于多比例融合的行人重识别方法及装置 Download PDFInfo
- Publication number
- CN110414430B CN110414430B CN201910688415.5A CN201910688415A CN110414430B CN 110414430 B CN110414430 B CN 110414430B CN 201910688415 A CN201910688415 A CN 201910688415A CN 110414430 B CN110414430 B CN 110414430B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- sub
- feature vector
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于多比例融合的行人重识别方法及装置,通过对行人图像进行比例分割,然后通过深度神经网络处理得到分割后图像的特征向量,该特征向量包含了不同图像中行人的特征,能够反映分割后图像的特性;然后将各个分割后图像的特征向量进行融合,从而得到图像整体的特征向量,该整体的特征向量能够削弱遮挡对行人特征的影响,假设行人被遮挡到了左肩,它影响的仅仅是一部分分割后的子图,而还有一部分子图并没有受到影响,因此这一部分遮挡对于融合后得到的整体特征向量的改变比现有技术中的特征向量小。本发明通过融合多比例分割后图像的特征向量,可以有效地避免行人间相互遮挡或者物体遮挡部分行人而带来的重识别率不高的问题。
Description
技术领域
本发明涉及图像处理领域,具体涉及一种基于多比例融合的行人重识别方法及装置。
背景技术
随着平安城市、天网工程等项目的推进,一二线甚至三四线城市中出现越来越多的监控摄像头。监控摄像头的普及在打击犯罪和预防犯罪中起到了重要的作用。近年来,人工智能技术不断发展成熟,其在视频监控领域中逐渐发挥了巨大的作用,可为公安和安全等部门提供及时有效的监控人员信息。行人重识别(Person Re-identification),又称行人再识别,作为跨摄像头检测行人身份的技术,在实际应用场景中具有巨大的需求,可以极大地提升监控系统的智能化、便捷性以及及时性等综合能力。
现有行人重识别方法中,基于全局特征或者多局部特征方法比较多见。如申请公布号为“CN103984915A”的专利申请公开了“一种监控视频中行人重识别方法”,提出了将行人轮廓特征分割为头部、左躯干、右躯干、左腿和右腿的特征抽取方法。该方法可以在行人整体轮廓全部可见的情况下具有较优表现,但在出现物体遮挡、行人之间遮挡以及由于拍摄角度原因而导致的行人轮廓拍摄不全情况下会产生较大的误差,不适合较为复杂的识别环境。
发明内容
本发明针对现有技术的不足,从而提供一种基于多比例融合的行人重识别方法及装置,具体方案如下:
一种基于多比例融合的行人重识别方法,包括以下步骤:
获取待处理图像和待比对图像,分别提取待处理图像和待比对图像中包括行人的部分,得到第一行人图像和第二行人图像;
将所述第一行人图像分别按照第一设定比例组中的N个比例进行分割,得到N个子行人图像;将N个子行人图像分别输入深度神经网络进行处理,得到与N个子行人图像一一对应的N个子特征向量;将N个子特征向量进行线性叠加得到第一行人图像的第一特征向量;
将所述第二行人图像分别按照第二设定比例组中的M个比例进行分割,得到M个子行人图像;将M个子行人图像分别输入深度神经网络进行处理,得到与M个子行人图像一一对应的M个子特征向量;将M个子特征向量进行线性叠加得到第二行人图像的第二特征向量;
根据所述第一特征向量和第二特征向量计算所述第一行人图像和第二行人图像的相似度,根据计算得到的相似度判断所述第一行人图像中的行人和第二行人图像中的行人是否相同。
进一步的,以所述第一行人图像的左上角为原点,按照所述第一设定比例组中的N1个比例对所述第一行人图像进行分割得到N1个子行人图像,再以所述第一行人图像的右上角为原点,按照所述第一设定比例组中的N-N1个比例对所述第一行人图像进行分割得到N-N1个子行人图像;
以所述第二行人图像的左上角为原点,按照所述第二设定比例组中的M1个比例对所述第二行人图像进行分割得到M1个子行人图像,再以所述第二行人图像的右上角为原点,按照所述第二设定比例组中的M-M1个比例对所述第二行人图像进行分割得到M-M1个子行人图像。
进一步的,所述第一设定比例组与第二设定比例组相同。
进一步的,M=N=11,N1=M1=6。
进一步的,所述第一设定比例组中N1个比例为0.1、0.125、0.2、0.25、0.5和1.0,N-N1个比例为0.1、0.125、0.2、0.25和0.5。
进一步的,获取待处理图像和待比对图像的过程包括:对监控视频采用背景差分法进行筛选,得到具有运动物体的视频片段,然后提取所述视频片段中的视频帧作为所述待处理图像和待比对图像。
进一步的,根据深度学习算法分别对所述待处理图像和待比对图像进行处理,得到所述第一行人图像和第二行人图像,所述深度学习算法为YOLO算法或者SSD算法。
进一步的,所述深度神经网络为AlexNet。
进一步的,计算所述第一特征向量和第二特征向量夹角的余弦值作为所述相似度,包括:
其中,cosθ为余弦值;x1、x2…xi为所述第一特征向量的元素;y1、y2…yi为所述第二特征向量的元素。
本发明还提供了一种基于多比例融合的行人重识别装置,包括处理器和存储器,所述存储器中存储有所述处理器实现上述基于多比例融合的行人重识别方法的指令。
本发明相对现有技术具有突出的实质性特点和显著的进步,具体地说,本发明具有以下优点:
本发明通过包含有行人的行人图像进行比例分割,然后通过深度神经网络处理得到分割后图像的特征向量,该特征向量包含了不同图像中行人的特征,能够反映分割后图像的特性;然后将各个分割后图像的特征向量进行融合,从而得到图像整体的特征向量,该整体的特征向量能够削弱遮挡对行人特征的影响,假设行人被遮挡到了左肩,它影响的仅仅是一部分分割后的子图,而还有一部分子图并没有受到影响,因此这一部分遮挡对于融合后得到的整体特征向量的改变比现有技术中的特征向量小。
根据两张图像融合后的特征向量计算两张图像的相似度,从而判断两张图像中的行人是否相同。本发明通过融合多比例分割后图像的特征向量,可以有效地避免行人间相互遮挡或者物体遮挡部分行人而带来的重识别率不高的问题。
附图说明
图1是本发明实施例中方法的流程图;
图2是本发明实施例中比例分割的示意图。
具体实施方式
下面通过具体实施方式,对本发明的技术方案做进一步的详细描述。
本发明提供了一种基于多比例融合的行人重识别方法及装置,其中装置包括处理器和存储器,存储器中存储有控制指令,处理器执行这些控制指令实现本发明提供的方法,如图1是本实施例中的方法流程图,包括以下步骤:
1、摄像头视频预处理
获取不同位置摄像头视频,并运用背景差分法对摄像头采集视频进行粗筛选,提取出具有运动物体的视频片段,等间隔T提取视频片段中的视频帧,从而得到包含行人的待处理图像和待比对图像。
背景差分法用于视频中的运动目标检测,具体步骤如下:
1)进行图像的预处理:主要包括对图像进行灰度化以及滤波。图像滤波,可采用中值滤波、均值滤波以及高斯滤波等。
2)背景建模:根据前E帧图像的灰度值进行区间统计从而得到一个具有统计意义的初始背景。等间隔T提取视频片段中视频帧,在前F个视频帧之中,以第一个视频帧为初始背景,与后面的视频帧进行比较。
3)前景提取:将当前最新的图像与背景做差,即可求得背景差图,然后对该图进行二值化,最终获得运动前景区域,即实现运动图像分割,完成粗筛选。
2、基于深度学习算法的行人检测
将待处理图像和待比对图像分别输入深度神经网络,获得图像中行人位置信息,从而得到大小合适的行人图像。
具体地,深度学习算法可以选择但是不限于YOLO或者SSD(Single Shot multiboxDetector)。本实施例中以YOLO为例说明行人位置检测过程。YOLO算法英文全称是You OnlyLook Once,对粗筛选之后的视频帧进行行人检测,截取行人图片。
YOLO将输入网络的图片划分成了7*7个网格,总共49个网格,每一个网格会对应一个输出结果。这个结果就是去判断行人的中心点是否落在该网格,如果落在此网格,那这个网格就会输出特征向量,代表此网格是否有行人,以及行人中心位置和相对此网格的行人图像预估尺寸,然后采用非极大值抑制算法,选取最高概率的行人矩形框截取出来。
第一步:制作训练数据集和验证数据集。
收集多个不同地点摄像头监控视频,对监控视频进行运动目标检测,提出含有运动目标的视频片段。等间隔抽取行人视频片段中视频帧,获取行人图像,并将不同摄像头下行人图像进行识别和标注。
随机抽取80%标注数据作为训练数据集,20%数据作为验证数据集。
第二步:训练深度神经网络。
(1)设计神经网络
基于YOLO网络模型,根据实际需求修改卷积网络模块以及全连接层。实际需求是指网络模型部署在移动端或者是服务器端或者其他类似需求,不同的端对网络模型的占用内存情况以及运算速度有不同要求。
(2)模型训练
网络模型训练方法采用微调训练(Finetune Train),此方法可以解决训练数据有限的情况下模型训练不足的问题,以及提高网络模型的泛化能力。每张行人图像预设训练次数以及网络模型迭代次数,使得模型可以较好收敛。
3、多比例行人图像分割
如图2所示为多比例行人图像分割示意图,具体分割步骤如下:
将图像左上角设为原点,行人图像长为L,宽为W,按原图0.1、0.125、0.2、0.25、0.5、1.0的比例产生分割子图:
子图1左上角坐标和右下角坐标分别为(0,0),(0.1*L,0.1*W);
子图2左上角坐标和右下角坐标分别为(0,0),(0.125*L,0.125*W);
子图3左上角坐标和右下角坐标分别为(0,0),(0.2*L,0.2*W);
子图4左上角坐标和右下角坐标分别为(0,0),(0.25*L,0.25*W);
子图5左上角坐标和右下角坐标分别为(0,0),(0.5*L,0.5*W);
子图6左上角坐标和右下角坐标分别为(0,0),(1.0*L,1.0*W);
子图7左上角坐标和右下角坐标分别为(0.5*L,0),(L,0.5*W);
子图8左上角坐标和右下角坐标分别为(0.75*L,0),(L,0.75*W);
子图9左上角坐标和右下角坐标分别为(0.8*L,0),(L,0.8*W);
子图10左上角坐标和右下角坐标分别为(0.875*L,0),(L,0.875*W);
子图11左上角坐标和右下角坐标分别为(0.9*L,0),(L,0.1*W);
其中,子图6为原比例图像,其保存了原行人图像的全局特征信息,其余子图保存了行人图像的局部特征信息。同时本实施例中对待处理图像和待比对图像进行分割时采用的比例组中比例数量和大小是一样的,例如本实施例中比例数量为11个,大小分别为0.1、0.125、0.2、0.25、0.5、1.0、0.1、0.125、0.2、0.25和0.5,其中比例0.1、0.125、0.2、0.25、0.5、1.0是以图像左上角为原点进行分割的,比例0.1、0.125、0.2、0.25、0.5是以图像右上角为原点进行分割的;在其他实施例中可以根据需要对这里的比例数量和大小进行调整,优选相同。
本实施例中以OpenCV为例,可先采用OpenCV读取YOLO截取出来的原行人图像(原图长L,宽W),然后创建一个rect框,Rect rect(a,b,c,d);四个参数代表x、y、width、height,也就是对应的切割之后行人部分图,因为需要对图像进行10次切割保存,先以原行人左上角为起点开始等比例切割,依次生成子图1、子图2……子图5,每次的rect框参数a,b对应原行人图片的左上角坐标,子图1对应的rect框剩余参数为(0.1*L,0.1*W),子图2对应的剩余参数为(0.2*L,0.2*W),依次为(0.3*L,0.3*W)、(0.4*L,0.4*W)、(0.5*L,0.5*W);然后以原行人图像右上角为起点进行等比例切割,即a,b对应原行人图片的右上角坐标,所以子图7、子图8、子图9、子图10、子图11对应的剩余两个参数分别为(0.5*L,0.5*W)、(0.4*L,0.4*W)、(0.3*L,0.3*W)、(0.2*L,0.2*W)、(0.1*L,0.1*W)。
rect框确定之后,就可以使用OpenCV的剪切函数Mat image_cut=Mat(img,rect);对行人图片进行rect区域剪切,之后对结果进行保存即可,保存的结果就是多比例分割之后的行人图像。
4、基于深度学习提取行人特征
图的特征向量通俗来讲就是这张图的所有特征,深度学习算法就是将所有特征提取出来,再将特征具体化,化为一个数学向量,向量之间的相似度也就意味着两张行人图片的相似度。
将分割后的行人图像输入深度神经网络,输出每个子图对应特征向量,并将其合并为一个描述行人的整体特征向量,从而得到待处理图像的特征向量和待比对图像的特征向量。
具体的,根据预设深度神经网络对每一子图进行特征提取。预设深度神经网络可以选择但是不限于AlexNet,本实施例以AlexNet为例说明特征提取过程。
AlexNet为8层结构,其中前5层为卷积层,后面3层为全连接层;学习参数有6千万个,神经元有650000个。此网络在两个GPU上运行,在第2、4、5层均是前一层GPU内连接,第3层是与前面两层全连接,全连接是2个GPU全连接;ReLU在每个卷积层以及全连接层后。这样采用ReLU、双GPU运算来提高训练速度。
在本实施例中,行人尺寸和AlexNet网络第一层的输入尺寸不一致,AlexNet第一层输入227*227*3的图像,所以用YOLO算法截取出来的行人图像还需要进行尺寸变换,转换为AlexNet所需要的尺寸(227*227*3)。直到经过8层网络之后进行神经元全连接,输出所提取到的行人特征向量。而对于每一张行人图片来说,会有11个不同区域的子图,将每一张子图都分别按之前的步骤输入网络生成特征向量,最后将11个特征向量线性叠加组合成一个新的行人特征向量,本实施例采用线性连接的方式进行叠加,具体来说,就是对于这11个一维特征向量,在python中以list的形式存放,直接进行依次相加即可构成新的特征向量。需要说明的是在其他实施例中,分割后得到的子图数量不限于这里给出的11个,可以根据需要进行增加或减少。
第一步:制作训练数据集和验证数据集。
在手工标注的行人图像基础上,将行人图像按比例分割为多个子图,随机抽取80%标注数据作训练数据集,20%数据作为验证数据集。
第二步:训练深度神经网络。
(1)设计神经网络
基于AlexNet网络模型,根据实际需求修改卷积网络模块以及全连接层。实际需求是指网络模型部署在移动端或者是服务器端以及待检测人员数量,不同的端对网络模型的占用内存情况以及运算速度有不同要求,不同待检测人员数量对应全连接层节点数也不相同。
具体的,针对11种不同子图训练11种AlexNet网络。AlexNet最后一层全连接层表征输入子图对应特征向量。在训练网络时,网络可采用Softmax回归训练网络模型;在用AlexNet提取图片特征时,最后一层全连接层即为所需特征向量。
(2)模型训练
网络模型训练方法采用微调训练(Finetune Train),此方法可以解决训练数据有限的情况下模型训练不足以及提高网络模型的泛化能力。每张行人图像预设训练次数以及网络模型迭代次数,使得模型可以较好的收敛。
5、行人相似度计算
将每张子图对应特征向量按照顺序合并为描述一个行人的整体特征向量,并计算不同摄像头下相似度,判断是否为同一行人,即计算待处理图像的特征向量和待比对图像的特征向量的相似度。
特征向量计算相似度的方法有很多,本实施例采用余弦距离来计算行人相似度。余弦距离,也称为余弦相似度,是用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量。两个行人特征向量,它们之间的余弦距离可以用它们之间夹角的余弦值来表示:
其中,cosθ为余弦值;x1、x2…xi为待处理图像的特征向量的元素;y1、y2…yi为待比对图像的特征向量的元素。
当两个向量夹角的余弦等于1时,说明这两个向量完全一致;夹角的余弦值越接近1,说明这两个向量越相似,待处理图像和待比对图像中的行人属于同一行人的概率也越高;夹角的余弦值越小,说明这两个向量越不相似,则待处理图像和待比对图像中的行人属于同一行人的概率也越低。
原理分析
本发明可以解决部分行人被遮挡时存在误差的问题,也就是出现遮挡的行人进行相似性判断的时候,容易出现误判的情况,这种情况出现的原因是每一张行人的图像提取出一个特征向量,所以如果这张图像里面出现了大面积遮挡,那遮挡的特征也会被提取,之后进行特征向量相似性对比的时候,即使这两个行人是同一个人,也会出现相似度不高的情况,为了减少这种情况的出现,本发明提出的多比例融合的行人重识别方法,可以提取11张子图的特征,11张子图经过深度学习算法,提取出11个特征向量,然后将这11个特征向量进行线性拼接,生成一个新的特征向量,之后再进行相似性对比,设置一个合适的相似度阈值即可。
新特征向量可以有效地避免行人间相互遮挡或者物体遮挡部分行人而带来的重识别率不高的问题。因为对于一个行人来说,这11张子图包含了不同部分的行人特征,如:左肩、右肩、整体等,也就是说它可以削弱遮挡对行人特征的影响,假设行人被遮挡到了左肩,但是这一部分遮挡对于新特征向量的改变并没有之前的特征向量大,它影响的仅仅是一部分子图,而还有一部分子图并没有受到影响,经过相似性对比之后,是可以获得比不进行多比例融合算法更好地抗遮挡效果的。
需要说明的是本发明中涉及到的比例组中比例的个数、大小不限于上述实施例给出的具体数字,例如在处理待处理图像和待比对图像,对两者进行分割时,分割的比例大小不一定相同,有较小区分也属于本发明的保护范围;同样,对两种图像进行分割时,分割后得到的子图的数量也不要求完全一样,上述实施例中取一样为优选方式,在其他实现方式中分割数量不同时,即分割两种图的比例组中的比例个数不一样时,也属于本发明的保护范围。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制;尽管参照较佳实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者对部分技术特征进行等同替换;而不脱离本发明技术方案的精神,其均应涵盖在本发明请求保护的技术方案范围当中。
Claims (10)
1.一种基于多比例融合的行人重识别方法,其特征在于,包括以下步骤:
获取待处理图像和待比对图像,分别提取待处理图像和待比对图像中包括行人的部分,得到第一行人图像和第二行人图像;
将所述第一行人图像分别按照第一设定比例组中的N个比例进行分割,得到N个子行人图像;将N个子行人图像分别输入深度神经网络进行处理,得到与N个子行人图像一一对应的N个子特征向量;将N个子特征向量进行线性叠加得到第一行人图像的第一特征向量;
将所述第二行人图像分别按照第二设定比例组中的M个比例进行分割,得到M个子行人图像;将M个子行人图像分别输入深度神经网络进行处理,得到与M个子行人图像一一对应的M个子特征向量;将M个子特征向量进行线性叠加得到第二行人图像的第二特征向量;
根据所述第一特征向量和第二特征向量计算所述第一行人图像和第二行人图像的相似度,根据计算得到的相似度判断所述第一行人图像中的行人和第二行人图像中的行人是否相同。
2.根据权利要求1所述的基于多比例融合的行人重识别方法,其特征在于:以所述第一行人图像的左上角为原点,按照所述第一设定比例组中的N1个比例对所述第一行人图像进行分割得到N1个子行人图像,再以所述第一行人图像的右上角为原点,按照所述第一设定比例组中的N-N1个比例对所述第一行人图像进行分割得到N-N1个子行人图像;
以所述第二行人图像的左上角为原点,按照所述第二设定比例组中的M1个比例对所述第二行人图像进行分割得到M1个子行人图像,再以所述第二行人图像的右上角为原点,按照所述第二设定比例组中的M-M1个比例对所述第二行人图像进行分割得到M-M1个子行人图像。
3.根据权利要求2所述的基于多比例融合的行人重识别方法,其特征在于:所述第一设定比例组与第二设定比例组相同。
4.根据权利要求3所述的基于多比例融合的行人重识别方法,其特征在于:M=N=11,N1=M1=6。
5.根据权利要求4所述的基于多比例融合的行人重识别方法,其特征在于:所述第一设定比例组中N1个比例为0.1、0.125、0.2、0.25、0.5和1.0,N-N1个比例为0.1、0.125、0.2、0.25和0.5。
6.根据权利要求5所述的基于多比例融合的行人重识别方法,其特征在于,获取待处理图像和待比对图像的过程包括:对监控视频采用背景差分法进行筛选,得到具有运动物体的视频片段,然后提取所述视频片段中的视频帧作为所述待处理图像和待比对图像。
7.根据权利要求6所述的基于多比例融合的行人重识别方法,其特征在于:根据深度学习算法分别对所述待处理图像和待比对图像进行处理,得到所述第一行人图像和第二行人图像,所述深度学习算法为YOLO算法或者SSD算法。
8.根据权利要求7所述的基于多比例融合的行人重识别方法,其特征在于:所述深度神经网络为AlexNet。
10.一种基于多比例融合的行人重识别装置,其特征在于:包括处理器和存储器,所述存储器中存储有所述处理器实现权利要求1至权利要求9任意一项权利要求所述的基于多比例融合的行人重识别方法的指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910688415.5A CN110414430B (zh) | 2019-07-29 | 2019-07-29 | 一种基于多比例融合的行人重识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910688415.5A CN110414430B (zh) | 2019-07-29 | 2019-07-29 | 一种基于多比例融合的行人重识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110414430A CN110414430A (zh) | 2019-11-05 |
CN110414430B true CN110414430B (zh) | 2022-10-04 |
Family
ID=68363866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910688415.5A Active CN110414430B (zh) | 2019-07-29 | 2019-07-29 | 一种基于多比例融合的行人重识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110414430B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111738062B (zh) * | 2020-05-09 | 2024-05-17 | 广智微芯(扬州)有限公司 | 一种基于嵌入式平台的自动再识别系统 |
CN112949480A (zh) * | 2021-03-01 | 2021-06-11 | 浙江大学 | 一种基于yolov3算法的铁轨弹条检测方法 |
CN113129306B (zh) * | 2021-05-10 | 2022-12-02 | 电子科技大学成都学院 | 一种基于深度学习的遮挡物体分割求解方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017101434A1 (zh) * | 2015-12-16 | 2017-06-22 | 深圳大学 | 一种多摄像机间人体目标再识别的方法及系统 |
CN110046599A (zh) * | 2019-04-23 | 2019-07-23 | 东北大学 | 基于深度融合神经网络行人重识别技术的智能监控方法 |
-
2019
- 2019-07-29 CN CN201910688415.5A patent/CN110414430B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017101434A1 (zh) * | 2015-12-16 | 2017-06-22 | 深圳大学 | 一种多摄像机间人体目标再识别的方法及系统 |
CN110046599A (zh) * | 2019-04-23 | 2019-07-23 | 东北大学 | 基于深度融合神经网络行人重识别技术的智能监控方法 |
Non-Patent Citations (1)
Title |
---|
多特征融合与独立测度学习的行人再识别;齐美彬等;《中国图象图形学报》;20161116(第11期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110414430A (zh) | 2019-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106874894B (zh) | 一种基于区域全卷积神经网络的人体目标检测方法 | |
CN108875732B (zh) | 模型训练与实例分割方法、装置和系统及存储介质 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
Singh et al. | Muhavi: A multicamera human action video dataset for the evaluation of action recognition methods | |
CN112381075B (zh) | 一种机房特定场景下进行人脸识别的方法及系统 | |
CN110414430B (zh) | 一种基于多比例融合的行人重识别方法及装置 | |
CN111199230B (zh) | 目标检测的方法、装置、电子设备及计算机可读存储介质 | |
CN111723773B (zh) | 遗留物检测方法、装置、电子设备及可读存储介质 | |
CN111402298A (zh) | 基于目标检测与轨迹分析的粮库视频数据压缩方法 | |
Gonzalez-Gonzalez et al. | Wavelet-based smoke detection in outdoor video sequences | |
CN110532959B (zh) | 基于双通道三维卷积神经网络的实时暴力行为检测系统 | |
CN112115775A (zh) | 一种基于计算机视觉的监控场景下的吸烟行为检测方法 | |
Huang et al. | Deepfake mnist+: a deepfake facial animation dataset | |
Zhu et al. | Towards automatic wild animal detection in low quality camera-trap images using two-channeled perceiving residual pyramid networks | |
Cao et al. | Learning spatial-temporal representation for smoke vehicle detection | |
Wang et al. | Human detection based on improved mask R-CNN | |
CN115620090A (zh) | 模型训练方法、低照度目标重识别方法和装置、终端设备 | |
Mi et al. | Research on a fast human-detection algorithm for unmanned surveillance area in bulk ports | |
CN109359530B (zh) | 一种智能视频监控方法及装置 | |
Yang et al. | Combining Gaussian mixture model and HSV model with deep convolution neural network for detecting smoke in videos | |
CN113052139A (zh) | 一种基于深度学习双流网络的攀爬行为检测方法及系统 | |
CN111275733A (zh) | 基于深度学习目标检测技术实现多艘船舶快速跟踪处理的方法 | |
CN115661611A (zh) | 一种基于改进Yolov5网络的红外小目标检测方法 | |
Bhattacharya | HybridFaceMaskNet: A novel face-mask detection framework using hybrid approach | |
Kim et al. | Coarse-to-fine deep learning of continuous pedestrian orientation based on spatial co-occurrence feature |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |