CN110070027A - 基于智能物联网系统的行人重识别方法 - Google Patents

基于智能物联网系统的行人重识别方法 Download PDF

Info

Publication number
CN110070027A
CN110070027A CN201910308543.2A CN201910308543A CN110070027A CN 110070027 A CN110070027 A CN 110070027A CN 201910308543 A CN201910308543 A CN 201910308543A CN 110070027 A CN110070027 A CN 110070027A
Authority
CN
China
Prior art keywords
pedestrian
depth
image
residual block
recognition methods
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910308543.2A
Other languages
English (en)
Inventor
江斌
任强
戴菲
桂冠
王伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Post and Telecommunication University
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201910308543.2A priority Critical patent/CN110070027A/zh
Publication of CN110070027A publication Critical patent/CN110070027A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于智能物联网系统的行人重识别方法,包括(1)制作行人重识别数据集;(2)利用深度残差网络训练行人重识别模型;(3)通过多个摄像头从不同角度实时采集行人连续帧图像发送至服务器,并对采集到的行人连续帧图像采用深度残差网络进行图像特征提取;(4)将图像特征与步骤2中所得到的模训练型进行匹配,识别行人身份。利用深度残差网络提取行人数据集的图像特征并训练行人重识别模型,提高了治安监控的准确性以及识别率,同时加快了运行速率。该发明可以应用于视频监控的多个场合,包括银行、商场、企业等,相比于传统监控方案,极大地提升了监控系统的智能性和安全性。

Description

基于智能物联网系统的行人重识别方法
技术领域
本发明涉及一种行人重识别方法,尤其涉及一种基于智能物联网系统和深度学习的行人重识别方法。
背景技术
随着人工智能技术的迅猛发展和视频监控设备的日益普及,智能监控以其准确、及时和功能丰富而受到社会各界的广泛关注。目前,很多公共场合都布有监控,视频监控已经成为继数字电视、视频会议之后的又一个重大视频应用,而且日益成为“体量”最大的一个视频应用系统。治安管理监控作为视频监控领域的一个重要应用,其现有技术存在视频监控功能单一,记录繁多,智能监控在不同角度不同光照条件下对于行人图像的特征学习率不高等诸多缺点,如何提高智能视频监控的特征提取率,如何使得智能监控在复杂环境下训练学习所得的模型过/欠拟合等问题面临重大挑战。随着未来安防系统性价比的不断提高和数字高清化、智能化等技术的发展,市场应用空间将不断增长。
智能视频分析技术是监控技术第三个发展阶段“机器眼+机器脑”中的“机器脑”部分,利用机器,将“人脑”对于视频画面的监控判断,进行数据分析提炼特征形成算法植入机器,形成“机器脑”对视频画面自动检测分析,并作出报警或其他动作。它借助计算机强大的数据处理能力过滤掉视频画面无用或干扰信息、自动分析、抽取视频源中的关键有用信息,从而使摄像机不但成为人的眼睛,也使计算机成为人的大脑。现有的智能视频分析行人的方案存在以下问题:1、现有的方案下,多摄像头实时监控但识别特征无法共享;2、现有的行人识别算法只能对行人进行有限个主要特征的学习,而对细节特征点的提取还远远不足以满足现实中行人图像识别精度的要求;3、为了提高识别精度而提出的使用深度卷积网络训练模型的方案,在复杂环境条件下由于提取特征点过多,会导致训练出来的模型过拟合。
发明内容
发明目的:针对以上问题,本发明提出一种基于智能物联网系统的行人重识别方法,能够提升行人重识别的精确度,有效提高安防监控系统对行人图像的识别能力。
技术方案:本发明所采用的技术方案是一种基于智能物联网系统的行人重识别方法,包括以下步骤:
(1)制作行人重识别数据集;
所述步骤1包括以下过程:
(11)将多个国际公认的行人重识别数据集进行混合打包,所述行人重识别数据集包括market1501、cuhk03、dukeMTMC和mars数据集;
(12)将数据集中的图像数据归一化预处理为256*128像素大小。
(2)利用深度残差网络训练行人重识别模型;
其中,所述步骤2包括以下过程:
(21)将预处理后的图像数据作为输入,经过7╳7╳64的卷积核运算输出;
(22)经过3╳3的最大池化层;
(23)依次经过深度逐渐增加的多个残差块组进行特征值深度学习;其中每个残差块组由连续的若干单个残差块组成,具体是由3个深度为256的残差块、4个深度为512的残差块、6个深度为1024的残差块以及3个深度为2048的残差块顺序组成。
进一步的,所述的单个残差块中包括三层卷积神经网络,第一层含有1╳1卷积核,第二层含有3╳3卷积核,第三层含有1╳1卷积核。先降维再升维的处理可以提高计算效率。
(24)经过平均池化层输出与目标人数相等的图片特征节点。
(3)通过多个摄像头从不同角度实时采集行人连续帧图像发送至服务器,并对采集到的行人连续帧图像采用深度残差网络进行图像特征提取;
(4)将图像特征与步骤2中所得到的模训练型进行匹配,识别行人身份。
本发明还提供了一种应用于行人重识别方法的智能物联网系统,其特征在于:该系统包括中心服务器、交换机、路由器和多个用于采集行人视频图像的摄像头;中心服务器与交换机相连接,通过局域网内的路由器与摄像头通信,实时获取监控区域的连续帧图像,并对实时图像进行行人重识别。
有益效果:本发明将深度学习和特征识别相结合应用于安防监控,针对拓展安防视频监控功能做出创新优化。与现有技术相比有以下优点:第一,搭设通过交换机和路由器连接实验室局域网的中心服务器的多摄像头监控系统,所有的图片和视频记录都上传至服务器上进行处理,解决了多摄像头识别特征共享的问题;第二,利用深度残差网络提取行人数据集的图像特征并训练行人重识别模型,提高了治安监控的准确性以及识别率,同时加快了运行速率;第三,训练行人重识别模型时采用混合数据集,提高了模型精度;第四,本发明所述的残差网络中,单个残差块采用了3层神经网络结构,先降维再升维的处理方法减少了运算过程中的冗余参数,提高了运算效率。该发明可以应用于视频监控的多个场合,包括银行、商场、企业等,相比于传统监控方案,极大地提升了监控系统的智能性和安全性。
附图说明
图1是本发明所述智能物联网系统结构框图;
图2是本发明所述行人重识别方法流程图;
图3是本发明所述残差块示意图;
图4是本发明所述深度残差网络训练模型的过程示意图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步的说明。
本发明所述的基于智能物联网系统如图1所示,包括中心服务器、交换机、路由器和多个1080P网络摄像头。将4台摄像头安装在试验区域的不同位置,用于采集行人视频图像。4台摄像头就近接入网络端口,通过局域网与路由器相连,连接着服务器的交换机连通路由器,摄像头通过调用OpenCV实时获取监控区域的连续帧,帧速率可达30帧/秒。获取的帧图像通过局域网实时传输到中心服务器上进行行人重识别。中心服务器的设备配置如下,CPU采用Intel Core i7-6800K,内存32G DDR4,GPU采用Nvidia GetForce GTX1080Ti,操作系统为Ubuntu16.04LTS,深度学习框架为Pytorch开源框架。
本发明所述的行人重识别方法的流程图如图2所示,包括以下步骤:
(1)制作行人重识别数据集。
在训练行人识别模型前,为了提高模型的精确度和泛化能力,将多个国际公认的行人重识别数据集包括market1501,cuhk03,dukeMTMC和mars进行了混合打包,将数据归一化预处理为256*128像素大小的行人图像,训练集包括行人2000人(其中选自market1501的500人,cuhk03的400人,dukeMTMC的500人,Mars的600人),共有40000张行人图像数据作为训练集。测试集包括行人1000人(其中选自market1501的250人,cuhk03的200人,dukeMTMC的250人,Mars的300人),共有20000张行人图像数据作为测试集。通过研究测试的结果,发现改变数据集的像素大小会对模型训练与测试产生影响。经过反复地测试,得出结论:归一化预处理为256*128像素大小的行人图像所得到的模型,它的精确度和鲁棒性是最优的。像素如果低于256*128像素,则在market1501和mars的行人图像识别上准确率会有所降低;像素如果高于256*128像素,则在cuhk03和dukeMTMC的行人图像识别上准确率会有所降低。我们猜测可能是因为当改变了原图像的像素后,原图像的一些特征信息可能会由于像素变化而发生改变,就如同我们放大一张照片后,照片上人物的细节会变得模糊。所以我们在制作训练集和测试集的时候,需要考虑到多种数据集的像素大小,取一个相对折中的大小作为行人数据集的统一规格,对于上述的混合打包数据集,该大小即为256*128像素。
(2)利用深度残差网络训练行人重识别模型
简单堆叠过多的神经网络会导致梯度消失或爆炸以及精度退化等问题,但在处理行人重识别问题时,由于数据量很大,又需要较深的网络去更加精确地提取行人图像特征。由此本发明提出了残差网络快速通道的思想来避免梯度消失的问题。深度残差网络由很多个残差块组成,单个残差块示意图如图3(b)。图3(a)是传统残差网络残差块的结构,它是一个两层的神经网络,在l层进行激活,得到al+1,再次进行激活,两层之后得到al+2。激活过程首先从al开始,进行线性激活,根据公式:
zl+1=Wl+1al+bl+1
上式中al代表l层的激活层输入样本矩阵,zl+1代表l+1层的激活层输出。通过al算出zl+1,即al乘以权重矩阵Wl+1,再加上偏差因子bl+1,然后zl+1再通过ReLU非线性激活函数得到al+1,迭代入上述公式可以得到zl+2,这是特征提取的主路径。
而我们在深度神经网络中处理行人图片时,采用针对图3(a)改进后的图3(b)所示的残差块。不仅将输入al直接向后传输,拷贝到神经网络的深层,每两层形成一个捷径,与ReLU非线性激活函数g的输入相加,即:
al+2=g(zl+2+al)
其中,g代表ReLU非线性激活函数,al+2代表残差块的输出,zl+2代表l+2层的激活层输出。而且在获得zl+2的过程采用了先经过1╳1╳64卷积核降维,然后经过3╳3╳64的卷积核升维的方法,可以减少运算过程中的冗余参数,提高运算效率。
利用深度残差网络训练模型的过程如图4所示。在达到相同感受野的情况下,卷积神经网络的深度越小,所需要的参数和计算量越少,所以采用了深度层层递进的计算方法来减少运算量。并且通过数据实验,对每一层卷积的参数及层数进行了实验优化,得到了相对最优的识别结果所对应的深度残差网络训练模型如下。将步骤1制作的归一化成256*128矩阵的行人图片数据集作为输入数据,第一层经过一个7╳7,深度64的卷积神经网络,输出矩阵再经过一个3╳3的最大池化层后依次进入连续的三个残差块,输出矩阵缩小一半。所述单个残差块的结构如图3(b)所示,其中包括三层卷积神经网络,第一层包含有1╳1╳64卷积核,第二层包含有3╳3╳64卷积核,第三层包含有1╳1╳256卷积核。然后依次经过连续的四个结构相同、深度增加的残差块,输出矩阵再次缩小一半,其中单个残差块中第一、二层中卷积核的深度为128,第三层中深度为512。再然后依次进入连续的六个残差块,输出矩阵再次缩小一半,其中单个残差块中第一、二层中卷积核的深度为256,第三层中深度为1024。最后是依次进入连续的三个残差块,输出矩阵再次缩小一半,其中单个残差块中第一、二层中卷积核的深度为512,第三层中深度为2048。卷积结束后,再经过一个平均池化层后全连接输出1000个节点表示行人图片的特征。一般情况下,最后一个输出层的节点个数与分类任务的目标数相等。那么对于每一个行人图片样例,深度残差神经网络可以得到一个1000维的数组作为输出结果,数组中每一个维度会对应一个类别。在最理想的情况下,如果一个样本属于k,那么这个类别所对应的的输出节点的输出值应该为1,而其他节点的输出都为0,即[0,0,1,0,….0,0],这个数组也就是样本的Label,是神经网络最期望的输出结果。但实际训练中,由于样本误差,基本不存在节点完全对应的情况,这也是训练的模型没办法做到100%识别的原因之一。通过以上过程,就可以实现即使在行人重识别问题当中构建深度的神经网络,也不会出现梯度消失和性能下降的问题。
(3)多个摄像头从不同角度实时采集行人连续帧图像发送至服务器,并对采集到的行人连续帧图像采用深度残差网络进行图像特征提取,其图像特征提取的步骤与步骤2相同。
(4)将图像特征与步骤2中所得到的模训练型进行匹配,识别行人身份。即经过模型计算的图像特征值与原模型中训练得到的特征值进行比较,计算损失值。本例中计算损失值的算法为交叉熵损失,如果损失小于某个定值,说明匹配成功,成功识别目标。所述定值可调。其他诸如三重损失的算法同样可以计算该损失值。

Claims (6)

1.一种基于智能物联网系统的行人重识别方法,其特征在于,包括以下步骤:
(1)制作行人重识别数据集;
(2)利用深度残差网络训练行人重识别模型;
(3)通过多个摄像头从不同角度实时采集行人连续帧图像发送至服务器,并对采集到的行人连续帧图像采用深度残差网络进行图像特征提取;
(4)将图像特征与步骤2中所得到的模训练型进行匹配,识别行人身份。
2.根据权利要求1所述的基于智能物联网系统的行人重识别方法,其特征在于:所述步骤1包括以下过程:
(1)将多个国际公认的行人重识别数据集进行混合打包,所述行人重识别数据集包括market1501、cuhk03、dukeMTMC和mars数据集;
(2)将数据集中的图像数据归一化预处理为256*128像素大小。
3.根据权利要求1所述的基于智能物联网系统的行人重识别方法,其特征在于:所述步骤2包括以下过程:
(1)将预处理后的图像数据作为输入,经过7╳7╳64的卷积核运算输出;
(2)经过3╳3的最大池化层;
(3)依次经过深度逐渐增加的多个残差块组进行特征值深度学习;
(4)经过平均池化层输出与目标人数相等的图片特征节点。
4.根据权利要求3所述的基于智能物联网系统的行人重识别方法,其特征在于:步骤3中所述的深度逐渐增加的多个残差块组,每个残差块组由连续的若干单个残差块组成,具体是由3个深度为256的残差块、4个深度为512的残差块、6个深度为1024的残差块以及3个深度为2048的残差块顺序组成。
5.根据权利要求4所述的基于智能物联网系统的行人重识别方法,其特征在于:所述的单个残差块中包括三层卷积神经网络,第一层含有1╳1卷积核,第二层含有3╳3卷积核,第三层含有1╳1卷积核。
6.一种应用于行人重识别方法的智能物联网系统,其特征在于:该系统包括中心服务器、交换机、路由器和多个用于采集行人视频图像的摄像头;中心服务器与交换机相连接,通过局域网内的路由器与摄像头通信,实时获取监控区域的连续帧图像,并对实时图像进行行人重识别。
CN201910308543.2A 2019-04-17 2019-04-17 基于智能物联网系统的行人重识别方法 Pending CN110070027A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910308543.2A CN110070027A (zh) 2019-04-17 2019-04-17 基于智能物联网系统的行人重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910308543.2A CN110070027A (zh) 2019-04-17 2019-04-17 基于智能物联网系统的行人重识别方法

Publications (1)

Publication Number Publication Date
CN110070027A true CN110070027A (zh) 2019-07-30

Family

ID=67367962

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910308543.2A Pending CN110070027A (zh) 2019-04-17 2019-04-17 基于智能物联网系统的行人重识别方法

Country Status (1)

Country Link
CN (1) CN110070027A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427904A (zh) * 2019-08-08 2019-11-08 高冬法 基于行人重识别的商场监控系统、方法及装置
CN113093162A (zh) * 2021-04-14 2021-07-09 国能智慧科技发展(江苏)有限公司 基于aiot与视频联动的人员轨迹追踪系统
CN113255601A (zh) * 2021-06-29 2021-08-13 深圳市安软科技股份有限公司 一种车辆重识别模型的训练方法、系统及相关设备
CN113627553A (zh) * 2021-08-18 2021-11-09 国网福建省电力有限公司营销服务中心 一种用于电能表异常标签识别的图像识别方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760859A (zh) * 2016-03-22 2016-07-13 中国科学院自动化研究所 基于多任务卷积神经网络的网纹人脸图像识别方法及装置
CN108171184A (zh) * 2018-01-03 2018-06-15 南京理工大学 基于Siamese网络的用于行人重识别的方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760859A (zh) * 2016-03-22 2016-07-13 中国科学院自动化研究所 基于多任务卷积神经网络的网纹人脸图像识别方法及装置
CN108171184A (zh) * 2018-01-03 2018-06-15 南京理工大学 基于Siamese网络的用于行人重识别的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
文常保 等: "《人工神经网络理论及应用》", 31 March 2019 *
李姣: "多摄像头网络中行人再识别算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427904A (zh) * 2019-08-08 2019-11-08 高冬法 基于行人重识别的商场监控系统、方法及装置
CN110427904B (zh) * 2019-08-08 2022-03-04 南京理工大学 基于行人重识别的商场监控系统、方法及装置
CN113093162A (zh) * 2021-04-14 2021-07-09 国能智慧科技发展(江苏)有限公司 基于aiot与视频联动的人员轨迹追踪系统
CN113093162B (zh) * 2021-04-14 2022-04-01 国能智慧科技发展(江苏)有限公司 基于aiot与视频联动的人员轨迹追踪系统
CN113255601A (zh) * 2021-06-29 2021-08-13 深圳市安软科技股份有限公司 一种车辆重识别模型的训练方法、系统及相关设备
CN113627553A (zh) * 2021-08-18 2021-11-09 国网福建省电力有限公司营销服务中心 一种用于电能表异常标签识别的图像识别方法及系统
CN113627553B (zh) * 2021-08-18 2024-03-15 国网福建省电力有限公司营销服务中心 一种用于电能表异常标签识别的图像识别方法及系统

Similar Documents

Publication Publication Date Title
CN110070027A (zh) 基于智能物联网系统的行人重识别方法
Gao et al. Salient object detection in the distributed cloud-edge intelligent network
CN113936339B (zh) 基于双通道交叉注意力机制的打架识别方法和装置
CN107480178B (zh) 一种基于图像与视频跨模态比对的行人重识别方法
CN108830252A (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN107273872A (zh) 用于图像或视频中行人重识别的深度判别网络模型方法
CN109993269B (zh) 基于注意力机制的单张图像人群计数方法
CN110232361B (zh) 基于三维残差稠密网络的人体行为意图识别方法与系统
CN110222718B (zh) 图像处理的方法及装置
CN111582092B (zh) 一种基于人体骨架的行人异常行为检测方法
CN110427881B (zh) 基于人脸局部区域特征学习的跨库微表情识别方法及装置
CN113177612B (zh) 一种基于cnn少样本的农业病虫害图像识别方法
CN111062278A (zh) 基于改进残差网络的异常行为识别方法
CN109271912A (zh) 视频分类方法、装置、电子设备及存储介质
CN116052218B (zh) 一种行人重识别方法
CN111353399A (zh) 篡改视频检测方法
CN111723600A (zh) 一种基于多任务学习的行人重识别特征描述子
Huang et al. Efficient detection method of pig-posture behavior based on multiple attention mechanism
CN111881803B (zh) 一种基于改进YOLOv3的畜脸识别方法
US11881020B1 (en) Method for small object detection in drone scene based on deep learning
CN115719457A (zh) 一种基于深度学习的无人机场景下小目标检测的方法
CN111046213A (zh) 一种基于图像识别的知识库构建方法
Hassan et al. Enhanced dynamic sign language recognition using slowfast networks
CN114359578A (zh) 病虫害识别智能终端应用方法及系统
CN115393788A (zh) 一种基于增强全局信息注意力的多尺度监控行人重识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190730

RJ01 Rejection of invention patent application after publication