CN110363799B - 人机共存环境下基于视觉的多运动人体目标跟踪方法 - Google Patents

人机共存环境下基于视觉的多运动人体目标跟踪方法 Download PDF

Info

Publication number
CN110363799B
CN110363799B CN201910447570.8A CN201910447570A CN110363799B CN 110363799 B CN110363799 B CN 110363799B CN 201910447570 A CN201910447570 A CN 201910447570A CN 110363799 B CN110363799 B CN 110363799B
Authority
CN
China
Prior art keywords
target
frame
model
mask
pruning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910447570.8A
Other languages
English (en)
Other versions
CN110363799A (zh
Inventor
欧林林
金燕芳
禹鑫燚
来磊
张铭杨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201910447570.8A priority Critical patent/CN110363799B/zh
Publication of CN110363799A publication Critical patent/CN110363799A/zh
Application granted granted Critical
Publication of CN110363799B publication Critical patent/CN110363799B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

人机共存环境下基于视觉的多运动人体目标跟踪方法,首先利用Mask R‑CNN模型对每帧图像进行目标检测与识别;在网络模型构建的过程中,对共享卷积层做剪枝操作,通过构造一个损失评估函数来衡量修剪前后的模型变化,过程中依次修剪每个非零卷积核,并记录损失评估函数值。根据每个卷积核的损失函数值对参数进行贡献度排序,删除贡献度低的参数;对修剪后的神经网络模型进行小型训练,微调神经网络参数;重复修剪与微调步骤,在达到指标后停止修剪。图像经Mask R‑CNN模型,输出图像中多运动人体的检测识别结果,包括代表人体目标的目标矩形框参数等。最后,利用目标矩形框的直方图特征,对上下帧图像进行目标匹配,完成多运动人体目标的跟踪。

Description

人机共存环境下基于视觉的多运动人体目标跟踪方法
技术领域
本发明实施涉及多运动目标跟踪领域的研究,针对人机共存环境中的多运动人体目标,使用压缩卷积神经网络实现多人的检测与识别,再根据识别结果进行多人运动的轨迹跟踪。
背景技术
多运动目标的跟踪技术是近年来计算机视觉领域中备受关注的前沿方向,这种技术包括对运动目标的检测、目标的识别和目标的数据关联等。目前,基于图像序列的运动目标跟踪技术可实现计算机观察和理解动态环境中的目标运动行为,该技术在未来智能化安全监控领域中的应用有着代表性。其中,最潜在的应用之一在于敏感场合的实时、主动的安全监控,如人机共存环境中人体的异常行为和危险行为的检测。
在人机共存的环境中,人的安全性是首先要考虑的因素。传统机器人在其工作的区域通常设有真实或虚拟的障碍物,使机器人和人之间产生物理空间上的隔离,这是保障人安全最简单而有效的方式。但在人机共存的环境中,机器与人共享同一时间下的工作空间和生产活动,利用人类的认知和决策来发挥机器打承载、高精度执行的优势。而为了保证人的安全,对工作空间中的多运动人体目标进行跟踪,是解决人机安全的基础问题。通过基于视觉的多运动人体目标跟踪技术,可实现人机共存环境中对人体的运动方向和运动轨迹的监测,进而采取对应的安全保障机制。
在早期的多目标跟踪中,李春生等提出了一种用直方图统计与多帧平均混合进行背景更新,再利用目标特征参数进行匹配的跟踪方法,该方法体现了手工特征提取中的弊端,目标检测精度低,且以位置信息为匹配指标,在目标重叠被遮挡时易出现目标丢失或错位的现象(李春生,龚晓峰.视频序列中的运动目标检测与跟踪[J].现代电子技术,2009,32(23):149-151.)。而随着深度学习在计算机视觉领域的发展,卷积神经网络被大量应用于图像处理的研究。张庆辉等提出了一种基于卷积神经网络的目标检测方法,利用卷积神经网络提取图像特征,再通过Softmax算法进行分类,训练得到卷积神经网络模型。该方法无需手动选取特征,特征分类效果强,检测精度大幅度提高;但同时需要大量样本,计算量和存储量大,冗余参数过多,且适用性不高(张庆辉;万晨霞;卞山峰.基于卷积神经网络的空中目标检测方法[P].中国专利:CN109101926A,2018-08-14.)。针对经典卷积网络的缺点,Ross Girshick等人提出预先提取一系列候选区域,在候选区域上进行特征的提取的目标检测方法,该方法奠定了R-CNN系列方法的基础,并衍生出更加完美的Fast R-CNN,FasterR-CNN和Mask R-CNN目标检测模型(R.Girshick,J.Donahue,T.Darrell,and J.Malik.Richfeature hierarchies for accurate object detection and semanticsegmentation.In CVPR,2014.)。R-CNN系列模型在目标检测与识别上有着最高的图像识别精确度,但卷积网络模型都具有大量的层级和节点,所用到的参数达到几百万甚至几十亿,网络的这种计算密集性和存储密集性,会带来巨大的计算和内存消耗,不能满足快速、实时应用的需求;难以应用到计算量小、存储空间小的移动设备上。而许多的研究表明,卷积神经网络中有相当一部分的神经元和连接权重对模型的性能没有实质性的影响。
发明内容
本发明克服现有技术的缺点,提出一种高精度、易实现、适用性高的,人机共存环境下基于视觉的多运动人体目标跟踪方法。
本发明以图像序列作为输入,首先利用Mask R-CNN模型对每帧图像进行目标检测与识别,该模型由共享卷积层、区域候选网络层(RPN)、全卷积网络层(FCN)和全连接层组成,网络模型结构图见附图1。在网络模型构建的过程中,对共享卷积层做剪枝操作,通过构造一个损失评估函数来衡量修剪前后的模型变化,过程中依次修剪每个非零卷积核,并记录损失评估函数值。根据每个卷积核的损失函数值对参数进行贡献度排序,删除贡献度低的参数;对修剪后的神经网络模型进行小型训练,微调神经网络参数;重复修剪与微调步骤,在达到指标后停止修剪。图像经Mask R-CNN模型,输出图像中多运动人体的检测识别结果,包括代表人体目标的目标矩形框参数等。最后,利用目标矩形框的直方图特征,对上下帧图像进行目标匹配,完成多运动人体目标的跟踪。
人机共存环境下基于视觉的多运动人体目标跟踪方法,具体步骤如下:
步骤1:构建压缩Mask R-CNN模型;
步骤2:进行图像序列中第k帧输入,并判断是否为初始帧;若为初始帧,则进入步骤3,若为非初始帧,则进入步骤4;
步骤3:将当前帧k中检测到的多个人体目标分别标记ID;令k=k+1,进入步骤2;
步骤4:使用直方图特征匹配法,实现多人运动的跟踪;
步骤5:k=k+1,迭代步骤2。
其中,步骤1中所述的构建压缩Mask R-CNN模型,具体步骤如下:
步骤1-1:导入预训练好的大型Mask R-CNN模型;
步骤1-2:使用Mask R-CNN模型共享卷积层中的每一个激励函数输出和对应梯度值乘积之和作为模型代价函数C;
步骤1-3:依次修剪共享卷积层中的卷积核,即将该卷积核hi赋值为0,计算修剪前后的损失ΔC(hi),作为贡献度排序指标;
步骤1-4:根据各卷积核hi对应的损失ΔC(hi)进行贡献度排序,修剪贡献度低的参数;
步骤1-5:对修剪后的模型,在数据集上重新进行小型的训练,完成神经网络模型的微调;
步骤1-6:将微调后的神经网络模型用于图像目标检测,判断各项指标是否达到预期目标;若是,结束剪枝;否则迭代步骤3;
其中步骤4中所述直方图特征匹配,具体步骤如下:
步骤4-1:计算当前k帧中目标i的直方图特征向量
Figure BDA0002074120120000041
与k-1帧中所有目标j的直方图特征向量
Figure BDA0002074120120000042
然后将目标i的
Figure BDA0002074120120000043
与k-1帧中所有目标j的直方图特征向量
Figure BDA0002074120120000044
余弦相似度计算,得到j个相似度计算结果。
由于彩色图片由R、G、B三色通道,且每一个通道以1X256维向量表示。因此,可用1X768维向量来描述任意像素点的颜色。按照行列搜索代表目标的矩形框,用n表示矩形框内任意一个像素点出现的次数,则第k帧中,目标i的直方图特征向量以目标矩形框的长L与宽W归一化后的特征向量
Figure BDA0002074120120000045
可表示为:
Figure BDA0002074120120000046
Figure BDA0002074120120000047
Figure BDA0002074120120000048
的余弦相似度计算公式为:
Figure BDA0002074120120000049
步骤4-2:选取最大的余弦相似度MAXO;若大于预先设定阈值,将目标i与MAXO对应的k-1帧目标标记为同一目标ID,进入步骤4-4;否则进入步骤4-3;
步骤4-3:判定目标i为区别于前一帧的新目标,并将新目标与用于记录一段时间内已丢失目标特诊参数的缓存区的各目标进行余弦相似度计算,选取计算结果中的最大值MAXc。若大于预先设定阈值,将目标i标记为缓存区中对应的目标ID,否则标记新目标ID;
步骤4-4:判定当前k帧目标是否已全部标记完毕。若是,进入步骤4-5;若k帧目标未全部标记完毕,令i=i+1,迭代步骤4-1;
步骤4-5:比较k帧与k-1帧中的ID个数。若k帧中的ID个数小于k-1帧,则将未被匹配来自k-1帧的目标特征参数放入缓存区中。
优选地,:步骤2中,对训练好的Mask R-CNN模型,定义模型损失函数:
ΔC(hi)|=|C(hi=0)-C(hi)| (1.3)
利用泰勒一阶展开:
Figure BDA0002074120120000051
计算将一个卷积核hi置0后,模型损失函数值的大小;再根据模型损失函数值进行卷积核的贡献度排序,从而进行贡献度低卷积核的裁剪。
综上所述,本发明的优点在于,原始Mask R-CNN模型已具有高精度的检测效果,在此基础之上进行神经网络的剪枝,即减少了神经网络的计算量和存储量,又保持了原方法的高性能不变;且在剪枝过程中,每次迭代只裁剪一个参数,避免参数之间的依赖性造成的模型性能损失;同样使用代价函数损失的绝对值作为优化目标,保证剪枝后的模型在性能上不会有太大的损失;而且目前所有的排序方法都可以用这种损失函数来评估。其次,在精确识别的目标上进行多目标跟踪,兼顾了多目标跟踪的跟踪精度和跟踪速度,实用性和适用性较强。
附图说明
图1是本发明中Mask R-CNN模型的结构图;
图2是本发明中剪枝算法的流程图;
图3是本发明中的多目标跟踪流程图;
图4是本发明中的人机共存环境模拟图;
图5是本发明Mask R-CNN模型单帧图像输出效果。
具体实施方式
下面结合附图进一步说明本发明。
本发明是人机共存环境下基于视觉的多运动人体目标跟踪方法,具体过程如下:
步骤1:搭建基于Caffe2平台的运行环境;构建压缩Mask R-CNN模型;模型主要由共享卷积层,候选区域生成RPN层,全卷积神经网络FCN层组成;
步骤2:在实验室室内环境下,利用普通摄像机获取机器人工作空间内的视觉信息;将视频以图像序列形式单帧输入,对于输入的第k帧图像,首先在共享卷积层做全图特征提取,然后将得到的特征图送入RPN,生成候选区域框;使用双线性插值来找到候选区域对应的特征,即候选区域的对齐操作;将候选区域对应特征分别输入FCN网络层和FC全连接层,经FCN层输出Mask预测图,经FC全连接层输出检测目标位置与分类结果,包括人体目标矩形框的长度L、宽度W及左上角像素点位置,输出效果见图5;
并判断是否为初始帧;若为初始帧,则进入步骤3,若为非初始帧,则进入步骤4;
步骤3:将第一帧中检测到的多运动人体目标分别标记ID,如1,2,并计算运动人体目标的目标矩形框的直方图特征向量
Figure BDA0002074120120000071
令k=k+1,进入步骤2;
步骤4:利用直方图特征匹配法,将当前帧的所有目标与上一帧的所有目标进行匹配,实现当前帧的所有目标ID标定,即实现实验室环境中的多运动人体目标的跟踪;
步骤5:令k=k+1,迭代步骤2;序列图像上下帧之间不断地进行多运动人体目标匹配,实现对共享空间中的运动人体的跟踪。
其中,步骤1中所述的构建压缩Mask R-CNN模型,具体步骤如下:
步骤1-1:导入Facebook公司Detectron项目中预训练好的大型Mask R-CNN模型;
步骤1-2:在MaskR-CNN模型的共享卷积层中,提取每一个激励函数输出和对应梯度值,相乘后求和得到C,作为模型代价函数值;
步骤1-3:依次修剪共享卷积层中的卷积核,即将该卷积核hi赋值为0,计算修剪前后的损失ΔC(hi),本发明使用泰勒一阶展开来逼近损失函数值θ(hi),作为参数贡献度排序指标;
ΔC(hi)|=|C(hi=0)-C(hi)| (1.5)
Figure BDA0002074120120000081
步骤1-4:根据各卷积核hi对应的损失ΔC(hi)进行贡献度排序,修剪贡献度低的卷积核;单次修剪的卷积核数量可根据需要而定,单次修剪次数少则收敛快但修剪后模型性能受影响较大,修剪次数多则计算量大但修剪后模型性能变化小;
步骤1-5:对修剪后的模型,在COCO数据集上重新进行小型的训练,完成神经网络模型的微调;
步骤1-6:根据实际要求,判断剪枝模型是否达到预期目标。如计算量,存储量以及输出效果等;若是,结束剪枝;否则迭代步骤3。
其中步骤4中所述直方图特征匹配,具体包括:
步骤4-1:计算当前k帧中目标i的直方图特征向量
Figure BDA0002074120120000082
与k-1帧中所有目标j的直方图特征向量
Figure BDA0002074120120000083
对目标i的
Figure BDA0002074120120000084
与k-1帧中所有目标j的直方图特征向量
Figure BDA0002074120120000085
进行余弦相似度计算,可得到j个相似度计算结果;
步骤4-2:选取最大的余弦相似度MAXo
MAXO>0.87 (1.7)
若(1.5)式成立,则将此k-1帧中该目标的ID赋予k帧中的对应目标,执行步骤4-4;若(1.5)式不成立,进入步骤4-3;
步骤4-3:判定当前目标j为区别于前一帧的新目标,并将新目标j与用于记录一段时间内已丢失目标直方图信息与几何特征的数组缓存区D中的各目标进行余弦相似度计算,选取计算结果中的最大值,记MAXC
MAXC>0.76 (1.8)
若(1.6)式成立,则将缓存区中的对应目标ID赋予新目标j,并在缓存区中删去该目标。若(1.6)式不成立,则将新目标j标记为新的ID;
步骤4-4:判定当前k帧目标是否已全部标记完毕。若是,进入步骤4-5;若未全部标记完毕,i=i+1,迭代步骤4-1;
步骤4-5:比较k帧与k-1帧中的ID个数。若k帧中的ID个数小于k-1帧,则将未被匹配来自k-1帧的目标特征参数放入缓存区中。
本说明书实施例所述的内容仅仅是对发明构思实现形式的例举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。

Claims (2)

1.人机共存环境下基于视觉的多运动人体目标跟踪方法,具体步骤如下:
步骤1:构建压缩Mask R-CNN模型;
步骤2:进行图像序列中第k帧输入,并判断是否为初始帧;若为初始帧,则进入步骤3,若为非初始帧,则进入步骤4;
步骤3:将当前帧k中检测到的多个人体目标分别标记ID;令k=k+1,进入步骤2;
步骤4:使用直方图特征匹配法,实现多人运动的跟踪;
步骤5:k=k+1,迭代步骤2;
其中,步骤1中所述的构建压缩Mask R-CNN模型,具体步骤如下:
步骤1-1:导入预训练好的大型Mask R-CNN模型;
步骤1-2:使用Mask R-CNN模型共享卷积层中的每一个激励函数输出和对应梯度值乘积之和作为模型代价函数C;
步骤1-3:依次修剪共享卷积层中的卷积核,即将该卷积核hi赋值为0,计算修剪前后的损失ΔC(hi),作为贡献度排序指标;
步骤1-4:根据各卷积核hi对应的损失ΔC(hi)进行贡献度排序,修剪贡献度低的参数;
步骤1-5:对修剪后的模型,在数据集上重新进行小型的训练,完成神经网络模型的微调;
步骤1-6:将微调后的神经网络模型用于图像目标检测,判断各项指标是否达到预期目标;若是,结束剪枝;否则迭代步骤3;
其中步骤4中所述直方图特征匹配,具体步骤如下:
步骤4-1:计算当前k帧中目标i的直方图特征向量
Figure FDA0002883619920000011
与k-1帧中所有目标j的直方图特征向量
Figure FDA0002883619920000012
然后将目标i的
Figure FDA0002883619920000013
与k-1帧中所有目标j的直方图特征向量
Figure FDA0002883619920000021
余弦相似度计算,得到j个相似度计算结果;
由于彩色图片由R、G、B三色通道,且每一个通道以1×256维向量表示;因此,可用1×768维向量来描述任意像素点的颜色;按照行列搜索代表目标的矩形框,用n表示矩形框内任意一个像素点出现的次数,则第k帧中,目标i的直方图特征向量以目标矩形框的长L与宽W归一化后的特征向量
Figure FDA0002883619920000022
可表示为:
Figure FDA0002883619920000023
Figure FDA0002883619920000024
Figure FDA0002883619920000025
的余弦相似度计算公式为:
Figure FDA0002883619920000026
步骤4-2:选取最大的余弦相似度MAXO;若大于预先设定阈值,将目标i与MAXO对应的k-1帧目标标记为同一目标ID,进入步骤4-4;否则进入步骤4-3;
步骤4-3:判定目标i为区别于前一帧的新目标,并将新目标与用于记录一段时间内已丢失目标特征参数的缓存区的各目标进行余弦相似度计算,选取计算结果中的最大值MAXc;若大于预先设定阈值,将目标i标记为缓存区中对应的目标ID,否则标记新目标ID;
步骤4-4:判定当前k帧目标是否已全部标记完毕;若是,进入步骤4-5;若k帧目标未全部标记完毕,令i=i+1,迭代步骤4-1;
步骤4-5:比较k帧与k-1帧中的ID个数;若k帧中的ID个数小于k-1帧,则将未被匹配来自k-1帧的目标特征参数放入缓存区中。
2.根据权利要求1所述的人机共存环境下基于视觉的多运动人体目标跟踪方法,其特征在于:步骤2中,对训练好的Mask R-CNN模型,定义模型损失函数:
ΔC(hi)|=|C(hi=0)-C(hi)| (1.3)
利用泰勒一阶展开:
Figure FDA0002883619920000031
计算将一个卷积核hi置0后,计算模型损失函数值的大小;再根据模型损失函数值进行卷积核的贡献度排序,从而进行贡献度低卷积核的裁剪。
CN201910447570.8A 2019-05-27 2019-05-27 人机共存环境下基于视觉的多运动人体目标跟踪方法 Active CN110363799B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910447570.8A CN110363799B (zh) 2019-05-27 2019-05-27 人机共存环境下基于视觉的多运动人体目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910447570.8A CN110363799B (zh) 2019-05-27 2019-05-27 人机共存环境下基于视觉的多运动人体目标跟踪方法

Publications (2)

Publication Number Publication Date
CN110363799A CN110363799A (zh) 2019-10-22
CN110363799B true CN110363799B (zh) 2021-04-06

Family

ID=68214862

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910447570.8A Active CN110363799B (zh) 2019-05-27 2019-05-27 人机共存环境下基于视觉的多运动人体目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110363799B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956097B (zh) * 2019-11-13 2023-07-21 北京影谱科技股份有限公司 遮挡人体提取方法及模块、场景转换方法及装置
CN111401206A (zh) * 2020-03-11 2020-07-10 恒睿(重庆)人工智能技术研究院有限公司 一种全景图共享方法、系统、设备和介质
CN112561961A (zh) * 2020-12-10 2021-03-26 北京三快在线科技有限公司 一种实例追踪的方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109359538A (zh) * 2018-09-14 2019-02-19 广州杰赛科技股份有限公司 卷积神经网络的训练方法、手势识别方法、装置及设备
CN109635657A (zh) * 2018-11-12 2019-04-16 平安科技(深圳)有限公司 目标跟踪方法、装置、设备及存储介质
CN109635935A (zh) * 2018-12-29 2019-04-16 北京航空航天大学 基于模长聚类的深度卷积神经网络模型自适应量化方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10282621B2 (en) * 2016-07-09 2019-05-07 Grabango Co. Remote state following device
US10621486B2 (en) * 2016-08-12 2020-04-14 Beijing Deephi Intelligent Technology Co., Ltd. Method for optimizing an artificial neural network (ANN)

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109359538A (zh) * 2018-09-14 2019-02-19 广州杰赛科技股份有限公司 卷积神经网络的训练方法、手势识别方法、装置及设备
CN109635657A (zh) * 2018-11-12 2019-04-16 平安科技(深圳)有限公司 目标跟踪方法、装置、设备及存储介质
CN109635935A (zh) * 2018-12-29 2019-04-16 北京航空航天大学 基于模长聚类的深度卷积神经网络模型自适应量化方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Disturbance observer-based control for consensus tracking of multi-agent systems with input delays from a frequency domain perspective;Linlin Ou 等;《Systems & Control Letters》;20180322;第1-2页 *
Usiigaci: Instance-aware cell tracking in stain-free phase contrast microscopy enabled by machine learning;Hsieh-Fu Tsai 等;《SoftwareX》;20190104;第1-2页 *
目标检测算法研究综述;方路平 等;《计算机工程与应用》;20180715(第13期);第1-2页 *

Also Published As

Publication number Publication date
CN110363799A (zh) 2019-10-22

Similar Documents

Publication Publication Date Title
CN110660082B (zh) 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
CN113034548B (zh) 一种适用于嵌入式终端的多目标跟踪方法及其系统
CN107609525B (zh) 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法
CN110363799B (zh) 人机共存环境下基于视觉的多运动人体目标跟踪方法
CN112348849B (zh) 一种孪生网络视频目标跟踪方法及装置
CN111476817A (zh) 一种基于yolov3的多目标行人检测跟踪方法
CN109190544B (zh) 一种基于序列深度图像的人体身份识别方法
CN112489081B (zh) 一种视觉目标跟踪方法及装置
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN109543615B (zh) 一种基于多级特征的双学习模型目标跟踪方法
CN112052802A (zh) 一种基于机器视觉的前方车辆行为识别方法
CN111931654A (zh) 一种人员跟踪智能监测方法、系统和装置
CN109344720B (zh) 一种基于自适应特征选择的情感状态检测方法
CN104200226A (zh) 基于机器学习的粒子滤波目标跟踪方法
CN115761888A (zh) 基于nl-c3d模型的塔吊操作人员异常行为检测方法
CN112164093A (zh) 一种基于边缘特征和相关滤波的人物自动跟踪方法
CN116386120A (zh) 一种无感监控管理系统
CN113643330B (zh) 一种基于动态语义特征的目标跟踪方法及系统
CN114038011A (zh) 一种室内场景下人体异常行为的检测方法
CN111291785A (zh) 目标检测的方法、装置、设备及存储介质
CN105657653B (zh) 一种基于指纹数据压缩的室内定位方法
CN114219763A (zh) 基于Faster RCNN算法的配电设备异常发热点红外图片检测方法
CN111223126B (zh) 一种基于迁移学习的跨视角轨迹模型构建方法
CN115035363B (zh) 一种深度神经网络模型的在线训练方法
CN108985216B (zh) 一种基于多元logistic回归特征融合的行人头部检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant