CN110569793B - 一种无监督相似性判别学习的目标跟踪方法 - Google Patents

一种无监督相似性判别学习的目标跟踪方法 Download PDF

Info

Publication number
CN110569793B
CN110569793B CN201910846140.3A CN201910846140A CN110569793B CN 110569793 B CN110569793 B CN 110569793B CN 201910846140 A CN201910846140 A CN 201910846140A CN 110569793 B CN110569793 B CN 110569793B
Authority
CN
China
Prior art keywords
target
image
network
data
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910846140.3A
Other languages
English (en)
Other versions
CN110569793A (zh
Inventor
卢学民
权伟
邹栋
周宁
张卫华
刘跃平
郭少鹏
彭宇晨
侯思帧
郑丹阳
郭永成
陈锦雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN201910846140.3A priority Critical patent/CN110569793B/zh
Publication of CN110569793A publication Critical patent/CN110569793A/zh
Application granted granted Critical
Publication of CN110569793B publication Critical patent/CN110569793B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content

Abstract

本发明公开了一种无监督相似性判别学习的目标跟踪方法,涉及计算机视觉目标跟踪技术领域。采用t‑SNE将特征进行降维和聚类,得到图像类别伪标签及类别总数,然后将该伪标签作为图像真实标签,并将图像特征输入全连接层并进行分类,网络进行反向传播训练。训练完成后,网络具备了图像相似性判别能力。跟踪过程中,首先根据第一帧图像的目标位置,在当前输入帧对应的目标周围交并比IOU>0.8得到待搜索区域,并使用粒子滤波获取目标候选块,再通过无监督相似性特征提取层获取目标候选块的特征,最后分类层将输出每一个目标候选块的置信度,然后将具有最大置信度的目标候选块作为目标图像块完成目标定位,从而实现对目标对象的跟踪。

Description

一种无监督相似性判别学习的目标跟踪方法
技术领域
本发明涉及计算机视觉,机器学习,目标跟踪技术领域。
背景技术
目标跟踪作为计算机视觉领域的一个重要研究方向,目前已受到了广泛的关注。该技术在安全监控、无人驾驶和军事防御等领域具有宽广的应用前景。2013年以来,深度学习方法开始在目标跟踪领域展露头脚,并逐渐在性能上超越传统方法,取得巨大的突破,由于其强大的特征表达能力和强大的数据集和软硬件支持,深度学习已在许多方面取得了惊人的成功,例如语音识别、图像识别、目标检测、视频分类等。2012年Alex Krizhevsky等提出了基于Alexnet网络的大型图像库分类识别的方法,证明了深度卷积神经网络对图像的强大表征能力,2014年Karen Simonyan等提出了基于VGGNet网络的大型图像分类识别方法,更进一步的降低了图像分类识别误差。
传统的深度模型有效性来自于海量的有标注训练数据集,而现实情况下这种海量的有标注的视频图像数据集十分匮乏,所以无监督学习逐渐成为机器学习领域的一个热点。无监督学习也是机器学习和人工智能领域的一个重要分支,其在机器学习、数据挖掘、生物医学大数据分析、数据科学等领域有着重要地位。无监督学习的作用是在设计分类器时候,用于处理未被分类标记的样本集,其可以大大减少人工标注带来的人力、物力的耗费。近年来的基于深度学习方法的目标跟踪研究中,无论是基于深度学习分类、回归还是模板匹配方法,都需要使用大量的人工标注图片用于训练模型。然而,实际跟踪场景并没有大量的真实标注图片,所以将无监督学习用于目标跟踪可极大降低人工标注成本,提高目标跟踪在实际场景中的易用性。无监督学习的最大特点是无需使用真实标签进行训练,自动提取数据的共性特征并进行聚类或分类,可运用在目标跟踪、行为识别和3D重建等计算机视觉领域。常用的无监督学习算法主要有等距映射方法、局部线性嵌入方法、t分布邻域嵌入(t-SNE)、C-均值算法等,其中t-SNE是2008年Geoffrey Hinton提出的一种可用于非降维的机器学习算法,其可以构建一种高维对象之间的概率分布,使得相似的对象有更高的概率被选择,而不相似的对象有较低的概率被选择,从而实现数据的无监督聚类。
鉴于此,网络在线学习过程中,通过跟踪收集到的样本微调网络模型,从而使网络模型能够更加适应实际的图像序列。
发明内容
本发明的目的是提供一种无监督相似性判别学习的目标跟踪方法,它能有效地解决在无真实数据标签场景下,对目标进行快速、鲁棒跟踪的技术问题。
本发明的目的是通过以下技术方案来实现的:
步骤一、目标选取
从初始图像中选择并确定要跟踪的目标对象,目标选取过程通过运动目标检测方法自动提取或者人机交互方法手动指定;
步骤二、训练数据集生成
训练数据集生成分为两个步骤,首先是数据集的选取,然后是数据集的制作;选取目标跟踪数据集OTB 2015作为训练数据集,并从中选取其中一类进行数据集的制作,具体为,在每一个图像帧中按行和列进行图像块的循环移动,移动步长为10个像素,图像块尺寸大小为127×127像素,每一帧图像生成500个循环移动的图像块,若训练数据集共有M张图像帧,则最终则生成500×M个图像块;
步骤三、无监督相似性判别网络的构建与训练
该网络由特征提取层、聚类层和分类层三部分构成,采用在大型分类识别数据集ImageNet上预训练的VGG-16前16层作为特征提取层,并将得到的特征输入无监督聚类层,利用t-SNE降维得到数据的低维分布,将数据间欧式距离转化为相互间的条件概率,从而表示相互之间的相似度;具体为,给定L个高维特征XT=x1,…,xL,这里x1,...,xL为特征提取层提取的L张图像的卷积特征,其中以xi为中心,按高斯分布选择xj作为近邻点的条件概率为
Figure BDA0002195270330000021
其中σi为方差;需要根据困惑度
Figure BDA0002195270330000022
大小来调节σi,其中
Figure BDA0002195270330000023
表示Pi的熵,困惑度大小与σi大小呈正相关关系,这里设定困惑度为50;对于低维度下的yi,设定高斯分布的方差为
Figure BDA0002195270330000024
则低维度数据之间的相似度为
Figure BDA0002195270330000025
需要迭代优化高维和低维数据分布之间的KL散度,使低维数据分布拟合高维数据分布,目标函数为
Figure BDA0002195270330000026
迭代初始令
Figure BDA0002195270330000027
并用高斯分布N(0,10-4I)随机初始化低维数据分布YT=y1,...,yL,这里y1,...,yn为聚类后的数据特征,从t=1迭代至t=T,这里设定T=1000,迭代步骤分为3步,分别是计算低维数据的联合概率
Figure BDA0002195270330000028
计算梯度值
Figure BDA0002195270330000029
并更新低维的数据分布
Figure BDA00021952703300000210
其中qij表示yi和yj之间的相似度,Y(t)表示迭代t次的解,λ表示学习速率,m(t)表示迭代t次的动量,这里设置
Figure BDA00021952703300000211
迭代聚类完成后,最终得到的数据分布YT=y1,...,yL,即表示数据之间的相似度;相似度较高的数据将聚为一类数据,称之为簇,簇的个数则是类别总数K,该簇内图像的伪标签即为簇的类别,将每张图像伪标签的簇作为数据的真实标签,再将提取的图像特征输入全连接层并进行分类,其中全连接层神经元节点数Z=K,该网络损失函数设置为交叉熵损失;无监督相似性判别网络构建完成后,则使用步骤二中生成的数据集进行网络训练,训练时反向传播采用经典的随机梯度下降法,最终该网络将输出每张图像的类别和相似度,获得对图像相似性判别的初始能力;
步骤四、图像输入
在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已釆集的视频文件分解为多个帧组成的图像序列,按照时间顺序,逐个提取帧图像作为输入图像,如果输入图像为空,则整个流程中止;
步骤五、目标定位
以上一帧确定的目标图像块为中心,在当前输入帧目标中心周围确定待搜索区域,待搜索区域与目标块的IOU>0.8,在待搜索区域里按高斯分布初始化1200个与当前帧目标图像相同的粒子,其中每一个粒子代表一个目标候选块,采用粒子滤波的方法获取目标候选块,将粒子滤波输出的预测目标图像块经过无监督相似性判别网络的全连接层进行分类识别,计算得到该目标候选块与目标图像块的相似度,同时将其相似度得分c和阈值c’进行比较,如果该得分c小于预先设置的阈值c’=0.8,则认为目标跟踪失败,表示目标不可信,跳转到步骤四,否则,则认为目标跟踪正确,并将该目标候选块的位置作为目标所在的位置,从而得到跟踪结果,目标定位完成,跳转到步骤六;
步骤六、网络在线更新
成功确定跟踪的结果之后,在目标图像块周围并且IOU>0.8的区域内提取100个相同大小图像块作为网络更新样本,将这些网络更新样本依次输入网络中进行微调训练,训练时,固定网络模型的卷积层参数不动,只对网络的聚类层与全连接层的参数进行微调,目的是使该网络模型能够适应当前跟踪的视频序列,即能够更加准确进行图像块的分类识别,进行准确的目标定位;然后跳转到步骤四,跟踪结束。
本发明方法的技术流程图如图2所示。在初始网络训练过程中,使用训练数据集和随机梯度下降法对无监督相似性判别网络进行训练,训练完成后网络即可获得对图像进行相似性判别的初始能力。跟踪过程中,首先根据第一帧图像的目标位置,在当前输入帧对应的目标周围交并比IOU>0.8得到待搜索区域,并使用粒子滤波获取目标候选块,再通过无监督相似性特征提取层获取目标候选块的特征,同时无监督聚类层对目标候选块的特征进行降维和聚类,最后分类层将输出每一个目标候选块的置信度,然后将具有最大置信度的目标候选块作为目标图像块,从而实现对目标的定位,其中置信度大小决定网络是否进行在线学习。
本发明的优点和积极效果:提出一种无监督相似性判别学习的目标跟踪方法。该方法首先构建了一个无监督相似性判别学习网络,包含特征提取层、无监督聚类层和分类层,其中采用VGGNet用于图像的特征提取,采用t-SNE将特征进行降维和聚类,得到图像类别伪标签及类别总数,然后将该伪标签作为图像真实标签,并将图像特征输入全连接层并进行分类,网络进行反向传播训练。训练完成后,网络具备了图像相似性判别能力。跟踪过程中,首先根据第一帧图像的目标位置,在当前输入帧对应的目标周围交并比IOU>0.8得到待搜索区域,并使用粒子滤波获取目标候选块,再通过无监督相似性特征提取层获取目标候选块的特征,同时无监督聚类层对目标候选块的特征进行降维和聚类,最后分类层将输出每一个目标候选块的置信度,然后将具有最大置信度的目标候选块作为目标图像块,完成目标定位,从而实现对目标对象的跟踪,其中置信度决定网络是否进行在线学习。网络在线学习过程中,通过跟踪收集到的样本微调网络模型,从而使网络模型能够更好的适应当前跟踪的图像序列,有效提高了目标跟踪的速度和准确度。本发明方法不需要数据的真实标签即可训练,解决了目标跟踪过程缺乏标记的训练数据问题,并且实现较高的目标定位准确性,更符合实际目标跟踪应用。此外,本发明方法不仅可以用于单目标跟踪,通过对网络进行相应的改进(如输出端),还可以扩展用于多目标的跟踪。
附图说明
图1为本发明无监督相似性判别网络结构示意图
图2为本发明无监督相似性判别学习的目标跟踪方法流程图
具体实施方式
本发明的方法可用于视觉目标跟踪的各种场合,包括军事和民用等领域,军事领域如无人飞行器、准确制导、空中预警等,民用领域如移动机器人、牵引变电所智能视频监控、智能交通系统、智能安防等。以牵引变电所智能视频监控为例:牵引变电所智能视频监控包含许多重要的自动分析任务,如入侵检测、行为分析,异常报警等,而这些工作的基础都要能够实现实时稳定的目标跟踪。可以采用本发明提出的跟踪方法实现,具体为,首先需要构建无监督相似性判别学习网络模型,该网络结构由VGGNet特征提取层、t-SNE无监督聚类层、分类层构成,如图1所示。然后对牵引变电所内监控视频进行制作,得到相应的训练数据集,采用该训练数据集与随机梯度下降法对无监督相似性判别网络进行训练,训练完毕后网络具备了图像相似性判别能力。跟踪过程中,首先根据第一帧图像的目标位置,在当前输入帧对应的目标周围交并比IOU>0.8得到待搜索区域,并使用粒子滤波获取目标候选块,再通过无监督相似性特征提取层获取目标候选块的特征,同时无监督聚类层对目标候选块的特征进行降维和聚类,最后分类层将输出每一个目标候选块的置信度,然后将具有最大置信度的目标候选块作为目标图像块,完成目标定位,从而实现对目标对象的跟踪,其中置信度决定网络是否进行在线学习。网络在线学习过程中,通过跟踪收集到的样本微调网络模型,从而使网络模型能够更好的适应牵引变电所内实际的图像序列,有效提高了目标跟踪的速度和准确度。本发明方法不需要数据的真实标签即可训练,解决了实际目标跟踪过程中缺乏标记的训练数据问题,并且实现较高的目标定位准确性,更加贴近实际目标跟踪应用。此外,本发明方法不仅可以用于单目标跟踪,还可以用于复杂场景下的多目标跟踪。
本发明方法可通过任何计算机程序设计语言(如C语言)编程实现,基于本方法的跟踪系统软件可在任何PC或者嵌入式系统中实现实时目标跟踪应用。

Claims (1)

1.一种无监督相似性判别学习的目标跟踪方法,包括如下步骤:
步骤一、目标选取
从初始图像中选择并确定要跟踪的目标对象,目标选取过程通过运动目标检测方法自动提取或者人机交互方法手动指定;
步骤二、训练数据集生成
训练数据集生成分为两个步骤,首先是数据集的选取,然后是数据集的制作;选取目标跟踪数据集OTB 2015作为训练数据集,并从中选取其中一类进行数据集的制作,具体为,在每一个图像帧中按行和列进行图像块的循环移动,移动步长为10个像素,图像块尺寸大小为127×127像素,每一帧图像生成500个循环移动的图像块,若训练数据集共有M张图像帧,则最终则生成500×M个图像块;
步骤三、无监督相似性判别网络的构建与训练
该网络由特征提取层、聚类层和分类层三部分构成,采用在大型分类识别数据集ImageNet上预训练的VGG-16前16层作为特征提取层,并将得到的特征输入无监督聚类层,利用t-SNE降维得到数据的低维分布,将数据间欧式距离转化为相互间的条件概率,从而表示相互之间的相似度;具体为,给定L个高维特征XT=x1,K,xL,这里x1,K,xL为特征提取层提取的L张图像的卷积特征,其中以xi为中心,按高斯分布选择xj作为近邻点的条件概率为
Figure FDA0003566960190000011
其中σi为方差;需要根据困惑度
Figure FDA0003566960190000012
大小来调节σi,其中
Figure FDA0003566960190000013
表示Pi的熵,困惑度大小与σi大小呈正相关关系,这里设定困惑度为50;对于低维度下的yi,设定高斯分布的方差为
Figure FDA0003566960190000014
则低维度数据之间的相似度为
Figure FDA0003566960190000015
需要迭代优化高维和低维数据分布之间的KL散度,使低维数据分布拟合高维数据分布,目标函数为
Figure FDA0003566960190000016
迭代初始令
Figure FDA0003566960190000017
并用高斯分布N(0,10-4I)随机初始化低维数据分布YT=y1,K,yL,这里y1,K,yL为聚类后的数据特征,从t=1迭代至t=T,这里设定T=1000,迭代步骤分为3步,分别是计算低维数据的联合概率
Figure FDA0003566960190000018
计算梯度值
Figure FDA0003566960190000019
并更新低维的数据分布
Figure FDA00035669601900000110
其中qij表示yi和yj之间的相似度,Y(t)表示迭代t次的解,λ表示学习速率,m(t)表示迭代t次的动量,这里设置
Figure FDA0003566960190000021
λ=50;迭代聚类完成后,最终得到的数据分布YT=y1,K,yL,即表示数据之间的相似度;相似度较高的数据将聚为一类数据,称之为簇,簇的个数则是类别总数K,该簇内图像的伪标签即为簇的类别,将每张图像伪标签的簇作为数据的真实标签,再将提取的图像特征输入全连接层并进行分类,其中全连接层神经元节点数Z=K,该网络损失函数设置为交叉熵损失;无监督相似性判别网络构建完成后,则使用步骤二中生成的数据集进行网络训练,训练时反向传播采用经典的随机梯度下降法,最终该网络将输出每张图像的类别和相似度,获得对图像相似性判别的初始能力;
步骤四、图像输入
在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已釆集的视频文件分解为多个帧组成的图像序列,按照时间顺序,逐个提取帧图像作为输入图像,如果输入图像为空,则整个流程中止;
步骤五、目标定位
以上一帧确定的目标图像块为中心,在当前输入帧目标中心周围确定待搜索区域,待搜索区域与目标块的IOU>0.8,在待搜索区域里按高斯分布初始化1200个与当前帧目标图像相同的粒子,其中每一个粒子代表一个目标候选块,采用粒子滤波的方法获取目标候选块,将粒子滤波输出的预测目标图像块经过无监督相似性判别网络的全连接层进行分类识别,计算得到该目标候选块与目标图像块的相似度,同时将其相似度得分c和阈值c’进行比较,如果该得分c小于预先设置的阈值c’=0.8,则认为目标跟踪失败,表示目标不可信,跳转到步骤四,否则,则认为目标跟踪正确,并将该目标候选块的位置作为目标所在的位置,从而得到跟踪结果,目标定位完成,跳转到步骤六;
步骤六、网络在线更新
成功确定跟踪的结果之后,在目标图像块周围并且IOU>0.8的区域内提取100个相同大小图像块作为网络更新样本,将这些网络更新样本依次输入网络中进行微调训练,训练时,固定网络模型的卷积层参数不动,只对网络的聚类层与全连接层的参数进行微调,目的是使该网络模型能够适应当前跟踪的视频序列,即能够更加准确进行图像块的分类识别,进行准确的目标定位;然后跳转到步骤四,跟踪结束。
CN201910846140.3A 2019-09-09 2019-09-09 一种无监督相似性判别学习的目标跟踪方法 Active CN110569793B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910846140.3A CN110569793B (zh) 2019-09-09 2019-09-09 一种无监督相似性判别学习的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910846140.3A CN110569793B (zh) 2019-09-09 2019-09-09 一种无监督相似性判别学习的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN110569793A CN110569793A (zh) 2019-12-13
CN110569793B true CN110569793B (zh) 2022-06-07

Family

ID=68778318

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910846140.3A Active CN110569793B (zh) 2019-09-09 2019-09-09 一种无监督相似性判别学习的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110569793B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161314B (zh) * 2019-12-17 2024-03-12 中国科学院上海微系统与信息技术研究所 目标对象的位置区域确定方法、装置、电子设备及存储介质
CN111598119A (zh) * 2020-02-18 2020-08-28 天津大学 一种基于残差网络的图像聚类方法
CN111401140B (zh) * 2020-02-25 2023-04-07 华南理工大学 一种边缘计算环境下智能视频监控系统的离线学习方法
CN111311642A (zh) * 2020-02-26 2020-06-19 深圳英飞拓科技股份有限公司 一种高速球型摄像机下的目标跟踪优化方法
CN111582185B (zh) * 2020-05-11 2023-06-30 北京百度网讯科技有限公司 用于识别图像的方法和装置
CN111784737B (zh) * 2020-06-10 2023-04-07 中国人民解放军军事科学院国防科技创新研究院 一种基于无人机平台的目标自动跟踪方法及系统
CN112784087A (zh) * 2021-01-29 2021-05-11 平安科技(深圳)有限公司 图像检索方法、装置、计算机设备及存储介质
CN112819802B (zh) * 2021-02-09 2024-03-05 东北大学 基于风口信息深度学习的监督及预测高炉炉况异常的方法
CN113256680A (zh) * 2021-05-13 2021-08-13 燕山大学 一种基于无监督学习高精度的目标跟踪系统
CN113378716A (zh) * 2021-06-11 2021-09-10 武汉大学 一种基于自监督条件的深度学习sar影像舰船识别方法
CN113298036B (zh) * 2021-06-17 2023-06-02 浙江大学 一种无监督视频目标分割的方法
CN113610888B (zh) * 2021-06-29 2023-11-24 南京信息工程大学 一种基于高斯平滑的孪生网络目标跟踪方法
CN113688733A (zh) * 2021-08-25 2021-11-23 深圳龙岗智能视听研究院 基于事件相机的眼部检测和追踪方法、系统、设备及应用
CN113989556B (zh) * 2021-10-27 2024-04-09 南京大学 一种小样本医学影像分类方法和系统
CN113947807B (zh) * 2021-12-21 2022-03-22 北京至真互联网技术有限公司 一种基于无监督的眼底影像异常识别方法及系统
CN114627348A (zh) * 2022-03-22 2022-06-14 厦门大学 多主体任务中基于意图的图片识别方法
CN114842045B (zh) * 2022-04-01 2024-04-16 深圳市九天睿芯科技有限公司 目标跟踪方法及装置
CN114973167B (zh) * 2022-07-28 2022-11-04 松立控股集团股份有限公司 一种基于离线聚类的无监督对比学习的多目标跟踪方法
CN115457484B (zh) * 2022-11-10 2023-02-07 梁山华鲁专用汽车制造有限公司 一种用于半挂车自动卸货的控制方法及装置
CN115937254B (zh) * 2022-11-25 2023-10-31 中国人民解放军国防科技大学 一种基于半监督学习的多空中飞行目标跟踪方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015184375A2 (en) * 2014-05-29 2015-12-03 Whitehead Institute For Biomedical Research Compositions and methods for promoting intestinal stem cell and/or non-stem progenitor cell function
CN105809719A (zh) * 2016-03-14 2016-07-27 西南交通大学 一种基于像素多编码表匹配的对象跟踪方法
CN105913377A (zh) * 2016-03-24 2016-08-31 南京大学 一种保留图片相关性信息的图片拼接方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015184375A2 (en) * 2014-05-29 2015-12-03 Whitehead Institute For Biomedical Research Compositions and methods for promoting intestinal stem cell and/or non-stem progenitor cell function
CN105809719A (zh) * 2016-03-14 2016-07-27 西南交通大学 一种基于像素多编码表匹配的对象跟踪方法
CN105913377A (zh) * 2016-03-24 2016-08-31 南京大学 一种保留图片相关性信息的图片拼接方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
A new post-processing technique for analyzing high-dimensional combustion data;Fooladgar,E等;《Combustion AND Flame》;20180509;第191卷;第226-238页 *
Deep image category discovery using a transferred similarity function;yen-chang HSU等;《Computer vision and pattern recognition》;20161231;第1-12页 *
一种基于t-分布随机近邻嵌入的文本聚类方法;徐秀芳等;《南京大学学报(自然科学)》;20190228;第55卷(第02期);第264-271页 *
单样本的低分辨率单目标人脸识别算法;薛杉等;《仪器仪表学报》;20190315(第03期);第199-205页 *
基于t-SNE卷积编码的图像检索方法;李阳等;《计算机应用研究》;20170430;第34卷(第4期);第1244-1248页 *
基于深度学习的印刷电路板要素CT图像检测技术研究;徐一夫等;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20160715(第07期);第I 138-961页 *

Also Published As

Publication number Publication date
CN110569793A (zh) 2019-12-13

Similar Documents

Publication Publication Date Title
CN110569793B (zh) 一种无监督相似性判别学习的目标跟踪方法
CN110298404B (zh) 一种基于三重孪生哈希网络学习的目标跟踪方法
Jalal et al. Scene Semantic recognition based on modified Fuzzy c-mean and maximum entropy using object-to-object relations
CN107145862B (zh) 一种基于霍夫森林的多特征匹配多目标跟踪方法
Weinmann et al. Feature relevance assessment for the semantic interpretation of 3D point cloud data
Kaushal et al. Soft Computing based object detection and tracking approaches: State-of-the-Art survey
Kishore et al. Indian classical dance action identification and classification with convolutional neural networks
Zhang et al. Learning semantic scene models by object classification and trajectory clustering
JP6018674B2 (ja) 被写体再識別のためのシステム及び方法
CN109671102B (zh) 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法
CN110914836A (zh) 在跨联网计算边缘连续运行应用程序的人工智能和深度学习中实现连续的存储器有界学习的系统和方法
US9798923B2 (en) System and method for tracking and recognizing people
CN110633632A (zh) 一种基于循环指导的弱监督联合目标检测和语义分割方法
CN111968133A (zh) 自动驾驶场景下的三维点云数据实例分割方法及系统
CN107958260B (zh) 一种基于多特征融合的群体行为分析方法
CN106778501A (zh) 基于压缩跟踪与ihdr增量学习的视频人脸在线识别方法
CN113484875B (zh) 一种基于混合高斯排序的激光雷达点云目标分级识别方法
CN113269103B (zh) 基于空间图卷积网络的异常行为检测方法、系统、存储介质和设备
Laranjeira et al. On modeling context from objects with a long short-term memory for indoor scene recognition
Naseer et al. Pixels to precision: features fusion and random forests over labelled-based segmentation
CN109272036B (zh) 一种基于深度残差网络的随机蕨目标跟踪方法
Li et al. Video is graph: Structured graph module for video action recognition
Ouivirach et al. Clustering human behaviors with dynamic time warping and hidden Markov models for a video surveillance system
Nikpour et al. Deep reinforcement learning in human activity recognition: A survey
Elbaşi Fuzzy logic-based scenario recognition from video sequences

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant