CN110223347A - 图像中目标物体的定位方法、电子设备和存储介质 - Google Patents

图像中目标物体的定位方法、电子设备和存储介质 Download PDF

Info

Publication number
CN110223347A
CN110223347A CN201910500076.3A CN201910500076A CN110223347A CN 110223347 A CN110223347 A CN 110223347A CN 201910500076 A CN201910500076 A CN 201910500076A CN 110223347 A CN110223347 A CN 110223347A
Authority
CN
China
Prior art keywords
image
layer
network
target object
localization method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910500076.3A
Other languages
English (en)
Inventor
张子頔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201910500076.3A priority Critical patent/CN110223347A/zh
Publication of CN110223347A publication Critical patent/CN110223347A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种图像中目标物体的定位方法,包括:输入图像序列,图像序列包括至少两帧图像;采用第一神经网络,分别对每帧图像进行处理,得到每帧图像的置信度图像,置信度图像中每个像素用不同标识区分不同物体;采用第二神经网络,对图像序列进行光流计算,得到光流矢量图;根据所述置信度图像和光流矢量图进行聚类,得到聚类结果;根据所述聚类结果和相似度匹配标注出图像序列中的目标物体。通过将FCNN(全卷积神经网络,Fully Convolutional Neural Network)和PWC‑Net光流估计算法作为基础结构,将二者结合并重新训练;首先将视频序列输入至FCNN,通过FCNN中已经训练好的模型,识别出物体并将物体与背景进行分割。同时,使用PWC‑Net光流估计算法进行光流计算,通过对两者结果进行统计标注最终的目标物体。

Description

图像中目标物体的定位方法、电子设备和存储介质
技术领域
本申请涉及图像处理领域,尤其涉及一种图像中目标物体的定位方法、电子设备和存储介质。
背景技术
现阶段,在语义分割(semantic segmentation)领域,识别准确率最好的是DeepLabv3+JFT模型,其平均精度达到了89.0%,但是,此网络只能达到8FPS(每秒传输帧数,Frames Per Second),并且无法识别神经网络从未训练的物体,如果训练的网络没有训练记忆到目标物体,此网络将忽视目标。
在光流领域,PWC-Net光流估计算法成为此领域的经典结构。其错误率为9.6%,并且,此网络在显卡型号为Titan X(Pascal)上的运算速度为每帧0.03s。但是,此网络仅能得到物体两帧之间相对变化较小的光流图像,如果物体运动速度快或者有遮挡物,算法将会失效,为了达到更高的精度,本发明提供一种改进方案。
发明内容
为至少在一定程度上克服相关技术中存在的问题,本申请提供一种图像中目标物体的定位方法、电子设备和存储介质。
根据本申请实施例的第一方面,提供一种图像中目标物体的定位方法,包括:输入图像序列,所述图像序列包括至少两帧图像;
采用第一神经网络,分别对每帧图像进行处理,得到每帧图像的置信度图像,所述置信度图像中每个像素用不同标识区分不同物体;
采用第二神经网络,对所述图像序列进行光流计算,得到光流矢量图;
根据所述置信度图像和所述光流矢量图进行聚类,得到聚类结果;
根据所述聚类结果和相似度匹配标注出所述图像序列中的目标物体。
可选的,所述输入图像序列,包括:
接收无人机的摄像头采集的图像序列。
可选的,所述第一神经网络为FCNN。
可选的,所述FCNN包括:
卷积特征提取层,用于分别提取每帧图像的卷积特征,得到卷积特征图像;
反卷积层,用于对所述卷积特征图像进行反卷积处理,得到每帧图像的置信度图像。
可选的,所述卷积特征提取层包括:
2D卷积层、激活层、2D池化层。
可选的,所述反卷积层包括:
2D卷积层、激活层、Dropout层、2D反卷积层。
可选的,所述第二神经网络为PWC网络。
可选的,所述PWC网络包括:
特征提取金字塔层组、特征关联层、相似度匹配层、光流估计层、网络上下文精炼层。
根据本申请实施例的第二方面,提供一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行如上述任一项所述的图像中目标物体的定位方法。
根据本申请实施例的第三方面,提供一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时,实现如上述任一项所述的图像中目标物体的定位方法。
本申请提供的技术方案可以包括以下有益效果:
通过将FCNN(全卷积神经网络,Fully Convolutional Neural Network,)和PWC-Net光流估计算法作为基础结构,将二者结合并重新训练;首先将视频序列输入至FCNN,通过FCNN中已经训练好的模型,识别出物体并将物体与背景进行分割。同时,使用PWC-Net光流估计算法进行光流计算,并通过光流方向图将相对移动或相对静止目标识别出,通过对光流结果进行语义分割或聚类分割,得到相对移动物体和相对静止物体,通过对两者结果进行统计标注最终的目标物体。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是本申请一个实施例提供的图像中目标物体的定位方法的流程图;
图2是本申请一个实施例提供的电子设备的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
图1是本申请一个实施例提供的图像中目标物体的定位方法的流程图。如图1所示,该方法包括以下步骤:
S11:输入图像序列,所述图像序列包括至少两帧图像;
需要说明的是,图像序列是指在不同时间、不同方位对目标依序连续获取的系列图像。
S12:采用第一神经网络,分别对每帧图像进行处理,得到每帧图像的置信度图像,所述置信度图像中每个像素用不同标识区分不同物体;
S13:采用第二神经网络,对所述图像序列进行光流计算,得到光流矢量图;
需要说明的是,光流法是关于视域中的物体运动检测中的概念。关于光流法对运动目标的检测:给图像中的每个像素点赋予一个速度矢量,这样就形成了一个运动矢量场。根据各个像素点的速度矢量特征,可以对图像进行动态分析。如果图像中没有运动目标,则光流矢量在整个图像区域是连续变化的,此处如果没有目标移动的化失量是0。当图像中有目标物体时,目标和背景存在着相对运动。目标物体所形成的速度矢量必然和背景的速度矢量有所不同,如此便可以计算出目标物体的位置。但是,利用光流法进行目标物体检测时,无法检测移动距离特别大的物体。
S14:根据所述置信度图像和所述光流矢量图进行聚类,得到聚类结果;
需要说明的是,聚类分析又称群分析,它是研究样品或指标分类问题的一种统计分析方法,同时也是数据挖掘的一个重要算法。聚类分析是由若干模式组成的,通常,模式是一个度量的向量,或者是多维空间中的一个点。聚类分析以相似性为基础,在一个聚类中的模式之间比不在同一聚类中的模式之间具有更多的相似性。上述聚类过程可以采用K-means算法、mean shift算法或者其他聚类算法。
S15:根据所述聚类结果和相似度匹配标注出所述图像序列中的目标物体。
需要说明的是,上述目标物体可以是运动物体,也可以是静止物体。
本实施例中,通过将FCNN(全卷积神经网络,Fully Convolutional NeuralNetwork)和PWC-Net光流估计算法作为基础结构,将二者结合并重新训练;首先将视频序列输入至FCNN,通过FCNN中已经训练好的模型,识别出物体并将物体与背景进行分割。同时,使用PWC-Net光流估计算法进行光流计算,并通过光流方向图将相对移动或相对静止目标识别出,通过对光流结果进行语义分割或聚类分割,得到相对移动物体和相对静止物体,通过对两者结果进行统计标注最终的目标物体。
一些实施例中,所述输入图像序列,包括:
接收无人机的摄像头采集的图像序列。
需要说明的是,图像序列在不同时间、不同方位对目标依序连续获取的系列图像。图像序列分析利用计算机视觉技术从图像序列中检测运动及目标物体并对其进行运动分析、跟踪或识别。图像序列分析主要是针对序列图像进行分析处理,根据分析与处理的目的不同,它通常涉及到运动目标检测、运动参数估计、运动景物分割、目标跟踪以及识别几部分内容。其中,运动检测、运动参数估计、目标分割、目标跟踪属于视觉中的低级和中级处理部分,而目标识别则属于高级处理。当然,它们之间也可能存在交叉。
本实施例中,通过采集无人机摄像头采集的图像序列,可辅助无人机追踪标注物体。
一些实施例中,所述第一神经网络为FCNN。
需要说明的是,FCNN是CNN(卷积神经网络,Convolutional Neural Network)结构上的改进,它比CNN能获得更高的识别率,并且得到像素级标注,此处FCNN已经不再是传统意义上的CNN,功能有所变化,但在训练过程中仍需要大量的带标签训练样本。此外,第一神经网络还可以使用Mask-RCNN网络。
本实施例中,通过采用全卷积神经网络,可以提高目标图像的识别率。
一些实施例中,所述FCNN包括:
卷积特征提取层,用于分别提取每帧图像的卷积特征,得到卷积特征图像;
反卷积层,用于对所述卷积特征图像进行反卷积处理,得到每帧图像的置信度图像。
需要说明的是,卷积神经网络是一个多层的神经网络,每层由多个二维平面组成,而每个平面由多个独立神经元组成。一般的,特征提取层中,每个神经元的输入与前一层的局部感受野相连,并提取该局部的特征,一旦该局部特征被提取后,它与其他特征间的位置关系也随之确定下来。
本实施例中,全卷积神经网络不仅包括卷积特征提取层,并且新加入了反卷积层,反卷积层学习上层卷积特征提取层提取的特征之间的关系,并通过双线性插值将低维度抽象关系映射到对应的高维度空间。
一些实施例中,所述卷积特征提取层包括:
2D卷积层、激活层、2D池化层。
需要说明的是,上述2D卷积层用于接收和输出通道矩阵,上述激活层采用RELU(线性整流函数,Rectified Linear Unit)作为激活层函数。
本实施例中,卷积特征提取层包括多个2D卷积层、激活层以及2D池化层,使网络在识别时对输入样本有较高的鲁棒性。
一些实施例中,所述反卷积层包括:
2D卷积层、激活层、Dropout层、2D反卷积层。
需要说明的是,Dropout是指在深度学习网络的训练过程中,按照一定的概率将一部分神经网络单元暂时从网络中丢弃,相当于从原始的网络中找到一个更瘦的网络。2D反卷积层用于将卷积层产生的特征图映射成一个固定长度的特征向量。卷积层的前向传播过程就是反卷积层的反向传播过程,卷积层的反向传播过程就是反卷积层的前向传播过程。
本实施例中,反卷积层包括多个2D卷积层、激活层、Dropout层和2D反卷积层,统计不变性中的平移不变性,起到降维的作用。
一些实施例中,所述第二神经网络为PWC网络。
进一步的,所述PWC网络包括:
特征提取金字塔层组、特征关联层、相似度匹配层、光流估计层、网络上下文精炼层。
需要说明的是,其中,为关联跟踪图像中物体:可使用图像关键区域特征值匹配或相似度匹配进行关联,算法包括,SSIM(结构相似性,structural similarity index)、像素直方图、Ransac、SIFT(尺度不变特征变换,Scale-invariant feature transform)、分类识别卷积神经网络,为优化空间可使用字词树、特征空间划分树等。
本实施例中,使用PWC网络光流估计算法进行光流计算,并通过光流方向图将移动目标识别出,通过对光流结果进行语义分割,得到移动物体和相对静止物体,通过对两者结果进行统计标注最终的目标物体。
图2是本申请一个实施例提供的电子设备的结构示意图。如图2所示,该电子设备包括:处理器21;
用于存储处理器可执行指令的存储器22;
其中,所述处理器21被配置为:执行如上述任一实施例所述的图像中目标物体的定位方法。
需要说明的是,上述处理器和存储器均采用现有技术。
本申请还提供一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时,实现如上述任一实施例所述的图像中目标物体的定位方法。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。
需要说明的是,在本申请的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本申请的描述中,除非另有说明,“多个”的含义是指至少两个。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种图像中目标物体的定位方法,其特征在于,包括:
输入图像序列,所述图像序列包括至少两帧图像;
采用第一神经网络,分别对每帧图像进行处理,得到每帧图像的置信度图像,所述置信度图像中每个像素用不同标识区分不同物体;
采用第二神经网络,对所述图像序列进行光流计算,得到光流矢量图;
根据所述置信度图像和所述光流矢量图进行聚类,得到聚类结果;
根据所述聚类结果和相似度匹配标注出所述图像序列中的目标物体。
2.根据权利要求1所述的定位方法,其特征在于,所述输入图像序列,包括:
接收无人机的摄像头采集的图像序列。
3.根据权利要求1所述的定位方法,其特征在于,所述第一神经网络为FCNN。
4.根据权利要求3所述的定位方法,其特征在于,所述FCNN包括:
卷积特征提取层,用于分别提取每帧图像的卷积特征,得到卷积特征图像;
反卷积层,用于对所述卷积特征图像进行反卷积处理,得到每帧图像的置信度图像。
5.根据权利要求4所述的定位方法,其特征在于,所述卷积特征提取层包括:
2D卷积层、激活层、2D池化层。
6.根据权利要求4所述的定位方法,其特征在于,所述反卷积层包括:
2D卷积层、激活层、Dropout层、2D反卷积层。
7.根据权利要求1所述的定位方法,其特征在于,所述第二神经网络为PWC网络。
8.根据权利要求7所述的定位方法,其特征在于,所述PWC网络包括:
特征提取金字塔层组、特征关联层、相似度匹配层、光流估计层、网络上下文精炼层。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行如权利要求1-8任一项所述的图像中目标物体的定位方法。
10.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时,实现如权利要求1-8任一项所述的图像中目标物体的定位方法。
CN201910500076.3A 2019-06-11 2019-06-11 图像中目标物体的定位方法、电子设备和存储介质 Pending CN110223347A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910500076.3A CN110223347A (zh) 2019-06-11 2019-06-11 图像中目标物体的定位方法、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910500076.3A CN110223347A (zh) 2019-06-11 2019-06-11 图像中目标物体的定位方法、电子设备和存储介质

Publications (1)

Publication Number Publication Date
CN110223347A true CN110223347A (zh) 2019-09-10

Family

ID=67816299

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910500076.3A Pending CN110223347A (zh) 2019-06-11 2019-06-11 图像中目标物体的定位方法、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN110223347A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110866532A (zh) * 2019-11-07 2020-03-06 浙江大华技术股份有限公司 对象的匹配方法和装置、存储介质及电子装置
CN112132871A (zh) * 2020-08-05 2020-12-25 天津(滨海)人工智能军民融合创新中心 一种基于特征光流信息的视觉特征点追踪方法、装置、存储介质及终端
CN112465725A (zh) * 2020-12-10 2021-03-09 西安交通大学 一种基于PWC-Net的红外图像帧率上转换方法
CN114018215A (zh) * 2022-01-04 2022-02-08 智道网联科技(北京)有限公司 基于语义分割的单目测距方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650655A (zh) * 2016-12-16 2017-05-10 北京工业大学 一种基于卷积神经网络的动作检测模型
CN107705324A (zh) * 2017-10-20 2018-02-16 中山大学 一种基于机器学习的视频目标检测方法
CN107967695A (zh) * 2017-12-25 2018-04-27 北京航空航天大学 一种基于深度光流和形态学方法的运动目标检测方法
CN108197566A (zh) * 2017-12-29 2018-06-22 成都三零凯天通信实业有限公司 一种基于多路神经网络的监控视频行为检测方法
CN109063609A (zh) * 2018-07-18 2018-12-21 电子科技大学 一种基于光流特征与全卷积语义分割特征结合的异常行为检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650655A (zh) * 2016-12-16 2017-05-10 北京工业大学 一种基于卷积神经网络的动作检测模型
CN107705324A (zh) * 2017-10-20 2018-02-16 中山大学 一种基于机器学习的视频目标检测方法
CN107967695A (zh) * 2017-12-25 2018-04-27 北京航空航天大学 一种基于深度光流和形态学方法的运动目标检测方法
CN108197566A (zh) * 2017-12-29 2018-06-22 成都三零凯天通信实业有限公司 一种基于多路神经网络的监控视频行为检测方法
CN109063609A (zh) * 2018-07-18 2018-12-21 电子科技大学 一种基于光流特征与全卷积语义分割特征结合的异常行为检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DEQING SUN,ET AL.: "PWC-Net: CNNs for Optical Flow Using Pyramid, Warping, and Cost Volume", 《ARXIV》 *
WEI-CHIU MA,ET AL.: "Deep Rigid Instance Scene Flow", 《ARXIV》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110866532A (zh) * 2019-11-07 2020-03-06 浙江大华技术股份有限公司 对象的匹配方法和装置、存储介质及电子装置
CN110866532B (zh) * 2019-11-07 2022-12-30 浙江大华技术股份有限公司 对象的匹配方法和装置、存储介质及电子装置
CN112132871A (zh) * 2020-08-05 2020-12-25 天津(滨海)人工智能军民融合创新中心 一种基于特征光流信息的视觉特征点追踪方法、装置、存储介质及终端
CN112132871B (zh) * 2020-08-05 2022-12-06 天津(滨海)人工智能军民融合创新中心 一种基于特征光流信息的视觉特征点追踪方法、装置、存储介质及终端
CN112465725A (zh) * 2020-12-10 2021-03-09 西安交通大学 一种基于PWC-Net的红外图像帧率上转换方法
CN114018215A (zh) * 2022-01-04 2022-02-08 智道网联科技(北京)有限公司 基于语义分割的单目测距方法、装置、设备及存储介质
CN114018215B (zh) * 2022-01-04 2022-04-12 智道网联科技(北京)有限公司 基于语义分割的单目测距方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
Jiao et al. A survey of deep learning-based object detection
Nguyen et al. Attentive systems: A survey
Sahu et al. A survey on deep learning: convolution neural network (CNN)
Bai et al. Exploiting semantic information and deep matching for optical flow
CN110223347A (zh) 图像中目标物体的定位方法、电子设备和存储介质
Vig et al. Large-scale optimization of hierarchical features for saliency prediction in natural images
Juneja et al. Real time object detection using CNN based single shot detector model
Liu et al. MSST-ResNet: Deep multi-scale spatiotemporal features for robust visual object tracking
Saribas et al. TRAT: Tracking by attention using spatio-temporal features
Du et al. Linear dynamical systems approach for human action recognition with dual-stream deep features
Mathe et al. A deep learning approach for human action recognition using skeletal information
Hoang et al. Improving traffic signs recognition based region proposal and deep neural networks
Lopez-Antequera et al. Place and object recognition by CNN-based COSFIRE filters
Varshney et al. Deep convolutional neural model for human activities recognition in a sequence of video by combining multiple CNN streams
Shi et al. Weakly supervised deep learning for objects detection from images
Malik et al. Human action interpretation using convolutional neural network: a survey
Vaishali Real-time object detection system using caffe model
Preetha Lakshmi et al. Hand gesture recognition using CNN
Yonetani et al. Visual motif discovery via first-person vision
de Alcantara et al. Action identification using a descriptor with autonomous fragments in a multilevel prediction scheme
Condés et al. Person following robot behavior using deep learning
Gundu et al. Vision-Based HAR in UAV Videos Using Histograms and Deep Learning Techniques
Tang et al. Learning-based tongue detection for automatic tongue color diagnosis system
Xu et al. Subspace enhancement and colorization network for infrared video action recognition
Lam et al. Ensemble of fully convolutional neural networks with end-to-end learning for small object semantic segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190910