CN105488519A - 一种基于视频尺度信息的视频分类方法 - Google Patents

一种基于视频尺度信息的视频分类方法 Download PDF

Info

Publication number
CN105488519A
CN105488519A CN201510780201.2A CN201510780201A CN105488519A CN 105488519 A CN105488519 A CN 105488519A CN 201510780201 A CN201510780201 A CN 201510780201A CN 105488519 A CN105488519 A CN 105488519A
Authority
CN
China
Prior art keywords
video
vector
unique point
sigma
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510780201.2A
Other languages
English (en)
Other versions
CN105488519B (zh
Inventor
王瀚漓
张博文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deep Blue Technology Shanghai Co Ltd
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN201510780201.2A priority Critical patent/CN105488519B/zh
Publication of CN105488519A publication Critical patent/CN105488519A/zh
Application granted granted Critical
Publication of CN105488519B publication Critical patent/CN105488519B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于视频尺度信息的视频分类方法,包括步骤:1)将视频数据集划分为训练数据和测试数据,提取每个视频的特征点以及特征点的轨迹,并得到视频的空间尺度以及时间尺度;2)使用基于轨迹使用描述算法,通过计算特征点邻域的梯度直方图向量、光流直方图向量、x分量运动边界直方图向量和y分量运动边界直方图向量,得到特征描述向量;3)使用PCA方法将每个视频中的每个特征描述向量降维至原维度的一半;4)生成视频数据集中每一个视频的费舍尔向量;5)训练得到线性支持向量机分类模型;6)使用线性支持向量机分类模型对测试数据中的视频进行分类。与现有技术相比,本发明具有鲁棒性好,准确度更高等优点。

Description

一种基于视频尺度信息的视频分类方法
技术领域
本发明涉及视频处理领域,尤其是涉及一种基于视频尺度信息的视频分类方法。
背景技术
随着科技的发展,越来越多的带有摄像功能的电子设备进入大众的家庭中,人们常常使用手机或者数码摄像机将身边有趣的人或事及时记录下来,上传到在网络中的视频分享网站或者直接发送给亲朋好友互相分享。视频分享网站每天都有数以万计的视频上传,因此自动化的管理就显得较为重要,其中基于视频特征向量的特征编码算法是其中较为重要的技术。
基于视频特征向量的特征编码算法将特征向量与聚类中心的信息量如权重、均值、方差等,有效地编码进视频描述向量中,从而在主流的人体动作检测数据集中表现出了不错的结果。目前,该技术还存在以下问题:
第一,只考虑了与特征向量与聚类中心的关系,而没有考虑特征向量在视频中所处的位置信息以及尺度信息。
第二,虽然现有算法识别率较高,但是由于缺少位置信息及尺度信息,未能在有限的维度中发挥系统的识别能力。
基于尺度信息的特征编码算法是将空间尺度信息和时间尺度信息编码进高斯混合模型中,从而得到具有尺度信息的费舍尔向量。这种算法能够更好的在有限维度中提升系统的识别准确率。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种新的,鲁棒性好,准确度更高的基于视频尺度信息的视频分类方法。
本发明的目的可以通过以下技术方案来实现:
一种基于视频尺度信息的特征编码方法,包括步骤:
1)将视频数据集划分为训练数据和测试数据,提取每个视频的特征点以及特征点的轨迹,并得到视频的空间尺度以及时间尺度;
2)使用基于轨迹使用描述算法,通过计算特征点邻域的梯度直方图向量、光流直方图向量、x分量运动边界直方图向量和y分量运动边界直方图向量,得到特征描述向量;
3)使用PCA方法将每个视频中的每个特征描述向量降维至原维度的一半;
4)利用基于尺度空间的高斯混合模型对训练数据中的特征描述向量进行聚类,再生成视频数据集中每一个视频的费舍尔向量;
5)使用训练数据中得到的费舍尔向量,训练得到线性支持向量机分类模型;
6)使用线性支持向量机分类模型对测试数据中的视频进行分类。
所述步骤1)中特征点以及特征点的轨迹的提取过程具体包括步骤:
11)提取视频中的每一帧,以为缩放因子构建空间金字塔作为尺度空间,设任一尺度空间上当前帧为Icurrent,前一帧Icurrent-1,其中,所述空间金字塔的层数即为尺度空间的个数;
12)提取出每一帧中的特征点;
13)对于任一尺度空间,计算光流矩阵;
14)在对应尺度空间上,计算从前一帧计算得到的特征点在当前帧中的位移之后的位置:
xcurrent(x,y)=xcurrent-1(x,y)+W
其中:xcurrent(x,y)为特征点在当前帧中的位置,xcurrent-1(x,y)为特征点在前一帧中的位置,W为光流矩阵;
15)在对应尺度空间上,通过稠密光流在15帧的时间范围内追踪特征点的位置,以此形成运动轨迹,并将该尺度空间在空间金字塔中的层序定义空间尺度σ,特征点在15帧的时间范围内运动的轨迹长度定义为时间尺度τ。
所述步骤11)具体为:提取视频中的每一帧,以为缩放因子,将视频中每一帧的长宽按照的倍数的比例进行大小缩放,得到相同长宽比,但大小不同的一组图片,这组图片构建空间金字塔作为尺度空间,设任一尺度空间上当前帧为Icurrent,前一帧Icurrent-1
所述步骤2)具体包括步骤:
21)以每一个特征点为中心,在灰度图像矩阵的32×32×15像素区域内,计算该区域的梯度直方图向量,其维度为96维;
22)在稠密光流矩阵的32×32×15像素区域内,计算该区域的光流直方图向量,其维度为108维;
23)使用Sobel算子计算光流矩阵x分量的梯度Mx和y分量的梯度My,以每一个特征点为中心,在矩阵Mx和My的32×32×15像素区域内,分别计算上述区域的x分量运动边界直方图和y分量运动边界直方图向量,其维度分别为96维;
24)以每一个特征点为中心,在连续15帧的范围内,将这个特征点的x方向和y方向的位移连接起来,得到轨迹的特征描述向量,其维度为30维;
25)用有符号平方根L1归一化方法对上述特征描述向量进行归一化操作。
所述步骤4)具体包括步骤:
41)构建高斯混合模型:
其中:p(yt,st)为高斯混合模型,πi为第i个针对特征描述向量的高斯分量的权重,K为针对特征描述向量的高斯分量的数目,yt为第t个特征点对应的特征描述向量,μi的均值,Σi的协方差矩阵,λji的高斯分量的第j个针对尺度信息的高斯分量的权重,st为第t个特征点对应的尺度信息,δji的均值,Zji的协方差矩阵,N(·)为高斯密度函数;
42)对每一个高斯分量,计算其费舍尔向量值;
其中:FV1,FV2,FV3,FV4,FV5,FV6为费舍尔向量值,qi(t)为基于特征描述向量和的后验概率,rji(t)为基于尺度信息和的后验概率,diag(·)为向量的对角阵表达式;
43)将向量FV1,FV2,FV3,FV4,FV5,FV6在每一个高斯分量上进行串联,得到该视频的费舍尔向量,该向量的维度是2D+1+J(2T+1))K,其中T为尺度信息的维度。
所述基于特征描述向量和的后验概率具体为:
所述基于尺度信息和的后验概率具体为:
与现有技术相比,本发明具有以下优点:
1)本方法通过修改高斯混合模型,使之能将尺度信息编码进高斯混合模型中,并通过计算费舍尔向量,将时空尺度信息编码进视频的描述向量中,与传统方法相比,此方法有更好的鲁棒性;
2)本发明的识别准确率优于在Hollywood2、HMDB51视频数据集上的主流算法,并且具有较高的计算效率。
附图说明
图1为本发明的主要步骤流程示意图;
图2为使用本方法进行训练以及测试的结果示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
一种基于视频尺度信息的视频分类方法,如图1所示,包括步骤:
1)将视频数据集划分为训练数据和测试数据,提取每个视频的特征点以及特征点的轨迹,并得到视频的空间尺度以及时间尺度,其中特征点以及特征点的轨迹的提取过程具体包括步骤:
11)提取视频中的每一帧,以为缩放因子构建空间金字塔作为尺度空间,设任一尺度空间上当前帧为Icurrent,前一帧Icurrent-1,其中,空间金字塔的层数即为尺度空间的个数,具体为:提取视频中的每一帧,以为缩放因子,将视频中每一帧的长宽按照的倍数的比例进行大小缩放,得到相同长宽比,但大小不同的一组图片,这组图片构建空间金字塔作为尺度空间,设任一尺度空间上当前帧为Icurrent,前一帧Icurrent-1
12)提取出每一帧中的特征点;
13)对于任一尺度空间,计算光流矩阵;
14)在对应尺度空间上,计算从前一帧计算得到的特征点在当前帧中的位移之后的位置:
xcurrent(x,y)=xcurrent-1(x,y)+W
其中:xcurrent(x,y)为特征点在当前帧中的位置,xcurrent-1(x,y)为特征点在前一帧中的位置,W为光流矩阵;
15)在对应尺度空间上,通过稠密光流在15帧的时间范围内追踪特征点的位置,以此形成运动轨迹,并将该尺度空间在空间金字塔中的层序定义空间尺度σ,特征点在15帧的时间范围内运动的轨迹长度定义为时间尺度τ,首先,轨迹(光流)的意思是,一个特征点在连续15帧中运动的位置,把这些位置记录下来即为轨迹,所以一条轨迹将对应15个特征点(每帧之中有一个特征点对应),计算轨迹的时候,是根据第一个特征点的某个空间尺度进行计算的。所以对于某一条轨迹的空间尺度是一定的。而时间尺度的定义为一条轨迹在15帧之内运动的像素点的距离。所以对于一条轨迹来说,时间尺度也是一定的。
2)使用基于轨迹使用描述算法,通过计算特征点邻域的梯度直方图向量、光流直方图向量、x分量运动边界直方图向量和y分量运动边界直方图向量,得到特征描述向量,具体包括步骤:
21)以每一个特征点为中心,在灰度图像矩阵的32×32×15像素区域内,计算该区域的梯度直方图向量,其维度为96维;
22)在稠密光流矩阵的32×32×15像素区域内,计算该区域的光流直方图向量,其维度为108维;
23)使用Sobel算子计算光流矩阵x分量的梯度Mx和y分量的梯度My,以每一个特征点为中心,在矩阵Mx和My的32×32×15像素区域内,分别计算上述区域的x分量运动边界直方图和y分量运动边界直方图向量,其维度分别为96维;
24)以每一个特征点为中心,在连续15帧的范围内,将这个特征点的x方向和y方向的位移连接起来,得到轨迹的特征描述向量,其维度为30维;
25)用有符号平方根L1归一化方法对上述特征描述向量进行归一化操作。
3)使用PCA方法将每个视频中的每个特征描述向量降维至原维度的一半;
4)利用基于尺度空间的高斯混合模型对训练数据中的特征描述向量进行聚类,再生成视频数据集中每一个视频的费舍尔向量,具体包括步骤:
41)构建高斯混合模型:
其中:p(yt,st)为高斯混合模型,πi为第i个针对特征描述向量的高斯分量的权重,K为针对特征描述向量的高斯分量的数目,yt为第t个特征点对应的特征描述向量,μi的均值,Σi的协方差矩阵,λji的高斯分量的第j个针对尺度信息的高斯分量的权重,st为第t个特征点对应的尺度信息,δji的均值,Zji的协方差矩阵,N(·)为高斯密度函数:
42)对每一个高斯分量,计算其费舍尔向量值;
其中:FV1,FV2,FV3,FV4,FV5,FV6为费舍尔向量值,qi(t)为基于特征描述向量和的后验概率,rji(t)为基于尺度信息和的后验概率,diag(·)为向量的对角阵表达式;
43)将向量FV1,FV2,FV3,FV4,FV5,FV6在每一个高斯分量上进行串联,得到该视频的费舍尔向量,该向量的维度是2D+1+J(2T+1))K,其中T为尺度信息的维度。
基于特征描述向量和的后验概率具体为:
其中:l为针对特征向量的高斯混合模型的序号,j为针对尺度信息的高斯混合模型的序号;
基于尺度信息和的后验概率具体为:
5)使用训练数据中得到的费舍尔向量,训练得到线性支持向量机分类模型;
6)使用线性支持向量机分类模型对测试数据中的视频进行分类。
为了验证本申请方法的性能,设计了以下实验。
如图2所示,在两个公开数据集上(Hollywood2、HMDB51)使用本方法进行训练以及测试,其中使用稠密采样提取特征点,使用Farneback算法跟踪特征点形成光流,使用Traj、HoG、HoF、MBH四个描述算法进行特征描述。使用基于尺度信息的高斯混合模型进行聚类,聚类维度设置为256,使用基于尺度信息的费舍尔向量生成视频描述向量。在Hollywood2和HMDB51上分别获得66.53%以及60.56%。

Claims (6)

1.一种基于视频尺度信息的视频分类方法,其特征在于,包括步骤:
1)将视频数据集划分为训练数据和测试数据,提取每个视频的特征点以及特征点的轨迹,并得到视频的空间尺度以及时间尺度;
2)使用基于轨迹使用描述算法,通过计算特征点邻域的梯度直方图向量、光流直方图向量、x分量运动边界直方图向量和y分量运动边界直方图向量,得到特征描述向量;
3)使用PCA方法将每个视频中的每个特征描述向量降维至原维度的一半;
4)利用基于尺度空间的高斯混合模型对训练数据中的特征描述向量进行聚类,再生成视频数据集中每一个视频的费舍尔向量;
5)使用训练数据中得到的费舍尔向量,训练得到线性支持向量机分类模型;
6)使用线性支持向量机分类模型对测试数据中的视频进行分类。
2.根据权利要求1所述的一种基于视频尺度信息的视频分类方法,其特征在于,所述步骤1)中特征点以及特征点的轨迹的提取过程具体包括步骤:
11)提取视频中的每一帧,以为缩放因子构建空间金字塔作为尺度空间,设任一尺度空间上当前帧为Icurrent,前一帧Icurrent-1,其中,所述空间金字塔的层数即为尺度空间的个数;
12)提取出每一帧中的特征点;
13)对于任一尺度空间,计算光流矩阵;
14)在对应尺度空间上,计算从前一帧计算得到的特征点在当前帧中的位移之后的位置:
xcurrent(x,y)=xcurrent-1(x,y)+W
其中:xcurrent(x,y)为特征点在当前帧中的位置,xcurrent-1(x,y)为特征点在前一帧中的位置,W为光流矩阵;
15)在对应尺度空间上,通过稠密光流在15帧的时间范围内追踪特征点的位置,以此形成运动轨迹,并将该尺度空间在空间金字塔中的层序定义空间尺度σ,特征点在15帧的时间范围内运动的轨迹长度定义为时间尺度τ。
3.根据权利要求2所述的一种基于视频尺度信息的视频分类方法,其特征在于,所述步骤11)具体为:提取视频中的每一帧,以为缩放因子,将视频中每一帧的长宽按照的倍数的比例进行大小缩放,得到相同长宽比,但大小不同的一组图片,这组图片构建空间金字塔作为尺度空间,设任一尺度空间上当前帧为Icurrent,前一帧Icurrent-1
4.根据权利要求2所述的一种基于视频尺度信息的视频分类方法,其特征在于,所述步骤2)具体包括步骤:
21)以每一个特征点为中心,在灰度图像矩阵的32×32×15像素区域内,计算该区域的梯度直方图向量,其维度为96维;
22)在稠密光流矩阵的32×32×15像素区域内,计算该区域的光流直方图向量,其维度为108维;
23)使用Sobel算子计算光流矩阵x分量的梯度Mx和y分量的梯度My,以每一个特征点为中心,在矩阵Mx和My的32×32×15像素区域内,分别计算上述区域的x分量运动边界直方图和y分量运动边界直方图向量,其维度分别为96维;
24)以每一个特征点为中心,在连续15帧的范围内,将这个特征点的x方向和y方向的位移连接起来,得到轨迹的特征描述向量,其维度为30维;
25)用有符号平方根L1归一化方法对上述特征描述向量进行归一化操作。
5.根据权利要求4所述的一种基于视频尺度信息的视频分类方法,其特征在于,所述步骤4)具体包括步骤:
41)构建高斯混合模型:
p ( y t , s t ) = Σ i = 1 K π i N ( y t ; μ i , Σ i ) Σ j = 1 J λ j i N ( s t , δ j i , Z j i )
其中:p(yt,st)为高斯混合模型,πi为第i个针对特征描述向量的高斯分量的权重,K为针对特征描述向量的高斯分量的数目,yt为第t个特征点对应的特征描述向量,μi的均值,Σi的协方差矩阵,λji的高斯分量的第j个针对尺度信息的高斯分量的权重,st为第t个特征点对应的尺度信息,δji的均值,Zji的协方差矩阵,N(·)为高斯密度函数;
42)对每一个高斯分量,计算其费舍尔向量值;
FV 1 = q i ( t ) - π i FV 2 = q i ( t ) Σ i - 1 ( y t - μ i ) FV 3 = q i ( t ) Σ i - d i a g ( ( y t - μ i ) 2 ) 2 FV 4 = q i ( t ) ( r j i ( t ) - λ j i ) FV 5 = q i ( t ) r j i ( t ) Z j i - 1 ( s t - δ j i ) FV 6 = q i ( t ) r j i ( t ) Z j i - d i a g ( ( s t - δ j i ) 2 ) 2
其中:FV1,FV2,FV3,FV4,FV5,FV6为费舍尔向量值,qi(t)为基于特征描述向量和的后验概率,rji(t)为基于尺度信息和的后验概率,diag(·)为向量的对角阵表达式;
43)将向量FV1,FV2,FV3,FV4,FV5,FV6在每一个高斯分量上进行串联,得到该视频的费舍尔向量,该向量的维度是2D+1+J(2T+1))K,其中T为尺度信息的维度。
6.根据权利要求5所述的一种基于视频尺度信息的视频分类方法,其特征在于,所述基于特征描述向量和的后验概率具体为:
q i ( t ) = π i N ( y t ; μ i , Σ i ) Σ j = 1 J λ j i N ( s t , δ j i , Z j i ) Σ l = 1 K π l N ( y t ; μ l , Σ 1 ) Σ j = 1 J λ j i N ( s t , δ j l , Z j l )
所述基于尺度信息和的后验概率具体为:
r j i ( t ) = λ j i N ( s t ; δ j i , Z j i ) Σ l = 1 J λ l j N ( s t ; δ l j , Z l j ) .
CN201510780201.2A 2015-11-13 2015-11-13 一种基于视频尺度信息的视频分类方法 Active CN105488519B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510780201.2A CN105488519B (zh) 2015-11-13 2015-11-13 一种基于视频尺度信息的视频分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510780201.2A CN105488519B (zh) 2015-11-13 2015-11-13 一种基于视频尺度信息的视频分类方法

Publications (2)

Publication Number Publication Date
CN105488519A true CN105488519A (zh) 2016-04-13
CN105488519B CN105488519B (zh) 2019-01-25

Family

ID=55675490

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510780201.2A Active CN105488519B (zh) 2015-11-13 2015-11-13 一种基于视频尺度信息的视频分类方法

Country Status (1)

Country Link
CN (1) CN105488519B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203354A (zh) * 2016-07-14 2016-12-07 南京信息工程大学 基于混合深度结构的场景识别方法
CN107133640A (zh) * 2017-04-24 2017-09-05 河海大学 基于局部图像块描述子和费舍尔向量的图像分类方法
CN108629301A (zh) * 2018-04-24 2018-10-09 重庆大学 一种基于运动边界稠密采样和运动梯度直方图的人体动作识别方法
CN109284667A (zh) * 2018-07-26 2019-01-29 同济大学 一种面向视频的三流式人体运动行为空间域检测方法
CN109697387A (zh) * 2017-10-23 2019-04-30 北京京东尚科信息技术有限公司 运动方向预测方法、装置、电子设备及存储介质
CN110991307A (zh) * 2019-11-27 2020-04-10 北京锐安科技有限公司 人脸识别的方法、装置、设备及存储介质
CN111401230A (zh) * 2020-03-13 2020-07-10 深圳市商汤科技有限公司 姿态估计方法及装置、电子设备和存储介质
CN113313205A (zh) * 2021-06-23 2021-08-27 南昌航空大学 一种深度图像分层方法及系统
CN115578862A (zh) * 2022-10-26 2023-01-06 中国建设基础设施有限公司 交通流量转换方法、装置、计算设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060256210A1 (en) * 2005-04-28 2006-11-16 Kathleen Ryall Spatio-temporal graphical user interface for querying videos
CN104036287A (zh) * 2014-05-16 2014-09-10 同济大学 一种基于人类运动显著轨迹的视频分类方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060256210A1 (en) * 2005-04-28 2006-11-16 Kathleen Ryall Spatio-temporal graphical user interface for querying videos
CN104036287A (zh) * 2014-05-16 2014-09-10 同济大学 一种基于人类运动显著轨迹的视频分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
K. SENTHILKUMAR 等: "Performance Enhancement of Data Processing using Multiple Intelligent Cache in Hadoop", 《INTERNATIONAL JOURNAL OF INNOVATIONS IN ENGINEERING AND TECHNOLOGY》 *
孙亚东: "基于多尺度与多分层架构图像特征提取与目标识别研究", 《万方知识服务平台》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203354B (zh) * 2016-07-14 2019-04-12 南京信息工程大学 基于混合深度结构的场景识别方法
CN106203354A (zh) * 2016-07-14 2016-12-07 南京信息工程大学 基于混合深度结构的场景识别方法
CN107133640A (zh) * 2017-04-24 2017-09-05 河海大学 基于局部图像块描述子和费舍尔向量的图像分类方法
CN109697387B (zh) * 2017-10-23 2021-07-30 北京京东尚科信息技术有限公司 运动方向预测方法、装置、电子设备及存储介质
CN109697387A (zh) * 2017-10-23 2019-04-30 北京京东尚科信息技术有限公司 运动方向预测方法、装置、电子设备及存储介质
CN108629301B (zh) * 2018-04-24 2022-03-08 重庆大学 一种人体动作识别方法
CN108629301A (zh) * 2018-04-24 2018-10-09 重庆大学 一种基于运动边界稠密采样和运动梯度直方图的人体动作识别方法
CN109284667A (zh) * 2018-07-26 2019-01-29 同济大学 一种面向视频的三流式人体运动行为空间域检测方法
CN109284667B (zh) * 2018-07-26 2021-09-03 同济大学 一种面向视频的三流式人体运动行为空间域检测方法
CN110991307A (zh) * 2019-11-27 2020-04-10 北京锐安科技有限公司 人脸识别的方法、装置、设备及存储介质
CN110991307B (zh) * 2019-11-27 2023-09-26 北京锐安科技有限公司 人脸识别的方法、装置、设备及存储介质
CN111401230A (zh) * 2020-03-13 2020-07-10 深圳市商汤科技有限公司 姿态估计方法及装置、电子设备和存储介质
CN111401230B (zh) * 2020-03-13 2023-11-28 深圳市商汤科技有限公司 姿态估计方法及装置、电子设备和存储介质
CN113313205B (zh) * 2021-06-23 2022-03-01 南昌航空大学 一种深度图像分层方法及系统
CN113313205A (zh) * 2021-06-23 2021-08-27 南昌航空大学 一种深度图像分层方法及系统
CN115578862A (zh) * 2022-10-26 2023-01-06 中国建设基础设施有限公司 交通流量转换方法、装置、计算设备和存储介质
CN115578862B (zh) * 2022-10-26 2023-09-19 中国建设基础设施有限公司 交通流量转换方法、装置、计算设备和存储介质

Also Published As

Publication number Publication date
CN105488519B (zh) 2019-01-25

Similar Documents

Publication Publication Date Title
CN105488519A (zh) 一种基于视频尺度信息的视频分类方法
Chen et al. An edge traffic flow detection scheme based on deep learning in an intelligent transportation system
CN110781838B (zh) 一种复杂场景下行人的多模态轨迹预测方法
Li et al. Adaptive deep convolutional neural networks for scene-specific object detection
CN108171196B (zh) 一种人脸检测方法及装置
CN104036287B (zh) 一种基于人类运动显著轨迹的视频分类方法
CN111353395A (zh) 一种基于长短期记忆网络的换脸视频检测方法
CN109977895B (zh) 一种基于多特征图融合的野生动物视频目标检测方法
Ren et al. A novel squeeze YOLO-based real-time people counting approach
CN110334602B (zh) 一种基于卷积神经网络的人流量统计方法
CN105574848A (zh) 用于对象的自动分割的方法和装置
CN105005760A (zh) 一种基于有限混合模型的行人再识别方法
Zhang et al. License plate localization in unconstrained scenes using a two-stage CNN-RNN
CN113744311A (zh) 基于全连接注意力模块的孪生神经网络运动目标跟踪方法
CN114758288A (zh) 一种配电网工程安全管控检测方法及装置
CN103577875A (zh) 一种基于fast的计算机辅助cad人数统计方法
CN105354542A (zh) 一种拥挤场景下视频异常事件检测方法
CN107609509A (zh) 一种基于运动显著性区域检测的动作识别方法
CN114360030A (zh) 一种基于卷积神经网络的人脸识别方法
CN105631469A (zh) 一种多层稀疏编码特征的鸟类图像识别方法
CN102708364A (zh) 基于分级分类器的指纹图像分类方法
Ma et al. Scene invariant crowd counting using multi‐scales head detection in video surveillance
CN101794383A (zh) 基于隐马尔科夫模型的拥塞交通场景的视频车辆检测方法
CN102609732B (zh) 基于泛化视觉词典图的物体识别方法
Khosravi et al. Vehicle speed and dimensions estimation using on-road cameras by identifying popular vehicles

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230420

Address after: Unit 1001, 369 Weining Road, Changning District, Shanghai, 200336 (9th floor of actual floor)

Patentee after: DEEPBLUE TECHNOLOGY (SHANGHAI) Co.,Ltd.

Address before: 200092 Siping Road 1239, Shanghai, Yangpu District

Patentee before: TONGJI University

TR01 Transfer of patent right