CN112446348A - 一种基于特征谱流的行为识别方法 - Google Patents
一种基于特征谱流的行为识别方法 Download PDFInfo
- Publication number
- CN112446348A CN112446348A CN202011443338.6A CN202011443338A CN112446348A CN 112446348 A CN112446348 A CN 112446348A CN 202011443338 A CN202011443338 A CN 202011443338A CN 112446348 A CN112446348 A CN 112446348A
- Authority
- CN
- China
- Prior art keywords
- characteristic spectrum
- network
- convolution
- spectrum
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Abstract
本发明针对目前双流网络由于时序分支中光流计算开销的限制,训练时间过长的问题,以及,由于多光源、阴影、遮挡等原因,计算出来的光流场并不一定是可靠;时空域特征建模完全分离,在网络最后的融合可能不充分的问题,提供一种基于特征谱流的行为识别方法,使用特征谱流替代光流作为时间3D卷积网络的输入。对行为视频流进行1x1卷积生成每帧的特征谱,再依次对各帧的特征谱进行3x3卷积,依次将相邻两帧中前一帧特征谱3x3卷积结果与后一帧特征谱在像素维度上相减,根据相减结果生成特征谱流中的一个谱。特征谱流具有更强的鲁棒性,使得本发明在显著减小存储和计算开销的情况下取得更佳的识别效果。
Description
技术领域
本发明涉及深度学习技术,特别涉及基于特征谱流的行为识别技术。
背景技术
随着社会的进步,人们对智能生活的需求逐日增长。Google眼镜、大疆相机的出现,使得可穿戴设备成为人们拍摄视频的日常用品,视频流在许多应用场景中变得流行,例如公务执勤、日常记录、运动拍摄。这些大量的视频数据有着宽阔的应用前景以及不可估量的经济与社会价值,可被应用于各种不同的研究领域。行为识别作为计算机视觉研究中的一个热点,是视频流应用中一种重要的研究方法,不仅可以帮助判断操作者的行为类别,还可以基于识别结果进行视频检索,具有挑战性。
目前,基于深度学习的行为识别模型已经应用到了各大领域,而双流网络是目前采用深度学习方法进行行为识别的一个重要分支。
双流卷积神经网络可以看作对人体视觉过程的模仿,对视频信息进行理解。在处理视频帧图像中环境空间信息的基础上,对视频帧序列中的时序信息进行提取。为了更好地实现这一点,双流卷积神经网络将视频分类任务分为两个不同的部分,第一部分是单独的视频单帧作为表述空间信息的载体,输入卷积神经网络中,其中包含环境、视频中的物体等空间信息,称为空域识别网络;第二部分是将光流信息作为时序信息的载体,输入到另外一个卷积神经网络中,用来理解动作的动态特征,称为时域识别网络。为了融合时空特征,获得更好的特征表达结果,将单帧RGB图像以及叠加后的光流图像作为网络输入,利用卷积神经网络对数据样本进行特征提取,再在网络最后进行特征融合。
在目前的双流网络中,时域识别网络流主要采用的是连续视频帧的光流位移场,光流信息可以有几种变体选择。相较于单一的RGB视频流,光流可以提供额外的时域信息,作为帧间运动信息的补充,有助于行为识别性能的提高,因此光流在行为识别中具有广泛的应用。然而基于光流的双流网络方法也存在存储和计算开销大,时空信息建模分离等问题。
发明内容
本发明所要解决的技术问题是,针对目前双流网络由于时序分支中光流计算开销的限制,训练时间过长的问题,以及,由于多光源、阴影、遮挡等原因,计算出来的光流场并不一定是可靠;时空域特征建模完全分离,在网络最后的融合可能不充分的问题,提供一种提升双流网络的计算效率以及识别的可靠性的行为识别方法。
本发明为解决上述技术问题所采用的技术方案是,一种基于特征谱流的行为识别方法,包括以下步骤:
步骤1:对输入的行为视频流同时进行步骤2和步骤3的处理;
步骤2:对行为视频流进行1x1卷积生成每帧的特征谱,再依次对各帧的特征谱进行3x3卷积,依次将相邻两帧中前一帧特征谱3x3卷积结果与后一帧特征谱在像素维度上相减,根据相减结果生成特征谱流中的一个谱,进入步骤4;
步骤3:将行为视频流中每一帧作为空域信息来源,送入空间2D卷积网络,进入步骤5;
步骤4:将特征谱流作为时域信息来源,送入时间3D卷积网络,进入步骤5;
步骤5:将时间3D卷积网络输出的时域特征和空间2D卷积网络输出的空域特征通过拼接的方式进行融合,得到融合特征;
步骤6:基于融合特征进行行为识别。
本发明的有益效果是,使用特征谱流替代光流作为时间3D卷积网络的输入,特征谱流具有更强的鲁棒性,显著减小存储和计算开销的情况下取得更佳的识别效果。
附图说明
图1为本发明流程图。
图2为特征谱流计算模块示意图。
具体实施方式
实施例主要在TX2嵌入式平台上进行实现,首先构建行为识别视频数据集,目前没有一个较大的包含比较全面的日常行为类别的视频数据集,只有一些短时动作或是身体局部动作,因此首先自行拍摄符合日常行为要求的视频流,随后通过合理的剪辑构建噪声较少的行为视频数据集。
现有的双流网络架构对单帧输入采用7x7、5x5和三个3x3大小的卷积核进行特征提取,随后连接两个全连接层,以堆叠的L2标准化的Softmax函数作为该分支的输出。将连续多个相邻两帧的位移矢量场的集合作为密集光流输入时域识别网络。密集光流可以看作是连续帧t和t+1之间的一组位移矢量场dt。dt(u,v)表示帧t中点(u,v)的位移矢量,表示它将点移动到下一帧t+1中的相应点。矢量场的水平分量和垂直分量可以看作图像通道。为了表示一系列帧的运动,将L个连续帧的流通道叠加在一起,形成总共2L个输入通道。
网络输入光流堆叠特征的计算方式为:
式中第一个参数u和第二个参数v为像素点的坐标,第三个参数为输入光流特征的通道数,其中2k-1表示输入光流特征的第2k-1个通道(水平分量),2k表示输入光流特征的第2k个通道(垂直分量),Iτ(u,v,2k-1)表示输入的第2k-1个通道,坐标为(u,v)的像素点的光流特征。
除了光流堆叠,部分网络中也会使用轨迹堆叠作为输入特征,其位移矢量描述公式是:
其中pk是轨迹上的第k个点,从第τ帧的(u,v)开始,由以下递归关系定义:
p1=(u,v),pk=pk-1+dτ+k-2(pk-1),k>1
基于特征谱流的双流行为识别网络在训练时包括特征谱流计算模块、2D卷积网络、深度分离的3D卷积网络、Concat层、FC层、SoftmaxLoss模块;在测试时包括特征谱流计算模块、2D卷积网络、深度分离的3D卷积网络、Concat层、FC层、Softmax模块。
由于双流网络光流分支存在存储和计算开销大,时空信息建模分离等问题,本发明的行为识别采用特征谱流作为时域特征提取来源。如图1所示,主要包括步骤:单帧图像输入2D卷积神经网络获得行为视频流中的空间特征谱。视频流通过特征谱流计算模块获得特征谱流,将特征谱流输入3D卷积神经网络获得行为视频流中的时空特征谱,其中3D卷积神经网络的输出通道数与2D卷积神经网络的宽高尺寸匹配,采用拼接的方式将同尺寸的空间特征谱和时空特征谱进行融合,将融合后的特征谱作为后续行为识别的依据,得到分类结果。
特征谱流计算模块的具体步骤如图2所示:
第1步:对输入视频流进行1x1的卷积,得到特征谱T0,T1,……;
第2步:将特征谱T1的3x3卷积结果并与特征谱T0在像素级别相减,通过ReLU层进行激活操作,得到特征谱流中的一个谱T’0=[(Conv3*3)*T1]-T0;第3步:对T2,T3,……,Tn依次进行第2步中的操作,得到完整的特征谱流,T’n=[(Conv3*3)*Tn+1]-Tn。可以看出相比于光流计算模块,特征谱流计算模块的计算量大大降低。
在基于特征谱流的双流网络结构中,2D卷积神经网络可以采用常见的ResNet,VGG等网络,也可以单纯使用3~5个卷积层;3D卷积神经网络可以采用ResNet-3D,Inception等形式,也可以使用3~5个卷积层,同时利用深度分离卷积的方法,降低所需计算量,提高计算效率。
基于特征谱流的双流网络结构来实现行为识别的步骤包括:
1)训练步骤:
1-1)输入单帧样本经过五个卷积层的2D ConvNet得到空间特征谱,样本标签输入至损失层Loss;
1-2)输入连续帧样本,通过特征谱流计算模块得到特征谱流,经过深度分离的3DConvNet卷积层得到时空特征谱,样本标签同样输入至损失层Loss;
1-3)将步骤1-1)与步骤1-2)两个分支进行拼接融合,整体训练的损失计算为各分支损失之和,通过反向传播更新网络参数,完成时域识别网络3DConvNet与空域识别网络2DConvNet的训练。
2)测试步骤:
2-1)对一个视频均匀地采样48帧,选取中间帧作为单帧,对所有帧进行缩放和裁剪,使其尺寸和网络输入匹配;
2-2)将单帧输入空域识别网络得到空间特征谱,将48帧输入时域识别网络;在特征谱流的基础上得到时空特征谱,将空间特征谱与时空特征谱融合后输入Softmax层,对每个分支Softmax层的分数求平均来获得整个行为视频的类别分数。
在网络配置和训练细节方面,所有的激活函数用的都是ReLU,最大池化所用池化核的大小为3x3,步长为2。使用动量梯度下降法,参数为0.9,每次迭代对4个训练视频进行均匀采样48帧来构建样本,从每个样本中选取中间帧作为单帧输入,48帧作为视频流输入。对于单帧,先缩放成256x256大小,再随机裁剪224x224的子图像,施加随机水平移动和RGB抖动。对于视频,同样经过缩放和裁剪,输入是固定尺寸的224x224x48的一系列图片。网络的初始学习率设置为0.01,使用固定衰减的策略。
Claims (1)
1.一种基于特征谱流的行为识别方法,其特征在于,包括以下步骤:
步骤1:对输入的行为视频流同时进行步骤2和步骤3的处理;
步骤2:对行为视频流进行1x1卷积生成每帧的特征谱,再依次对各帧的特征谱进行3x3卷积,依次将相邻两帧中前一帧特征谱3x3卷积结果与后一帧特征谱在像素维度上相减,根据相减结果生成特征谱流中的一个谱,进入步骤4;
步骤3:将行为视频流中每一帧作为空域信息来源,送入空间2D卷积网络,进入步骤5;
步骤4:将特征谱流作为时域信息来源,送入时间3D卷积网络,进入步骤5;
步骤5:将时间3D卷积网络输出的时域特征和空间2D卷积网络输出的空域特征通过拼接的方式进行融合,得到融合特征;
步骤6:基于融合特征进行行为识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011443338.6A CN112446348B (zh) | 2020-12-08 | 2020-12-08 | 一种基于特征谱流的行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011443338.6A CN112446348B (zh) | 2020-12-08 | 2020-12-08 | 一种基于特征谱流的行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112446348A true CN112446348A (zh) | 2021-03-05 |
CN112446348B CN112446348B (zh) | 2022-05-31 |
Family
ID=74739822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011443338.6A Active CN112446348B (zh) | 2020-12-08 | 2020-12-08 | 一种基于特征谱流的行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112446348B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113284110A (zh) * | 2021-05-26 | 2021-08-20 | 复旦大学附属中山医院 | 基于双流法的胃镜视频部位识别网络结构 |
CN113408355A (zh) * | 2021-05-20 | 2021-09-17 | 南昌大学 | 一种基于三支决策和光流过滤机制的微表情压缩方法 |
CN113591654A (zh) * | 2021-07-22 | 2021-11-02 | 中南大学 | 一种基于长时程深度特征的锌浮选工况识别方法 |
CN114241280A (zh) * | 2022-02-23 | 2022-03-25 | 广东电网有限责任公司东莞供电局 | 一种主站调度系统后台画面图像的动态识别方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104320618A (zh) * | 2014-10-23 | 2015-01-28 | 西北农林科技大学 | 一种基于行为特征谱联动的犊牛状态监测的装置和方法 |
CN110032942A (zh) * | 2019-03-15 | 2019-07-19 | 中山大学 | 基于时域分段及特征差分的动作识别方法 |
CN110223242A (zh) * | 2019-05-07 | 2019-09-10 | 北京航空航天大学 | 一种基于时空域残差生成对抗网络的视频湍流移除方法 |
CN110348288A (zh) * | 2019-05-27 | 2019-10-18 | 哈尔滨工业大学(威海) | 一种基于77GHz毫米波雷达信号的手势识别方法 |
CN110378245A (zh) * | 2019-06-26 | 2019-10-25 | 平安科技(深圳)有限公司 | 基于深度学习的足球比赛行为识别方法、装置及终端设备 |
CN110517307A (zh) * | 2019-06-20 | 2019-11-29 | 福州瑞芯微电子股份有限公司 | 利用卷积实现基于激光散斑图的立体匹配方法 |
CN110598598A (zh) * | 2019-08-30 | 2019-12-20 | 西安理工大学 | 基于有限样本集的双流卷积神经网络人体行为识别方法 |
CN111079594A (zh) * | 2019-12-04 | 2020-04-28 | 成都考拉悠然科技有限公司 | 一种基于双流协同网络的视频动作分类识别方法 |
CN111582230A (zh) * | 2020-05-21 | 2020-08-25 | 电子科技大学 | 基于空时特征的视频行为分类方法 |
US20210000404A1 (en) * | 2019-07-05 | 2021-01-07 | The Penn State Research Foundation | Systems and methods for automated recognition of bodily expression of emotion |
CN112926453A (zh) * | 2021-02-26 | 2021-06-08 | 电子科技大学 | 基于运动特征增强和长时时序建模的考场作弊行为分析方法 |
CN114241280A (zh) * | 2022-02-23 | 2022-03-25 | 广东电网有限责任公司东莞供电局 | 一种主站调度系统后台画面图像的动态识别方法 |
-
2020
- 2020-12-08 CN CN202011443338.6A patent/CN112446348B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104320618A (zh) * | 2014-10-23 | 2015-01-28 | 西北农林科技大学 | 一种基于行为特征谱联动的犊牛状态监测的装置和方法 |
CN110032942A (zh) * | 2019-03-15 | 2019-07-19 | 中山大学 | 基于时域分段及特征差分的动作识别方法 |
CN110223242A (zh) * | 2019-05-07 | 2019-09-10 | 北京航空航天大学 | 一种基于时空域残差生成对抗网络的视频湍流移除方法 |
CN110348288A (zh) * | 2019-05-27 | 2019-10-18 | 哈尔滨工业大学(威海) | 一种基于77GHz毫米波雷达信号的手势识别方法 |
CN110517307A (zh) * | 2019-06-20 | 2019-11-29 | 福州瑞芯微电子股份有限公司 | 利用卷积实现基于激光散斑图的立体匹配方法 |
CN110378245A (zh) * | 2019-06-26 | 2019-10-25 | 平安科技(深圳)有限公司 | 基于深度学习的足球比赛行为识别方法、装置及终端设备 |
US20210000404A1 (en) * | 2019-07-05 | 2021-01-07 | The Penn State Research Foundation | Systems and methods for automated recognition of bodily expression of emotion |
CN110598598A (zh) * | 2019-08-30 | 2019-12-20 | 西安理工大学 | 基于有限样本集的双流卷积神经网络人体行为识别方法 |
CN111079594A (zh) * | 2019-12-04 | 2020-04-28 | 成都考拉悠然科技有限公司 | 一种基于双流协同网络的视频动作分类识别方法 |
CN111582230A (zh) * | 2020-05-21 | 2020-08-25 | 电子科技大学 | 基于空时特征的视频行为分类方法 |
CN112926453A (zh) * | 2021-02-26 | 2021-06-08 | 电子科技大学 | 基于运动特征增强和长时时序建模的考场作弊行为分析方法 |
CN114241280A (zh) * | 2022-02-23 | 2022-03-25 | 广东电网有限责任公司东莞供电局 | 一种主站调度系统后台画面图像的动态识别方法 |
Non-Patent Citations (11)
Title |
---|
CHRISTOPH FEICHTENHOFER等: "Convolutional Two-Stream Network Fusion for Video Action Recognition", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
EWENWANW: "视频行为识别检测综述 IDT TSN CNN-LSTM C3D CDC R-C3D", 《HTTPS://BLOG.CSDN.NET/XIAOXIAOWENQIANG/ARTICLE/DETAILS/80752849》 * |
HONGLIANG LI等: "Efficient Geometry Surface Coding in V-PCC", 《IEEE TRANSACTIONS ON MULTIMEDIA》 * |
HYUNGMIN KIM等: "Learning Multi-modal Attentional Consensus in Action Recognition for Elderly-Care Robots", 《2021 18TH INTERNATIONAL CONFERENCE ON UBIQUITOUS ROBOTS (UR)》 * |
MIN LI等: "3D Convolutional Two-Stream Network for Action Recognition in Videos", 《2019 IEEE 31ST INTERNATIONAL CONFERENCE ON TOOLS WITH ARTIFICIAL INTELLIGENCE (ICTAI)》 * |
刘祎楠: "基于空时信息的行为识别方法研究", 《中国优秀博硕士学位论文全文数据库(博士)信息科技辑》 * |
唐迅: "基于稀疏编码的群体异常行为检测", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
杨天明等: "基于视频深度学习的时空双流人物动作识别模型", 《计算机应用》 * |
薛路强: "基于双流融合卷积神经网络的人体行为识别研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
贺斌: "基于深度学习的考场作弊行为分析与研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
钟子涵: "基于时空融合策略的第一视角行为识别方法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408355A (zh) * | 2021-05-20 | 2021-09-17 | 南昌大学 | 一种基于三支决策和光流过滤机制的微表情压缩方法 |
CN113408355B (zh) * | 2021-05-20 | 2022-04-12 | 南昌大学 | 一种基于三支决策和光流过滤机制的微表情压缩方法 |
CN113284110A (zh) * | 2021-05-26 | 2021-08-20 | 复旦大学附属中山医院 | 基于双流法的胃镜视频部位识别网络结构 |
CN113591654A (zh) * | 2021-07-22 | 2021-11-02 | 中南大学 | 一种基于长时程深度特征的锌浮选工况识别方法 |
CN113591654B (zh) * | 2021-07-22 | 2023-09-01 | 中南大学 | 一种基于长时程深度特征的锌浮选工况识别方法 |
CN114241280A (zh) * | 2022-02-23 | 2022-03-25 | 广东电网有限责任公司东莞供电局 | 一种主站调度系统后台画面图像的动态识别方法 |
CN114241280B (zh) * | 2022-02-23 | 2022-05-27 | 广东电网有限责任公司东莞供电局 | 一种主站调度系统后台画面图像的动态识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112446348B (zh) | 2022-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112446348B (zh) | 一种基于特征谱流的行为识别方法 | |
CN111144329B (zh) | 一种基于多标签的轻量快速人群计数方法 | |
CN111709304B (zh) | 一种基于时空注意力增强特征融合网络的行为识别方法 | |
CN110059598B (zh) | 基于姿态关节点的长时程快慢网络融合的行为识别方法 | |
CN110378348A (zh) | 视频实例分割方法、设备及计算机可读存储介质 | |
CN108921032B (zh) | 一种新的基于深度学习模型的视频语义提取方法 | |
CN110852295B (zh) | 一种基于多任务监督学习的视频行为识别方法 | |
CN112232164A (zh) | 一种视频分类方法和装置 | |
CN108805036B (zh) | 一种非监督视频语义提取方法 | |
CN111539290A (zh) | 视频动作识别方法、装置、电子设备及存储介质 | |
CN112257526A (zh) | 一种基于特征交互学习的动作识别方法及终端设备 | |
CN112597824A (zh) | 行为识别方法、装置、电子设备和存储介质 | |
CN109753984A (zh) | 视频分类方法、装置和计算机可读存储介质 | |
CN112364870A (zh) | 一种基于特征和谐激活的小样本语义分割方法 | |
Liu et al. | ACDnet: An action detection network for real-time edge computing based on flow-guided feature approximation and memory aggregation | |
CN110163052A (zh) | 视频动作识别方法、装置和机器设备 | |
CN111882053A (zh) | 一种基于拼接卷积的神经网络模型压缩方法 | |
CN114202787A (zh) | 一种基于深度学习和二维注意力机制的多帧微表情情感识别方法 | |
CN112906549B (zh) | 一种基于时空胶囊网络的视频行为检测方法 | |
Wu et al. | Cross-fiber spatial-temporal co-enhanced networks for video action recognition | |
CN112528077B (zh) | 基于视频嵌入的视频人脸检索方法及系统 | |
CN113066074A (zh) | 一种基于双目视差偏移融合的视觉显著性预测方法 | |
CN113538402A (zh) | 一种基于密度估计的人群计数方法及系统 | |
CN110942463B (zh) | 一种基于生成对抗网络的视频目标分割方法 | |
CN115171052B (zh) | 基于高分辨率上下文网络的拥挤人群姿态估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |