CN112101164A - 基于全卷积网络的轻量化人群计数方法 - Google Patents
基于全卷积网络的轻量化人群计数方法 Download PDFInfo
- Publication number
- CN112101164A CN112101164A CN202010925231.9A CN202010925231A CN112101164A CN 112101164 A CN112101164 A CN 112101164A CN 202010925231 A CN202010925231 A CN 202010925231A CN 112101164 A CN112101164 A CN 112101164A
- Authority
- CN
- China
- Prior art keywords
- module
- fusion
- feature map
- crp
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于全卷积网络的轻量化人群计数方法,本发明属基于目标计数领域。通过建立全卷积网络,所述的全卷积网络包括编码器结构、解码器结构和预测层三部分,其中编码器结构包括4层瓶颈模块bottlenecker,解码器结构包含4个CRP模块和3个FUSION模块;预测层首先包含一个1×1卷积,将输入特征图中每个像素位置的d维特征向量转变成相应的密度值;然后将得到的密度图通过双线性插值的上采样操作恢复到原始图像的大小,得到最终输出密度图,密度图的每个像素位置的数值之和即为该图片的人数。本发明相比于现有其他模型结构具有更少的参数与更低的运算量需求,在保留现有人群计数方法较高的精度的前提下,能够达到实时人群计数的效果。
Description
技术领域
本发明属基于目标计数领域,具体为采用全卷积编码器-解码器网络结构的高精度实时人群计数方法。
背景技术
人群计数技术因其远高于肉眼计数的准确率和速度,已广泛应用于机场、车站、运营车辆、艺术展馆等多种场景,一方面可有效防止拥挤踩踏、超载等隐患发生,另一方面还可帮助零售商等统计客流。然而,当前较为先进的人群计数算法基本上都是基于深度神经网络的,这些方法虽然在精度上取得了重大的突破,但是精度的提高往往伴随着大量的计算量增加为代价,并且现实中应用这些算法的平台往往都是一些计算能力较低的移动终端,这也就使得这些高精度方法实际上无法被直接被应用。
因此,本发明主要为了将人群计数方法应用于移动设备而设计。本发明使得人群计数网络模型能够在计数的精度不下降或精度降低在可容忍范围内的前提下,达到实时的效果。
发明内容
要解决的技术问题
为了避免现有技术的计算方法不能实时计算的问题,本发明提出一种基于全卷积网络的轻量化人群计数方法。
技术方案
一种基于全卷积网络的轻量化人群计数方法,所述的全卷积网络包括编码器结构、解码器结构和预测层三部分,其中编码器结构包括4层瓶颈模块bottlenecker,解码器结构包含4个CRP模块和3个FUSION模块;其特征在于步骤如下:
步骤3:将特征图Vb4通过链式残差池化模块CRP,从CRP模块输出的特征图连同特征图Vb3会被一同传送进融合模块FUSION;经过FUSION模块的融合特征会被送入CRP模块,从CRP模块输出的特征图连同编码器的第二层输出的特征图Vb2会被一同传送进融合模块FUSION,经过FUSION模块的融合特征会被送入CRP模块;从CRP模块输出的特征图连同编码器的特征图Vb1会被一同传送进融合模块FUSION,经过FUSION模块的融合特征会被送入CRP模块;
所述的融合模块FUSION包括两条路径,每条路径的开始都包含一个1×1卷积,低分辨率特征图输入的路径包含一个上采样操作,该操作会将低分辨率特征图进行上采样操作映射到另一条路径中特征图的高分辨率;然后两条路径的特征图会有一个加和的操作;
步骤4:将步骤3解码器结构输出的特征图传送给预测层,预测层首先包含一个1×1卷积,将输入特征图中每个像素位置的d维特征向量转变成相应的密度值;然后将得到的密度图通过双线性插值的上采样操作恢复到原始图像的大小,得到最终输出密度图,密度图的每个像素位置的数值之和即为该图片的人数。
在训练阶段,把最终得到的密度图特征作回归训练,计算获得的密度图上的预测人数和该图像真实的标记人数的之间平均绝对误差MAE和均方误差MSE,并将该误差作为模型参数训练反向传播的依据及最佳模型的选取参照标准:
在测试及最终应用阶段,该模型对于每张图片的输出为步骤4中提及的一张该
图片对应的密度图和该图片对应的预测人数。
有益效果
本发明提出的一种基于全卷积网络的轻量化人群计数方法,设计实现了轻量化的人群计数网络模型结构。该模型相比于现有其他模型结构具有更少的参数与更低的运算量需求,在保留现有人群计数方法较高的精度的前提下,能够达到实时人群计数的效果,从而更适用于小型终端设备。
附图说明
图1本发明基于全卷积网络的人群计数模型结构图
具体实施方式
现结合实施例、附图对本发明作进一步描述:
本发明提供了一种基于带有编码器-解码器的全卷积神经网络结构的轻量化人群计数方法。该网络结构分为编码器结构、解码器结构和预测层三部分。网络模型整体结构如说明书附图1所示。
编码器部分基于MobileNetV2,并在瓶颈模块(bottlenecker)的运算开始前添加了一个步长2的3×3最大池化层,且对通道数和瓶颈模块(bottlenecker)的使用个数做了相应的调整,具体设计如表1所示。每个bottlenecker所包含的中间扩展层都使用轻量级深度卷积来过滤特征,t即表示扩展因子;Conv2d代表3×3卷积层;MaxPool表示3×3最大池化层;每行描述一个n次重复的操作重复;其步幅是s;输出通道数为c。编码器架构的细节如图1(a)的Light-Weight Encoder部分所示。根据图例可以清晰的看出,在编码器部分总共分成了四层,这4层可以表述为:编码器的第1层为从图像输入后到第1个bottlenecker结束前;编码器的第2层为第2个bottlenecker;编码器的第3层为第3个bottlenecker;编码器的第4层为第4个bottlenecker。每个立方体代表经过编码器每一层相应运算之后的特征。
解码器结构采用经过特殊改造后的Light-Weight RefineNet的解码器部分,以能结合多种尺度的上下文信息,从而更好的应对具有不同尺寸的目标物。解码过程开始于编码器结构的最后一层输出特征图(具有最低分辨率)。这些特征图会被传送通过链式残差池化模块(CRP)(图1(b))。从CRP模块输出的特征图连同编码器的倒数第二层输出的特征图。会被一同传送进融合模块内(FUSION)(图1(c))。在FUSION模块的内部包括两条路径,每条路径的开始都包含一个1×1卷积。低分辨率特征图输入的路径包含一个上采样操作,该操作会将低分辨率特征图进行上采样操作映射到另一条路径中特征图的高分辨率。然后两条路径的特征图会有一个加和的操作。网络模型会类似地进一步传播通过几个CRP和FUSION模块,直到分辨率恢复到所需的大小。解码器结构共包含4个CRP模块和3个FUSION模块。
预测层结构首先包含一个1×1卷积,将输入特征图中每个像素位置的d维特征向量转变成相应的密度值,然后将得到的密度图通过双线性插值的上采样操作恢复到原始图像的大小。
编码器结构设计表
步骤如下:
(2)特征图(feature map)Vl经过Light-Weight Encoder 4层bottlenecker,分别于每一层瓶颈模块后输出一个特征图(feature map),对应图1中从左向右的四个蓝色立方体:
(3)Light-Weight Decoder的解码过程开始于步骤三中编码器结构的最后一层输出特征图Vb4(具有最低分辨率)。该特征图会被传送通过链式残差池化模块(CRP)(图1(b))。从CRP 1模块输出的特征图连同编码器的倒数第二层输出的特征图Vb3会被一同传送进融合模块内(FUSION)(图1(c))。经过FUSION模块的融合特征会被送入CRP 2模块。从CRP 2模块输出的特征图连同编码器的第二层输出的特征图Vb2会被一同传送进FUSION模块内,经过FUSION模块的融合特征会被送入CRP 3模块。从CRP 3模块输出的特征图连同编码器的第二层输出的特征图Vb1会被一同传送进FUSION模块内,经过FUSION模块的融合特征会被送入CRP4模块。此时,特征图的分辨率已经恢复到所需的大小。
(4)由第三步解码器结构输出的特征图(feature map)传送给预测层。预测层首先包含一个1×1卷积,将输入特征图中每个像素位置的d维特征向量转变成相应的密度值。然后将得到的密度图通过双线性插值的上采样操作恢复到原始图像的大小。得到最终输出密度图,密度图的每个像素位置的数值之和即为该图片的人数。
(5)在训练阶段,把最终得到的密度图特征作回归训练,计算获得的密度图上的预测人数和该图像真实的标记人数的之间平均绝对误差(MAE)和均方误差(MSE),并将该误差作为模型参数训练反向传播的依据及最佳模型的选取参照标准(误差越小,则模型准确度越高)。
(6)在测试及最终应用阶段,该模型对于每张图片的输出为步骤(4)中提及的一张该图片对应的密度图和该图片对应的预测人数。
具体过程如下:
1、ground truth密度图生成
目标计数的相关数据集中提供的ground truth往往是一个点代表一个目标物。由于直接对标注点回归难度太大,因此大家采用生成密度图的方式重新构建了训练需要使用的ground truth。
为了便于模型进行学习,通过在每个有标注点的位置应用高斯核模糊,从而生成ground truth密度图:
其中δ(·)代表着狄拉克函数;xi,i=1,…,代表着第i个标注点的位置;σi代表应用于每个标注点i的高斯核标准差。
2、数据预处理
为了能够使得输入图像兼容更多的网络,预处理时对图像的高和宽进行了限制,使其能够被16整除,确保网络中一些含有降采样操作的层(conv with stride2或者池化)能够正确输出。在人群计数领域中,常见encoder中一般输出为1/8原图尺寸,因此被16整除完全满足需求。为节约显存,对原始尺寸大小超过768×1024的图像进行了保持长宽比的降采样操作。
对于一个初始化好的人群计数网络来说,自身参数符合一定的分布,如果目标分布和初始化分布相差过大的话,网络会陷入一个比较差的局部解,难以训练出好的结果。由于发现原始生成的密度图ground truth由于每个像素位置的数值都过小,直接用来回归效果会很差或者是有些情况下根本无法拟合。通过实验发现,对于密度图乘以一个较大的放大因子,可以使网络更快的收敛,甚至取得更低的估计误差。因此在代码中对密度图点乘一个放大因子,并且多个实验的结果都能证明,点乘这个放大因子确实有利于网络更好的拟合并获得更好的精度效果。
训练时使用Adam优化器来更新参数。
3、编码器编码
数据预处理后的图片被输入到编码器中,首先经过一个步长为2的1×1卷积和一个步长为2的3×3最大池化层后得到一个特征图(feature map)该特征图(feature map)Vl再逐次经过4层瓶颈模块(bottlenecker),分别于每一层瓶颈模块后输出一个特征图(feature map):
4、解码器解码
解码器结构设计基于Light-Weight RefineNet的解码器结构。解码过程开始于编码器结构的最后一层输出特征图Vb4。这些特征图会被传送通过链式残差池化模块(CRP)(图1(b))。从CRP模块输出的特征图连同编码器的倒数第二层输出的特征图Vb3会被一同传送进融合模块内(FUSION)(图1(c))。在FUSION模块的内部包括两条路径,每条路径的开始都包含一个1×1卷积。低分辨率特征图输入的路径包含一个上采样操作,该操作会将低分辨率特征图进行上采样操作,并将其分辨率映射到另一条路径中特征图的高分辨率,然后两条路径的特征图会进行加和的操作,从而实现特征融合的目的。网络模型会类似地进一步传播通过几个CRP和FUSION模块,直到分辨率恢复到所需的大小。
5、预测层生成最终密度图
预测层首先包含一个1×1卷积,将输入特征图中每个像素位置的d维特征向量转变成相应的密度值,然后将得到的密度图通过双线性插值的上采样操作恢复到原始图像的大小。经过上采样操作恢复到原图分辨率的密度图即为最终输出的结果。
6、人数回归
对于总人数的计算,只需要将整张密度图中的所有像素上的预测值相加并除以放大因子即可。
7、模型训练
模型使用PyTorch框架实现。训练过程使用了NVIDIA GeForce GTX 1080Ti GPU。测试过程中精度的测试在NVIDIA GeForce GTX 1080Ti GPU上完成,速度的测试则分别在NVIDIA GeForce GTX 1080Ti GPU和NVIDIA GeForce GTX 1080GPU上进行了GPU速度的测试。
在实验中,使用了多batch训练,并且batch size为的6。在训练集的构成上,与多数先前方法使用离线处理的数据集不同,在训练过程中在线对每个图像随机裁剪80%大小的补丁。由于ShanghaiTech Part A、UCF_CC_50和UCF-QNRF所包含的图像尺寸不一,为了实现多batch训练,多batch训练的数据是随机拿到需要的数量的图片与其对应ground truth后,选择其中最小的宽(wmin)和高(hmin),并以此为标准对这一批的图像和其对应的groundtruth进行裁切,之后处理成w为:N*3*hmin*wmin形式的Tensor送进网络进行训练。另外,初始学习率设定为1×10^(-4),并且每个epoch都会衰减为上一个epoch的0.995倍。
对人群计数领域使用到的数据集进行了相关调研,综合考虑了这个领域的相关数据集中的图像所具有的平均分辨率大致为1920×1080。因此,在评估模型速度FPS及所涉及到的所有FLOPs、Params的计算的过程中输入分辨率均采用为1920×1080。通过大量的实验验证,实验结果可以强有力的说明本方法在对模型实现轻量化是行之有效的,并且本模型可以在保证速度的同时,仍然具有较高的精度。
8、模型应用
在经过上面的训练过程后可以得到多个模型,选取其中最优的模型(损失函数值最小)用于应用。在模型的应用过程中,不需要任何的图片数据预处理操作,只需要将一张任意尺寸的图片输入到网络模型中。整个的网络模型的参数都固定不动,只要输入图像数据并进行网络模型的正向推理即可。输入图像依次经过编码器结构、解码器结构和预测层结构,最终得到预测的人群密度图,且对该密度图上的每个像素值直接求和并除以放大因子即可获得模型预测的图像总人数。
以上仅为本发明的较佳实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内所做的任何修改、等同替换和改进等,均在本发明的保护范围之内。
Claims (2)
1.一种基于全卷积网络的轻量化人群计数方法,所述的全卷积网络包括编码器结构、解码器结构和预测层三部分,其中编码器结构包括4层瓶颈模块bottlenecker,解码器结构包含4个CRP模块和3个FUSION模块;其特征在于步骤如下:
步骤3:将特征图Vb4通过链式残差池化模块CRP,从CRP模块输出的特征图连同特征图Vb3会被一同传送进融合模块FUSION;经过FUSION模块的融合特征会被送入CRP模块,从CRP模块输出的特征图连同编码器的第二层输出的特征图Vb2会被一同传送进融合模块FUSION,经过FUSION模块的融合特征会被送入CRP模块;从CRP模块输出的特征图连同编码器的特征图Vb1会被一同传送进融合模块FUSION,经过FUSION模块的融合特征会被送入CRP模块;
所述的融合模块FUSION包括两条路径,每条路径的开始都包含一个1×1卷积,低分辨率特征图输入的路径包含一个上采样操作,该操作会将低分辨率特征图进行上采样操作映射到另一条路径中特征图的高分辨率;然后两条路径的特征图会有一个加和的操作;
步骤4:将步骤3解码器结构输出的特征图传送给预测层,预测层首先包含一个1×1卷积,将输入特征图中每个像素位置的d维特征向量转变成相应的密度值;然后将得到的密度图通过双线性插值的上采样操作恢复到原始图像的大小,得到最终输出密度图,密度图的每个像素位置的数值之和即为该图片的人数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010925231.9A CN112101164A (zh) | 2020-09-06 | 2020-09-06 | 基于全卷积网络的轻量化人群计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010925231.9A CN112101164A (zh) | 2020-09-06 | 2020-09-06 | 基于全卷积网络的轻量化人群计数方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112101164A true CN112101164A (zh) | 2020-12-18 |
Family
ID=73758468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010925231.9A Pending CN112101164A (zh) | 2020-09-06 | 2020-09-06 | 基于全卷积网络的轻量化人群计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112101164A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807334A (zh) * | 2021-11-22 | 2021-12-17 | 成都航空职业技术学院 | 一种基于残差网络的多尺度特征融合的人群密度估计方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107679503A (zh) * | 2017-10-12 | 2018-02-09 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的人群计数算法 |
CN107742099A (zh) * | 2017-09-30 | 2018-02-27 | 四川云图睿视科技有限公司 | 一种基于全卷积网络的人群密度估计、人数统计的方法 |
CN108596054A (zh) * | 2018-04-10 | 2018-09-28 | 上海工程技术大学 | 一种基于多尺度全卷积网络特征融合的人群计数方法 |
CN111144329A (zh) * | 2019-12-29 | 2020-05-12 | 北京工业大学 | 一种基于多标签的轻量快速人群计数方法 |
CN111242036A (zh) * | 2020-01-14 | 2020-06-05 | 西安建筑科技大学 | 一种基于编码-解码结构多尺度卷积神经网络的人群计数方法 |
CN111429466A (zh) * | 2020-03-19 | 2020-07-17 | 北京航空航天大学 | 一种基于多尺度信息融合网络的空基人群计数与密度估计方法 |
CN111626141A (zh) * | 2020-04-30 | 2020-09-04 | 上海交通大学 | 基于生成图像的人群计数模型建立方法、计数方法及系统 |
-
2020
- 2020-09-06 CN CN202010925231.9A patent/CN112101164A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107742099A (zh) * | 2017-09-30 | 2018-02-27 | 四川云图睿视科技有限公司 | 一种基于全卷积网络的人群密度估计、人数统计的方法 |
CN107679503A (zh) * | 2017-10-12 | 2018-02-09 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的人群计数算法 |
CN108596054A (zh) * | 2018-04-10 | 2018-09-28 | 上海工程技术大学 | 一种基于多尺度全卷积网络特征融合的人群计数方法 |
CN111144329A (zh) * | 2019-12-29 | 2020-05-12 | 北京工业大学 | 一种基于多标签的轻量快速人群计数方法 |
CN111242036A (zh) * | 2020-01-14 | 2020-06-05 | 西安建筑科技大学 | 一种基于编码-解码结构多尺度卷积神经网络的人群计数方法 |
CN111429466A (zh) * | 2020-03-19 | 2020-07-17 | 北京航空航天大学 | 一种基于多尺度信息融合网络的空基人群计数与密度估计方法 |
CN111626141A (zh) * | 2020-04-30 | 2020-09-04 | 上海交通大学 | 基于生成图像的人群计数模型建立方法、计数方法及系统 |
Non-Patent Citations (1)
Title |
---|
PENG WANG 等: "MobileCount: An efficient encoder-decoder framework for real-time crowd counting", 《NEUROCOMPUTING》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807334A (zh) * | 2021-11-22 | 2021-12-17 | 成都航空职业技术学院 | 一种基于残差网络的多尺度特征融合的人群密度估计方法 |
CN113807334B (zh) * | 2021-11-22 | 2022-02-18 | 成都航空职业技术学院 | 一种基于残差网络的多尺度特征融合的人群密度估计方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11870947B2 (en) | Generating images using neural networks | |
CN109271933B (zh) | 基于视频流进行三维人体姿态估计的方法 | |
CN110363716B (zh) | 一种基于条件生成对抗网络复合降质图像高质量重建方法 | |
CN114549731B (zh) | 视角图像的生成方法、装置、电子设备及存储介质 | |
CN111144329B (zh) | 一种基于多标签的轻量快速人群计数方法 | |
CN111179167B (zh) | 一种基于多阶段注意力增强网络的图像超分辨方法 | |
CN110533712A (zh) | 一种基于卷积神经网络的双目立体匹配方法 | |
CN112396645B (zh) | 一种基于卷积残差学习的单目图像深度估计方法和系统 | |
CN110751649B (zh) | 视频质量评估方法、装置、电子设备及存储介质 | |
CN110689599A (zh) | 基于非局部增强的生成对抗网络的3d视觉显著性预测方法 | |
US20220101497A1 (en) | Video Super Resolution Method | |
CN111835983B (zh) | 一种基于生成对抗网络的多曝光图高动态范围成像方法及系统 | |
CN112040222B (zh) | 一种视觉显著性预测方法及设备 | |
Singla et al. | A review on Single Image Super Resolution techniques using generative adversarial network | |
KR20190059157A (ko) | 영상 화질 개선방법 및 그 장치 | |
CN113658189B (zh) | 一种跨尺度特征融合的实时语义分割方法和系统 | |
WO2020104498A1 (en) | Neural network systems for decomposing video data into layered representations | |
CN111738276A (zh) | 基于多核卷积神经网络的图像处理方法、装置及设备 | |
CN111626308A (zh) | 一种基于轻量卷积神经网络的实时光流估计方法 | |
KR102128789B1 (ko) | 심층 합성곱 뉴럴 네트워크를 위한 효율적인 팽창 합성곱 기법을 제공하는 방법 및 장치 | |
KR20220008135A (ko) | 영상 초해상도 처리 방법 및 장치 | |
CN112101164A (zh) | 基于全卷积网络的轻量化人群计数方法 | |
CN113837941A (zh) | 图像超分模型的训练方法、装置及计算机可读存储介质 | |
CN112200752A (zh) | 一种基于er网络多帧图像去模糊系统及其方法 | |
CN114782980A (zh) | 一种基于注意力机制的轻量级行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20201218 |
|
WD01 | Invention patent application deemed withdrawn after publication |