CN115861930A - 一种基于层级差异特征聚合的人群计数网络建模方法 - Google Patents
一种基于层级差异特征聚合的人群计数网络建模方法 Download PDFInfo
- Publication number
- CN115861930A CN115861930A CN202211602852.9A CN202211602852A CN115861930A CN 115861930 A CN115861930 A CN 115861930A CN 202211602852 A CN202211602852 A CN 202211602852A CN 115861930 A CN115861930 A CN 115861930A
- Authority
- CN
- China
- Prior art keywords
- network
- crowd counting
- encoder
- counting network
- crowd
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000002776 aggregation Effects 0.000 title claims abstract description 20
- 238000004220 aggregation Methods 0.000 title claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 27
- 238000012360 testing method Methods 0.000 claims abstract description 12
- 238000012795 verification Methods 0.000 claims abstract description 8
- 230000008447 perception Effects 0.000 claims abstract description 5
- 238000013434 data augmentation Methods 0.000 claims abstract description 4
- 238000012216 screening Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 14
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 239000011800 void material Substances 0.000 claims description 6
- 238000007670 refining Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 claims description 2
- 238000013461 design Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于层级差异特征聚合的人群计数网络建模方法,步骤为,将人群图像数据集中的样本分辨率调整为统一大小并划分为人群计数网络训练集、人群计数网络验证集和人群计数网络测试集;对人群计数网络训练集进行数据增广;构建基于层级差异特征聚合的人群计数网络;利用人群计数网络训练集对人群计数网络进行训练,通过人群计数网络验证集进行最优模型筛选;在人群计数网络测试集上对最优网络模型进行测试。首先,本发明通过层级特征的差异对聚合的特征进行精炼。其次,通过自关注特征感知模块进一步挖掘有效信息,能够有效地提高人群计数的精度。
Description
技术领域
本发明涉及计算机视觉领域,具体涉及一种人群计数网络建模方法。
背景技术
人群计数是当下一个热门话题,有许多实际的应用。比如:群体感知、控制人流等。人群计数任务在公共场合管控人群流量和防控新冠疫情等多方面发挥着重要的作用。
目前,主流的人群计数任务是基于卷积神经网络实现。然而卷积神经网络擅长学习局部特征,缺乏全局信息,并且随着网络的加深,感受野逐步增大。Transformer模型可以有效地避免上述问题,自动地捕捉全局上下文特征。但现有的模型无法实现对尺度变化人群的鲁棒预测,这是由于现有方法大多基于卷积网络设计的经验进行扩展,难以利用和挖掘Transformer模型的多层级特征,进而无法形成较有辨别力的特征。因此,本发明致力于如何精炼多层级特征实现多尺度目标的鲁棒表示。
发明内容
为了解决上述问题,本发明设计了基于层级差异特征聚合的人群计数网络建模方法。通过使用Transformer主干网络学习多层级全局信息,设计了多层级差分模块和自关注特征感知模块,使得网络能够学习多层级特征之间的差异并且精炼聚合的特征。
为了达到上述目的,本发明采用的技术方案如下:
一种基于层级差异特征聚合的人群计数网络建模方法,包括以下步骤:
步骤S1:将人群图像数据集中的样本分辨率调整为统一大小并划分为人群计数网络训练集、人群计数网络验证集和人群计数网络测试集;
步骤S2:对人群计数网络训练集进行数据增广;
步骤S3:构建基于层级差异特征聚合的人群计数网络;
步骤S4:利用人群计数网络训练集对步骤S3中构建的网络进行训练,通过人群计数网络验证集进行最优模型筛选;
步骤S5:在人群计数网络测试集上对步骤S4得到的最优网络模型进行测试。
进一步地,步骤S2的具体过程如下:
步骤S2-1:对人群计数网络训练集中的图像随机裁剪;
步骤S2-2:将裁剪过的图像随机水平翻转,概率为0.5。
进一步地,所述步骤S3的具体过程如下:
步骤S3-1:搭建基于Transformer的主干网络用于提取多层级特征;
步骤S3-2:利用多层级差分模块对来自步骤S3-1主干网络提取的多层级特征进行差分运算,将其生成的通道级权重向量对聚合的特征进行赋权操作,输出为Fd;
步骤S3-3:构建自关注特征感知模块,利用该模块对步骤S3-2得到的特征Fd进一步精炼;
步骤S3-4:将步骤S3-3得到的特征输入到一系列的卷积层中,最终回归生成密度图。
进一步地,所述步骤S3-1中基于Transformer的主干网络通过预训练的Twins-SVT-L构建,具体如下:
步骤S3-1-1:将图像X作为网络的输入,通过第一和第二阶段的Transformer编码器后,得到特征X1:
X1=Encoder2(Encoder1(X))
其中,Encoder1(·)和Encoder2(·)分别表示Twins-SVT-L第一和第二阶段编码器,图像X的维度是3×H×W,W和H是图像X的宽度和高度;X1的维度为C1×H1×W1,C1是第二阶段编码器的通道数,H1为H的1/8倍,W1为W的1/8倍;
步骤S3-1-2:基于第三阶段的Transformer编码器对步骤S3-1-1的输出X1进行处理,得到特征X2:
X2=Encoder3(X1)
其中,Encoder3(·)表示Twins-SVT-L第三阶段编码器,X2的维度为C2×H2×W2,C2是第三阶段编码器的通道数,H2为H的1/16倍,W2为W的1/16倍;
步骤S3-1-3:基于第四阶段的Transformer编码器对步骤S3-1-1的输出X2进行处理,得到特征X3:
X3=Encoder3(X2)
其中,Encoder3(·)表示Twins-SVT-L第四阶段编码器,X3的维度为C3×H3×W3,其中C3是第四阶段编码器的通道数,H3为H的1/32倍,W3为W的1/32倍。
进一步地,所述步骤S3-2的具体过程如下:
步骤S3-2-1:将S3-1-1、S3-1-2和S3-1-3输出的特征X1、X2和X3通过卷积和上采样操作获得相同维度的特征F1、F2和F3;
步骤S3-2-2:特征F1、F2、F3两两作差,将这些差值沿通道维进行聚合,经过一层卷积降低维度,通过池化层及卷积层将其转换成通道维注意力,再经过一个卷积层还原特征维度,得到多层级差分注意力Fattn:
其中,Cat(·)表示将特征延通道维度上进行融合,Conv1,Conv2和Conv3分别表示不同的卷积层,AdvPooling(·)表示平均池化层,Sigmoid(·)表示Sigmoid函数;
步骤S3-2-3:将步骤S3-2-2获得的Fattn和Fx做点乘运算,经过卷积运算后得到最终的输出Fd:
Fd=θ(F1,F2,F3)*Fattn
其中,θ(·)表示两层卷积层。
进一步地,所述步骤S3-3的具体过程如下:
步骤S3-3-1:步骤S3-2-3得到的输出Fd通过3×3,空洞率为2的空洞卷积扩大感受野,输出特征Fd1;
步骤S3-3-2:利用如下函数对步骤S3-3-1的输出进行精炼,得到输出Fdf:
其中,⊙表示点乘操作,exp(·)表示指数运算,k是超参,表示非线性操作,softmax(·)表示softmax激活函数,/>和/>表示一个随机生成的向量,其权值能进行梯度优化,与特征Fd1的通道数相等。
进一步地,步骤S4中利用人群计数网络训练集对步骤S3中构建的网络进行训练,包括以下步骤:
步骤S4-1:使用Twins-SVT-L在ImageNet预训练的参数对步骤S3-1建立的主干网络进行初始化;其他卷积层使用权重参数初始化为标准差为0.01的正态分布方式进行随机初始化;BatchNorm层使用权重为1,偏差为0的方式随机初始化。
步骤S4-2:通过S3中创建的人群计数网络进行人群密度估计;
步骤S4-3:计算网络的损失函数;
步骤S4-4:使用AdamW优化器对参数进行优化;
步骤S4-5:保存最优的训练参数。
进一步地,步骤S4-3中网络的损失函数计算如下:
与现有技术相比,本发明具有以下优点:
1)本发明通过层级特征的差异对聚合的特征进行精炼,其既可以捕捉Transformer不同层级特征的细微差别,也可以学习它们之间的巨大差异,有利于全局信息的聚合,学习更加有辨别力的特征,提高人群计数精度。
2)本发明设计了自关注特征感知模块,提出了一个非线性函数,通过调整自身权重生成通道级掩膜,对通道级特征进行精炼,进一步减少冗余信息的影响,挖掘特征中的有效信息,提高人群计数精度。
附图说明
图1是本发明的设计框架图;
图2是本发明的方法流程图。
具体实施方式
如图1-2所示,本实施例提出的一种基于层级差异特征聚合的人群计数网络建模方法:
一种基于层级差异特征聚合的人群计数网络建模方法,包括以下步骤:
步骤S1:将人群图像数据集中的样本分辨率调整为统一大小并划分为人群计数网络训练集、人群计数网络验证集和人群计数网络测试集;
步骤S2:对人群计数网络训练集进行数据增广;
步骤S3:构建基于层级差异特征聚合的人群计数网络;
步骤S4:利用人群计数网络训练集对步骤S3中构建的网络进行训练,通过人群计数网络验证集进行最优模型筛选;
步骤S5:在人群计数网络测试集上对步骤S4得到的最优网络模型进行测试。
在本实施例中,步骤S2的具体过程如下:
步骤S2-1:对人群计数网络训练集中的图像随机裁剪;
步骤S2-2:将裁剪过的图像随机水平翻转,概率为0.5。
在本实施例中,所述步骤S3的具体过程如下:
步骤S3-1:搭建基于Transformer的主干网络用于提取多层级特征;
步骤S3-2:利用多层级差分模块对来自步骤S3-1主干网络提取的多层级特征进行差分运算,将其生成的通道级权重向量对聚合的特征进行赋权操作,输出为Fd;
步骤S3-3:构建自关注特征感知模块,利用该模块对步骤S3-2得到的特征Fd进一步精炼;
步骤S3-4:将步骤S3-3得到的特征输入到一系列的卷积层中,最终回归生成密度图。
在本实施例中,所述步骤S3-1中基于Transformer的主干网络通过预训练的Twins-SVT-L构建,具体如下:
步骤S3-1-1:将图像X作为网络的输入,通过第一和第二阶段的Transformer编码器后,得到特征X1:
X1=Encoder2(Encoder1(X))
其中,Encoder1(·)和Encoder2(·)分别表示Twins-SVT-L第一和第二阶段编码器,图像X的维度是3×H×W,W和H是图像X的宽度和高度;X1的维度为C1×H1×W1,C1是第二阶段编码器的通道数,H1为H的1/8倍,W1为W的1/8倍;
步骤S3-1-2:基于第三阶段的Transformer编码器对步骤S3-1-1的输出X1进行处理,得到特征X2:
X2=Encoder3(X1)
其中,Encoder3(·)表示Twins-SVT-L第三阶段编码器,X2的维度为C2×H2×W2,C2是第三阶段编码器的通道数,H2为H的1/16倍,W2为W的1/16倍;
步骤S3-1-3:基于第四阶段的Transformer编码器对步骤S3-1-1的输出X2进行处理,得到特征X3:
X3=Encoder3(X2)
其中,Encoder3(·)表示Twins-SVT-L第四阶段编码器,X3的维度为C3×H3×W3,其中C3是第四阶段编码器的通道数,H3为H的1/32倍,W3为W的1/32倍。
在本实施例中,所述步骤S3-2的具体过程如下:
步骤S3-2-1:将S3-1-1、S3-1-2和S3-1-3输出的特征X1、X2和X3通过卷积和上采样操作获得相同维度的特征F1、F2和F3;
步骤S3-2-2:特征F1、F2、F3两两作差,将这些差值沿通道维进行聚合,经过一层卷积降低维度,通过池化层及卷积层将其转换成通道维注意力,再经过一个卷积层还原特征维度,得到多层级差分注意力Fattn:
其中,Cat(·)表示将特征延通道维度上进行融合,Conv1,Conv2和Conv3分别表示不同的卷积层,AdvPooling(·)表示平均池化层,Sigmoid(·)表示Sigmoid函数;
步骤S3-2-3:将步骤S3-2-2获得的Fattn和Fx做点乘运算,经过卷积运算后得到最终的输出Fd:
Fd=θ(F1,F2,F3)*Fattn
其中,θ(·)表示两层卷积层。
在本实施例中,所述步骤S3-3的具体过程如下:
步骤S3-3-1:步骤S3-2-3得到的输出Fd通过3×3,空洞率为2的空洞卷积扩大感受野,输出特征Fd1;
步骤S3-3-2:利用如下函数对步骤S3-3-1的输出进行精炼,得到输出Fdf:
其中,⊙表示点乘操作,exp(·)表示指数运算,k是超参,表示非线性操作,默认为ReLU激活函数,softmax(·)表示softmax激活函数,/>和/>表示一个随机生成的向量,其权值能进行梯度优化,与特征Fd1的通道数相等。
在本实施例中,步骤S4中利用训练集对步骤S3中构建的网络进行训练,包括以下步骤:
步骤S4-1:使用Twins-SVT-L在ImageNet预训练的参数对步骤S3-1建立的主干网络进行初始化;其他卷积层使用权重参数初始化为标准差为0.01的正态分布方式进行随机初始化;BatchNorm层使用权重为1,偏差为0的方式随机初始化。
步骤S4-2:通过S3中创建的人群计数网络进行人群密度估计;
步骤S4-3:计算网络的损失函数;
步骤S4-4:使用AdamW优化器对参数进行优化;
步骤S4-5:保存最优的训练参数。
在本实施例中,步骤S4-3中网络的损失函数计算如下:
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (8)
1.一种基于层级差异特征聚合的人群计数网络建模方法,其特征在于,包括以下步骤:
步骤S1:将人群图像数据集中的样本分辨率调整为统一大小并划分为人群计数网络训练集、人群计数网络验证集和人群计数网络测试集;
步骤S2:对人群计数网络训练集进行数据增广;
步骤S3:构建基于层级差异特征聚合的人群计数网络;
步骤S4:利用人群计数网络训练集对步骤S3中构建的网络进行训练,通过人群计数网络验证集进行最优模型筛选;
步骤S5:在人群计数网络测试集上对步骤S4得到的最优网络模型进行测试。
2.根据权利要求1所述基于层级差异特征聚合的人群计数网络建模方法,其特征在于,步骤S2的具体过程如下:
步骤S2-1:对人群计数网络训练集中的图像随机裁剪;
步骤S2-2:将裁剪过的图像随机水平翻转,概率为0.5。
3.根据权利要求1所述基于层级差异特征聚合的人群计数网络建模方法,其特征在于,所述步骤S3的具体过程如下:
步骤S3-1:搭建基于Transformer的主干网络用于提取多层级特征;
步骤S3-2:利用多层级差分模块对来自步骤S3-1主干网络提取的多层级特征进行差分运算,将其生成的通道级权重向量对聚合的特征进行赋权操作,输出为Fd;
步骤S3-3:构建自关注特征感知模块,利用该模块对步骤S3-2得到的特征Fd进一步精炼;
步骤S3-4:将步骤S3-3得到的特征输入到一系列的卷积层中,最终回归生成密度图。
4.根据权利要求3所述的基于层级差异特征聚合的人群计数网络建模方法,其特征在于,所述步骤S3-1中基于Transformer的主干网络通过预训练的Twins-SVT-L构建,具体如下:
步骤S3-1-1:将图像X作为网络的输入,通过第一和第二阶段的Transformer编码器后,得到特征X1:
X1=Encoder2(Encoder1(X))
其中,Encoder1(·)和Encoder2(·)分别表示Twins-SVT-L第一和第二阶段编码器,图像X的维度是3×H×W,W和H是图像X的宽度和高度;X1的维度为C1×H1×W1,C1是第二阶段编码器的通道数,H1为H的18倍,W1为W的18倍;
步骤S3-1-2:基于第三阶段的Transformer编码器对步骤S3-1-1的输出X1进行处理,得到特征X2:
X2=Encoder3(X1)
其中,Encoder3(·)表示Twins-SVT-L第三阶段编码器,X2的维度为C2×H2×W2,C2是第三阶段编码器的通道数,H2为H的116倍,W2为W的116倍;
步骤S3-1-3:基于第四阶段的Transformer编码器对步骤S3-1-1的输出X2进行处理,得到特征X3:
X3=Encoder3(X2)
其中,Encoder3(·)表示Twins-SVT-L第四阶段编码器,X3的维度为C3×H3×W3,其中C3是第四阶段编码器的通道数,H3为H的1/32倍,W3为W的1/32倍。
5.根据权利要求4所述基于层级差异特征聚合的人群计数网络建模方法,其特征在于,所述步骤S3-2的具体过程如下:
步骤S3-2-1:将S3-1-1、S3-1-2和S3-1-3输出的特征X1、X2和X3通过卷积和上采样操作获得相同维度的特征F1、F2和F3;
步骤S3-2-2:特征F1、F2、F3两两作差,将这些差值沿通道维进行聚合,经过一层卷积降低维度,通过池化层及卷积层将其转换成通道维注意力,再经过一个卷积层还原特征维度,得到多层级差分注意力Fattn:
其中,Cat(·)表示将特征延通道维度上进行融合,Conv1,Conv2和Conv3分别表示不同的卷积层,AdvPooling(·)表示平均池化层,Sigmoid(·)表示Sigmoid函数;
步骤S3-2-3:将步骤S3-2-2获得的Fattn和Fx做点乘运算,经过卷积运算后得到最终的输出Fd:
Fd=θ(F1,F2,F3)*Fattn
其中,θ(·)表示两层卷积层。
7.根据权利要求1所述的基于层级差异特征聚合的人群计数网络建模方法,其特征在于,步骤S4中利用人群计数网络训练集对步骤S3中构建的网络进行训练,包括以下步骤:
步骤S4-1:使用Twins-SVT-L在ImageNet预训练的参数对步骤S3-1建立的主干网络进行初始化;其他卷积层使用权重参数初始化为标准差为0.01的正态分布方式进行随机初始化;BatchNorm层使用权重为1,偏差为0的方式随机初始化。
步骤S4-2:通过S3中创建的人群计数网络进行人群密度估计;
步骤S4-3:计算网络的损失函数;
步骤S4-4:使用AdamW优化器对参数进行优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211602852.9A CN115861930B (zh) | 2022-12-13 | 2022-12-13 | 一种基于层级差异特征聚合的人群计数网络建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211602852.9A CN115861930B (zh) | 2022-12-13 | 2022-12-13 | 一种基于层级差异特征聚合的人群计数网络建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115861930A true CN115861930A (zh) | 2023-03-28 |
CN115861930B CN115861930B (zh) | 2024-02-06 |
Family
ID=85672703
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211602852.9A Active CN115861930B (zh) | 2022-12-13 | 2022-12-13 | 一种基于层级差异特征聚合的人群计数网络建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115861930B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117409375A (zh) * | 2023-12-15 | 2024-01-16 | 常熟理工学院 | 一种双重注意力引导的人群计数方法、装置及计算机存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112861697A (zh) * | 2021-02-03 | 2021-05-28 | 同济大学 | 基于图片自对称性人群计数网络的人群计数方法及装置 |
CN113887489A (zh) * | 2021-10-21 | 2022-01-04 | 西南交通大学 | 基于位置增强和多尺度融合网络的车厢内人群计数方法 |
CN113920094A (zh) * | 2021-10-14 | 2022-01-11 | 厦门大学 | 基于梯度残差u型卷积神经网络的图像篡改检测技术 |
CN114511629A (zh) * | 2021-12-30 | 2022-05-17 | 南京信息工程大学 | 自适应多视图和时序特征融合的单人三维姿态估计方法 |
CN114694102A (zh) * | 2022-04-24 | 2022-07-01 | 杭州电子科技大学 | 一种基于多尺度空间引导感知聚合网络的人群计数方法 |
CN114723049A (zh) * | 2022-04-26 | 2022-07-08 | 湖北工业大学 | 一种基于梯度优化的类激活映射方法及装置 |
CN115223082A (zh) * | 2022-07-19 | 2022-10-21 | 重庆邮电大学 | 一种基于时空多尺度Transformer的航拍视频分类方法 |
CN115457464A (zh) * | 2022-09-06 | 2022-12-09 | 燕山大学 | 基于transformer和CNN的人群计数方法 |
-
2022
- 2022-12-13 CN CN202211602852.9A patent/CN115861930B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112861697A (zh) * | 2021-02-03 | 2021-05-28 | 同济大学 | 基于图片自对称性人群计数网络的人群计数方法及装置 |
CN113920094A (zh) * | 2021-10-14 | 2022-01-11 | 厦门大学 | 基于梯度残差u型卷积神经网络的图像篡改检测技术 |
CN113887489A (zh) * | 2021-10-21 | 2022-01-04 | 西南交通大学 | 基于位置增强和多尺度融合网络的车厢内人群计数方法 |
CN114511629A (zh) * | 2021-12-30 | 2022-05-17 | 南京信息工程大学 | 自适应多视图和时序特征融合的单人三维姿态估计方法 |
CN114694102A (zh) * | 2022-04-24 | 2022-07-01 | 杭州电子科技大学 | 一种基于多尺度空间引导感知聚合网络的人群计数方法 |
CN114723049A (zh) * | 2022-04-26 | 2022-07-08 | 湖北工业大学 | 一种基于梯度优化的类激活映射方法及装置 |
CN115223082A (zh) * | 2022-07-19 | 2022-10-21 | 重庆邮电大学 | 一种基于时空多尺度Transformer的航拍视频分类方法 |
CN115457464A (zh) * | 2022-09-06 | 2022-12-09 | 燕山大学 | 基于transformer和CNN的人群计数方法 |
Non-Patent Citations (1)
Title |
---|
YE TIAN, XIANGXIANG CHU: "CCTrans:Simplifying and Improving Crowd Counting with Transformer", 《ARCIV:2109.14483V1》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117409375A (zh) * | 2023-12-15 | 2024-01-16 | 常熟理工学院 | 一种双重注意力引导的人群计数方法、装置及计算机存储介质 |
CN117409375B (zh) * | 2023-12-15 | 2024-02-23 | 常熟理工学院 | 一种双重注意力引导的人群计数方法、装置及计算机存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115861930B (zh) | 2024-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110781776B (zh) | 一种基于预测和残差细化网络的道路提取方法 | |
CN110138595A (zh) | 动态加权网络的时间链路预测方法、装置、设备及介质 | |
CN112949828B (zh) | 一种基于图学习的图卷积神经网络交通预测方法及系统 | |
CN112818969B (zh) | 一种基于知识蒸馏的人脸姿态估计方法及系统 | |
CN109743642B (zh) | 基于分层循环神经网络的视频摘要生成方法 | |
CN113239904B (zh) | 基于卷积神经网络的高分辨率密集目标计数方法 | |
CN115565043A (zh) | 结合多表征特征以及目标预测法进行目标检测的方法 | |
CN115861930A (zh) | 一种基于层级差异特征聚合的人群计数网络建模方法 | |
CN115376317A (zh) | 一种基于动态图卷积和时序卷积网络的交通流预测方法 | |
CN115828990A (zh) | 融合自适应图扩散卷积网络的时空图节点属性预测方法 | |
CN113487115A (zh) | 一种蒸汽驱油藏温度场的预测方法及系统 | |
CN117197632A (zh) | 一种基于Transformer的电镜花粉图像目标检测方法 | |
CN117668743A (zh) | 一种关联时空关系的时序数据预测方法 | |
CN112784831A (zh) | 融合多层特征增强注意力机制的文字识别方法 | |
CN116933141A (zh) | 一种基于多核图学习的多光谱激光雷达点云分类方法 | |
CN117494034A (zh) | 基于交通拥堵指数和多源数据融合的空气质量预测方法 | |
CN116525135A (zh) | 基于气象因素的时空模型对疫情发展态势进行预测的方法 | |
CN113344005B (zh) | 一种基于优化小尺度特征的图像边缘检测方法 | |
CN116402874A (zh) | 基于时序光学图像与激光雷达数据的航天器深度补全方法 | |
CN116578858A (zh) | 基于图神经网络的空压机故障预测与健康度评价方法及系统 | |
CN114997464A (zh) | 一种基于图时序信息学习的流行度预测方法 | |
CN114792349A (zh) | 基于半监督生成对抗网络的遥感影像转换地图迁移方法 | |
CN114841063A (zh) | 一种基于深度学习的航空发动机剩余寿命预测方法 | |
CN114049503A (zh) | 一种基于非端到端深度学习网络的显著性区域检测方法 | |
Wang | A Markov Model-Based Fusion Algorithm for Distorted Electronic Technology Archives |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |