CN111709290A - 基于编解码-跳跃连接尺度金字塔网络的人群计数方法 - Google Patents
基于编解码-跳跃连接尺度金字塔网络的人群计数方法 Download PDFInfo
- Publication number
- CN111709290A CN111709290A CN202010418960.5A CN202010418960A CN111709290A CN 111709290 A CN111709290 A CN 111709290A CN 202010418960 A CN202010418960 A CN 202010418960A CN 111709290 A CN111709290 A CN 111709290A
- Authority
- CN
- China
- Prior art keywords
- cspm
- density map
- image
- sspnet
- fee
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于编解码‑跳跃连接尺度金字塔网络的人群计数方法。本发明提出了一种深度卷积神经网络结构,称为ED‑SSPNet,由特征提取编码器(FEE)和特征映射解码器(DMD)两部分组成。FEE整合了尺度聚合模块中提取的特征,利用加权的跳跃连接的方式获取多尺度信息和上下文信息,保证信息不丢失。DMD采用反卷积和融合操作生成包含细节信息的特征,得到高质量的密度图,达到精确计数的目的。结果表明,这种方法具有更好的鲁棒性和自适应能力。
Description
技术领域
本文发明涉及人群图像计数方法,具体来讲是一种基于编解码-跳跃连接尺度金字塔神经网络的人群计数方法,属于人群图像处理技术领域。
背景技术
密集人群图像通过全卷积网络提取特征并映射生成密度图,进而积分得到人数,是当前进行人群计数最流行的方法。虽然相关的研究已经取得了很好的效果,但是这项任务仍面临巨大的挑战。在采集图像过程中,图像中的人群受到角度,光照,重叠等因素的影响,会引发透视畸变,数据分布等方面的问题;在使用深度卷积网络处理过程中,随着层数的增加,图像特征不断被提取到低分辨率特征图上,尺度信息和上下文信息等会逐渐丢失,导致不能生成高质量密度图。针对这种情况,目前主要的人群计数的处理方法主要有基于目标提取的方法,基于直接回归的方法,基于密度图回归等方法。但是这些方法难免出现计数效果不佳,特征提取困难,尺度问题难以解决等问题。所以较好的处理方法是建立端对端的处理方法,通过深度学习建立从输入到输出,让模型自动学习人群图像特征,从而给出准确的计数。
发明内容
本发明的目的是针对现有技术的不足,提供一种基于编解码-跳跃连接尺度金字塔神经网络的人群计数方法,以解决现有的使用深度学习进行人群计数工作中的多尺度和上下文信息丢失的问题。
本发明解决其技术问题所采用的技术方案如下:
步骤(1)获取人群数据集,将数据集中的每张图片,根据数据集中带有的人头位置标注,利用二维高斯卷积核,生成对应的人群密度图标签,然后进行数据增强操作;
步骤(2)通过加权跳跃连接的方式将四个级联尺度金字塔模块进行信息整合,构建特征提取编码器(FEE);
步骤(3)通过反卷积和融合的方式,构建密度图解码器(DMD);
步骤(4)FEE和DMD进行组合,构建ED-SSPNet模型;
步骤(5)将人群图像数据输入训练好的ED-SSPNet模型,输出对应图像的密度图,对模型输出的密度图积分,统计出图像中人群数量。
本发明有益效果如下:
本发明提出了一种深度卷积神经网络结构,称为ED-SSPNet(具有跳跃连接的标度金字塔网络的编译码器)。ED-SSPNet由特征提取编码器(FEE)和密度映射解码器(DMD)两部分组成。FEE整合了尺度聚合模块中提取的特征,利用加权的跳连接获取多尺度信息和上下文信息,保证信息不丢失。DMD采用反卷积和融合操作生成包含细节信息的特征,得到高质量的密度图,达到精确计数的目的。结果表明,这种方法具有更好的鲁棒性和自适应能力。
附图说明
图1是本发明的整体实施方案流程图
图2是本发明的CSPM模块架构图
图3是本发明的FEE部分跳跃连接示意图
图4是本发明的ED-SSPNet模型整体架构示意图;
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1是本发明的整体实施方案流程图,一种基于编解码-跳跃连接尺度金字塔神经网络的人群计数方法,包括以下步骤:
步骤(1)获取人群数据集,将数据集中的每张图片,根据数据集中带有的人头位置标注,利用二维高斯卷积核,生成对应的人群密度图标签,然后进行数据增强操作;
步骤(2)通过加权跳跃连接的方式将四个级联尺度金字塔模块进行信息整合,构建特征提取编码器(FEE);
步骤(3)通过反卷积和融合的方式,构建密度图解码器(DMD);
步骤(4)FEE和DMD进行组合,构建ED-SSPNet模型;
步骤(5)将人群图像数据输入训练好的ED-SSPNet模型,输出对应图像的密度图,对模型输出的密度图积分,统计出图像中人群数量。步骤(1)具体实现过程如下:
1-1.获取人群数据集,将数据集中每张原始图像根据标签数据生成对应的密度图,所述的标签数据指的是原始图像中所标出的人头中心在图像中的像素位置,生成的密度图表示为:
1-2.数据增强,将每一张原始图像和对应的密度图大小调整到1024*768;
首先,对调整后的原始图像和对应密度图进行9等分互不重叠的裁剪,得到9对关于图像-密度图的数据;
然后,对调整后的原始图像和对应密度图进行随机裁剪,再得到9对关于图像-密度图的数据。
如图2和3所示,步骤(2)具体实现过程如下:
2-1.构建级联尺度金字塔模块(CSPM);
2-1-1.对输入CSPM的特征图,采用1*1卷积的方式进行降维操作;
2-1-2.利用含有空洞率分别为1,4,8,16的四种空洞卷积对步骤2-1-1中降维操作后的特征图进行并行卷积,得到四种大小相同的特征图;
2-1-3.将步骤2-1-2中得到的四个特征图进行四层的级联操作,将各层级联操作所产生的的特征图进行concat操作,然后与步骤2-1-1中未降维操作的原始输入特征图相加产生最终的输出;
其中,各层级联操作所获得的特征输出公式如下所示:
2-2.前端使用含有2,4,8三种不同空洞率的串联卷积组成的SSPNet网络,后端使用加权跳跃连接的方式将4个CSPM进行信息融合构建特征提取编码器(FEE);
所构建特征提取编码器(FEE)后端包括四个CSPM和三个连接层,具体加权跳跃连接的方式为1-CSPM和2-CSPM相连,2-CSPM和3-CSPM相连,3-CSPM和4-CSPM相连;三个相连设置权重规则如下:
步骤(3)具体实现过程如下:
3-1.将步骤2-2中特征提取编码器(FEE)加权跳跃连接产生的3组融合特征以及特征提取编码器(FEE)前端的SPPNet网络提取的特征,分别使用1*1卷积进行降维,传递到密度图解码器(DMD)中;所述的融合特征由1-CSPM和2-CSPM相连,2-CSPM和3-CSPM相连,3-CSPM和4-CSPM相连后分别输出,前一层的融合特征作为后一层的输入特征;
3-2.将步骤3-1中获得的3个融合特征和SPPNet网络提取的特征,进行反卷积和融合操作获得最终融合特征,从而并恢复分辨率以及图像细节信息;
3-3.使用1*1Conv对最终融合特征映射为密度图。
如图4所示,步骤(4)具体实现过程如下:
4-1.设计ED-SSPNet模型的具体参数,网络参数配置如表1所示:
其中,Conv-n代表n*n的卷积,括号内为(输入通道数,输出通道数),网络的每一层表示为Conv卷积核大小(卷积核数量,空洞率),除Conv1*1外(没有空洞率):
4-2.设计损失函数,在损失函数中,选择欧氏距离来评估真实密度图和估计密度图之间的差异;利用欧几里德损失来度量像素级的估计误差;损失函数如下:
其中,N是训练批次大小,F(Xi;θ)是ED-SSPNet模型产生的估计密度图,Fi是输入图像的真实密度图;此外,还关注实际计数与估计值之间的平均绝对误差损失;损失函数如下:
其中,C(Ii)是第Xi张图像产生的估计值,C'(Ii)是实际计数值;通过对上述两个损失函数进行加权,将最终损失函数定义为:
Loss=LE+αLc (6)
其中,α是平衡LE和Lc之间权重的超参数,取值为0.01;
4-3.对ED-SSPNet模型进行端到端的训练,迭代次数为1000次,使用标准的随机梯度下降法训练,学习率设置为0.001;得到最终的ED-SSPNet模型。
步骤(5)具体实现过程如下:
5.1将测试图像输入到ED-SSPNet模型中,获得人群密度图。
5.2对密度图进行积分运算,获得最终人数。
Claims (5)
1.基于编解码-跳跃连接尺度金字塔网络的人群计数方法,其特征在于包括如下步骤:
步骤(1)获取人群数据集,将数据集中的每张图片,根据数据集中带有的人头位置标注,利用二维高斯卷积核,生成对应的人群密度图标签,然后进行数据增强操作;
步骤(2)通过加权跳跃连接的方式将四个级联尺度金字塔模块进行信息整合,构建特征提取编码器(FEE);
步骤(3)通过反卷积和融合的方式,构建密度图解码器(DMD);
步骤(4)FEE和DMD进行组合,构建ED-SSPNet模型;
步骤(5)将人群图像数据输入训练好的ED-SSPNet模型,输出对应图像的密度图,对模型输出的密度图积分,统计出图像中人群数量。
2.根据权利要求1所述的基于编解码-跳跃连接尺度金字塔网络的人群计数方法,其特征在于步骤(1)所述,具体实现过程如下:
1-1.获取人群数据集,将数据集中每张原始图像根据标签数据生成对应的密度图,所述的标签数据指的是原始图像中所标出的人头中心在图像中的像素位置,生成的密度图表示为:
1-2.数据增强,将每一张原始图像和对应的密度图大小调整到1024*768;
首先,对调整后的原始图像和对应密度图进行9等分互不重叠的裁剪,得到9对关于图像-密度图的数据;
然后,对调整后的原始图像和对应密度图进行随机裁剪,再得到9对关于图像-密度图的数据。
3.根据权利要求2所述的基于编解码-跳跃连接尺度金字塔网络的人群计数方法,其特征在于步骤(2)所述,具体实现过程如下:
2-1.构建级联尺度金字塔模块(CSPM);
2-1-1.对输入CSPM的特征图,采用1*1卷积的方式进行降维操作;
2-1-2.利用含有空洞率分别为1,4,8,16的四种空洞卷积对步骤2-1-1中降维操作后的特征图进行并行卷积,得到四种大小相同的特征图;
2-1-3.将步骤2-1-2中得到的四个特征图进行四层的级联操作,将各层级联操作所产生的的特征图进行concat操作,然后与步骤2-1-1中未降维操作的原始输入特征图相加产生最终的输出;
其中,各层级联操作所获得的特征输出公式如下所示:
2-2.前端使用含有2,4,8三种不同空洞率的串联卷积组成的SSPNet网络,后端使用加权跳跃连接的方式将4个CSPM进行信息融合构建特征提取编码器(FEE);
所构建特征提取编码器(FEE)后端包括四个CSPM和三个连接层,具体加权跳跃连接的方式为1-CSPM和2-CSPM相连,2-CSPM和3-CSPM相连,3-CSPM和4-CSPM相连;三个相连设置权重规则如下:
4.根据权利要求3所述的一种基于编解码-跳跃连接尺度金字塔网络的人群计数方法,其特征在于步骤(3)所述通过反卷积和融合的方式,构建特征映射解码器(DMD),具体实现过程如下:
3-1.将步骤2-2中特征提取编码器(FEE)加权跳跃连接产生的3组融合特征以及特征提取编码器(FEE)前端的SPPNet网络提取的特征,分别使用1*1卷积进行降维,传递到密度图解码器(DMD)中;所述的融合特征由1-CSPM和2-CSPM相连,2-CSPM和3-CSPM相连,3-CSPM和4-CSPM相连后分别输出,前一层的融合特征作为后一层的输入特征;
3-2.将步骤3-1中获得的3个融合特征和SPPNet网络提取的特征,进行反卷积和融合操作获得最终融合特征,从而并恢复分辨率以及图像细节信息;
3-3.使用1*1Conv对最终融合特征映射为密度图。
5.根据权利要求3所述的一种基于编解码-跳跃连接尺度金字塔网络的人群计数方法,其特征在于步骤(4)将特征提取编码器FEE和密度图解码器(DMD)进行组合,构建ED-SSPNet模型,具体设计方式如下:
4-1.设计ED-SSPNet模型的具体参数,网络参数配置如表1所示:
其中,Conv-n代表n*n的卷积,括号内为(输入通道数,输出通道数),网络的每一层表示为Conv卷积核大小(卷积核数量,空洞率),除Conv1*1外(没有空洞率):
4-2.设计损失函数,在损失函数中,选择欧氏距离来评估真实密度图和估计密度图之间的差异;利用欧几里德损失来度量像素级的估计误差;损失函数如下:
其中,N是训练批次大小,F(Xi;θ)是ED-SSPNet模型产生的估计密度图,Fi是输入图像的真实密度图;此外,还关注实际计数与估计值之间的平均绝对误差损失;损失函数如下:
其中,C(Ii)是第Xi张图像产生的估计值,C'(Ii)是实际计数值;通过对上述两个损失函数进行加权,将最终损失函数定义为:
Loss=LE+αLc (6)
其中,α是平衡LE和Lc之间权重的超参数,取值为0.01;
4-3.对ED-SSPNet模型进行端到端的训练,迭代次数为1000次,使用标准的随机梯度下降法训练,学习率设置为0.001;得到最终的ED-SSPNet模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010418960.5A CN111709290B (zh) | 2020-05-18 | 2020-05-18 | 基于编解码-跳跃连接尺度金字塔网络的人群计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010418960.5A CN111709290B (zh) | 2020-05-18 | 2020-05-18 | 基于编解码-跳跃连接尺度金字塔网络的人群计数方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111709290A true CN111709290A (zh) | 2020-09-25 |
CN111709290B CN111709290B (zh) | 2023-07-14 |
Family
ID=72537641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010418960.5A Active CN111709290B (zh) | 2020-05-18 | 2020-05-18 | 基于编解码-跳跃连接尺度金字塔网络的人群计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111709290B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112580545A (zh) * | 2020-12-24 | 2021-03-30 | 山东师范大学 | 基于多尺度自适应上下文网络的人群计数方法及系统 |
CN112668537A (zh) * | 2021-01-06 | 2021-04-16 | 北京理工大学 | 一种基于多尺度跳跃连接的群体计数方法 |
CN112819792A (zh) * | 2021-02-03 | 2021-05-18 | 杭州高斯洪堡科技有限公司 | 一种基于DualNet的城市区域变化检测方法 |
CN112966600A (zh) * | 2021-03-04 | 2021-06-15 | 上海应用技术大学 | 用于拥挤人群计数的自适应多尺度上下文聚合方法 |
CN113537195A (zh) * | 2021-07-21 | 2021-10-22 | 北京数美时代科技有限公司 | 一种图像文本识别方法、系统和电子设备 |
CN114120233A (zh) * | 2021-11-29 | 2022-03-01 | 上海应用技术大学 | 用于人群计数的轻量金字塔空洞卷积聚合网络的训练方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107330364A (zh) * | 2017-05-27 | 2017-11-07 | 上海交通大学 | 一种基于cGAN网络的人群计数方法及系统 |
CN109101930A (zh) * | 2018-08-18 | 2018-12-28 | 华中科技大学 | 一种人群计数方法及系统 |
CN109948593A (zh) * | 2019-04-04 | 2019-06-28 | 浙江工业大学 | 基于结合全局密度特征的mcnn人群计数方法 |
CN110263849A (zh) * | 2019-06-19 | 2019-09-20 | 合肥工业大学 | 一种基于多尺度注意力机制的人群密度估计方法 |
US20200074186A1 (en) * | 2018-08-28 | 2020-03-05 | Beihang University | Dense crowd counting method and apparatus |
CN110991317A (zh) * | 2019-11-29 | 2020-04-10 | 中山大学 | 一种基于多尺度透视感知型网络的人群计数方法 |
CN111144329A (zh) * | 2019-12-29 | 2020-05-12 | 北京工业大学 | 一种基于多标签的轻量快速人群计数方法 |
-
2020
- 2020-05-18 CN CN202010418960.5A patent/CN111709290B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107330364A (zh) * | 2017-05-27 | 2017-11-07 | 上海交通大学 | 一种基于cGAN网络的人群计数方法及系统 |
CN109101930A (zh) * | 2018-08-18 | 2018-12-28 | 华中科技大学 | 一种人群计数方法及系统 |
US20200074186A1 (en) * | 2018-08-28 | 2020-03-05 | Beihang University | Dense crowd counting method and apparatus |
CN109948593A (zh) * | 2019-04-04 | 2019-06-28 | 浙江工业大学 | 基于结合全局密度特征的mcnn人群计数方法 |
CN110263849A (zh) * | 2019-06-19 | 2019-09-20 | 合肥工业大学 | 一种基于多尺度注意力机制的人群密度估计方法 |
CN110991317A (zh) * | 2019-11-29 | 2020-04-10 | 中山大学 | 一种基于多尺度透视感知型网络的人群计数方法 |
CN111144329A (zh) * | 2019-12-29 | 2020-05-12 | 北京工业大学 | 一种基于多标签的轻量快速人群计数方法 |
Non-Patent Citations (2)
Title |
---|
孟月波;纪拓;刘光辉;徐胜军;李彤月;: "编码-解码多尺度卷积神经网络人群计数方法", 西安交通大学学报, no. 05 * |
翟强;王陆洋;殷保群;彭思凡;邢思思;: "基于尺度自适应卷积神经网络的人群计数算法", 计算机工程, no. 02 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112580545A (zh) * | 2020-12-24 | 2021-03-30 | 山东师范大学 | 基于多尺度自适应上下文网络的人群计数方法及系统 |
CN112668537A (zh) * | 2021-01-06 | 2021-04-16 | 北京理工大学 | 一种基于多尺度跳跃连接的群体计数方法 |
CN112819792A (zh) * | 2021-02-03 | 2021-05-18 | 杭州高斯洪堡科技有限公司 | 一种基于DualNet的城市区域变化检测方法 |
CN112966600A (zh) * | 2021-03-04 | 2021-06-15 | 上海应用技术大学 | 用于拥挤人群计数的自适应多尺度上下文聚合方法 |
CN112966600B (zh) * | 2021-03-04 | 2024-04-16 | 上海应用技术大学 | 用于拥挤人群计数的自适应多尺度上下文聚合方法 |
CN113537195A (zh) * | 2021-07-21 | 2021-10-22 | 北京数美时代科技有限公司 | 一种图像文本识别方法、系统和电子设备 |
CN114120233A (zh) * | 2021-11-29 | 2022-03-01 | 上海应用技术大学 | 用于人群计数的轻量金字塔空洞卷积聚合网络的训练方法 |
CN114120233B (zh) * | 2021-11-29 | 2024-04-16 | 上海应用技术大学 | 用于人群计数的轻量金字塔空洞卷积聚合网络的训练方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111709290B (zh) | 2023-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111709290A (zh) | 基于编解码-跳跃连接尺度金字塔网络的人群计数方法 | |
CN110598610B (zh) | 一种基于神经选择注意的目标显著性检测方法 | |
CN110175986B (zh) | 一种基于卷积神经网络的立体图像视觉显著性检测方法 | |
CN108960404B (zh) | 一种基于图像的人群计数方法及设备 | |
CN109190695A (zh) | 一种基于深度卷积神经网络的鱼类图像分类方法 | |
CN108765425A (zh) | 图像分割方法、装置、计算机设备和存储介质 | |
CN107944437B (zh) | 一种基于神经网络和积分图像的人脸定位方法 | |
CN113392711B (zh) | 一种基于高层语义与噪声抑制的烟雾语义分割方法及系统 | |
CN115393410A (zh) | 一种基于神经辐射场和语义分割的单目视图深度估计方法 | |
CN111861906A (zh) | 一种路面裂缝图像虚拟增广模型建立及图像虚拟增广方法 | |
CN110991317B (zh) | 一种基于多尺度透视感知型网络的人群计数方法 | |
CN113393457B (zh) | 一种结合残差密集块与位置注意力的无锚框目标检测方法 | |
CN111696049A (zh) | 基于深度学习的水下扭曲图像重建方法 | |
CN115565056A (zh) | 基于条件生成对抗网络的水下图像增强方法及系统 | |
CN116486074A (zh) | 一种基于局部和全局上下文信息编码的医学图像分割方法 | |
CN111882516B (zh) | 一种基于视觉显著性和深度神经网络的图像质量评价方法 | |
CN113205103A (zh) | 一种轻量级的文身检测方法 | |
CN113807356A (zh) | 一种端到端的低能见度图像语义分割方法 | |
Luo et al. | Bi-GANs-ST for perceptual image super-resolution | |
CN117079098A (zh) | 一种基于位置编码的空间小目标检测方法 | |
CN107256554B (zh) | 一种用于图像分割的单层脉冲神经网络结构 | |
CN115860113B (zh) | 一种自对抗神经网络模型的训练方法及相关装置 | |
CN117456330A (zh) | 一种基于MSFAF-Net的低照度目标检测方法 | |
CN115439849B (zh) | 基于动态多策略gan网络的仪表数字识别方法及系统 | |
CN116824143A (zh) | 一种基于双边特征融合及向量自注意力的点云分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |