CN114519844A - 一种基于视觉转化器的人群密度估计方法及系统 - Google Patents
一种基于视觉转化器的人群密度估计方法及系统 Download PDFInfo
- Publication number
- CN114519844A CN114519844A CN202210133298.8A CN202210133298A CN114519844A CN 114519844 A CN114519844 A CN 114519844A CN 202210133298 A CN202210133298 A CN 202210133298A CN 114519844 A CN114519844 A CN 114519844A
- Authority
- CN
- China
- Prior art keywords
- neural network
- converter
- visual
- network model
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 102
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000003062 neural network model Methods 0.000 claims abstract description 66
- 238000012549 training Methods 0.000 claims abstract description 45
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 238000007781 pre-processing Methods 0.000 claims abstract description 16
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 15
- 238000003709 image segmentation Methods 0.000 claims description 4
- 230000001902 propagating effect Effects 0.000 claims description 3
- 238000005096 rolling process Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000004927 fusion Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于视觉转化器的人群密度估计方法,具有这样的特征,包括:步骤1,对待测图像进行预处理获得预处理图像,然后搭建编码解码层;步骤2,搭建基于视觉转化器的神经网络模型;步骤3,把训练数据输入基于视觉转化器的神经网络模型进行模型训练,得到训练完成的基于视觉转化器机制神经网络模型;步骤4,将预处理图像输入训练完成的基于视觉转化器机制神经网络模型,分别得出各个预处理图像中的人群密度结果并进行输出,其中,基于视觉转化器的神经网络模型包括前端以卷积神经网络为基础的局部信息提取模块和后端以视觉转化器为基础的全局信息提取模块。本发明还公开基于视觉转化器的人群密度估计系统,包括预处理部和密度预测部。
Description
技术领域
本发明涉及计算机视觉、人工智能技术领域,具体涉及一种基于视觉转化器的人群密度估计方法及系统。
背景技术
在当前机器学习技术及计算机硬件性能高速提升的情况下,近年来计算机视觉、自然语言处理和语音检测等应用领域取得了突破性进展。人群密度估计作为计算机视觉领域一项基础的任务,其精度也得到了大幅提升。
人群密度估计任务可具体描述如下:
对于拍摄的图片或者录制的视频以及摄像头下的人群场景,生成密度图用以表示单位面积内人群的密度,再以该密度图为基础,将密度图中单位面积人群密度加和,得到最终整体场景的人群密度,或者是整个视频的人群密度变化。
人群密度估计对计算机视觉领域和实际应用具有重要意义,在过去几十年里激励大批研究人员密切关注并投入研究。随着强劲的机器学习理论和特征分析技术的发展,近十几年人群密度估计课题相关的研究活动有增无减,每年都有最新的研究成果和实际应用发表和公布。不仅如此,人群密度估计也被应用到很多实际任务,例如智能视频监控、人群态势分析等。然而,现有技术的多种人群密度估计方法的检测准确率仍然较低而不能应用于实际通用的估计任务。因此,人群密度估计还远未被完美解决,仍旧是重要的挑战性的研究课题。
为了提高密度估计的准确率,目前常用的方法是增加预测模型训练时的训练数据。然而,一方面,收集大量的训练数据是一件极其困难的工作,另一方面,训练数据量增多也导致模型训练时间延长,甚至有可能然后训练无法实际完成。
发明内容
本发明是为了解决上述问题而进行的,目的在于提供一种基于视觉转化器的人群密度估计方法及系统。
本发明提供了一种基于视觉转化器的人群密度估计方法,具有这样的特征,包括以下步骤:步骤1,对待测图像进行预处理获得预处理图像,然后搭建编码解码层;步骤2,搭建基于视觉转化器的神经网络模型;步骤3,把训练数据输入基于视觉转化器的神经网络模型进行模型训练,得到训练完成的基于视觉转化器机制神经网络模型;步骤4,将预处理图像输入训练完成的基于视觉转化器机制神经网络模型,分别得出各个预处理图像中的人群密度结果并进行输出,其中,基于视觉转化器的神经网络模型包括前端以卷积神经网络为基础的局部信息提取模块和后端以视觉转化器为基础的全局信息提取模块。
在本发明提供的基于视觉转化器的人群密度估计方法中,还可以具有这样的特征:其中,基于视觉转化器的神经网络模型还引入多级卷积机制,每级卷积操作之后都跟着一个visual transformer提取全局联系。
在本发明提供的基于视觉转化器的人群密度估计方法中,还可以具有这样的特征:其中,待测图像为高密度人群图像。
在本发明提供的基于视觉转化器的人群密度估计方法中,还可以具有这样的特征:其中,步骤1中,预处理的步骤为:步骤1-1,从待测图像中进行图像分割;步骤1-2,将分割得到的图像进行正则化,图像分割的方法为将待测图像按照一定规模,随机选取待测图像中一点作为中心点,以一定比例切割待测图像。
在本发明提供的基于视觉转化器的人群密度估计方法中,还可以具有这样的特征:其中,步骤1中,编码解码层以VGG-16网络和visual transformer网络为基础。
在本发明提供的基于视觉转化器的人群密度估计方法中,还可以具有这样的特征:其中,步骤2中,搭建视觉转化器的神经网络模型时,在前端多级卷机层后增加visualtransformer结构。
在本发明提供的基于视觉转化器的人群密度估计方法中,还可以具有这样的特征:其中,步骤3包括以下步骤:步骤3-1,构建基于视觉转化器神经网络模型,其包含的模型优化器为随机梯度下降,学习率为10-7;步骤3-2,将训练集中的各个训练图像依次输入基于视觉转化器神经网络模型并进行一次迭代;步骤3-3,进行迭代后,采用最后一层的模型参数分别计算出损失误差,然后将计算得到的损失误差反向传播,从而更新模型参数;步骤3-4,重复步骤3-2~步骤3-3直至达到训练完成条件,得到训练后的基于视觉转化器神经网络模型。
本发明提供了一种基于视觉转化器的人群密度估计系统,具有这样的特征,包括:采用基于视觉转化器的神经网络模型从待测图像中检测出人群密度,包括:预处理部,对待测图像进行预处理获得预处理图像;密度预测部,搭建视觉转化器的神经网络模型,把训练数据输入搭建好的基于视觉转化器的神经网络模型,从而进行模型训练,将预处理图像输入训练完成的基于视觉转化器机制神经网络模型,从而得出各个预处理图像中的人群密度结果并进行输出,其中,基于视觉转化器的神经网络模型包括前端以卷积神经网络为基础的局部信息提取模块和后端以视觉转化器为基础的全局信息提取模块。
发明的作用与效果
根据本发明所涉及的基于视觉转化器的人群密度估计方法,因为估计步骤为:步骤1,对待测图像进行预处理获得预处理图像,然后搭建编码解码层;步骤2,搭建基于视觉转化器的神经网络模型;步骤3,把训练数据输入基于视觉转化器的神经网络模型进行模型训练,得到训练完成的基于视觉转化器机制神经网络模型;步骤4,将预处理图像输入训练完成的基于视觉转化器机制神经网络模型,分别得出各个预处理图像中的人群密度结果并进行输出,其中,基于视觉转化器的神经网络模型包括前端以卷积神经网络为基础的局部信息提取模块和后端以视觉转化器为基础的全局信息提取模块。
因此,根据本发明提供的基于视觉转化器的人群密度估计方法,由于引入了多级卷积融合网络和视觉转化器结合的神经网络模型作为预测模型,该预测模型的混合神经网络结构可以使模型更好的定位到人群和识别人群的密度,因此,此模型能够学习到更多的特征,更好地进行特征表达,更加适合高密度人群的人群密度估计任务,能够最终提高人群密度估计的精度。
另外,该模型结构简单,不需要使用模型混合、多任务训练以及度量学习等方法,因此,与现有的高精度模型相比,本发明的模型构建快速方便,且训练过程所消耗的计算量也较小。
附图说明
图1是本发明的实施例中基于视觉转化器的人群密度估计方法的流程图;
图2是本发明的实施例中基于视觉转化器的人群密度估计方法的结构示意图;
图3是本发明的实施例中视觉转化器模块的结构图;
图4是本发明的实施例中多级融合卷积的结构图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下实施例结合附图对本发明一种基于视觉转化器的人群密度估计方法及系统作具体阐述。
在本实施例中,提供了一种基于视觉转化器的人群密度估计方法。
本实施例可以采用的数据集为UCF-QNRF。UCF-QNRF是一个具有挑战性的高密度场景的数据集,该数据集包含了1535张标记图片和总数为1251642个人头的标注信息,该数据集中每张图片的人数范围为49到12865,并且该数据集图片的平均分辨率为2013乘2902,是一个高分辨率的数据集。
本实施例还可以采用的数据集为ShangehaiTech。ShangehaiTech是一个具有挑战性的高密度场景的数据集,该数据集包含了1198张标记图片和总数为330165个人头的标注信息,这个数据集由两部分组成:A部分和B部分。A部分包括482张从互联网上随机下载的图片。列车组有300幅图像,试验组有182幅图像。B部分共有716幅无人机在上海拍摄的不同场景的图像。
本实施例还可以采用的数据集为UCF CC 50。UCF CC 50是一个具有挑战性的高密度场景的数据集,包含50幅极密集人群的注释图像,每个图像中注释的人数从94到4543不等,平均为1280人。另外,本实施例实现的硬件平台需要一张NVIDIA 1080Ti显卡(GPU加速)。
本实施例首先对数据集图片进行预处理,然后训练基于注意力机制的卷积神经网络模型,最后通过该神经网络模型得到图片的人群密度。具体包括4个过程:预处理、搭建模型、训练模型及密度预测。
图1是本发明实施例中基于视觉转化器的人群密度估计方法的流程图。
如图1所示,本实施例所涉及的一种基于视觉转化器的人群密度估计方法包括以下步骤:
步骤S1,对待测图像进行预处理获得预处理图像,然后搭建编码解码层。
本实施例中,待测图像为从UCF-QNRF数据集中得到的图像,由于该数据集的高分比率,无法将图像直接输入到模型中,进行降采样,并选取随机中心点分割出多个子块,然后输入模型中。
本实施例的上述过程中,降采样是针对图像分辨率过高的措施;选取随机中心点分割出多个子块训练数据是为了增加获取的图像数量,实现数据扩充从而让从待测图像中获取的数据量更为丰富,进而增加迭代的epoch。在其他实施例中,待测图像也可以是单张图像(例如照片等),这种情况下不需要分割操作。另外,在其他实施例中也可以不对图像进行复制,或者采用其他的现有技术中的数据扩充方式(例如垂直翻转、水平翻转与垂直翻转结合等)。
构建编码解码层,编码层以VGG-16前十层为基础,后四层每层由一个最大池化和两个膨胀卷积组成,每层的核大小均为3x3,膨胀系数为2,其中第三层的输出通道为512,第四层的输出通道分别为512和256,第五层的输出通道为128和64。为了调整每层的输出特征,2、3、4、5层分别连接了一个卷积层,这四个卷积层输出通道均为128。
步骤S2,搭建基于视觉转化器的神经网络模型。
首先,利用现有的深度学习框架PyTorch,搭建基于视觉转化器神经网络模型。该基于视觉转化器神经网络模型是引入包括多级融合的卷积和视觉转化器结合的神经网络。
具体地,本实施例的模型由基于多级融合的卷积局部信息提取器和transformer的全局信息提取器组成,其中在多级融合的卷积局部信息模块中,每一个卷积层卷积操作后都跟着视觉转化器。
图2是本发明实施例的视觉转化器的神经网络模型的结构示意图。
如图2所示,本发明的视觉转化器神经网络模型包括依次设置的输入层I、基于VGG-16前端多级融和卷积层、visual transformer模块。
如图2所示,基于视觉提取器的神经网络模型具体包括如下结构:
(1)输入层I,用于输入各个经过预处理和编码的图像
(2)网络CNN部分的前两层使用预训练好的VGG16的前10层作为backbone,后四层每层由一个最大池化和两个膨胀卷积组成,每层的核大小均为3x3,膨胀系数为2,其中第三层的输出通道为512,第四层的输出通道分别为512和256,第五层的输出通道为128和64。为了调整每层的输出特征,2、3、4、5层分别连接了一个卷积层,这四个卷积层输出通道均为128。
(3)visual transformer模块:多级卷积的输出送入到该模块中。最后将所有结果合并为最终的结果图。
图3是本发明实施例的视觉转化器模块的结构图。
如图3所示,基于视觉转化器神经网络模型中,每个多级融合卷积层后都要进行通道调整操作。
图4是本发明实施例的多级融合卷积的结构图。
如图4所示,每层多级卷积后都跟着一个调整层,调整层将输出的特征图调成后端视觉转化器需要的大小和规模。
如图4所示,首先对输入的图像随机选取中心点截图子图像,然后将子图像和原图一起送入到模型中进行训练。
步骤S3,把训练数据输入基于视觉转化器的神经网络模型进行模型训练,得到训练完成的基于视觉转化器机制神经网络模型。
本实施例采用人群数据集UCF-QNRF作为训练数据。采用与步骤S1相同的方法,从该数据集中获得了包含1251642个人头的1535张图像;将这些图像做分割,以实现数据增强,然后再进行正则化处理,得到的多张图像即为本实施例的训练集。
上述训练集中的图像分批次进入网络模型进行训练,每次进入网络模型的训练图像批次大小为1,一共迭代训练2000次。
其中,步骤S3包括以下步骤:
步骤S3-1,构建基于视觉转化器神经网络模型,其包含的模型优化器为随机梯度下降,学习率为10-7。
步骤S3-2,将训练集中的各个训练图像依次入基于视觉转化器神经网络模型并进行一次迭代。
步骤S3-3,进行迭代后,采用最后一层的模型参数分别计算出损失误差,然后将计算得到的损失误差反向传播,从而更新模型参数。
步骤S3-4,重复步骤S3-2~步骤S3-3直至达到训练完成条件,得到训练后的基于视觉转化器神经网络模型。
步骤S4,将预处理图像输入训练完成的基于视觉转化器机制神经网络模型,分别得出各个预处理图像中的人群密度结果并进行输出,
其中,基于视觉转化器的神经网络模型包括前端以卷积神经网络为基础的局部信息提取模块和后端以视觉转化器为基础的全局信息提取模块。
本实施例中采用UCF-QNRF测试集作为待测图像来对本实施例的模型进行测试,其中场景就是高密度人群场景。
具体过程为:利用UCF-QNRF数据集,对其数据集中的多个图像进行如步骤S1所描述的预处理,得到334张图像(即预处理后的预处理图像)作为测试集,依次输入训练好的基于注意力机制的卷积神经网络模型,生成对应的密度图并计算得到人群密度结果。
本实施例中,训练好的基于视觉转化器的神经网络模型对该测试集的人群密度估计生成的平均绝对误差(MAE)为99.7,均方误差(MSE)为172.3。
本实施例中还采用现有技术中的其他人群密度估计模型对同样的测试集进行了对比测试,结果如下表1所示。
表1为本实施例的方法以及现有技术的其他方法在UCF-QNRF数据集上人群密度估计的对比测试结果。
表1
表1中,MCNN、CP-CNN、TDF-CNN、ic-CNN、D-ConvNet、CSRNet为现有技术中常见人群密度估计准确率较高的几种模型。另外,MAE代表平均绝对误差,MSE代表均方误差。
上述测试过程表明,本实施例的基于视觉转化器神经网络模型的人群密度估计方法能够在UCF-QNRF数据集上取得很高的准确率。
本实施例中还提供了一种基于视觉转化器的人群密度估计系统,采用基于视觉转化器的神经网络模型从待测图像中检测出人群密度,包括:
预处理部,利用本实施例中步骤S1中的方法进行预处理。
密度预测部,利用本实施例中步骤S1~步骤S4中的方法进行密度预测,得到预测结果。
实施例的作用与效果
根据本实施例所涉及的基于视觉转化器的人群密度估计方法及系统,因为,步骤1,对待测图像进行预处理获得预处理图像,然后搭建编码解码层;步骤2,搭建基于视觉转化器的神经网络模型;步骤3,把训练数据输入基于视觉转化器的神经网络模型进行模型训练,得到训练完成的基于视觉转化器机制神经网络模型;步骤4,将预处理图像输入训练完成的基于视觉转化器机制神经网络模型,分别得出各个预处理图像中的人群密度结果并进行输出,其中,基于视觉转化器的神经网络模型包括前端以卷积神经网络为基础的局部信息提取模块和后端以视觉转化器为基础的全局信息提取模块。
因此,根据上述实施例提供的基于视觉转化器的人群密度估计方法及系统,由于引入了多级卷积融合网络和视觉转化器结合的神经网络模型作为预测模型,该预测模型的混合神经网络结构可以使模型更好的定位到人群和识别人群的密度,因此,此模型能够学习到更多的特征,更好地进行特征表达,更加适合高密度人群的人群密度估计任务,能够最终提高人群密度估计的精度。
另外,该模型结构简单,不需要使用模型混合、多任务训练以及度量学习等方法,因此,与现有的高精度模型相比,上述实施例的模型构建快速方便,且训练过程所消耗的计算量也较小。
上述实施方式为本发明的优选案例,并不用来限制本发明的保护范围。
Claims (8)
1.一种基于视觉转化器的人群密度估计方法,其特征在于,采用基于视觉转化器和多级卷积结合神经网络模型从待测图像中检测出人群密度,包括以下步骤:
步骤1,对待测图像进行预处理获得预处理图像,然后搭建编码解码层;
步骤2,搭建基于视觉转化器的神经网络模型;
步骤3,把训练数据输入所述基于视觉转化器的神经网络模型进行模型训练,得到训练完成的基于视觉转化器机制神经网络模型;
步骤4,将所述预处理图像输入所述训练完成的基于视觉转化器机制神经网络模型,分别得出各个所述预处理图像中的人群密度结果并进行输出,
其中,所述基于视觉转化器的神经网络模型包括前端以卷积神经网络为基础的局部信息提取模块和后端以视觉转化器为基础的全局信息提取模块。
2.根据权利要求1所述的基于视觉转化器的人群密度估计方法,其特征在于:
其中,所述基于视觉转化器的神经网络模型还引入多级卷积机制,每级卷积操作之后都跟着一个visual transformer提取全局联系。
3.根据权利要求1所述的基于视觉转化器的人群密度估计方法,其特征在于:
其中,所述待测图像为高密度人群图像。
4.根据权利要求1所述的基于视觉转化器的人群密度估计方法,其特征在于:
其中,步骤1中,所述预处理的步骤为:
步骤1-1,从所述待测图像中进行图像分割;
步骤1-2,将分割得到的图像进行正则化,
所述图像分割的方法为将所述待测图像按照一定规模,随机选取所述待测图像中一点作为中心点,以一定比例切割所述待测图像。
5.根据权利要求1所述的基于视觉转化器的人群密度估计方法,其特征在于:
其中,步骤1中,所述编码解码层以VGG-16网络和visual transformer网络为基础。
6.根据权利要求1所述的基于视觉转化器的人群密度估计方法,其特征在于:
其中,步骤2中,搭建所述视觉转化器的神经网络模型时,在前端多级卷机层后增加visual transformer结构。
7.根据权利要求1所述的基于视觉转化器的人群密度估计方法,其特征在于:
其中,步骤3包括以下步骤:
步骤3-1,构建所述基于视觉转化器神经网络模型,其包含的模型优化器为随机梯度下降,学习率为10-7;
步骤3-2,将所述训练集中的各个训练图像依次输入所述基于视觉转化器神经网络模型并进行一次迭代;
步骤3-3,进行所述迭代后,采用最后一层的模型参数分别计算出损失误差,然后将计算得到的所述损失误差反向传播,从而更新所述模型参数;
步骤3-4,重复步骤3-2~步骤3-3直至达到训练完成条件,得到所述训练后的基于视觉转化器神经网络模型。
8.一种基于视觉转化器的人群密度估计系统,其特征在于,采用基于视觉转化器的神经网络模型从待测图像中检测出人群密度,包括:
预处理部,对所述待测图像进行预处理获得预处理图像;
密度预测部,搭建视觉转化器的神经网络模型,把训练数据输入搭建好的所述基于视觉转化器的神经网络模型,从而进行模型训练,将所述预处理图像输入训练完成的所述基于视觉转化器机制神经网络模型,从而得出各个所述预处理图像中的人群密度结果并进行输出,
其中,所述基于视觉转化器的神经网络模型包括前端以卷积神经网络为基础的局部信息提取模块和后端以视觉转化器为基础的全局信息提取模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210133298.8A CN114519844A (zh) | 2022-02-09 | 2022-02-09 | 一种基于视觉转化器的人群密度估计方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210133298.8A CN114519844A (zh) | 2022-02-09 | 2022-02-09 | 一种基于视觉转化器的人群密度估计方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114519844A true CN114519844A (zh) | 2022-05-20 |
Family
ID=81597365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210133298.8A Pending CN114519844A (zh) | 2022-02-09 | 2022-02-09 | 一种基于视觉转化器的人群密度估计方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114519844A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115375707A (zh) * | 2022-08-18 | 2022-11-22 | 石河子大学 | 一种复杂背景下植物叶片精准分割方法及系统 |
CN116071709A (zh) * | 2023-03-31 | 2023-05-05 | 南京信息工程大学 | 一种基于改进型vgg16网络的人群计数方法、系统及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110889343A (zh) * | 2019-11-15 | 2020-03-17 | 复旦大学 | 基于注意力型深度神经网络的人群密度估计方法及装置 |
CN112989952A (zh) * | 2021-02-20 | 2021-06-18 | 复旦大学 | 一种基于遮罩引导的人群密度估计方法及装置 |
WO2022022368A1 (zh) * | 2020-07-28 | 2022-02-03 | 宁波环视信息科技有限公司 | 基于深度学习的监所行为规范检测装置及方法 |
-
2022
- 2022-02-09 CN CN202210133298.8A patent/CN114519844A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110889343A (zh) * | 2019-11-15 | 2020-03-17 | 复旦大学 | 基于注意力型深度神经网络的人群密度估计方法及装置 |
WO2022022368A1 (zh) * | 2020-07-28 | 2022-02-03 | 宁波环视信息科技有限公司 | 基于深度学习的监所行为规范检测装置及方法 |
CN112989952A (zh) * | 2021-02-20 | 2021-06-18 | 复旦大学 | 一种基于遮罩引导的人群密度估计方法及装置 |
Non-Patent Citations (3)
Title |
---|
DINGKANG LIANG等: "TransCrowd: Weakly-Supervised Crowd Counting with Transformer", 预印本ARXIV:2104.09116V1, 19 April 2021 (2021-04-19), pages 1 - 12 * |
WENHAI WANG等: "Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction without Convolutions", 预印本ARXIV:2102.12122V2, 11 August 2021 (2021-08-11), pages 1 - 15 * |
YE TIAN等: "CCTrans: Simplifying and Improving Crowd Counting with Transformer", 预印本ARXIV:2109.14483V1, 29 September 2021 (2021-09-29), pages 1 - 5 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115375707A (zh) * | 2022-08-18 | 2022-11-22 | 石河子大学 | 一种复杂背景下植物叶片精准分割方法及系统 |
CN116071709A (zh) * | 2023-03-31 | 2023-05-05 | 南京信息工程大学 | 一种基于改进型vgg16网络的人群计数方法、系统及存储介质 |
CN116071709B (zh) * | 2023-03-31 | 2023-06-16 | 南京信息工程大学 | 一种基于改进型vgg16网络的人群计数方法、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110889343B (zh) | 基于注意力型深度神经网络的人群密度估计方法及装置 | |
Deshpande et al. | Learning diverse image colorization | |
CN110276253A (zh) | 一种基于深度学习的模糊文字检测识别方法 | |
CN109886225A (zh) | 一种基于深度学习的图像手势动作在线检测与识别方法 | |
CN112287820A (zh) | 人脸检测神经网络及训练方法、人脸检测方法、存储介质 | |
CN110147745B (zh) | 一种视频关键帧检测方法及装置 | |
CN113139989B (zh) | 一种基于深度学习的粒子图像测速方法与装置 | |
CN114519844A (zh) | 一种基于视觉转化器的人群密度估计方法及系统 | |
CN112818904A (zh) | 一种基于注意力机制的人群密度估计方法及装置 | |
CN109461177B (zh) | 一种基于神经网络的单目图像深度预测方法 | |
CN110246171B (zh) | 一种实时单目视频深度估计方法 | |
CN114283352A (zh) | 一种视频语义分割装置、训练方法以及视频语义分割方法 | |
CN113283336A (zh) | 一种文本识别方法与系统 | |
CN112597824A (zh) | 行为识别方法、装置、电子设备和存储介质 | |
CN110020658A (zh) | 一种基于多任务深度学习的显著目标检测方法 | |
Yang | SCB-dataset: A dataset for detecting student classroom behavior | |
CN115346149A (zh) | 基于时空图卷积网络的跳绳计数方法和系统 | |
CN112507904A (zh) | 一种基于多尺度特征的教室人体姿态实时检测方法 | |
CN112989952B (zh) | 一种基于遮罩引导的人群密度估计方法及装置 | |
Yang et al. | Student Classroom Behavior Detection Based on YOLOv7+ BRA and Multi-model Fusion | |
CN113570509A (zh) | 数据处理方法以及计算机设备 | |
CN113420179A (zh) | 基于时序高斯混合空洞卷积的语义重构视频描述方法 | |
CN113158735B (zh) | 一种基于图神经网络的密集事件描述方法 | |
CN114820636A (zh) | 一种三维医学图像分割模型及其训练方法和应用 | |
CN114882580A (zh) | 一种基于深度学习的运动动作一致性的度量方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |