CN110705499B - 一种基于迁移学习的人群计数方法 - Google Patents
一种基于迁移学习的人群计数方法 Download PDFInfo
- Publication number
- CN110705499B CN110705499B CN201910966650.4A CN201910966650A CN110705499B CN 110705499 B CN110705499 B CN 110705499B CN 201910966650 A CN201910966650 A CN 201910966650A CN 110705499 B CN110705499 B CN 110705499B
- Authority
- CN
- China
- Prior art keywords
- image
- game
- picture
- method based
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明公开了一种基于迁移学习的人群计数方法,采用本地数据集对全卷积神经网络进行预训练,然后用监控场景数据进行微调。本发明经过迁移学习后的模型,在少量数据的微调下,就能达到较高的准确度。微调后的模型在特定监控场景下能达到较高的准确率,即使不使用特定监控场景的图像进行微调,相比于随机初始化的模型或在ImageNet上预训练的模型,在本发明的模型也能达到更低的预测误差。
Description
技术领域
本发明属于计算机视觉的技术领域,具体涉及一种基于迁移学习的人群计数方法。
背景技术
国内外的大型活动中频发踩踏事件,已经造成了不小的伤亡,如2015年上海外滩踩踏事件,已达到了我国规定的重大伤亡事故级别。因此,人群计数问题的研究也越来越火热,若能通过准确估计当前场景的人群密度,并安排相应的安保措施,则可以有效减少或避免此类事件的发生。
传统的人群计数算法主要分类两大类:
1.基于检测的方法。早期的人群计数研究主要聚焦于基于检测的方法,其主要思想为使用一个滑动窗口检测器来检测场景中人群,并统计相应的人数。基于检测的方法主要分为两大类,一种是基于整体的检测,另一种是基于部分身体的检测。基于整体检测的方法主要适用于稀疏的人群计数,随着人群密度的提升,人与人之间的遮挡变得越来越严重。基于部分身体的检测通过检测身体的部分结构,例如头,肩膀等去统计人群的数量。这种方法比之基于整体的检测,在效果上有略微的提升。
2.基于回归的方法。无论何种基于检测的方法,都很难处理人群之间严重的遮挡问题。所以,基于回归的方法逐渐被用来解决人群计数的问题。基于回归的方法,主要思想是通过学习一种特征到人群数量的映射。这类方法步骤主要分为两步,第一步提取低级的特征,例如前景特征,边缘特征,纹理和梯度特征;第二步是学习一个回归模型,例如线性回归,分段线性回归,岭回归和高斯过程回归等方法学习一个低级特征到人群数量的映射关系。
然而,目前的人群计数方法均在已公开的数据集上进行研究,在实际的监控场景应用时效果往往不理想,主要原因在于目前的数据集图像跟实际的监控画面差距较大、部分标注不准确,导致计数的准确率下降。
目前公开数据集的规模较小、场景单一,导致训练模型很容易过拟合。另一方面,特定场景的监控数据属于敏感数据,大量获取和标注十分困难。且监控场景数据存在透视形变(perspective distortion)的问题,因此,本发明旨在解决透视形变的问题,利用少量的特定监控场景下的训练数据达到较高的准确率。
发明内容
本发明的目的在于提供一种基于迁移学习的人群计数方法,经过迁移学习后的模型,在少量数据的微调下,就能达到较高的准确度。
本发明主要通过以下方案实现:一种基于迁移学习的人群计数方法,采用本地数据集对全卷积神经网络进行预训练,然后用监控场景数据进行微调。
为了更好的实现本发明,进一步的,全卷积神经网络包括依次设置的基础网络、Average pooling、Conv、上采样;首先通过基础网络提取图像特征,然后依次进入Averagepooling、Conv进行全局特征的提取,然后上采样到设定大小的特征图;将基础网络提取的特征图与经过上采样得到的特征图进行差值计算,以在全局特征下找到特征图中因为透视形变影响最大的参数;然后利用k=1的卷积核将差值拉成一维形成权重,随后乘以全局特征;最后解码网络,以生成密度图,对生成的密度图中的元素求和即为预测的总人数。
为了更好的实现本发明,进一步的,所述基础网络为VGG-16网络的前十层,所述基础网络的第1-2层的卷积层的k=3、c=64、d=1,且max pooling的k=2;第3-4层的卷积层的k=3、c=128、d=1,且max pooling的k=2;第5-7层的卷积层的k=3、c=256、d=1,且max pooling的k=2;第8-10层的卷积层的k=3、c=512、d=1;其中k为卷积核大小,c为通道数,d为扩张率。
为了更好的实现本发明,进一步的,所述解码网络的第1-3层的卷积层的k=3、c=512、d=2,第4层的卷积层的k=3、c=256、d=2,第5层的卷积层的k=3、c=128、d=2,第6层的卷积层的k=3、c=64、d=2,第7层的卷积层的k=1、c=1、d=1。
为了更好的实现本发明,进一步的,所述本地数据包括真实监控场景、游戏画面、电视电影画面的数据。
为了更好的实现本发明,进一步的,采用拍摄或爬虫方式获取真实监控场景图像,所述游戏画面从接近真实场景的游戏中截取,所述电视电影画面从接近真实场景的现代都市剧中截取;截取的画面以高角度、覆盖人群广为基本要求,以接近真实场景。
为了更好的实现本发明,进一步的,所述真实监控场景、游戏画面、电视电影画面的图像数量比例约为3:4:3。
为了更好的实现本发明,进一步的,利用Cycle GAN模型对游戏画面、电视电影画面的数据进行转换,缩小真实监控场景的数据与游戏画面、电视电影画面的数据的域差。
为了更好的实现本发明,进一步的,所述Cycle GAN模型通过从游戏画面、电视电影画面的图像域获取输入图像A,所述输入图像A被传递到第一个生成器GeneratorA,以将来自游戏画面、电视电影画面的图像域的输入图像A转换到监控场景图像域中的图像B;然后,所述图像B被传递到另一个生成器GeneratorB,在游戏画面、电视电影画面的图像域中转换回输出图像C;所述输出图像C与输入图像A相似,所述输出图像C是有真实监控场景风格的图像。
本发明的有益效果:
(1)经过迁移学习后的模型,在少量数据的微调下,就能达到较高的准确度。
(2)本发明解决了公开数据集数量小、场景单一且跟真实监控场景画面相差较大的问题,制作了一个场景丰富、规模大、人数多的本地数据。
(3)由于游戏电影中的画面相对于真实监控数据图像更为清晰,场景风格截然不同。因此本发明利用Cycle GAN(循环生成对抗网络)对这部分数据进行转换,使游戏电影图像更接近真实监控场景图像。
(4)输出图像C必须与原始输入图像A相似,用来定义非配对数据集中原来不存在的有意义映射,这样输出图像C就是我们需要的有真实监控场景风格的图像。
(5)微调后的模型在特定监控场景下能达到较高的准确率,即使不使用特定监控场景的图像进行微调,相比于随机初始化的模型或在ImageNet上预训练的模型,在本发明制作的数据集上预训练的模型也能达到更低的预测误差。
附图说明
图1为本发明的流程图;
图2为本发明的网络结构图。
具体实施方式
实施例1:
一种基于迁移学习的人群计数方法,如图1所示,采用本地数据集对全卷积神经网络进行预训练,然后用监控场景数据进行微调。
如图1所示,将本地数据集对该全卷积神经网络进行预训练,接着用少量的特定监控场景数据进行微调。经过迁移学习后的模型,在少量监控场景数据的微调下,就能达到较高的准确度。
实施例2:
本实施例是在实施例1的基础上进行优化,所述本地数据包括真实监控场景、游戏画面、电视电影画面的数据。由于游戏电影等画面与真实监控场景差距较大,本发明提出一种域适应(domain adaptation)的方法,利用Cycle GAN对数据进行转换,缩小了游戏电影数据与现实监控数据的域差(domain gap)。
本发明采用拍摄或爬虫方式获取真实监控场景图像,所述游戏画面从接近真实场景的游戏中截取,所述电视电影画面从接近真实场景的现代都市剧中截取;截取的画面以高角度、覆盖人群广为基本要求,以接近真实场景。
本实施例的其他部分与实施例1相同,故不再赘述。
实施例3:
本实施例是在实施例2的基础上进行优化,所述Cycle GAN模型通过从游戏画面、电视电影画面的图像域获取输入图像A,所述输入图像A被传递到第一个生成器GeneratorA,以将来自游戏画面、电视电影画面的图像域的输入图像A转换到监控场景图像域中的图像B;然后,所述图像B被传递到另一个生成器GeneratorB,在游戏画面、电视电影画面的图像域中转换回输出图像C;所述输出图像C与输入图像A相似,所述输出图像C是有真实监控场景风格的图像。
本实施例的其他部分与上述实施例2相同,故不再赘述。
实施例4:
本实施例是在实施例1-3任一个的基础上进行优化,如图2所示,全卷积神经网络包括依次设置的基础网络、Average pooling、Conv、上采样;首先通过基础网络提取图像特征,然后依次进入Average pooling、Conv进行全局特征的提取,然后上采样到特定大小的特征图;将基础网络提取的特征图与经过上采样得到的特征图进行差值计算,以在全局特征下找到特征图中因为透视形变影响最大的参数;然后利用k=1的卷积核将差值拉成一维形成权重,随后乘以全局特征;对全局特征重标定的过程即为对透视形变的关注过程,称之为域适应(domain adaptation)。差值越大,透视形变程度越大,权重越大。最后解码网络,以生成密度图,对生成的密度图中的元素求和即为预测的总人数。
本实施例的其他部分与上述实施例1-3任一个相同,故不再赘述。
实施例5:
一种基于迁移学习的人群计数方法,如图1所示,制作监控场景下的本地数据集进行迁移学习。该数据集主要包含真实监控场景、游戏画面、电视电影画面等。由于游戏电影等画面与真实监控场景差距较大,本发明提出一种域适应(domain adaptation)的方法,利用Cycle GAN对数据进行转换,缩小了游戏电影数据与现实监控数据的域差(domain gap)。
为解决透视形变(perspective distortion)问题,如图2所示,设计了一个全卷积神经网络(FCN),如图1所示,将本地数据集对该全卷积神经网络进行预训练,接着用少量的特定监控场景数据进行微调。经过迁移学习后的模型,在少量监控场景数据的微调下,就能达到较高的准确度。
本发明主要包括以下步骤:
1、解决了公开数据集数量小、场景单一且跟真实监控场景画面相差较大的问题,本发明制作了一个场景丰富、规模大、人数多的本地数据。该数据集主要数据来源为各类真实监控场景下的图像,其次是游戏画面、电影电视片段,游戏和电影电视画面。对于真实监控场景图像,可以采用拍摄和爬虫等方式获取。游戏画面可从罪恶都市等接近真实场景的游戏中截取,电影电视画面可从现代都市剧中截取,截取的画面以高角度、覆盖人群广为基本要求,以接近真实场景。各类图像数量比例约为3:4:3,经过筛选总共获取了18953张图像并标注。
该数据集中大部分为游戏电影的图像,考虑到游戏电影中的画面相对于真实监控数据图像更为清晰,场景风格截然不同。因此本发明利用Cycle GAN(循环生成对抗网络)对这部分数据进行转换,使游戏电影图像更接近真实监控场景图像。所述Cycle GAN处理方法主要包括以下步骤:
1)所述Cycle GAN模型通过从游戏电影图像域获取输入图像A,该输入图像被传递到第一个生成器名为GeneratorA,其任务是将来自游戏电影图像域的给定图像转换到监控场景图像域中的图像B。
2)然后这个新生成的图像被传递到另一个生成器名为GeneratorB,其任务是在游戏电影图像域中转换回输出图像C。这个输出图像C必须与原始输入图像A相似,用来定义非配对数据集中原来不存在的有意义映射,这样输出图像C就是我们需要的有真实监控场景风格的图像了。
2、然后利用标注好的本地数据对全卷积神经网络进行预训练,为了解决数据中存在的透视形变(perspective distortion)问题,本发明设计了一个基于VGG-16网络模型的全卷积神经网络,如图2所示。透视形变主要特点是物体离镜头越远,则物体越小。往往监控图像中,图像靠下位置的物体显得大,靠上的物体显得小。
首先,基础网络为VGG-16网络的前十层,具体参数如表1,其中k为卷积核大小,c为通道数,d为扩张率。基础网络的主要功能为提取图像特征,如纹理、颜色信息等。接着是Average pooling+Conv进行全局特征的提取,然后上采样(upsample)到特定大小的特征图。随后将基础网络提取出的特征图与经过采样后的特征图进行差值计算,目的是在全局特征下,找到特征图中因为透视形变影响最大的参数,差值越大即影响越大。然后利用k=1的卷积核将差值拉成一维形成权重,随后乘以全局特征。对全局特征重标定的过程即为对透视形变的关注过程,称之为域适应(domain adaptation)。差值越大,透视形变程度越大,权重越大。之后是解码网络,主要作用是生成密度图,对生成的密度图中的元素求和即为预测的总人数。
本发明损失函数采用的是均方误差损失函数(MSE Loss)。经过在本地数据集上训练过的模型,对监控场景更为敏感,同时对透视形变有一定的适应能力。
微调后的模型在特定监控场景下能达到较高的准确率,即使不使用特定监控场景的图像进行微调,相比于随机初始化的模型或在ImageNet上预训练的模型,在本发明制作的数据集上预训练的模型也能达到更低的预测误差。
通过本发明方法训练得到的模型,在200张监控数据下微调后的均方误差(MSE)为26.3,即使不进行微调的均方误差(MSE)为39.7。采用参数随机初始化模型的均方误差(MSE)为63.4,在ImageNet上进行预训练的模型的均方误差(MSE)为43.2。可以发现,利用本发明方法在实际监控场景下有更低的误差。
表1网络参数
以上所述,仅是本发明的较佳实施例,并非对本发明做任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化,均落入本发明的保护范围之内。
Claims (8)
1.一种基于迁移学习的人群计数方法,其特征在于,采用本地数据集对全卷积神经网络进行预训练,然后用监控场景数据进行微调;
全卷积神经网络包括依次设置的基础网络、Average pooling、Conv、上采样;首先通过基础网络提取图像特征,然后依次进入Average pooling、Conv进行全局特征的提取,然后上采样到设定大小的特征图;将基础网络提取的特征图与经过上采样得到的特征图进行差值计算,以在全局特征下找到特征图中因为透视形变影响最大的参数;然后利用k=1的卷积核将差值拉成一维形成权重,随后乘以全局特征;最后解码网络,以生成密度图,对生成的密度图中的元素求和即为预测的总人数。
2.根据权利要求1所述的一种基于迁移学习的人群计数方法,其特征在于,所述基础网络为VGG-16网络的前十层,所述基础网络的第1-2层的卷积层的k=3、c=64、d=1,且maxpooling的k=2;第3-4层的卷积层的k=3、c=128、d=1,且max pooling的k=2;第5-7层的卷积层的k=3、c=256、d=1,且max pooling的k=2;第8-10层的卷积层的k=3、c=512、d=1;其中k为卷积核大小,c为通道数,d为扩张率。
3.根据权利要求2所述的一种基于迁移学习的人群计数方法,其特征在于,所述解码网络的第1-3层的卷积层的k=3、c=512、d=2,第4层的卷积层的k=3、c=256、d=2,第5层的卷积层的k=3、c=128、d=2,第6层的卷积层的k=3、c=64、d=2,第7层的卷积层的k=1、c=1、d=1。
4.根据权利要求1所述的一种基于迁移学习的人群计数方法,其特征在于,所述本地数据包括真实监控场景、游戏画面、电视电影画面的数据。
5.根据权利要求4所述的一种基于迁移学习的人群计数方法,其特征在于,采用拍摄或爬虫方式获取真实监控场景图像,所述游戏画面从接近真实场景的游戏中截取,所述电视电影画面从接近真实场景的现代都市剧中截取;截取的画面以高角度、覆盖人群广为基本要求,以接近真实场景。
6.根据权利要求4所述的一种基于迁移学习的人群计数方法,其特征在于,所述真实监控场景、游戏画面、电视电影画面的图像数量比例约为3:4:3。
7.根据权利要求4-6任一项所述的一种基于迁移学习的人群计数方法,其特征在于,利用Cycle GAN模型对游戏画面、电视电影画面的数据进行转换,缩小真实监控场景的数据与游戏画面、电视电影画面的数据的域差。
8.根据权利要求7所述的一种基于迁移学习的人群计数方法,其特征在于,所述CycleGAN模型通过从游戏画面、电视电影画面的图像域获取输入图像A,所述输入图像A被传递到第一个生成器GeneratorA,以将来自游戏画面、电视电影画面的图像域的输入图像A转换到监控场景图像域中的图像B;然后,所述图像B被传递到另一个生成器GeneratorB,在游戏画面、电视电影画面的图像域中转换回输出图像C;所述输出图像C与输入图像A相似,所述输出图像C是有真实监控场景风格的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910966650.4A CN110705499B (zh) | 2019-10-12 | 2019-10-12 | 一种基于迁移学习的人群计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910966650.4A CN110705499B (zh) | 2019-10-12 | 2019-10-12 | 一种基于迁移学习的人群计数方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110705499A CN110705499A (zh) | 2020-01-17 |
CN110705499B true CN110705499B (zh) | 2020-06-02 |
Family
ID=69198564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910966650.4A Active CN110705499B (zh) | 2019-10-12 | 2019-10-12 | 一种基于迁移学习的人群计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110705499B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783610B (zh) * | 2020-06-23 | 2022-03-15 | 西北工业大学 | 一种基于解纠缠图像迁移的跨域人群计数方法 |
CN114429436A (zh) * | 2022-01-25 | 2022-05-03 | 山东大学 | 一种缩小域差异的图像迁移方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107330364A (zh) * | 2017-05-27 | 2017-11-07 | 上海交通大学 | 一种基于cGAN网络的人群计数方法及系统 |
CN107451661A (zh) * | 2017-06-29 | 2017-12-08 | 西安电子科技大学 | 一种基于虚拟图像数据集的神经网络迁移学习方法 |
CN107633527A (zh) * | 2016-07-19 | 2018-01-26 | 北京图森未来科技有限公司 | 基于全卷积神经网络的目标追踪方法及装置 |
CN108520197A (zh) * | 2018-02-28 | 2018-09-11 | 中国航空工业集团公司洛阳电光设备研究所 | 一种遥感图像目标检测方法及装置 |
CN108876774A (zh) * | 2018-06-07 | 2018-11-23 | 浙江大学 | 一种基于卷积神经网络的人群计数方法 |
CN109344736A (zh) * | 2018-09-12 | 2019-02-15 | 苏州大学 | 一种基于联合学习的静态图像人群计数方法 |
CN110163110A (zh) * | 2019-04-23 | 2019-08-23 | 中电科大数据研究院有限公司 | 一种基于迁移学习和深度特征融合的行人重识别方法 |
-
2019
- 2019-10-12 CN CN201910966650.4A patent/CN110705499B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107633527A (zh) * | 2016-07-19 | 2018-01-26 | 北京图森未来科技有限公司 | 基于全卷积神经网络的目标追踪方法及装置 |
CN107330364A (zh) * | 2017-05-27 | 2017-11-07 | 上海交通大学 | 一种基于cGAN网络的人群计数方法及系统 |
CN107451661A (zh) * | 2017-06-29 | 2017-12-08 | 西安电子科技大学 | 一种基于虚拟图像数据集的神经网络迁移学习方法 |
CN108520197A (zh) * | 2018-02-28 | 2018-09-11 | 中国航空工业集团公司洛阳电光设备研究所 | 一种遥感图像目标检测方法及装置 |
CN108876774A (zh) * | 2018-06-07 | 2018-11-23 | 浙江大学 | 一种基于卷积神经网络的人群计数方法 |
CN109344736A (zh) * | 2018-09-12 | 2019-02-15 | 苏州大学 | 一种基于联合学习的静态图像人群计数方法 |
CN110163110A (zh) * | 2019-04-23 | 2019-08-23 | 中电科大数据研究院有限公司 | 一种基于迁移学习和深度特征融合的行人重识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110705499A (zh) | 2020-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107844779B (zh) | 一种视频关键帧提取方法 | |
US9117112B2 (en) | Background detection as an optimization for gesture recognition | |
CN106412619B (zh) | 一种基于hsv颜色直方图和dct感知哈希的镜头边界检测方法 | |
JP5165743B2 (ja) | ビデオデータの同期をとる方法及び装置 | |
CN113011329B (zh) | 一种基于多尺度特征金字塔网络及密集人群计数方法 | |
AU2017250159A1 (en) | Video recording method, server, system, and storage medium | |
Karaman et al. | Comparison of static background segmentation methods | |
US8923611B2 (en) | Automatic background identification in video images | |
US20130135496A1 (en) | Image processing device, image processing method, and program | |
CN102572502B (zh) | 一种用于视频质量评价的关键帧的选取方法 | |
CN108154080B (zh) | 一种视频设备快速溯源的方法 | |
CN110705499B (zh) | 一种基于迁移学习的人群计数方法 | |
Akbari et al. | A new forensic video database for source smartphone identification: Description and analysis | |
CN110738128A (zh) | 一种基于深度学习的重复视频检测方法 | |
CN104463125A (zh) | 基于dsp的人脸自动检测跟踪装置及其方法 | |
Cai et al. | Context enhancement of nighttime surveillance by image fusion | |
Wei et al. | MSPNET: Multi-supervised parallel network for crowd counting | |
CN103561274B (zh) | 静止摄像头拍摄的运动目标被移除视频时域篡改检测方法 | |
CN104717574B (zh) | 一种视频摘要中事件与背景的融合方法 | |
Yang et al. | No‐reference image quality assessment via structural information fluctuation | |
CN102222321A (zh) | 一种视频序列盲重建方法 | |
Sharma et al. | A review of passive forensic techniques for detection of copy-move attacks on digital videos | |
TWI381735B (zh) | 影像監視設備之影像處理系統及其影像解析自動調適之方法 | |
Chen et al. | An adaptive noise removal tool for iot image processing under influence of weather conditions | |
Oliveira et al. | FPGA architecture for static background subtraction in real time |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A population counting method based on Transfer Learning Effective date of registration: 20220105 Granted publication date: 20200602 Pledgee: Agricultural Bank of China Limited Chengdu Jincheng sub branch Pledgor: CHENGDU KOALA YOURAN TECHNOLOGY CO.,LTD. Registration number: Y2022510000006 |