CN110503049A - 基于生成对抗网络的卫星视频车辆数目估计方法 - Google Patents
基于生成对抗网络的卫星视频车辆数目估计方法 Download PDFInfo
- Publication number
- CN110503049A CN110503049A CN201910791912.8A CN201910791912A CN110503049A CN 110503049 A CN110503049 A CN 110503049A CN 201910791912 A CN201910791912 A CN 201910791912A CN 110503049 A CN110503049 A CN 110503049A
- Authority
- CN
- China
- Prior art keywords
- characteristic pattern
- original image
- image
- subgraph
- discriminator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明属于属于图像处理与计算机视觉技术领域,特别涉及一种基于生成对抗网络的卫星视频车辆数目估计方法,包括将卫星视频进行抽帧处理,获得原始图像以及原始图像对应的真实标签图像;对原始图像进行分块操作获得子图,将子图以及原始图像分别送入具有相同结构的生成器生成特征图;分别将子图以及原始图像的特征图送入生成对抗网络,获得由子图生成的特征图和由原始图像生成的特征图;计算由子图生成的特征图和由原始图像生成的特征图之间的距离,最小化该距离以获得最优结果,根据最优结果获得车流量密度图;本发明不仅充分利用图像信息,避免了数据缺乏的问题;还利用生成对抗网络将整个网络框架定义为一个回归问题,有效避免了检测困难的问题。
Description
技术领域
本发明属于属于图像处理与计算机视觉技术领域,特别涉及一种基于生成对抗网络的卫星视频车辆数目估计方法。
背景技术
随着社会经济的发展,人民的生活质量日益提高,城市车辆数量日益增多。城市拥堵成为了不可避免的一个社会难题,在这种背景下,交通调控显得尤为重要。车流密度又称交通流密度,即在单位长度(通常为1km)路段上,一个车道或一个方向上某一瞬时的车辆数,用以表示在一条道路上车辆的密集程度。车流密度不管是对于政府进行交通调控还是对于个人出行都是一个非常重要的信息。
目前车辆密度估计大多都是基于监控视频场景下的,其优势在于车辆在监控视频中清晰可见,所占像素较大,容易进行检测并估计;其劣势在于监控视频只是监测了一个城市的一小部分的交通情况,缺乏全局的信息,对于处理一些相应的紧急情况不够方便。而卫星视频刚好拥有全局信息,并且其摄影设备处于相较于监控摄像头来说更稳定的环境内,卫星视频中的噪声要少于监控视频的噪声,所以卫星视频是一个更好的研究数据。
现在的卫星视频的车辆密度估计主要存在两大挑战:
(1)、数据集的数据量少。目前可用的数据只有中国“吉林一号”所拍摄的视频以及美国的“sky-box”所拍摄的视频。
(2)、难以基于检测做估计。卫星视频数据的幅宽很大,其中车辆目标所占像素很小,且车辆的外观轮廓信息不具特征,难以用传统的基于检测的估计方法。
发明内容
为了解决检测困难的问题,本发明利用“热点图”作为真实标签密度图,提供一种基于生成对抗网络的卫星视频车辆数目估计方法,具体包括以下步骤:
S1:将卫星视频进行抽帧处理,获得原始图像;
S2:对原始图像进行分块操作获得子图,将子图以及原始图像分别送入具有相同结构的编解码网络生成特征图;
S3:分别将子图和原始图像的特征图以及真实标签图像送入生成对抗网络,获得由子图生成的特征图和由原始图像生成的特征图;
S4:计算由子图生成的特征图和由原始图像生成的特征图之间的距离,最小化该距离以获得最优结果,根据最优结果获得车流量密度图。
进一步的,步骤S1包括:把卫星视频连续抽帧,将数据集中的帧图像中的每辆车都标记为点,用高斯核卷积,最后将高斯核个数求和得到车辆热点图。
进一步的,所述对原始图像进行分块操作获得子图包括:将原始图像分成四块有交叠部分的子图。
进一步的,生成对抗网络包括生成器和鉴别器,将由原始图像生成的特征图送入鉴别器,若鉴别器判断为假,则根据鉴别器和生成器的联合损失函数反馈给生成器,重新生成特征图,直到鉴别器不能判断真假;
同时,将由子图生成的特征图送入鉴别器网络,若鉴别器判断为假,则根据鉴别器和生成器的联合损失函数反馈给生成器,重新生成特征图,直到鉴别器不能判断真假。
进一步的,鉴别器包括5个卷积层和一个判别层,鉴别器表示为:
C(48,4,2)-C(96,4,2)-C(192,4,2)-C(384,4,1)-C(1,4,1)-tanh;
其中,C(a,b,c)表示一个卷积层,a表示卷积层中卷积核个数,b表示卷积层中卷积核大小,c表示卷积层中卷积步长;判别层采用tanh函数使得最后的输出在-1.0到1.0之间,且大于零为真,小于零为假。
进一步的,生成特征图与真实标签图像的相似性表示为:
其中,LE(G)为生成特征图与真实标签图像的相似性;PG(c)为生成图像的第c个像素;PGT(c)为真实标签密度图中的第c个像素;表示二范数;C表示图像的颜色通道数。
进一步的,鉴别器和生成器的联合损失函数表示为:
其中,LA(G,D)表示鉴别器D与生成器G的联合损失函数;表示训练样本x与其对应的真实标签密度图y的真实分布Pdata(x,y)与训练样本和真实标签密度图之间分布相同的概率D(x,y)的交叉熵;表示训练样本x的真实分布Pdata(x)与训练样本x和根据训练样本生成的特征图G(x)之间分布不相同的概率1-D(x,G(x))的交叉熵;其中,D(x,G(x))训练样本x和根据训练样本生成的特征图G(x)之间分布相同的概率。进一步的,步骤S4具体包括:将子图生成的特征密度图拼接成一张完整的图片,计算由子图生成的特征图与由原始图像生成的特征图之间的距离,最小化特征图之间的距离,使得该拼接的图片与原始图像生成的特征密度图的差异性降到最小;生成对抗网络使用平均绝对误差和均方误差对检测到的车辆数量进行评估,获得车流量密度图。
进一步的,计算拼接的图片与原始图像的特征图的损失函数表示为:
其中,LC(G)为拼接的图片与原始图像生成的损失函数;pprt(c)表示原始图像生成的特征密度图中的第c个像素,pcnt(c)表示子图拼接起来的特征密度图中的第c个像素;C表示颜色通道数。
本发明的有益效果在于:
(1)、利用两条支路,对一张帧图像做分块处理,并分别送入不同的支路分别提取信息最后再做差值,并加以优化,使得图像信息得以充分利用,避免了数据缺乏的问题;
(2)、利用高斯核卷积生成车流量密度特征图,以此作为真实标签图像,再加之用生成对抗网络将整个网络框架定义为一个回归问题,有效避免了检测困难的问题。
附图说明
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
图1为本发明基于生成对抗网络的卫星视频车辆数目估计方法的流程示意图;
图2为本发明生成对抗网络中生成器的结构示意图;
图3为本发明生成对抗网络生成特征图的流程示意图;
图4为本发明生成对抗网络中鉴别器二分类过程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种基于生成对抗网络的卫星视频车辆数目估计方法,如图1,具体包括以下步骤:
S1:将卫星视频进行抽帧处理,获得原始图像;
S2:对原始图像进行分块操作获得子图,将子图以及原始图像分别送入具有相同结构的编解码网络生成特征图;
S3:分别将子图和原始图像的特征图以及真实标签图像送入生成对抗网络,获得由子图生成的特征图和由原始图像生成的特征图;
S4:计算由子图生成的特征图和由原始图像生成的特征图之间的距离,最小化该距离以获得最优结果,根据最优结果获得车流量密度图。
在本实施例中,把卫星视频连续抽帧,然后将数据集中的帧图像中的每辆车都标记为点,然后用高斯核卷积,最后将高斯核个数求和得到车辆热点图,以此当作真实标签信息。
生成对抗网络包括生成器和鉴别器,将由原始图像生成的特征图送入鉴别器,若鉴别器根据生成的特征图与其原始图对应的真实标签图像的相似性判断生成的特征图像的真假,若判断为假则根据鉴别器和生成器的联合损失函数反馈给生成器,重新生成特征图,直到鉴别器不能判断真假;
同时,将由子图生成的特征图送入鉴别器网络,若鉴别器根据生成的特征图与其原始图对应的真实标签图像的相似性判断生成的特征图像的真假,若判断为假则根据鉴别器和生成器的联合损失函数反馈给生成器,重新生成特征图,直到鉴别器不能判断真假。
生成器网络结构如图2所示,将输入的原始图像分成四块有交叠部分的子图,然后将子图以及原始图像分别送入具有相同编解码结构的生成器网络得到特征图,生成器网络结构主要包括由五层卷积层以及五层与之对应的反卷积层组成,这样做的目的是得到一个与输入图像大小一致的特征图,并且在卷积层和反卷积层之间有连接操作,用于特征信息的补全。
将由原始图像生成的特征图以及与之对应的真实标签图像一起送入鉴别器网络;与此同时将由子图生成的特征图以及与之对应的真实标签图像一起送入鉴别器网络,鉴别器会计算生成特征图与真实标签图像的相似性,借此判断生成图是真实还是虚假,鉴别器和生成器的联合损失函数为:
其中,LA(G,D)表示鉴别器D与生成器G的联合损失函数;表示训练样本x与其对应的真实标签密度图y的真实分布Pdata(x,y)与训练样本和真实标签密度图之间分布相同的概率D(x,y)的交叉熵;表示训练样本x的真实分布Pdata(x)与训练样本x和根据训练样本生成的特征图G(x)之间分布不相同的概率1-D(x,G(x))的交叉熵;其中,D(x,G(x))训练样本x和根据训练样本生成的特征图G(x)之间分布相同的概率;D为鉴别器,G为生成器,被训练用来生成特征图去迷惑鉴别器,鉴别器将鉴别结果反馈给生成器,然后生成更逼真的特征图,如此反复,这样就形成了博弈,互相促进。
如图3,将原始图像和子图分别送入生成对抗网络进行真伪判别,直到生成对抗网的鉴别器不能判断真假,输出原始图像对应的特征图和子图对应的特征图,将子图拼接起来,得到特征拼接图,将特征拼接图与原始图像对应的特征图做差运算,获得残差特征图,当残差特征图最小时,取得最优结果。
在本发明的生成对抗网络中,鉴别器包括5个卷积层和一个判别层,鉴别器表示为:
C(48,4,2)-C(96,4,2)-C(192,4,2)-C(384,4,1)-C(1,4,1)-tanh;
其中,C(a,b,c)表示一个卷积层,a表示卷积层中卷积核个数,b表示卷积层中卷积核大小,c表示卷积层中卷积步长;5个卷积层计输出生成图与真实标签密度图的相似性,判别层采用tanh函数将卷积层最后的输出的结果压缩到在-1.0到1.0之间,且大于零为真,小于零为假。
鉴别器计算生成图与真实标签密度图的相似性表示为:
其中,;PG(c)为生成图像的第c个像素;PGT(c)为真实标签密度图中的第c个像素;C为色彩通道的数量,其值为C=3;表示二范数;每张图中像素点c的上限根据具体的图像大小决定。
如图4,将子图生成的特征密度图拼接成一张完整的图片,然后与原始图像生成的特征密度图做差,得到差值图像,然后计算损失函数并优化,使得两条支路的差异性降到最小,以得到最终结果。其损失函数为:
其中,pprt(c)表示原始图像生成的特征密度图中的第c个像素,pcnt(c)表示子图拼接起来的特征密度图中的第c个像素。
本发明相较其他的车辆估计算法,优势在于两点:
(1)其他的车辆数量估计算法大多是基于监控摄像视频图像来进行检测估计的,相较于本发明,由于我们利用的是卫星图像,更多的兼具了全局的信息,使得本发明所得到的车辆数量信息更具有参考价值。
(2)目前利用卫星视频图像来做车辆估计的算法大多都是基于传统的运动目标检测的算法去实现,但是该算法容易受到环境因素的干扰,而本发明采用的深度学习算法具有更好的稳定性,这种优势在评估指标中的平均绝对误差和均方误差里可以体现,其中平均绝对误差为:
均方误差为:
其中,h(xi)表示生成的特征图;yi表示真实标签信信息;表示生成的特征图;m表示样本数量。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:ROM、RAM、磁盘或光盘等。
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.基于生成对抗网络的卫星视频车辆数目估计方法,其特征在于,包括以下步骤:
S1:将卫星视频进行抽帧处理,获得原始图像并对原始图像进行处理获得原始图像对应的真实标签图像;
S2:对原始图像进行分块操作获得子图,将子图以及原始图像分别送入具有相同结构的生成器生成特征图;
S3:分别将子图和原始图像的特征图以及真实标签图像送入生成对抗网络,获得由子图生成的特征图和由原始图像生成的特征图;
S4:计算由子图生成的特征图和由原始图像生成的特征图之间的距离,该距离最小时输出的特征图即为最优的车流量密度图;
S5:计算车流量密度图中高斯核的个数,高斯核的个数即为估计的车辆数目。
2.根据权利要求1所述的基于生成对抗网络的卫星视频车辆数目估计方法,其特征在于,获得原始图像对应的真实标签图像包括:把卫星视频连续抽帧,获得原始图像,将原始图像中的车辆标记为点,对标记后的图像进行高斯核卷积,将图像中高斯核个数求和得到车辆热点图,将该车辆热点图作为原始图像对应的真实标签图像。
3.根据权利要求1所述的基于生成对抗网络的卫星视频车辆数目估计方法,其特征在于,所述对原始图像进行分块操作获得子图包括:将原始图像分成四块有交叠部分的子图。
4.根据权利要求1所述的基于生成对抗网络的卫星视频车辆数目估计方法,其特征在于,生成对抗网络包括生成器和鉴别器,将由原始图像生成的特征图送入鉴别器,若鉴别器根据生成的特征图与其原始图对应的真实标签图像的相似性判断生成的特征图像的真假,若判断为假则根据鉴别器和生成器的联合损失函数反馈给生成器,重新生成特征图,直到鉴别器不能判断真假;
同时,将由子图生成的特征图送入鉴别器网络,若鉴别器根据生成的特征图与其原始图对应的真实标签图像的相似性判断生成的特征图像的真假,若判断为假则根据鉴别器和生成器的联合损失函数反馈给生成器,重新生成特征图,直到鉴别器不能判断真假。
5.根据权利要求4所述的基于生成对抗网络的卫星视频车辆数目估计方法,其特征在于,鉴别器包括5个卷积层和一个判别层,鉴别器表示为:
C(48,4,2)-C(96,4,2)-C(192,4,2)-C(384,4,1)-C(1,4,1)-tanh;
其中,C(a,b,c)表示一个卷积层,a表示卷积层中卷积核个数,b表示卷积层中卷积核大小,c表示卷积层中卷积步长;判别层采用tanh函数使得最后的输出在-1.0到1.0之间,且大于零为真,小于零为假。
6.根据权利要求4所述的基于生成对抗网络的卫星视频车辆数目估计方法,其特征在于,鉴别器和生成器的联合损失函数表示为:
其中,LA(G,D)表示鉴别器D与生成器G的联合损失函数;
表示训练样本x与其对应的真实标签密度图y的真实分布Pdata(x,y)与训练样本和真实标签密度图之间分布相同的概率D(x,y)的交叉熵;表示训练样本x的真实分布Pdata(x)与训练样本x和根据训练样本生成的特征图G(x)之间分布不相同的概率1-D(x,G(x))的交叉熵;其中,D(x,G(x))训练样本x和根据训练样本生成的特征图G(x)之间分布相同的概率。
7.根据权利要求4所述的基于生成对抗网络的卫星视频车辆数目估计方法,其特征在于,生成的特征图与真实标签图像的相似性表示为:
其中,LE(G)为生成特征图与真实标签图像的相似性;PG(c)为生成图像的第c个像素;PGT(c)为真实标签密度图中的第c个像素;表示二范数;C表示图像的颜色通道数。
8.根据权利要求1所述的基于生成对抗网络的卫星视频车辆数目估计方法,其特征在于,步骤S4具体包括:将子图生成的特征密度图拼接成一张完整的图片,计算由子图生成的特征图与由原始图像生成的特征图之间的距离,根据该拼接的图片与原始图像的损失函数最小化该拼接的图片与原始图像的特征图之间的距离,根据该距离计算损失函数,并根据损失函数优化拼接的图片与原始图像的特征图,使得该拼接的图片与原始图像生成的特征密度图的差异性降到最小,获得车流量密度图。
9.根据权利要求8所述的基于生成对抗网络的卫星视频车辆数目估计方法,其特征在于,计算拼接的图片与原始图像的损失函数表示为:
其中,LC(G)为拼接的图片与原始图像生成的损失函数;pprt(c)表示原始图像生成的特征密度图中的第c个像素,pcnt(c)表示子图拼接起来的特征密度图中的第c个像素;C表示颜色通道数;表示二范数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910791912.8A CN110503049B (zh) | 2019-08-26 | 2019-08-26 | 基于生成对抗网络的卫星视频车辆数目估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910791912.8A CN110503049B (zh) | 2019-08-26 | 2019-08-26 | 基于生成对抗网络的卫星视频车辆数目估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110503049A true CN110503049A (zh) | 2019-11-26 |
CN110503049B CN110503049B (zh) | 2022-05-03 |
Family
ID=68589643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910791912.8A Active CN110503049B (zh) | 2019-08-26 | 2019-08-26 | 基于生成对抗网络的卫星视频车辆数目估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110503049B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260655A (zh) * | 2019-12-31 | 2020-06-09 | 深圳云天励飞技术有限公司 | 基于深度神经网络模型的图像生成方法与装置 |
CN113392779A (zh) * | 2021-06-17 | 2021-09-14 | 中国工商银行股份有限公司 | 基于生成对抗网络的人群监控方法、装置、设备及介质 |
CN114332644A (zh) * | 2021-12-30 | 2022-04-12 | 北京建筑大学 | 一种基于视频卫星数据的大视场交通密度获取方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170228871A1 (en) * | 2012-06-22 | 2017-08-10 | Google Inc. | System and method for labelling aerial images |
CN108171112A (zh) * | 2017-12-01 | 2018-06-15 | 西安电子科技大学 | 基于卷积神经网络的车辆识别与跟踪方法 |
CN108764085A (zh) * | 2018-05-17 | 2018-11-06 | 上海交通大学 | 基于生成对抗网络的人群计数方法 |
CN108985331A (zh) * | 2018-06-14 | 2018-12-11 | 浙江工业大学 | 一种基于对抗生成网络的目标计数方法 |
CN109522857A (zh) * | 2018-11-26 | 2019-03-26 | 山东大学 | 一种基于生成式对抗网络模型的人数估计方法 |
US20190147320A1 (en) * | 2017-11-15 | 2019-05-16 | Uber Technologies, Inc. | "Matching Adversarial Networks" |
-
2019
- 2019-08-26 CN CN201910791912.8A patent/CN110503049B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170228871A1 (en) * | 2012-06-22 | 2017-08-10 | Google Inc. | System and method for labelling aerial images |
US20190147320A1 (en) * | 2017-11-15 | 2019-05-16 | Uber Technologies, Inc. | "Matching Adversarial Networks" |
CN108171112A (zh) * | 2017-12-01 | 2018-06-15 | 西安电子科技大学 | 基于卷积神经网络的车辆识别与跟踪方法 |
CN108764085A (zh) * | 2018-05-17 | 2018-11-06 | 上海交通大学 | 基于生成对抗网络的人群计数方法 |
CN108985331A (zh) * | 2018-06-14 | 2018-12-11 | 浙江工业大学 | 一种基于对抗生成网络的目标计数方法 |
CN109522857A (zh) * | 2018-11-26 | 2019-03-26 | 山东大学 | 一种基于生成式对抗网络模型的人数估计方法 |
Non-Patent Citations (2)
Title |
---|
SEONGYONG KIM等: "Proposal for a Method of Extracting Road Layers from Remote Sensing Images Using Conditional GANs", 《PROCEEDINGS OF THE 2ND INTERNATIONAL CONFERENCE ON DIGITAL SIGNAL PROCESSING》 * |
郭杜杜等: "高分辨率遥感图像在交通流信息采集中的研究综述", 《第七届中国智能交通年会》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260655A (zh) * | 2019-12-31 | 2020-06-09 | 深圳云天励飞技术有限公司 | 基于深度神经网络模型的图像生成方法与装置 |
CN111260655B (zh) * | 2019-12-31 | 2023-05-12 | 深圳云天励飞技术有限公司 | 基于深度神经网络模型的图像生成方法与装置 |
CN113392779A (zh) * | 2021-06-17 | 2021-09-14 | 中国工商银行股份有限公司 | 基于生成对抗网络的人群监控方法、装置、设备及介质 |
CN114332644A (zh) * | 2021-12-30 | 2022-04-12 | 北京建筑大学 | 一种基于视频卫星数据的大视场交通密度获取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110503049B (zh) | 2022-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108334847A (zh) | 一种真实场景下的基于深度学习的人脸识别方法 | |
CN101558404B (zh) | 图像分割 | |
CN108549893A (zh) | 一种任意形状的场景文本端到端识别方法 | |
CN111259809A (zh) | 基于DANet的无人机海岸线漂浮垃圾巡检系统 | |
CN110503049A (zh) | 基于生成对抗网络的卫星视频车辆数目估计方法 | |
CN110415170A (zh) | 一种基于多尺度注意力卷积神经网络的图像超分辨率方法 | |
CN110458282A (zh) | 一种融合多角度多模态的图像描述生成方法及系统 | |
CN106356757A (zh) | 一种基于人眼视觉特性的电力线路无人机巡检方法 | |
CN108985192A (zh) | 一种基于多任务深度卷积神经网络的视频烟雾识别方法 | |
CN107483920A (zh) | 一种基于多层级质量因子的全景视频评估方法及系统 | |
CN109558815A (zh) | 一种实时多人脸的检测及跟踪方法 | |
CN108154110A (zh) | 一种基于深度学习人头检测的密集人流量统计方法 | |
CN109784283A (zh) | 基于场景识别任务下的遥感图像目标提取方法 | |
CN113379771B (zh) | 带有边缘约束的层次化人体解析语义分割方法 | |
CN108596108A (zh) | 基于三元组语义关系学习的航拍遥感图像变化检测方法 | |
CN109712127A (zh) | 一种用于机巡视频流的输电线路故障检测方法 | |
CN112668375B (zh) | 景区内游客分布分析系统及方法 | |
Li et al. | Image manipulation localization using attentional cross-domain CNN features | |
CN115761627A (zh) | 一种火灾烟雾火焰图像识别方法 | |
CN108961358A (zh) | 一种获得样本图片的方法、装置及电子设备 | |
CN114399734A (zh) | 一种基于视觉信息的森林火灾预警方法 | |
CN111046213B (zh) | 一种基于图像识别的知识库构建方法 | |
CN110427810A (zh) | 视频定损方法、装置、拍摄端及机器可读存储介质 | |
CN110287798A (zh) | 基于特征模块化和上下文融合的矢量网络行人检测方法 | |
Lütjens et al. | Physics-informed GANs for coastal flood visualization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |