CN110472514A - 一种自适应车辆目标检测算法模型及其构建方法 - Google Patents

一种自适应车辆目标检测算法模型及其构建方法 Download PDF

Info

Publication number
CN110472514A
CN110472514A CN201910660271.2A CN201910660271A CN110472514A CN 110472514 A CN110472514 A CN 110472514A CN 201910660271 A CN201910660271 A CN 201910660271A CN 110472514 A CN110472514 A CN 110472514A
Authority
CN
China
Prior art keywords
feature vector
target detection
adaptive vehicle
detection algorithm
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910660271.2A
Other languages
English (en)
Other versions
CN110472514B (zh
Inventor
吴春江
罗艺
杨红
刘睿凡
陈鹏飞
肖莉才
孙云飞
王威
乐代波
严浩
郑皓文
刘高峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SICHUAN HAOTEL TELECOMMUNICATIONS CO Ltd
University of Electronic Science and Technology of China
Original Assignee
SICHUAN HAOTEL TELECOMMUNICATIONS CO Ltd
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SICHUAN HAOTEL TELECOMMUNICATIONS CO Ltd, University of Electronic Science and Technology of China filed Critical SICHUAN HAOTEL TELECOMMUNICATIONS CO Ltd
Priority to CN201910660271.2A priority Critical patent/CN110472514B/zh
Publication of CN110472514A publication Critical patent/CN110472514A/zh
Application granted granted Critical
Publication of CN110472514B publication Critical patent/CN110472514B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种自适应车辆目标检测算法模型及其构建方法,所述构建方法包括:S1,分别获取训练集的特征向量集和测试集的特征向量集;S2,将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集;S3,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。本发明建立的自适应车辆目标检测算法模型,能够解决训练集和测试集之间的差异问题,提高模型的自适应能力,同时提高目标检测任务下车辆识别的准确率。

Description

一种自适应车辆目标检测算法模型及其构建方法
技术领域
本发明涉及交通技术领域,尤其是一种自适应车辆目标检测算法模型及其构建方法。
背景技术
基于深度学习的车辆目标检测任务通常假定训练域与测试域独立同分布,将由训练数据集得到的模型直接应用于测试集。然而在很多实际应用中,这一假设往往并不成立。若训练域与测试域分布存在差异,基于分布一致性所得模型的性能会出现大幅度下降,换言之,模型缺乏对新环境的适应能力。例如,训练集中的所有照片都是在晴天拍摄的,没有一张是在夜晚、下雨、有雾或下雪天,而测试集上的照片却存在下雨、有雾等多种情况,这种数据集之间的偏差可能是有意的,也可能是无意的,这使得模型性能出现大幅度下降。
发明内容
本发明所要解决的技术问题是:针对上述存在的问题,提供自适应车辆目标检测算法模型及其构建方法。
本发明提供的一种自适应车辆目标检测算法模型的构建方法,包括:
S1,分别获取训练集的特征向量集和测试集的特征向量集;
S2,将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集;
S3,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。
进一步地,所述步骤S1的方法为:利用稀疏自编码器分别对训练集和测试集进行特征提取,获取训练集的特征向量集和测试集的特征向量集。
进一步地,所述步骤S2的方法为:
S2.1,构建训练集的特征向量集到测试集的特征向量集的映射函数;
S2.2,利用所述映射函数将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集。
进一步地,所述步骤S2.1的方法为:
(1)根据高斯径向基核函数与Sigmoid核函数组合得到带权重的核函数:
其中为高斯径向基核函数,tanh(v(X·Y)+c)为Sigmoid核函数,X为训练集的特征向量集,X为测试集的特征向量集,α和β是直接影响核函数K(X,Y)的权重;
(2)将训练集的特征向量集作为输入,使用梯度下降法进行迭代并不断调整权重α和β,直到核函数K(X,Y)能够近似拟合测试集的特征向量集时,得到训练集的特征向量集到测试集的特征向量集的映射函数。
进一步地,所述步骤S3的方法为:
确定所述YOLOv3神经网络模型的网络层结构;
根据损失函数,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。
进一步地,所述YOLOv3神经网络模型的网络层结构为darknet-53。
进一步地,所述损失函数的计算公式为:
其中,
λcoord为预测坐标的惩罚系数;
λnoord为不包含运动目标时候置信度的惩罚系数;
K×K表示将一张输入图片划分的网格数量;
M表示每一个网格所预测的目标边框的数量;
xi、yi、wi、hi分别表示预测运动目标的中心点的横纵坐标以及宽高度;
分别表示真实运动目标的中心点以及宽高度;
分别表示第j个候选目标边框所在的第i个网格是否负责检测该物体;
Ci分别表示第i个网格中是否存在运动检测目标预测的与真实的置信度;
pi(c)与分别表示第i个网格中运动目标属于某一类别预测的与真实概率值;
classes表示模型可识别类型。
本发明还提供一种自适应车辆目标检测算法模型,包括上述的自适应车辆目标检测算法模型的构建方法得到的自适应车辆目标检测算法模型。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
本发明建立的自适应车辆目标检测算法模型,能够解决训练集和测试集之间的差异问题,提高模型的自适应能力,同时提高目标检测任务下车辆识别的准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明的自适应车辆目标检测算法模型的构建方法的流程框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
以下结合实施例对本发明的特征和性能作进一步的详细描述。
如图1所示,本实施例提供的一种自适应车辆目标检测算法模型的构建方法,包括:
S1,分别获取训练集的特征向量集和测试集的特征向量集;
在本实施例中,所述步骤S1的方法为:利用稀疏自编码器分别对训练集和测试集进行特征提取,获取训练集的特征向量集和测试集的特征向量集。稀疏自编码器一般用来学习特征,以便用于像分类这样的任务。稀疏正则化的自编码器必须反映训练数据集的独特统计特征,而不是简单地充当恒等函数。以这种方式训练,执行附带稀疏惩罚的复制任务可以得到能学习有用特征的模型。
S2,将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集;
在本实施例中,所述步骤S2的方法为:
S2.1,构建训练集的特征向量集到测试集的特征向量集的映射函数:
(1)根据核函数定理,设F1(X,Y)和F2(X,Y)均为核函数,则根据以下公式构造的函数均是核函数:
F(X,Y)=F1(X,Y)+F2(X,Y);
F(X,Y)=λF1(X,Y),其中,常数λ≥0;
F(X,Y)=F1(X,Y)·F2(X,Y);
利用核函数定理,在本实施例中,根据高斯径向基核函数与Sigmoid核函数组合得到带权重的核函数:
其中为高斯径向基核函数,tanh(v(X·Y)+c)为Sigmoid核函数,X为训练集的特征向量集,Y为测试集的特征向量集,α和β是直接影响核函数K(X,Y)的权重;
(2)将训练集的特征向量集作为输入,使用梯度下降法进行迭代并不断调整权重α和β,直到核函数K(X,Y)能够近似拟合测试集的特征向量集时,得到训练集的特征向量集到测试集的特征向量集的映射函数。
S2.2,利用所述映射函数将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集。也就是说,将训练集的特征向量集输入到映射函数中,所得到的目标特征向量数据集基本存在于测试集的特征向量空间和中。
S3,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。
在本实施例中,所述步骤S3的方法为:
(1)确定所述YOLOv3神经网络模型的网络层结构,该网络层主要进行特征提取。作为优选,所述YOLOv3神经网络模型的网络层结构为darknet-53。
(2)根据损失函数,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。
在本实施例中,所述损失函数的计算公式为:
表示对预测的中心坐标做损失计算;
表示对预测边界框的宽和高做损失计算;
表示对预测类别做损失计算。
其中,λcoord为预测坐标的惩罚系数;
λnoord为不包含运动目标时候置信度的惩罚系数;
K×K表示将一张输入图片划分的网格数量;
M表示每一个网格所预测的目标边框的数量;
xi、yi、wi、hi分别表示预测运动目标的中心点的横纵坐标以及宽高度;
分别表示真实运动目标的中心点以及宽高度;
分别表示第j个候选目标边框所在的第i个网格是否负责检测该物体;
Ci分别表示第i个网格中是否存在运动检测目标预测的与真实的置信度;
pi(c)与分别表示第i个网格中运动目标属于某一类别预测的与真实概率值;
classes表示模型可识别类型,在实施例中,特指车辆。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种自适应车辆目标检测算法模型的构建方法,其特征在于,包括:
S1,分别获取训练集的特征向量集和测试集的特征向量集;
S2,将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集;
S3,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。
2.根据权利要求1所述的自适应车辆目标检测算法模型的构建方法,其特征在于,所述步骤S1的方法为:利用稀疏自编码器分别对训练集和测试集进行特征提取,获取训练集的特征向量集和测试集的特征向量集。
3.根据权利要求1所述的自适应车辆目标检测算法模型的构建方法,其特征在于,所述步骤S2的方法为:
S2.1,构建训练集的特征向量集到测试集的特征向量集的映射函数;
S2.2,利用所述映射函数将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集。
4.根据权利要求3所述的自适应车辆目标检测算法模型的构建方法,其特征在于,所述步骤S2.1的方法为:
(1)根据高斯径向基核函数与Sigmoid核函数组合得到带权重的核函数:
其中为高斯径向基核函数,tanh(v(X·Y)+c)为Sigmoid核函数,X为训练集的特征向量集,X为测试集的特征向量集,α和β是直接影响核函数K(X,Y)的权重;
(2)将训练集的特征向量集作为输入,使用梯度下降法进行迭代并不断调整权重α和β,直到核函数K(X,Y)能够近似拟合测试集的特征向量集时,得到训练集的特征向量集到测试集的特征向量集的映射函数。
5.根据权利要求1所述的自适应车辆目标检测算法模型的构建方法,其特征在于,所述步骤S3的方法为:
确定所述YOLOv3神经网络模型的网络层结构;
根据损失函数,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。
6.根据权利要求1或4所述的自适应车辆目标检测算法模型的构建方法,其特征在于,所述YOLOv3神经网络模型的网络层结构为darknet-53。
7.根据权利要求4所述的自适应车辆目标检测算法模型的构建方法,其特征在于,所述损失函数的计算公式为:
其中,
λcoord为预测坐标的惩罚系数;
λnoord为不包含运动目标时候置信度的惩罚系数;
K×K表示将一张输入图片划分的网格数量;
M表示每一个网格所预测的目标边框的数量;
xi、yi、wi、hi分别表示预测运动目标的中心点的横纵坐标以及宽高度;
分别表示真实运动目标的中心点以及宽高度;
分别表示第j个候选目标边框所在的第i个网格是否负责检测该物体;
Ci分别表示第i个网格中是否存在运动检测目标预测的与真实的置信度;
pi(c)与分别表示第i个网格中运动目标属于某一类别预测的与真实概率值;
classes表示模型可识别类型。
8.一种自适应车辆目标检测算法模型,其特征在于,包括权利要求1~7任一项所述的自适应车辆目标检测算法模型的构建方法得到的自适应车辆目标检测算法模型。
CN201910660271.2A 2019-07-22 2019-07-22 一种自适应车辆目标检测算法模型及其构建方法 Active CN110472514B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910660271.2A CN110472514B (zh) 2019-07-22 2019-07-22 一种自适应车辆目标检测算法模型及其构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910660271.2A CN110472514B (zh) 2019-07-22 2019-07-22 一种自适应车辆目标检测算法模型及其构建方法

Publications (2)

Publication Number Publication Date
CN110472514A true CN110472514A (zh) 2019-11-19
CN110472514B CN110472514B (zh) 2022-05-31

Family

ID=68508286

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910660271.2A Active CN110472514B (zh) 2019-07-22 2019-07-22 一种自适应车辆目标检测算法模型及其构建方法

Country Status (1)

Country Link
CN (1) CN110472514B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428625A (zh) * 2020-03-23 2020-07-17 武汉理工大学 一种基于深度学习的交通场景目标检测方法及系统
CN111428558A (zh) * 2020-02-18 2020-07-17 东华大学 一种基于改进YOLOv3方法的车辆检测方法
CN113793327A (zh) * 2021-09-18 2021-12-14 北京中科智眼科技有限公司 一种基于token的高铁异物检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030140039A1 (en) * 2002-01-18 2003-07-24 Bruce Ferguson Pre-processing input data with outlier values for a support vector machine
CN105760821A (zh) * 2016-01-31 2016-07-13 中国石油大学(华东) 基于核空间的分类聚集稀疏表示的人脸识别方法
CN105913456A (zh) * 2016-04-12 2016-08-31 西安电子科技大学 基于区域分割的视频显著性检测方法
CN109447098A (zh) * 2018-08-27 2019-03-08 西北大学 一种基于深度语义嵌入的图像聚类算法
CN109614877A (zh) * 2018-11-17 2019-04-12 南京理工大学 低分辨率监控场景中具有遮挡的行人属性识别方法
CN109615016A (zh) * 2018-12-20 2019-04-12 北京理工大学 一种基于金字塔输入增益的卷积神经网络的目标检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030140039A1 (en) * 2002-01-18 2003-07-24 Bruce Ferguson Pre-processing input data with outlier values for a support vector machine
CN105760821A (zh) * 2016-01-31 2016-07-13 中国石油大学(华东) 基于核空间的分类聚集稀疏表示的人脸识别方法
CN105913456A (zh) * 2016-04-12 2016-08-31 西安电子科技大学 基于区域分割的视频显著性检测方法
CN109447098A (zh) * 2018-08-27 2019-03-08 西北大学 一种基于深度语义嵌入的图像聚类算法
CN109614877A (zh) * 2018-11-17 2019-04-12 南京理工大学 低分辨率监控场景中具有遮挡的行人属性识别方法
CN109615016A (zh) * 2018-12-20 2019-04-12 北京理工大学 一种基于金字塔输入增益的卷积神经网络的目标检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
T JING等: "An object detection system based on YOLO in traffic scene", 《2017 6TH INTERNATIONAL CONFERENCE ON COMPUTER SCIENCE AND NETWORK TECHNOLOGY 》 *
刘明等: "一种新的混合核函数支持向量机", 《计算机应用》 *
娄洹熙等: "基于支持向量机和遗传算法的人脸识别研究", 《微型机与应用》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428558A (zh) * 2020-02-18 2020-07-17 东华大学 一种基于改进YOLOv3方法的车辆检测方法
CN111428625A (zh) * 2020-03-23 2020-07-17 武汉理工大学 一种基于深度学习的交通场景目标检测方法及系统
CN113793327A (zh) * 2021-09-18 2021-12-14 北京中科智眼科技有限公司 一种基于token的高铁异物检测方法
CN113793327B (zh) * 2021-09-18 2023-12-26 北京中科智眼科技有限公司 一种基于token的高铁异物检测方法

Also Published As

Publication number Publication date
CN110472514B (zh) 2022-05-31

Similar Documents

Publication Publication Date Title
CN111027493B (zh) 一种基于深度学习多网络软融合的行人检测方法
CN110472514B (zh) 一种自适应车辆目标检测算法模型及其构建方法
Xia et al. A hybrid method based on extreme learning machine and k-nearest neighbor for cloud classification of ground-based visible cloud image
CN111179217A (zh) 一种基于注意力机制的遥感图像多尺度目标检测方法
CN113505792B (zh) 面向非均衡遥感图像的多尺度语义分割方法及模型
CN108229589B (zh) 一种基于迁移学习的地基云图分类方法
Wang et al. Ground-based cloud classification by learning stable local binary patterns
CN112365482B (zh) 一种基于染色体三等分特征点定位的交叉染色体图像实例分割方法
WO2023142912A1 (zh) 遗留物体的检测方法、装置及存储介质
CN113239722A (zh) 基于深度学习在多尺度下的强对流外推方法及系统
CN112381030A (zh) 一种基于特征融合的卫星光学遥感图像目标检测方法
WO2022219402A1 (en) Semantically accurate super-resolution generative adversarial networks
CN110853034A (zh) 裂缝检测方法、装置、电子设备和计算机可读存储介质
CN107529647B (zh) 一种基于多层无监督稀疏学习网络的云图云量计算方法
Pillai et al. Fine-Tuned EfficientNetB4 Transfer Learning Model for Weather Classification
CN116580328B (zh) 基于多任务辅助的热红外图像堤坝渗漏险情智能识别方法
CN102592125A (zh) 基于标准差特征的运动目标检测方法
CN115879034B (zh) 基于机器学习的热带气旋强度监测方法、装置和设备
Wu et al. Ground-based vision cloud image classification based on extreme learning machine
Zheng et al. Deep learning for typhoon intensity classification using satellite cloud images
CN113947723B (zh) 基于尺寸平衡fcos的高分辨率遥感场景目标检测方法
CN114998711A (zh) 一种空中红外弱小目标检测方法、系统及计算机存储介质
Adipranata et al. Automatic classification of sunspot groups for space weather analysis
Kashani et al. A novel approach in video scene background estimation
Bouget et al. Fusion of Rain Radar Images and Wind Forecasts in a Deep Learning Model Applied to Rain Nowcasting. Remote Sens. 2021, 13, 246

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant