CN110472514A - 一种自适应车辆目标检测算法模型及其构建方法 - Google Patents
一种自适应车辆目标检测算法模型及其构建方法 Download PDFInfo
- Publication number
- CN110472514A CN110472514A CN201910660271.2A CN201910660271A CN110472514A CN 110472514 A CN110472514 A CN 110472514A CN 201910660271 A CN201910660271 A CN 201910660271A CN 110472514 A CN110472514 A CN 110472514A
- Authority
- CN
- China
- Prior art keywords
- feature vector
- target detection
- adaptive vehicle
- detection algorithm
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 35
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 20
- 238000010276 construction Methods 0.000 title claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 45
- 238000012360 testing method Methods 0.000 claims abstract description 36
- 238000003062 neural network model Methods 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 21
- 238000013507 mapping Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 30
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种自适应车辆目标检测算法模型及其构建方法,所述构建方法包括:S1,分别获取训练集的特征向量集和测试集的特征向量集;S2,将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集;S3,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。本发明建立的自适应车辆目标检测算法模型,能够解决训练集和测试集之间的差异问题,提高模型的自适应能力,同时提高目标检测任务下车辆识别的准确率。
Description
技术领域
本发明涉及交通技术领域,尤其是一种自适应车辆目标检测算法模型及其构建方法。
背景技术
基于深度学习的车辆目标检测任务通常假定训练域与测试域独立同分布,将由训练数据集得到的模型直接应用于测试集。然而在很多实际应用中,这一假设往往并不成立。若训练域与测试域分布存在差异,基于分布一致性所得模型的性能会出现大幅度下降,换言之,模型缺乏对新环境的适应能力。例如,训练集中的所有照片都是在晴天拍摄的,没有一张是在夜晚、下雨、有雾或下雪天,而测试集上的照片却存在下雨、有雾等多种情况,这种数据集之间的偏差可能是有意的,也可能是无意的,这使得模型性能出现大幅度下降。
发明内容
本发明所要解决的技术问题是:针对上述存在的问题,提供自适应车辆目标检测算法模型及其构建方法。
本发明提供的一种自适应车辆目标检测算法模型的构建方法,包括:
S1,分别获取训练集的特征向量集和测试集的特征向量集;
S2,将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集;
S3,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。
进一步地,所述步骤S1的方法为:利用稀疏自编码器分别对训练集和测试集进行特征提取,获取训练集的特征向量集和测试集的特征向量集。
进一步地,所述步骤S2的方法为:
S2.1,构建训练集的特征向量集到测试集的特征向量集的映射函数;
S2.2,利用所述映射函数将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集。
进一步地,所述步骤S2.1的方法为:
(1)根据高斯径向基核函数与Sigmoid核函数组合得到带权重的核函数:
其中为高斯径向基核函数,tanh(v(X·Y)+c)为Sigmoid核函数,X为训练集的特征向量集,X为测试集的特征向量集,α和β是直接影响核函数K(X,Y)的权重;
(2)将训练集的特征向量集作为输入,使用梯度下降法进行迭代并不断调整权重α和β,直到核函数K(X,Y)能够近似拟合测试集的特征向量集时,得到训练集的特征向量集到测试集的特征向量集的映射函数。
进一步地,所述步骤S3的方法为:
确定所述YOLOv3神经网络模型的网络层结构;
根据损失函数,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。
进一步地,所述YOLOv3神经网络模型的网络层结构为darknet-53。
进一步地,所述损失函数的计算公式为:
其中,
λcoord为预测坐标的惩罚系数;
λnoord为不包含运动目标时候置信度的惩罚系数;
K×K表示将一张输入图片划分的网格数量;
M表示每一个网格所预测的目标边框的数量;
xi、yi、wi、hi分别表示预测运动目标的中心点的横纵坐标以及宽高度;
分别表示真实运动目标的中心点以及宽高度;
与分别表示第j个候选目标边框所在的第i个网格是否负责检测该物体;
Ci与分别表示第i个网格中是否存在运动检测目标预测的与真实的置信度;
pi(c)与分别表示第i个网格中运动目标属于某一类别预测的与真实概率值;
classes表示模型可识别类型。
本发明还提供一种自适应车辆目标检测算法模型,包括上述的自适应车辆目标检测算法模型的构建方法得到的自适应车辆目标检测算法模型。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
本发明建立的自适应车辆目标检测算法模型,能够解决训练集和测试集之间的差异问题,提高模型的自适应能力,同时提高目标检测任务下车辆识别的准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明的自适应车辆目标检测算法模型的构建方法的流程框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
以下结合实施例对本发明的特征和性能作进一步的详细描述。
如图1所示,本实施例提供的一种自适应车辆目标检测算法模型的构建方法,包括:
S1,分别获取训练集的特征向量集和测试集的特征向量集;
在本实施例中,所述步骤S1的方法为:利用稀疏自编码器分别对训练集和测试集进行特征提取,获取训练集的特征向量集和测试集的特征向量集。稀疏自编码器一般用来学习特征,以便用于像分类这样的任务。稀疏正则化的自编码器必须反映训练数据集的独特统计特征,而不是简单地充当恒等函数。以这种方式训练,执行附带稀疏惩罚的复制任务可以得到能学习有用特征的模型。
S2,将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集;
在本实施例中,所述步骤S2的方法为:
S2.1,构建训练集的特征向量集到测试集的特征向量集的映射函数:
(1)根据核函数定理,设F1(X,Y)和F2(X,Y)均为核函数,则根据以下公式构造的函数均是核函数:
F(X,Y)=F1(X,Y)+F2(X,Y);
F(X,Y)=λF1(X,Y),其中,常数λ≥0;
F(X,Y)=F1(X,Y)·F2(X,Y);
利用核函数定理,在本实施例中,根据高斯径向基核函数与Sigmoid核函数组合得到带权重的核函数:
其中为高斯径向基核函数,tanh(v(X·Y)+c)为Sigmoid核函数,X为训练集的特征向量集,Y为测试集的特征向量集,α和β是直接影响核函数K(X,Y)的权重;
(2)将训练集的特征向量集作为输入,使用梯度下降法进行迭代并不断调整权重α和β,直到核函数K(X,Y)能够近似拟合测试集的特征向量集时,得到训练集的特征向量集到测试集的特征向量集的映射函数。
S2.2,利用所述映射函数将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集。也就是说,将训练集的特征向量集输入到映射函数中,所得到的目标特征向量数据集基本存在于测试集的特征向量空间和中。
S3,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。
在本实施例中,所述步骤S3的方法为:
(1)确定所述YOLOv3神经网络模型的网络层结构,该网络层主要进行特征提取。作为优选,所述YOLOv3神经网络模型的网络层结构为darknet-53。
(2)根据损失函数,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。
在本实施例中,所述损失函数的计算公式为:
表示对预测的中心坐标做损失计算;
表示对预测边界框的宽和高做损失计算;
表示对预测类别做损失计算。
其中,λcoord为预测坐标的惩罚系数;
λnoord为不包含运动目标时候置信度的惩罚系数;
K×K表示将一张输入图片划分的网格数量;
M表示每一个网格所预测的目标边框的数量;
xi、yi、wi、hi分别表示预测运动目标的中心点的横纵坐标以及宽高度;
分别表示真实运动目标的中心点以及宽高度;
与分别表示第j个候选目标边框所在的第i个网格是否负责检测该物体;
Ci与分别表示第i个网格中是否存在运动检测目标预测的与真实的置信度;
pi(c)与分别表示第i个网格中运动目标属于某一类别预测的与真实概率值;
classes表示模型可识别类型,在实施例中,特指车辆。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种自适应车辆目标检测算法模型的构建方法,其特征在于,包括:
S1,分别获取训练集的特征向量集和测试集的特征向量集;
S2,将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集;
S3,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。
2.根据权利要求1所述的自适应车辆目标检测算法模型的构建方法,其特征在于,所述步骤S1的方法为:利用稀疏自编码器分别对训练集和测试集进行特征提取,获取训练集的特征向量集和测试集的特征向量集。
3.根据权利要求1所述的自适应车辆目标检测算法模型的构建方法,其特征在于,所述步骤S2的方法为:
S2.1,构建训练集的特征向量集到测试集的特征向量集的映射函数;
S2.2,利用所述映射函数将训练集的特征向量集映射到测试集的特征向量集,得到目标特征向量数据集。
4.根据权利要求3所述的自适应车辆目标检测算法模型的构建方法,其特征在于,所述步骤S2.1的方法为:
(1)根据高斯径向基核函数与Sigmoid核函数组合得到带权重的核函数:
其中为高斯径向基核函数,tanh(v(X·Y)+c)为Sigmoid核函数,X为训练集的特征向量集,X为测试集的特征向量集,α和β是直接影响核函数K(X,Y)的权重;
(2)将训练集的特征向量集作为输入,使用梯度下降法进行迭代并不断调整权重α和β,直到核函数K(X,Y)能够近似拟合测试集的特征向量集时,得到训练集的特征向量集到测试集的特征向量集的映射函数。
5.根据权利要求1所述的自适应车辆目标检测算法模型的构建方法,其特征在于,所述步骤S3的方法为:
确定所述YOLOv3神经网络模型的网络层结构;
根据损失函数,利用目标特征向量数据集训练YOLOv3神经网络模型,得到自适应车辆目标检测算法模型。
6.根据权利要求1或4所述的自适应车辆目标检测算法模型的构建方法,其特征在于,所述YOLOv3神经网络模型的网络层结构为darknet-53。
7.根据权利要求4所述的自适应车辆目标检测算法模型的构建方法,其特征在于,所述损失函数的计算公式为:
其中,
λcoord为预测坐标的惩罚系数;
λnoord为不包含运动目标时候置信度的惩罚系数;
K×K表示将一张输入图片划分的网格数量;
M表示每一个网格所预测的目标边框的数量;
xi、yi、wi、hi分别表示预测运动目标的中心点的横纵坐标以及宽高度;
分别表示真实运动目标的中心点以及宽高度;
与分别表示第j个候选目标边框所在的第i个网格是否负责检测该物体;
Ci与分别表示第i个网格中是否存在运动检测目标预测的与真实的置信度;
pi(c)与分别表示第i个网格中运动目标属于某一类别预测的与真实概率值;
classes表示模型可识别类型。
8.一种自适应车辆目标检测算法模型,其特征在于,包括权利要求1~7任一项所述的自适应车辆目标检测算法模型的构建方法得到的自适应车辆目标检测算法模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910660271.2A CN110472514B (zh) | 2019-07-22 | 2019-07-22 | 一种自适应车辆目标检测算法模型及其构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910660271.2A CN110472514B (zh) | 2019-07-22 | 2019-07-22 | 一种自适应车辆目标检测算法模型及其构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110472514A true CN110472514A (zh) | 2019-11-19 |
CN110472514B CN110472514B (zh) | 2022-05-31 |
Family
ID=68508286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910660271.2A Active CN110472514B (zh) | 2019-07-22 | 2019-07-22 | 一种自适应车辆目标检测算法模型及其构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110472514B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111428625A (zh) * | 2020-03-23 | 2020-07-17 | 武汉理工大学 | 一种基于深度学习的交通场景目标检测方法及系统 |
CN111428558A (zh) * | 2020-02-18 | 2020-07-17 | 东华大学 | 一种基于改进YOLOv3方法的车辆检测方法 |
CN113793327A (zh) * | 2021-09-18 | 2021-12-14 | 北京中科智眼科技有限公司 | 一种基于token的高铁异物检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030140039A1 (en) * | 2002-01-18 | 2003-07-24 | Bruce Ferguson | Pre-processing input data with outlier values for a support vector machine |
CN105760821A (zh) * | 2016-01-31 | 2016-07-13 | 中国石油大学(华东) | 基于核空间的分类聚集稀疏表示的人脸识别方法 |
CN105913456A (zh) * | 2016-04-12 | 2016-08-31 | 西安电子科技大学 | 基于区域分割的视频显著性检测方法 |
CN109447098A (zh) * | 2018-08-27 | 2019-03-08 | 西北大学 | 一种基于深度语义嵌入的图像聚类算法 |
CN109614877A (zh) * | 2018-11-17 | 2019-04-12 | 南京理工大学 | 低分辨率监控场景中具有遮挡的行人属性识别方法 |
CN109615016A (zh) * | 2018-12-20 | 2019-04-12 | 北京理工大学 | 一种基于金字塔输入增益的卷积神经网络的目标检测方法 |
-
2019
- 2019-07-22 CN CN201910660271.2A patent/CN110472514B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030140039A1 (en) * | 2002-01-18 | 2003-07-24 | Bruce Ferguson | Pre-processing input data with outlier values for a support vector machine |
CN105760821A (zh) * | 2016-01-31 | 2016-07-13 | 中国石油大学(华东) | 基于核空间的分类聚集稀疏表示的人脸识别方法 |
CN105913456A (zh) * | 2016-04-12 | 2016-08-31 | 西安电子科技大学 | 基于区域分割的视频显著性检测方法 |
CN109447098A (zh) * | 2018-08-27 | 2019-03-08 | 西北大学 | 一种基于深度语义嵌入的图像聚类算法 |
CN109614877A (zh) * | 2018-11-17 | 2019-04-12 | 南京理工大学 | 低分辨率监控场景中具有遮挡的行人属性识别方法 |
CN109615016A (zh) * | 2018-12-20 | 2019-04-12 | 北京理工大学 | 一种基于金字塔输入增益的卷积神经网络的目标检测方法 |
Non-Patent Citations (3)
Title |
---|
T JING等: "An object detection system based on YOLO in traffic scene", 《2017 6TH INTERNATIONAL CONFERENCE ON COMPUTER SCIENCE AND NETWORK TECHNOLOGY 》 * |
刘明等: "一种新的混合核函数支持向量机", 《计算机应用》 * |
娄洹熙等: "基于支持向量机和遗传算法的人脸识别研究", 《微型机与应用》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111428558A (zh) * | 2020-02-18 | 2020-07-17 | 东华大学 | 一种基于改进YOLOv3方法的车辆检测方法 |
CN111428625A (zh) * | 2020-03-23 | 2020-07-17 | 武汉理工大学 | 一种基于深度学习的交通场景目标检测方法及系统 |
CN113793327A (zh) * | 2021-09-18 | 2021-12-14 | 北京中科智眼科技有限公司 | 一种基于token的高铁异物检测方法 |
CN113793327B (zh) * | 2021-09-18 | 2023-12-26 | 北京中科智眼科技有限公司 | 一种基于token的高铁异物检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110472514B (zh) | 2022-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111027493B (zh) | 一种基于深度学习多网络软融合的行人检测方法 | |
CN110472514B (zh) | 一种自适应车辆目标检测算法模型及其构建方法 | |
Xia et al. | A hybrid method based on extreme learning machine and k-nearest neighbor for cloud classification of ground-based visible cloud image | |
CN111179217A (zh) | 一种基于注意力机制的遥感图像多尺度目标检测方法 | |
CN113505792B (zh) | 面向非均衡遥感图像的多尺度语义分割方法及模型 | |
CN108229589B (zh) | 一种基于迁移学习的地基云图分类方法 | |
Wang et al. | Ground-based cloud classification by learning stable local binary patterns | |
CN112365482B (zh) | 一种基于染色体三等分特征点定位的交叉染色体图像实例分割方法 | |
WO2023142912A1 (zh) | 遗留物体的检测方法、装置及存储介质 | |
CN113239722A (zh) | 基于深度学习在多尺度下的强对流外推方法及系统 | |
CN112381030A (zh) | 一种基于特征融合的卫星光学遥感图像目标检测方法 | |
WO2022219402A1 (en) | Semantically accurate super-resolution generative adversarial networks | |
CN110853034A (zh) | 裂缝检测方法、装置、电子设备和计算机可读存储介质 | |
CN107529647B (zh) | 一种基于多层无监督稀疏学习网络的云图云量计算方法 | |
Pillai et al. | Fine-Tuned EfficientNetB4 Transfer Learning Model for Weather Classification | |
CN116580328B (zh) | 基于多任务辅助的热红外图像堤坝渗漏险情智能识别方法 | |
CN102592125A (zh) | 基于标准差特征的运动目标检测方法 | |
CN115879034B (zh) | 基于机器学习的热带气旋强度监测方法、装置和设备 | |
Wu et al. | Ground-based vision cloud image classification based on extreme learning machine | |
Zheng et al. | Deep learning for typhoon intensity classification using satellite cloud images | |
CN113947723B (zh) | 基于尺寸平衡fcos的高分辨率遥感场景目标检测方法 | |
CN114998711A (zh) | 一种空中红外弱小目标检测方法、系统及计算机存储介质 | |
Adipranata et al. | Automatic classification of sunspot groups for space weather analysis | |
Kashani et al. | A novel approach in video scene background estimation | |
Bouget et al. | Fusion of Rain Radar Images and Wind Forecasts in a Deep Learning Model Applied to Rain Nowcasting. Remote Sens. 2021, 13, 246 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |