CN113095127B - 一种基于卫星图像的建筑震后定位与破坏状态评估方法 - Google Patents

一种基于卫星图像的建筑震后定位与破坏状态评估方法 Download PDF

Info

Publication number
CN113095127B
CN113095127B CN202110224210.9A CN202110224210A CN113095127B CN 113095127 B CN113095127 B CN 113095127B CN 202110224210 A CN202110224210 A CN 202110224210A CN 113095127 B CN113095127 B CN 113095127B
Authority
CN
China
Prior art keywords
building
earthquake
training
post
satellite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110224210.9A
Other languages
English (en)
Other versions
CN113095127A (zh
Inventor
张强强
王玉
徐阳
崔量轶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lanzhou University
Original Assignee
Lanzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lanzhou University filed Critical Lanzhou University
Priority to CN202110224210.9A priority Critical patent/CN113095127B/zh
Publication of CN113095127A publication Critical patent/CN113095127A/zh
Application granted granted Critical
Publication of CN113095127B publication Critical patent/CN113095127B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/45Analysis of texture based on statistical description of texture using co-occurrence matrix computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及土木工程结构健康评估与防灾减灾技术领域,具体为一种基于卫星图像的建筑震后定位与破坏状态评估方法,解决了利用卫星图像开展建筑物震后破坏状态评估中具有的稠密小目标较难识别、数据不平衡、图像分辨率低、空间信息有限等问题;其有益效果在于:针对基于卫星图像的建筑震后定位与破坏状态评估方法存在的不足,实现了卫星图像建筑物震害损伤的高精度识别与等级评估。本方法针对建筑震后卫星图像数据集具有稠密小目标、数据不平衡、空间信息有限、分辨率一般等特点,提出了高精度、两阶段的卫星图像建筑物震害损伤识别与评估方法,最终实现了卫星图像震后建筑物定位准确率95.31%以及破坏状态评估准确率97%。

Description

一种基于卫星图像的建筑震后定位与破坏状态评估方法
技术领域
本发明涉及土木工程结构健康评估与防灾减灾技术领域,具体为一种基于卫星图像的建筑震后定位与破坏状态评估方法。
背景技术
地震灾害是地震多发区建筑群及基础设施的主要威胁,快速、准确地实现震后建筑物破坏状态评估对于有效的震后应急响应和快速救援至关重要。当前对于震后房屋建筑安全应急评估主要依靠人工排查,通过人工目视或使用特定的检测设备对各种损伤类型的建筑物进行定位和分类标记。这种检测的效率较低且检测结果的准确性和稳定性主要依赖检测人员的主观意识。
随着机器学习和深度学习在土木工程领域中的广泛应用,目前已有学者开展基于计算机视觉的结构损伤评估研究,但是对于使用卫星图像进行建筑震后定位与破坏状态评估,由于受限于图片分辨率低、空间信息有限等因素,目前对于基于卫星图像的建筑震后定位与破坏状态评估方法的准确率较低;同时当前研究大多是基于建筑物区域开展,针对单体建筑的研究开展较少。因此,如何利用震后卫星图像进行数据挖掘,高效、准确的实现单体建筑震后高精度定位并评估其破坏状态是一个亟待解决的问题。
发明内容
本发明的目的在于提出了一种基于卫星图像的建筑震后定位与破坏状态评估方法,解决了利用卫星图像开展建筑物震后破坏状态评估中具有的稠密小目标较难识别、数据不平衡、图像分辨率低、空间信息有限等问题。
为实现上述目的,本发明采取的技术方案为:
一种基于卫星图像的建筑震后定位与破坏状态评估方法,包括:
步骤一、对于获得的建筑震后卫星图像,结合地面专业人员的人工标记,进行人工打标签工作,标签内容包括:建筑物定位标签和分类标签两种类型;所述建筑物定位标签为每个单体建筑物位置和大小的矩形框数据;所述分类标签为破坏状态的类型,所述破坏状态的类型的分为类别1和类别2,所述类别1为基本完好和轻微破坏,所述类别2为严重破坏和毁坏。
步骤二、建立改进的YOLOv4深度卷积神经目标检测网络,该网络由CSPDarknet53主干提取网络、SPP附加模块、改进的PANet路径聚合模块和改进的YOLOv3预测模块组成。训练时加载已在Microsoft COCO大型数据集上训练得到的预训练权重,并对训练加载的配置文件内的参数进行调整设定,随后将训练集图像输入进行迭代训练得到最终权重模型。
步骤三、将预测图像输入经过训练的深度卷积神经目标检测网络中,得到震后建筑物的定位预测结果。
步骤四、将步骤一中具有建筑震后卫星图像破坏状态标签的单体建筑图像剪裁出并按照一定比例制作用于基于支持向量机分类模型的训练集和测试集。
步骤五、对于步骤四获得的用于支持向量机的训练集和测试集图像,采用基于灰度共生矩阵纹理特征提取方法提取统计量作为支持向量机的特征值。随后归一化数据、选取径向基核函数训练得到最终支持向量机模型。
步骤六、将步骤三中经建筑震后的定位预测结果剪裁并输入经过训练的支持向量机模型中,得到最终单体建筑的震后破坏状态预测结果。
进一步的,在步骤二中,所述的改进的YOLOv4深度卷积神经目标检测网络架构精简了PANet路径聚合模块下采样层16倍到32倍的路径;另外优化保留了YOLOv3预测模块76×76和38×38两个尺度的预测头。
进一步的,在步骤二中,对训练加载的配置文件内的参数进行调整设定,包括每批次输入网络的图片数batch=512,子batch值subdivision=128;动量momentum=0.949;权重衰减decay=0.1;数据增强方式饱和度saturation=1.5,曝光量exposure=1.5,色调hue=0.1;对于学习率,采取预热方式到1000次迭代时达到0.001,后在6400次迭代变为0.1倍,总迭代次数为8000。
进一步的,在步骤五中,首先计算距离为δ=1,方向为θ=0°、45°、90°、135°的灰度共生矩阵,分别提取4个灰度共生矩阵的角二阶矩、非相似性、逆差矩3个统计量取其均值和标准差作为特征值输入支持向量进行训练,训练时采用径向基核函数,最终确定其惩罚系数c为1,参数γ为1/6。
进一步的,在步骤三和步骤六中,首先将待预测的图像加载到经训练得到的目标检测最终权重模型,获得建筑震后的定位预测结果,随后将单体建筑剪裁并加载经训练得到的支持向量机最终权重模型,最后得到最终单体建筑的震后破坏状态预测结果。
本发明的有益效果在于:针对基于卫星图像的建筑震后定位与破坏状态评估方法,实现了卫星图像建筑物震害损伤的高精度识别与等级评估。本方法针对建筑震后卫星图像数据集具有稠密小目标、数据不平衡、空间信息有限、分辨率一般等特点,提出了高精度、两阶段的卫星图像建筑物震害损伤识别与评估方法,最终实现了卫星图像震后建筑物定位准确率95.31%以及破坏状态评估准确率97%。
附图说明
图1为本发明中基于卫星图像的建筑震后定位与破坏状态评估方法流程图。
图2为本发明中改进的YOLOv4深度卷积神经目标检测网络。
图3为本发明中四张基于卫星图像的建筑震后定位预测结果。
图4为本发明中用于建筑震后破坏状态评估两类别的图像示例。
图5为本发明中用于支持向量机特征值的提取的6个统计量内部交叉验证的准确率。
具体实施方式
为便于理解本发明,本发明列举实施例如下。本领域技术人员应该明了,所述实施例仅仅用于帮助理解本发明,不应视为对本发明的具体限制。
实施例1
一种基于卫星图像的建筑震后定位与破坏状态评估方法,如图1所示的流程示意图,具体步骤包括:
步骤一、对于获得的建筑震后卫星图像,结合地面专业人员的人工标记信息进行打标签工作。标签内容为建筑震后卫星图像中用于表示单体建筑定位信息以及单体建筑的破坏状态类型。
例如,生成标签可采用深度学习标注工具labelme。
单体建筑定位信息由矩形框的位置和尺寸构成,具体格式不限,不同格式的数据信息转换简单方便。受限于卫星图像的视角及地表采样距离,其图像具有空间信息低、分辨率较低等特点,基于此,我们将单体建筑的破坏状态分为两类:类别1为基本完好和轻微破坏,类别2为严重破坏和毁坏。
步骤二、建立改进的YOLOv4深度卷积神经目标检测网络,如图2所示,该网络由CSPDarknet53主干提取网络、SPP附加模块、改进的PANet路径聚合模块和改进的YOLOv3预测模块组成。图2中右上角部分所示为整个网络的基本组件,包括CBM组件、CBL组件、Res_unit组件、CSPn组件和SPP组件,其中CBM组件由卷积层、批归一化层和Mish激活函数组成;CBL组件由卷积层、批归一化层和LeakyRelu激活函数组成;Res_unit组件借鉴了ResNet网络中的残差结构,由两个CBM组件组成,add为张量直接相加操作;CSPn组件借鉴CSPNet网络,由n个Res_unit组件和CBM组件组成,concate为张量拼接操作;SPP组件采用最大池化方式进行多尺度融合(1×1,5×5,9×9,13×13)。相比YOLOv4基线模型,主要改进优化了PANet路径聚合模块和YOLOv3预测模块:以输入图像尺寸608×608为例,精简了PANet路径聚合模块下采样层16倍到32倍的路径,另外优化保留了YOLOv3预测模块76×76和38×38两个尺度的预测模块。
在训练时加载已在微软公司发布的Microsoft COCO大型数据集上训练得到的预训练权重,该预训练权重已经具备了抽取图像基本特征的能力,在特定任务训练中进行迁移学习,微调参数即可。
对训练加载的配置文件内的参数进行调整设定,包括每批次输入网络的图片数batch=512,子batch值subdivision=128;动量momentum=0.949;权重衰减decay=0.1;数据增强方式饱和度saturation=1.5,曝光量exposure=1.5,色调hue=0.1;对于学习率,采取预热方式到1000次迭代时达到0.001,后在6400次迭代变为0.1倍,总迭代次数为8000。
将步骤一得到的带有建筑定位标签的建筑震后卫星图像按照一定比例划分训练集和测试集。随后将训练集图像输入进行迭代训练得到最终权重模型。
步骤三、将预测图像输入经过训练的深度卷积神经目标检测网络,加载步骤二得到的最终权重模型,得到最终震后建筑震后定位预测结果。
训练后得到的性能指标如表1所示,mAP0.5高达95.31%,查准率、查准率、F1得分均为0.94,平均交并比达到81.31%。
表1性能指标
Figure BDA0002956338910000071
如图3所示为随机选取的四张图像,每张图片中绿色框为真实标签,粉色框为预测。表2所示为这四张图像的检测结果。
表2检测结果
Figure BDA0002956338910000072
由表1检测结果可知,对于建筑物目标的预测数量基本等于标签数量,识别平均置信度均在92%以上,置信度中位数均在97%以上,这表明对卫星图像震后建筑物的预测可实现基本全覆盖且具有极高的定位精确度。
步骤四、将步骤一中带有建筑破坏状态标签的建筑震后卫星图像裁切成单体建筑图像,其中建筑破坏状态标签为两类:类别1为基本完好和轻微破坏,类别2为严重破坏和毁坏。如图4所示为两类别的图像示例。随后将两类图像按照一定比例制作用于支持向量机分类模型的训练集和测试集。
步骤五、对于步骤四获得的用于支持向量机的训练集和测试集图像,采用基于灰度共生矩阵纹理特征提取方法。
首先将彩色图像转换为256级的灰度图像并将256级的灰度图像均匀量化为16级的灰度图像,然后分别计算距离为δ=1,方向为θ=0°、45°、90°、135°的灰度共生矩阵。
灰度共生矩阵是描述图像在θ方向、δ像素距离的一对像素灰度值分别为i和j的出现概率,其元素记为G(i,j∣δ,θ),当θ和δ确定时也可简记为G(i,j)。
再计算该四个灰度共生矩阵上3个统计量(角二阶矩、非相似性、逆差矩)的值并取其均值和标准差作为输入支持向量机的6个特征值。
角二阶矩(asm)计算公式:
Figure BDA0002956338910000081
非相似性(dis)计算公式:
Figure BDA0002956338910000082
逆差矩(idm)计算公式:
Figure BDA0002956338910000083
其中,L是灰度级数,i,j=0,12,…,L-1,G(i,j)为灰度共生矩阵第i行第j列的值。
如图5所示,我们在进行训练研究时,提取了包括角二阶矩、非相似性、逆差矩、对比度、熵、相关性6个统计量并进行内部多特征值交叉验证,最终确定了选取采用角二阶矩、非相似性、逆差矩这3个统计量具有最优的分类效果,准确率可达97%。
训练时,对于输入支持向量机模型的特征值,采用最小最大值归一化(MinMaxScaler)方法归一化至-1到1,并选取径向基核函数并训练得到最终的支持向量机模型,其中,惩罚系数c为1,参数γ为1/6。
径向基核函数K(x,y)计算公式:
Figure BDA0002956338910000091
步骤六、将步骤三中经建筑震后的定位预测结果剪裁并输入经过训练的支持向量机模型中,得到最终单体建筑的震后破坏状态预测结果。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (6)

1.一种基于卫星图像的建筑震后定位与破坏状态评估方法,其特征在于,包括如下步骤:
步骤一、对于获得的建筑震后卫星图像,结合地面专业人员的人工标记,进行人工打标签工作;
步骤二、建立改进的YOLOv4深度卷积神经目标检测网络,该网络由CSPDarknet53主干提取网络、SPP附加模块、改进的PANet路径聚合模块和改进的YOLOv3预测模块组成;训练时加载已在MS COCO大型数据集上训练得到的预训练权重,并对训练加载的配置文件内的参数进行调整设定,随后将训练集图像输入进行迭代训练得到最终权重模型;所述的改进的YOLOv4深度卷积神经目标检测网络架构精简了PANet路径聚合模块下采样层16倍到32倍的路径;另外优化保留了YOLOv3预测模块76×76和38×38两个尺度的预测头;
步骤三、将预测图像输入经过训练的深度卷积神经目标检测网络中,得到震后建筑物的定位预测结果;
步骤四、将步骤一中具有建筑震后卫星图像破坏状态标签的单体建筑图像剪裁出并按照一定比例制作用于基于支持向量机分类模型的训练集和测试集;
步骤五、对于步骤四获得的用于支持向量机的训练集和测试集图像,采用基于灰度共生矩阵纹理特征提取方法提取统计量作为支持向量机的特征值,随后归一化数据训练得到最终的支持向量机模型;
步骤六、将步骤三中经建筑震后的定位预测结果剪裁并输入经过训练的支持向量机模型中,得到最终单体建筑的震后破坏状态预测结果。
2.根据权利要求1所述的一种基于卫星图像的建筑震后定位与破坏状态评估方法,其特征在于,在步骤一中,标签内容包括:建筑物定位标签和分类标签。
3.根据权利要求2所述的一种基于卫星图像的建筑震后定位与破坏状态评估方法,其特征在于,所述建筑物定位标签为每个单体建筑物位置和大小的矩形框数据;所述分类标签为破坏状态的类型,所述破坏状态的类型的分为类别1和类别2,所述类别1为基本完好和轻微破坏,所述类别2为严重破坏和毁坏。
4.根据权利要求1所述的一种基于卫星图像的建筑震后定位与破坏状态评估方法,其特征在于,在步骤二中,对训练加载的配置文件内的参数进行调整设定,包括每批次输入网络的图片数batch=512,子batch值subdivision=128;动量momentum=0.949;权重衰减decay=0.1;数据增强方式饱和度saturation=1.5,曝光量exposure=1.5,色调hue=0.1;对于学习率,采取预热方式到1000次迭代时达到0.001,后在6400次迭代变为0.1倍,总迭代次数为8000。
5.根据权利要求1所述的一种基于卫星图像的建筑震后定位与破坏状态评估方法,其特征在于,在步骤五中,首先计算距离为δ = 1,方向为θ = 0°、45°、90°、135°的灰度共生矩阵,分别提取4个灰度共生矩阵的角二阶矩、非相似性、逆差矩3个统计量取其均值和标准差作为特征值输入支持向量进行训练,训练时采用径向基核函数,最终确定其惩罚系数c为1,参数γ为1/6。
6.根据权利要求1所述的一种基于卫星图像的建筑震后定位与破坏状态评估方法,其特征在于,在步骤三和步骤六中,首先将待预测的图像加载到经训练得到的目标检测最终权重模型,获得建筑震后的定位预测结果,随后将单体建筑剪裁并加载经训练得到的支持向量机最终权重模型,最后得到最终单体建筑的震后破坏状态预测结果。
CN202110224210.9A 2021-03-01 2021-03-01 一种基于卫星图像的建筑震后定位与破坏状态评估方法 Active CN113095127B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110224210.9A CN113095127B (zh) 2021-03-01 2021-03-01 一种基于卫星图像的建筑震后定位与破坏状态评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110224210.9A CN113095127B (zh) 2021-03-01 2021-03-01 一种基于卫星图像的建筑震后定位与破坏状态评估方法

Publications (2)

Publication Number Publication Date
CN113095127A CN113095127A (zh) 2021-07-09
CN113095127B true CN113095127B (zh) 2022-06-17

Family

ID=76667980

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110224210.9A Active CN113095127B (zh) 2021-03-01 2021-03-01 一种基于卫星图像的建筑震后定位与破坏状态评估方法

Country Status (1)

Country Link
CN (1) CN113095127B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113762073B (zh) * 2021-07-29 2024-03-29 淮阴工学院 一种古建筑斜坡瓦面破损自动评估方法
CN115049924B (zh) * 2022-06-06 2023-04-14 四川大学 基于视频监控下非结构构件损伤识别的建筑震害评估方法
CN116310791B (zh) * 2023-01-19 2023-09-05 中国地震台网中心 基于建筑物震害检测的极灾区快速判定方法及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543616A (zh) * 2018-11-23 2019-03-29 北京师范大学 一种震后目标实物的损毁评估方法、装置、设备及介质
CN112308054A (zh) * 2020-12-29 2021-02-02 广东科凯达智能机器人有限公司 基于目标检测算法的多功能数字表自动读数方法
CN112380952A (zh) * 2020-11-10 2021-02-19 广西大学 基于人工智能的电力设备红外图像实时检测及识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543616A (zh) * 2018-11-23 2019-03-29 北京师范大学 一种震后目标实物的损毁评估方法、装置、设备及介质
CN112380952A (zh) * 2020-11-10 2021-02-19 广西大学 基于人工智能的电力设备红外图像实时检测及识别方法
CN112308054A (zh) * 2020-12-29 2021-02-02 广东科凯达智能机器人有限公司 基于目标检测算法的多功能数字表自动读数方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Detection of Collapsed Buildings in Post-Earthquake Remote Sensing Images Based on the Improved YOLOv3;Haojie Ma 等;《Remote Sensing》;20191220;第1-19页 *
Rapid Earthquake Assessment from Satellite Imagery using RPN and Yolo v3;Karn, Saurav Lal;《TUCL eLibrary》;20191130;第1-53页 *
基于YOLO改进残差网络结构的车辆检测方法;胡臣辰 等;《信息技术与网络安全》;20200910;第39卷(第9期);第56-60页 *
基于震后无人机影像的滑坡提取分析研究;杨影;《中国优秀硕士学位论文全文数据库 基础科学辑》;20210215;A008-341 *

Also Published As

Publication number Publication date
CN113095127A (zh) 2021-07-09

Similar Documents

Publication Publication Date Title
CN113095127B (zh) 一种基于卫星图像的建筑震后定位与破坏状态评估方法
CN111739075B (zh) 一种结合多尺度注意力的深层网络肺部纹理识别方法
CN111178206B (zh) 一种基于改进yolo的建筑预埋件检测方法及系统
CN111507370B (zh) 获得自动标注图像中检查标签的样本图像的方法和装置
CN109858389B (zh) 基于深度学习的直梯人数统计方法及系统
CN110633690B (zh) 基于桥梁监控的车辆特征识别方法及系统
CN113807464B (zh) 基于改进yolo v5的无人机航拍图像目标检测方法
CN111461213B (zh) 一种目标检测模型的训练方法、目标快速检测方法
CN114842208B (zh) 一种基于深度学习的电网危害鸟种目标检测方法
CN109948527B (zh) 基于集成深度学习的小样本太赫兹图像异物检测方法
CN106874879A (zh) 基于多特征融合和深度学习网络提取的手写数字识别方法
CN111680705B (zh) 适于目标检测的mb-ssd方法和mb-ssd特征提取网络
CN111222545B (zh) 基于线性规划增量学习的图像分类方法
CN116563726A (zh) 一种基于卷积神经网络的遥感图像舰船目标检测方法
CN116597326A (zh) 一种基于改进YOLOv7算法的无人机航拍小目标检测方法
CN117079132A (zh) 基于高斯距离损失的遥感图像目标检测方法
CN110728186A (zh) 一种基于多网融合的火灾检测方法
CN110046595A (zh) 一种基于级联式多尺度的密集人脸检测方法
CN116503398B (zh) 绝缘子污闪检测方法、装置、电子设备及存储介质
CN115849202B (zh) 基于数字孪生技术的智能起重机操作目标识别方法
CN116385950A (zh) 一种小样本条件下电力线路隐患目标检测方法
CN112184559B (zh) 一种光电导航系统的超分辨率图像异常目标检测方法及系统
CN108416815A (zh) 大气光值的测定方法、设备及计算机可读存储介质
CN114548585A (zh) 一种基于神经网络的城市建筑震害预测方法
Liu et al. Post-disaster classification of building damage using transfer learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant