CN112329550A - 基于弱监督学习的受灾建筑快速定位评估方法及装置 - Google Patents
基于弱监督学习的受灾建筑快速定位评估方法及装置 Download PDFInfo
- Publication number
- CN112329550A CN112329550A CN202011108571.9A CN202011108571A CN112329550A CN 112329550 A CN112329550 A CN 112329550A CN 202011108571 A CN202011108571 A CN 202011108571A CN 112329550 A CN112329550 A CN 112329550A
- Authority
- CN
- China
- Prior art keywords
- disaster
- building
- positioning
- image
- stricken
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims description 15
- 238000000034 method Methods 0.000 claims abstract description 61
- 238000013135 deep learning Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000013145 classification model Methods 0.000 claims abstract description 12
- 238000002372 labelling Methods 0.000 claims abstract description 10
- 230000009193 crawling Effects 0.000 claims abstract description 6
- 238000000638 solvent extraction Methods 0.000 claims abstract description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 13
- 230000000903 blocking effect Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012952 Resampling Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于弱监督学习的受灾建筑快速定位评估方法及装置,涉及灾害定位领域。该方法包括:从互联网中爬取灾害数据,灾害数据中包含未受灾的建筑图像以及受灾建筑图像,对灾害数据依据建筑是否受灾进行二分类标签的标注;根据标注后的灾害数据对预设的深度学习网络模型进行训练,得到二分类模型;对待识别的大场景图像进行分块,根据二分类模型和预设识别方法对图像块进行受灾建筑识别和定位,得到定位结果,并对受灾建筑的受损程度进行评估。本发明适用于无人机拍摄的大尺寸大场景图像的受灾建筑快速定位,极大减小标记的工作量与降低标记的主观性,能够避免细节和纹理信息损失,具有良好的识别精度,能够准确识别和定位受灾建筑。
Description
技术领域
本发明涉及灾害定位领域,尤其涉及一种基于弱监督学习的受灾建筑快速定位评估方法及装置。
背景技术
中国村镇分布区域广泛,自然环境因素复杂。相较于城市,我国70%以上的受灾地区为村镇,村镇灾害多发、频发,而防灾减灾能力薄弱,在同等灾害破坏的情况下,村镇的损失远大于城市。目前,对于灾害的定位主要依靠无人机获取的受灾地区的图像。
传统灾害定位方法主要是基于目标检测与图像分割的深度学习方法,然而这种方式需要标注受损区域的范围以及受损程度标签,导致标注工作量大、主观性强,再加上无人机图像的标签是有限的,使得标签存在大量噪声。因此,目前亟需一种能够利用无人机获取的大场景图像实现灾害自动、快速定位的方案。
发明内容
本发明所要解决的技术问题是针对现有技术的不足,提供一种基于弱监督学习的受灾建筑快速定位评估方法及装置。
本发明解决上述技术问题的技术方案如下:
一种基于弱监督学习的受灾建筑快速定位评估方法,包括:
从互联网中爬取灾害数据,所述灾害数据中包含未受灾的建筑图像以及受灾建筑图像,对所述灾害数据依据建筑是否受灾进行二分类标签的标注;
根据标注后的所述灾害数据对预设的深度学习网络模型进行训练,得到二分类模型;
对待识别的大场景图像进行分块,根据所述二分类模型和预设识别方法对图像块进行受灾建筑识别和定位,得到定位结果;
根据所述定位结果对受灾建筑的受损程度进行评估。
本发明解决上述技术问题的另一种技术方案如下:
一种存储介质,所述存储介质中存储有指令,当计算机读取所述指令时,使所述计算机执行如上述技术方案所述的基于弱监督学习的受灾建筑快速定位评估方法。
本发明解决上述技术问题的另一种技术方案如下:
一种基于弱监督学习的受灾建筑快速定位评估装置,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序,实现如上述技术方案所述的基于弱监督学习的受灾建筑快速定位评估方法。
本发明的有益效果是:本发明提供的受灾建筑快速定位评估方法及装置,适用于无人机拍摄的大尺寸大场景图像的受灾建筑快速定位,通过从互联网中爬取小尺寸的受灾建筑的灾害数据,仅仅进行是否包含受灾建筑的二分类标注,极大减小标记的工作量与降低标记的主观性。然后根据标记后的数据训练深度学习网络模型,当需要对大场景图像进行识别时,对大场景图像进行分块,减少每个图像块中建筑的数量,再通过预设识别方法对受灾建筑进行识别和定位,解决了现有技术中因无人机获取数据场景尺度大,单一视场包含多个建筑且单个建筑目标较小,直接输入模型将导致关键信息丧失,无法识别受损建筑的问题,能够避免细节和纹理信息损失,具有良好的识别精度,能够准确识别和定位受灾建筑。
本发明附加的方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明实践了解到。
附图说明
图1为本发明受灾建筑快速定位评估方法的实施例提供的流程示意图;
图2为本发明受灾建筑快速定位评估方法的其他实施例提供的DenseNet网络框架示意图;
图3为本发明受灾建筑快速定位评估方法的其他实施例提供的定位过程示意图;
图4为本发明受灾建筑快速定位评估装置的实施例提供的结构框架图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实施例只用于解释本发明,并非用于限定本发明的范围。
目前,对于突发自然灾害,通常伴随恶劣的气象条件,传统的卫星遥感常因云雾遮挡难以及时获取有效的观测数据。而随着无人机技术的发展,无人机遥感技术具有快速反应、分辨率高、自主性强、操作简单等特点,在灾害应急救援中发挥重要作用。无人机获取的灾害数据具有数据量大、空间分辨率高、倾斜多角度等特点。
而卷积神经网络在图像分类、目标检测、语义分割等计算机视觉任务上取得了人类水平的性能。这些技术在卫星、无人机图像数据的灾害评估具有高度相关性和适用性。面对村镇灾害场景的突发性和快速响应需求,使用深度学习技术可以快速提取图像中的关键信息,为灾害快速评估提供决策支持。
因此,通过卷积神经网络对无人机获取的图像进行受灾定位和灾害评估是目前较为流行的方案。随着深度卷积神经网络的发展,有学者尝试采用经典的分类网络和自定义神经网络进行灾害的分类与检测,例如,使用自定义卷积神经网络进行火灾图像的检测等。
然而,传统灾害定位方法主要是人工判读,基于人工判读的方法费时费力,无法满足时效性需求。且基于目标检测与图像分割的深度学习方法,需要标注受损区域的范围以及受损程度标签,例如,轻度、中度和重度,导致标注工作量大、主观性强,再加上无人机图像的标签是有限的,使得标签存在大量噪声。此外,小对象的标注任务更加繁琐,也增加了标注的难度。这将直接影响定位结果的好坏。
因此,现有方法通常只是识别灾害,无法完成灾害定位的任务,也无法评估受损程度。此外,还有一个重要原因影响卷积神经网络在灾害识别领域的应用,那就是由于无人机拍摄的数据多签订用户协议,存档数据获取难,公开的数据较少,不足以构建成大型数据集来利用深度学习网络模型进行训练学习,从而导致面向村镇受灾建筑场景的无人机数据样本较少,缺少足够的样本数据,无法利用常见的深度学习方法进行训练,易产生过拟合现象。
此外,无人机获取的灾害数据尺度大、且拍摄视角有很大不同,单一视场包含多个建筑,且单个建筑目标较小,直接输入模型将导致关键信息丧失,无法识别受损建筑,重采样导致细节、纹理等信息损失,极大影响定位精度。这同样导致了无法构建大型数据集进行深度学习、容易过拟合、容易导致目标消失等问题,无法实现对无人机灾害数据实时处理、定位需求。
基于此,本发明提供了能够对大场景图像进行受灾识别和定位的方法,大场景图像可以来自于无人机拍摄,也可以来自于卫星拍摄等,下面详细说明。
如图1所示,为本发明受灾建筑快速定位评估方法的实施例提供的流程示意图,该受灾建筑快速定位方法基于深度学习实现,适用于诸如无人机拍摄的大场景图像的受灾建筑的快速识别与定位,包括:
S1,从互联网中爬取灾害数据,灾害数据中包含未受灾的建筑图像以及受灾建筑图像,对灾害数据依据建筑是否受灾进行二分类标签的标注。
需要说明的是,可以通过预先编写的程序自动从社交网络、论坛、网页中下载包含完整的未受灾建筑的图像和受灾建筑图像,作为灾害数据。
以网页为例,通常,对于某一地点,新闻播报会附上受灾地点的图片,此时,可以人为的手动下载这些图片,作为灾害数据,也可以通过自动化的程序完成下载的过程,自动下载这些图片,应理解,这种爬取互联网数据的具体实现方式属于本领域的公知手段,在此不再赘述。
这些互联网中的灾害数据具有数据量大的特点,且通常为社交媒体中的手机等终端拍摄的灾害场景,因此具有尺度小,单张图片包含的建筑数量少且图像精度高的优点,能够清晰地分辨出未受灾的建筑和受灾建筑,从而便于标注,解决了受灾建筑识别定位样本受限的问题,并且这种标注仅仅是二分类标签的标注,不需要分别对图像受损建筑进行逐一标注,极大简化标注的工作量,标注的工作量小且主观性影响小。
例如,可以通过Damage和None这两个标签进行标签,Damage表示存在受灾建筑,None表示不存在受灾建筑。
应理解,为了便于模型的训练,还需要收集未发生灾害完好的建筑场景,对数据进行清洗与标注。
S2,根据标注后的灾害数据对预设的深度学习网络模型进行训练,得到二分类模型。
需要说明的是,深度学习网络模型可以根据实际需求选择设置,其目的是为了实现图像的分类,例如,可以采用VGG16、ResNet、DenseNet、MobileNet等网络结构实现数据的分类。
如图2所示,下面以DenseNet121网络为例进行说明。
该网络结构主要由DenseBlock和Transition组成。经典的DenseNet网络有121,169,201,264,层数越来越多,深度越来越深,本发明中,使用相对浅层的结构就可以实现比较好的分类精度,并且能够保证速度。图2中的DenseBlock包含4层,在DenseBlock中,各个层的特征图大小一致,可以在channel维度上连接。DenseBlock中的非线性组合函数采用的是BN+ReLU+3x3 Conv的结构;连接两个相邻的DenseBlock的Transition层包括一个1x1的卷积和2x2的AvgPooling,结构为BN+ReLU+1x1 Conv+2x2AvgPooling。最后通过Linear全连接层连接,图2中输出的结果为Damage,即存在受灾建筑。DenseNet121网络建立了前面所有层与后面层的密集连接,通过特征在channel上的连接来实现特征重用,从而可以训练出更深的CNN模型。
S3,对待识别的大场景图像进行分块,根据二分类模型和预设识别方法对图像块进行受灾建筑识别和定位,得到定位结果。
需要说明的是,大场景图像指的是尺寸较大的图像,例如,具体可以设置为尺寸大于预设尺寸的图像为大场景图像,或者图像中包含较多建筑的图像,例如,具体可以设置为图像中包含的建筑的数量大于预设数量的图像为大场景图像。
应理解,具体采用何种分块方式可以根据实际需求设置,例如,如图3所示,给出了一种示例性的受灾建筑识别定位过程示意图,共分为3个详细的小步骤,其中第①步就是分块,图中将一个图像分成了上下左右四个大小相同的图像块,四个图像块拼接在一切就是完整的图形。
又例如,还可以使用正方形进行分块,将图像分为若干正方形图像块。
又例如,还可以使用不规则的分块方式,例如,以图3为例,对于建筑集中的上部分,那么平均分为4个小块,对于建筑较少的下班部分,可以平均分为2个小块。
具体的分块方式是可以根据实际需求选择设置的,在此不再赘述。
应理解,预设识别方法也可以根据实际需求设置,例如,可以采用CAM方法、Grad-CAM方法和SSD目标检测方法等实现对受灾建筑的检测。
如图3所示,以DenseNet网络和Grad-CAM方法为例,大场景图像在分块后,分别将每个图像框输入到DenseNet网络中,执行第②步,计算小图显著图,通过反向传播分别计算每个特征图对应类别的权重,再将所有特征图与对应权重加权求和,得到灾害定位图的图像块,然后通过第③步,拼接所有的图像块,进行二值化背景和前景的处理,再进行相应的图像转换,从而识别出大场景图像中的受灾建筑并定位,图3中最后一张图像中的方框即为识别定位出的受灾建筑。
由于分块后,每个图像块中包含的建筑数量较少,且尺寸较小,能够很好的输入到二分类模型中。受深度学习网络模型限制,输入图像尺寸固定,一般为224×224像素,如果尺度过大,则通过重采样降低分辨率以保证输入图像尺寸合适。无人机图像尺寸大,远超过224×224像素,且包含大量不同尺度的目标,重采样导致细节、纹理等信息损失,极大影响定位精度。而通过上述方法,输入到深度学习网络模型中的都是尺寸较小的图像,因此能够在避免细节、纹理信息损失,准确识别受损建筑、提高定位精度的前提下将图像输入到深度学习网络模型中。
S4,根据定位结果对受灾建筑的受损程度进行评估。
需要说明的是,基于传统目标检测或语义分割算法的定位模型需要进行像素级标注,这就导致该方法难以应用于无人机,难以对无人机拍摄的大场景图像进行标注,而本发明公开的方法仅需要给出图片类别标签即可识别出受灾建筑在图中位置,属于一种弱监督学习,极大降低标注的工作量与因像素级标注的主观性而造成的标注误差或错误。
本实施例提供的受灾建筑快速定位评估方法,适用于无人机拍摄的大尺寸大场景图像的受灾建筑快速定位,通过从互联网中爬取小尺寸的受灾建筑的灾害数据,仅仅进行是否包含受灾建筑的二分类标注,极大减小标记的工作量与降低标记的主观性。然后根据标记后的数据训练深度学习网络模型,当需要对大场景图像进行识别时,对大场景图像进行分块,减少每个图像块中建筑的数量,再通过预设识别方法对受灾建筑进行识别和定位,解决了现有技术中因无人机获取数据场景尺度大,单一视场包含多个建筑且单个建筑目标较小,直接输入模型将导致关键信息丧失,无法识别受损建筑的问题,能够避免细节和纹理信息损失,具有良好的识别精度,能够准确识别和定位受灾建筑。
可选地,在一些可能的实施方式中,深度学习网络模型为DenseNet深度卷积神经网络模型。
DenseNet通过对特征feature的极致利用达到更好的效果和更少的参数,可有效抑制过拟合,同时降低计算量、提升计算速度。本发明采用DenseNet这种轻量化的网络可部署在移动平台嵌入式显卡,并保持高速计算效率,方便集成在无人机上,实现无人机自主、快速定位受灾建筑。
可选地,在一些可能的实施方式中,根据标注后的灾害数据对预设的深度学习网络模型进行训练之前,还包括:
根据灾害数据标注得到的分类结果的数量,修改DenseNet深度卷积神经网络模型的全连接层的节点数;
根据运行DenseNet深度卷积神经网络模型的硬件设备的参数,调整DenseNet深度卷积神经网络模型的训练参数、误差函数和优化器。
应理解,为了适应二分类问题,需要根据分类结果的类别的数量修改全连接层的节点数,例如,假设原网络是卷积后的1024维特征,经过7×7的全局平均池化,在连接1000D的全连接层,以适应1000类的分类问题;那么本发明可以修改为将1024维特征经过256D全连接层,再经过2D的全连接层,以适应2类的分类问题。
例如,可以将网络输入大小设置为224*224,保留卷积层结构不变,提取1024个特征,对分类层进行修改,设置两层全连接层,激活函数选用ReLU,为防止过拟合,增加Dropout层,p=0.2。损失函数使用CrossEntropyLoss函数,优化算法使用Adam,学习率设为0.00001,batch_size设置为16,训练6个epoch。
可选地,在一些可能的实施方式中,根据标注后的灾害数据对预设的深度学习网络模型进行训练,具体包括:
对标注后的灾害数据按照预设比例划分训练集和验证集;
对训练集中的原始图像进行用于图像增强的预处理;
将预处理后的原始图像调整为预先定义的输入大小,输入到深度学习网络模型中;
重复对输入到深度学习网络模型中的原始图像进行前向和反向传播,并通过验证集进行验证,直到设定的训练次数或损失不再下降。
应理解,预设比例可以根据实际需求设置,例如,可以标注2000张图像,其中受灾和未受灾比例为1:1,以保证数据的均衡性,将标注图像按照3:1划分为训练集和验证集。
需要说明的是,预处理可以为对输入的原始图像进行水平翻转、缩放、色相、饱和度等调整,以对数据进行扩充。
可选地,在一些可能的实施方式中,预设识别方法为Grad-CAM方法。
应理解,Grad-CAM方法只取最终卷积层的特征图,将该特征中的每个通道与该通道相关的类的梯度进行加权。得到区域定位图,用于凸显图像中对于预测相关概念至关重要的区域。该方法仅需要标记图像二分类标签,极大减小标记的工作量与降低标记的主观性;此外,该方法避免重新对网络的训练,计算效率高。
可选地,在一些可能的实施方式中,对待识别的大场景图像进行分块,根据二分类模型和预设识别方法对图像块进行受灾建筑识别和定位,得到定位结果,具体包括:
当大场景图像由无人机拍摄时,根据无人机片拍摄大场景图像时的飞行高度确定分块框的大小,对大场景图像进行分块,使每个图像块中包含预设数量的建筑;
分别将每个图像块输入到二分类模型中,判断每个图像块中是否包含受灾建筑,如果包含受灾建筑,则通过Grad-CAM方法计算受灾建筑的显著图的热图;如果不包含受灾建筑,则不进行显著图的计算,直接返回热图;
根据所有图像块的热图得到大场景图像的受灾建筑定位结果。
应理解,如果是其他方式获取的待识别的大场景图像,可以根据图像中的建筑数量确定分块框的大小,例如,假设图像中的数量大于100,且建筑分布均匀,那么可以设置20个分块框,从而保证每个分块框中有5个左右的建筑。
应理解,每个图像块中包含建筑的预设数量可以根据实际需求设置,例如,对于无人机获取的大场景图像,其飞行高度与分块框大小之间的关系可以根据实际需求设置,例如,假设无人机的飞行高度为a时,假设a为较低的高度,那么其拍摄的大场景图像中建筑相对较少,此时可以设置较少数量的分块框,从而保证每个分块框内包含预设数量的建筑。又例如,假设无人机的飞行高度为b时,假设b为较高的高度,那么其拍摄的大场景图像中建筑相对较多,此时可以设置较多数量的分块框,从而保证每个分块框内包含预设数量的建筑。例如,可以包含1~3个建筑,识别效果较好。
应理解,热图中每个像素点的取值范围为0~1,其中,0表示未受灾建筑和非建筑,1表示受灾建筑,如果不包含受灾建筑,则不进行显著图的计算,直接返回热图,那么返回的热图的每个像素点值均为0。
下面给出一种示例性的显著图计算方式:
首先,给定一张图像作为输入,通过CNN部分先前传播,得到输入图的分类结果,进而获得该类别的原始分数yc;
然后利用反向传播,yc关于特征图Aij求偏导,再在i和j维上的特征进行全局平均池化;
然后,将最后一层卷积的特征图与对应类别权重进行加权求和,并将结果在通道维度k上求平均,最后进行ReLU激活处理,最终得到显著图heatmap。
可选地,在一些可能的实施方式中,根据所有图像块的热图得到大场景图像的受灾建筑定位结果,具体包括:
将所有图像块的热图进行拼合,设定分割阈值,得到二值化的前景背景图,并根据前景像素的最大外界矩形生成定位框的受损区域,最终得到大场景受灾建筑定位图。
应理解,拼合的方式由图像分块方式决定,是图像分块方式的逆过程。
可选地,在一些可能的实施方式中,还包括:
根据得到的多个受损区域分别计算受损程度值,根据受损程度值对受损程度进行评估;
根据以下公式计算受损程度值:
其中,DA为受损程度值,N为受损区域的像素总数,Mij为热图矩阵(i,j)位置的值。
应理解,(i,j)是热图中的任一点,其值可以为像素值,例如为0~1,表明建筑是否受灾,1表示受灾。
在得到定位结果并对受灾建筑的受损程度进行评估后,可以帮助无人机自动决策,对受灾严重的建筑进行贴近绕飞,实时获取房屋灾变动态信息,为灾害快速评估提供与救援提供决策支持。
基于此,在一些可能的实施方式中,无人机在得到受灾建筑的受损程度值后,根据受损程度值对无人机的飞行路径进行调整,当任一区域的受损程度值大于预设值时,调整无人机的飞行路径,使无人机靠近该区域。
需要说明的是,任一区域指的是受损区域,经过识别和定位后拼接得到的大场景图像中包含受灾建筑的矩形框,如图3所示,经过识别和定位后得到的灾害定位图中,有一些矩形框,矩形框内即受损区域。
预设值可以根据实际需求设置。
可选地,还可以根据受损程度值与预设值之间的差值,确定调整的飞行高度和飞行方向的比例。使差值越大,无人机与受灾建筑的距离越近。
例如,假设受灾建筑在无人机左前方45°方向,无人机的飞行高度为100,假设受损程度值为20,预设值为10,那么受损程度值超过预设值,且差值为10,表面该受灾建筑受损程度较小,可以将飞行高度调整为90,将飞行方向调整为向左偏10°飞行;假设受损程度值为50,预设值为10,那么受损程度值超过预设值,且差值为40,表面该受灾建筑受损程度较大,可以将飞行高度调整为50,将飞行方向调整为向左偏30°飞行。飞行过受灾建筑所在的区域,采集到更为详细清洗的受灾建筑图像后,返回正常的飞行路径。
应理解,以上仅为示例性的说明,不代表实际比例,实际的调整的比例可以根据实际需求设置。
本发明依托于弱监督学习在无人机上实现了轻量化的受灾建筑识别与定位,并通过对受灾建筑的受损程度进行评估并作为无人机飞行路径的调整依据,调整无人机的飞行轨迹,能够使无人机实时快速地采集受灾地区的实时图像,为灾后救援、灾后数据收集等提供了高效有力的支持。
可以理解,在一些实施例中,可以包含如上述各实施方式中的部分或全部。
在本发明的其他实施方式中,还提供一种存储介质,存储介质中存储有指令,当计算机读取指令时,使计算机执行如上述任意实施方式披露的基于弱监督学习的受灾建筑快速定位评估方法。
如图4所示,在本发明的其他实施方式中,还提供一种基于弱监督学习的受灾建筑快速定位评估装置,包括:
存储器1,用于存储计算机程序;
处理器2,用于执行计算机程序,实现如上述任意实施方式披露的基于弱监督学习的受灾建筑快速定位评估方法。
读者应理解,在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的方法实施例仅仅是示意性的,例如,步骤的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个步骤可以结合或者可以集成到另一个步骤,或一些特征可以忽略,或不执行。
上述方法如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种基于弱监督学习的受灾建筑快速定位评估方法,其特征在于,包括:
从互联网中爬取灾害数据,所述灾害数据中包含未受灾的建筑图像以及受灾建筑图像,对所述灾害数据依据建筑是否受灾进行二分类标签的标注;
根据标注后的所述灾害数据对预设的深度学习网络模型进行训练,得到二分类模型;
对待识别的大场景图像进行分块,根据所述二分类模型和预设识别方法对图像块进行受灾建筑识别和定位,得到定位结果;
根据所述定位结果对受灾建筑的受损程度进行评估。
2.根据权利要求1所述的基于弱监督学习的受灾建筑快速定位评估方法,其特征在于,所述深度学习网络模型为DenseNet深度卷积神经网络模型。
3.根据权利要求2所述的基于弱监督学习的受灾建筑快速定位评估方法,其特征在于,根据标注后的所述灾害数据对预设的深度学习网络模型进行训练之前,还包括:
根据所述灾害数据标注得到的分类结果的数量,修改所述DenseNet深度卷积神经网络模型的全连接层的节点数;
根据运行所述DenseNet深度卷积神经网络模型的硬件设备的参数,调整所述DenseNet深度卷积神经网络模型的训练参数、误差函数和优化器。
4.根据权利要求1所述的基于弱监督学习的受灾建筑快速定位评估方法,其特征在于,根据标注后的所述灾害数据对预设的深度学习网络模型进行训练,具体包括:
对标注后的所述灾害数据按照预设比例划分训练集和验证集;
对所述训练集中的原始图像进行用于图像增强的预处理;
将预处理后的原始图像调整为预先定义的输入大小,输入到所述深度学习网络模型中;
重复对输入到所述深度学习网络模型中的原始图像进行前向和反向传播,并通过所述验证集进行验证,直到设定的训练次数或损失不再下降。
5.根据权利要求1至4中任一项所述的基于弱监督学习的受灾建筑快速定位评估方法,其特征在于,所述预设识别方法为Grad-CAM方法。
6.根据权利要求5所述的基于弱监督学习的受灾建筑快速定位评估方法,其特征在于,对待识别的大场景图像进行分块,根据所述二分类模型和预设识别方法对图像块进行受灾建筑识别和定位,得到定位结果,具体包括:
当所述大场景图像由无人机拍摄时,根据所述无人机片拍摄所述大场景图像时的飞行高度确定分块框的大小,对所述大场景图像进行分块,使每个图像块中包含预设数量的建筑;
分别将每个所述图像块输入到所述二分类模型中,判断每个所述图像块中是否包含受灾建筑,如果包含受灾建筑,则通过所述Grad-CAM方法计算受灾建筑的显著图的热图;如果不包含受灾建筑,则不进行显著图的计算,直接返回热图;
根据所有图像块的热图得到大场景图像的受灾建筑定位结果。
7.根据权利要求6所述的基于弱监督学习的受灾建筑快速定位评估方法,其特征在于,根据所有图像块的热图得到大场景图像的受灾建筑定位结果,具体包括:
将所有图像块的热图进行拼合,设定分割阈值,得到二值化的前景背景图,并根据前景像素的最大外界矩形生成定位框的受损区域,最终得到大场景受灾建筑定位图。
9.一种存储介质,其特征在于,所述存储介质中存储有指令,当计算机读取所述指令时,使所述计算机执行如权利要求1至8中任一项所述的基于弱监督学习的受灾建筑快速定位评估方法。
10.一种基于弱监督学习的受灾建筑快速定位评估装置,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序,实现如权利要求1至8中任一项所述的基于弱监督学习的受灾建筑快速定位评估方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011108571.9A CN112329550A (zh) | 2020-10-16 | 2020-10-16 | 基于弱监督学习的受灾建筑快速定位评估方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011108571.9A CN112329550A (zh) | 2020-10-16 | 2020-10-16 | 基于弱监督学习的受灾建筑快速定位评估方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112329550A true CN112329550A (zh) | 2021-02-05 |
Family
ID=74313978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011108571.9A Pending CN112329550A (zh) | 2020-10-16 | 2020-10-16 | 基于弱监督学习的受灾建筑快速定位评估方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112329550A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114120122A (zh) * | 2021-11-29 | 2022-03-01 | 中国平安财产保险股份有限公司 | 基于遥感影像的灾损识别方法、装置、设备及存储介质 |
CN114638322A (zh) * | 2022-05-20 | 2022-06-17 | 南京大学 | 开放场景下基于给定描述的全自动目标检测系统和方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107274451A (zh) * | 2017-05-17 | 2017-10-20 | 北京工业大学 | 基于共享卷积神经网络的绝缘子检测方法及装置 |
CN107527352A (zh) * | 2017-08-09 | 2017-12-29 | 中国电子科技集团公司第五十四研究所 | 基于深度学习fcn网络的遥感舰船目标轮廓分割与检测方法 |
CN110189304A (zh) * | 2019-05-07 | 2019-08-30 | 南京理工大学 | 基于人工智能的光学遥感图像目标在线快速检测方法 |
CN110634125A (zh) * | 2019-01-14 | 2019-12-31 | 广州爱孕记信息科技有限公司 | 基于深度学习的胎儿超声图像识别方法及系统 |
CN111507296A (zh) * | 2020-04-23 | 2020-08-07 | 嘉兴河图遥感技术有限公司 | 基于无人机遥感与深度学习的违章建筑智能化提取方法 |
TWI701680B (zh) * | 2018-08-19 | 2020-08-11 | 長庚醫療財團法人林口長庚紀念醫院 | 分析醫學影像之方法及系統 |
-
2020
- 2020-10-16 CN CN202011108571.9A patent/CN112329550A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107274451A (zh) * | 2017-05-17 | 2017-10-20 | 北京工业大学 | 基于共享卷积神经网络的绝缘子检测方法及装置 |
CN107527352A (zh) * | 2017-08-09 | 2017-12-29 | 中国电子科技集团公司第五十四研究所 | 基于深度学习fcn网络的遥感舰船目标轮廓分割与检测方法 |
TWI701680B (zh) * | 2018-08-19 | 2020-08-11 | 長庚醫療財團法人林口長庚紀念醫院 | 分析醫學影像之方法及系統 |
CN110634125A (zh) * | 2019-01-14 | 2019-12-31 | 广州爱孕记信息科技有限公司 | 基于深度学习的胎儿超声图像识别方法及系统 |
CN110189304A (zh) * | 2019-05-07 | 2019-08-30 | 南京理工大学 | 基于人工智能的光学遥感图像目标在线快速检测方法 |
CN111507296A (zh) * | 2020-04-23 | 2020-08-07 | 嘉兴河图遥感技术有限公司 | 基于无人机遥感与深度学习的违章建筑智能化提取方法 |
Non-Patent Citations (3)
Title |
---|
《我是未来》节目组: "《预见未来:21种正在改变世界的神奇科技》", 28 February 2018, 江苏凤凰文艺出版社 * |
吴黎: "《MODIS遥感信息处理方法及应用》", 30 June 2017, 哈尔滨工程大学出版社 * |
陈鹏展等: "《个体行为的机器识别与决策协同》", 31 July 2018, 知识产权出版社 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114120122A (zh) * | 2021-11-29 | 2022-03-01 | 中国平安财产保险股份有限公司 | 基于遥感影像的灾损识别方法、装置、设备及存储介质 |
CN114120122B (zh) * | 2021-11-29 | 2024-04-30 | 中国平安财产保险股份有限公司 | 基于遥感影像的灾损识别方法、装置、设备及存储介质 |
CN114638322A (zh) * | 2022-05-20 | 2022-06-17 | 南京大学 | 开放场景下基于给定描述的全自动目标检测系统和方法 |
CN114638322B (zh) * | 2022-05-20 | 2022-09-13 | 南京大学 | 开放场景下基于给定描述的全自动目标检测系统和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10943145B2 (en) | Image processing methods and apparatus, and electronic devices | |
Chen et al. | Distribution line pole detection and counting based on YOLO using UAV inspection line video | |
CN111178183B (zh) | 人脸检测方法及相关装置 | |
US11308714B1 (en) | Artificial intelligence system for identifying and assessing attributes of a property shown in aerial imagery | |
CN114743119B (zh) | 基于无人机的高铁接触网吊弦螺母缺陷检测方法 | |
CN110796048A (zh) | 一种基于深度神经网络的船舰目标实时检测方法 | |
CN111414807A (zh) | 一种基于yolo技术的潮水识别与危机预警方法 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
Shen et al. | Biomimetic vision for zoom object detection based on improved vertical grid number YOLO algorithm | |
CN108133235A (zh) | 一种基于神经网络多尺度特征图的行人检测方法 | |
CN113963251A (zh) | 一种海洋生物检测方法、系统和设备 | |
CN112329550A (zh) | 基于弱监督学习的受灾建筑快速定位评估方法及装置 | |
CN111368634A (zh) | 基于神经网络的人头检测方法、系统及存储介质 | |
Xie et al. | Recognition of big mammal species in airborne thermal imaging based on YOLO V5 algorithm | |
CN115880260A (zh) | 基站施工的检测方法、装置、设备及计算机可读存储介质 | |
CN111881984A (zh) | 一种基于深度学习的目标检测方法和装置 | |
CN114155551A (zh) | 基于YOLOv3改进的复杂环境下的行人检测方法及装置 | |
CN112907138B (zh) | 一种从局部到整体感知的电网场景预警分类方法及系统 | |
Harasyn et al. | Detection and tracking of belugas, kayaks and motorized boats in drone video using deep learning | |
CN116152685B (zh) | 一种基于无人机视野下行人检测方法及系统 | |
CN113570615A (zh) | 一种基于深度学习的图像处理方法、电子设备及存储介质 | |
CN110334703B (zh) | 一种昼夜图像中的船舶检测和识别方法 | |
CN115311680A (zh) | 人体图像质量检测方法、装置、电子设备及存储介质 | |
Wu et al. | Research on Asphalt Pavement Disease Detection Based on Improved YOLOv5s | |
Yang et al. | Multi visual feature fusion based fog visibility estimation for expressway surveillance using deep learning network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210205 |
|
RJ01 | Rejection of invention patent application after publication |