CN117409341A - 基于无人机照明的图像分析方法及系统 - Google Patents

基于无人机照明的图像分析方法及系统 Download PDF

Info

Publication number
CN117409341A
CN117409341A CN202311725821.7A CN202311725821A CN117409341A CN 117409341 A CN117409341 A CN 117409341A CN 202311725821 A CN202311725821 A CN 202311725821A CN 117409341 A CN117409341 A CN 117409341A
Authority
CN
China
Prior art keywords
ground
illumination
image
unmanned aerial
aerial vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311725821.7A
Other languages
English (en)
Other versions
CN117409341B (zh
Inventor
曹广阔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Guangmingding Technology Co ltd
Original Assignee
Shenzhen Guangmingding Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Guangmingding Technology Co ltd filed Critical Shenzhen Guangmingding Technology Co ltd
Priority to CN202311725821.7A priority Critical patent/CN117409341B/zh
Publication of CN117409341A publication Critical patent/CN117409341A/zh
Application granted granted Critical
Publication of CN117409341B publication Critical patent/CN117409341B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)

Abstract

本申请涉及图像分析技术领域,公开了一种基于无人机照明的图像分析方法及系统。所述方法包括:获取无人机夜间照明任务的第一地面照明区域特征图;进行照明区域层次特征提取,得到第二地面照明区域特征图;通过初始无人机照明图像分析模型进行异常检测和异常处理,得到目标地面图像;根据目标地面图像对初始无人机照明图像分析模型进行模型优化,得到目标无人机照明图像分析模型;获取实时地面图像并进行异常识别和异常报警,生成目标异常报警信息,根据目标异常报警信息生成异常处理策略,异常处理策略包括无人机照明参数调整、增强照明区域的照明强度以及改变照明颜色,本申请提高了无人机夜间照明的异常识别准确率和异常处理智能性。

Description

基于无人机照明的图像分析方法及系统
技术领域
本申请涉及图像分析领域,尤其涉及一种基于无人机照明的图像分析方法及系统。
背景技术
随着无人机技术的快速发展,无人机在夜间照明任务中的应用需求逐渐增加。无人机的照明任务能够提供重要的视觉信息。这种方法的背景可以追溯到对于夜间监视、搜救、安全监控等领域的需求。
然而,现有技术中仍然存在一些挑战和问题。首先,无人机的稳定性和飞行能力需要进一步提高,以确保在低光条件下获取清晰的地面图像。其次,地面环境的多样性和复杂性使得地面反光物体的准确识别仍然具有挑战性,特别是在不同的气象和光照条件下。
发明内容
本申请提供了一种基于无人机照明的图像分析方法及系统,用于提高了无人机夜间照明的异常识别准确率和异常处理智能性。
第一方面,本申请提供了一种基于无人机照明的图像分析方法,所述基于无人机照明的图像分析方法包括:
获取无人机夜间照明任务的初始地面图像,并对所述初始地面图像进行图像去噪和照明区域特征提取,得到对应的第一地面照明区域特征图;
对所述初始地面图像进行地面反光物体识别,得到地面反光物体信息,并根据所述地面反光物体信息对所述第一地面照明区域特征图进行照明区域层次特征提取,得到第二地面照明区域特征图;
将所述第二地面照明区域特征图输入预置的初始无人机照明图像分析模型进行照明区域特征图的异常检测和异常处理,得到目标地面图像;
对所述目标地面图像进行地面照明物体特征识别,得到地面照明物体特征识别结果;
根据所述地面照明物体特征识别结果对所述初始无人机照明图像分析模型进行模型优化,得到目标无人机照明图像分析模型;
获取无人机夜间照明任务的实时地面图像,并通过所述目标无人机照明图像分析模型对所述实时地面图像进行异常识别和异常报警,生成目标异常报警信息,以及根据所述目标异常报警信息生成异常处理策略,所述异常处理策略包括无人机照明参数调整、增强照明区域的照明强度以及改变照明颜色。
第二方面,本申请提供了一种基于无人机照明的图像分析系统,所述基于无人机照明的图像分析系统包括:
获取模块,用于获取无人机夜间照明任务的初始地面图像,并对所述初始地面图像进行图像去噪和照明区域特征提取,得到对应的第一地面照明区域特征图;
提取模块,用于对所述初始地面图像进行地面反光物体识别,得到地面反光物体信息,并根据所述地面反光物体信息对所述第一地面照明区域特征图进行照明区域层次特征提取,得到第二地面照明区域特征图;
处理模块,用于将所述第二地面照明区域特征图输入预置的初始无人机照明图像分析模型进行照明区域特征图的异常检测和异常处理,得到目标地面图像;
识别模块,用于对所述目标地面图像进行地面照明物体特征识别,得到地面照明物体特征识别结果;
优化模块,用于根据所述地面照明物体特征识别结果对所述初始无人机照明图像分析模型进行模型优化,得到目标无人机照明图像分析模型;
异常处理模块,用于获取无人机夜间照明任务的实时地面图像,并通过所述目标无人机照明图像分析模型对所述实时地面图像进行异常识别和异常报警,生成目标异常报警信息,以及根据所述目标异常报警信息生成异常处理策略,所述异常处理策略包括无人机照明参数调整、增强照明区域的照明强度以及改变照明颜色。
本申请提供的技术方案中,通过多个无人机协同操作,可以更全面地捕捉目标照明区域的图像信息,提高了数据的覆盖率和质量,有助于更准确地分析和识别异常情况。能够获取无人机夜间照明任务的实时地面图像,并实时分析,使系统具备快速响应异常情况的能力,有益于应急响应和任务处理的效率提升。通过反光物体识别和处理,方法能够减轻夜间图像中反光物体的干扰,提高了地面图像的质量和清晰度,有助于更准确地检测异常。通过根据地面照明物体特征识别结果对模型进行优化,方法不断学习和改进,有益于提高异常检测和修复的准确性,降低误报率。可以自动检测并生成异常报警信息,减轻了人工干预的需求,有益于快速发现异常情况并采取相应措施。根据异常报警信息生成的异常处理策略可以智能地调整无人机照明参数、增强照明强度和改变照明颜色等,以最优化方式处理异常情况,提高了任务的执行效率和效果。实现了多层次的地面图像特征提取,包括照明区域特征、反光物体信息、地面照明物体特征等,综合考虑了多种信息,有益于更全面、准确地分析目标区域。无人机照明技术可以灵活适应不同夜间任务的需求,根据具体情况调整照明参数,提高了系统的适用性和多功能性,进而提高了无人机夜间照明的异常识别准确率和异常处理智能性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以基于这些附图获得其他的附图。
图1为本申请实施例中基于无人机照明的图像分析方法的一个实施例示意图;
图2为本申请实施例中基于无人机照明的图像分析系统的一个实施例示意图。
具体实施方式
本申请实施例提供了一种基于无人机照明的图像分析方法及系统。本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本申请实施例的具体流程进行描述,请参阅图1,本申请实施例中基于无人机照明的图像分析方法的一个实施例包括:
步骤S101、获取无人机夜间照明任务的初始地面图像,并对初始地面图像进行图像去噪和照明区域特征提取,得到对应的第一地面照明区域特征图;
可以理解的是,本申请的执行主体可以为基于无人机照明的图像分析系统,还可以是终端或者服务器,具体此处不做限定。本申请实施例以服务器为执行主体为例进行说明。
具体的,首先,通过预置的无人机集群接收夜间照明任务,并根据此任务确定目标照明区域。无人机集群根据接收到的任务信息,利用GPS定位系统和地理信息系统(GIS)来精确地确定目标照明区域的地理位置。确定目标区域后,无人机集群对指定区域进行地面图像采集。每个无人机搭载的高分辨率相机将捕捉到多个原始地面图像,这些图像覆盖了整个目标区域的不同部分和角度。随后,系统对这些多个原始地面图像进行图像融合处理。图像融合技术通常涉及到高级算法,如基于像素的融合、基于特征的融合或基于决策的融合技术,以便合成一个全面、连续且无缝的初始地面图像。此初始图像将包含更丰富的细节和更宽广的视角,为后续步骤提供更完整的视觉信息。接下来,对初始地面图像进行噪声去除处理,噪声去除通常采用数字图像处理技术,如中值滤波、高斯滤波或基于波形转换的去噪方法。去除噪声后,得到的降噪地面图像更清晰,更适合进一步处理。随后,对降噪地面图像进行图像分割,得到中心地面图像。这可以通过图像识别和分割技术实现,如边缘检测、区域生长或基于深度学习的图像分割方法。此后,对中心地面图像进行图像畸变优化,以消除由于无人机角度、镜头特性等因素造成的图像畸变。图像畸变优化通常涉及到数学模型和算法,如基于透视变换的校正或基于机器学习的自动校正方法。同时,对照明区域特征变换和照明亮度特征进行分析,这些分析可基于图像处理技术,如直方图均衡化、亮度调节等,以提取出有关照明区域形状、大小、亮度等的重要特征。最后,将得到的图像畸变优化参数集、照明区域特征变换参数集以及照明亮度特征参数集进行合并,形成一个综合的目标照明区域特征参数集。这个参数集将包含所有关键的照明特征信息,根据这个参数集,系统将对中心地面图像进行照明区域特征图映射,最终得到第一地面照明区域特征图。
步骤S102、对初始地面图像进行地面反光物体识别,得到地面反光物体信息,并根据地面反光物体信息对第一地面照明区域特征图进行照明区域层次特征提取,得到第二地面照明区域特征图;
具体的,首先,对初始地面图像进行地面反光物体识别,例如,基于颜色、纹理和形状特征的物体识别。得到初始地面反光物体识别结果后,考虑地面环境对反光物体识别的影响,例如由于光照条件、天气状况或其他环境因素引起的变化。接着,收集地面环境影响参数集,这些参数包括光线强度、湿度、温度等环境因素,它们将用于对初始地面反光物体识别结果进行进一步处理,以提高识别的准确性和可靠性。接下来,基于处理后的地面反光物体信息进行照明区域反光层次分析。对识别出的反光物体在照明区域内的分布和反光特性进行深入分析,包括反光物体的大小、形状、位置以及反光强度等。这种分析有助于理解照明区域内反光物体的层次结构,为后续的层次特征提取提供必要的信息。随后,进行照明区域反光层次信息的权重分析。将各个反光层次根据其在照明区域内的重要性进行排序和权重分配。例如,一些大的、高反光性的物体被赋予更高的权重,因为它们对于整个照明区域的影响更大。通过这种层次权重分析,系统能够更准确地判断哪些反光特征对于整个照明区域更为关键。最后,根据照明区域反光层次权重,系统对第一地面照明区域特征图进行层次特征图提取,根据反光物体的重要性和层次结构对特征图进行调整和优化。通过图像融合、图像增强和特征加强等技术,最终得到的第二地面照明区域特征图将更加准确地反映出照明区域内各个层次的反光特性。
步骤S103、将第二地面照明区域特征图输入预置的初始无人机照明图像分析模型进行照明区域特征图的异常检测和异常处理,得到目标地面图像;
具体的,首先,将第二地面照明区域特征图输入预置的初始无人机照明图像分析模型中。这个模型由两个主要部分组成:地面反光异常分析网络和地面反光异常修复网络。地面反光异常分析网络的主要作用是识别和分析照明区域内的反光异常。网络中的特征图参数整合层对第二地面照明区域特征图进行处理,整合其参数,得到地面照明区域输入特征图。随后,地面反光异常分析网络中的反光区域检测层对地面照明区域输入特征图进行反光区域异常检测。这一层包括两层卷积长短时记忆网络(ConvLSTM),这种网络结构能够有效处理图像数据中的时空特征,提高对异常反光区域的检测能力。ConvLSTM通过分析输入特征图中的时空特征,能够识别出那些不符合正常照明模式的反光区域,得到反光区域异常检测结果。接着,系统会根据反光区域异常检测结果对地面照明区域输入特征图进行异常结果标注,生成地面照明区域异常特征图。接着,根据地面照明区域异常特征图和反光区域异常检测结果生成综合地面反光异常检测结果,这个综合结果将提供一个全面的视图,显示出所有检测到的异常区域和其特征。最后,地面反光异常修复网络根据综合地面反光异常检测结果对第二地面照明区域特征图中的反光异常区域进行修复。基于深度学习的图像恢复、图像重建等方法,根据异常区域的特性,自动调整和改善图像中的这些区域,从而恢复出更加真实和准确的地面照明条件。
首先,将第二地面照明区域特征图输入到地面反光异常修复网络中,该网络包括特征图分解层、反光特征增强层以及特征图修复层,每个层级有不同但相互关联的功能。通过特征图分解层对第二地面照明区域特征图进行特征图分解,得到多个地面反光异常区域图。基于深度学习的图像分割算法,能够识别和隔离出图像中的反光异常区域,确保每个区域都能被单独处理。通过这种精细的分解,系统能够更准确地定位并处理每一个反光异常区域。接下来,通过反光特征增强层对这些分解出的地面反光异常区域图进行反光特征增强。利用图像增强技术,如局部对比度增强、亮度调节等,来增强每个区域的反光特征,使反光异常区域的特征更加明显和突出。通过增强反光特征,系统能够更清楚地识别出反光异常的具体特点和程度。最后,通过特征图修复层,对多个目标反光异常区域图进行反光异常区域修复和图像多级融合,得到目标地面图像。例如,通过深度学习的内容感知修复算法,能够智能地填补和修正反光异常区域,使其与周围的图像内容更加和谐一致。同时,修复层执行图像多级融合的过程,这意味着不仅仅是修复单个区域,而是将所有修复后的区域与原始图像的其他部分进行有效融合,确保整个图像的连贯性和自然性。通过这种多级融合,系统能够确保修复后的目标地面图像在视觉上既自然又真实,有效地消除了反光异常带来的视觉干扰。
步骤S104、对目标地面图像进行地面照明物体特征识别,得到地面照明物体特征识别结果;
具体的,首先,对目标地面图像进行地面照明物体掩模处理,通过图像处理技术生成地面物体的掩模信息。掩模处理在图像分析中是一种常见的技术,它允许系统聚焦于特定的图像区域,而忽略其他不相关的部分。在这个步骤中,系统将识别出地面图像中的照明物体,并创建相应的掩模,这些掩模准确地覆盖在每个照明物体上,以便于后续的分析和处理。接下来,基于地面物体掩膜信息对目标地面图像进行地面物体掩膜标准化。标准化处理能够确保图像分析的一致性和准确性。系统使用掩膜信息调整图像中的照明物体,使它们在整个图像中呈现出一致的视觉特性。这可以通过调整亮度、对比度和颜色等图像属性,以确保所有的照明物体在图像中具有统一的视觉标准。通过这种标准化处理,目标地面图像将变得更加规整和一致,这有助于提高后续特征识别的准确性。最后,系统将对地面标准化图像进行地面照明物体特征识别。基于机器学习或深度学习的对象识别算法,识别和分类图像中的不同物体,根据它们的形状、大小、纹理和颜色等特征进行分析。在这个过程中,系统精确地识别出各种地面照明物体,并提取它们的关键特征,如物体的类型、位置、尺寸等。通过这种详细的特征识别,系统能够生成地面照明物体特征识别结果,这个结果将详细描述目标地面图像中每个照明物体的特征和属性,为后续的图像分析提供了一个详尽和准确的数据基础。
步骤S105、根据地面照明物体特征识别结果对初始无人机照明图像分析模型进行模型优化,得到目标无人机照明图像分析模型;
步骤S106、获取无人机夜间照明任务的实时地面图像,并通过目标无人机照明图像分析模型对实时地面图像进行异常识别和异常报警,生成目标异常报警信息,以及根据目标异常报警信息生成异常处理策略,异常处理策略包括无人机照明参数调整、增强照明区域的照明强度以及改变照明颜色。
具体的,首先,通过预置的MSE(均方误差)损失函数对地面照明物体特征识别结果进行损失值计算。MSE损失函数是机器学习中常用的性能指标,用于衡量模型的预测结果与实际结果之间的差异。通过计算目标损失值,可以量化模型当前的性能水平,为后续的优化提供了一个初始的评价标准。接下来,根据目标损失值对初始无人机照明图像分析模型进行模型参数优化分析。调整模型的参数,如权重和偏置,以降低损失值,提高模型的准确性和效率。得到初始模型优化参数后,采用预置的遗传算法对其进行种群初始化,产生多个第一模型优化参数。遗传算法是一种模拟自然选择和遗传学原理的优化算法,通过选择、交叉和变异操作,不断迭代以寻找最佳解决方案。随后,分别计算每个第一模型优化参数的第一适应度数据,并与设定的第一适应度阈值和第二适应度阈值进行比较。适应度数据用于衡量每个参数组合的优化效果,而两个适应度阈值则用于分类和指导后续的遗传操作。根据适应度数据,第一模型优化参数被分配到不同的模型优化群体中:低于第一适应度阈值的参数进入第一模型优化群体,介于两个阈值之间的进入第二模型优化群体,而超过第二适应度阈值的进入第三模型优化群体。在这些群体中,第一和第二模型优化群体将经历繁殖、交叉和变异操作,而第三模型优化群体仅进行交叉和变异,这一过程模拟了自然选择和遗传变异的过程,旨在产生更适应的模型参数组合。这些操作产生的第二模型优化参数随后被评估,计算其第二适应度数据,并根据这些数据进行最优化分析,以选出目标模型优化参数。最终,系统根据目标模型优化参数对初始无人机照明图像分析模型进行参数更新,从而得到目标无人机照明图像分析模型。这个更新的模型经过优化和调整,能够更准确地分析地面照明图像,提高图像分析的效率和准确性。其中,在无人机上安装照明设备,无人机需要与地面控制站建立稳定的通信连接,以传输实时图像和接收控制指令。无人机飞行时,使用夜间摄像头捕获实时地面图像,确保摄像头能够自动调整曝光和对焦,以适应光线条件的变化。将实时图像传输到地面控制站。利用图像分析模型对实时地面图像进行异常识别,检测异常情况,例如火灾等。如果图像分析模型检测到异常,生成目标异常报警信息,包括异常位置和类型。根据异常报警信息,生成异常处理策略。处理策略包括:无人机照明参数调整:根据异常类型和位置,调整无人机上的照明设备,以提供更好的照明。增强照明区域的照明强度:增加照明设备的亮度,以确保异常区域清晰可见。改变照明颜色:根据需要,调整照明的颜色,以提高能见度或产生特定的效果。根据生成的异常处理策略,无人机自动执行相应的操作。实时监控照明效果,并在必要时进行调整。记录异常事件、处理策略和结果,以供后续分析和报告使用。
本申请实施例中,通过多个无人机协同操作,可以更全面地捕捉目标照明区域的图像信息,提高了数据的覆盖率和质量,有助于更准确地分析和识别异常情况。能够获取无人机夜间照明任务的实时地面图像,并实时分析,使系统具备快速响应异常情况的能力,有益于应急响应和任务处理的效率提升。通过反光物体识别和处理,方法能够减轻夜间图像中反光物体的干扰,提高了地面图像的质量和清晰度,有助于更准确地检测异常。通过根据地面照明物体特征识别结果对模型进行优化,方法不断学习和改进,有益于提高异常检测和修复的准确性,降低误报率。可以自动检测并生成异常报警信息,减轻了人工干预的需求,有益于快速发现异常情况并采取相应措施。根据异常报警信息生成的异常处理策略可以智能地调整无人机照明参数、增强照明强度和改变照明颜色等,以最优化方式处理异常情况,提高了任务的执行效率和效果。实现了多层次的地面图像特征提取,包括照明区域特征、反光物体信息、地面照明物体特征等,综合考虑了多种信息,有益于更全面、准确地分析目标区域。无人机照明技术可以灵活适应不同夜间任务的需求,根据具体情况调整照明参数,提高了系统的适用性和多功能性,进而提高了无人机夜间照明的异常识别准确率和异常处理智能性。
在一具体实施例中,执行步骤S101的过程可以具体包括如下步骤:
(1)通过预置的无人机集群接收无人机夜间照明任务,并基于无人机夜间照明任务确定目标照明区域;
(2)通过无人机集群对目标照明区域进行地面图像采集,得到多个原始地面图像,并对多个原始地面图像进行图像融合,得到初始地面图像;
(3)对初始地面图像进行噪声去除,得到降噪地面图像,并对降噪地面图像进行图像分割,得到中心地面图像;
(4)对中心地面图像进行图像畸变优化,得到图像畸变优化参数集,并对中心地面图像进行照明区域特征变换,得到照明区域特征变换参数集,以及对中心地面图像进行照明亮度特征分析,得到照明亮度特征参数集;
(5)对图像畸变优化参数集、照明区域特征变换参数集以及照明亮度特征参数集进行参数合并,得到对应的目标照明区域特征参数集;
(6)根据目标照明区域特征参数集对中心地面图像进行照明区域特征图映射,得到第一地面照明区域特征图。
具体的,首先,通过预置的无人机集群接收无人机夜间照明任务,并基于此任务确定目标照明区域。随后,无人机集群对目标照明区域进行地面图像采集,每个无人机装备高分辨率摄像头,能够从不同角度捕捉地面的原始图像。得到多个原始地面图像后,进行图像融合,以获取一个更全面、连续的初始地面图像。图像融合过程中,采用图像处理技术,如基于特征的融合方法,将不同无人机拍摄的图像精确拼接在一起。融合后的初始地面图像往往会受到不同程度的噪声干扰,因此需要进行噪声去除处理。这一步骤通常涉及到数字图像处理技术,例如使用中值滤波器或高斯滤波器去除随机噪声。随后,对降噪地面图像进行图像分割,以提取出照明区域的中心部分。可以通过边缘检测或基于深度学习的图像分割方法。得到中心地面图像后,进行图像畸变优化。由于无人机拍摄角度和镜头特性的原因,图像会出现某种程度的畸变。使用透视变换等方法,可以得到图像畸变优化参数集,这有助于矫正图像,使其更符合实际情况。同时,对中心地面图像进行照明区域特征变换和照明亮度特征分析,这涉及到图像处理技术,如直方图均衡化和亮度调节,以突出照明区域的特征。接下来,将图像畸变优化参数集、照明区域特征变换参数集和照明亮度特征参数集进行合并,得到一个综合的目标照明区域特征参数集。这个参数集是对中心地面图像进行深度分析的结果,包含了照明区域的所有关键特征信息。最后,根据目标照明区域特征参数集对中心地面图像进行照明区域特征图映射,得到第一地面照明区域特征图。通过图像映射和增强技术,确保最终得到的特征图能够准确、清晰地反映目标照明区域的真实情况。
在一具体实施例中,执行步骤S102的过程可以具体包括如下步骤:
(1)对初始地面图像进行地面反光物体识别,得到初始地面反光物体识别结果,并获取地面环境影响参数集;
(2)根据地面环境影响参数集对初始地面反光物体识别结果进行地面反光物体识别结果处理,输出地面反光物体信息;
(3)对地面反光物体信息进行照明区域反光层次分析,得到照明区域反光层次信息;
(4)对照明区域反光层次信息进行层次权重分析,得到照明区域反光层次权重;
(5)根据照明区域反光层次权重对第一地面照明区域特征图进行层次特征图提取,得到第二地面照明区域特征图。
具体的,首先,通过高级的图像识别技术,如基于颜色、纹理、形状和反光特性的物体识别算法,对初始地面图像进行地面反光物体识别。接着,获取地面环境影响参数集。这些参数包括光照条件、天气情况、空气湿度和温度等,因为这些因素都影响反光物体的可见度和特性。例如,湿滑的街道会增加路面的反光性,而雾天则降低远处物体的可见度。接下来,根据地面环境影响参数集对初始地面反光物体识别结果进行处理。目的是校正或调整识别结果,确保它能够真实反映地面反光物体的情况。这涉及到对识别结果的亮度、对比度或颜色进行调整,以补偿环境影响带来的偏差。随后,对地面反光物体信息进行照明区域反光层次分析,识别和分类不同反光物体在照明区域内的层次和重要性。例如,区分街灯反光、车灯反光和建筑物窗户反光的不同层次。这种层次分析有助于理解各种反光源在整个照明区域中的相对位置和重要性。接着,对照明区域反光层次信息进行层次权重分析,根据每个层次的重要性和影响力分配权重。最后,根据照明区域反光层次权重,对第一地面照明区域特征图进行层次特征图提取,得到第二地面照明区域特征图。通过使用图像处理技术,如基于权重的图像增强和融合,以确保特征图准确地展示了每个反光源的重要性和特性。
在一具体实施例中,执行步骤S103的过程可以具体包括如下步骤:
(1)将第二地面照明区域特征图输入预置的初始无人机照明图像分析模型,初始无人机照明图像分析模型包括:地面反光异常分析网络以及地面反光异常修复网络;
(2)通过地面反光异常分析网络中的特征图参数整合层对第二地面照明区域特征图进行特征图参数整合,得到地面照明区域输入特征图;
(3)通过地面反光异常分析网络中的反光区域检测层对地面照明区域输入特征图进行反光区域异常检测,得到反光区域异常检测结果,反光区域检测层包括两层卷积长短时记忆网络;
(4)根据反光区域异常检测结果对地面照明区域输入特征图进行特征图异常结果标注,生成地面照明区域异常特征图,并根据地面照明区域异常特征图和反光区域异常检测结果生成对应的综合地面反光异常检测结果;
(5)通过地面反光异常修复网络,根据综合地面反光异常检测结果对第二地面照明区域特征图进行地面反光异常区域修复,得到目标地面图像。
具体的,首先,将第二地面照明区域特征图输入预置的初始无人机照明图像分析模型。这个模型由两部分构成:地面反光异常分析网络和地面反光异常修复网络。这两个网络相互协作,确保从识别异常到修复过程的有效性和准确性。然后,通过地面反光异常分析网络中的特征图参数整合层对第二地面照明区域特征图进行特征图参数整合。例如,基于深度学习的特征提取和整合。接下来,地面反光异常分析网络中的反光区域检测层对地面照明区域输入特征图进行反光区域异常检测。这个层包括两层卷积长短时记忆网络(ConvLSTM),它结合了卷积神经网络(CNN)处理图像的能力和长短时记忆网络(LSTM)处理时间序列数据的能力。这种结构使得网络能够有效地处理图像中的空间特征,同时记忆和识别反光区域的异常模式。随后,系统根据反光区域异常检测结果对地面照明区域输入特征图进行特征图异常结果标注,生成地面照明区域异常特征图。这涉及到在图像上标记出那些被识别为异常的反光区域,为后续的修复工作提供直观的引导。随后,根据地面照明区域异常特征图和反光区域异常检测结果生成综合地面反光异常检测结果。这个综合结果将提供一个全面的视图,显示出所有检测到的异常区域和其特征,确保后续处理的准确性和有效性。最后,通过地面反光异常修复网络,根据综合地面反光异常检测结果对第二地面照明区域特征图中的反光异常区域进行修复。利用图像修复技术,如基于深度学习的内容感知修复算法,智能填补和修正反光异常区域,使其与周围的图像内容更加和谐一致。
在一具体实施例中,执行步骤通过地面反光异常修复网络,根据综合地面反光异常检测结果对第二地面照明区域特征图进行地面反光异常区域修复,得到目标地面图像的过程可以具体包括如下步骤:
(1)将第二地面照明区域特征图输入地面反光异常修复网络,地面反光异常修复网络包括特征图分解层、反光特征增强层以及特征图修复层;
(2)通过特征图分解层对第二地面照明区域特征图进行特征图分解,得到多个地面反光异常区域图;
(3)通过反光特征增强层对多个地面反光异常区域图进行反光特征增强,得到多个目标反光异常区域图;
(4)通过特征图修复层,对多个目标反光异常区域图进行反光异常区域修复和图像多级融合,得到目标地面图像。
具体的,首先,将第二地面照明区域特征图输入地面反光异常修复网络,该网络由特征图分解层、反光特征增强层以及特征图修复层组成。将第二地面照明区域特征图输入到地面反光异常修复网络的特征图分解层。这个层级的主要作用是对特征图进行深入分析和分解,从而得到多个地面反光异常区域图。通过图像分析技术,如基于深度学习的图像分割算法,这些算法能够识别和隔离出图像中的反光异常区域。例如,特征图分解层会识别出由于湿润地面、不同材质的路面或特殊建筑材料引起的反光异常区域。接下来,反光特征增强层对这些分解出的地面反光异常区域图进行反光特征增强。通过使用图像增强技术,如局部对比度增强、亮度调节等,来增强每个区域的反光特征。增强反光特征的目的是使反光异常区域的特征更加明显和突出,从而便于后续的修复步骤。例如,增强湿润地面反光区域的亮度和对比度,使其在图像中更加显眼。最后,通过特征图修复层,对多个目标反光异常区域图进行反光异常区域修复和图像多级融合,得到目标地面图像。在这个层级中,采用图像修复技术,如基于深度学习的内容感知修复算法,这些算法能够智能地填补和修正反光异常区域,使其与周围的图像内容更加和谐一致。同时,修复层执行图像多级融合的过程,这意味着不仅仅是修复单个区域,而是将所有修复后的区域与原始图像的其他部分进行有效融合,确保整个图像的连贯性和自然性。例如,修复层会调整湿润地面的反光,使其看起来更自然,或者减少某些建筑材料的反光强度,以降低其对整体场景的影响。
在一具体实施例中,执行步骤S104的过程可以具体包括如下步骤:
(1)对目标地面图像进行地面照明物体掩模处理,得到地面物体掩膜信息;
(2)根据地面物体掩膜信息,对目标地面图像进行地面物体掩膜标准化,得到地面标准化图像;
(3)对地面标准化图像进行地面照明物体特征识别,得到地面照明物体特征识别结果。
具体的,首先,对目标地面图像进行掩模处理,识别出地面上由于照明产生的关键物体,并将其与背景分离开来。通过基于深度学习的图像分割算法,检测并分割出图像中的照明物体。例如,掩模处理可以识别并分离出因街灯、路灯或其他人造照明源照亮的树木、长椅和小径等物体。接下来,对目标地面图像进行地面物体掩膜标准化,调整掩模下的物体,使其在图像中的表示更加统一和标准化。这通常涉及到调整图像中物体的亮度、对比度和颜色等属性,以确保所有被掩模的照明物体在整个图像中呈现出一致的视觉特性。最后,对经过掩膜标准化的地面图像进行地面照明物体特征识别。通过基于机器学习或深度学习的对象识别算法,识别和分类图像中的不同物体,并根据它们的形状、大小、纹理和颜色等特征进行分析。例如,特征识别过程包括识别出不同种类的树木、长椅和小径,并分析它们的尺寸、位置和由于照明产生的阴影等特征。通过以上步骤,系统能够有效地处理和分析目标地面图像中的照明物体,识别出它们的关键特征,并最终生成一个详细和精确的地面照明物体特征识别结果。
在一具体实施例中,执行步骤S105的过程可以具体包括如下步骤:
(1)通过预置的MSE损失函数,对地面照明物体特征识别结果进行损失值计算,得到目标损失值;
(2)根据目标损失值对初始无人机照明图像分析模型进行模型参数优化分析,得到初始模型优化参数;
(3)通过预置的遗传算法,对初始模型优化参数进行种群初始化,得到多个第一模型优化参数;
(4)分别计算每个第一模型优化参数的第一适应度数据,并对第一适应度数据与第一适应度阈值和第二适应度阈值进行比较,其中,第一适应度阈值<第二适应度阈值;
(5)若第一适应度数据<第一适应度阈值,则将对应的第一模型优化参数划分至第一模型优化群体,若第一适应度阈值<第一适应度数据<第二适应度阈值,则将对应的第一模型优化参数划分至第二模型优化群体,若第二适应度阈值<第一适应度数据,则将对应的第一模型优化参数划分至第三模型优化群体;
(6)对第一模型优化群体和第二模型优化群体进行繁殖、交叉和变异,并对第三模型优化群体进行交叉和变异,得到多个第二模型优化参数;
(7)分别计算多个第二模型优化参数的第二适应度数据,并根据第二适应度数据对多个第二模型优化参数进行最优化分析,得到目标模型优化参数;
(8)根据目标模型优化参数对初始无人机照明图像分析模型进行模型参数更新,得到目标无人机照明图像分析模型。
具体的,首先,通过预置的均方误差(MSE)损失函数对地面照明物体特征识别结果进行损失值计算。MSE损失函数衡量的是模型预测结果与实际结果之间的差异,目标损失值反映了模型在特定任务上的精确度。例如,如果模型预测的照明物体位置或属性与实际情况有显著差异,MSE损失值将会较高。接下来,根据这个目标损失值,对初始无人机照明图像分析模型进行模型参数优化分析。通过调整模型参数,如权重和偏置,以减少损失值并提高模型的准确性。然后,采用预置的遗传算法对初始模型优化参数进行种群初始化,生成多个第一模型优化参数。遗传算法是一种模拟生物进化的优化算法,通过种群的繁殖、交叉和变异来寻找最优解。在这个过程中,每个第一模型优化参数代表了一种的解决方案,即模型的一组特定参数。例如,这些参数涉及到识别不同光源类型的能力或处理不同照明条件下的图像。之后,分别计算每个第一模型优化参数的适应度数据,并将这些数据与设定的第一适应度阈值和第二适应度阈值进行比较。这些适应度数据用于评估每个参数组合的效果,而两个适应度阈值则用于指导后续的遗传操作,较低的适应度表明模型在处理特定照明条件下的图像时表现不佳。接着,根据适应度数据,第一模型优化参数被分配到不同的群体中。如果适应度数据低于第一适应度阈值,则相应的参数划分至第一模型优化群体;如果适应度数据介于两个阈值之间,则划分至第二模型优化群体;如果高于第二适应度阈值,则划分至第三模型优化群体。不同群体的参数代表着不同的照明场景处理策略。随后,对第一和第二模型优化群体进行繁殖、交叉和变异操作,同时对第三模型优化群体进行交叉和变异。这些遗传操作模拟了自然选择和遗传变异的过程,旨在产生更适应的模型参数组合。然后,分别计算这些操作产生的第二模型优化参数的适应度数据,并根据这些数据对参数进行最优化分析,以选出目标模型优化参数。这个过程确保最终选择的参数组合能够最大程度地提高模型性能。最后,根据这些目标模型优化参数对初始无人机照明图像分析模型进行参数更新,从而得到目标无人机照明图像分析模型。这个更新的模型经过优化和调整,能够更准确地分析城市广场的照明情况,提高图像分析的效率和准确性。
上面对本申请实施例中基于无人机照明的图像分析方法进行了描述,下面对本申请实施例中基于无人机照明的图像分析系统进行描述,请参阅图2,本申请实施例中基于无人机照明的图像分析系统一个实施例包括:
获取模块201,用于获取无人机夜间照明任务的初始地面图像,并对所述初始地面图像进行图像去噪和照明区域特征提取,得到对应的第一地面照明区域特征图;
提取模块202,用于对所述初始地面图像进行地面反光物体识别,得到地面反光物体信息,并根据所述地面反光物体信息对所述第一地面照明区域特征图进行照明区域层次特征提取,得到第二地面照明区域特征图;
处理模块203,用于将所述第二地面照明区域特征图输入预置的初始无人机照明图像分析模型进行照明区域特征图的异常检测和异常处理,得到目标地面图像;
识别模块204,用于对所述目标地面图像进行地面照明物体特征识别,得到地面照明物体特征识别结果;
优化模块205,用于根据所述地面照明物体特征识别结果对所述初始无人机照明图像分析模型进行模型优化,得到目标无人机照明图像分析模型;
异常处理模块206,用于获取无人机夜间照明任务的实时地面图像,并通过所述目标无人机照明图像分析模型对所述实时地面图像进行异常识别和异常报警,生成目标异常报警信息,以及根据所述目标异常报警信息生成异常处理策略,所述异常处理策略包括无人机照明参数调整、增强照明区域的照明强度以及改变照明颜色。
通过上述各个组成部分的协同合作,通过多个无人机协同操作,可以更全面地捕捉目标照明区域的图像信息,提高了数据的覆盖率和质量,有助于更准确地分析和识别异常情况。能够获取无人机夜间照明任务的实时地面图像,并实时分析,使系统具备快速响应异常情况的能力,有益于应急响应和任务处理的效率提升。通过反光物体识别和处理,方法能够减轻夜间图像中反光物体的干扰,提高了地面图像的质量和清晰度,有助于更准确地检测异常。通过根据地面照明物体特征识别结果对模型进行优化,方法不断学习和改进,有益于提高异常检测和修复的准确性,降低误报率。可以自动检测并生成异常报警信息,减轻了人工干预的需求,有益于快速发现异常情况并采取相应措施。根据异常报警信息生成的异常处理策略可以智能地调整无人机照明参数、增强照明强度和改变照明颜色等,以最优化方式处理异常情况,提高了任务的执行效率和效果。实现了多层次的地面图像特征提取,包括照明区域特征、反光物体信息、地面照明物体特征等,综合考虑了多种信息,有益于更全面、准确地分析目标区域。无人机照明技术可以灵活适应不同夜间任务的需求,根据具体情况调整照明参数,提高了系统的适用性和多功能性,进而提高了无人机夜间照明的异常识别准确率和异常处理智能性。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,系统和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random acceS memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.一种基于无人机照明的图像分析方法,其特征在于,所述基于无人机照明的图像分析方法包括:
获取无人机夜间照明任务的初始地面图像,并对所述初始地面图像进行图像去噪和照明区域特征提取,得到对应的第一地面照明区域特征图;
对所述初始地面图像进行地面反光物体识别,得到地面反光物体信息,并根据所述地面反光物体信息对所述第一地面照明区域特征图进行照明区域层次特征提取,得到第二地面照明区域特征图;
将所述第二地面照明区域特征图输入预置的初始无人机照明图像分析模型进行照明区域特征图的异常检测和异常处理,得到目标地面图像;
对所述目标地面图像进行地面照明物体特征识别,得到地面照明物体特征识别结果;
根据所述地面照明物体特征识别结果对所述初始无人机照明图像分析模型进行模型优化,得到目标无人机照明图像分析模型;
获取无人机夜间照明任务的实时地面图像,并通过所述目标无人机照明图像分析模型对所述实时地面图像进行异常识别和异常报警,生成目标异常报警信息,以及根据所述目标异常报警信息生成异常处理策略,所述异常处理策略包括无人机照明参数调整、增强照明区域的照明强度以及改变照明颜色。
2.根据权利要求1所述的基于无人机照明的图像分析方法,其特征在于,所述获取无人机夜间照明任务的初始地面图像,并对所述初始地面图像进行图像去噪和照明区域特征提取,得到对应的第一地面照明区域特征图,包括:
通过预置的无人机集群接收无人机夜间照明任务,并基于所述无人机夜间照明任务确定目标照明区域;
通过所述无人机集群对所述目标照明区域进行地面图像采集,得到多个原始地面图像,并对所述多个原始地面图像进行图像融合,得到初始地面图像;
对所述初始地面图像进行噪声去除,得到降噪地面图像,并对所述降噪地面图像进行图像分割,得到中心地面图像;
对所述中心地面图像进行图像畸变优化,得到图像畸变优化参数集,并对所述中心地面图像进行照明区域特征变换,得到照明区域特征变换参数集,以及对所述中心地面图像进行照明亮度特征分析,得到照明亮度特征参数集;
对所述图像畸变优化参数集、所述照明区域特征变换参数集以及所述照明亮度特征参数集进行参数合并,得到对应的目标照明区域特征参数集;
根据所述目标照明区域特征参数集对所述中心地面图像进行照明区域特征图映射,得到第一地面照明区域特征图。
3.根据权利要求1所述的基于无人机照明的图像分析方法,其特征在于,所述对所述初始地面图像进行地面反光物体识别,得到地面反光物体信息,并根据所述地面反光物体信息对所述第一地面照明区域特征图进行照明区域层次特征提取,得到第二地面照明区域特征图,包括:
对所述初始地面图像进行地面反光物体识别,得到初始地面反光物体识别结果,并获取地面环境影响参数集;
根据所述地面环境影响参数集对所述初始地面反光物体识别结果进行地面反光物体识别结果处理,输出地面反光物体信息;
对所述地面反光物体信息进行照明区域反光层次分析,得到照明区域反光层次信息;
对所述照明区域反光层次信息进行层次权重分析,得到照明区域反光层次权重;
根据所述照明区域反光层次权重对所述第一地面照明区域特征图进行层次特征图提取,得到第二地面照明区域特征图。
4.根据权利要求1所述的基于无人机照明的图像分析方法,其特征在于,所述将所述第二地面照明区域特征图输入预置的初始无人机照明图像分析模型进行照明区域特征图的异常检测和异常处理,得到目标地面图像,包括:
将所述第二地面照明区域特征图输入预置的初始无人机照明图像分析模型,所述初始无人机照明图像分析模型包括:地面反光异常分析网络以及地面反光异常修复网络;
通过所述地面反光异常分析网络中的特征图参数整合层对所述第二地面照明区域特征图进行特征图参数整合,得到地面照明区域输入特征图;
通过所述地面反光异常分析网络中的反光区域检测层对所述地面照明区域输入特征图进行反光区域异常检测,得到反光区域异常检测结果,所述反光区域检测层包括两层卷积长短时记忆网络;
根据所述反光区域异常检测结果对所述地面照明区域输入特征图进行特征图异常结果标注,生成地面照明区域异常特征图,并根据所述地面照明区域异常特征图和所述反光区域异常检测结果生成对应的综合地面反光异常检测结果;
通过所述地面反光异常修复网络,根据所述综合地面反光异常检测结果对所述第二地面照明区域特征图进行地面反光异常区域修复,得到目标地面图像。
5.根据权利要求4所述的基于无人机照明的图像分析方法,其特征在于,所述通过所述地面反光异常修复网络,根据所述综合地面反光异常检测结果对所述第二地面照明区域特征图进行地面反光异常区域修复,得到目标地面图像,包括:
将所述第二地面照明区域特征图输入所述地面反光异常修复网络,所述地面反光异常修复网络包括特征图分解层、反光特征增强层以及特征图修复层;
通过所述特征图分解层对所述第二地面照明区域特征图进行特征图分解,得到多个地面反光异常区域图;
通过所述反光特征增强层对所述多个地面反光异常区域图进行反光特征增强,得到多个目标反光异常区域图;
通过所述特征图修复层,对所述多个目标反光异常区域图进行反光异常区域修复和图像多级融合,得到目标地面图像。
6.根据权利要求1所述的基于无人机照明的图像分析方法,其特征在于,所述对所述目标地面图像进行地面照明物体特征识别,得到地面照明物体特征识别结果,包括:
对所述目标地面图像进行地面照明物体掩模处理,得到地面物体掩膜信息;
根据所述地面物体掩膜信息,对所述目标地面图像进行地面物体掩膜标准化,得到地面标准化图像;
对所述地面标准化图像进行地面照明物体特征识别,得到地面照明物体特征识别结果。
7.根据权利要求1所述的基于无人机照明的图像分析方法,其特征在于,所述根据所述地面照明物体特征识别结果对所述初始无人机照明图像分析模型进行模型优化,得到目标无人机照明图像分析模型,包括:
通过预置的MSE损失函数,对所述地面照明物体特征识别结果进行损失值计算,得到目标损失值;
根据所述目标损失值对所述初始无人机照明图像分析模型进行模型参数优化分析,得到初始模型优化参数;
通过预置的遗传算法,对所述初始模型优化参数进行种群初始化,得到多个第一模型优化参数;
分别计算每个第一模型优化参数的第一适应度数据,并对所述第一适应度数据与第一适应度阈值和第二适应度阈值进行比较,其中,第一适应度阈值<第二适应度阈值;
若第一适应度数据<第一适应度阈值,则将对应的第一模型优化参数划分至第一模型优化群体,若第一适应度阈值<第一适应度数据<第二适应度阈值,则将对应的第一模型优化参数划分至第二模型优化群体,若第二适应度阈值<第一适应度数据,则将对应的第一模型优化参数划分至第三模型优化群体;
对所述第一模型优化群体和所述第二模型优化群体进行繁殖、交叉和变异,并对所述第三模型优化群体进行交叉和变异,得到多个第二模型优化参数;
分别计算所述多个第二模型优化参数的第二适应度数据,并根据所述第二适应度数据对所述多个第二模型优化参数进行最优化分析,得到目标模型优化参数;
根据所述目标模型优化参数对所述初始无人机照明图像分析模型进行模型参数更新,得到目标无人机照明图像分析模型。
8.一种基于无人机照明的图像分析系统,其特征在于,所述基于无人机照明的图像分析系统包括:
获取模块,用于获取无人机夜间照明任务的初始地面图像,并对所述初始地面图像进行图像去噪和照明区域特征提取,得到对应的第一地面照明区域特征图;
提取模块,用于对所述初始地面图像进行地面反光物体识别,得到地面反光物体信息,并根据所述地面反光物体信息对所述第一地面照明区域特征图进行照明区域层次特征提取,得到第二地面照明区域特征图;
处理模块,用于将所述第二地面照明区域特征图输入预置的初始无人机照明图像分析模型进行照明区域特征图的异常检测和异常处理,得到目标地面图像;
识别模块,用于对所述目标地面图像进行地面照明物体特征识别,得到地面照明物体特征识别结果;
优化模块,用于根据所述地面照明物体特征识别结果对所述初始无人机照明图像分析模型进行模型优化,得到目标无人机照明图像分析模型;
异常处理模块,用于获取无人机夜间照明任务的实时地面图像,并通过所述目标无人机照明图像分析模型对所述实时地面图像进行异常识别和异常报警,生成目标异常报警信息,以及根据所述目标异常报警信息生成异常处理策略,所述异常处理策略包括无人机照明参数调整、增强照明区域的照明强度以及改变照明颜色。
9.根据权利要求8所述的基于无人机照明的图像分析系统,其特征在于,所述获取模块具体用于:
通过预置的无人机集群接收无人机夜间照明任务,并基于所述无人机夜间照明任务确定目标照明区域;
通过所述无人机集群对所述目标照明区域进行地面图像采集,得到多个原始地面图像,并对所述多个原始地面图像进行图像融合,得到初始地面图像;
对所述初始地面图像进行噪声去除,得到降噪地面图像,并对所述降噪地面图像进行图像分割,得到中心地面图像;
对所述中心地面图像进行图像畸变优化,得到图像畸变优化参数集,并对所述中心地面图像进行照明区域特征变换,得到照明区域特征变换参数集,以及对所述中心地面图像进行照明亮度特征分析,得到照明亮度特征参数集;
对所述图像畸变优化参数集、所述照明区域特征变换参数集以及所述照明亮度特征参数集进行参数合并,得到对应的目标照明区域特征参数集;
根据所述目标照明区域特征参数集对所述中心地面图像进行照明区域特征图映射,得到第一地面照明区域特征图。
10.根据权利要求8所述的基于无人机照明的图像分析系统,其特征在于,所述提取模块具体用于:
对所述初始地面图像进行地面反光物体识别,得到初始地面反光物体识别结果,并获取地面环境影响参数集;
根据所述地面环境影响参数集对所述初始地面反光物体识别结果进行地面反光物体识别结果处理,输出地面反光物体信息;
对所述地面反光物体信息进行照明区域反光层次分析,得到照明区域反光层次信息;
对所述照明区域反光层次信息进行层次权重分析,得到照明区域反光层次权重;
根据所述照明区域反光层次权重对所述第一地面照明区域特征图进行层次特征图提取,得到第二地面照明区域特征图。
CN202311725821.7A 2023-12-15 2023-12-15 基于无人机照明的图像分析方法及系统 Active CN117409341B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311725821.7A CN117409341B (zh) 2023-12-15 2023-12-15 基于无人机照明的图像分析方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311725821.7A CN117409341B (zh) 2023-12-15 2023-12-15 基于无人机照明的图像分析方法及系统

Publications (2)

Publication Number Publication Date
CN117409341A true CN117409341A (zh) 2024-01-16
CN117409341B CN117409341B (zh) 2024-02-13

Family

ID=89487534

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311725821.7A Active CN117409341B (zh) 2023-12-15 2023-12-15 基于无人机照明的图像分析方法及系统

Country Status (1)

Country Link
CN (1) CN117409341B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117676988A (zh) * 2024-01-31 2024-03-08 山东中策新能源有限公司 一种基于数据处理的综合能源管理系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109872499A (zh) * 2018-12-25 2019-06-11 大连理工大学 一种基于图像识别的拦网在位监测报警系统
CN114202711A (zh) * 2020-08-28 2022-03-18 中车株洲电力机车研究所有限公司 一种列车车厢内异常行为智能监测方法、装置及监控系统
WO2022067668A1 (zh) * 2020-09-30 2022-04-07 中国科学院深圳先进技术研究院 基于视频图像目标检测的火灾检测方法、系统、终端以及存储介质
CN115713696A (zh) * 2022-11-09 2023-02-24 国网山东省电力公司烟台供电公司 一种基于无人机采集图像的反光膜识别方法
CN116434533A (zh) * 2022-12-15 2023-07-14 江西交通职业技术学院 一种基于5g的ai智慧公路隧道综合监测平台
CN116540706A (zh) * 2023-05-05 2023-08-04 余姚市机器人研究中心 一种无人机为地面无人车提供局部路径规划系统及方法
CN116645601A (zh) * 2023-04-28 2023-08-25 佛山弘视智能信息科技有限公司 一种基于偏振镜控制的道路积水检测方法及装置
US20230368356A1 (en) * 2022-05-16 2023-11-16 Samsung Electronics Co., Ltd. Image processing device for drone, drone image processing method, and drone image processing processor

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109872499A (zh) * 2018-12-25 2019-06-11 大连理工大学 一种基于图像识别的拦网在位监测报警系统
CN114202711A (zh) * 2020-08-28 2022-03-18 中车株洲电力机车研究所有限公司 一种列车车厢内异常行为智能监测方法、装置及监控系统
WO2022067668A1 (zh) * 2020-09-30 2022-04-07 中国科学院深圳先进技术研究院 基于视频图像目标检测的火灾检测方法、系统、终端以及存储介质
US20230368356A1 (en) * 2022-05-16 2023-11-16 Samsung Electronics Co., Ltd. Image processing device for drone, drone image processing method, and drone image processing processor
CN115713696A (zh) * 2022-11-09 2023-02-24 国网山东省电力公司烟台供电公司 一种基于无人机采集图像的反光膜识别方法
CN116434533A (zh) * 2022-12-15 2023-07-14 江西交通职业技术学院 一种基于5g的ai智慧公路隧道综合监测平台
CN116645601A (zh) * 2023-04-28 2023-08-25 佛山弘视智能信息科技有限公司 一种基于偏振镜控制的道路积水检测方法及装置
CN116540706A (zh) * 2023-05-05 2023-08-04 余姚市机器人研究中心 一种无人机为地面无人车提供局部路径规划系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
付晶等: "输电线路无人机巡检图像缺陷智能识别方法分析", 《高电压技术》, vol. 49, 30 September 2023 (2023-09-30), pages 103 - 110 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117676988A (zh) * 2024-01-31 2024-03-08 山东中策新能源有限公司 一种基于数据处理的综合能源管理系统
CN117676988B (zh) * 2024-01-31 2024-04-26 山东中策新能源有限公司 一种基于数据处理的综合能源管理系统

Also Published As

Publication number Publication date
CN117409341B (zh) 2024-02-13

Similar Documents

Publication Publication Date Title
CN111353413B (zh) 一种输电设备低漏报率缺陷识别方法
KR102094341B1 (ko) 인공지능 기반의 도로 노면 불량 객체 정보 분석 시스템 및 방법
CN117409341B (zh) 基于无人机照明的图像分析方法及系统
CN111967393A (zh) 一种基于改进YOLOv4的安全帽佩戴检测方法
US11436712B2 (en) Predicting and correcting vegetation state
WO2021138365A1 (en) Improvements to overhead view image generation
US20210201050A1 (en) Generating training data from overhead view images
CN112307884A (zh) 基于连续时序遥感态势数据的林火蔓延预测方法及电子设备
CN116311078A (zh) 一种林火分析及监测方法、系统
CN115546742A (zh) 一种基于单目热红外摄像头的铁轨异物识别方法及系统
CN116883763A (zh) 一种基于深度学习的汽车零部件缺陷检测方法及系统
CN117422699A (zh) 公路检测方法、装置、计算机设备及存储介质
CN115797314B (zh) 零件表面缺陷检测方法、系统、设备及存储介质
KR102040562B1 (ko) 영상정보를 활용한 시정거리 추정 방법
US20230314169A1 (en) Method and apparatus for generating map data, and non-transitory computer-readable storage medium
CN104239903A (zh) 一种基于qpso算法的图像边缘检测方法
CN115063684A (zh) 一种基于遥感影像场景划分的农机轨迹识别方法及其应用方法
CN112395956A (zh) 一种面向复杂环境的可通行区域检测方法及系统
CN112380985A (zh) 变电站入侵异物实时检测方法
CN117437382B (zh) 一种数据中心部件的更新方法及系统
CN116403163B (zh) 一种截断塞门手把开合状态的识别方法和装置
US20240071057A1 (en) Microscopy System and Method for Testing a Sensitivity of an Image Processing Model
Teixeira et al. Street Light Segmentation in Satellite Images Using Deep Learning
CN114359797A (zh) 一种基于gan网络的工地夜间异常实时检测方法
Riegler et al. Filament and Flare Detection in H {\alpha} image sequences

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant