CN116682013A - 一种光源故障点识别方法、装置、设备及存储介质 - Google Patents
一种光源故障点识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN116682013A CN116682013A CN202310670733.5A CN202310670733A CN116682013A CN 116682013 A CN116682013 A CN 116682013A CN 202310670733 A CN202310670733 A CN 202310670733A CN 116682013 A CN116682013 A CN 116682013A
- Authority
- CN
- China
- Prior art keywords
- training
- image data
- model
- layer
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000012549 training Methods 0.000 claims abstract description 226
- 238000001514 detection method Methods 0.000 claims abstract description 78
- 238000000605 extraction Methods 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims abstract description 27
- 238000002372 labelling Methods 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 39
- 230000004913 activation Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 8
- 238000013519 translation Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 229910052754 neon Inorganic materials 0.000 description 4
- GKAOGPIIYCISHV-UHFFFAOYSA-N neon atom Chemical compound [Ne] GKAOGPIIYCISHV-UHFFFAOYSA-N 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003628 erosive effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 235000019580 granularity Nutrition 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
- Y04S10/52—Outage or fault management, e.g. fault detection or location
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本申请揭示了一种光源故障点识别方法、装置、设备及存储介质,具体涉及图像检测技术领域。该方法包括:获取样本大楼图像数据;样本大楼图像数据包括大楼表面的灯幕;样本大楼图像数据还包括样本标注,样本标注用于标注灯幕中的故障点位置;获取预训练模型;预训练模型包括特征提取层以及分类层;保持预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对预训练模型的分类层进行训练,获得第一训练模型;通过样本大楼图像数据对第一训练模型进行全局训练,获得目标检测模型;目标检测模型用于对目标大楼图像数据进行处理,得到故障点位置。基于上述方案,在进行光源故障点识别时准确度高。
Description
技术领域
本申请涉及图像检测领域,具体涉及一种光源故障点识别方法、装置、设备及存储介质。
背景技术
随着城市化水平的提高,地标性建筑已经成为各个城市的重要名片。作为一类反应城镇特色的标志性建筑物,霓虹灯大楼是智慧城市建设中的一个重要组成部分。
现代建筑技术不仅能够设计各具特色的建筑结构,而且为高层建筑提供了更具扩展性的侧面表面积。这为霓虹灯展示各类宣传提供了更大的发挥空间,但对霓虹灯具的维护带来了更大的挑战性。具体来说,经过长期使用的霓虹灯具通常存在自然侵蚀和事故损坏的现象,需要进行定期检测和换装操作。传统方法中,通过人工进行故障点检测和维修,然而,近百万的灯具成像点,致使人为的故障点检测非常困难。
发明内容
本申请提供了一种光源故障点识别方法、装置、设备及存储介质,在实现光源故障点识别时准确度高,该技术方案如下。
一方面,提供了一种光源故障点识别方法,所述方法包括:
获取样本大楼图像数据;所述样本大楼图像数据包括大楼表面的灯幕;所述样本大楼图像数据还包括样本标注,所述样本标注用于标注所述灯幕中的故障点位置;
获取预训练模型;所述预训练模型是通过预训练数据集训练后得到的模型;所述预训练模型包括特征提取层以及分类层;
保持所述预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对所述预训练模型的分类层进行训练,获得第一训练模型;
通过样本大楼图像数据对所述第一训练模型进行全局训练,获得目标检测模型;所述目标检测模型用于对目标大楼图像数据进行处理,得到故障点位置。
又一方面,提供了一种光源故障点识别装置,所述装置包括:
数据获取模块,用于获取样本大楼图像数据;所述样本大楼图像数据包括大楼表面的灯幕;所述样本大楼图像数据还包括样本标注,所述样本标注用于标注所述灯幕中的故障点位置;
预训练模型获取模块,用于获取预训练模型;所述预训练模型是通过预训练数据集训练后得到的模型;所述预训练模型包括特征提取层以及分类层;
第一训练模块,用于保持所述预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对所述预训练模型的分类层进行训练,获得第一训练模型;
第二训练模块,用于通过样本大楼图像数据对所述第一训练模型进行全局训练,获得目标检测模型;所述目标检测模型用于对目标大楼图像数据进行处理,得到故障点位置。
在一种可能的实现方式中,所述保持所述预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对所述预训练模型的分类层进行训练,获得第一训练模型包括:
通过预训练模型的特征提取层对所述样本大楼图像数据进行特征提取,得到至少两层中间特征图;
对最终层的中间特征图进行上采样;
将上采样后的最终层的中间特征图与其中一层中间特征图进行特征拼接,得到目标特征图;
通过目标检测模型的全连接层对所述目标特征图进行拟合,并将拟合后的目标特征图归一化,得到识别结果;
根据所述识别结果以及所述样本标注,得到第一损失函数;
保持所述预训练模型的特征提取层的参数不变,根据所述第一损失函数对预训练模型的分类层进行反向传播更新,获得第一训练模型。
在一种可能的实现方式中,通过样本大楼图像数据对所述第一训练模型进行全局训练,获得目标检测模型,包括:
通过第一训练模型对所述样本大楼图像数据进行处理,得到第二损失函数;
根据所述第二损失函数,对第一训练模型进行训练,得到全局训练后的目标检测模型。
在一种可能的实现方式中,所述中间特征图包括第一层中间特征图、第二层中间特征图、第三层中间特征图、第四层中间特征图以及第五层中间特征图;
所述将上采样后的最终层的中间特征图与其中一层中间特征图进行特征拼接,得到目标特征图,包括:
将第四层中间特征图与上采样后的第五层中间特征图进行特征拼贴,得到目标特征图。
在一种可能的实现方式中,所述特征提取层中包括至少两组依次连接的卷积层、池化层以及激活函数;
所述卷积层采用跨步幅方式进行卷积核平移。
在一种可能的实现方式中,所述激活函数为交叉熵损失函数,可以根据以下公式求取所述激活函数L2 CE:
其中,yi为样本大楼图像数据中第i个样本中的故障点所对应的实际标签值,为第i个样本中的故障点通过目标检测模型处理后的预测标签值,m为样本数。
在一种可能的实现方式中,所述方法还包括:
获取目标大楼图像数据;
通过目标检测模型对所述目标大楼图像数据进行处理,得到识别结果;
通过位置映射函数对所述识别结果进行位置映射,得到故障点位置。
再一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现上述的光源故障点识别方法。
又一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现上述的光源故障点识别方法。
再一方面,提供了一种计算机程序产品或计算机程序,所述计算机程序产品或计算机程序包括计算机指令,所述计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质中读取所述计算机指令,处理器执行所述计算机指令,使得所述计算机设备执行上述光源故障点识别方法。
本申请提供的技术方案可以包括以下有益效果:
先获取样本大楼图像数据;样本大楼图像数据包括大楼表面的灯幕;样本大楼图像数据还包括样本标注,样本标注用于标注灯幕中的故障点位置;再获取预训练模型;预训练模型是通过预训练数据集训练后得到的模型;预训练模型包括特征提取层以及分类层;再保持预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对预训练模型的分类层进行训练,获得第一训练模型;最后通过样本大楼图像数据对第一训练模型进行全局训练,获得目标检测模型;目标检测模型用于对目标大楼图像数据进行处理,得到故障点位置。上述方案,通过先对预训练模型的分类层进行训练获得第一训练模型,再对第一训练模型进行全局训练获得目标检测模型,从而提高了目标检测模型的光源故障点识别准确度。
附图说明
为了更清楚地说明本申请具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例示出的一种光源故障点识别系统的结构示意图。
图2是根据一示例性实施例示出的一种光源故障点识别方法的流程图。
图3是根据一示例性实施例示出的一种光源故障点识别方法的流程图。
图4示出了本申请实施例涉及的目标检测模型的特征金字塔实现原理图。
图5是根据一示例性实施例示出的一种光源故障点识别装置的结构方框图。
图6是根据一示例性实施例示出的计算机设备的结构框图。
具体实施方式
下面将结合附图对本申请的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应理解,在本申请的实施例中提到的“指示”可以是直接指示,也可以是间接指示,还可以是表示具有关联关系。举例说明,A指示B,可以表示A直接指示B,例如B可以通过A获取;也可以表示A间接指示B,例如A指示C,B可以通过C获取;还可以表示A和B之间具有关联关系。
在本申请实施例的描述中,术语“对应”可表示两者之间具有直接对应或间接对应的关系,也可以表示两者之间具有关联关系,也可以是指示与被指示、配置与被配置等关系。
本申请实施例中,“预定义”可以通过在设备(例如,包括终端设备和网络设备)中预先保存相应的代码、表格或其他可用于指示相关信息的方式来实现,本申请对于其具体的实现方式不做限定。
图1是根据一示例性实施例示出的一种光源故障点识别系统的结构示意图。该光源故障点识别系统中包含服务器110以及终端设备120。其中,该终端设备120中可以包含数据处理设备以及数据存储模块。
可选的,该终端设备120通过传输网络(如无线通信网络)与服务器110实现通信连接,该终端设备120可以通过无线通信网络,将数据存储模块中存储的各个数据(如图像数据)上传至服务器110,以便服务器110对获取到的图像数据进行处理,例如通过上传的图像数据对应用于光源故障点识别等方面的卷积神经网络模型进行训练。
可选的,该终端设备120中还包括有指令输入组件,如鼠标、键盘、触控屏等组件(图1未示出),该指令输入组件接收到用户输入的指定指令后,可以在终端设备上输入对应的数据。例如当终端设备上安装有光源故障点识别软件时,用户可以通过指令输入组件向终端设备输入对应的指令,以控制该光源故障点识别软件输出对应的光源故障点识别结果。
可选的,该终端设备可以将该图像文件上传至服务器110,以便服务器110对应用于光源故障点识别等方面的卷积神经网络模型进行训练。
可选的,该终端设备中还包含有数据处理设备,该数据处理设备可以在终端设备120打开图像文件时,通过服务器下发的卷积神经网络模型对图像文件进行分割。
可选的,该服务器110可以获取到各个终端设备上传的图像文件,并通过人工等方式对图像文件进行标注,以通过上传的图像文件以及标注信息对卷积神经网络模型进行训练,当训练完成后可以将训练后的卷积神经网络模型传输至终端设备中,以便终端设备对图像文件进行光源故障点识别。
可选的,当该终端设备接收并打开图像文件后,终端设备可以将该图像文件上传至服务器110中,以便服务器110中训练好的卷积神经网络模型对图像文件进行分割,得到分割结果并返回至终端设备,以实现图像文件的在线分割。
可选的,上述服务器可以是由多个物理服务器构成的服务器集群或者是分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等技术运计算服务的云服务器。
可选的,该系统还可以包括管理设备,该管理设备用于对该系统进行管理(如管理各个模块与服务器之间的连接状态等),该管理设备与服务器之间通过通信网络相连。可选的,该通信网络是有线网络或无线网络。
可选的,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网,但也可以是其他任何网络,包括但不限于局域网、城域网、广域网、移动、有限或无线网络、专用网络或者虚拟专用网络的任何组合。在一些实施例中,使用包括超文本标记语言、可扩展标记语言等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层、传输层安全、虚拟专用网络、网际协议安全等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
图2是根据一示例性实施例示出的一种光源故障点识别方法的流程图。该方法由计算机设备执行,该计算机设备可以是如图1中所示的终端设备与服务器中的一者。如图2所示,该光源故障点识别方法可以包括如下步骤:
步骤201,获取样本大楼图像数据。
该样本大楼图像数据包括大楼表面的灯幕;该样本大楼图像数据还包括样本标注,该样本标注用于标注该灯幕中的故障点位置。
在实际场景中,由于自然侵蚀或事故损坏等,大楼表面的灯幕中的灯具会发生故障,需要定期检测和换装。然而,由于灯具数量非常多,使得人为进行故障点检测非常困难,因此本申请提供了一种类别数量与灯具成像点数目一致的多分类模型(目标检测模型),并依照故障点的类别来映射出故障点的位置信息,以便实现故障点定位功能。
为了获取到目标检测模型,首先需要获取样本大楼图像数据作为模型训练的素材。可选的,可以搜索已有的大楼图像数据集作为样本大楼图像数据,还可以通过摄像机、手机等自行拍摄照片作为样本大楼图像数据。
步骤202,获取预训练模型。
该预训练模型是通过预训练数据集训练后得到的模型;该预训练模型包括特征提取层以及分类层。
由于从头开始进行模型训练对样本数量和设备算力要求非常高,因此可以选取解决类似问题的预训练模型作为目标检测模型的基础,例如解决图像分类问题可以使用预训练的卷积神经网络(CNN)。预训练模型是指已由技术人员通过大量的数据集进行训练后的模型。
步骤203,保持该预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对该预训练模型的分类层进行训练,获得第一训练模型。
通过只对该预训练模型的分类层进行训练,可以使分类层输出的维度对应故障点的类别数目,例如大楼灯幕中有N个灯具,每个灯具对应一个故障点类别,则故障点的类别数目为N,则分类层输出的维度为N。分类层输出的每个维度对应一个预测值,用于预测该维度对应的灯具是否存在故障,例如,当预测值超过0.5时,判定该灯具存在故障。
步骤204,通过样本大楼图像数据对该第一训练模型进行全局训练,获得目标检测模型。
在调整分类层的输出维度后,即可对模型整体进行训练,以得到目标检测模型。该目标检测模型用于对目标大楼图像数据进行处理,得到故障点位置。也就是说,在需要对目标大楼进行光源故障点识别时,即可采集该目标大楼图像数据,再通过该目标检测模型对该目标大楼图像数据进行处理,得到光源故障点识别结果。
综上所述,在本申请中先获取样本大楼图像数据;样本大楼图像数据包括大楼表面的灯幕;样本大楼图像数据还包括样本标注,样本标注用于标注灯幕中的故障点位置;再获取预训练模型;预训练模型是通过预训练数据集训练后得到的模型;预训练模型包括特征提取层以及分类层;再保持预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对预训练模型的分类层进行训练,获得第一训练模型;最后通过样本大楼图像数据对第一训练模型进行全局训练,获得目标检测模型;目标检测模型用于对目标大楼图像数据进行处理,得到故障点位置。上述方案,通过先对预训练模型的分类层进行训练获得第一训练模型,再对第一训练模型进行全局训练获得目标检测模型,从而提高了目标检测模型的光源故障点识别准确度。
图3是根据一示例性实施例示出的一种光源故障点识别方法的流程图。该方法由计算机设备执行,该计算机设备可以是如图1中所示的终端设备与服务器中的一者。如图3所示,该光源故障点识别方法可以包括如下步骤:
步骤301,获取样本大楼图像数据。
现代大楼灯光的展幅面积极其宽广,灯源成像点数目巨大衍生了成像点密集的问题,并且,楼宇表面通常呈现出矩形特征(高度远大于宽度),即使拍摄高清图像,单个光源也仅能占据极小的像素区域。
因此,本申请提供了一种类别数量与灯具成像点数目一致的多分类模型,并依照故障点的类别来映射出故障点的位置信息,以便实现故障点定位功能。
首先,需要获取样本大楼图像数据。该样本大楼图像数据包括大楼表面的灯幕;该样本大楼图像数据还包括样本标注,该样本标注用于标注该灯幕中的故障点位置。
由于当前并没有关于楼宇灯光的图像数据集,需要进行人工采集和网络搜集,而包含故障点的灯光展板图更是稀缺,很难获取各式各样的真实故障点样例。因此,对于高度依赖多样性数据的深度学习技术而言,数据层面的样本稀缺问题成为该发明所面临的首要难点。
可选的,以采集到的大楼图像为素材,对故障点进行人工模拟,比如将大楼图像中的灯幕进行图像处理,将灯幕中的部分灯具调色,模拟灯具因故障而熄灭的效果。进一步的,对熄灭的灯具进行人工标注(样本标注),即得到样本大楼图像数据。
示例性的,通过多样性的污染源进行故障点的人工模拟。
首先,进行灯源区域划分。例如,目标样本大楼图像中的大楼的灯幕共有53条纵向灯带,为预测故障点的大致区域,将该大楼粗略地划分为100个楼层,此时,灯幕被划分为5300个区域,即53×100个灯光源(灯具)。
进一步的,进行故障点类别划分。依照该楼光源面版所划分的5300个区域,将故障点位置问题转化为包含5300个类别的识别问题。
进一步的,进行故障点的人工模拟。在目标样本大楼图像上,采用各式各样的暗色补丁(形状及像素值各异)来替代原始发光源,以实现故障点人工模拟。在此基础上,兼顾对目标样本大楼图像的噪声增广操作,分别包括大楼颜色调整、雨雾天气模拟和大楼视角扭曲等。经过上述操作,对每个区域的故障点共生成12个不同的样本类型,其中10个用于训练,2个用来测试。
综上,对应5300个区域,共生成了53000张训练样本和10600张测试样本。
步骤302,获取预训练模型。
该预训练模型是通过预训练数据集训练后得到的模型;该预训练模型包括特征提取层以及分类层。
可选的,该特征提取层中包括至少两组依次连接的卷积层、池化层以及激活函数。该特征提取层中依次连接的卷积层、池化层以及激活函数的数量可根据实际需求进行选择。
可选的,该卷积层采用跨步幅方式进行卷积核平移。通过卷积核平移的跨步幅方式进行在层间特征的降维(池化),能够弱化均值池化和最大化池化所导致的细粒度特征(成像点)丢失问题。该步幅大小可根据实际需要进行设置。
可选的,该激活函数为交叉熵损失函数,可以根据以下公式求取该激活函数L2 CE:
其中,yi为样本大楼图像数据中第i个样本中的故障点所对应的实际标签值,为第i个样本中的故障点通过目标检测模型处理后的预测标签值,m为样本数,1≤i≤m。
示例性的,该实施例基于的硬件条件为:Intel(R)Core(TM)i7-12700KF处理器、64GB内存和NVIDIA GeForce RTX 3060显卡。该目标检测模型的框架为Pytorch深度学习框架。
示例性的,预训练采用了标准SGD优化器,训练数据集采用了CIFAR-10数据集。预训练设置如下:输入图像型号为224×224,数据增广方法为随机裁剪和旋转,总体迭代步数为200,初始学习率为0.1,在第100轮次与第150轮次调整为0.01和0.001。此外,weightdecay(权值衰减)正则化处理的设置为:动量项设为0.9,权重衰减系数为0.0005。训练完成后保存模型参数,即得到该预训练模型。
步骤303,保持该预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对该预训练模型的分类层进行训练,获得第一训练模型。
可选的,以迁移学习的方式来获得良好的初始化网络参数。首先进行权重加载,加载预训练模型的特征提取层的参数。例如,加载CIFAR-10预训练模型中特征提取层的参数。
进一步的,通过预训练模型的特征提取层对该样本大楼图像数据进行特征提取,得到至少两层中间特征图。
可选的,该中间特征图包括第一层中间特征图、第二层中间特征图、第三层中间特征图、第四层中间特征图以及第五层中间特征图。
进一步的,对最终层的中间特征图进行上采样。
进一步的,将上采样后的最终层的中间特征图与其中一层中间特征图进行特征拼接,得到目标特征图。
可选的,将第四层中间特征图与上采样后的第五层中间特征图进行特征拼贴,得到目标特征图。
进一步的,通过目标检测模型的全连接层对该目标特征图进行拟合,并将拟合后的目标特征图归一化,得到识别结果。
进一步的,根据该识别结果以及该样本标注,得到第一损失函数;
进一步的,保持该预训练模型的特征提取层的参数不变,根据该第一损失函数对预训练模型的分类层进行反向传播更新,获得第一训练模型。
示例性的,基于Pytorch深度学习框架,采用标准SGD优化器,保持预训练模型的特征提取层的参数不变,进行训练,使得第一训练模型输出的维度对应故障点的类别数目。其中训练设置如下:总体迭代步数设置为60,学习率固定为0.1。为防止过拟合,采用了weightdecay(权值衰减)正则化处理,其中动量项设为0.9,权重衰减系数为0.0005。
可选的,采用CNN模型作为目标检测模型的基本结构,结合特征金字塔FPN(Feature Pyramid Network)实现预训练模型中浅层(高维)卷积层与深层(低维)卷积层之间的跨层链接,将浅层卷积层中的特征与深层卷积层中的特征进行拼接,确保深层卷积层中的特征能够包含不同灯光源的语义信息。图4示出了本申请实施例涉及的目标检测模型的特征金字塔实现原理图,其中,Conv1~Conv5为各个卷积层,FC为全连接层,Softmax是用于计算各个类别预测值的函数,该预测值表示各个类别(即各个灯光源)对应的故障概率。
步骤304,通过样本大楼图像数据对该第一训练模型进行全局训练,获得目标检测模型。
该目标检测模型用于对目标大楼图像数据进行处理,得到故障点位置。
可选的,通过第一训练模型对该样本大楼图像数据进行处理,得到第二损失函数。
进一步的,根据该第二损失函数,对第一训练模型进行训练,得到全局训练后的目标检测模型。
示例性的,该全局训练的设置如下:输入图像大小为224×224,采用的增广方法有随机裁剪,并修改图像倾斜角度。网络总体迭代步数设置为200,初始学习率固定为0.1,并在第100轮次与第150轮次调整为0.01和0.001。在weight decay(权值衰减)正则化处理中,动量项设为0.9,权重衰减系数为0.0005。在训练完成后保存模型参数。
步骤305,通过目标检测模型,对目标大楼图像数据进行处理,得到故障点位置。
在获取到目标检测模型后,即可将该目标检测模型应用于实际场景中。首先,获取目标大楼图像数据。该目标大楼图像数据即是用户想要通过目标检测模型从中识别出大楼故障点位置的图像数据。
进一步的,通过目标检测模型对该目标大楼图像数据进行处理,得到识别结果。
进一步的,通过位置映射函数对该识别结果进行位置映射,得到故障点位置。
可选的,以目标检测模型的预测类别信息为基准,将识别结果映射至对应楼层的具体位置。对于一个矩形大楼,假定大楼层数为m,包含n个灯光源,则该大楼的灯光源构成了m×n的矩阵,可通过以下公式进行位置映射:
其中,Location(,j)为故障点坐标,i为故障点预测结果k所对应的楼层,j为楼层i中对应的灯光源编号。
可选的,由于目标大楼图像数据中可能包含多个故障点,因此可将目标检测模型的多个预测值(识别结果)分别进行位置映射。例如,可以将目标检测模型输出预测值大于0.5的类别作为故障点集合,并将该故障点集合进行位置映射,来获取初步的故障点位置情况。
示例性的,将目标检测模型的步幅设置为2,通过测试数据集分别对该目标检测模型以及传统模型进行鲁棒性评估,以验证该目标检测模型具有良好的性能指标。
首先获取评估数据集,采用步骤301中构造的测试数据集。采用消融性试验的方式,分别从网络结构和训练方式两个角度进行评估,表1示出了目标检测模型与传统模型所对应的性能指标:
表1:目标检测模型与传统模型的性能指标。
可以看出,在训练方式上,预训练模式的确能够显著提高模型的识别能力。在模型结构方面,通过调节卷积核步幅来实现特征降维效果更利于捕捉更精细的目标特征,进而使模型获得更好的分类性能。最后,模型所采用的特征金字塔技术可以结合不同粒度的深浅层次信息,进一步增强了网络的识别能力。
综上所述,在本申请中先获取样本大楼图像数据;样本大楼图像数据包括大楼表面的灯幕;样本大楼图像数据还包括样本标注,样本标注用于标注灯幕中的故障点位置;再获取预训练模型;预训练模型是通过预训练数据集训练后得到的模型;预训练模型包括特征提取层以及分类层;再保持预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对预训练模型的分类层进行训练,获得第一训练模型;最后通过样本大楼图像数据对第一训练模型进行全局训练,获得目标检测模型;目标检测模型用于对目标大楼图像数据进行处理,得到故障点位置。上述方案,通过先对预训练模型的分类层进行训练获得第一训练模型,再对第一训练模型进行全局训练获得目标检测模型,从而提高了目标检测模型的光源故障点识别准确度。
图5是根据一示例性实施例示出的一种光源故障点识别装置的结构方框图。该光源故障点识别装置包括:
数据获取模块501,用于获取样本大楼图像数据;该样本大楼图像数据包括大楼表面的灯幕;该样本大楼图像数据还包括样本标注,该样本标注用于标注该灯幕中的故障点位置;
预训练模型获取模块502,用于获取预训练模型;该预训练模型是通过预训练数据集训练后得到的模型;该预训练模型包括特征提取层以及分类层;
第一训练模块503,用于保持该预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对该预训练模型的分类层进行训练,获得第一训练模型;
第二训练模块504,用于通过样本大楼图像数据对该第一训练模型进行全局训练,获得目标检测模型;该目标检测模型用于对目标大楼图像数据进行处理,得到故障点位置。
在一种可能的实现方式中,该保持该预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对该预训练模型的分类层进行训练,获得第一训练模型包括:
通过预训练模型的特征提取层对该样本大楼图像数据进行特征提取,得到至少两层中间特征图;
对最终层的中间特征图进行上采样;
将上采样后的最终层的中间特征图与其中一层中间特征图进行特征拼接,得到目标特征图;
通过目标检测模型的全连接层对该目标特征图进行拟合,并将拟合后的目标特征图归一化,得到识别结果;
根据该识别结果以及该样本标注,得到第一损失函数;
保持该预训练模型的特征提取层的参数不变,根据该第一损失函数对预训练模型的分类层进行反向传播更新,获得第一训练模型。
在一种可能的实现方式中,通过样本大楼图像数据对该第一训练模型进行全局训练,获得目标检测模型,包括:
通过第一训练模型对该样本大楼图像数据进行处理,得到第二损失函数;
根据该第二损失函数,对第一训练模型进行训练,得到全局训练后的目标检测模型。
在一种可能的实现方式中,该中间特征图包括第一层中间特征图、第二层中间特征图、第三层中间特征图、第四层中间特征图以及第五层中间特征图;
该将上采样后的最终层的中间特征图与其中一层中间特征图进行特征拼接,得到目标特征图,包括:
将第四层中间特征图与上采样后的第五层中间特征图进行特征拼贴,得到目标特征图。
在一种可能的实现方式中,该特征提取层中包括至少两组依次连接的卷积层、池化层以及激活函数;
该卷积层采用跨步幅方式进行卷积核平移。
在一种可能的实现方式中,该激活函数为交叉熵损失函数,可以根据以下公式求取该激活函数L2 CE:
其中,yi为样本大楼图像数据中第i个样本中的故障点所对应的实际标签值,为第i个样本中的故障点通过目标检测模型处理后的预测标签值,m为样本数。
在一种可能的实现方式中,该方法还包括:
获取目标大楼图像数据;
通过目标检测模型对该目标大楼图像数据进行处理,得到识别结果;
通过位置映射函数对该识别结果进行位置映射,得到故障点位置。
综上所述,在本申请中先获取样本大楼图像数据;样本大楼图像数据包括大楼表面的灯幕;样本大楼图像数据还包括样本标注,样本标注用于标注灯幕中的故障点位置;再获取预训练模型;预训练模型是通过预训练数据集训练后得到的模型;预训练模型包括特征提取层以及分类层;再保持预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对预训练模型的分类层进行训练,获得第一训练模型;最后通过样本大楼图像数据对第一训练模型进行全局训练,获得目标检测模型;目标检测模型用于对目标大楼图像数据进行处理,得到故障点位置。上述方案,通过先对预训练模型的分类层进行训练获得第一训练模型,再对第一训练模型进行全局训练获得目标检测模型,从而提高了目标检测模型的光源故障点识别准确度。
图6示出了本申请一示例性实施例示出的计算机设备600的结构框图。该计算机设备可以实现为本申请上述方案中的服务器。所述计算机设备600包括中央处理单元(Central Processing Unit,CPU)601、包括随机存取存储器(Random Access Memory,RAM)602和只读存储器(Read-Only Memory,ROM)603的系统存储器604,以及连接系统存储器604和中央处理单元601的系统总线605。所述计算机设备600还包括用于存储操作系统609、应用程序610和其他程序模块611的大容量存储设备606。
所述大容量存储设备606通过连接到系统总线605的大容量存储控制器(未示出)连接到中央处理单元601。所述大容量存储设备606及其相关联的计算机可读介质为计算机设备600提供非易失性存储。也就是说,所述大容量存储设备606可以包括诸如硬盘或者只读光盘(Compact Disc Read-Only Memory,CD-ROM)驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、可擦除可编程只读寄存器(Erasable Programmable Read Only Memory,EPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-OnlyMemory,EEPROM)闪存或其他固态存储其技术,CD-ROM、数字多功能光盘(DigitalVersatile Disc,DVD)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器604和大容量存储设备606可以统称为存储器。
根据本公开的各种实施例,所述计算机设备600还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即计算机设备600可以通过连接在所述系统总线605上的网络接口单元607连接到网络608,或者说,也可以使用网络接口单元607来连接到其他类型的网络或远程计算机系统(未示出)。
所述存储器还包括至少一条计算机程序,所述至少一条计算机程序存储于存储器中,中央处理单元601通过执行该至少一条计算机程序来实现上述各个实施例所示的方法中的全部或部分步骤。
在一示例性实施例中,还提供了一种计算机可读存储介质,用于存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行以实现上述方法中的全部或部分步骤。例如,该计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
在一示例性实施例中,还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述图2或图3任一实施例所示方法的全部或部分步骤。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (10)
1.一种光源故障点识别方法,其特征在于,所述方法包括:
获取样本大楼图像数据;所述样本大楼图像数据包括大楼表面的灯幕;所述样本大楼图像数据还包括样本标注,所述样本标注用于标注所述灯幕中的故障点位置;
获取预训练模型;所述预训练模型是通过预训练数据集训练后得到的模型;所述预训练模型包括特征提取层以及分类层;
保持所述预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对所述预训练模型的分类层进行训练,获得第一训练模型;
通过样本大楼图像数据对所述第一训练模型进行全局训练,获得目标检测模型;所述目标检测模型用于对目标大楼图像数据进行处理,得到故障点位置。
2.根据权利要求1所述的方法,其特征在于,所述保持所述预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对所述预训练模型的分类层进行训练,获得第一训练模型包括:
通过预训练模型的特征提取层对所述样本大楼图像数据进行特征提取,得到至少两层中间特征图;
对最终层的中间特征图进行上采样;
将上采样后的最终层的中间特征图与其中一层中间特征图进行特征拼接,得到目标特征图;
通过目标检测模型的全连接层对所述目标特征图进行拟合,并将拟合后的目标特征图归一化,得到识别结果;
根据所述识别结果以及所述样本标注,得到第一损失函数;
保持所述预训练模型的特征提取层的参数不变,根据所述第一损失函数对预训练模型的分类层进行反向传播更新,获得第一训练模型。
3.根据权利要求2所述的方法,其特征在于,通过样本大楼图像数据对所述第一训练模型进行全局训练,获得目标检测模型,包括:
通过第一训练模型对所述样本大楼图像数据进行处理,得到第二损失函数;
根据所述第二损失函数,对第一训练模型进行训练,得到全局训练后的目标检测模型。
4.根据权利要求3所述的方法,其特征在于,所述中间特征图包括第一层中间特征图、第二层中间特征图、第三层中间特征图、第四层中间特征图以及第五层中间特征图;
所述将上采样后的最终层的中间特征图与其中一层中间特征图进行特征拼接,得到目标特征图,包括:
将第四层中间特征图与上采样后的第五层中间特征图进行特征拼贴,得到目标特征图。
5.根据权利要求3所述的方法,其特征在于,所述特征提取层中包括至少两组依次连接的卷积层、池化层以及激活函数;
所述卷积层采用跨步幅方式进行卷积核平移。
6.根据权利要求5所述的方法,其特征在于,所述激活函数为交叉熵损失函数,可以根据以下公式求取激活函数L2 CE:
其中,yi为样本大楼图像数据中第i个样本中的故障点所对应的实际标签值,为第i个样本中的故障点通过目标检测模型处理后的预测标签值,m为样本数。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取目标大楼图像数据;
通过目标检测模型对所述目标大楼图像数据进行处理,得到识别结果;
通过位置映射函数对所述识别结果进行位置映射,得到故障点位置。
8.一种光源故障点识别装置,其特征在于,所述装置包括:
数据获取模块,用于获取样本大楼图像数据;所述样本大楼图像数据包括大楼表面的灯幕;所述样本大楼图像数据还包括样本标注,所述样本标注用于标注所述灯幕中的故障点位置;
预训练模型获取模块,用于获取预训练模型;所述预训练模型是通过预训练数据集训练后得到的模型;所述预训练模型包括特征提取层以及分类层;
第一训练模块,用于保持所述预训练模型的特征提取层的参数不变,并通过样本大楼图像数据对所述预训练模型的分类层进行训练,获得第一训练模型;
第二训练模块,用于通过样本大楼图像数据对所述第一训练模型进行全局训练,获得目标检测模型;所述目标检测模型用于对目标大楼图像数据进行处理,得到故障点位置。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现如权利要求1至7任一所述的光源故障点识别方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如权利要求1至7任一所述的光源故障点识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310670733.5A CN116682013A (zh) | 2023-06-07 | 2023-06-07 | 一种光源故障点识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310670733.5A CN116682013A (zh) | 2023-06-07 | 2023-06-07 | 一种光源故障点识别方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116682013A true CN116682013A (zh) | 2023-09-01 |
Family
ID=87788628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310670733.5A Pending CN116682013A (zh) | 2023-06-07 | 2023-06-07 | 一种光源故障点识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116682013A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109727293A (zh) * | 2018-12-31 | 2019-05-07 | 广东博媒广告传播有限公司 | 一种户外媒体灯光自动识别系统 |
CN110689083A (zh) * | 2019-09-30 | 2020-01-14 | 苏州大学 | 一种上下文金字塔融合网络及图像分割方法 |
CN111985455A (zh) * | 2020-09-08 | 2020-11-24 | 国网江西省电力有限公司电力科学研究院 | 一种光伏组件可见光故障模型的训练和识别方法及装置 |
CN112883770A (zh) * | 2020-04-20 | 2021-06-01 | 深圳裕策生物科技有限公司 | 一种基于深度学习的pd-1/pd-l1病理图片识别方法和装置 |
CN114331950A (zh) * | 2021-09-30 | 2022-04-12 | 西安电子科技大学 | 基于稠密连接稀疏激活网络的sar图像舰船检测方法 |
US20220122243A1 (en) * | 2018-02-19 | 2022-04-21 | Blancco Technology Group IP Oy | System and method for detection of mobile device fault conditions |
-
2023
- 2023-06-07 CN CN202310670733.5A patent/CN116682013A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220122243A1 (en) * | 2018-02-19 | 2022-04-21 | Blancco Technology Group IP Oy | System and method for detection of mobile device fault conditions |
CN109727293A (zh) * | 2018-12-31 | 2019-05-07 | 广东博媒广告传播有限公司 | 一种户外媒体灯光自动识别系统 |
CN110689083A (zh) * | 2019-09-30 | 2020-01-14 | 苏州大学 | 一种上下文金字塔融合网络及图像分割方法 |
CN112883770A (zh) * | 2020-04-20 | 2021-06-01 | 深圳裕策生物科技有限公司 | 一种基于深度学习的pd-1/pd-l1病理图片识别方法和装置 |
CN111985455A (zh) * | 2020-09-08 | 2020-11-24 | 国网江西省电力有限公司电力科学研究院 | 一种光伏组件可见光故障模型的训练和识别方法及装置 |
CN114331950A (zh) * | 2021-09-30 | 2022-04-12 | 西安电子科技大学 | 基于稠密连接稀疏激活网络的sar图像舰船检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110059694B (zh) | 电力行业复杂场景下的文字数据的智能识别方法 | |
Ma et al. | A real-time crack detection algorithm for pavement based on CNN with multiple feature layers | |
US11797725B2 (en) | Intelligent imagery | |
CN108369651B (zh) | 一种提取天空区域的方法、系统及非暂时性计算机可读存储介质 | |
CN104217404A (zh) | 雾霾天视频图像清晰化处理方法及其装置 | |
CN111369581A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN109389569B (zh) | 基于改进DehazeNet的监控视频实时去雾方法 | |
DE102012218390A1 (de) | Optimierung der Erkennung von Objekten in Bildern | |
CN104504744B (zh) | 一种合成车牌图像的拟真方法及装置 | |
CN111062903A (zh) | 图像水印的自动处理方法、系统、电子设备及存储介质 | |
CN112966665A (zh) | 路面病害检测模型训练方法、装置和计算机设备 | |
CN114519819B (zh) | 一种基于全局上下文感知的遥感图像目标检测方法 | |
CN110992366A (zh) | 一种图像语义分割方法、装置及存储介质 | |
CN115294483A (zh) | 输电线路复杂场景的小目标识别方法及系统 | |
CN113628180A (zh) | 一种基于语义分割网络的遥感建筑物检测方法及系统 | |
CN114758249A (zh) | 基于野外夜间环境的目标物监测方法、装置、设备及介质 | |
CN116188402A (zh) | 一种基于改进ssd算法的绝缘子缺陷识别方法 | |
CN118279596B (zh) | 一种水下鱼类阳光折射图像去噪方法及系统 | |
CN113963314A (zh) | 降雨量监测方法、装置、计算机设备及存储介质 | |
CN117455762A (zh) | 基于全景行车记录仪的记录画面分辨率提升方法及系统 | |
CN116258756B (zh) | 一种自监督单目深度估计方法及系统 | |
Ding et al. | Sparse codes fusion for context enhancement of night video surveillance | |
CN116682013A (zh) | 一种光源故障点识别方法、装置、设备及存储介质 | |
CN114596003B (zh) | 植物景观视觉舒适性的分析方法和装置 | |
CN110135274A (zh) | 一种基于人脸识别的人流量统计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |