CN115035364A - 一种基于深度神经网络的指针仪表读数方法 - Google Patents

一种基于深度神经网络的指针仪表读数方法 Download PDF

Info

Publication number
CN115035364A
CN115035364A CN202210651444.6A CN202210651444A CN115035364A CN 115035364 A CN115035364 A CN 115035364A CN 202210651444 A CN202210651444 A CN 202210651444A CN 115035364 A CN115035364 A CN 115035364A
Authority
CN
China
Prior art keywords
pointer
image
key point
dial
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210651444.6A
Other languages
English (en)
Inventor
王龙
周超
景文林
姜浏
樊玉平
李雅芹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Nanzi Information Technology Co ltd
Original Assignee
Nanjing Nanzi Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Nanzi Information Technology Co ltd filed Critical Nanjing Nanzi Information Technology Co ltd
Priority to CN202210651444.6A priority Critical patent/CN115035364A/zh
Publication of CN115035364A publication Critical patent/CN115035364A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于指针仪表读数应用技术领域,具体公开了一种基于深度神经网络的指针仪表读数方法,包括以下步骤,S1、构建包含表盘和指针两种类别的指针仪表目标检测数据集;S2、构建表盘刻度关键点数据集和指针关键点数据集;S3、用训练好的目标检测算法分析摄像头采集图像;S4、用训练好的表盘刻度关键点预测算法和指针关键点预测算法;S5、通过关键点坐标计算仪表读数;S6、将读数结果存储并发送到监控中心。本发明的有益效果在于:1、具有使用范围广、安装简单、有图有真相、易于使用等特点;2、指针仪表的读数精准度高,同时能实时存储并传输发送至的监控中心,实现指针仪表的读数调阅、复查审核及实现远端智能管控。

Description

一种基于深度神经网络的指针仪表读数方法
技术领域
本发明属于指针仪表自动读数、模式识别、计算机视觉和人工智能应用技术领域,具体涉及一种基于深度神经网络的指针仪表读数方法。
背景技术
电力行业由于电磁环境复杂,数字芯片类智能设备容易受到干扰而无法正常工作,故依然大规模使用传统的指针仪表。
因为针对指针仪表的读数多依靠人工巡检,巡检效率不高,智能化、自动化程度不高,巡检强度过大,所以一种指针仪表自动读数方法意义重大。
因此,基于上述问题,本发明提供一种基于深度神经网络的指针仪表读数方法。
发明内容
发明目的:本发明的目的是提供一种基于深度神经网络的指针仪表读数方法,解决背景技术中所存在的技术问题,如目前同类型方法读数不准的问题,以实现指针式仪表自动精准的读数。
技术方案:本发明提供的一种基于深度神经网络的指针仪表读数方法,包括以下步骤,S1、构建包含表盘和指针两种类别的指针仪表目标检测数据集,并训练目标检测算法。S2、构建表盘刻度关键点数据集和指针关键点数据集,并分别训练相应关键点预测算法。S3、用训练好的目标检测算法分析摄像头采集图像,得到表盘检测框和指针检测框。S4、用训练好的表盘刻度关键点预测算法和指针关键点预测算法,分别分析表盘检测框图像和指针检测框图像,得到表盘刻度关键点和指针关键点。S5、通过关键点坐标计算仪表读数。S6、将读数结果存储并发送到监控中心。
本技术方案的,所述的步骤S1包括:采集指针仪表的图像数据,并分别标注出表盘和指针两类检测框;按照一定比例随机划分训练集和测试集,对数据集检测框进行聚类分析,得到更有针对性检测参考框的尺寸和长宽比例;将多张输入图像按照一定权重合并成一张图像,使用这种合成图像进行训练;将输入图像上的随机矩形区域的像素值置为随机值,来模拟物体遮挡情况;将图像输入算法网络,利用反向传播算法迭代更新参数数值,完成检测算法训练。
本技术方案的,所述的步骤S2包括:采集指针仪表的图像数据,并分别标注出表盘刻度和指针的关键点;在线数据增强,对关键点图像施加随机镜像翻转、随机对比度、随机噪声;将多张输入图像按照一定权重合并成一张图像,使用这种合成图像进行训练;关键点预测学习采用最小二乘loss函数;针对难以识别的指针尖端点,对这部分loss施加额外惩罚参数,以加大对难以识别样本的惩罚力度,提升算法对其识别能力;将图像输入算法网络,利用反向传播算法迭代更新参数数值,完成检测算法训练;反向传播迭代开始时采用warm up的学习率策略,以避免网络权重在初始时大幅震荡。
本技术方案的,所述的步骤S3包括:使用Boosting方法,用训练所得的多个不同epoch的高精度权重,检测同一帧仪表图像,得到多个检测框,再对这些检测框一起进行NMS非极大值抑制,得到最终检测结果。
本技术方案的,所述的步骤S4包括:根据表盘和指针检测结果,将对应区域分别从整张图像中裁剪出来;在裁剪图像块上,分别预测表盘刻度关键点和指针关键点。
本技术方案的,所述的步骤S5包括:①从预测出的表盘刻度关键点中选取4个点,利用其预测位置和真实位置,解算透视变换矩阵T,并通过该矩阵对表盘图像块施加透视变换,以将倾斜的表盘变换为正面视角;②任意选取一对表盘刻度关键点Pi和Pj,其对应刻度分别为Ni和Nj,得到角度θ1;③根据指针尖端关键点Px和Pi,计算指针角度θ2;④由同比例关系,获得仪表读数,角度法公式为:
Figure BDA0003686286180000021
⑤表盘刻度关键点总数为C时,两两组合,不同的组合总数如下:
Figure BDA0003686286180000022
⑥将步骤②-⑤重复H次,并求取平均数,故仪表读数最终结果公式表达如下:
Figure BDA0003686286180000023
同时将指针读数结果发送到监控中心。
与现有技术相比,本发明的一种
基于深度神经网络的指针仪表读数方法的有益效果在于:1、通过终端设备(如实时监控相机)对指针仪表拍照后利用图像识别算法将仪表照片自动识别为读数的智能抄表方案,具有使用范围广、安装简单、有图有真相、易于使用等特点;2、指针仪表的读数精准度高,同时能实时存储并传输发送至的监控中心,实时存储的指针仪表读数便于监控中心实现指针仪表的读数调阅、复查审核,实时传输可实现远端智能管控。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一种基于深度神经网络的指针仪表读数方法的流程示意图;
图2是指针仪表表盘和指针目标检测的示意图;
图3是指针仪表表盘刻度关键点预测的示意图;
图4是指针仪表指针关键点预测的示意图;
图5是指针仪表图像透视变换倾斜矫正的示意图;
图6是通过关键点坐标计算指针仪表示数得示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“顶部”、“底部”、“一侧”、“另一侧”、“前面”、“后面”、“中间部位”、“内部”、“顶端”、“底端”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制;术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性;此外,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
实施例
图1是一种基于深度神经网络的指针仪表读数方法的流程示意图,该方法具体包括如下步骤:
1、构建包含表盘和指针两种类别的指针仪表目标检测数据集。包括:采集指针仪表的图像数据,并手工标注出两类检测框;按照8:2比例随机划分训练集和测试集。
其中,采集图像的方式,包括但不限于现场移动设备拍摄、监控录像、互联网爬取等。
2、用此数据集训练目标检测算法。包括:对数据集检测框进行聚类分析,得到更有针对性检测参考框的尺寸和长宽比例;将多张输入图像按照一定权重合并成一张图像,使用这种合成图像进行训练;将输入图像上的随机矩形区域的像素值置为随机置,来模拟物体遮挡情况;将图像输入算法网络,利用反向传播算法迭代更新参数数值,完成检测算法训练。
其中,参考框又叫锚框,是目标检测算法中以锚点为中心,由算法预定义的多个不同长宽比的先验框。能够解决传统目标检测算法中一个窗口只能检测一个目标和多尺度不敏感问题。
其中,算法训练时将多张输入图像按照一定权重合并成一张图像、将输入图像上的随机矩形区域的像素值置为随机置,以提高训练样本的多样性和复杂度,提高算法的鲁棒性。
其中,训练算法使用的深度学习框架包括但不限于pytorch、tensorflow、caffe、darknet等。
其中,所使用的目标检测算法包括但不限于yolo v1、yolo v2、yolo v3、yolo v4、yolo v5、rcnn、fast rcnn、faster rcnn、mask rcnn等。
其中,网络反向传播时使用的优化器包括但不限于SGD、Momentum、RMSprop、Adam等。
3、构建表盘刻度关键点数据集和指针关键点数据集,并分别训练相应关键点预测算法。包括:采集指针仪表的图像数据,并手工标注出指针和各刻度关键点;在线数据增强,对关键点图像施加随机镜像翻转、随机对比度、随机噪声等;将多张输入图像按照一定权重合并成一张图像,使用这种合成图像进行训练;关键点预测学习采用最小二乘loss函数;针对更加难以识别的指针尖端点,对这部分loss施加额外惩罚参数,以加大对难以识别样本的惩罚力度,提升算法对其识别能力;反向传播迭代开始时采用warm up的学习率策略,以避免网络权重在初始时大幅震荡;将图像输入算法网络,利用反向传播算法迭代更新参数数值,完成检测算法训练。
其中,惩罚loss,是为了解决类别不平衡问题。具体到此仪表仪表关键点预测问题,不同关键点学习难度不同,对更难学习的点施加更大的学习loss,有助于提高算法学习效果;
其中,在线数据增强目的是高效合成和扩充算法训练集,包括但不限于镜像翻转、随机对比度、随机噪声、仿射变换、透视变换、随机裁剪、随机旋转、随机亮度、随机饱和度、随机对比度等;
其中,warm up的学习率策略,又叫训练热身,目的是在训练一开始以较低学习率并逐渐增大的方式实现网络训练的“热身”,可以防止算法优化陷入局部最优,保证网络能够具有良好的收敛性。
4、如图2所示,用训练好的目标检测算法分析摄像头采集图像,得到表盘检测框和指针检测框。包括:使用Boosting方法,用训练所得的多个不同epoch的高精度权重,检测同一帧仪表图像,得到多个检测框,再对这些检测框一起进行NMS非极大值抑制,得到最终检测结果。
其中,Boosting方法是一种可以用来减小监督学习中偏差的机器学习算法。主要是学习一系列弱分类器,并将其组合为一个强分类器。此处所有Boosting方法包括但不限于AdaBoost、RankBoost、Gradient Boosting等。
如图3、图4所示,用训练好的表盘刻度关键点预测算法和指针关键点预测算法,分别分析表盘检测框图像和指针检测框图像,得到表盘刻度关键点和指针关键点。包括:根据检测结果将
指针仪表区域从整张图像中裁剪出来;在裁剪图像块上,分别预测表盘刻度关键点和指针关键点。
6、从预测出的表盘刻度关键点中选取4个点,由其预测位置和真实位置(先验知识)解算透视变换矩阵T,并通过该矩阵对表盘图像块施加透视变换,以将倾斜的表盘矫正为正面视角。矫正后仪表图像如图5所示。
其中,透视变换的本质是为了将图像投影到一个新的视平面,以解决仪表表盘倾斜所导致的角度计算不准问题,公式如下:
Figure BDA0003686286180000061
Figure BDA0003686286180000062
其中,
Figure BDA0003686286180000063
表示图像线性变换;
其中,T2=[a13 a23]T用于产生图像透视变换;
其中,T3=[a31 a32]表示图像平移。
5、如图6所示,使用角度法,通过关键点坐标计算仪表读数。包括:
①任意选取一对表盘刻度关键点Pi和Pj(其中Pi更靠近刻度起点),其对应刻度分别为Ni和Nj,得到角度θ1
②根据指针尖端关键点Px和Pi,计算指针角度θ2
③由同比例关系,获得仪表读数,角度法公式为:
Figure BDA0003686286180000064
④表盘刻度关键点总数为C时,两两组合,不同的组合总数如下:
Figure BDA0003686286180000065
⑤将步骤①-④重复H次,并求取平均数,故指针仪表读数最终结果公式表达如下:
Figure BDA0003686286180000071
同时将指针读数结果发送到监控中心。
其中,目前的同类型算法通常只使用表盘刻度起点、终点和指针尖端点来计算读数,误差较大。
本发明的基于深度神经网络的指针仪表读数方法(相对于目前的同类型算法),同时利用了所有刻度关键点信息来计算最终读数,可以最大程度减小读数误差。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。

Claims (6)

1.一种基于深度神经网络的指针仪表读数方法,其特征在于:包括以下步骤,
S1、构建包含表盘和指针两种类别的指针仪表目标检测数据集,并训练目标检测算法;
S2、构建表盘刻度关键点数据集和指针关键点数据集,并分别训练相应关键点预测算法;
S3、用训练好的目标检测算法分析摄像头采集图像,得到表盘检测框和指针检测框;
S4、用训练好的表盘刻度关键点预测算法和指针关键点预测算法,分别分析表盘检测框图像和指针检测框图像,得到表盘刻度关键点和指针关键点;
S5、通过关键点坐标计算仪表读数;
S6、将读数结果存储并发送到监控中心。
2.根据权利要求1所述的一种基于深度神经网络的指针仪表读数方法,其特征在于:所述的步骤S1包括:
采集指针仪表的图像数据,并分别标注出表盘和指针两类检测框;
按照一定比例随机划分训练集和测试集,对数据集检测框进行聚类分析,得到更有针对性检测参考框的尺寸和长宽比例;
将多张输入图像按照一定权重合并成一张图像,使用这种合成图像进行训练;
将输入图像上的随机矩形区域的像素值置为随机值,来模拟物体遮挡情况;
将图像输入算法网络,利用反向传播算法迭代更新参数数值,完成检测算法训练。
3.根据权利要求1所述的一种基于深度神经网络的指针仪表读数方法,其特征在于:所述的步骤S2包括:
采集指针仪表的图像数据,并分别标注出表盘刻度和指针的关键点;
在线数据增强,对关键点图像施加随机镜像翻转、随机对比度、随机噪声;
将多张输入图像按照一定权重合并成一张图像,使用这种合成图像进行训练;
关键点预测学习采用最小二乘loss函数;
针对难以识别的指针尖端点,对这部分loss施加额外惩罚参数,以加大对难以识别样本的惩罚力度,提升算法对其识别能力;
将图像输入算法网络,利用反向传播算法迭代更新参数数值,完成检测算法训练;
反向传播迭代开始时采用warm up的学习率策略,以避免网络权重在初始时大幅震荡。
4.根据权利要求1所述的一种基于深度神经网络的指针仪表读数方法,其特征在于:所述的步骤S3包括:使用Boosting方法,用训练所得的多个不同epoch的高精度权重,检测同一帧仪表图像,得到多个检测框,再对这些检测框一起进行NMS非极大值抑制,得到最终检测结果。
5.根据权利要求1所述的一种基于深度神经网络的指针仪表读数方法,其特征在于:所述的步骤S4包括:
根据表盘和指针检测结果,将对应区域分别从整张图像中裁剪出来;
在裁剪图像块上,分别预测表盘刻度关键点和指针关键点。
6.根根据权利要求1所述的一种基于深度神经网络的指针仪表读数方法,其特征在于:所述的步骤S5包括:
①从预测出的表盘刻度关键点中选取4个点,利用其预测位置和真实位置,解算透视变换矩阵T,并通过该矩阵对表盘图像块施加透视变换,以将倾斜的表盘变换为正面视角;
②任意选取一对表盘刻度关键点Pi和Pj,其对应刻度分别为Ni和Nj,得到角度θ1
③根据指针尖端关键点Px和Pi,计算指针角度θ2
④由同比例关系,获得仪表读数,角度法公式为:
Figure FDA0003686286170000021
⑤表盘刻度关键点总数为C时,两两组合,不同的组合总数如下:
Figure FDA0003686286170000031
⑥将步骤②-⑤重复H次,并求取平均数,故仪表读数最终结果公式表达如下:
Figure FDA0003686286170000032
同时将指针读数结果发送到监控中心。
CN202210651444.6A 2022-06-09 2022-06-09 一种基于深度神经网络的指针仪表读数方法 Pending CN115035364A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210651444.6A CN115035364A (zh) 2022-06-09 2022-06-09 一种基于深度神经网络的指针仪表读数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210651444.6A CN115035364A (zh) 2022-06-09 2022-06-09 一种基于深度神经网络的指针仪表读数方法

Publications (1)

Publication Number Publication Date
CN115035364A true CN115035364A (zh) 2022-09-09

Family

ID=83123687

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210651444.6A Pending CN115035364A (zh) 2022-06-09 2022-06-09 一种基于深度神经网络的指针仪表读数方法

Country Status (1)

Country Link
CN (1) CN115035364A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115457136A (zh) * 2022-11-09 2022-12-09 杭州远鉴信息科技有限公司 基于边缘计算的gis仪表六氟化硫数据监测方法及系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115457136A (zh) * 2022-11-09 2022-12-09 杭州远鉴信息科技有限公司 基于边缘计算的gis仪表六氟化硫数据监测方法及系统
CN115457136B (zh) * 2022-11-09 2023-03-03 杭州远鉴信息科技有限公司 基于边缘计算的gis仪表六氟化硫数据监测方法及系统
US11790516B1 (en) 2022-11-09 2023-10-17 Hangzhou Yuanjian Information Technology Co., Ltd Method and system for monitoring GIS instrument sulfur hexafluoride data based on edge computing

Similar Documents

Publication Publication Date Title
CN110059694B (zh) 电力行业复杂场景下的文字数据的智能识别方法
CN109214470B (zh) 一种基于编码网络微调的图像能见度检测方法
CN108875794B (zh) 一种基于迁移学习的图像能见度检测方法
CN105279772B (zh) 一种红外序列图像的可跟踪性判别方法
CN109190446A (zh) 基于三元组聚焦损失函数的行人再识别方法
CN113435282B (zh) 基于深度学习的无人机影像麦穗识别方法
CN111931565A (zh) 一种基于光伏电站uav的自主巡检与热斑识别方法及系统
CN112697814B (zh) 一种基于机器视觉的线缆表面缺陷检测系统及方法
CN111340771B (zh) 一种融合视觉信息丰富度和宽深度联合学习的细颗粒物实时监测方法
CN111900694B (zh) 一种基于自动识别的继电保护设备信息采集方法及系统
CN113869162A (zh) 一种基于人工智能的违章识别方法及系统
WO2020093631A1 (zh) 一种基于深度实例分割网络的天线下倾角测量方法
CN114845260B (zh) 一种基于物联网的水文监测数据采集系统
CN115035364A (zh) 一种基于深度神经网络的指针仪表读数方法
CN113362279A (zh) 一种免疫层析试纸浓度智能检测方法
CN111862040A (zh) 人像图片质量评价方法、装置、设备及存储介质
CN117237925B (zh) 一种基于计算机视觉的智慧道路病害巡检方法及系统
CN108257117B (zh) 图像曝光度的评测方法及装置
CN111476314B (zh) 一种融合光流算法与深度学习的模糊视频检测方法
CN117451012A (zh) 一种无人机航摄测量方法及系统
CN109658405B (zh) 一种农作物实景观测中图像数据质量控制方法及系统
CN114913086B (zh) 基于生成对抗网络的人脸图像质量增强方法
CN117011759A (zh) 钻爆法隧道掌子面围岩多元地质信息解析方法及系统
CN114677670B (zh) 一种身份证篡改自动识别与定位的方法
CN115620259A (zh) 一种基于交通非现场执法场景下的车道线检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination