CN111368906B - 一种基于深度学习的指针式油位计读数识别方法 - Google Patents
一种基于深度学习的指针式油位计读数识别方法 Download PDFInfo
- Publication number
- CN111368906B CN111368906B CN202010134985.2A CN202010134985A CN111368906B CN 111368906 B CN111368906 B CN 111368906B CN 202010134985 A CN202010134985 A CN 202010134985A CN 111368906 B CN111368906 B CN 111368906B
- Authority
- CN
- China
- Prior art keywords
- pointer
- oil level
- center
- level gauge
- scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/02—Recognising information on displays, dials, clocks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于深度学习的指针式油位计读数识别方法,包括:采集油位计仪表图像,构建训练所需的数据集并训练YOLOv3模型;利用YOLOv3模型识别待计算示数的指针式油位计图像;拟合表盘上的刻度数字Bounding Box中心点所在椭圆并求得圆心;连接圆心与Bounding Box中心点,确定该方向上待检测刻度的区域;在所有分割出的矩形检测区域内进行角点检测,求出每个刻度靠近圆心的边长的中点并拟合新的圆心;将待识别指针式油位计图像进行预处理后进行直线检测,求出指针方程及新的圆心在直线方程上的投影点;最终计算读数。本发明提出的基于深度学习的指针式油位计读数识别方法,能在不提前添加任何表盘信息且拍摄角度倾斜极端的情况下,较大地提高油位计示数识别的精度。
Description
技术领域
本发明属于计算机图像处理和仪表示数识别领域,具体涉及一种深度学习的指针式油位计读数识别方法,
背景技术
在电网运维巡检中,以人工巡检、手动抄表、人工记录模式对变压器的油位进行检定,存在耗时耗力、自动化水平低以及误差率高等问题。随着机器人技术的快速发展,巡检机器人可代替人工,通过摄像机或红外热像仪抓取设备图像,最终对获取的图片进行图像处理。指针式油位计仪表具有抗电磁干扰能力强、精度高、价格低等特点,在相当长的时间内依然是工业生产的主要测量仪表。由于指针式仪表无法输出数字信号,所以读数只能通过人工读取,具有工作量大、效率低、出错率高的缺点,而且安装在高温高压等环境的仪表不便观察。
拍摄角度是影响指针式仪表读数的主要因素之一。目前,关于拍摄角度问题的研究普遍是在拍摄倾斜角度较小的基础上下进行的。这类问题一般要对原始图像进行预处理即旋转校正,如尺度不变特征变换算法、加速稳定特征算法等。但是,当拍摄角度倾斜过大时,仪表表盘将会形变为近似的椭圆且有一些刻度将会被表框部分遮挡,此时若使用图像校正和传统的识别方法计算读数,不但计算量大、耗时长,还会对精度产生较大的影响。因此,发明一种能准确处理计算在指针式仪表拍摄倾角较为极端下的图片方法并将其应用于工业生产中是目前亟待解决的问题。
发明内容
本发明的目的是为了解决现有技术中的缺陷,本发明提供了一种基于深度学习的指针式油位计读数识别方法,能够准确的检测出刻度数字及其代表的刻度,整个识别过程无需预先添加任何表盘信息,扩展性较强且处理拍摄角度、光照等影响时,均能取得较高的识别精度。
为解决上述技术问题,本发明采用以下步骤方案:
S1、采集油位计仪表图像,构建训练所需的数据集并训练YOLOv3模型;
S2、采用YOLOv3模型对待识别示数的指针式油位计图像进行数字目标识别得到数字识别结果,并求出识别结果中每个Bounding Box中心点坐标;
S3、利用步骤S2得到的数字识别结果,拟合表盘上的刻度数字Bounding Box中心点所在椭圆并求得圆心;
S4、连接圆心与Bounding Box的中心点,并确定该方向上待检测刻度的区域;
S5、在所有待检测刻度的区域内角点检测,求出每个刻度靠近圆心的边长的中点并拟合新的圆心;
S6、对待检测示数的油位计图像进行预处理,进行直线检测并求出指针的方程,并求出新的圆心在直线方程上的投影点;
S7、最终计算仪表读数。
进一步地,步骤S1中所述构建训练所需的数据集的具体过程为:
采集N张不同拍摄角度不同光照条件下的样本图片,对油位计图片打标签后获得后续训练YOLOv3目标检测模型所需数据集,并选择出训练集和测试集。
进一步地,YOLO v3目标检测模型所使用的特征提取网络Darknet-53大量使用3*3与1*1卷积层依次连接的形式,有53个卷积层。
进一步地,在步骤S2中,待识别指针式油位计图片在输入YOLOv3模型时,需要转化成416×416大小的尺寸图片,YOLOv3模型输出待识别指针式油位计图片中的刻度示数位置信息及其数值信息,可通过Bounding Box的位置信息出其中心点。
进一步地,步骤S3中利用opencv的fitEllipse函数对步骤2中求得的所有Bounding Box的中点进行拟合,计算出椭圆的圆心。
进一步地,步骤S4中,利用S3中得到的圆心与每个Bounding Box的中心点相连接,并在该方向上截取矩形待检测区域,这样就可以分割出所有包含刻度的待检测的矩形区域。
进一步地,步骤S5中,利用opencv的goodFeaturesToTrack函数在所有待检测刻度的区域内使用Harris角点检测,求出每个刻度靠近圆心的边长的中点并拟合新的圆心。
进一步地,步骤S5中,所述求出每个刻度靠近圆心的边长的中点并拟合新的圆心的具体流程为:
在每个待检测刻度的区域会求得刻度的4个角点,在每个待检测刻度的区域中,遍历一个刻度的所有4个角点,比较与拟合的圆心距离,取其中距离最小的两个点并求出这两个点的重点,即为一个刻度中靠近圆心的边长的中点。
进一步地,步骤S6中具体包括:
S61、将待识别示数的指针式油位计图像进行灰度化处理;
S62、利用opencv的Canny函数对油位计灰度图进行Canny边缘检测;
S63、使用opencv的HoughLinesP对边缘检测的结果进行累计概率霍夫变换直线检测,检测出两条线段,并且累计概率霍夫变换检测出的结果是一条直线上的两个点,这两条直线的交点即为指针针尖,指针的指向即为从拟合的新圆心到针尖的方向,斜率为这两条直线斜率的平均值且穿过针尖的直线是该油位计指针的直线,得到指针的直线方程;
S64、计算出得到的指针直线方程上距离新的圆心最近的点。
进一步地,步骤S7中,计算所有刻度靠近圆心的边长的中点与指针针尖的距离,得到最近的两个坐标点,记为k1与k2(k1+1=k2),通过k1和k2邻近的数字可知k1与k2的数值信息,设k1,k2与指针直线距离分别为d1,d2,拟合的新圆心(xc,yc)在指针直线y上的投影点坐标为(xt,yt),k1与k2与投影点(xt,yt)的距离分别为s1,s2,仪表读数k的计算公式如下:
与现有技术相比,本发明能够实现的有益效果是:本发明提出的基于深度学习的指针式油位计读数识别方法,能在不提前添加任何表盘信息且拍摄角度倾斜极端的情况下,先准确定位出所有包含刻度的区域并进一步筛选提取出用于后续计算的有用刻度信息,再用拟合出的仪表刻度圆心在指针直线上距离最近的点作为后续计算读数的基础,进一步的减小了拍摄角度对读数的影响,较大地提高油位计示数识别的精度。
附图说明
图1是本发明实施例提供的的一种基于深度学习的指针式油位计读数识别方法的流程图。
图2是本发明的数字识别数据集的标注过程。
图3是本发明采用的数字识别模型YOLOv3模型结构图。
图4是本发明采用的油位计读数计算的方法示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清晰明了,以下将结合附图1-4更加详细地阐述本发明。根据本发明实施的基于深度学习的指针式油位计读数识别方法如下所述,但并不局限于以下实施例。本发明的油位计识别方法,在拍摄角度倾斜较大、部分遮挡、光照条件影响等条件下依然可以计算出油位计的读数,且识别精度较高。
图1所示是本发明实施的基于深度学习的指针式油位计读数识别方法总体流程图,包括以下步骤:
步骤1:采集油位计仪表图像,对图片数据打标签,构建训练所需的数据集,并训练YOLOv3模型。
具体地,构建训练所需的数据集的具体过程为:在工业生产场景中,采集N张不同拍摄角度不同光照条件下的样本图片,对油位计图片打标签后获得后续训练YOLOv3目标检测模型所需数据集,并选择出训练集和测试集。在打标签过程中,需要标注出油位计表盘中刻度的数字位置和数字数值信息。以上的数据集打标签过程主要是通过软件labelImg软件实现的,如图2所示。
其中,YOLO v3获得bounding box预选框尺寸有3种尺寸9个聚类结果。YOLOv3目标检测模型所使用的特征提取网络Darknet-53大量使用3*3与1*1卷积层依次连接的形式,有53个卷积层。
步骤2:利用步骤1中得到的YOLOv3模型对待识别示数的指针式油位计图像进行数字目标识别得到数字识别结果,求出识别结果中每个Bounding Box中心点坐标。
具体地,图3是本发明的油位计识别过程所使用的YOLOv3目标检测模型的网络结构图,其中DBL是由darknet卷积加上批标准化和带泄露修正线性单元构成的YOLOv3的基本组件。而res1、res2等代表的是具体残差块包含了多少个残差单元。concat是张量拼接功能,在YOLOv3中队darknet中间层和后面的某一层的上采样使用张量拼接并扩充张量的维度。在工业生产中获得的待识别指针式油位计图片在输入YOLOv3模型时,需要转化成416×416大小的尺寸图片。输出待识别指针式油位计图片中的刻度示数位置信息及其数值信息。而关于位置信息,本发明需要的是Bounding Box的中心点的坐标。
步骤3:利用步骤2得到的数字识别结果,拟合表盘上的刻度数字Bounding Box中心点所在椭圆并求得圆心。
具体地,利用opencv的fitEllipse函数对步骤2中求得的所有Bounding Box的中点进行拟合,计算出椭圆的圆心。
步骤4:利用步骤3中得到的圆心,连接圆心与Bounding Box中心,并在该方向上设定截取出矩形检测区域。
具体地,利用步骤3中拟合得到的圆心与每个Bounding Box的中点相连接,在该方向上截取适当的矩形检测区域,这样就可以分割出所有包含刻度的待检测矩形区域。
步骤5:在所有分割出的矩形检测区域内使用Harris角点检测,求出每个刻度靠近圆心的边长的中点并拟合新的圆心。
具体地,利用opencv的goodFeaturesToTrack函数在所有分割出的矩形检测区域内使用Harris角点检测,求出每个刻度靠近圆心的边长的中点并拟合新的圆心。
步骤6:将待识别示数的指针式油位计图像进行灰度化处理,Canny边缘检测等预处理后,进行累计概率霍夫变换直线检测,求出指针的方程,并求出新的圆心在直线方程上的投影点。详细步骤如下:
S61、将待识别示数的指针式油位计图像进行灰度化处理;
S62、利用opencv的Canny函数对油位计灰度图进行Canny边缘检测;
S63、使用opencv的HoughLinesP对边缘检测的结果进行累计概率霍夫变换直线检测,通过HoughLinesP的阈值过滤且筛选掉检测到含有相同斜率的直线(表盘中的一些干扰信息造成的),此时由于油位表的指针较粗,将检测出两条线段,并且累计概率霍夫变换检测出的结果是一条直线上的两个点,这两条直线的交点即为指针针尖,指针的指向即为从拟合的新圆心到针尖的方向,斜率为这两条直线斜率的平均值且穿过针尖的直线是该油位计指针的直线,得到指针的直线方程;
S64、计算出得到的指针直线方程上距离新的圆心最近的点即为所要求出的投影点。
步骤7:通过指针所在的方程和指针最邻近的刻度,计算读数。
具体地,计算所有刻度靠近圆心的边长的中点与指针针尖的距离,得到最近的两个坐标点,记为k1与k2(k1+1=k2),通过k1和k2邻近的数字可知k1与k2的数值信息,设k1,k2与指针直线距离分别为d1,d2,拟合的新圆心(xc,yc)在指针直线y上的投影点坐标为(xt,yt),k1与k2与投影点(xt,yt)的距离分别为s1,s2,求出k1坐标点到新拟合圆心在指针直线上投影点(xt,yt)之间的线段与指针直线的夹角,同样的方法求出k2对应的夹角,最终结合数值信息与两个夹角的比例计算出油位计的示数,仪表读数k的具体计算公式如下:
图4是本发明实施例最终计算读数的示意图。由于在拍摄倾角较大的情况下,表盘会近似的形变为椭圆,但并非标准的椭圆。所以由刻度拟合的新的圆心并非一定在指针的所在的直线上,此时用(xc,yc)在指针直线的投影点(xt,yt)计算读数。以(xt,yt)为起始点指向指针针尖点方向的直线即是用于计算油位计读数的最终直线方程,通过该直线方程与其最邻近的两个刻度坐标点k1,k2之间的夹角的度数比例,即可求得指针式油位计示数。
本发明提出的基于深度学习的指针式油位计读数识别方法,能在不提前添加任何表盘信息且拍摄角度倾斜极端的情况下,较大地提高油位计示数识别的精度。
Claims (8)
1.一种基于深度学习的指针式油位计读数识别方法,其特征在于,包括如下步骤:
S1、采集油位计仪表图像,构建训练所需的数据集并训练YOLOv3模型;
S2、采用YOLOv3模型对待识别示数的指针式油位计图像进行数字目标识别得到数字识别结果,并求出识别结果中每个Bounding Box中心点坐标;
S3、利用步骤S2得到的数字识别结果,拟合表盘上的刻度数字Bounding Box中心点所在椭圆并求得圆心;
S4、连接圆心与Bounding Box的中心点,并确定该方向上待检测刻度的区域;
S5、在所有待检测刻度的区域内角点检测,求出每个刻度靠近圆心的边长的中点并拟合新的圆心;
S6、对待检测示数的油位计图像进行预处理,进行直线检测并求出指针的方程,并求出新的圆心在直线方程上的投影点;具体包括:
S61、将待识别示数的指针式油位计图像进行灰度化处理;
S62、利用opencv的Canny函数对油位计灰度图进行Canny边缘检测;
S63、使用opencv的HoughLinesP对边缘检测的结果进行累计概率霍夫变换直线检测,检测出两条线段,并且累计概率霍夫变换检测出的结果是一条直线上的两个点,这两条直线的交点即为指针针尖,指针的指向即为从拟合的新圆心到针尖的方向,斜率为这两条直线斜率的平均值且穿过针尖的直线是该油位计指针的直线,得到指针的直线方程;
S64、计算出得到的指针直线方程上距离新的圆心最近的点;
S7、最终计算仪表读数;计算所有刻度靠近圆心的边长的中点与指针针尖的距离,得到最近的两个坐标点,记为k1与k2(k1+1=k2),通过k1和k2邻近的数字可知k1与k2的数值信息,设k1,k2与指针直线距离分别为d1,d2,拟合的新圆心(xc,yc)在指针直线y上的投影点坐标为(xt,yt),k1与k2与投影点(xt,yt)的距离分别为s1,s2,仪表读数k的计算公式如下:
2.根据权利要求1所述的一种基于深度学习的指针式油位计读数识别方法,其特征在于,步骤S1中所述构建训练所需的数据集的具体过程为:
采集N张不同拍摄角度不同光照条件下的样本图片,对油位计图片打标签后获得后续训练YOLOv3目标检测模型所需数据集,并选择出训练集和测试集。
3.根据权利要求1所述的一种基于深度学习的指针式油位计读数识别方法,其特征在于:步骤S1中的YOLO v3模型所使用的特征提取网络Darknet-53使用3*3与1*1卷积层依次连接的形式,有53个卷积层。
4.根据权利要求1所述的一种基于深度学习的指针式油位计读数识别方法,其特征在于:在步骤S2中,待识别指针式油位计图片在输入YOLOv3模型时,需要转化成416×416大小的尺寸图片,YOLOv3模型输出待识别指针式油位计图片中的刻度示数位置信息及其数值信息,并可通过Bounding Box的位置信息得出其中心点。
5.根据权利要求1所述的一种基于深度学习的指针式油位计读数识别方法,其特征在于:步骤S3中,利用opencv的fitEllipse函数对步骤2中求得的所有Bounding Box的中心点进行拟合,计算出圆心。
6.根据权利要求1所述的基于深度学习的指针式油位计读数识别方法,其特征在于:步骤S4中,利用S3中得到的圆心与每个Bounding Box的中心点相连接,并在该方向上截取矩形检测区域,这样就可以分割出所有包含刻度的待检测的矩形检测区域。
7.根据权利要求1所述的一种基于深度学习的指针式油位计读数识别方法,其特征在于:步骤S5中,利用opencv的goodFeaturesToTrack函数在所有待检测刻度的区域内使用Harris角点检测,求出每个刻度靠近圆心的边长的中点并拟合新的圆心。
8.根据权利要求1所述的一种基于深度学习的指针式油位计读数识别方法,其特征在于:步骤S5中,所述求出每个刻度靠近圆心的边长的中点并拟合新的圆心的具体流程为:
在每个待检测刻度的区域会求得刻度的4个角点,在每个待检测刻度的区域中,遍历一个刻度的所有4个角点,比较与拟合的圆心距离,取其中距离最小的两个点并求出这两个点的中点,即为一个刻度中靠近圆心的边长的中点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010134985.2A CN111368906B (zh) | 2020-02-29 | 2020-02-29 | 一种基于深度学习的指针式油位计读数识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010134985.2A CN111368906B (zh) | 2020-02-29 | 2020-02-29 | 一种基于深度学习的指针式油位计读数识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111368906A CN111368906A (zh) | 2020-07-03 |
CN111368906B true CN111368906B (zh) | 2023-05-23 |
Family
ID=71206498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010134985.2A Active CN111368906B (zh) | 2020-02-29 | 2020-02-29 | 一种基于深度学习的指针式油位计读数识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111368906B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132234A (zh) * | 2020-10-28 | 2020-12-25 | 重庆斯铂电气自动化设备有限公司 | 基于图像识别的油位监测系统及方法 |
CN112308054B (zh) * | 2020-12-29 | 2021-07-20 | 广东科凯达智能机器人有限公司 | 基于目标检测算法的多功能数字表自动读数方法 |
CN113326787B (zh) * | 2021-06-02 | 2023-09-01 | 武汉理工大学 | 指针仪表读数的自动识别方法、系统及设备 |
CN113705564B (zh) * | 2021-08-10 | 2024-03-12 | 上海电力大学 | 一种指针式仪表识别读数方法 |
CN113570631B (zh) * | 2021-08-28 | 2024-04-26 | 西安安森智能仪器股份有限公司 | 一种基于图像的指针式仪表智能识别方法及设备 |
CN113971779B (zh) * | 2021-10-29 | 2022-07-01 | 中国水利水电科学研究院 | 一种基于深度学习的水尺自动读数方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460327A (zh) * | 2018-01-12 | 2018-08-28 | 河南大学 | 一种基于图像处理的指针式仪表读数自动识别方法 |
CN110659636A (zh) * | 2019-09-20 | 2020-01-07 | 随锐科技集团股份有限公司 | 基于深度学习的指针式仪表读数识别方法 |
-
2020
- 2020-02-29 CN CN202010134985.2A patent/CN111368906B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460327A (zh) * | 2018-01-12 | 2018-08-28 | 河南大学 | 一种基于图像处理的指针式仪表读数自动识别方法 |
CN110659636A (zh) * | 2019-09-20 | 2020-01-07 | 随锐科技集团股份有限公司 | 基于深度学习的指针式仪表读数识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111368906A (zh) | 2020-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368906B (zh) | 一种基于深度学习的指针式油位计读数识别方法 | |
CN111950330B (zh) | 一种基于目标检测的指针式仪表示数检测方法 | |
CN110659636B (zh) | 基于深度学习的指针式仪表读数识别方法 | |
CN112257676B (zh) | 一种指针式仪表读数方法、系统以及巡检机器人 | |
CN108460327B (zh) | 一种基于图像处理的指针式仪表读数自动识别方法 | |
Chi et al. | Machine vision based automatic detection method of indicating values of a pointer gauge | |
CN112818988B (zh) | 一种指针式仪表自动识别读数方法及系统 | |
CN104657711B (zh) | 一种鲁棒的指针式仪表读数自动识别方法 | |
CN107301412B (zh) | 一种基于图像处理的指针式仪表读数方法 | |
CN114663744A (zh) | 基于机器学习的仪表自动识别方法及系统 | |
Mai et al. | An automatic meter reading method based on one-dimensional measuring curve mapping | |
CN112036391B (zh) | 一种基于页岩气田生产站场的电子巡检方法及系统 | |
CN116543376B (zh) | 一种指针式仪表读数方法和系统 | |
CN117315670A (zh) | 一种基于计算机视觉的水表读数区域检测方法 | |
CN116310263A (zh) | 一种指针式航空地平仪示数自动读取实现方法 | |
CN115588196A (zh) | 基于机器视觉的指针型仪表读数方法和装置 | |
CN115424009A (zh) | 一种基于Yolact网络的指针式仪表数据自动读取方法 | |
CN114898347A (zh) | 一种指针式仪表机器视觉识别方法 | |
CN109360289B (zh) | 融合巡检机器人定位信息的电力表计检测方法 | |
CN116310285B (zh) | 一种基于深度学习的指针式仪表自动读数方法及系统 | |
Kang et al. | Research on automatic recognition algorithm of pointer meter based on machine vision | |
CN114838666B (zh) | 一种超分辨实时位移测量方法 | |
CN114821044B (zh) | 一种基于梯度变换的方形指针式仪表示数识别方法 | |
CN117274966B (zh) | 室外工业仪表监测方法、系统、可读存储介质及计算机 | |
Hassan et al. | Analog to Digital Meter Reader Converter Using Signal Processing Technique |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |