CN111445438B - 一种双邻域的磨痕角自动检测方法 - Google Patents
一种双邻域的磨痕角自动检测方法 Download PDFInfo
- Publication number
- CN111445438B CN111445438B CN202010121606.6A CN202010121606A CN111445438B CN 111445438 B CN111445438 B CN 111445438B CN 202010121606 A CN202010121606 A CN 202010121606A CN 111445438 B CN111445438 B CN 111445438B
- Authority
- CN
- China
- Prior art keywords
- pixel
- neighborhood
- far
- pixels
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 15
- 238000000034 method Methods 0.000 claims abstract description 28
- 231100000241 scar Toxicity 0.000 claims description 14
- 241000764238 Isis Species 0.000 claims description 3
- 229910000831 Steel Inorganic materials 0.000 description 8
- 239000010959 steel Substances 0.000 description 8
- 238000005259 measurement Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000005299 abrasion Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 239000010687 lubricating oil Substances 0.000 description 3
- 239000003921 oil Substances 0.000 description 3
- 230000001050 lubricating effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000004519 grease Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
- G06T2207/10061—Microscopic image from scanning electron microscope
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30136—Metal
Abstract
本发明提供的一种双邻域的磨痕角自动检测方法,构建小尺寸的近邻域,建立像素及其近邻域像素的不同方向值的灰度差;在此基础上,计算像素的近邻域像素的差异度,基于差异度的最小值计算相似方向值;接着,构建构建大尺寸的远邻域,和远邻域上与相似方向值对应的兴趣像素;接着,计算像素及其远邻域兴趣像素间的灰度差和差异度;接着,根据差异度值的最小值计算磨痕角方向值;最后,依据磨痕角方向值和远邻域的尺寸可以推算出磨痕角;该方法检测精度高、运行时间短。
Description
技术领域
本发明涉及一种四球摩擦试验机测定润滑油润滑性能的扩展应用,具体涉及一种利用双邻域像素进行磨痕角自动定位的方法。
背景技术
润滑性好的润滑油可以保护机械、延长工作寿命,常常通过四球磨损试验机来测量。根据我国石油化工行业标准(GB-T 12583-1998和H-T 0762-2005),润滑剂抗摩损性能测定方法为:将三个直径为12.7mm的钢球夹紧在一油盒中,并用试油浸没,在三球顶部放置一个直径的钢球,在试油温度达到75℃±2℃后,施加147N或392N作用力,顶球在一定转速下旋转60min,随后取出底部的三个钢球,在测量精度为0.01mm的显微镜下测量三个钢球的磨斑直径,三个钢球共得到六组测量数据,润滑油或润滑脂的抗摩性能通过三个球的六次测量的摩斑直径的算术平均值来评价。磨痕方向的确定可以便于磨斑直径的测量、摆正磨斑图像的拍摄角度,以及便于后续的磨痕强度、密度等后续的分析处理等等。基于此,我们提出了一种双邻域的磨痕角自动检测方法。
发明内容
本发明的目的在于提供一种双邻域的磨痕角自动检测方法,解决了现有的磨痕角测定方法中由于试验人员的感知误差,导致测量精度不准确的缺陷。
为了达到上述目的,本发明采用的技术方案是:
本发明提供的一种双邻域的磨痕角自动检测方法,包括以下步骤:
步骤1,对采集到的磨斑图像进行灰度化处理,得到灰度磨斑图;
步骤2,在步骤1中得到的灰度磨斑图中任意选取一像素点,且在该像素点的上方构建近邻域;
步骤3,计算该像素点与步骤2中得到的近邻域中所有像素点的灰度差;
步骤4,根据步骤3中得到的近邻域中所有像素点的灰度差计算该近邻域中所有像素的差异度;
步骤5,根据步骤4中得到的该近邻域中所有像素的差异度计算相似方向值;
步骤6,构建步骤2中任意选取的该像素点的远邻域,并根据步骤5中得到的相似方向值构建远邻域的兴趣像素;
步骤7,计算该任意选取的像素点与步骤6中得到的所有兴趣像素之间的灰度差;
步骤8,根据步骤7中得到的灰度差计算远邻域中所有兴趣像素的差异度;
步骤9,根据步骤8中得到的差异度计算磨痕角方向值;
步骤10,根据步骤9中得到的磨痕角方向值计算磨痕角。
优选地,步骤2中,构建的近邻域的大小为(w×2w);所述近邻域的像素集为所述近邻域边界上,且其坐标值满足下式中任一式的所有像素点:
{(k,l)|i-w≤k≤i and l=j+w} (2)
{(k,l)|i-w≤k<i and l=j-w} (3)
{(k,l)|k=i-w and j-w≤l≤j+w} (4)
其中,(k,l)为近邻域像素集中的任一像素点。
优选地,步骤3中,计算该像素点与步骤2中得到的近邻域中所有像素点的灰度差,具体方法是:
在构建的近邻域上,设定以像素(i,j+w)为起点,逆时针依次标记近邻域上像素点的方向值α为1,2,…4w;
则像素(i,j)与近邻域α方向的像素之间的灰度差d(i,j,α)的计算式为:
其中,fw(i,j,α)表示像素(i,j)的近邻域α方向上的像素的灰度值;[]为四舍五入的取整运算。
优选地,步骤4中,根据步骤3中得到的近邻域中所有像素点的灰度差计算该近邻域中所有像素的差异度,具体方法是:
设定近邻域像素的差异度为所有像素点在α方向的灰度差的均值,则该均值按下式进行计算:
优选地,步骤5中,根据步骤4中得到的该近邻域中所有像素的差异度计算相似方向值,具体方法是:
其中,α*为相似方向值。
优选地,步骤6中,构建的远邻域的大小为W×2W,且该远邻域的像素集为远邻域边界上,且其坐标满足下式中的任一式的所有像素点:
{(K,L)|i-W≤K≤i and L=j+W}
{(K,L)|i-W≤K<i and L=j-W}
{(K,L)|K=i-W and j-W≤L≤j+W};
根据步骤5中得到的相似方向值构建远邻域的兴趣像素,具体方法是:
将远邻域边界框上与相似方向值对应的像素作为远邻域的兴趣像素;且该兴趣像素的方向值为:
其中,w<W≤40;β为远邻域边界框上兴趣像素的方向值,为整数。
优选地,步骤7中,计算该任意选取的像素点与步骤6中得到的所有兴趣像素之间的灰度差,具体方法是:
其中,e(i,j,β)为像素(i,j)与远邻域上β方向上的像素的灰度差;fw(i,j,β)表示像素(i,j)的远邻域上β方向上的像素的灰度值。
优选地,步骤8中,根据步骤7中得到的灰度差计算远邻域中所有兴趣像素的差异度,具体方法是:
优选地,步骤9中,根据步骤8中得到的差异度计算磨痕角方向值,具体方法是:
其中,β*为磨痕角方向值。
优选地,步骤10中,根据步骤9中得到的磨痕角方向值计算磨痕角,具体方法是:
与现有技术相比,本发明的有益效果是:
本发明提供的一种双邻域的磨痕角自动检测方法,构建小尺寸的近邻域,建立像素及其近邻域像素的不同方向值的灰度差;在此基础上,计算像素的近邻域像素的差异度,基于差异度的最小值计算相似方向值;接着,构建构建大尺寸的远邻域,和远邻域上与相似方向值对应的兴趣像素;接着,计算像素及其远邻域兴趣像素间的灰度差和差异度;接着,根据差异度值的最小值计算磨痕角方向值;最后,依据磨痕角方向值和远邻域的尺寸可以推算出磨痕角;该方法检测精度高、运行时间短。
附图说明
图1是磨痕方向角θ示意图;
图2是磨斑图像F示意图;
图3是灰度磨斑图f示意图;
图4是近邻域其邻域像素;
图5是远邻域及兴趣像素点。
具体实施方式
下面结合附图,对本发明进一步详细说明。
本发明用磨痕角来表征磨痕方向,磨痕角定义为磨痕沿顺时针方向至行轴正向所旋转的最小正角,用符号θ表示。磨痕角θ的示意图如图1所示。
本发明提出了一种双邻域的磨痕角自动检测方法,包括如下步骤:
步骤1:通过扫面电子显微镜采集试验钢球的磨斑图像。具体是:在四球摩擦试验结束后,将试验的钢球取出并置于扫面电镜中,调节扫面电镜的光照和放大倍数等参数,以便清晰地采集到磨斑图像,所采集的磨斑图像用F表示。同时,得到的所述磨斑图像F的大小为M×N,M和N分别为图像F的总行数和总列数。令(i,j)表示磨斑图像F的任一像素点的坐标,且i和j分别表示该像素点的行和列值,且i和j均为整数,满足:1≤i≤M和1≤j≤N成立。
本实施例中,磨斑图像用F如图2所示,磨斑图像F的大小为768×1024,即M=768和N=1024。
步骤2:将采集到的磨斑图像进行灰度化处理。步骤1中采集到的磨斑图像不具有显著的颜色信息,故宜先对磨斑图像进行灰度化处理,这样可以大大加快处理速度。考虑到人眼对颜色的不同敏感性,基于加权平均法对磨斑图像F进行灰度化处理,得到灰度磨斑图,用f表示。磨斑图像进行灰度化处理过程如式(1)所示:
f(i,j)=0.3·R(i,j)+0.59·G(i,j)+0.11·B(i,j) (1)
其中,f(i,j)表示灰度磨斑图f中像素(i,j)的灰度值;R(i,j)、G(i,j)和B(i,j)分别表示磨斑图像F中像素(i,j)的红色、绿色和蓝色分量值。
本实施例中,灰度磨斑图如图3所示。
步骤3:建立像素的近邻域。由于步骤2中得到的灰度磨斑图f中磨痕方向上的所有像素的灰度值相似,故需要利用某一像素和其邻域像素的灰度差异来表征磨痕的灰度相似性。
具体地:以像素为计量单位,在步骤2中得到的灰度磨斑图f上任意选取一像素点(i,j),且在该像素点的上方构建大小为(w×2w)的近邻域(如图4),并定义所构建的近邻域像素集为近邻域边界上,且其坐标满足式(2)-(4)中的任一式的所有像素点:
{(k,l)|i-w≤k≤i and l=j+w} (2)
{(k,l)|i-w≤k<i and l=j-w} (3)
{(k,l)|k=i-w and j-w≤l≤j+w} (4
其中,w为近邻域的尺寸,取值为6-12像素为宜;近邻域像素集中的元素(即像素)个数为4w。
本实施例中,w取值为10,近邻域像素集中的元素个数为40个。
步骤4:计算像素及其近邻域像素的灰度差。
考虑到磨斑图像四周的磨痕信息不丰富,对后续处理的结果会造成干扰,故只对图像的中心区域进行灰度差异计算。为避免繁琐的角度计算,用数字来标记近邻域像素点的方向,以像素(i,j+w)(为起点,逆时针依次标记近邻域上像素点的方向值为1,2,…4w。
像素(i,j)(与其近邻域α方向的像素之间的灰度差d(i,j,α)d的计算式为:
其中,fw(i,j,α)f表示像素(i,j)(的近邻域α方向上的像素的灰度值;[]为四舍五入的取整运算;α为近邻域像素的方向值,为整数,近邻域中的每个像素对应一个方向值,故α=1,2,…,4w。
本实施例中,ww取10,故像素(i,j)(能得到40个方向的灰度差d(i,j,α)d。
步骤5:计算近邻域像素的差异度。定义近邻域像素的差异度为所有像素点在α方向的灰度差(步骤S4)的均值,它是反映像素在不同方向的灰度变化量的指标。
其中,h(α)为近邻域像素差异度。
本实施例中,近邻域像素差异度如表1所示。N′像素总数,其计算式为(7)所示:
N′=([0.75M]-[0.25M]+1)([0.75N]-[0.25N]+1) (7)
表1近邻域像素的差异度
步骤6:计算相似方向值。当差异度为最小值时,像素间的灰度最为接近,此时对应的方向值为相似方向值,可以用在后续计算磨痕角:
其中,α*为相似方向值。
本实施例中,α*为14,此时h(α*)=229564.2。h(α*)为最小差异度值。
步骤7:构建远邻域及兴趣像素。步骤S6得到的相似方向值基本确定了磨痕角的取值范围,只是到近邻域的尺寸较小,能观测到的方向也较少,直接利用近邻域得到的方向去计算磨痕角的精度不够高,故需要选择大尺寸的远邻域W×2W来提高磨痕角的测量精度,且该远邻域的像素集为远邻域边界上,且其坐标满足下式中的任一式的所有像素点:
{(K,L)|i-W≤K≤i and L=j+W}
{(K,L)|i-W≤K<i and L=j-W}
{(K,L)|K=i-W and j-W≤L≤j+W}
同时,为了尽量减少计算量,只对远邻域像素集中的兴趣像素进行处理,兴趣像素定义为远邻域边界框上与相似方向值对应的像素,远邻域及兴趣像素点如图5所示。兴趣像素的方向值β满足:
其中,W为远邻域的尺寸,通常w<W≤40w;β为远邻域上兴趣像素的方向值,为整数。本实施例中,W取值为25,β取值为:33,34,35,36,37和38。
步骤8:计算像素及其远邻域兴趣像素的灰度差。
其中,e(i,j,β)e为像素(i,j)(与远邻域上β方向上的像素的灰度差;fW(i,j,β)f表示像素(i,j)(的远邻域上β方向上的像素的灰度值。
步骤9:计算远邻域像素的差异度。与近邻域像素的差异度(步骤S5)的原理类似,远邻域的像素的差异度g(β)由远邻域上像素间的灰度差(步骤S8)计算得来:
本实施例中,远邻域像素的差异度如表2所示。
表2远邻域像素的差异度
步骤10:计算磨痕角方向值。沿着磨痕方向,像素间的灰度差异最小,差异度值也最小,该方向值和磨痕角对应。
其中,β*为磨痕角方向值。
本实施例中,磨痕角方向值β*=34。
步骤11:计算磨痕角。依据磨痕角方向值和远邻域的尺寸可以推算出磨痕角:
本实施例中,磨痕角θ=55.8°。
按照以上本发明的技术方案,从运行时间和检测精度分析两方面,分析本发明方案的优缺点。
1.运行时间。本发明的仿真处理平台为:Intel I3 M350处理器,2GB内存的计算机,在MATLAB平台下对200个样本进行仿真测试,算法所用的时间为2.8s,硬件实现本算法后,算法运行时间还会大大减少。
2.检测精度分析。为了验证算法的有效性,检测精度用绝对误差ξ来表征,定义为检测磨痕角和实际磨痕角的差值的绝对值,实际磨痕角由人工标定。对200样本数据验证:平均的绝对误差为1.9°,算法的检测精度高,鲁棒性好。
Claims (7)
1.一种双邻域的磨痕角自动检测方法,其特征在于,包括以下步骤:
步骤1,对采集到的磨斑图像进行灰度化处理,得到灰度磨斑图;
步骤2,在步骤1中得到的灰度磨斑图中任意选取一像素点,且在该像素点的上方构建近邻域;
步骤3,计算该像素点与步骤2中得到的近邻域中所有像素点的灰度差;
步骤4,根据步骤3中得到的近邻域中所有像素点的灰度差计算该近邻域中所有像素的差异度;
步骤5,根据步骤4中得到的该近邻域中所有像素的差异度计算相似方向值;
步骤6,构建步骤2中任意选取的该像素点的远邻域,并根据步骤5中得到的相似方向值构建远邻域的兴趣像素;
步骤7,计算该任意选取的像素点与步骤6中得到的所有兴趣像素之间的灰度差;
步骤8,根据步骤7中得到的灰度差计算远邻域中所有兴趣像素的差异度;
步骤9,根据步骤8中得到的差异度计算磨痕角方向值;
步骤10,根据步骤9中得到的磨痕角方向值计算磨痕角;
步骤8中,根据步骤7中得到的灰度差计算远邻域中所有兴趣像素的差异度,具体方法是:
其中,i和j分别表示该像素点的行和列值,且i和j均为整数,满足:1≤i≤M和1≤j≤N;β为远邻域上兴趣像素的方向值;e(i,j,β)为像素(i,j)与远邻域上β方向上的像素的灰度差;M和N分别为图像F的总行数和总列数;
步骤9中,根据步骤8中得到的差异度计算磨痕角方向值,具体方法是:
其中,β*为磨痕角方向值;g(β)为远邻域的像素的差异度;
步骤10中,根据步骤9中得到的磨痕角方向值计算磨痕角,具体方法是:
2.根据权利要求1所述的一种双邻域的磨痕角自动检测方法,其特征在于,步骤2中,构建的近邻域的大小为(w×2w);所述近邻域的像素集为所述近邻域边界上,且其坐标值满足下式中任一式的所有像素点:
{(k,l)|i-w≤k≤i and l=j+w} (2)
{(k,l)|i-w≤k<i and l=j-w} (3)
{(k,l)|k=i-w and j-w≤l≤j+w} (4)
其中,(k,l)为近邻域像素集中的任一像素点;i和j分别表示该像素点的行和列值,且i和j均为整数,满足:1≤i≤M和1≤j≤N;w为近邻域的尺寸。
6.根据权利要求1所述的一种双邻域的磨痕角自动检测方法,其特征在于,步骤6中,构建的远邻域的大小为W×2W,且该远邻域的像素集为远邻域边界上,且其坐标满足下式中的任一式的所有像素点:
{(K,L)|i-W≤K≤i and L=j+W}
{(K,L)|i-W≤K<i and L=j-W}
{(K,L)|K=i-W and j-W≤L≤j+W};
根据步骤5中得到的相似方向值构建远邻域的兴趣像素,具体方法是:
将远邻域边界框上与相似方向值对应的像素作为远邻域的兴趣像素;且该兴趣像素的方向值为:
其中,w<W≤40;β为远邻域边界框上兴趣像素的方向值,为整数;i和j分别表示该像素点的行和列值,且i和j均为整数,满足:1≤i≤M和1≤j≤N;W为远邻域的尺寸;M和N分别为图像F的总行数和总列数;α为近邻域像素的方向值。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010121606.6A CN111445438B (zh) | 2020-02-26 | 2020-02-26 | 一种双邻域的磨痕角自动检测方法 |
PCT/CN2021/071221 WO2021169638A1 (zh) | 2020-02-26 | 2021-01-12 | 一种双邻域的磨痕角自动检测方法 |
US17/727,469 US20220245789A1 (en) | 2020-02-26 | 2022-04-22 | Dual-neighborhood wear angle automatic detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010121606.6A CN111445438B (zh) | 2020-02-26 | 2020-02-26 | 一种双邻域的磨痕角自动检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111445438A CN111445438A (zh) | 2020-07-24 |
CN111445438B true CN111445438B (zh) | 2022-03-15 |
Family
ID=71650996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010121606.6A Expired - Fee Related CN111445438B (zh) | 2020-02-26 | 2020-02-26 | 一种双邻域的磨痕角自动检测方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220245789A1 (zh) |
CN (1) | CN111445438B (zh) |
WO (1) | WO2021169638A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111445438B (zh) * | 2020-02-26 | 2022-03-15 | 长安大学 | 一种双邻域的磨痕角自动检测方法 |
CN115115646B (zh) * | 2022-08-30 | 2022-11-18 | 启东市固德防水布有限公司 | 一种基于图像处理的防水布涂层质量评价方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103712565A (zh) * | 2013-12-31 | 2014-04-09 | 长安大学 | 一种基于钢球磨痕梯度的磨斑直径测量方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3078685B2 (ja) * | 1993-08-06 | 2000-08-21 | 松下電器産業株式会社 | 位置認識方法 |
CN103761729B (zh) * | 2013-12-31 | 2017-02-01 | 长安大学 | 一种基于邻域灰度相似性的钢球磨痕检测方法 |
JP2016075554A (ja) * | 2014-10-06 | 2016-05-12 | 株式会社ディスコ | ウエーハ検査方法及びウエーハ検査装置 |
CN105184792B (zh) * | 2015-09-06 | 2018-01-30 | 江苏科技大学 | 一种圆锯片磨损量在线测量方法 |
CN106770296B (zh) * | 2017-01-11 | 2019-10-29 | 长安大学 | 一种四球摩擦试验磨斑图像磨痕方向角自动测定方法 |
CN107392899B (zh) * | 2017-07-20 | 2020-11-03 | 长安大学 | 一种钢球磨斑图像的磨痕水平角的自动检测方法 |
CN111445438B (zh) * | 2020-02-26 | 2022-03-15 | 长安大学 | 一种双邻域的磨痕角自动检测方法 |
-
2020
- 2020-02-26 CN CN202010121606.6A patent/CN111445438B/zh not_active Expired - Fee Related
-
2021
- 2021-01-12 WO PCT/CN2021/071221 patent/WO2021169638A1/zh active Application Filing
-
2022
- 2022-04-22 US US17/727,469 patent/US20220245789A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103712565A (zh) * | 2013-12-31 | 2014-04-09 | 长安大学 | 一种基于钢球磨痕梯度的磨斑直径测量方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111445438A (zh) | 2020-07-24 |
US20220245789A1 (en) | 2022-08-04 |
WO2021169638A1 (zh) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109871895B (zh) | 电路板的缺陷检测方法和装置 | |
CN111445438B (zh) | 一种双邻域的磨痕角自动检测方法 | |
CN114359283B (zh) | 基于Transformer的缺陷检测方法和电子设备 | |
CN108520514B (zh) | 基于计算机视觉的印刷电路板电子元器一致性检测方法 | |
CN111412864B (zh) | 一种基于磨痕灰度相似性的磨痕角自动检测方法 | |
CN106770296B (zh) | 一种四球摩擦试验磨斑图像磨痕方向角自动测定方法 | |
WO2022088096A1 (zh) | 缺陷实际面积的检测方法、显示面板的检测方法及装置 | |
CN110781913B (zh) | 一种拉链布带缺陷检测方法 | |
CN111582071A (zh) | 一种基于HRNet网络模型的SF6仪表图像读数方法 | |
JP2013077127A (ja) | 画像分類装置および画像分類方法 | |
Mai et al. | An automatic meter reading method based on one-dimensional measuring curve mapping | |
KR101782364B1 (ko) | 케이평균군집화를 통한 학습기반의 비전검사 방법 | |
CN106841575B (zh) | 一种四球摩擦试验磨斑图像磨痕方向自动定位方法 | |
CN103712565A (zh) | 一种基于钢球磨痕梯度的磨斑直径测量方法 | |
CN112990190A (zh) | 指针式仪表读数的识别方法、装置 | |
CN107358604B (zh) | 一种四球摩擦试验磨斑图像异常检测方法 | |
CN107392899B (zh) | 一种钢球磨斑图像的磨痕水平角的自动检测方法 | |
CN109685757B (zh) | 一种基于灰度差分统计的无参考图像质量评价方法及系统 | |
CN107403445B (zh) | 一种用于润滑剂抗磨性的形貌对比分析方法 | |
CN114627121A (zh) | 一种结构构件应力检测方法、装置、设备及介质 | |
Chen et al. | Measurement of the ballscrew contact angle by using the photoelastic effect and image processing | |
JP4806767B2 (ja) | 歪み測定方法及び装置 | |
CN111832401A (zh) | 一种电子阅卷识别方法 | |
CN114972344B (zh) | 一种用于手表零配件的生产质量缺陷检测方法 | |
CN213301115U (zh) | 一种基于视觉的金属拉伸试样原始直径测量装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220315 |