CN113139979A - 一种基于深度学习的边缘识别方法 - Google Patents

一种基于深度学习的边缘识别方法 Download PDF

Info

Publication number
CN113139979A
CN113139979A CN202110427265.XA CN202110427265A CN113139979A CN 113139979 A CN113139979 A CN 113139979A CN 202110427265 A CN202110427265 A CN 202110427265A CN 113139979 A CN113139979 A CN 113139979A
Authority
CN
China
Prior art keywords
target
network
image
grid
method based
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110427265.XA
Other languages
English (en)
Inventor
朱静
凌兴涛
明家辉
王坤辉
李林
钟绮岚
何泳隆
赵宣博
尹邦政
谢斌盛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou University
Original Assignee
Guangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou University filed Critical Guangzhou University
Priority to CN202110427265.XA priority Critical patent/CN113139979A/zh
Publication of CN113139979A publication Critical patent/CN113139979A/zh
Priority to JP2021157869A priority patent/JP7054278B1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于学习的边缘识别方法,包括步骤:S1、进行网络结构搭建,在网络结构上设定锚点anchor,进行目标预测,并设计7层卷积层提取网络特征;S2、采用卷积层四周填充提取边缘信息,并融合残差网络和卷积下采样操作;S3、在每个卷积层中加入批量归一化操作,采用Softmax函数归一化,将图像进行0与1分类,产生目标概率可能值;S4、进行目标网络检测,采用多尺度训练方式,调整输入图像分辨率。本发明从目标的边缘信息出发,提出一种T‑YOLO检测算法,解决检测速度慢的问题,实现目标定位的准确度,提高识别精度。

Description

一种基于深度学习的边缘识别方法
技术领域
本发明涉及边缘识别技术领域,尤其涉及一种基于深度学习的边缘识别方法。
背景技术
目前,边缘识别技术的应用场景越来越广泛,例如,识别手写体,识别人脸轮廓,识别交通标志等。现有的边缘识别技术中,通过利用边界来寻找区域,进而实现物体的识别和景物分析,由于目标边缘、图像纹理特征等都可能成为检测的边缘,因此,在边缘检测的诸多方法中,存在着各种局限和不足,如:检测速度慢,识别精度低,无法实现小目标的精准定位等各种问题。
现有的基于色彩空间识别方法,或根据形状特征识别边缘信息,或采用色彩与形状特征融合识别,或者通过颜色空间提取感兴趣区域,随后使用支持向量机(SupportVector Machine,SVM)进行分类。然而这些方法也都存在一定弊端:通过颜色和形状对特殊情况下边缘信息特征很难提取,例如下雨天、大雾天、遮挡等情况,进而导致精度偏低。
因此,需要寻找一种提升边缘检测精度的方法。
发明内容
为解决现有技术所存在的技术问题,本发明提供一种基于深度学习的边缘识别方法,从目标的边缘信息出发,提出一种T-YOLO检测算法,解决检测速度慢的问题,实现目标定位的准确度,提高识别精度。
本发明采用以下技术方案来实现:一种基于深度学习的边缘识别方法,包括以下步骤:
S1、进行网络结构搭建,在网络结构上设定锚点anchor,进行目标预测,并设计7层卷积层提取网络特征;
S2、采用卷积层四周填充提取边缘信息,并融合残差网络和卷积下采样操作;
S3、在每个卷积层中加入批量归一化操作,采用Softmax函数归一化,将图像进行0与1分类,产生目标概率可能值;
S4、进行目标网络检测,采用多尺度训练方式,调整输入图像分辨率。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明通过习性搭建网络结构,融合残差网络、下采样操作,设计7层特征提取网络,解决检测速度慢的问题,缩短检测速度。
2、本发明提出卷积层四周填充提取边缘信息与下采样方法,提高识别精度,解决小目标定位问题,提升定位准确度。
3、本发明通过采用Softmax函数归一化,产生目标概率可能值,实现多分类识别,解决SVM分类器通用性偏低问题。
4、本发明通过批量归一化、多尺度训练等训练方法,增强了算法的鲁棒性。
附图说明
图1是本发明方法的流程图;
图2是本发明预测示意图;
图3是本发明7层卷积层;
图4是本发明下采样示意图;
图5是本发明残差网络流程图;
图6是本发明网络示意图;
图7是不同分辨率图像准确率;
图8是不同分辨率图像检测速度。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本实施例一种基于深度学习的边缘识别方法,主要包括以下步骤:
S1、进行网络结构搭建,在网络结构上设定锚点anchor,进行目标预测,并设计7层卷积层提取网络特征。
本实施例中,步骤S1中网络结构搭建是通过将图像归一化同一尺度,并将整幅待检测图像划分为S×S个网格,每个网格检测目标图像中心点位置,若目标图像中心点位置落在该网格,则设目标可能性Pr(object)=1,否则目标可能性Pr(object)=0。
如图2所示,本实施例中,通过人为设定的锚点anchor,产生定量个数预测框,每个预测框则会产生坐标信息(x,y,w,h)和置信度(confidence);其中,x是相对于网格左上角横坐标的偏移值,y是相对于网格左上角纵坐标的偏移值,w、h分别为该预测框的宽与高,置信度为边界框包含目标的可能性Pr(object)与边界框准确度IOU(Intersection overUnion)的乘积,如公式(1)所示;同时,每个预测框还会产生一个固定的类别C;
Figure BDA0003030021160000031
式中,
Figure BDA0003030021160000032
代表真实框与预测框比值;当
Figure BDA0003030021160000033
越接近1,代表预测框越接近真实框;当比值接近0,则表示预测框越偏离真实框。
如图3所示,本实施例中,对网络特征提取采用7层卷积层,以缩短模型特征提取速度。
S2、针对如手写体、交通标志等的特定场景,采用卷积层四周填充0提取边缘信息和利用下采样方法提高识别精度,并加入残差网络,防止模型过拟合。
如图4所示,本实施例中,采用卷积层,通过3×3的卷积核,设置步长为2,进行图像下采样,确保边缘信息不会被丢失,进而提升检测精度。其中,深度越深的网络层,参数初始化一般接近0,在网络训练过程中,随着迭代次数增加,网络通过反向传播算法更新浅层参数,而进一步导致梯度消失,产生梯度爆炸等现象,从而导致无法收敛,损失率增加,而残差网络能解决梯度消失与梯度爆炸等现象,进而使得模型收敛。为此,在提取边缘信息后加入残差网络,用以防止模型过拟合。
具体地,网络训练的具体过程如下:
S21、初始化所有的滤波器,使用随机值设置参数或权重;
S22、网络接收一张训练图像作为输入,通过卷积、Relu和池化操作,以及全连接层的前向传播过程,找到各种边缘信息的输出概率;
S23、在输出层计算总误差;
S24、使用反向传播算法,根据网络的权重计算误差的梯度,并使用梯度下降算法更新所有滤波器的值或权重以及参数的值,使输出误差最小化;
S25、对训练数据中所有的图像重复步骤1~4,完成训练。
如图5、图6所示,本实施例中,通过融合残差网络的输出与输入并下采样,解决识别小型目标问题,以提升精度。
S3、在每个卷积层中均加入批量归一化操作,采用Softmax函数归一化,将图像进行0与1分类,产生目标概率可能值。
本实施例中,步骤S3中批量归一化操作过程如下:
S31、找出最小batch,设最小batch中输入数据为x;
S32、设β为由输入x构成的集,β={x1,x2,…,xm};
S33、获取最小batch中的均值与平方差,并将其归一化操作,进而产生一种从原始数据到训练数据的映射表达式,如公式(2)所示:
Figure BDA0003030021160000041
其中,μβ为数据集β的平均值,m为当前输入的数据个数m,i为数据类别,xi为输入的数据,
Figure BDA0003030021160000042
为数据集β的方差,
Figure BDA0003030021160000043
为数据集中每一个数据归一化后的值,ε为防止分母为0所加的正数,
Figure BDA0003030021160000044
为归一化后的输出值,γ为尺度因子,
Figure BDA0003030021160000045
为平移因子。
S4、进行目标网络检测,采用多尺度训练方式,每隔10轮调整一次输入图像分辨率,进而使得模型对不同分辨率均能做到有效的识别与定位。
本实施例中,目标网络检测过程如下:
S41、将待检测图像划分成56×56个网格,每个网格检测是否包含目标图像并获取网格中心值,进而确定目标中心点落在的网格;
S42、若检测到目标中心点网格,则进行网格截取,并产生事先设定大小的预选框图像,将截取图像送入神经网络区域,对于区域性包含目标图像的网格通过神经网络进行判断与识别;
S43、将网格中输出预选框图像个数设置为5个,并采用k均值聚类算法(kmeans)求解事先设定预选框大小,随机选取k个对象作为初始聚类中心,然后计算目标中的点与聚类中心距离,并将每次产生的对象分配给距离它最近中心点,每分配一个样本,聚类中心点将会重新计算,然后继续聚类,直到所有样本都被计算完成,最终产生所有的聚类点,选取其中聚类最多的5个矩形框的点作为预选框。
本实施例中,目标中心点的网格将会产生(5+3)×5个预选框图像,该网格产生的40个预选框图像均要送入神经网络进行判断识别。
为了验证本发明的准确性与可靠性,在基于硬件平台GPU RXT2080 Ti与CPUIntel(R)Xeon(R)W-2133和软件平台Ubuntu16.04、opencv3.4.3的基础上,将测试集3000张图片送入不同网络,图片大小为1 024pixel×768pixel,并选取平均准确率(m AP)、平均召回率(Average Recall,AR)、GPU检测速度(ms/frame)作为验证指标。AR计算公式如公式(3)所示:
Figure BDA0003030021160000051
式中,TP代表真正正样本,FP代表假正样本,FN代表假负样本,i代表类别。算法对比见表1。从表1可以看出,T-YOLO算法无论是在平均准确率还是在检测速度上都达到最优效果,相比于YOLOv2算法,T-YOLO算法在平均准确度上提高7.1%,检测速度每帧缩短了4.9ms;相比于Faster R-CNN算法,T-YOLO算法在速度上提高124倍,精度提高3.8%;相比于传统算法HOG+SVM,检测精度提高13%。
Figure BDA0003030021160000052
表1算法对比
同样,为了验证T-YOLO算法鲁棒性,采用不同分辨率输入图像进行测试。采用224pixel×224pixel、320pixel×320pixel、416pixel×416pixel、512pixel×512pixel、608pixel×608pixel五种分辨率图像,将原始图像按照等比例方式缩放到上述分辨率固定尺度,对于空出像素区域填充黑色像素0,分别验证各个分类的准确率以及平均准确率、检测速度三个指标,结果如图7和图8所示。从图像大小为320pixel×320pixel往上,平均准确率越来越高。从图7与图8可以看出对于低分辨率的图像,检测速度比较快,但对应的平均准确率低,对于224pixel×224pixel图像,GPU上检测速度达到13.69ms/frame,随着分辨率不断提高,检测耗时也增加。
实验表明本实施例的方法真实有效,相比传统边缘识别算法精度与速度方面均有大幅提高,GPU平台上采用原始图像数据(1 024pixel×768pixel),检测速度19.31ms/frame,m AP为97.3%;由于采用多尺度训练方式,模型的鲁棒性增强。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (7)

1.一种基于深度学习的边缘识别方法,其特征在于,包括以下步骤:
S1、进行网络结构搭建,在网络结构上设定锚点anchor,进行目标预测,并设计7层卷积层提取网络特征;
S2、采用卷积层四周填充提取边缘信息,并融合残差网络和卷积下采样操作;
S3、在每个卷积层中加入批量归一化操作,采用Softmax函数归一化,将图像进行0与1分类,产生目标概率可能值;
S4、进行目标网络检测,采用多尺度训练方式,调整输入图像分辨率。
2.根据权利要求1所述的基于深度学习的边缘识别方法,其特征在于,步骤S1中网络结构搭建是通过将图像归一化同一尺度,并将整幅待检测图像划分为S×S个网格,每个网格检测目标图像中心点位置,若目标图像中心点位置落在该网格,则设目标可能性Pr(object)=1,否则目标可能性Pr(object)=0。
3.根据权利要求1所述的基于深度学习的边缘识别方法,其特征在于,步骤S1中目标预测的过程如下:
通过设定锚点anchor,产生定量个数预测框,每个预测框则会产生坐标信息(x,y,w,h)和置信度confidence;其中,x是相对于网格左上角横坐标的偏移值,y是相对于网格左上角纵坐标的偏移值,w、h分别为该预测框的宽与高,置信度confidence为边界框包含目标的可能性Pr(object)与边界框准确度IOU的乘积,如公式(1)所示;同时,每个预测框还会产生一个固定的类别C;
Figure FDA0003030021150000011
其中,
Figure FDA0003030021150000012
代表真实框与预测框比值。
4.根据权利要求1所述的基于深度学习的边缘识别方法,其特征在于,步骤S2中采用卷积层四周填充0提取边缘信息,通过3×3的卷积核,设置步长为2,进行图像下采样;初始化参数,进行网络训练,通过反向传播算法更新浅层参数。
5.根据权利要求4所述的基于深度学习的边缘识别方法,其特征在于,网络训练的具体过程如下:
S21、初始化所有的滤波器,使用随机值设置参数或权重;
S22、网络接收一张训练图像作为输入,通过卷积、Relu和池化操作,以及全连接层的前向传播过程,找到各种边缘信息的输出概率;
S23、在输出层计算总误差;
S24、使用反向传播算法,根据网络的权重计算误差的梯度,并使用梯度下降算法更新所有滤波器的值或权重以及参数的值,使输出误差最小化;
S25、对训练数据中所有的图像重复步骤1~4,完成训练。
6.根据权利要求1所述的基于深度学习的边缘识别方法,其特征在于,步骤S3中批量归一化操作过程如下:
S31、找出最小batch,设最小batch中输入数据为x;
S32、设β为由输入x构成的数据集,β={x1,x2,…,xm};
S33、获取最小batch中的均值与平方差,并将其归一化操作,获取一种从原始数据到训练数据的映射表达式,如公式(2)所示:
Figure FDA0003030021150000021
其中,μβ为数据集β的平均值,m为当前输入的数据个数m,i为数据类别,xi为输入的数据,
Figure FDA0003030021150000022
为数据集β的方差,
Figure FDA0003030021150000023
为数据集中每一个数据归一化后的值,ε为防止分母为0所加的正数,
Figure FDA0003030021150000024
为归一化后的输出值,γ为尺度因子,
Figure FDA0003030021150000025
为平移因子。
7.根据权利要求1所述的基于深度学习的边缘识别方法,其特征在于,步骤S4中目标网络检测过程如下:
S41、将待检测图像划分成56×56个网格,每个网格检测目标图像并获取网格中心值,确定目标中心点落在的网格;
S42、若检测到目标中心点网格,则进行网格截取,并获取设定的预选框图像,将截取图像送入神经网络区域,对于区域性包含目标图像的网格通过神经网络进行判断与识别;
S43、设置网格中输出预选框图像个数,并采用k均值聚类算法kmeans求解设定的预选框大小,随机选取k个对象作为初始聚类中心,然后计算目标中的点与聚类中心距离,并将每次产生的对象分配给距离它最近的中心点,每分配一个样本,聚类中心点将会重新计算,然后继续聚类,直到所有样本都被计算完成,最终产生所有的聚类点,选取其中聚类最多的若干个矩形框的点作为预选框。
CN202110427265.XA 2021-04-21 2021-04-21 一种基于深度学习的边缘识别方法 Pending CN113139979A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110427265.XA CN113139979A (zh) 2021-04-21 2021-04-21 一种基于深度学习的边缘识别方法
JP2021157869A JP7054278B1 (ja) 2021-04-21 2021-09-28 深層学習に基づくエッジ識別方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110427265.XA CN113139979A (zh) 2021-04-21 2021-04-21 一种基于深度学习的边缘识别方法

Publications (1)

Publication Number Publication Date
CN113139979A true CN113139979A (zh) 2021-07-20

Family

ID=76812990

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110427265.XA Pending CN113139979A (zh) 2021-04-21 2021-04-21 一种基于深度学习的边缘识别方法

Country Status (2)

Country Link
JP (1) JP7054278B1 (zh)
CN (1) CN113139979A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023220888A1 (en) * 2022-05-16 2023-11-23 Intel Corporation Modeling graph-structured data with point grid convolution
CN117422717A (zh) * 2023-12-19 2024-01-19 长沙韶光芯材科技有限公司 一种掩膜板污渍智能定位方法和系统

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115130619A (zh) * 2022-08-04 2022-09-30 中建电子商务有限责任公司 一种基于聚类选择集成的风险控制方法
CN117315670B (zh) * 2023-09-26 2024-07-05 天津市金超利达科技有限公司 一种基于计算机视觉的水表读数区域检测方法
CN117649675B (zh) * 2024-01-29 2024-03-29 广州亚信技术有限公司 一种表格生成方法、装置、设备及存储介质
CN118470054B (zh) * 2024-04-28 2024-10-25 南京机电职业技术学院 基于路径优化算法的改进时差法测量仪流量监测方法
CN118279330B (zh) * 2024-06-03 2024-10-01 上海理工大学 一种多线程的正则化相位跟踪单幅干涉条纹解算方法
CN118447422B (zh) * 2024-07-08 2024-09-24 杭州长望智创科技有限公司 一种无人机视角的目标检测模型及检测方法
CN118570437B (zh) * 2024-08-02 2024-10-15 济南科明数码技术股份有限公司 智能尺规绘图错误识别系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522963A (zh) * 2018-11-26 2019-03-26 北京电子工程总体研究所 一种单机运行的特征建筑目标检测方法和系统
CN110490174A (zh) * 2019-08-27 2019-11-22 电子科技大学 基于特征融合的多尺度行人检测方法
CN111507416A (zh) * 2020-04-21 2020-08-07 湖北马斯特谱科技有限公司 一种基于深度学习的吸烟行为实时检测方法
CN112232184A (zh) * 2020-10-14 2021-01-15 南京邮电大学 一种基于深度学习和空间转换网络的多角度人脸识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522963A (zh) * 2018-11-26 2019-03-26 北京电子工程总体研究所 一种单机运行的特征建筑目标检测方法和系统
CN110490174A (zh) * 2019-08-27 2019-11-22 电子科技大学 基于特征融合的多尺度行人检测方法
CN111507416A (zh) * 2020-04-21 2020-08-07 湖北马斯特谱科技有限公司 一种基于深度学习的吸烟行为实时检测方法
CN112232184A (zh) * 2020-10-14 2021-01-15 南京邮电大学 一种基于深度学习和空间转换网络的多角度人脸识别方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023220888A1 (en) * 2022-05-16 2023-11-23 Intel Corporation Modeling graph-structured data with point grid convolution
CN117422717A (zh) * 2023-12-19 2024-01-19 长沙韶光芯材科技有限公司 一种掩膜板污渍智能定位方法和系统
CN117422717B (zh) * 2023-12-19 2024-02-23 长沙韶光芯材科技有限公司 一种掩膜板污渍智能定位方法和系统

Also Published As

Publication number Publication date
JP7054278B1 (ja) 2022-04-13
JP2022166799A (ja) 2022-11-02

Similar Documents

Publication Publication Date Title
CN113139979A (zh) 一种基于深度学习的边缘识别方法
CN110363182B (zh) 基于深度学习的车道线检测方法
CN108416307B (zh) 一种航拍图像路面裂缝检测方法、装置及设备
CN109614985B (zh) 一种基于密集连接特征金字塔网络的目标检测方法
CN108681693B (zh) 基于可信区域的车牌识别方法
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN112883839B (zh) 基于自适应样本集构造与深度学习的遥感影像解译方法
CN112052802B (zh) 一种基于机器视觉的前方车辆行为识别方法
CN111626200A (zh) 一种基于Libra R-CNN的多尺度目标检测网络和交通标识检测方法
CN111461213A (zh) 一种目标检测模型的训练方法、目标快速检测方法
CN111274964B (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN107862702A (zh) 一种结合边界连通性与局部对比性的显著性检测方法
CN114419151A (zh) 一种基于对比学习的多目标跟踪方法
CN110689044A (zh) 一种结合目标间关系的目标检测方法及系统
CN110008844A (zh) 一种融合slic算法的kcf长期手势跟踪方法
CN115457044B (zh) 基于类激活映射的路面裂缝分割方法
CN112802005A (zh) 一种基于改进Mask RCNN的汽车表面擦伤检测方法
CN117949942B (zh) 基于雷达数据和视频数据融合的目标跟踪方法及系统
CN111724566A (zh) 基于智慧灯杆视频监控系统的行人跌倒检测方法和装置
CN111833353B (zh) 一种基于图像分割的高光谱目标检测方法
CN113657196B (zh) Sar图像目标检测方法、装置、电子设备和存储介质
CN112418358A (zh) 一种强化深度融合网络的车辆多属性分类方法
CN112232102A (zh) 一种基于深度神经网络和多任务学习的建筑物目标识别方法和系统
CN116310832A (zh) 遥感图像处理方法、装置、设备、介质及产品
CN106909936B (zh) 一种基于双车辆可变形部件模型的车辆检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210720