CN113139979A - 一种基于深度学习的边缘识别方法 - Google Patents
一种基于深度学习的边缘识别方法 Download PDFInfo
- Publication number
- CN113139979A CN113139979A CN202110427265.XA CN202110427265A CN113139979A CN 113139979 A CN113139979 A CN 113139979A CN 202110427265 A CN202110427265 A CN 202110427265A CN 113139979 A CN113139979 A CN 113139979A
- Authority
- CN
- China
- Prior art keywords
- target
- network
- image
- grid
- method based
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000013135 deep learning Methods 0.000 title claims description 13
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000010606 normalization Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims abstract description 5
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000003064 k means clustering Methods 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 238000013519 translation Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于学习的边缘识别方法,包括步骤:S1、进行网络结构搭建,在网络结构上设定锚点anchor,进行目标预测,并设计7层卷积层提取网络特征;S2、采用卷积层四周填充提取边缘信息,并融合残差网络和卷积下采样操作;S3、在每个卷积层中加入批量归一化操作,采用Softmax函数归一化,将图像进行0与1分类,产生目标概率可能值;S4、进行目标网络检测,采用多尺度训练方式,调整输入图像分辨率。本发明从目标的边缘信息出发,提出一种T‑YOLO检测算法,解决检测速度慢的问题,实现目标定位的准确度,提高识别精度。
Description
技术领域
本发明涉及边缘识别技术领域,尤其涉及一种基于深度学习的边缘识别方法。
背景技术
目前,边缘识别技术的应用场景越来越广泛,例如,识别手写体,识别人脸轮廓,识别交通标志等。现有的边缘识别技术中,通过利用边界来寻找区域,进而实现物体的识别和景物分析,由于目标边缘、图像纹理特征等都可能成为检测的边缘,因此,在边缘检测的诸多方法中,存在着各种局限和不足,如:检测速度慢,识别精度低,无法实现小目标的精准定位等各种问题。
现有的基于色彩空间识别方法,或根据形状特征识别边缘信息,或采用色彩与形状特征融合识别,或者通过颜色空间提取感兴趣区域,随后使用支持向量机(SupportVector Machine,SVM)进行分类。然而这些方法也都存在一定弊端:通过颜色和形状对特殊情况下边缘信息特征很难提取,例如下雨天、大雾天、遮挡等情况,进而导致精度偏低。
因此,需要寻找一种提升边缘检测精度的方法。
发明内容
为解决现有技术所存在的技术问题,本发明提供一种基于深度学习的边缘识别方法,从目标的边缘信息出发,提出一种T-YOLO检测算法,解决检测速度慢的问题,实现目标定位的准确度,提高识别精度。
本发明采用以下技术方案来实现:一种基于深度学习的边缘识别方法,包括以下步骤:
S1、进行网络结构搭建,在网络结构上设定锚点anchor,进行目标预测,并设计7层卷积层提取网络特征;
S2、采用卷积层四周填充提取边缘信息,并融合残差网络和卷积下采样操作;
S3、在每个卷积层中加入批量归一化操作,采用Softmax函数归一化,将图像进行0与1分类,产生目标概率可能值;
S4、进行目标网络检测,采用多尺度训练方式,调整输入图像分辨率。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明通过习性搭建网络结构,融合残差网络、下采样操作,设计7层特征提取网络,解决检测速度慢的问题,缩短检测速度。
2、本发明提出卷积层四周填充提取边缘信息与下采样方法,提高识别精度,解决小目标定位问题,提升定位准确度。
3、本发明通过采用Softmax函数归一化,产生目标概率可能值,实现多分类识别,解决SVM分类器通用性偏低问题。
4、本发明通过批量归一化、多尺度训练等训练方法,增强了算法的鲁棒性。
附图说明
图1是本发明方法的流程图;
图2是本发明预测示意图;
图3是本发明7层卷积层;
图4是本发明下采样示意图;
图5是本发明残差网络流程图;
图6是本发明网络示意图;
图7是不同分辨率图像准确率;
图8是不同分辨率图像检测速度。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本实施例一种基于深度学习的边缘识别方法,主要包括以下步骤:
S1、进行网络结构搭建,在网络结构上设定锚点anchor,进行目标预测,并设计7层卷积层提取网络特征。
本实施例中,步骤S1中网络结构搭建是通过将图像归一化同一尺度,并将整幅待检测图像划分为S×S个网格,每个网格检测目标图像中心点位置,若目标图像中心点位置落在该网格,则设目标可能性Pr(object)=1,否则目标可能性Pr(object)=0。
如图2所示,本实施例中,通过人为设定的锚点anchor,产生定量个数预测框,每个预测框则会产生坐标信息(x,y,w,h)和置信度(confidence);其中,x是相对于网格左上角横坐标的偏移值,y是相对于网格左上角纵坐标的偏移值,w、h分别为该预测框的宽与高,置信度为边界框包含目标的可能性Pr(object)与边界框准确度IOU(Intersection overUnion)的乘积,如公式(1)所示;同时,每个预测框还会产生一个固定的类别C;
如图3所示,本实施例中,对网络特征提取采用7层卷积层,以缩短模型特征提取速度。
S2、针对如手写体、交通标志等的特定场景,采用卷积层四周填充0提取边缘信息和利用下采样方法提高识别精度,并加入残差网络,防止模型过拟合。
如图4所示,本实施例中,采用卷积层,通过3×3的卷积核,设置步长为2,进行图像下采样,确保边缘信息不会被丢失,进而提升检测精度。其中,深度越深的网络层,参数初始化一般接近0,在网络训练过程中,随着迭代次数增加,网络通过反向传播算法更新浅层参数,而进一步导致梯度消失,产生梯度爆炸等现象,从而导致无法收敛,损失率增加,而残差网络能解决梯度消失与梯度爆炸等现象,进而使得模型收敛。为此,在提取边缘信息后加入残差网络,用以防止模型过拟合。
具体地,网络训练的具体过程如下:
S21、初始化所有的滤波器,使用随机值设置参数或权重;
S22、网络接收一张训练图像作为输入,通过卷积、Relu和池化操作,以及全连接层的前向传播过程,找到各种边缘信息的输出概率;
S23、在输出层计算总误差;
S24、使用反向传播算法,根据网络的权重计算误差的梯度,并使用梯度下降算法更新所有滤波器的值或权重以及参数的值,使输出误差最小化;
S25、对训练数据中所有的图像重复步骤1~4,完成训练。
如图5、图6所示,本实施例中,通过融合残差网络的输出与输入并下采样,解决识别小型目标问题,以提升精度。
S3、在每个卷积层中均加入批量归一化操作,采用Softmax函数归一化,将图像进行0与1分类,产生目标概率可能值。
本实施例中,步骤S3中批量归一化操作过程如下:
S31、找出最小batch,设最小batch中输入数据为x;
S32、设β为由输入x构成的集,β={x1,x2,…,xm};
S33、获取最小batch中的均值与平方差,并将其归一化操作,进而产生一种从原始数据到训练数据的映射表达式,如公式(2)所示:
其中,μβ为数据集β的平均值,m为当前输入的数据个数m,i为数据类别,xi为输入的数据,为数据集β的方差,为数据集中每一个数据归一化后的值,ε为防止分母为0所加的正数,为归一化后的输出值,γ为尺度因子,为平移因子。
S4、进行目标网络检测,采用多尺度训练方式,每隔10轮调整一次输入图像分辨率,进而使得模型对不同分辨率均能做到有效的识别与定位。
本实施例中,目标网络检测过程如下:
S41、将待检测图像划分成56×56个网格,每个网格检测是否包含目标图像并获取网格中心值,进而确定目标中心点落在的网格;
S42、若检测到目标中心点网格,则进行网格截取,并产生事先设定大小的预选框图像,将截取图像送入神经网络区域,对于区域性包含目标图像的网格通过神经网络进行判断与识别;
S43、将网格中输出预选框图像个数设置为5个,并采用k均值聚类算法(kmeans)求解事先设定预选框大小,随机选取k个对象作为初始聚类中心,然后计算目标中的点与聚类中心距离,并将每次产生的对象分配给距离它最近中心点,每分配一个样本,聚类中心点将会重新计算,然后继续聚类,直到所有样本都被计算完成,最终产生所有的聚类点,选取其中聚类最多的5个矩形框的点作为预选框。
本实施例中,目标中心点的网格将会产生(5+3)×5个预选框图像,该网格产生的40个预选框图像均要送入神经网络进行判断识别。
为了验证本发明的准确性与可靠性,在基于硬件平台GPU RXT2080 Ti与CPUIntel(R)Xeon(R)W-2133和软件平台Ubuntu16.04、opencv3.4.3的基础上,将测试集3000张图片送入不同网络,图片大小为1 024pixel×768pixel,并选取平均准确率(m AP)、平均召回率(Average Recall,AR)、GPU检测速度(ms/frame)作为验证指标。AR计算公式如公式(3)所示:
式中,TP代表真正正样本,FP代表假正样本,FN代表假负样本,i代表类别。算法对比见表1。从表1可以看出,T-YOLO算法无论是在平均准确率还是在检测速度上都达到最优效果,相比于YOLOv2算法,T-YOLO算法在平均准确度上提高7.1%,检测速度每帧缩短了4.9ms;相比于Faster R-CNN算法,T-YOLO算法在速度上提高124倍,精度提高3.8%;相比于传统算法HOG+SVM,检测精度提高13%。
表1算法对比
同样,为了验证T-YOLO算法鲁棒性,采用不同分辨率输入图像进行测试。采用224pixel×224pixel、320pixel×320pixel、416pixel×416pixel、512pixel×512pixel、608pixel×608pixel五种分辨率图像,将原始图像按照等比例方式缩放到上述分辨率固定尺度,对于空出像素区域填充黑色像素0,分别验证各个分类的准确率以及平均准确率、检测速度三个指标,结果如图7和图8所示。从图像大小为320pixel×320pixel往上,平均准确率越来越高。从图7与图8可以看出对于低分辨率的图像,检测速度比较快,但对应的平均准确率低,对于224pixel×224pixel图像,GPU上检测速度达到13.69ms/frame,随着分辨率不断提高,检测耗时也增加。
实验表明本实施例的方法真实有效,相比传统边缘识别算法精度与速度方面均有大幅提高,GPU平台上采用原始图像数据(1 024pixel×768pixel),检测速度19.31ms/frame,m AP为97.3%;由于采用多尺度训练方式,模型的鲁棒性增强。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (7)
1.一种基于深度学习的边缘识别方法,其特征在于,包括以下步骤:
S1、进行网络结构搭建,在网络结构上设定锚点anchor,进行目标预测,并设计7层卷积层提取网络特征;
S2、采用卷积层四周填充提取边缘信息,并融合残差网络和卷积下采样操作;
S3、在每个卷积层中加入批量归一化操作,采用Softmax函数归一化,将图像进行0与1分类,产生目标概率可能值;
S4、进行目标网络检测,采用多尺度训练方式,调整输入图像分辨率。
2.根据权利要求1所述的基于深度学习的边缘识别方法,其特征在于,步骤S1中网络结构搭建是通过将图像归一化同一尺度,并将整幅待检测图像划分为S×S个网格,每个网格检测目标图像中心点位置,若目标图像中心点位置落在该网格,则设目标可能性Pr(object)=1,否则目标可能性Pr(object)=0。
4.根据权利要求1所述的基于深度学习的边缘识别方法,其特征在于,步骤S2中采用卷积层四周填充0提取边缘信息,通过3×3的卷积核,设置步长为2,进行图像下采样;初始化参数,进行网络训练,通过反向传播算法更新浅层参数。
5.根据权利要求4所述的基于深度学习的边缘识别方法,其特征在于,网络训练的具体过程如下:
S21、初始化所有的滤波器,使用随机值设置参数或权重;
S22、网络接收一张训练图像作为输入,通过卷积、Relu和池化操作,以及全连接层的前向传播过程,找到各种边缘信息的输出概率;
S23、在输出层计算总误差;
S24、使用反向传播算法,根据网络的权重计算误差的梯度,并使用梯度下降算法更新所有滤波器的值或权重以及参数的值,使输出误差最小化;
S25、对训练数据中所有的图像重复步骤1~4,完成训练。
7.根据权利要求1所述的基于深度学习的边缘识别方法,其特征在于,步骤S4中目标网络检测过程如下:
S41、将待检测图像划分成56×56个网格,每个网格检测目标图像并获取网格中心值,确定目标中心点落在的网格;
S42、若检测到目标中心点网格,则进行网格截取,并获取设定的预选框图像,将截取图像送入神经网络区域,对于区域性包含目标图像的网格通过神经网络进行判断与识别;
S43、设置网格中输出预选框图像个数,并采用k均值聚类算法kmeans求解设定的预选框大小,随机选取k个对象作为初始聚类中心,然后计算目标中的点与聚类中心距离,并将每次产生的对象分配给距离它最近的中心点,每分配一个样本,聚类中心点将会重新计算,然后继续聚类,直到所有样本都被计算完成,最终产生所有的聚类点,选取其中聚类最多的若干个矩形框的点作为预选框。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110427265.XA CN113139979A (zh) | 2021-04-21 | 2021-04-21 | 一种基于深度学习的边缘识别方法 |
JP2021157869A JP7054278B1 (ja) | 2021-04-21 | 2021-09-28 | 深層学習に基づくエッジ識別方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110427265.XA CN113139979A (zh) | 2021-04-21 | 2021-04-21 | 一种基于深度学习的边缘识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113139979A true CN113139979A (zh) | 2021-07-20 |
Family
ID=76812990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110427265.XA Pending CN113139979A (zh) | 2021-04-21 | 2021-04-21 | 一种基于深度学习的边缘识别方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7054278B1 (zh) |
CN (1) | CN113139979A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023220888A1 (en) * | 2022-05-16 | 2023-11-23 | Intel Corporation | Modeling graph-structured data with point grid convolution |
CN117422717A (zh) * | 2023-12-19 | 2024-01-19 | 长沙韶光芯材科技有限公司 | 一种掩膜板污渍智能定位方法和系统 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115130619A (zh) * | 2022-08-04 | 2022-09-30 | 中建电子商务有限责任公司 | 一种基于聚类选择集成的风险控制方法 |
CN117315670B (zh) * | 2023-09-26 | 2024-07-05 | 天津市金超利达科技有限公司 | 一种基于计算机视觉的水表读数区域检测方法 |
CN117649675B (zh) * | 2024-01-29 | 2024-03-29 | 广州亚信技术有限公司 | 一种表格生成方法、装置、设备及存储介质 |
CN118470054B (zh) * | 2024-04-28 | 2024-10-25 | 南京机电职业技术学院 | 基于路径优化算法的改进时差法测量仪流量监测方法 |
CN118279330B (zh) * | 2024-06-03 | 2024-10-01 | 上海理工大学 | 一种多线程的正则化相位跟踪单幅干涉条纹解算方法 |
CN118447422B (zh) * | 2024-07-08 | 2024-09-24 | 杭州长望智创科技有限公司 | 一种无人机视角的目标检测模型及检测方法 |
CN118570437B (zh) * | 2024-08-02 | 2024-10-15 | 济南科明数码技术股份有限公司 | 智能尺规绘图错误识别系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522963A (zh) * | 2018-11-26 | 2019-03-26 | 北京电子工程总体研究所 | 一种单机运行的特征建筑目标检测方法和系统 |
CN110490174A (zh) * | 2019-08-27 | 2019-11-22 | 电子科技大学 | 基于特征融合的多尺度行人检测方法 |
CN111507416A (zh) * | 2020-04-21 | 2020-08-07 | 湖北马斯特谱科技有限公司 | 一种基于深度学习的吸烟行为实时检测方法 |
CN112232184A (zh) * | 2020-10-14 | 2021-01-15 | 南京邮电大学 | 一种基于深度学习和空间转换网络的多角度人脸识别方法 |
-
2021
- 2021-04-21 CN CN202110427265.XA patent/CN113139979A/zh active Pending
- 2021-09-28 JP JP2021157869A patent/JP7054278B1/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522963A (zh) * | 2018-11-26 | 2019-03-26 | 北京电子工程总体研究所 | 一种单机运行的特征建筑目标检测方法和系统 |
CN110490174A (zh) * | 2019-08-27 | 2019-11-22 | 电子科技大学 | 基于特征融合的多尺度行人检测方法 |
CN111507416A (zh) * | 2020-04-21 | 2020-08-07 | 湖北马斯特谱科技有限公司 | 一种基于深度学习的吸烟行为实时检测方法 |
CN112232184A (zh) * | 2020-10-14 | 2021-01-15 | 南京邮电大学 | 一种基于深度学习和空间转换网络的多角度人脸识别方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023220888A1 (en) * | 2022-05-16 | 2023-11-23 | Intel Corporation | Modeling graph-structured data with point grid convolution |
CN117422717A (zh) * | 2023-12-19 | 2024-01-19 | 长沙韶光芯材科技有限公司 | 一种掩膜板污渍智能定位方法和系统 |
CN117422717B (zh) * | 2023-12-19 | 2024-02-23 | 长沙韶光芯材科技有限公司 | 一种掩膜板污渍智能定位方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
JP7054278B1 (ja) | 2022-04-13 |
JP2022166799A (ja) | 2022-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113139979A (zh) | 一种基于深度学习的边缘识别方法 | |
CN110363182B (zh) | 基于深度学习的车道线检测方法 | |
CN108416307B (zh) | 一种航拍图像路面裂缝检测方法、装置及设备 | |
CN109614985B (zh) | 一种基于密集连接特征金字塔网络的目标检测方法 | |
CN108681693B (zh) | 基于可信区域的车牌识别方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN112883839B (zh) | 基于自适应样本集构造与深度学习的遥感影像解译方法 | |
CN112052802B (zh) | 一种基于机器视觉的前方车辆行为识别方法 | |
CN111626200A (zh) | 一种基于Libra R-CNN的多尺度目标检测网络和交通标识检测方法 | |
CN111461213A (zh) | 一种目标检测模型的训练方法、目标快速检测方法 | |
CN111274964B (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
CN107862702A (zh) | 一种结合边界连通性与局部对比性的显著性检测方法 | |
CN114419151A (zh) | 一种基于对比学习的多目标跟踪方法 | |
CN110689044A (zh) | 一种结合目标间关系的目标检测方法及系统 | |
CN110008844A (zh) | 一种融合slic算法的kcf长期手势跟踪方法 | |
CN115457044B (zh) | 基于类激活映射的路面裂缝分割方法 | |
CN112802005A (zh) | 一种基于改进Mask RCNN的汽车表面擦伤检测方法 | |
CN117949942B (zh) | 基于雷达数据和视频数据融合的目标跟踪方法及系统 | |
CN111724566A (zh) | 基于智慧灯杆视频监控系统的行人跌倒检测方法和装置 | |
CN111833353B (zh) | 一种基于图像分割的高光谱目标检测方法 | |
CN113657196B (zh) | Sar图像目标检测方法、装置、电子设备和存储介质 | |
CN112418358A (zh) | 一种强化深度融合网络的车辆多属性分类方法 | |
CN112232102A (zh) | 一种基于深度神经网络和多任务学习的建筑物目标识别方法和系统 | |
CN116310832A (zh) | 遥感图像处理方法、装置、设备、介质及产品 | |
CN106909936B (zh) | 一种基于双车辆可变形部件模型的车辆检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210720 |