CN112308870A - 基于深度学习的边缘检测滤波器优化方法 - Google Patents

基于深度学习的边缘检测滤波器优化方法 Download PDF

Info

Publication number
CN112308870A
CN112308870A CN202011109798.5A CN202011109798A CN112308870A CN 112308870 A CN112308870 A CN 112308870A CN 202011109798 A CN202011109798 A CN 202011109798A CN 112308870 A CN112308870 A CN 112308870A
Authority
CN
China
Prior art keywords
loss
edge detection
image
filter
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011109798.5A
Other languages
English (en)
Other versions
CN112308870B (zh
Inventor
尹仕斌
郭寅
郭磊
徐金辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yi Si Si Hangzhou Technology Co ltd
Original Assignee
Isvision Hangzhou Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Isvision Hangzhou Technology Co Ltd filed Critical Isvision Hangzhou Technology Co Ltd
Priority to CN202011109798.5A priority Critical patent/CN112308870B/zh
Publication of CN112308870A publication Critical patent/CN112308870A/zh
Application granted granted Critical
Publication of CN112308870B publication Critical patent/CN112308870B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度学习的边缘检测滤波器优化方法,包括:采集多张待测物图像,记为训练图像集;分别框选各张图像中的待测特征并标注,得到标注图像;以第一张训练图像作为输入图像;对输入图像进行卷积,再计算各个像素点的梯度,输入到Sigmiod函数中进行激活处理,得到输出结果图;将输出结果图记为新的输入图像,重复;利用softmax函数得到归一化结果图,计算归一化结果图与标注图像的损失矩阵MLoss和LOSS值;利用损失矩阵MLoss进行反向传播,得出修正后的各层边缘检测滤波器;以下一张训练图像作为输入图像并利用修正后的各层边缘检测滤波器继续重复,直到LOSS值发生收敛;本方法边缘检测稳定更好,鲁棒性高且计算量小。

Description

基于深度学习的边缘检测滤波器优化方法
技术领域
本发明涉及图像处理领域,具体涉及一种基于深度学习的边缘检测滤波器优化方法。
背景技术
图像分割是计算机视觉领域的重要分支,其中,Sobel、Prewitt等边缘检测方法是图像分割的经典检测算法。随着图像分割任务的要求越来越高,单纯的Sobel算子进行图像分割时,容易出现分割不全面、误分割的现象,无法满足实际生产过程中的检测需求;进而出现了:基于深度学习的图像分割算法,其虽然在像素分类精度上有着很大提高,但是深层次的网络模型带来庞大的计算量,因此会使得算法十分依赖硬件设施,如GPU等。
发明内容
为了解决现有技术存在的问题,提供一种分割效果好且计算量小的分割方法,将深度学习思想应用到边缘检测滤波器的优化过程中,计算偏移量b,通过训练图像迭代出合适的边缘检测滤波器的参数,修正边缘检测因子,进行滤波器的优化,本方法将多个滤波器级联形成最终的滤波器,使得边缘检测稳定更好,鲁棒性提高。
为此,本发明的技术方案如下:
一种基于深度学习的边缘检测滤波器优化方法,包括以下步骤:
步骤一、采集多张待测物图像,记为训练图像集;
分别框选各张图像中的待测特征并标注每个像点的类别标签,所述类别标签为前景标签或背景标签;将经过上述处理的训练图像记为标注图像;
以第一张训练图像作为初始的输入图像;
步骤二、分别利用不同方向的边缘检测因子对输入图像进行卷积处理,得到整幅图像各个像素点的梯度,将其输入到Sigmiod函数中进行激活处理,得到输出结果图;
步骤三、将输出结果图记为新的输入图像,重复步骤二N次,N=1~5即:前一次的输出结果图作为下一次的输入图像;将最后一次得到的输出结果图记为最终结果图;
将首次进行步骤二时的边缘检测因子记为第一层滤波器;第i次重复步骤二时的边缘检测因子记为第i+1层滤波器;i=1,2…N;
步骤四、利用softmax函数归一化处理最终结果图中各点的像素值,记为归一化结果图,计算所述归一化结果图与所述输入图像的标注图像各像点之间的交叉熵损失值,记为损失矩阵MLoss;再将各个交叉熵损失值取均值记为LOSS值;
步骤五、利用损失矩阵MLoss进行反向传播,得出每层边缘检测滤波器的偏移量b;将不同方向的边缘检测因子加上对应的偏移量b,得出修正后的各层边缘检测滤波器;
以下一张训练图像作为输入图像并利用修正后的各层边缘检测滤波器继续进行步骤二~步骤四,直到LOSS值发生收敛;
步骤六、将步骤五中最后得出的各层边缘检测滤波器级联作为优化后的边缘检测滤波器。
进一步,步骤五中利用损失矩阵MLoss进行反向传播,得出每层边缘检测滤波器的偏移量b;具体为:
经过反向传播,标记:第N+1层滤波器的损失矩阵LossN+1(x,y)=MLoss(x,y),(x,y)表示损失矩阵中的单个点;
MLoss(x,y)为损失矩阵MLoss的具体表达,即:(x,y)表示损失矩阵MLoss中的单个点;
则第N层滤波器的损失矩阵LossN中各个点(x,y)的值:
LossN(x,y)=sigmoid′(LossN+1(x,y))·softmax'(LossN+1(x,y));
第N-1层滤波器的损失矩阵LossN-1中各个点(x,y)的值:
LossN-1(x,y)=sigmoid′(LossN(x,y))·softmax'(LossN(x,y)),……
第一层滤波器的损失矩阵Loss1各个点(x,y)的值:
Loss1(x,y)=sigmoid′(Loss2(x,y))·softmax'(Loss2(x,y));
其中,sigmoid'表示Sigmiod函数的导数,softmax'表示softmax函数的导数。即sigmoid′(LossN+1(x,y))表示将矩阵LossN+1中的各个点的参数值分别代入到Sigmiod函数并求导;softmax'(LossN+1(x,y))表示将矩阵LossN+1中的各个点的参数值分别代入到softmax函数并求导。
计算各层滤波器的损失矩阵与其对应的输出结果图的交叉熵损失的均值,记为每层边缘检测滤波器的偏移量b。
进一步,所述边缘检测滤波器包括:sobe1滤波器、Prewitt滤波器和scharr滤波器。
进一步,所述不同方向的边缘检测因子包括:水平方向边缘检测因子、竖直方向边缘检测因子、45°方向边缘检测因子,135°方向边缘检测因子。
进一步,步骤五中,将水平方向和竖直方向的sobel因子加上对应的偏移量b,得出修正后的各层sobel滤波器,具体为:
记原始水平方向的sobel因子:
Figure BDA0002728215660000041
竖直方向的sobel因子:
Figure BDA0002728215660000042
则第一次修正后水平方向的sobel因子:
Figure BDA0002728215660000043
竖直方向的sobel因子:
Figure BDA0002728215660000044
……如此重复,每次修正,均在前一次sobel因子的基础上加上新的偏移量。
为了使卷积后的图像与输入图像尺寸相同,对输入图像的边缘用0做填充处理,将输入图像尺寸从(Height,Width)变为(Height+1,Width+1)。
采用本发明方法得出的边缘检测滤波器对于对比度差、边界不清晰的图像分割效果明显优于常规的边缘检测算子,分割准确率能够达到95%以上,与深度学习图像分割准确率持平;本方法仅包含N+1个sobel卷积运算层、Sigmiod函数激活层和softmax激活层,相比于深度学习算法分割图像,本方法大大减少了计算量和训练量,降低了算法对硬件的需求,以经典VGG网络为例,当输入图像大小为224×224时,VGG所需计算量的数量级为109,参数的数量级为107,本发明中计算量的数量级是105,参数量为108个,远远小于深度学习模型,图像分割的速度可以明显提升。
附图说明
图1为具体实施方式中待分割镜片图像原始灰度图;
图2为采用现有Sobel算子对感兴趣区域检测结果图示意图;
图3为采用FCN全卷积网络对感兴趣区域检测结果图示意图;
图4为采用本方法优化的Sobel边缘检测滤波器对感兴趣区域检测示意图。
具体实施方式
以下结合附图和具体实施方式对本发明的技术方案进行详细描述。
一种基于深度学习的边缘检测滤波器优化方法,包括以下步骤:
步骤一、采集多张待测物图像,记为训练图像集;
分别框选各张图像中的待测特征并标注每个像点的类别标签,所述类别标签为前景标签或背景标签;将经过上述处理的训练图像记为标注图像;
本实施例中,采用LabelMe软件标注各图像,标注完成的图像应具有每个像素点的类别标签(将前景类别标为1,背景类别标为0)。
以第一张训练图像作为初始的输入图像;
步骤二、分别利用不同方向的边缘检测因子对输入图像进行卷积处理,得到整幅图像各个像素点的梯度,将其输入到Sigmiod函数中进行激活处理,得到输出结果图;
为了使卷积后的图像与输入图像尺寸相同,对输入图像的边缘用0做填充处理,将输入图像尺寸从(Height,Width)变为(Height+1,Width+1);
其中不同方向的边缘检测因子包括:水平方向边缘检测因子、竖直方向边缘检测因子、45°方向边缘检测因子,135°方向边缘检测因子。
本实施例中,采用水平方向和竖直方向的sobel因子;
记原始水平方向的sobel因子:
Figure BDA0002728215660000051
竖直方向的sobel因子:
Figure BDA0002728215660000052
步骤三、将输出结果图记为新的输入图像,重复步骤二N次,N=1~5即:前一次的输出结果图作为下一次的输入图像;将最后一次得到的输出结果图记为最终结果图;
将首次进行步骤二时的边缘检测因子记为第一层滤波器;第i次重复步骤二时的边缘检测因子记为第i+1层滤波器;i=1,2…N;
本实施例中,N=2,将得到第一层滤波器、第二层滤波器和第三层滤波器;
步骤四、利用softmax函数归一化处理最终结果图中各点的像素值,记为归一化结果图,计算所述归一化结果图与所述输入图像的标注图像各像点之间的交叉熵损失值,记为损失矩阵MLoss;再将各个交叉熵损失值取均值记为LOSS值;
步骤五、利用损失矩阵MLoss进行反向传播,得出每层边缘检测滤波器的偏移量b;将不同方向的边缘检测因子加上对应的偏移量b,得出修正后的各层边缘检测滤波器;
以下一张训练图像作为输入图像并利用修正后的各层边缘检测滤波器继续进行步骤二~步骤四,直到LOSS值发生收敛;
步骤六、将步骤五中最后得出的各层边缘检测滤波器级联作为优化后的边缘检测滤波器。
其中,步骤五中利用损失矩阵MLoss进行反向传播,得出每层边缘检测滤波器的偏移量b;具体为:
经过反向传播,标记:第N+1层滤波器的损失矩阵LossN+1(x,y)=MLoss(x,y),(x,y)表示损失矩阵中单个点;
MLoss(x,y)为损失矩阵MLoss的具体表达,即:(x,y)表示损失矩阵MLoss中单个点;
则第N层滤波器的损失矩阵LossN中各个点(x,y)的值:
LossN(x,y)=sigmoid′(LossN+1(x,y))·softmax'(LossN+1(x,y));
第N-1层滤波器的损失矩阵LossN-1中各个点(x,y)的值:
LossN-1(x,y)=sigmoid′(LossN(x,y))·softmax'(LossN(x,y)),……
第一层滤波器的损失矩阵Loss1各个点(x,y)的值:
Loss1(x,y)=sigmoid′(Loss2(x,y))·softmax'(Loss2(x,y));
其中,sigmoid'表示Sigmiod函数的导数,softmax'表示softmax函数的导数;
即sigmoid′(LossN+1(x,y))表示将矩阵LossN+1中的各个点的参数值分别代入到Sigmiod函数并求导;softmax'(LossN+1(x,y))表示将矩阵LossN+1中的各个点的参数值分别代入到softmax函数并求导。
计算各层滤波器的损失矩阵与其对应的输出结果图的交叉熵损失的均值,记为每层边缘检测滤波器的偏移量b。
本实施例中,N=2,第三层滤波器的损失矩阵Loss3=MLoss(x,y);(x,y)表示损失矩阵MLoss中的单个点;
则第二层滤波器的损失矩阵Loss2各个点(x,y)的值:
Loss2(x,y)=sigmoid′(MLoss(x,y))·softmax'(MLoss(x,y));
第一层滤波器的损失矩阵Loss1各个点(x,y)的值:
Loss1(x,y)=sigmoid′(Loss2(x,y))·softmax'(Loss2(x,y))=sigmoid′(sigmoid′(MLoss(x,y))·softmox'(MLoss(x,y)))·softmax'(sigmoid′(MLoss(x,y))·softmax'(MLoss(x,y)));
本方法中可以进行优化的边缘检测滤波器包括:sobel滤波器、Prewitt滤波器和scharr滤波器。
具体的,步骤五中,将水平方向和竖直方向的sobel因子加上对应的偏移量b,得出修正后的各层sobel滤波器,具体为:
记原始水平方向的sobel因子:
Figure BDA0002728215660000081
竖直方向的sobel因子:
Figure BDA0002728215660000082
则第一次修正后水平方向的sobel因子:
Figure BDA0002728215660000083
竖直方向的sobel因子:
Figure BDA0002728215660000084
……如此重复,每次修正,均在前一次sobel因子的基础上加上新的偏移量。
本实施例中,对激光焊接头前端保护镜片上的污渍进行分割,其原始采集图像如图1所示,图中外圈高亮的圆形为保护镜片的边缘,其内部高亮的区域为待分割的污渍;采用现有Sobel算子、FCN全卷积网络(深度学习方法)和本方法优化的Sobel边缘检测滤波器分别对保护镜片上感兴趣区域(镜片内部区域)进行分割处理,其分割结果图如图2~4所示;可见本方法优化的Sobel边缘检测滤波器能够分割出更为准确的污渍区域,减少了误分割情况;特别是对于对比度差、边界不清晰的图像分割效果明显优于常规的边缘检测算子,分割准确率能够达到95%以上,并且本方案优化过程大大减少了计算量和训练量,降低了算法对硬件的需求,图像分割的速度可以明显提升。

Claims (6)

1.一种基于深度学习的边缘检测滤波器优化方法,其特征在于,包括以下步骤:
步骤一、采集多张待测物图像,记为训练图像集;
分别框选各张图像中的待测特征并标注每个像点的类别标签,所述类别标签为前景标签或背景标签;将经过上述处理的训练图像记为标注图像;
以第一张训练图像作为初始的输入图像;
步骤二、分别利用不同方向的边缘检测因子对输入图像进行卷积处理,得到整幅图像各个像素点的梯度,将其输入到Sigmiod函数中进行激活处理,得到输出结果图;
步骤三、将输出结果图记为新的输入图像,重复步骤二N次,N=1~5;将最后一次得到的输出结果图记为最终结果图;
将首次进行步骤二时的边缘检测因子记为第一层滤波器;第i次重复步骤二时的边缘检测因子记为第i+1层滤波器;i=1,2…N;
步骤四、利用softmax函数归一化处理最终结果图中各点的像素值,记为归一化结果图,计算所述归一化结果图与所述输入图像的标注图像各像点之间的交叉熵损失值,记为损失矩阵MLoss;再将各个交叉熵损失值取均值记为LOSS值;
步骤五、利用损失矩阵MLoss进行反向传播,得出每层边缘检测滤波器的偏移量b;将不同方向的边缘检测因子加上对应的偏移量b,得出修正后的各层边缘检测滤波器;
以下一张训练图像作为输入图像并利用修正后的各层边缘检测滤波器继续进行步骤二~步骤四,直到LOSS值发生收敛;
步骤六、将步骤五中最后得出的各层边缘检测滤波器级联作为优化后的边缘检测滤波器。
2.如权利要求1所述的基于深度学习的边缘检测滤波器优化方法,其特征在于:步骤五中利用损失矩阵MLoss进行反向传播,得出每层边缘检测滤波器的偏移量b;具体为:
经过反向传播,标记:第N+1层滤波器的损失矩阵LossN+1(x,y)=MLoss(x,y),(x,y)表示损失矩阵中的单个点;
则第N层滤波器的损失矩阵LossN中各个点(x,y)的值:
LossN(x,y)=sigmoid′(LossN+1(x,y))·softmax’(LossN+1(x,y));
第N-1层滤波器的损失矩阵LossN-1中各个点(x,y)的值:
LossN-1(x,y)=sigmoid′(LossN(x,y))·softmax’(LossN(x,y)),……
第一层滤波器的损失矩阵Loss1各个点(x,y)的值:
Loss1(x,y)=sigmoid′(Loss2(x,y))·softmax’(Loss2(x,y));
其中,sigmoid′表示Sigmiod函数的导数,softmax’表示softmax函数的导数;
利用各层滤波器的损失矩阵与其对应的输出结果图,卷积得出每层边缘检测滤波器对应的偏移量b。
3.如权利要求1所述的基于深度学习的边缘检测滤波器优化方法,其特征在于:所述边缘检测滤波器包括:sobel滤波器、Prewitt滤波器和scharr滤波器。
4.如权利要求1所述的基于深度学习的边缘检测滤波器优化方法,其特征在于:所述不同方向的边缘检测因子包括:水平方向边缘检测因子、竖直方向边缘检测因子、45°方向边缘检测因子,135°方向边缘检测因子。
5.如权利要求3或4所述的基于深度学习的边缘检测滤波器优化方法,其特征在于:步骤五中,将水平方向和竖直方向的sobel因子加上对应的偏移量b,得出修正后的各层sobel滤波器,具体为:
记原始水平方向的sobel因子:
Figure FDA0002728215650000031
竖直方向的sobel因子:
Figure FDA0002728215650000032
则第一次修正后水平方向的sobel因子:
Figure FDA0002728215650000033
竖直方向的sobel因子:
Figure FDA0002728215650000034
……如此重复,每次修正,均在前一次sobel因子的基础上加上新的偏移量。
6.如权利要求1所述的基于深度学习的边缘检测滤波器优化方法,其特征在于,为了使卷积后的图像与输入图像尺寸相同,对输入图像的边缘用0做填充处理,将输入图像尺寸从(Height,Width)变为(Height+1,Width+1)。
CN202011109798.5A 2020-10-16 2020-10-16 基于深度学习的边缘检测滤波器优化方法 Active CN112308870B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011109798.5A CN112308870B (zh) 2020-10-16 2020-10-16 基于深度学习的边缘检测滤波器优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011109798.5A CN112308870B (zh) 2020-10-16 2020-10-16 基于深度学习的边缘检测滤波器优化方法

Publications (2)

Publication Number Publication Date
CN112308870A true CN112308870A (zh) 2021-02-02
CN112308870B CN112308870B (zh) 2022-06-14

Family

ID=74327969

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011109798.5A Active CN112308870B (zh) 2020-10-16 2020-10-16 基于深度学习的边缘检测滤波器优化方法

Country Status (1)

Country Link
CN (1) CN112308870B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180336683A1 (en) * 2017-05-18 2018-11-22 Mitsubishi Electric Research Laboratories, Inc. Multi-Label Semantic Boundary Detection System
CN109373901A (zh) * 2018-12-03 2019-02-22 易思维(天津)科技有限公司 位于平面上的孔的中心位置的计算方法
CN111127499A (zh) * 2019-12-20 2020-05-08 北京工业大学 一种基于语义轮廓信息的安检图像刀具检测分割方法
CN111583287A (zh) * 2020-04-23 2020-08-25 浙江大学 一种用于精细人像图片分割的深度学习模型训练方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180336683A1 (en) * 2017-05-18 2018-11-22 Mitsubishi Electric Research Laboratories, Inc. Multi-Label Semantic Boundary Detection System
CN109373901A (zh) * 2018-12-03 2019-02-22 易思维(天津)科技有限公司 位于平面上的孔的中心位置的计算方法
CN111127499A (zh) * 2019-12-20 2020-05-08 北京工业大学 一种基于语义轮廓信息的安检图像刀具检测分割方法
CN111583287A (zh) * 2020-04-23 2020-08-25 浙江大学 一种用于精细人像图片分割的深度学习模型训练方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘丽霞等: "改进Canny边缘检测的遥感影像分割", 《计算机工程与应用》 *

Also Published As

Publication number Publication date
CN112308870B (zh) 2022-06-14

Similar Documents

Publication Publication Date Title
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
CN110427839B (zh) 基于多层特征融合的视频目标检测方法
CN109859171B (zh) 一种基于计算机视觉和深度学习的楼面缺陷自动检测方法
CN109934826B (zh) 一种基于图卷积网络的图像特征分割方法
CN110276264B (zh) 一种基于前景分割图的人群密度估计方法
CN112365497A (zh) 基于TridentNet和Cascade-RCNN结构的高速目标检测方法和系统
CN110969171A (zh) 基于改进卷积神经网络的图像分类模型、方法及应用
CN112233129A (zh) 基于深度学习的并行多尺度注意力机制语义分割方法及装置
CN110827312A (zh) 一种基于协同视觉注意力神经网络的学习方法
CN111815526B (zh) 基于图像滤波和cnn的有雨图像雨条纹去除方法及系统
CN115797808A (zh) 一种无人机巡检缺陷图像的识别方法、系统、装置及介质
CN116205876A (zh) 基于多尺度标准化流的无监督笔记本外观缺陷检测方法
CN113421210B (zh) 一种基于双目立体视觉的表面点云重建方法
CN113223074A (zh) 一种水下激光条纹中心提取方法
CN111881914B (zh) 一种基于自学习阈值的车牌字符分割方法及系统
CN110348339B (zh) 一种基于实例分割的手写文档文本行的提取方法
CN112308870B (zh) 基于深度学习的边缘检测滤波器优化方法
CN115830514B (zh) 一种适用于带弯曲河道的全河段表面流速计算方法及系统
CN108154488A (zh) 一种基于显著图像块分析的图像运动模糊去除方法
CN111724410A (zh) 一种基于残余注意力的目标跟踪方法
CN114898096A (zh) 一种人物图像的分割和标注方法及系统
CN110569853B (zh) 一种基于目标定位的独立公式的分割方法
CN114548250A (zh) 一种基于数据分析的手机外观检测方法及装置
CN110490877B (zh) 基于Graph Cuts的双目立体图像对目标分割方法
CN112819823A (zh) 一种面向家具板材的圆孔检测方法、系统及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Room 495, building 3, 1197 Bin'an Road, Binjiang District, Hangzhou City, Zhejiang Province 310051

Patentee after: Yi Si Si (Hangzhou) Technology Co.,Ltd.

Address before: Room 495, building 3, 1197 Bin'an Road, Binjiang District, Hangzhou City, Zhejiang Province 310051

Patentee before: ISVISION (HANGZHOU) TECHNOLOGY Co.,Ltd.

CP01 Change in the name or title of a patent holder