CN112308870A - 基于深度学习的边缘检测滤波器优化方法 - Google Patents
基于深度学习的边缘检测滤波器优化方法 Download PDFInfo
- Publication number
- CN112308870A CN112308870A CN202011109798.5A CN202011109798A CN112308870A CN 112308870 A CN112308870 A CN 112308870A CN 202011109798 A CN202011109798 A CN 202011109798A CN 112308870 A CN112308870 A CN 112308870A
- Authority
- CN
- China
- Prior art keywords
- loss
- edge detection
- image
- filter
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003708 edge detection Methods 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000013135 deep learning Methods 0.000 title claims abstract description 16
- 238000005457 optimization Methods 0.000 title claims abstract description 13
- 239000011159 matrix material Substances 0.000 claims abstract description 40
- 230000006870 function Effects 0.000 claims abstract description 18
- 230000004913 activation Effects 0.000 claims abstract description 4
- 238000009432 framing Methods 0.000 claims abstract description 4
- 238000002372 labelling Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 description 10
- 238000003709 image segmentation Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000001681 protective effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的边缘检测滤波器优化方法,包括:采集多张待测物图像,记为训练图像集;分别框选各张图像中的待测特征并标注,得到标注图像;以第一张训练图像作为输入图像;对输入图像进行卷积,再计算各个像素点的梯度,输入到Sigmiod函数中进行激活处理,得到输出结果图;将输出结果图记为新的输入图像,重复;利用softmax函数得到归一化结果图,计算归一化结果图与标注图像的损失矩阵MLoss和LOSS值;利用损失矩阵MLoss进行反向传播,得出修正后的各层边缘检测滤波器;以下一张训练图像作为输入图像并利用修正后的各层边缘检测滤波器继续重复,直到LOSS值发生收敛;本方法边缘检测稳定更好,鲁棒性高且计算量小。
Description
技术领域
本发明涉及图像处理领域,具体涉及一种基于深度学习的边缘检测滤波器优化方法。
背景技术
图像分割是计算机视觉领域的重要分支,其中,Sobel、Prewitt等边缘检测方法是图像分割的经典检测算法。随着图像分割任务的要求越来越高,单纯的Sobel算子进行图像分割时,容易出现分割不全面、误分割的现象,无法满足实际生产过程中的检测需求;进而出现了:基于深度学习的图像分割算法,其虽然在像素分类精度上有着很大提高,但是深层次的网络模型带来庞大的计算量,因此会使得算法十分依赖硬件设施,如GPU等。
发明内容
为了解决现有技术存在的问题,提供一种分割效果好且计算量小的分割方法,将深度学习思想应用到边缘检测滤波器的优化过程中,计算偏移量b,通过训练图像迭代出合适的边缘检测滤波器的参数,修正边缘检测因子,进行滤波器的优化,本方法将多个滤波器级联形成最终的滤波器,使得边缘检测稳定更好,鲁棒性提高。
为此,本发明的技术方案如下:
一种基于深度学习的边缘检测滤波器优化方法,包括以下步骤:
步骤一、采集多张待测物图像,记为训练图像集;
分别框选各张图像中的待测特征并标注每个像点的类别标签,所述类别标签为前景标签或背景标签;将经过上述处理的训练图像记为标注图像;
以第一张训练图像作为初始的输入图像;
步骤二、分别利用不同方向的边缘检测因子对输入图像进行卷积处理,得到整幅图像各个像素点的梯度,将其输入到Sigmiod函数中进行激活处理,得到输出结果图;
步骤三、将输出结果图记为新的输入图像,重复步骤二N次,N=1~5即:前一次的输出结果图作为下一次的输入图像;将最后一次得到的输出结果图记为最终结果图;
将首次进行步骤二时的边缘检测因子记为第一层滤波器;第i次重复步骤二时的边缘检测因子记为第i+1层滤波器;i=1,2…N;
步骤四、利用softmax函数归一化处理最终结果图中各点的像素值,记为归一化结果图,计算所述归一化结果图与所述输入图像的标注图像各像点之间的交叉熵损失值,记为损失矩阵MLoss;再将各个交叉熵损失值取均值记为LOSS值;
步骤五、利用损失矩阵MLoss进行反向传播,得出每层边缘检测滤波器的偏移量b;将不同方向的边缘检测因子加上对应的偏移量b,得出修正后的各层边缘检测滤波器;
以下一张训练图像作为输入图像并利用修正后的各层边缘检测滤波器继续进行步骤二~步骤四,直到LOSS值发生收敛;
步骤六、将步骤五中最后得出的各层边缘检测滤波器级联作为优化后的边缘检测滤波器。
进一步,步骤五中利用损失矩阵MLoss进行反向传播,得出每层边缘检测滤波器的偏移量b;具体为:
经过反向传播,标记:第N+1层滤波器的损失矩阵LossN+1(x,y)=MLoss(x,y),(x,y)表示损失矩阵中的单个点;
MLoss(x,y)为损失矩阵MLoss的具体表达,即:(x,y)表示损失矩阵MLoss中的单个点;
则第N层滤波器的损失矩阵LossN中各个点(x,y)的值:
LossN(x,y)=sigmoid′(LossN+1(x,y))·softmax'(LossN+1(x,y));
第N-1层滤波器的损失矩阵LossN-1中各个点(x,y)的值:
LossN-1(x,y)=sigmoid′(LossN(x,y))·softmax'(LossN(x,y)),……
第一层滤波器的损失矩阵Loss1各个点(x,y)的值:
Loss1(x,y)=sigmoid′(Loss2(x,y))·softmax'(Loss2(x,y));
其中,sigmoid'表示Sigmiod函数的导数,softmax'表示softmax函数的导数。即sigmoid′(LossN+1(x,y))表示将矩阵LossN+1中的各个点的参数值分别代入到Sigmiod函数并求导;softmax'(LossN+1(x,y))表示将矩阵LossN+1中的各个点的参数值分别代入到softmax函数并求导。
计算各层滤波器的损失矩阵与其对应的输出结果图的交叉熵损失的均值,记为每层边缘检测滤波器的偏移量b。
进一步,所述边缘检测滤波器包括:sobe1滤波器、Prewitt滤波器和scharr滤波器。
进一步,所述不同方向的边缘检测因子包括:水平方向边缘检测因子、竖直方向边缘检测因子、45°方向边缘检测因子,135°方向边缘检测因子。
进一步,步骤五中,将水平方向和竖直方向的sobel因子加上对应的偏移量b,得出修正后的各层sobel滤波器,具体为:
……如此重复,每次修正,均在前一次sobel因子的基础上加上新的偏移量。
为了使卷积后的图像与输入图像尺寸相同,对输入图像的边缘用0做填充处理,将输入图像尺寸从(Height,Width)变为(Height+1,Width+1)。
采用本发明方法得出的边缘检测滤波器对于对比度差、边界不清晰的图像分割效果明显优于常规的边缘检测算子,分割准确率能够达到95%以上,与深度学习图像分割准确率持平;本方法仅包含N+1个sobel卷积运算层、Sigmiod函数激活层和softmax激活层,相比于深度学习算法分割图像,本方法大大减少了计算量和训练量,降低了算法对硬件的需求,以经典VGG网络为例,当输入图像大小为224×224时,VGG所需计算量的数量级为109,参数的数量级为107,本发明中计算量的数量级是105,参数量为108个,远远小于深度学习模型,图像分割的速度可以明显提升。
附图说明
图1为具体实施方式中待分割镜片图像原始灰度图;
图2为采用现有Sobel算子对感兴趣区域检测结果图示意图;
图3为采用FCN全卷积网络对感兴趣区域检测结果图示意图;
图4为采用本方法优化的Sobel边缘检测滤波器对感兴趣区域检测示意图。
具体实施方式
以下结合附图和具体实施方式对本发明的技术方案进行详细描述。
一种基于深度学习的边缘检测滤波器优化方法,包括以下步骤:
步骤一、采集多张待测物图像,记为训练图像集;
分别框选各张图像中的待测特征并标注每个像点的类别标签,所述类别标签为前景标签或背景标签;将经过上述处理的训练图像记为标注图像;
本实施例中,采用LabelMe软件标注各图像,标注完成的图像应具有每个像素点的类别标签(将前景类别标为1,背景类别标为0)。
以第一张训练图像作为初始的输入图像;
步骤二、分别利用不同方向的边缘检测因子对输入图像进行卷积处理,得到整幅图像各个像素点的梯度,将其输入到Sigmiod函数中进行激活处理,得到输出结果图;
为了使卷积后的图像与输入图像尺寸相同,对输入图像的边缘用0做填充处理,将输入图像尺寸从(Height,Width)变为(Height+1,Width+1);
其中不同方向的边缘检测因子包括:水平方向边缘检测因子、竖直方向边缘检测因子、45°方向边缘检测因子,135°方向边缘检测因子。
本实施例中,采用水平方向和竖直方向的sobel因子;
步骤三、将输出结果图记为新的输入图像,重复步骤二N次,N=1~5即:前一次的输出结果图作为下一次的输入图像;将最后一次得到的输出结果图记为最终结果图;
将首次进行步骤二时的边缘检测因子记为第一层滤波器;第i次重复步骤二时的边缘检测因子记为第i+1层滤波器;i=1,2…N;
本实施例中,N=2,将得到第一层滤波器、第二层滤波器和第三层滤波器;
步骤四、利用softmax函数归一化处理最终结果图中各点的像素值,记为归一化结果图,计算所述归一化结果图与所述输入图像的标注图像各像点之间的交叉熵损失值,记为损失矩阵MLoss;再将各个交叉熵损失值取均值记为LOSS值;
步骤五、利用损失矩阵MLoss进行反向传播,得出每层边缘检测滤波器的偏移量b;将不同方向的边缘检测因子加上对应的偏移量b,得出修正后的各层边缘检测滤波器;
以下一张训练图像作为输入图像并利用修正后的各层边缘检测滤波器继续进行步骤二~步骤四,直到LOSS值发生收敛;
步骤六、将步骤五中最后得出的各层边缘检测滤波器级联作为优化后的边缘检测滤波器。
其中,步骤五中利用损失矩阵MLoss进行反向传播,得出每层边缘检测滤波器的偏移量b;具体为:
经过反向传播,标记:第N+1层滤波器的损失矩阵LossN+1(x,y)=MLoss(x,y),(x,y)表示损失矩阵中单个点;
MLoss(x,y)为损失矩阵MLoss的具体表达,即:(x,y)表示损失矩阵MLoss中单个点;
则第N层滤波器的损失矩阵LossN中各个点(x,y)的值:
LossN(x,y)=sigmoid′(LossN+1(x,y))·softmax'(LossN+1(x,y));
第N-1层滤波器的损失矩阵LossN-1中各个点(x,y)的值:
LossN-1(x,y)=sigmoid′(LossN(x,y))·softmax'(LossN(x,y)),……
第一层滤波器的损失矩阵Loss1各个点(x,y)的值:
Loss1(x,y)=sigmoid′(Loss2(x,y))·softmax'(Loss2(x,y));
其中,sigmoid'表示Sigmiod函数的导数,softmax'表示softmax函数的导数;
即sigmoid′(LossN+1(x,y))表示将矩阵LossN+1中的各个点的参数值分别代入到Sigmiod函数并求导;softmax'(LossN+1(x,y))表示将矩阵LossN+1中的各个点的参数值分别代入到softmax函数并求导。
计算各层滤波器的损失矩阵与其对应的输出结果图的交叉熵损失的均值,记为每层边缘检测滤波器的偏移量b。
本实施例中,N=2,第三层滤波器的损失矩阵Loss3=MLoss(x,y);(x,y)表示损失矩阵MLoss中的单个点;
则第二层滤波器的损失矩阵Loss2各个点(x,y)的值:
Loss2(x,y)=sigmoid′(MLoss(x,y))·softmax'(MLoss(x,y));
第一层滤波器的损失矩阵Loss1各个点(x,y)的值:
Loss1(x,y)=sigmoid′(Loss2(x,y))·softmax'(Loss2(x,y))=sigmoid′(sigmoid′(MLoss(x,y))·softmox'(MLoss(x,y)))·softmax'(sigmoid′(MLoss(x,y))·softmax'(MLoss(x,y)));
本方法中可以进行优化的边缘检测滤波器包括:sobel滤波器、Prewitt滤波器和scharr滤波器。
具体的,步骤五中,将水平方向和竖直方向的sobel因子加上对应的偏移量b,得出修正后的各层sobel滤波器,具体为:
……如此重复,每次修正,均在前一次sobel因子的基础上加上新的偏移量。
本实施例中,对激光焊接头前端保护镜片上的污渍进行分割,其原始采集图像如图1所示,图中外圈高亮的圆形为保护镜片的边缘,其内部高亮的区域为待分割的污渍;采用现有Sobel算子、FCN全卷积网络(深度学习方法)和本方法优化的Sobel边缘检测滤波器分别对保护镜片上感兴趣区域(镜片内部区域)进行分割处理,其分割结果图如图2~4所示;可见本方法优化的Sobel边缘检测滤波器能够分割出更为准确的污渍区域,减少了误分割情况;特别是对于对比度差、边界不清晰的图像分割效果明显优于常规的边缘检测算子,分割准确率能够达到95%以上,并且本方案优化过程大大减少了计算量和训练量,降低了算法对硬件的需求,图像分割的速度可以明显提升。
Claims (6)
1.一种基于深度学习的边缘检测滤波器优化方法,其特征在于,包括以下步骤:
步骤一、采集多张待测物图像,记为训练图像集;
分别框选各张图像中的待测特征并标注每个像点的类别标签,所述类别标签为前景标签或背景标签;将经过上述处理的训练图像记为标注图像;
以第一张训练图像作为初始的输入图像;
步骤二、分别利用不同方向的边缘检测因子对输入图像进行卷积处理,得到整幅图像各个像素点的梯度,将其输入到Sigmiod函数中进行激活处理,得到输出结果图;
步骤三、将输出结果图记为新的输入图像,重复步骤二N次,N=1~5;将最后一次得到的输出结果图记为最终结果图;
将首次进行步骤二时的边缘检测因子记为第一层滤波器;第i次重复步骤二时的边缘检测因子记为第i+1层滤波器;i=1,2…N;
步骤四、利用softmax函数归一化处理最终结果图中各点的像素值,记为归一化结果图,计算所述归一化结果图与所述输入图像的标注图像各像点之间的交叉熵损失值,记为损失矩阵MLoss;再将各个交叉熵损失值取均值记为LOSS值;
步骤五、利用损失矩阵MLoss进行反向传播,得出每层边缘检测滤波器的偏移量b;将不同方向的边缘检测因子加上对应的偏移量b,得出修正后的各层边缘检测滤波器;
以下一张训练图像作为输入图像并利用修正后的各层边缘检测滤波器继续进行步骤二~步骤四,直到LOSS值发生收敛;
步骤六、将步骤五中最后得出的各层边缘检测滤波器级联作为优化后的边缘检测滤波器。
2.如权利要求1所述的基于深度学习的边缘检测滤波器优化方法,其特征在于:步骤五中利用损失矩阵MLoss进行反向传播,得出每层边缘检测滤波器的偏移量b;具体为:
经过反向传播,标记:第N+1层滤波器的损失矩阵LossN+1(x,y)=MLoss(x,y),(x,y)表示损失矩阵中的单个点;
则第N层滤波器的损失矩阵LossN中各个点(x,y)的值:
LossN(x,y)=sigmoid′(LossN+1(x,y))·softmax’(LossN+1(x,y));
第N-1层滤波器的损失矩阵LossN-1中各个点(x,y)的值:
LossN-1(x,y)=sigmoid′(LossN(x,y))·softmax’(LossN(x,y)),……
第一层滤波器的损失矩阵Loss1各个点(x,y)的值:
Loss1(x,y)=sigmoid′(Loss2(x,y))·softmax’(Loss2(x,y));
其中,sigmoid′表示Sigmiod函数的导数,softmax’表示softmax函数的导数;
利用各层滤波器的损失矩阵与其对应的输出结果图,卷积得出每层边缘检测滤波器对应的偏移量b。
3.如权利要求1所述的基于深度学习的边缘检测滤波器优化方法,其特征在于:所述边缘检测滤波器包括:sobel滤波器、Prewitt滤波器和scharr滤波器。
4.如权利要求1所述的基于深度学习的边缘检测滤波器优化方法,其特征在于:所述不同方向的边缘检测因子包括:水平方向边缘检测因子、竖直方向边缘检测因子、45°方向边缘检测因子,135°方向边缘检测因子。
6.如权利要求1所述的基于深度学习的边缘检测滤波器优化方法,其特征在于,为了使卷积后的图像与输入图像尺寸相同,对输入图像的边缘用0做填充处理,将输入图像尺寸从(Height,Width)变为(Height+1,Width+1)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011109798.5A CN112308870B (zh) | 2020-10-16 | 2020-10-16 | 基于深度学习的边缘检测滤波器优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011109798.5A CN112308870B (zh) | 2020-10-16 | 2020-10-16 | 基于深度学习的边缘检测滤波器优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112308870A true CN112308870A (zh) | 2021-02-02 |
CN112308870B CN112308870B (zh) | 2022-06-14 |
Family
ID=74327969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011109798.5A Active CN112308870B (zh) | 2020-10-16 | 2020-10-16 | 基于深度学习的边缘检测滤波器优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112308870B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180336683A1 (en) * | 2017-05-18 | 2018-11-22 | Mitsubishi Electric Research Laboratories, Inc. | Multi-Label Semantic Boundary Detection System |
CN109373901A (zh) * | 2018-12-03 | 2019-02-22 | 易思维(天津)科技有限公司 | 位于平面上的孔的中心位置的计算方法 |
CN111127499A (zh) * | 2019-12-20 | 2020-05-08 | 北京工业大学 | 一种基于语义轮廓信息的安检图像刀具检测分割方法 |
CN111583287A (zh) * | 2020-04-23 | 2020-08-25 | 浙江大学 | 一种用于精细人像图片分割的深度学习模型训练方法 |
-
2020
- 2020-10-16 CN CN202011109798.5A patent/CN112308870B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180336683A1 (en) * | 2017-05-18 | 2018-11-22 | Mitsubishi Electric Research Laboratories, Inc. | Multi-Label Semantic Boundary Detection System |
CN109373901A (zh) * | 2018-12-03 | 2019-02-22 | 易思维(天津)科技有限公司 | 位于平面上的孔的中心位置的计算方法 |
CN111127499A (zh) * | 2019-12-20 | 2020-05-08 | 北京工业大学 | 一种基于语义轮廓信息的安检图像刀具检测分割方法 |
CN111583287A (zh) * | 2020-04-23 | 2020-08-25 | 浙江大学 | 一种用于精细人像图片分割的深度学习模型训练方法 |
Non-Patent Citations (1)
Title |
---|
刘丽霞等: "改进Canny边缘检测的遥感影像分割", 《计算机工程与应用》 * |
Also Published As
Publication number | Publication date |
---|---|
CN112308870B (zh) | 2022-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109299274B (zh) | 一种基于全卷积神经网络的自然场景文本检测方法 | |
CN110427839B (zh) | 基于多层特征融合的视频目标检测方法 | |
CN109859171B (zh) | 一种基于计算机视觉和深度学习的楼面缺陷自动检测方法 | |
CN109934826B (zh) | 一种基于图卷积网络的图像特征分割方法 | |
CN110276264B (zh) | 一种基于前景分割图的人群密度估计方法 | |
CN112365497A (zh) | 基于TridentNet和Cascade-RCNN结构的高速目标检测方法和系统 | |
CN110310305B (zh) | 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置 | |
CN112233129A (zh) | 基于深度学习的并行多尺度注意力机制语义分割方法及装置 | |
CN110969171A (zh) | 基于改进卷积神经网络的图像分类模型、方法及应用 | |
CN113177947B (zh) | 基于多模块卷积神经网络的复杂环境目标分割方法及装置 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN111815526B (zh) | 基于图像滤波和cnn的有雨图像雨条纹去除方法及系统 | |
CN115797808A (zh) | 一种无人机巡检缺陷图像的识别方法、系统、装置及介质 | |
CN116205876A (zh) | 基于多尺度标准化流的无监督笔记本外观缺陷检测方法 | |
CN113223074A (zh) | 一种水下激光条纹中心提取方法 | |
CN114120359A (zh) | 一种基于堆叠沙漏网络的群养猪体尺测量方法 | |
CN112308870B (zh) | 基于深度学习的边缘检测滤波器优化方法 | |
CN110348339B (zh) | 一种基于实例分割的手写文档文本行的提取方法 | |
CN115830514B (zh) | 一种适用于带弯曲河道的全河段表面流速计算方法及系统 | |
CN108154488A (zh) | 一种基于显著图像块分析的图像运动模糊去除方法 | |
CN111724410A (zh) | 一种基于残余注意力的目标跟踪方法 | |
CN114898096A (zh) | 一种人物图像的分割和标注方法及系统 | |
CN110569853B (zh) | 一种基于目标定位的独立公式的分割方法 | |
CN114548250A (zh) | 一种基于数据分析的手机外观检测方法及装置 | |
CN110490877B (zh) | 基于Graph Cuts的双目立体图像对目标分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: Room 495, building 3, 1197 Bin'an Road, Binjiang District, Hangzhou City, Zhejiang Province 310051 Patentee after: Yi Si Si (Hangzhou) Technology Co.,Ltd. Address before: Room 495, building 3, 1197 Bin'an Road, Binjiang District, Hangzhou City, Zhejiang Province 310051 Patentee before: ISVISION (HANGZHOU) TECHNOLOGY Co.,Ltd. |
|
CP01 | Change in the name or title of a patent holder |