CN109886984B - 利用前后景灰度差和深度学习网络的图像精确分割方法 - Google Patents
利用前后景灰度差和深度学习网络的图像精确分割方法 Download PDFInfo
- Publication number
- CN109886984B CN109886984B CN201910059025.1A CN201910059025A CN109886984B CN 109886984 B CN109886984 B CN 109886984B CN 201910059025 A CN201910059025 A CN 201910059025A CN 109886984 B CN109886984 B CN 109886984B
- Authority
- CN
- China
- Prior art keywords
- point
- image
- undetermined
- foreground
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
本发明公开了一种利用前后景灰度差和深度学习网络的图像精确分割方法。采用DeepLab识别模型并对待定图像识别得到初始分割图,提取初始分割图上待测物的轮廓点并计算定向矩阵和长短轴长度,用定向矩阵对轮廓点进行重定向,计算质心,利用定向矩阵、长短轴长度和质心计算待定点前景灰度差异值、背景灰度差异值,进而计算前景扩张参考值和背景扩张参考值,比较前景扩张参考值和背景扩张参考值与相应阈值的大小确定待定点的属性,进而实现精确分割。本发明综合利用待定点与待测物质心的距离和待定点与前景及背景的灰度差异来判断等点的属性,实现了图像的精确分割。
Description
技术领域
本发明涉及一种在现有技术分割图像基础上进一步提高图像分割精度的方法,具体涉及一种利利用前后景灰度差和深度学习网络的图像精确分割方法。
背景技术
图像分割是将图像区分为多个特定区域来代表不同的事物的过程,是目标识别中重要的步骤。
在猪的行为检测中,需要将猪从各种背景中识别出来,实现猪的图像分割,为进一步的行为分析打下基础。但由于猪场内各种设施的存在及光照条件的不断变化,传统的图像分割方法很容易失效。
近年来,深度学习方法在图像分割中得到了应用。
FCN是图像分割最早的经典模型(LONG J,SHELHAMER E,DARRELL T.Fullyconvolutional networks for semantic segmentation;proceedings of theProceedings of the IEEE conference on computer vision and patternrecognition,F,2015),其主要思想是将图像识别的神经网络模型的最后一层全连接层替换成全卷积层。使得原来输出单个识别结果的模型可以进行像素级别的图像识别。
MaskRCNN(HE K,GKIOXARI G,DOLLáR P,et al.Mask r-cnn;proceedings of theComputer Vision(ICCV),2017IEEE International Conference on,F,2017[C].IEEE.)是在Faster R-CNN(EN S,HE K,GIRSHICK R,et al.Faster R-CNN:towards real-timeobject detection with region proposal networks;proceedings of theInternational Conference on Neural Information Processing Systems,F,2015)基础上做了另一条类似FCN结构的分支,其在图像分割领域成绩不俗。
SegNet(KENDALL A,BADRINARAYANAN V,CIPOLLA R.Bayesian segnet:Modeluncertainty in deep convolutional encoder-decoder architectures for sceneunderstanding[J].arXiv preprint arXiv:151102680,2015。RONNEBERGER O,FISCHER P,BROX T.U-net:Convolutional networks for biomedical image segmentation;proceedings of the International Conference on Medical image computing andcomputer-assisted intervention,F,2015[C].Springer.)的权重比FCN小很多,同时还有简化版的网络用于道路情况的实时分割,简化版的权重仅有5MB。除了原版的SegNet,作者还结合了贝叶斯概率原理设计了Bayesian SegNet,它主要利用了Dropout将每次网络的输出变成了不确定的结果,单次网络的前向传播得出预测概率是先验概率,而通过多次传播得到多个输出来确定总体的后验概率,得出置信度。
CRFasRNN(ZHENG S,JAYASUMANA S,ROMERA-PAREDES B,et al.Conditionalrandom fields as recurrent neural networks;proceedings of the Proceedings ofthe IEEE international conference on computer vision,F,2015[C])使用FCN输出像素判别为某一类的概率作为CRF能量方程的一元势能,并设计了一个标签相性函数、像素特征向量(主要为颜色与位置)与高斯核相结合的二元势能来反映像素和周边像素的关系。
DeepLab(CHEN L-C,PAPANDREOU G,KOKKINOS I,et al.Semantic imagesegmentation with deep convolutional nets and fully connected crfs[J].arXivpreprint arXiv:14127062,2014。CHEN L-C,PAPANDREOU G,KOKKINOS I,et al.Deeplab:Semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected crfs[J].IEEE transactions on pattern analysis and machineintelligence,2018,40(4):834-48。CHEN L-C,PAPANDREOU G,SCHROFF F,etal.Rethinking atrous convolution for semantic image segmentation[J].arXivpreprint arXiv:170605587,2017。CHEN L-C,ZHU Y,PAPANDREOU G,et al.Encoder-decoder with atrous separable convolution for semantic image segmentation[J].arXiv preprint arXiv:180202611,2018)图像分割领域的主流模型。DeepLab的第一个版本引入了空洞卷积代替池化,从而使得网络输出的分辨率不会太低,也就避免了需要引入大尺寸的填充,同时在网络最后接上了条件随机场(CRF),利用图像的空间相关性精细化分割结果。DeepLab的第二个版本使用了空洞空间金字塔池化,即借鉴了空间金字塔池化网络[57]在不同尺度上使用了空洞卷积从而使得分割能适应不同尺度变化。DeepLab的第三版本改进了空洞空间金字塔池化的模块,形成串联结构。最新版本命名为V3+,主要是结合了解码结构,使得输出在上采样的时候与同尺度的图像特征结合,获取更好的精度。
在猪个体识别中,由于场景复杂且光照环境多变,采用深度学习模型得到猪分割结果和真实结果不完全一致的,有些情况下,差距还很大,需研究进一步提高分割精度的方法。
发明内容
为了解决背景技术中存在的精确分割的问题,本发明提供了一种利利用前后景灰度差和深度学习网络的图像精确分割方法,使用基于区域生长的分割算法对初分割结果周围的区域再进行精分割,能提高图像分割精度。
本发明所采用技术方案如下:
步骤1:采集多幅不同场景、不同时段、不同拍摄角度的待测物图像,对每一幅待测物图像处理获得待测物初步轮廓,将待测物初步轮廓以外的图像区域变为黑色;
所述的待测物图像为完整包含有待测物的图像。所述的待测物在图像中的主体形状为椭圆形。
具体实施中,所述的图像为母猪图像,图像中完整包含有母猪对象。
步骤2:对步骤1获得的所有待测物图像采用DeepLab神经网络进行模型训练,得到待测物识别模型;
所述待测物图像为模型训练的已知样本图像。
步骤3:对待定图像用待测物识别模型进行识别,得到与待定图像大小一致的初始分割图;初始分割图上属于待测物的图像区域对应到待定图像上的相同图像区域作为前景,初始分割图上不属于待测物的图像区域对应到待定图像上的相同图像区域作为背景;并且对初始分割图中的待测物进行边缘提取,得到初始轮廓L;
步骤4:以初始分割图左下点为原点,水平方向为x轴,竖直方向为y轴,建立图像直角坐标系;
步骤5:将待测物的初始轮廓L以图像直角坐标系下的坐标表示成轮廓点(xi,yi)保存,i=1,2…N,N表示初始轮廓中轮廓点的序数;
步骤6:将待测物看作椭圆形,采用尺寸快速检测方法对待定图像处理得到待测物的定向矩阵R、横径(长轴长度)w和纵径(短轴长度)h,将定向矩阵R与每个轮廓点(xi,yi)相乘得到各自新的轮廓点(x’i,y’i),利用所有新的轮廓点(x’i,y’i)计算待测物在图像直角坐标系下的质心(x’c,y’c);
步骤7:将待定图像的背景(待测物的初始分割图上不属于待测物的像素点在待定图像上的对应点集)与待定图像的前景(待测物的初始分割图上属于待测物的像素点在待定图像上的对应点集)之间的轮廓点坐标Qs(xs,ys)作为待定点组成待定点队列Q;
步骤8:将待定点队列中的待定点Qs(xs,ys)与定向矩阵R相乘得到新待定点(x’s,y’s),用下面的公式计算新待定点(x’s,y’s)与质心(x’c,y’c)的距离Dc:
式中,w为待测物的长轴长度,h为短轴长度;
步骤9:针对待定点Qs(xs,ys)的8邻域中属于前景的像素点作为前景点,计算前景点的灰度差异值Dt:
式中,gy,x为待定点Qs(xs,ys)的灰度值,nt为前景点数量,T为待定点S(xs,ys)的8邻域中前景像素点集;
步骤10:针对待定点Qs(xs,ys)的8邻域中属于背景的像素点作为背景点,计算背景点的灰度差异值Db:
式中,gy,x为待定点Qs(xs,ys)的灰度值,nb为背景点数量,B为待定点S(xs,ys)的8邻域中背景像素点集;
步骤11:计算前景扩张参考值vt:
步骤12:针对每一个待定点Qs(xs,ys),先将待定点Qs(xs,ys)从待定点序列Q中去除,然后均作以下处理:
若前景扩张参考值vt大于-0.3,则将待定点Qs(xs,ys)判定为前景,将初始分割图上与待定点Qs(xs,ys)对应相同位置的像素点赋值为1,同时并将待定点的8邻域内的背景点作为待定点加入待定点序列Q的末尾;
若前景扩张参考值vt不大于-0.3,则将待定点Qs(xs,ys)判定为背景,将初始分割图上与待定点Qs(xs,ys)对应相同位置的像素点赋值为0;
步骤13:重复步骤8到步骤12对每个待定点进行处理,直到待定点序列Q中的待定点的个数小于点波动阈值;
步骤14:将待定图像的背景与待定图像的前景之间的轮廓点坐标Qs(xs,ys)作为待定点重新组成待定点队列Q;
步骤15:重复步骤8到步骤10,并计算背景扩张参考值vb:
步骤16:针对每一个待定点Qs(xs,ys),先将待定点Qs(xs,ys)从待定点序列Q中去除,然后作以下处理:
若背景扩张参考值vb大于3,则将待定点Qs(xs,ys)判定为背景,将初始分割图上与待定点Qs(xs,ys)对应相同位置的像素点赋值为0,同时并将待定点的8邻域内的背景点作为待定点加入待定点序列Q的末尾;
若背景扩张参考值vb不大于3,则将待定点Qs(xs,ys)判定为前景,将初始分割图上与待定点Qs(xs,ys)对应相同位置的像素点赋值为1;
步骤17:重复步骤15到步骤16直到待定点序列Q中的待定点的个数小于点波动阈值;
步骤18:对完成上述步骤得到的初始分割图利用半径为1的圆形结构元做形态学闭运算优化边缘,并填充空洞,完成操作后,初始分割图上为1的区域代表待测物,从而完成对图像待测物对象的进一步精确分割。
本发明利用待定图像的灰度值对初始分割图的赋值进行处理,根据初始分割图的赋值情况判断作为待定图像中待测物对象的精确分割结果。
所述的图像为可见光图像。
本发明的有益效果是:
本发明综合利用待定点与母猪质心的距离和待定点与前景及背景的灰度差异来判断等点的属性,实现了图像的精确分割。
附图说明
图1是待定图像。
图2是待定图像中母猪A的初始分割图与待定图像的交集图像。
图3是初始分割图和精确分割图的差异图。
图4是待定图像中母猪A的精确分割图与待定图像的交集图像。
具体实施方式
下面结合附图和具体实施例对本发明作进一步的说明。
本发明的实施例具体如下:
采用摄像机(在本例中,采用DS-2CD3T20-I3)和硬盘录像机(在本例中,采用ST4000VX000)连续拍摄并记录多头妊娠期母猪的图像。
步骤1:选取1000幅不同场景、时段及拍摄角度的母猪图像,采用常用的图像处理软件处理获得母猪初步轮廓,将母猪初步轮廓以外的图像区域变为黑色,作为数据集。
步骤2:从数据集中随机挑取124幅图像作为测试集,剩余的876幅图像作为训练集,采用DeepLab进行模型训练,得到母猪识别模型。
步骤3:待定图像如图1所示,对待定图像用母猪识别模型进行识别,得到与待定图像大小一致的且初始分割图。在初始分割图上,属于母猪A的像素点灰度值为1,其余像素点的灰度值为0。对母猪A进行边缘提取,得到初始轮廓L。
经步骤3处理后得到的待定图像中母猪A的初始分割图与待定图像的交集如图2所示。
步骤4:以图像左下点为原点,水平方向为x轴,竖直方向为y轴,建立直角坐标系。
步骤5:将母猪A的初始轮廓L以轮廓点(xi,yi)(i=1,2…N)的形式保存。
步骤6:采用申请号为201510501000.4的中国发明专利中的方法处理获得母猪A的定向矩阵R、横径(长轴长度)w和纵径(短轴长度)h。将定向矩阵R与轮廓点(xi,yi)(i=1,2…N)相乘得到新的轮廓点(x’i,y’i)(i=1,2…N),利用新的轮廓点(x’i,y’i)(i=1,2…N)计算母猪A的质心(x’c,y’c)。
步骤7:将背景(母猪A的初始分割图上不属于母猪A区域的像素点在待定图像上的对应点集)中与前景(母猪A的初始分割图上属于母猪A区域的像素点在待定图像上的对应点集)相接的轮廓点坐标Qs(xs,ys)存入待定点队列Q。
步骤8:将待定点队列中的待定点Qs(xs,ys)与定向矩阵R相乘得到新的待定点(x’s,y’s),用下面的公式计算新的待定点(x’s,y’s)与质心(x’c,y’c)的距离Dc:
其中,w为母猪A的长轴长度,h为短轴长度。
步骤9:计算待定点Qs(xs,ys)与其8邻域中前景的前景灰度差异值Dt:
gy,x为待定点Qs(xs,ys)的灰度值,nt为前景点数量,T为待定点S(xs,ys)的8邻域中前景像素点集。
步骤10:计算待定点Qs(xs,ys)与其8邻域中背景的背景灰度差异值Db:
gy,x为待定点Qs(xs,ys)的灰度值,nb为背景点数量,B为待定点S(xs,ys)的8邻域中背景像素点集。
步骤11:计算前景扩张参考值vt:
步骤12:针对每一个待定点Qs(xs,ys),先将待定点Qs(xs,ys)从待定点序列Q中去除,然后均作以下处理:若前景扩张参考值vt大于-0.3,则将待定点Qs(xs,ys)判定为前景,将初始分割图上与待定点Qs(xs,ys)对应相同位置的像素点赋值为1,同时并将待定点的8邻域内的背景点作为待定点加入待定点序列Q的末尾;若前景扩张参考值vt不大于-0.3,则将待定点Qs(xs,ys)判定为背景,将初始分割图上与待定点Qs(xs,ys)对应相同位置的像素点赋值为0。
步骤13:重复步骤8到步骤12直到待定点序列Q中的点的个数小于30。
步骤14:清空待定点序列Q,将前景中与背景相接的轮廓点坐标Qs(xs,ys)存入待定点队列Q。
步骤15:重复步骤8到步骤10,并计算背景扩张参考值vb:
步骤16:针对每一个待定点Qs(xs,ys),先将待定点Qs(xs,ys)从待定点序列Q中去除,然后作以下处理:若背景扩张参考值vb大于3,则将待定点Qs(xs,ys)判定为背景,将初始分割图上与待定点Qs(xs,ys)对应相同位置的像素点赋值为0,同时并将待定点的8邻域内的背景点作为待定点加入待定点序列Q的末尾;若背景扩张参考值vb不大于3,则将待定点Qs(xs,ys)判定为前景,将初始分割图上与待定点Qs(xs,ys)对应相同位置的像素点赋值为1。
步骤17:重复步骤15到步骤16直到待定点序列Q中的点的个数小于30。
步骤18:对完成上述步骤的初始分割图利用半径为1的圆形结构元做形态学闭运算优化边缘,并填充空洞,完成操作后,初始分割图上为1的区域代表母猪A。
精确分割图与待定图像的交集如图4所示。
经步骤18处理后得到的待定图像中母猪A的精确分割图与初始分割图的差别如图3所示,即图2和图4之间的差异图,黑色部分为原标记为1后标记0,白色部分为原标记为0后标记1,灰色部分为无变动,观察图3可以发现在外缘轮廓尤其是阴影部分有较大改进。
采用测试集作为待定图像,重复上述步骤实施后,通过对测试集图像进行测试,经本发明处理后,图像分割准确率可达96.68%。
上述具体实施方式用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。
Claims (4)
1.一种利用前后景灰度差和深度学习网络的图像精确分割方法,其特征在于:包括如下步骤:
步骤1:采集多幅不同场景、不同时段、不同拍摄角度的待测物图像,对每一幅待测物图像处理获得待测物初步轮廓,将待测物初步轮廓以外的图像区域变为黑色;
所述的图像为猪图像,图像中完整包含有猪对象;
步骤2:对步骤1获得的所有待测物图像采用DeepLab神经网络进行模型训练,得到待测物识别模型;
步骤3:对待定图像用待测物识别模型进行识别,得到与待定图像大小一致的初始分割图;初始分割图上属于待测物的图像区域对应到待定图像上的相同图像区域作为前景,初始分割图上不属于待测物的图像区域对应到待定图像上的相同图像区域作为背景;并且对初始分割图中的待测物进行边缘提取,得到初始轮廓L;
步骤4:以初始分割图左下点为原点,水平方向为x轴,竖直方向为y轴,建立图像直角坐标系;
步骤5:将待测物的初始轮廓L以图像直角坐标系下的坐标表示成轮廓点(xi,yi)保存,i=1,2…N,N表示初始轮廓中轮廓点的序数;
步骤6:将待测物看作椭圆形,采用尺寸快速检测方法对待定图像处理得到待测物的定向矩阵R、横径w和纵径h,将定向矩阵R与每个轮廓点(xi,yi)相乘得到各自新的轮廓点(x’i,y’i),利用所有新的轮廓点(x’i,y’i)计算待测物在图像直角坐标系下的质心(x’c,y’c);
步骤7:将待定图像的背景与待定图像的前景之间的轮廓点坐标Qs(xs,ys)作为待定点组成待定点队列Q;
步骤8:将待定点队列中的待定点Qs(xs,ys)与定向矩阵R相乘得到新待定点(x’s,y’s),用下面的公式计算新待定点(x’s,y’s)与质心(x’c,y’c)的距离Dc:
式中,w为待测物的长轴长度,h为短轴长度;
步骤9:针对待定点Qs(xs,ys)的8邻域中属于前景的像素点作为前景点,计算前景点的灰度差异值Dt:
式中,gy,x为待定点Qs(xs,ys)的灰度值,nt为前景点数量,T为待定点S(xs,ys)的8邻域中前景像素点集;
步骤10:针对待定点Qs(xs,ys)的8邻域中属于背景的像素点作为背景点,计算背景点的灰度差异值Db:
式中,gy,x为待定点Qs(xs,ys)的灰度值,nb为背景点数量,B为待定点S(xs,ys)的8邻域中背景像素点集;
步骤11:计算前景扩张参考值vt:
步骤12:针对每一个待定点Qs(xs,ys),先将待定点Qs(xs,ys)从待定点序列Q中去除,然后均作以下处理:
若前景扩张参考值vt大于-0.3,则将待定点Qs(xs,ys)判定为前景,将初始分割图上与待定点Qs(xs,ys)对应相同位置的像素点赋值为1,同时并将待定点的8邻域内的背景点作为待定点加入待定点序列Q的末尾;
若前景扩张参考值vt不大于-0.3,则将待定点Qs(xs,ys)判定为背景,将初始分割图上与待定点Qs(xs,ys)对应相同位置的像素点赋值为0;
步骤13:重复步骤8到步骤12对每个待定点进行处理,直到待定点序列Q中的待定点的个数小于点波动阈值;
步骤14:将待定图像的背景与待定图像的前景之间的轮廓点坐标Qs(xs,ys)作为待定点重新组成待定点队列Q;
步骤15:并计算背景扩张参考值vb:
步骤16:针对每一个待定点Qs(xs,ys),先将待定点Qs(xs,ys)从待定点序列Q中去除,然后作以下处理:
若背景扩张参考值vb大于3,则将待定点Qs(xs,ys)判定为背景,将初始分割图上与待定点Qs(xs,ys)对应相同位置的像素点赋值为0,同时并将待定点的8邻域内的背景点作为待定点加入待定点序列Q的末尾;
若背景扩张参考值vb不大于3,则将待定点Qs(xs,ys)判定为前景,将初始分割图上与待定点Qs(xs,ys)对应相同位置的像素点赋值为1;
步骤17:重复步骤15到步骤16直到待定点序列Q中的待定点的个数小于点波动阈值;
步骤18:对完成上述步骤得到的初始分割图利用半径为1的圆形结构元做形态学闭运算优化边缘,并填充空洞,完成操作后,初始分割图上为1的区域代表待测物,从而完成对图像待测物对象的进一步精确分割。
2.根据权利要求1所述的一种利用前后景灰度差和深度学习网络的图像精确分割方法,其特征在于:所述的图像为可见光图像。
3.根据权利要求1所述的一种利用前后景灰度差和深度学习网络的图像精确分割方法,其特征在于:所述的待测物图像为完整包含有待测物的图像。
4.根据权利要求1所述的一种利用前后景灰度差和深度学习网络的图像精确分割方法,其特征在于:所述步骤3的初始分割图上,属于待测物的像素点灰度值被赋值为1,不属于待测物的像素点的灰度值被赋值为0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910059025.1A CN109886984B (zh) | 2019-01-22 | 2019-01-22 | 利用前后景灰度差和深度学习网络的图像精确分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910059025.1A CN109886984B (zh) | 2019-01-22 | 2019-01-22 | 利用前后景灰度差和深度学习网络的图像精确分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109886984A CN109886984A (zh) | 2019-06-14 |
CN109886984B true CN109886984B (zh) | 2021-01-08 |
Family
ID=66926493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910059025.1A Active CN109886984B (zh) | 2019-01-22 | 2019-01-22 | 利用前后景灰度差和深度学习网络的图像精确分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109886984B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110349135A (zh) * | 2019-06-27 | 2019-10-18 | 歌尔股份有限公司 | 目标检测方法和装置 |
CN111738151B (zh) * | 2020-06-22 | 2023-10-10 | 佛山科学技术学院 | 一种基于深度学习后优化的葡萄果梗精准识别方法 |
CN116385475B (zh) * | 2023-06-06 | 2023-08-18 | 四川腾盾科技有限公司 | 一种针对大型固定翼无人机自主着陆的跑道识别分割方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102054270B (zh) * | 2009-11-10 | 2013-06-05 | 华为技术有限公司 | 一种视频图像中提取前景的方法及装置 |
CN105184775B (zh) * | 2015-08-14 | 2017-09-29 | 浙江大学 | 基于特征向量定向的椭球形水果尺寸快速检测方法 |
CN106203476B (zh) * | 2016-06-24 | 2019-03-29 | 浙江大学 | 一种基于最近邻分类与模糊算法的猪头尾轮廓识别方法 |
CN106204537B (zh) * | 2016-06-24 | 2019-05-21 | 浙江大学 | 一种复杂环境下生猪图像分割方法 |
CN106570867B (zh) * | 2016-10-18 | 2019-03-29 | 浙江大学 | 基于灰度形态学能量法的活动轮廓模型图像快速分割方法 |
CN106960185B (zh) * | 2017-03-10 | 2019-10-25 | 陕西师范大学 | 线性判别深度信念网络的多姿态人脸识别方法 |
US10095977B1 (en) * | 2017-10-04 | 2018-10-09 | StradVision, Inc. | Learning method and learning device for improving image segmentation and testing method and testing device using the same |
CN108230307B (zh) * | 2017-12-29 | 2022-01-14 | 浙江大学 | 一种基于轮廓质心距离与神经网络的玉米破碎粒检测方法 |
CN108304798B (zh) * | 2018-01-30 | 2020-09-29 | 北京同方软件有限公司 | 基于深度学习及运动一致性的街面秩序事件视频检测方法 |
CN108542390A (zh) * | 2018-03-07 | 2018-09-18 | 清华大学 | 基于多对比度磁共振影像的血管斑块成分识别方法 |
CN109118491A (zh) * | 2018-07-30 | 2019-01-01 | 深圳先进技术研究院 | 一种基于深度学习的图像分割方法、系统及电子设备 |
-
2019
- 2019-01-22 CN CN201910059025.1A patent/CN109886984B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109886984A (zh) | 2019-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zeng et al. | Underwater target detection based on Faster R-CNN and adversarial occlusion network | |
CN109886271B (zh) | 融合深度学习网络和改进边缘检测的图像精确分割方法 | |
US7756296B2 (en) | Method for tracking objects in videos using forward and backward tracking | |
CN110689038A (zh) | 神经网络模型的训练方法、装置和医学图像处理系统 | |
CN109886984B (zh) | 利用前后景灰度差和深度学习网络的图像精确分割方法 | |
CN108389211B (zh) | 基于改进鲸鱼优化模糊聚类的图像分割方法 | |
CN111414953B (zh) | 点云分类方法和装置 | |
CN111079683A (zh) | 基于卷积神经网络的遥感图像云雪检测方法 | |
KR101618996B1 (ko) | 호모그래피를 추정하기 위한 샘플링 방법 및 영상 처리 장치 | |
CN111931720B (zh) | 跟踪图像特征点的方法、装置、计算机设备和存储介质 | |
CN111310609B (zh) | 基于时序信息和局部特征相似性的视频目标检测方法 | |
CN112270697B (zh) | 一种结合超分辨率重建的卫星序列影像运动目标检测方法 | |
CN111507340B (zh) | 一种基于三维点云数据的目标点云数据提取方法 | |
CN114897782B (zh) | 基于生成式对抗网络的胃癌病理切片图像分割预测方法 | |
CN110472632B (zh) | 基于字符特征的字符分割方法、装置及计算机存储介质 | |
CN112991281B (zh) | 视觉检测方法、系统、电子设备及介质 | |
CN113657393B (zh) | 一种形状先验缺失的图像半监督分割方法及系统 | |
CN112734931B (zh) | 一种辅助点云目标检测的方法及系统 | |
CN111259812A (zh) | 基于迁移学习的内河船舶重识别方法、设备及存储介质 | |
CN114492619A (zh) | 一种基于统计和凹凸性的点云数据集构建方法及装置 | |
CN112991280A (zh) | 视觉检测方法、系统及电子设备 | |
CN117253044A (zh) | 一种基于半监督交互学习的农田遥感图像分割方法 | |
CN109886985B (zh) | 融合深度学习网络和分水岭算法的图像精确分割方法 | |
CN115082551A (zh) | 一种基于无人机航拍视频的多目标检测的方法 | |
Hežeľová | Artificial neural network for precipitation nowcasting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |