CN110751690B - 铣床刀头视觉定位方法 - Google Patents

铣床刀头视觉定位方法 Download PDF

Info

Publication number
CN110751690B
CN110751690B CN201911006858.8A CN201911006858A CN110751690B CN 110751690 B CN110751690 B CN 110751690B CN 201911006858 A CN201911006858 A CN 201911006858A CN 110751690 B CN110751690 B CN 110751690B
Authority
CN
China
Prior art keywords
channel
image
milling machine
machine tool
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201911006858.8A
Other languages
English (en)
Other versions
CN110751690A (zh
Inventor
刘咏晨
毕成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou Maitou Information Technology Co ltd
Original Assignee
Zhengzhou Maitou Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou Maitou Information Technology Co ltd filed Critical Zhengzhou Maitou Information Technology Co ltd
Priority to CN201911006858.8A priority Critical patent/CN110751690B/zh
Publication of CN110751690A publication Critical patent/CN110751690A/zh
Application granted granted Critical
Publication of CN110751690B publication Critical patent/CN110751690B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种铣床刀头视觉定位方法,该方法首先对待定位铣床刀具的彩色图像数据进行灰度化预处理,提取高光细节和阴影细节,并对高光细节图像和阴影细节图像求均值得到融合后的灰度图像;然后通过基于深度卷积神经网络UNet重新生成特征,并经过对数据进行后处理和进行关键点位置回归得到高精度的刀头位置;该方法仅需使用环境光或普通的点光源,克服了金属的高光对光源的要求及对刀具定位精度的影响,缩减了检测系统的体积,相对机器视觉算法对图像的处理速度更快,系统稳定性更好,检测成本低,定位时间短,效率高。

Description

铣床刀头视觉定位方法
(一)、技术领域:
本发明涉及一种刀头定位方法,特别涉及一种铣床刀头视觉定位方法。
(二)、背景技术:
目前,铣床刀头位置检测主要使用机器视觉检测技术,常用的检测方法有二值化分割及基于边缘的模型拟合等方法。使用视觉检测技术检测铣床刀头的位置时可以省去探针而仅使用视觉检测技术就可以校准主轴与基准之间的位置关系,对于传统的铣床或雕刻机而言,能够在手工换刀之后自动校准刀轴偏移量。
上述位置检测方法中铣床刀头定位需要进行特征提取和分割操作,所对应的检测参数和特征位置及相关的滤波方法需要人工设计,对于多种刀具而言每种刀具都需要单独设计相应的检测程序。同时,检测环境需要专用光源,若检测光源出现了变化,部分基于边缘检测的方法可能无法在新的光照下检测出刀具特征,从而无法对刀具进行定位。
此外,这些传统视觉检测系统需要单独集成至机床的一个固定位置,增大了机床的体积,占用了更多的空间。
(三)、发明内容:
本发明要解决的技术问题是:提供一种铣床刀头视觉定位方法,该方法可实现铣床刀头高精度定位,系统稳定性好,缩减了检测系统的体积,检测成本低,定位时间短。
本发明的技术方案:
一种铣床刀头视觉定位方法,含有以下步骤:
步骤一、使彩色面阵相机面向待定位铣床刀具,使用长焦镜头,相机摆放位置以待定位铣床刀具末端位于面阵相机视野中央为准,当待定位铣床刀具与面阵相机画面平行时,通过系数缩放的方式得到尺度关系;当待定位铣床刀具与面阵相机画面不平行时,通过采用经典的投影矩阵计算得到尺度关系;用彩色面阵相机进行拍照,捕捉到一帧待定位铣床刀具的图像数据;画面分辨率是一个经验值,最大值以运行时设备内存或GPU显存上限为准,通常1024×512是一个综合考虑计算性能和定位精度的较为均衡的值。
步骤二、对步骤一中得到的图像数据进行灰度化预处理,将彩色图像预处理并提取高光细节和阴影细节:分别得到分量最大值图像IH和分量最小值图像IL,分量最大值图像在暗部仍能尽可能保留阴影细节,分量最小值图像在亮部仍能尽可能保留高光细节;
步骤三、对分量最大值图像IH和分量最小值图像IL进行求均值,得到融合后的灰度图像
Figure BDA0002243025710000021
步骤四、将灰度图像IM输入已训练好的深度卷积神经网络UNet,输出三通道数据:通道1数据、通道2数据和通道0数据;
由于深度卷积神经网络UNet训练时使用了交叉熵损失函数,因此这里使用的深度卷积神经网络UNet的输出通道为三通道:通道0,通道1和通道2;通道0为空标注,负责接收网络的随机输出,加速网络收敛;通道1为刀具整体的语义分割结果;通道2为新增加的刀具末端语义分割结果;
通道0的空输出可以得到网络内部特征整合后的特征输出,同时在损失函数存在交叉熵损失函数的梯度时,训练时不影响训练的收敛,当实施者尝试使用特征输出时,可以直接使用通道0;
由于网络末端的浅层卷积操作若要生成通道1、通道2的响应,应有足够多的通道特征进行混合,当实施者尝试对卷积操作进行分组时,引入通道0能够提高收敛的性能。
步骤五、对步骤四中输出的三通道数据进行处理:
取通道1数据为Seg,取通道2数据为Kp,将通道0数据舍弃,
由于通道1的数据为常见的语义分割数据,使用交叉熵损失函数的问题在于得到的语义分割置信度的分布不是平滑的,尤其对于当实施者将UNet的末端进行较为常见的优化时,会出现网格现象,例如实施者对UNet末端采用反卷积操作(DeConvolution),或在UNet的卷积操作中将普通的卷积操作替换为空洞卷积操作(DilatedConvolution)时;
又因为,语义分割结果在此处是为了结合通道2的概率云进行关键点位置回归的,对于最终的结合方法,体现为逐点相乘。
为了避免上述现象,又由于常见的网格现象只存在于相邻像素,因此使用最大值滤波器对Seg进行处理,得到孔洞修补后的分割结果Seg(i,j):
Seg(i,j)=Max(K(i,j,Seg)),
其中K为最大值滤波器的滑动窗口,(i,j)代表灰度图像IM的像素位置:
Figure BDA0002243025710000031
得到概率联合后的估计结果H:
H(i,j)=Seg(i,j)*Kp(i,j),
步骤六、H是一个热斑图像,对热斑的中心进行估计即可得到刀具末端的位置:
对H(i,j)进行二维Softargmax处理,得到二维坐标,即刀具末端的位置:
x=∑all eH(i,j)*α*i,
y=∑all eH(i,j)*α*j,
其中α为一微调超参数,由于使用了联合概率H,因此α无需设置太大。
步骤一中使用彩色面阵相机对待定位铣床刀具进行拍照前,对相机和机床进行标定。
步骤二中对图像数据进行灰度化预处理的方法是对图像数据各通道的分量分别求对应像素的分量最大值和最小值,仅考虑采集卡已经对传感器的拜尔阵列进行了Demosaic处理,得到了三通道的BGR图像;考虑到普遍存在的白平衡问题和动态范围问题,一般的工业相机的原始图像需要经过以下处理,其函数表达式如下:
IH(i,j)=log10(Max(R(i,j),G(i,j),B(i,j))),
IL(i,j)=log10(Min(R(i,j),G(i,j),B(i,j))),
其中,IH(i,j)和IL(i,j)分别是位置(i,j)处的分量最大值和最小值,Max(R(i,j),G(i,j),B(i,j))和Min(R(i,j),G(i,j),B(i,j))分别是求三个输入值中最大值和最小值的函数,R(i,j),G(i,j),B(i,j)分别代表位置(i,j)处的像素中红、绿、蓝通道分量值;log是对传感器数值向人眼感知的对应值映射的一种方法,可以有效避免原始图像对比度过强,阴影信息在后续计算中发生因量化产生的丢失情况。
步骤四中深度卷积神经网络Unet的权重是事先训练好的,且仅用于图像的语义分割,为了复用UNet资源并根据语义分割结果对刀具末端位置进行估计,深度卷积神经网络UNet训练时采用的损失函数如下:
对于二值标签L1(其标注值为1,其余为0,)和通道1的输出S1的交叉熵损失函数:
CE(S1(i,j),L1(i,j))=L1(i,j)*log(S1(i,j));
对于位置回归响应标签L2和通道2的输出S2的L2损失函数:
MSE(S2(i,j),L2(i,j))=(L2(i,j)-S2(i,j))2
综上有Loss函数:
Figure BDA0002243025710000041
其中,AREA函数是求图像的高宽乘积。
本发明的有益效果:
1、本发明基于深度神经网络生成铣刀刀具单一的轮廓及关键点响应,通过对数据进行后处理后并进行关键点位置回归得到高精度的铣床刀头位置,无需针对各种刀具单独手工设计刀具特征提取算法及进行繁琐的参数调整工作,显著减小了铣床的复杂度,在实现铣床刀头高精度定位的同时系统稳定性更好。
2、本发明基于深度神经网络的特征提取方法,而不使用传统基于边缘检测的方法,能够克服金属的高光对光源的要求及对刀具定位精度的影响,极大程度降低了对光源的要求,无需特种光源,仅使用环境光或普通的点光源,缩减了检测系统的体积,大大降低了检测成本,并具有更鲁棒的光照适应性。
3、本发明相对机器视觉算法对图像的处理速度更快,铣刀刀头定位时间缩短,提高了生产效率。
4、本发明对于无法自动换刀的机床能够实现自动对刀功能。
(四)、附图说明:
图1为待定位铣刀刀具的视角与标注示意图;
图2为回归之前的后处理示意图。
(五)、具体实施方式:
铣床刀头视觉定位方法,含有以下步骤:
步骤一、使彩色面阵相机面向待定位铣床刀具,使用长焦镜头,相机摆放位置以待定位铣床刀具末端位于面阵相机视野中央为准,画面内容如图1左侧所示;当待定位铣床刀具与面阵相机画面平行时,通过系数缩放的方式得到尺度关系;当待定位铣床刀具与面阵相机画面不平行时,通过采用经典的投影矩阵计算得到尺度关系;用彩色面阵相机进行拍照,捕捉到一帧待定位铣床刀具的图像数据;画面分辨率是一个经验值,最大值以运行时设备内存或GPU显存上限为准,通常1024×512是一个综合考虑计算性能和定位精度的较为均衡的值。
步骤二、对步骤一中得到的图像数据进行灰度化预处理,将彩色图像预处理并提取高光细节和阴影细节:分别得到分量最大值图像IH和分量最小值图像IL,分量最大值图像在暗部仍能尽可能保留阴影细节,分量最小值图像在亮部仍能尽可能保留高光细节;
步骤三、对分量最大值图像IH和分量最小值图像IL进行求均值,得到融合后的灰度图像
Figure BDA0002243025710000051
步骤四、将灰度图像IM输入已训练好的深度卷积神经网络UNet,输出三通道数据:通道1数据、通道2数据和通道0数据;
由于深度卷积神经网络UNet训练时使用了交叉熵损失函数,因此这里使用的深度卷积神经网络UNet的输出通道为三通道:通道0,通道1和通道2;通道0为空标注,负责接收网络的随机输出,加速网络收敛;通道1为刀具整体的语义分割结果;通道2为新增加的刀具末端语义分割结果;
通道0的空输出可以得到网络内部特征整合后的特征输出,同时在损失函数存在交叉熵损失函数的梯度时,训练时不影响训练的收敛,当实施者尝试使用特征输出时,可以直接使用通道0;
由于网络末端的浅层卷积操作若要生成通道1、通道2的响应,应有足够多的通道特征进行混合,当实施者尝试对卷积操作进行分组时,引入通道0能够提高收敛的性能。
步骤五、对步骤四中输出的三通道数据进行处理:
取通道1数据为Seg,取通道2数据为Kp,将通道0数据舍弃,
由于通道1的数据为常见的语义分割数据,使用交叉熵损失函数的问题在于得到的语义分割置信度的分布不是平滑的,尤其对于当实施者将UNet的末端进行较为常见的优化时,会出现网格现象,例如实施者对UNet末端采用反卷积操作(DeConvolution),或在UNet的卷积操作中将普通的卷积操作替换为空洞卷积操作(DilatedConvolution)时;
又因为,语义分割结果在此处是为了结合通道2的概率云进行关键点位置回归的,对于最终的结合方法,体现为逐点相乘,如图2所示。
为了避免上述现象,又由于常见的网格现象只存在于相邻像素,因此使用最大值滤波器对Seg进行处理,得到孔洞修补后的分割结果Seg(i,j):
Seg(i,j)=Max(K(i,j,Seg)),
其中K为最大值滤波器的滑动窗口,(i,j)代表灰度图像IM的像素位置:
Figure BDA0002243025710000061
得到概率联合后的估计结果H:
H(i,j)=Seg(i,j)*Kp(i,j),
步骤六、H是一个热斑图像,对热斑的中心进行估计即可得到刀具末端的位置:
对H(i,j)进行二维Softargmax处理,得到二维坐标,即刀具末端的位置:
x=∑all eH(i,j)*α*i,
y=∑all eH(i,j)*α*j,
其中α为一微调超参数,由于使用了联合概率H,因此α无需设置太大,在此,α的经验值为3。
以上完成了关键点位置回归和刀具的语义分割检测,基于上述数据,实施者可以检测刀具的有无、刀具末端的位置。
步骤一中使用彩色面阵相机对待定位铣床刀具进行拍照前,对相机和机床进行标定。
步骤二中对图像数据进行灰度化预处理的方法是对图像数据各通道的分量分别求对应像素的分量最大值和最小值,仅考虑采集卡已经对传感器的拜尔阵列进行了Demosaic处理,得到了三通道的BGR图像;考虑到普遍存在的白平衡问题和动态范围问题,一般的工业相机的原始图像需要经过以下处理,其函数表达式如下:
IH(i,j)=log10(Max(R(i,j),G(i,j),B(i,j))),
IL(i,j)=log10(Min(R(i,j),G(i,j),B(i,j))),
其中,IH(i,j)和IL(i,j)分别是位置(i,j)处的分量最大值和最小值,Max(R(i,j),G(i,j),B(i,j))和Min(R(i,j),G(i,j),B(i,j))分别是求三个输入值中最大值和最小值的函数,R(i,j),G(i,j),B(i,j)分别代表位置(i,j)处的像素中红、绿、蓝通道分量值;log是对传感器数值向人眼感知的对应值映射的一种方法,可以有效避免原始图像对比度过强,阴影信息在后续计算中发生因量化产生的丢失情况。
步骤四中深度卷积神经网络Unet的权重是事先训练好的,且仅用于图像的语义分割,为了复用UNet资源并根据语义分割结果对刀具末端位置进行估计,深度卷积神经网络UNet训练时采用的损失函数如下:
对于二值标签L1(其标注值为1,其余为0,)和通道1的输出S1的交叉熵损失函数:
CE(S1(i,j),L1(i,j))=L1(i,j)*log(S1(i,j));
对于位置回归响应标签L2和通道2的输出S2的L2损失函数:
MSE(S2(i,j),L2(i,j))=(L2(i,j)-S2(i,j))2
综上有Loss函数:
Figure BDA0002243025710000071
其中,AREA函数是求图像的高宽乘积。
手工标注输出S1的标注方法及根据手工标注输出S1自动标注输出S2的标注方法如下:
如图1中间和右侧所示,画面中露出的刀具部分可以以直线标注代替,对于较细的刀具,根据本发明提供的方法的特性,仍能够较精确地实现刀具末端位置的检测,因此,标注线段的粗细以符合较粗的位置为准。
对粗线而言,在两端点分别画半径为线宽一半的实心圆。即端点为粗线的中心线末端两点。
对粗线进行边缘点提取,以OpenCV的findContours函数为例,可以得到一组位于边缘的坐标点,对坐标点的y轴位置进行降序排序,得到一组自上而下的坐标点,对坐标点序列的前n个进行采样,得到亚像素精度的中心。
需要解释的是,n是一个经验值,由于线宽不定,因此对n不做限制,以实验中认为能够较好定位的情况为主,对于线宽为9个像素的点而言,取前13个点是一个较佳的经验值。
得到亚像素中心,以亚像素中心坐标对输出S2进行如下操作:
对于分辨率1024×512,对一亚像素精度坐标(x,y)生成半径r=32的实心圆形,圆形内部标注为白色,对标注图像S2进行窗口大小为15×15的均值模糊,并对处理后的S2进行离差标准化(Min-Max Normalization):
Figure BDA0002243025710000081
至此,实施者可以通过简单画线标注来实现对刀具末端的定位标注,并通过常见的深度卷积神经网络训练方法进行训练。

Claims (4)

1.一种铣床刀头视觉定位方法,其特征是:含有以下步骤:
步骤一、使彩色面阵相机面向待定位铣床刀具,使用长焦镜头,待定位铣床刀具末端位于面阵相机视野中央,当待定位铣床刀具与面阵相机画面平行时,通过系数缩放的方式得到尺度关系;当待定位铣床刀具与面阵相机画面不平行时,通过采用投影矩阵计算得到尺度关系;用彩色面阵相机进行拍照,捕捉到一帧待定位铣床刀具的图像数据;
步骤二、对步骤一中得到的图像数据进行灰度化预处理,分别得到分量最大值图像IH和分量最小值图像IL
步骤三、对分量最大值图像IH和分量最小值图像IL进行求均值,得到融合后的灰度图像
Figure FDA0002243025700000011
步骤四、将灰度图像IM输入已训练好的深度卷积神经网络UNet,输出三通道数据:通道1数据、通道2数据和通道0数据;
深度卷积神经网络UNet的输出通道为三通道:通道0,通道1和通道2;通道0为空标注,负责接收网络的随机输出,加速网络收敛;通道1为刀具整体的语义分割结果;通道2为刀具末端语义分割结果;
步骤五、对步骤四中输出的三通道数据进行处理:
取通道1数据为Seg,取通道2数据为Kp,将通道0数据舍弃,
使用最大值滤波器对Seg进行处理,得到孔洞修补后的分割结果Seg(i,j):
Seg(i,j)=Max(K(i,j,Seg)),
其中K为最大值滤波器的滑动窗口,(i,j)代表灰度图像IM的像素位置:
Figure FDA0002243025700000012
得到概率联合后的估计结果H:
H(i,j)=Seg(i,j)*Kp(i,j),
步骤六、对H(i,j)进行二维Softargmax处理,得到二维坐标,即刀具末端的位置:
x=∑alleH(i,j)*α*i,
y=∑alleH(i,j)*α*j,
其中α为一微调超参数。
2.根据权利要求1所述的铣床刀头视觉定位方法,其特征是:所述步骤一中使用彩色面阵相机对待定位铣床刀具进行拍照前,对相机和机床进行标定。
3.根据权利要求1所述的铣床刀头视觉定位方法,其特征是:所述步骤二中对图像数据进行灰度化预处理的方法是对图像数据各通道的分量分别求对应像素的分量最大值和最小值,其函数表达式如下:
IH(i,j)=log10(Max(R(i,j),G(i,j),B(i,j))),
IL(i,j)=log10(Min(R(i,j),G(i,j),B(i,j))),
其中,IH(i,j)和IL(i,j)分别是位置(i,j)处的分量最大值和最小值,Max(R(i,j),G(i,j),B(i,j))和Min(R(i,j),G(i,j),B(i,j))分别是求三个输入值中最大值和最小值的函数,R(i,j),G(i,j),B(i,j)分别代表位置(i,j)处的像素中红、绿、蓝通道分量值。
4.根据权利要求1所述的铣床刀头视觉定位方法,其特征是:所述步骤四中深度卷积神经网络Unet的权重是事先训练好的,且仅用于图像的语义分割,深度卷积神经网络UNet训练时采用的损失函数如下:
对于二值标签L1和通道1的输出S1的交叉熵损失函数:
CE(S1(i,j),L1(i,j))=L1(i,j)*log(S1(i,j));
对于位置回归响应标签L2和通道2的输出S2的L2损失函数:
MSE(S2(i,j),L2(i,j))=(L2(i,j)-S2(i,j))2
Loss函数:
Figure FDA0002243025700000021
其中,AREA函数是求图像的高宽乘积。
CN201911006858.8A 2019-10-22 2019-10-22 铣床刀头视觉定位方法 Expired - Fee Related CN110751690B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911006858.8A CN110751690B (zh) 2019-10-22 2019-10-22 铣床刀头视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911006858.8A CN110751690B (zh) 2019-10-22 2019-10-22 铣床刀头视觉定位方法

Publications (2)

Publication Number Publication Date
CN110751690A CN110751690A (zh) 2020-02-04
CN110751690B true CN110751690B (zh) 2020-09-25

Family

ID=69279382

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911006858.8A Expired - Fee Related CN110751690B (zh) 2019-10-22 2019-10-22 铣床刀头视觉定位方法

Country Status (1)

Country Link
CN (1) CN110751690B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784718B (zh) * 2020-07-11 2021-09-10 吉林大学 一种离散物料堆积状态智能在线预测装置及预测方法
CN112288661B (zh) * 2020-12-28 2021-04-09 成都索贝数码科技股份有限公司 一种图像色彩校正方法
CN118154544A (zh) * 2024-03-12 2024-06-07 深圳市金洲精工科技股份有限公司 刀具检测方法、装置、计算机设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105931255A (zh) * 2016-05-18 2016-09-07 天津工业大学 基于显著性和深度卷积神经网络的图像中目标定位方法
CN109741347A (zh) * 2018-12-30 2019-05-10 北京工业大学 一种基于卷积神经网络的迭代学习的图像分割方法
CN109859224A (zh) * 2019-01-31 2019-06-07 东北大学 一种传送带矿岩颗粒图像分割方法
CN109886914A (zh) * 2018-12-19 2019-06-14 刘咏晨 基于局部亮度不变性先验的纸张缺陷检测方法
US20190259493A1 (en) * 2018-02-20 2019-08-22 Siemens Healthcare Gmbh Segmentation, landmark detection and view classification using multi-task learning
US20190279361A1 (en) * 2018-03-07 2019-09-12 University Of Virginia Patent Foundation Automatic quantification of cardiac mri for hypertrophic cardiomyopathy

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105931255A (zh) * 2016-05-18 2016-09-07 天津工业大学 基于显著性和深度卷积神经网络的图像中目标定位方法
US20190259493A1 (en) * 2018-02-20 2019-08-22 Siemens Healthcare Gmbh Segmentation, landmark detection and view classification using multi-task learning
US20190279361A1 (en) * 2018-03-07 2019-09-12 University Of Virginia Patent Foundation Automatic quantification of cardiac mri for hypertrophic cardiomyopathy
CN109886914A (zh) * 2018-12-19 2019-06-14 刘咏晨 基于局部亮度不变性先验的纸张缺陷检测方法
CN109741347A (zh) * 2018-12-30 2019-05-10 北京工业大学 一种基于卷积神经网络的迭代学习的图像分割方法
CN109859224A (zh) * 2019-01-31 2019-06-07 东北大学 一种传送带矿岩颗粒图像分割方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
D-UNet:a dimension-fusion U shape network for chronic stroke lesion segmentation;Yongjin Zhou et al;《IEEE/ACM Transactions on Computational and Biology and Bioinformatics》;20190814;1-11 *
基于UNet结构的人体骨骼点检测;丁圣勇等;《广东通信技术》;20181231(第11期);64-69 *
基于显著性和深度卷积神经网络的输送带表面故障定位;赵燕飞等;《工矿自动化》;20161231;第12卷(第12期);72-77 *

Also Published As

Publication number Publication date
CN110751690A (zh) 2020-02-04

Similar Documents

Publication Publication Date Title
CN111028213B (zh) 图像缺陷检测方法、装置、电子设备及存储介质
TWI729995B (zh) 基於場景之拍攝圖像而產生合併、融合三維點雲
CN110866924B (zh) 一种线结构光中心线提取方法及存储介质
CN110751690B (zh) 铣床刀头视觉定位方法
EP3477931A1 (en) Image processing method and device, readable storage medium and electronic device
CN112819772B (zh) 一种高精度快速图形检测识别方法
CN105740856B (zh) 一种基于机器视觉的指针式仪表示数读取方法
CN109034017B (zh) 头部姿态估计方法及机器可读存储介质
CN111429533B (zh) 一种相机镜头畸变参数估计装置及方法
CN111721259B (zh) 基于双目视觉的水下机器人回收定位方法
CN109520706B (zh) 一种汽车保险丝盒的螺孔坐标提取方法
KR102073468B1 (ko) 비전 시스템에서 컬러 이미지에 대해 컬러 후보 포즈들의 점수화를 위한 시스템 및 방법
WO2018192662A1 (en) Defect classification in an image or printed output
CN110400278B (zh) 一种图像颜色和几何畸变的全自动校正方法、装置及设备
CN111784655B (zh) 一种水下机器人回收定位方法
CN112613097A (zh) 一种基于计算机视觉的bim快速化建模方法
CN103530599A (zh) 一种真实人脸和图片人脸的区别方法和系统
CN111354047B (zh) 一种基于计算机视觉的摄像模组定位方法及系统
CN106952262B (zh) 一种基于立体视觉的船板加工精度分析方法
JP2015141633A (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
CN112132196A (zh) 一种结合深度学习和图像处理的烟盒缺陷识别方法
CN115953550A (zh) 针对线结构光扫描的点云离群点剔除系统及方法
CN115830018A (zh) 基于深度学习与双目视觉的碳素块检测方法及系统
CN112164055A (zh) 一种基于颜色分割的光伏电池色差分类方法
CN118275449A (zh) 铜带表面缺陷检测方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200925

Termination date: 20211022