CN112634344B - 一种基于机器视觉的冷轧带卷轴孔中心位置的检测方法 - Google Patents

一种基于机器视觉的冷轧带卷轴孔中心位置的检测方法 Download PDF

Info

Publication number
CN112634344B
CN112634344B CN202011479806.5A CN202011479806A CN112634344B CN 112634344 B CN112634344 B CN 112634344B CN 202011479806 A CN202011479806 A CN 202011479806A CN 112634344 B CN112634344 B CN 112634344B
Authority
CN
China
Prior art keywords
image
tape roll
coordinates
central
gray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011479806.5A
Other languages
English (en)
Other versions
CN112634344A (zh
Inventor
徐开亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202011479806.5A priority Critical patent/CN112634344B/zh
Publication of CN112634344A publication Critical patent/CN112634344A/zh
Application granted granted Critical
Publication of CN112634344B publication Critical patent/CN112634344B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

一种基于机器视觉的冷轧带卷轴孔中心位置的检测方法,包括以下步骤:步骤一,以前一帧灰度图像中带卷中心坐标为中心,在一定范围内,随机截取一定窗口大小的多张子图;步骤二,将子图送入卷积神经网络,计算出每张子图中带卷中心坐标。对计算结果求平均,得到带卷中心坐标;步骤三,基于模板匹配方法,计算出当前帧灰度图像中的带卷相对前一帧灰度图像中的带卷的偏移量;步骤四,基于卡尔曼滤波方法,将步骤一、步骤二、步骤三所获得的带卷中心坐标和偏移量相综合,得到当前帧图像中带卷中心坐标的最优估计;步骤五,重复以上步骤,实现对带卷中心坐标的实时跟踪;具有极高的鲁棒性,能够在不同环境下,对各类带卷加以高精度跟踪定位。

Description

一种基于机器视觉的冷轧带卷轴孔中心位置的检测方法
技术领域
本发明属于机器视觉和自动控制技术领域,具体涉及一种基于机器视觉的冷轧带卷轴孔中心位置的检测方法。
背景技术
薄板冷轧加工生产时,待轧制钢卷需要由上卷机构送入轧机轧制。上卷过程如图1(a)~(d)所示,原料带卷(1)被液压上卷机构从堆料区域移动至开卷机,将带卷中心(2)对准开卷机轴(3),之后推入开卷机开卷。该过程高度重复,如果能够将人工操作改为自动上卷,则可以节约人力成本。
自动上卷需要准确检测带卷中心位置,使其能够对准开卷机轴。一些早期方案尝试使用限位开关、激光测距等传感器进行定位,由于冷轧机工作环境恶劣,油污、蒸汽、震动等导致传感器难以长期可靠使用,因此目前为主,上卷操作仍需人工控制。参见图1(a)~(d)。
采用机器视觉方式进行带卷定位跟踪具有诸多优点。由于摄像头安装位置较高,远离轧机生产环境,不受现场环境影响,长期工作可靠性能够得到保障。摄像头安装位置较为灵活,无需改变已有机械电气硬件结构。摄像头除上卷时跟踪带卷外,也可执行安全监视、生产记录等任务,功能灵活度高。图1所示照片即为带卷跟踪定位摄像头拍摄。
但是,采用机器视觉跟踪定位带卷也存在诸多困难。传统定位方式多采用边缘提取方式,通过经典算法(如Sobel,Canny等)找出带卷边缘,基于椭圆拟合计算中心点坐标。由于带卷存在边缘不整齐,带材表面存在带头、污渍、标签等,生产现场存在光照阴影等,经典边缘提取算法极易受到干扰,导致定位不准。图2(a)~(c)显示了三张带卷实拍照片,图2(d)~(f)显示了这三张照片通过Canny算法提取的边缘图像。可以看到,标签、带头以及光斑对于边缘提取具有显著影响,很难将其滤除,从而影响中心点定位精度和可靠性。因此,基于机器视觉的带卷定位方式目前仍未见实际应用。
发明内容
为克服上述现有技术的不足,本发明的目的在于提供一种基于机器视觉的冷轧带卷轴孔中心位置的检测方法,通过深度学习和卡尔曼滤波相结合,实现高精度、高鲁棒性的冷轧带卷定位跟踪,为冷轧机自动上卷以及其他自动控制任务提供必要的定位跟踪服务。
为实现上述目的,本发明采用的技术方案是:
本发明的有益效果是:
本发明设计了一种基于深度学习和卡尔曼滤波的单镜头机器视觉带卷定位跟踪算法。该算法采用深度学习算法,通过现场生产照片对智能体加以训练,实现端对端、高效且高鲁棒性的带卷定位跟踪。通过卡尔曼滤波,进一步增强定位精度,避免粗大误差。试验测试表明,该算法具有极高的鲁棒性,能够在不同环境下,对各类带卷加以高精度跟踪定位。
附图说明
图1(a)为冷轧带卷上卷照片,图中带卷位于上卷等待区。
图1(b)为冷轧带卷上卷照片,图中带卷正在向开卷机移动。
图1(c)为冷轧带卷上卷照片,图中带卷已对准开卷机。
图1(d)为冷轧带卷上卷照片,图中带卷已被推入开卷机。
图2(a)为标签、带头和光斑等对边缘提取的影响实例图,图中带卷边缘含有标签。
图2(b)为标签、带头和光斑等对边缘提取的影响实例图,图中带卷边缘含有带头。
图2(c)为标签、带头和光斑等对边缘提取的影响实例图,图中带卷边缘含有光斑。
图2(d)为标签、带头和光斑等对边缘提取的影响实例图,图中标签产生错误边缘。
图2(e)为标签、带头和光斑等对边缘提取的影响实例图,图中带头产生错误边缘。
图2(f)为标签、带头和光斑等对边缘提取的影响实例图,图中光斑产生错误边缘。
图3为本发明的卷积神经网络结构图。
图4为模板匹配计算窗口区域照片。
图5(a)为强光照条件下带卷位置跟踪结果,图中的曲线为带卷中心位移曲线图。
图5(b)为弱光照条件下带卷位置跟踪结果,图中的曲线为带卷中心位移曲线图。
具体实施方式
下面结合附图和实施例对本发明作进一步详细说明。
一种基于机器视觉的冷轧带卷轴孔中心位置的检测方法,在每个控制周期,摄像头拍摄带卷的灰度图像,交由计算机处理,获得带卷中心位置坐标,实现对带卷的实时跟踪,包括以下步骤:
步骤一,以前一帧灰度图像中带卷中心坐标为中心,在一定范围内,随机截取一定窗口大小的多张子图;
步骤二,将子图送入卷积神经网络,计算出每张子图中带卷中心坐标。对计算结果求平均,得到带卷中心坐标;
步骤三,基于模板匹配方法,计算出当前帧灰度图像相对前一帧灰度图像的偏移量;
步骤四,基于卡尔曼滤波方法,将步骤一、步骤二、步骤三所获得的带卷中心坐标和偏移量相综合,得到当前帧灰度图像中带卷中心坐标的最优估计;
步骤五,重复以上步骤,实现对带卷中心坐标的实时跟踪。
所述的卷积神经网络,具体做法是:
本发明包含一个卷积神经网络,用于从输入带卷灰度图像中获取中心位置坐标。该网络结构如图3所示,其输入为尺寸为512×512的包含带卷图像的灰度图像;灰度图像依次经过4个卷积层,每个卷积层均采用5×5卷积核和2×2最大池化;第一个卷积层输出通道数为8,第二层输出通道数为16,第三层为32,第四层为64;之后使用两个全连接隐层,其节点数分别为16348和4096。输出层节点数为2,代表带卷中心点坐标的X、Y坐标;除输出层外,每层均使用ReLu作为激活函数;输出层不使用激活函数;
使用人工标记图片训练神经网络,图片标签为图片中带卷中心点坐标。神经网络使用误差平方和(RMS)函数作为损失函数(loss function)。为了避免过拟合,训练时采用L2正则,且对网络进行Dropout。完成训练后,通过神经网络从带卷灰度图像中计算带卷中心坐标,计算方法为:
1)假设前一帧摄像头灰度图像中带卷中心坐标为(cx0,cy0),以该坐标为中心,随机产生N个坐标
(cxi,cyi)=(cx0+Δxi,cy0+Δyi),i∈[0,N) (1)
式中(cxi,cyi)是随机生成的坐标,(Δxi,Δyi)是一定范围内的等概率随机整数,其分布满足-R≤Δxi≤R,-R≤Δyi≤R;N表示随机生成的坐标数量,R表示随机分布范围,N和R由经验或试验决定,一般令N=16,R=50;
2)以步骤1)中随机生成的N个坐标(cxi,cyi)为中心点,从当前帧灰度图像中截取N个512×512子图,由卷积神经网络计算在每张子图中,带卷的中心位置坐标
Figure GDA0003706687700000041
3)计算带卷中心坐标平均值:
Figure GDA0003706687700000042
式中(cx,cy)为带卷的中心坐标平均值,N为步骤2)中截取的子图数量,(cxi,cyi)为每张子图中心点在当前帧灰度图像中的坐标,
Figure GDA0003706687700000043
为每张子图中由神经网络计算获得的带卷的中心坐标。(cx,cy)即为由神经网络计算获得的当前帧中带卷的中心点坐标。
基于模板匹配计算带卷位移量,具体做法是:
1)假设前一帧灰度图像中带卷中心坐标为(cx0,cy0),以(cx0+ox,cy0+oy)为中心,在前一帧灰度图像中截取256×256图像作为模板。(ox,oy)为固定偏移量,能够使模板包含一部分带卷中轴边缘图像,以便于模板匹配,如图4所示。
2)找出当前帧中与模板匹配度最高的256×256图像区域,假设该图像区域的中心坐标为(cx1,cy1),则带卷在两帧灰度图像中的位移量为(Δx,Δy)=(cx1-cx0-ox,cy1-cy0-oy);
基于卡尔曼滤波获得定位跟踪结果,具体做法是:
通过模板匹配计算获得带卷在两帧灰度图像间的位移量后,通过卡尔曼滤波将其与通过卷积神经网络获得的带卷中心相结合,提高计算精度,计算方法如下:
1)假设前一帧灰度图像中检测获得的带卷中心位置为(cx0,cy0),且检测标准差为δ0
2)假设基于模板匹配检测带卷偏移量的检测标准差为δ′1,当带卷未发生位移时,模板匹配检测偏移量的可信度最高,因此当(Δx,Δy)=(0,0)时,模板匹配检测标准差为
Figure GDA0003706687700000044
当(Δx,Δy)!=(0,0)时,
Figure GDA0003706687700000045
Figure GDA0003706687700000046
均由试验测试或经验估计获得,且
Figure GDA0003706687700000047
3)由前一帧灰度图像的带卷中心位置和两帧灰度图像间带卷偏移量,计算出当前帧中带卷中心坐标的估计值及计算标准差:
(cx1,cy1)=(cx0+Δx,cy0+Δy)
Figure GDA0003706687700000051
式中(cx1,cy1)为通过模板匹配获得的本帧灰度图像中带卷中心坐标,(cx0,cy0)为前一帧灰度图像中带卷中心坐标,(Δx,Δy)为两帧灰度图像之间带卷偏移量,δ0,δ′1和δ1分别为前一帧灰度图像中带卷中心坐标的检测标准差,前一帧与本帧灰度图像中带卷偏移量的检测标准差,以及本帧灰度图像中通过模板匹配得到的带卷中心坐标的检测标准差;
4)假设通过卷积神经网络,由当前帧灰度图像计算获得的带卷中心位置为(cx2,cy2),检测标准差为δ2(该标准差通过试验测试或经验估计获得),根据卡尔曼滤波原理,本帧灰度图像中带卷中心坐标的最优估计和计算标准差为:
Figure GDA0003706687700000052
Figure GDA0003706687700000053
式中,(cx,cy)为本帧灰度图像中带卷中心坐标的最优估计,(cx1,cy1)为通过模板匹配计算获得的带卷中心坐标,(cx2,cy2)为通过卷积神经网络获得的带卷中心坐标,δ1为模板匹配计算的标准差,δ2为卷积神经网络计算的标准差,δ为本帧灰度图像中带卷中心坐标计算的标准差。
5)重复执行这一过程,即可实现对带卷中心坐标的连续跟踪。
实施例1
本系统在某薄板冷轧生产车间中得到测试。测试所用摄像头分辨率为3072×2048,安装在冷轧机开卷机上方。摄像头通过千兆以太网与计算机连接,计算机硬件配置为I7 2600CPU,4G RAM,Navdia RTX 2060 GPU,操作系统为Win10。
检测算法由Python语言实现。卷积神经网络基于PyTorch架构实现。模板匹配计算量较大,因此通过PyCUDA架构编写GPU并行计算程序以提高计算效率。图5(a)~(b)为不同光照环境下的定位跟踪(黑色曲线为带卷跟踪路径),显示了采用本算法在不同光照环境下对于带卷中心位置定位跟踪曲线,可以看到,在正常曝光和欠曝光条件下,算法均能实现较为准确的定位跟踪。在测试所用计算机配置环境下,完成一次定位计算约需要80ms。摄像头采样一帧图像通常需要约60ms。因此,检测系统可以实现不低于5帧/s的检测速率,足以满足带卷上卷自动控制所需。

Claims (1)

1.一种基于机器视觉的冷轧带卷轴孔中心位置的检测方法,其特征在于,包括以下步骤:
步骤一,以前一帧图像中带卷中心坐标为中心,在一定范围内,随机截取一定窗口大小的多张子图;
步骤二,将子图送入卷积神经网络,计算出每张子图中带卷中心坐标,对计算结果求平均,得到带卷中心坐标;
步骤三,基于模板匹配方法,计算出当前帧图像相对前一帧图像的偏移量;
步骤四,基于卡尔曼滤波方法,将步骤一、步骤二、步骤三所获得的带卷中心坐标和偏移量相综合,得到当前帧图像中带卷中心坐标的最优估计;
步骤五,重复以上步骤,实现对带卷中心坐标的实时跟踪;
所述的卷积神经网络,具体做法是:
卷积神经网络用于从输入带卷图像中获取中心位置坐标,其输入为尺寸为512×512的包含带卷图像的灰度图像,灰度图像依次经过4个卷积层,每个卷积层均采用5×5卷积核和2×2最大池化,第一个卷积层输出通道数为8,第二层输出通道数为16,第三层为32,第四层为64;之后使用两个全连接隐层,其节点数分别为16348和4096;输出层节点数为2,代表带卷中心点坐标的X、Y坐标;除输出层外,每层均使用ReLu作为激活函数,输出层不使用激活函数;
使用人工标记图片训练神经网络,图片标签为图片中带卷中心点坐标,神经网络使用误差平方和函数作为损失函数,为了避免过拟合,训练时采用L2正则,且对网络进行Dropout,完成训练后,通过神经网络从摄像头所拍摄灰度图像中计算带卷中心坐标,具体计算方法如下:
2-1)假设前一帧摄像头灰度图像中带卷中心坐标为(cx0,cy0),以该坐标为中心,随机产生N个坐标
(cxi,cyi)=(cx0+Δxi,cy0+Δyi),i∈[0,N) (1)
式中(cxi,cyi)是随机生成的坐标,(Δxi,Δyi)是一定范围内的等概率随机整数,其分布满足-R≤Δxi≤R,-R≤Δyi≤R;N表示随机生成的坐标数量,R表示随机分布范围,N和R由经验或试验决定,一般令N=16,R=50;
2-2)以步骤2-1)中随机生成的N个坐标(cxi,cyi)为中心点,从当前帧灰度图像中截取N个512×512子图,由卷积神经网络计算在每张子图中,带卷的中心位置坐标
Figure FDA0003617314350000021
2-3)计算带卷中心坐标平均值:
Figure FDA0003617314350000022
式中(cx,cy)为带卷的中心坐标平均值,N为步骤2-2)中截取的子图数量,(cxi,cyi)为每张子图中心点在当前帧灰度图像中的坐标,
Figure FDA0003617314350000023
为每张子图中由神经网络计算获得的带卷的中心坐标;
所述的模板匹配方法,具体做法是:
3-1)假设前一帧灰度图像中带卷中心坐标为(cx0,cy0),以(cx0+ox,cy0+oy)为中心,在前一帧灰度图像中截取256×256图像作为模板,(ox,oy)为固定偏移量,能够使模板包含一部分带卷中轴边缘图像,以便于模板匹配;
3-2)找出当前帧中与模板匹配度最高的256×256图像区域,假设该图像区域的中心坐标为(cx1,cy1),则带卷在两帧灰度图像中的位移量为(Δx,Δy)=(cx1-cx0-ox,cy1-cy0-oy);
所述的卡尔曼滤波方法,通过模板匹配计算获得带卷在两帧灰度图像间的位移量后,通过卡尔曼滤波将其与通过卷积神经网络获得的带卷中心相结合,提高计算精度,具体计算方法是:
4-1)假设前一帧灰度图像中检测获得的带卷中心位置为(cx0,cy0),且检测标准差为δ0
4-2)假设基于模板匹配检测带卷偏移量的检测标准差为δ′1,当带卷未发生位移时,模板匹配检测偏移量的可信度最高,因此当(Δx,Δy)=(0,0)时,模板匹配检测标准差为
Figure FDA0003617314350000024
当(Δx,Δy)!=(0,0)时,
Figure FDA0003617314350000025
Figure FDA0003617314350000026
Figure FDA0003617314350000027
均由试验测试或经验估计获得,且
Figure FDA0003617314350000028
4-3)由前一帧灰度图像的带卷中心位置和两帧灰度图像间带卷偏移量,计算出当前帧中带卷中心坐标的估计值及计算标准差:
Figure FDA0003617314350000029
式中(cx1,cy1)为通过模板匹配获得的本帧灰度图像中带卷中心坐标,(cx0,cy0)为前一帧灰度图像中带卷中心坐标,(Δx,Δy)为两帧灰度图像之间带卷偏移量,δ0,δ′1和δ1分别为前一帧灰度图像中带卷中心坐标的检测标准差,前一帧与本帧灰度图像中带卷偏移量的检测标准差,以及本帧灰度图像中通过模板匹配得到的带卷中心坐标的检测标准差;
4-4)假设通过卷积神经网络,由当前帧灰度图像计算获得的带卷中心位置为(cx2,cy2),检测标准差为δ2,该标准差通过试验测试或经验估计获得,根据卡尔曼滤波原理,本帧灰度图像中带卷中心坐标的最优估计和计算标准差为:
Figure FDA0003617314350000031
式中,(cx*,cy*)为本帧灰度图像中带卷中心坐标的最优估计,(cx1,cy1)为通过模板匹配计算获得的带卷中心坐标,(cx2,cy2)为通过卷积神经网络获得的带卷中心坐标,δ1为模板匹配计算的标准差,δ2为卷积神经网络计算的标准差,δ为本帧灰度图像中带卷中心坐标计算的标准差;
4-5)重复执行这一过程,即可实现对带卷中心坐标的连续跟踪。
CN202011479806.5A 2020-12-15 2020-12-15 一种基于机器视觉的冷轧带卷轴孔中心位置的检测方法 Active CN112634344B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011479806.5A CN112634344B (zh) 2020-12-15 2020-12-15 一种基于机器视觉的冷轧带卷轴孔中心位置的检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011479806.5A CN112634344B (zh) 2020-12-15 2020-12-15 一种基于机器视觉的冷轧带卷轴孔中心位置的检测方法

Publications (2)

Publication Number Publication Date
CN112634344A CN112634344A (zh) 2021-04-09
CN112634344B true CN112634344B (zh) 2022-08-30

Family

ID=75313193

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011479806.5A Active CN112634344B (zh) 2020-12-15 2020-12-15 一种基于机器视觉的冷轧带卷轴孔中心位置的检测方法

Country Status (1)

Country Link
CN (1) CN112634344B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070050A (zh) * 2019-04-24 2019-07-30 厦门美图之家科技有限公司 目标检测方法及系统
EP3517886A1 (en) * 2016-09-21 2019-07-31 SCREEN Holdings Co., Ltd. Method of detecting positional displacement of sample container, image capturing method employing same, and sample container positional displacement detecting device
CN110378938A (zh) * 2019-06-24 2019-10-25 杭州电子科技大学 一种基于残差回归网络的单目标跟踪方法
CN111308987A (zh) * 2020-02-21 2020-06-19 西安理工大学 基于图像处理的开卷机自动上卷控制系统及检测方法
CN111753797A (zh) * 2020-07-02 2020-10-09 浙江工业大学 一种基于视频分析的车辆测速方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5928748B2 (ja) * 2014-07-31 2016-06-01 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 同一種類の複数の認識対象物体が検索対象画像中に存在する場合に、それぞれの認識対象物体の位置および向きを精度良く求める手法
CN107527355B (zh) * 2017-07-20 2020-08-11 中国科学院自动化研究所 基于卷积神经网络回归模型的视觉跟踪方法、装置
CN110189361A (zh) * 2019-05-28 2019-08-30 南京信息工程大学 一种多通道特征和择优并行更新的目标跟踪

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3517886A1 (en) * 2016-09-21 2019-07-31 SCREEN Holdings Co., Ltd. Method of detecting positional displacement of sample container, image capturing method employing same, and sample container positional displacement detecting device
CN110070050A (zh) * 2019-04-24 2019-07-30 厦门美图之家科技有限公司 目标检测方法及系统
CN110378938A (zh) * 2019-06-24 2019-10-25 杭州电子科技大学 一种基于残差回归网络的单目标跟踪方法
CN111308987A (zh) * 2020-02-21 2020-06-19 西安理工大学 基于图像处理的开卷机自动上卷控制系统及检测方法
CN111753797A (zh) * 2020-07-02 2020-10-09 浙江工业大学 一种基于视频分析的车辆测速方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"EnKCF: Ensemble of Kernelized Correlation Filters for High-Speed Object Tracking";Burak Uzkent et al.;《2018 IEEE Winter Conference on Applications of Computer Vision (WACV)》;20180507;第1133-1141页 *
"深度学习在视频目标跟踪中的应用进展及展望";管皓 等;《自动化学报》;20160630;第42卷(第6期);第834-847页 *

Also Published As

Publication number Publication date
CN112634344A (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
CN106247969B (zh) 一种基于机器视觉的工业磁芯元件的形变检测方法
CN106909888B (zh) 应用于移动设备端的人脸关键点跟踪系统及方法
KR20190118627A (ko) 표면 결함 검사 방법 및 표면 결함 검사 장치
CN109118473B (zh) 基于神经网络的角点检测方法、存储介质与图像处理系统
JP5912125B2 (ja) ウェブベース材料における不均一性の高速処理と検出
CN114677554A (zh) 一种基于YOLOv5与Deepsort的统计滤波红外小目标检测跟踪方法
US10043259B2 (en) Facilitating anomaly detection for a product having a pattern
US20220044383A1 (en) Learned model generation method, learned model, surface defect inspection method, steel manufacturing method, pass/fail determination method, grade determination method, surface defect determination program, pass/fail determination program, determination system, and steel manufacturing equipment
CN111582349A (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
CN108510544B (zh) 一种基于特征聚类的光条定位方法
CN110880184A (zh) 一种基于光流场进行摄像头自动巡检的方法及装置
CN104598914A (zh) 一种肤色检测的方法及装置
CN112634344B (zh) 一种基于机器视觉的冷轧带卷轴孔中心位置的检测方法
CN108919284B (zh) 一种船只分类方法、装置及电子设备
CN113780462B (zh) 基于无人机航拍图像的车辆检测网络建立方法及其应用
JP2022181167A (ja) 鋼板の形状判別方法、形状測定方法、形状制御方法、製造方法、形状判別モデルの生成方法、及び形状判別装置
CN115194323A (zh) 一种激光焊接机的定位焊接方法
Wang et al. Robust discriminant correlation filter-based weld seam tracking system
CN113177901B (zh) 一种机器人视觉的多帧运动图像融合方法及系统
CN117007606B (zh) 一种基于晶粒分割网络的晶圆晶粒缺陷检测方法及系统
CN114881895B (zh) 一种基于帧间差异的红外图像条纹噪声处理方法
Paraskevas et al. Detecting Holes in Fish Farming nets: A Two–Method approach
JP2012032211A (ja) 画像検査方法および画像検査装置
CN112364783B (zh) 一种零件检测方法、装置及计算机可读存储介质
CN117788426A (zh) 一种基于图像切割策略提高烟火检测精度的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant