CN108830903A - 一种基于cnn的钢坯位置检测方法 - Google Patents

一种基于cnn的钢坯位置检测方法 Download PDF

Info

Publication number
CN108830903A
CN108830903A CN201810401364.9A CN201810401364A CN108830903A CN 108830903 A CN108830903 A CN 108830903A CN 201810401364 A CN201810401364 A CN 201810401364A CN 108830903 A CN108830903 A CN 108830903A
Authority
CN
China
Prior art keywords
steel billet
similarity
region
image
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810401364.9A
Other languages
English (en)
Other versions
CN108830903B (zh
Inventor
杨晓春
王斌
赵征
吴志强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201810401364.9A priority Critical patent/CN108830903B/zh
Publication of CN108830903A publication Critical patent/CN108830903A/zh
Application granted granted Critical
Publication of CN108830903B publication Critical patent/CN108830903B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30136Metal

Abstract

本发明提供一种基于CNN的钢坯位置检测方法,涉及钢坯自主轧制技术领域。该方法包括:建立钢坯轧制的训练样本,并标注出钢坯的真实位置、状态以及需进行的加工操作;根据颜色相似度、纹理相似度和尺寸相似度特征,在监控视频画面中搜寻与钢坯相似的图像的位置;判断搜寻到的候选区域是否为钢坯区域以及钢坯当前的活动状态,并返回钢坯需要进行的加工操作。本发明提供的一种基于CNN的钢坯位置检测方法,可以精准定位视频监控设备中的待轧制钢坯,并根据钢坯当前的结构、尺寸、位置信息,向轧制车床发送旋转,切割等命令,实现了在无人环境下的高精度钢坯自主轧制功能,可以大幅度降低工厂的人力成本和事故发生率,显著提高生产效率。

Description

一种基于CNN的钢坯位置检测方法
技术领域
本发明涉及钢坯自主轧制技术领域,具体涉及一种基于CNN的钢坯位置检测方法。
背景技术
轧钢是将炼钢厂生产的钢锭或连铸钢坯轧制成钢材的生产过程,目前钢坯轧制工厂在自动化控制方面已经取得较大成就,但是在进行旋转钢坯的操作时,仍然需要人为控制轧钢机床,对高温状态下的钢坯进行校准,这对轧钢工人有一定的素质要求,此外,由于高温加热设备、高温物流、高速运转的机械设配、电器和液压设施、能源和起重设备、以及噪声和烟雾影响等,轧钢工人处于一个危险源密集的作业环境,加上初级工人安全技术和操作技术不熟练等因素,导致工厂事故频频发生,因此,现有的钢坯轧制系统存在人力成本高,事故风险大,产出效率低等缺点,另外,目前还没有专门针对钢坯轧制的视频监控系统,更无法从视频中准确获得钢坯的结构,尺寸位置等信息,难以做到全自动化生产,同时,一般的目标检测跟踪技术受到系统运算速度的限制,难以做到实时监控。
发明内容
针对现有技术存在的问题,本发明提供一种基于CNN的钢坯位置检测方法,通过卷积神经网络学习钢坯轧制的历史状态特征,构建一个可以根据监控视频中钢坯的活动状态实时给出相应指令的神经网络模型框架,并将训练好的模型框架整合到钢坯轧制系统当中,可以精准定位视频监控设备中的待轧制钢坯,并根据钢坯当前的结构、尺寸、位置信息,向轧制车床发送旋转,切割等命令,实现了在无人环境下的高精度钢坯自主轧制功能。
为了实现上述目的,一种基于CNN的钢坯位置检测方法,包括以下步骤:
步骤1:利用历史监控数据建立钢坯轧制的训练样本,并标注出钢坯的真实位置、状态以及需进行的加工操作;
步骤2:根据颜色相似度、纹理相似度和尺寸相似度三个特征,在监控视频画面中搜寻与钢坯相似的图像的位置,具体步骤如下:
步骤2.1:选择监控视频中的一帧画面图像;
步骤2.2:将选择的图像分割为N个完全相同的小区域,令搜寻到的与钢坯相似的图像的初始位置区域R=ri,其中,i=(1,2,…,N);
步骤2.3:计算每两个相邻区域对的相似度s(ri,rj),其中,j=(1,2,…,N),且j≠i;
步骤2.4:将所有相邻区域对的相似度s(ri,rj)汇入相似度集合S中;
步骤2.5:选取集合S中相似度最高的区域对(ri,rj),将此两个相邻区域合并为一个新的区域rt,令R=R∪rt
步骤2.6:将集合S中与合并前的区域ri和rj相邻的区域对相似度移除,形成新的相似度集合S;
步骤2.7:计算与新的区域rt相邻的区域对相似度s(rt,r*),形成新的相似度集合St,令S=S∪St
步骤2.8:计算搜寻到的与钢坯相似的图像的位置区域R的面积MR
步骤2.9:判断搜寻到的与钢坯相似的图像的位置区域R的面积MR与阈值θ1、θ2之前的关系,若θ1<MR<θ2,则继续步骤3,否则,返回步骤2.5;
步骤3:通过卷积神经网络模型提取候选区域的特征向量,判断步骤2中搜寻到的候选区域是否为钢坯区域以及钢坯当前的活动状态,并返回钢坯需要进行的加工操作,具体步骤如下:
步骤3.1:搭建检测所需的卷积神经网络模型;
步骤3.2:对步骤2中搜寻到的候选区域图片进行放缩处理;
步骤3.3:将放缩处理后的候选区域图片放到搭建好的卷积神经网络模型中进行训练,提取图片中的特征向量,并获取候选区域的状态信息,通过对比钢坯区域的特征向量,判断候选区域是否为钢坯区域;
步骤3.4:使用soft-max函数对卷积神经网络的输出结果进行处理,得到当前候选区域为钢坯区域的概率;
步骤3.5:判断得到的概率中是否含有大于阈值的候选区域,若没有,则选择监控视频中的另一帧画面图像,返回步骤2.2,若有,则继续步骤3.6;
步骤3.6:根据钢坯区域中钢坯当前位置和状态信息,进行相应的加工操作。
进一步地,所述步骤2.2中计算每两个相邻区域对的相似度s(ri,rj)的公式如下:
s(ri,rj)=ω1scolor(ri,rj)+ω2stexture(ri,rj)+ω3ssize(ri,rj);
其中,ω1为颜色权重,scolor为颜色相似度,ω2为纹理权重,stexture为纹理相似度,ω3为尺寸权重,ssize为尺寸相似度;所述颜色相似度scolor、纹理相似度stexture、尺寸相似度ssize的及时公式如下:
其中,d1为图像直方图维数,k1=(1,2,…,d1),Ci为第i个小区域内图像直方图向量, 为第i个小区域内第k1维的图像直方图向量,d2为图像颜色通道维数,k2=(1,2,…,d2),Ti为第i个小区域内图像颜色通道向量, 为第i个小区域内第k2维的图像颜色通道向量,im为搜寻到的候选区域图片。
进一步地,所述步骤2.9中阈值θ1、θ2的取值根据实际情况中涉及到的具体钢坯尺寸设定。
进一步地,所述步骤3.5中判断概率的阈值根据实际情况具体设定。
本发明的有益效果:
本发明提出一种基于CNN的钢坯位置检测方法,可以精准定位视频监控设备中的待轧制钢坯,并根据钢坯当前的结构、尺寸、位置信息,向轧制车床发送旋转,切割等命令,实现了在无人环境下的高精度钢坯自主轧制功能,将本发明应用到工厂加工环境中,可以大幅度降低工厂的人力成本和事故发生率,显著提高生产效率,还可以将空闲出的人力资源投入到其他精密作业当中,进一步提升工厂的经济效益。
附图说明
图1为本发明实施例中基于CNN的钢坯位置检测方法的流程图;
图2为本发明实施例中基于CNN的钢坯位置检测方法中步骤2的流程图;
图3为本发明实施例中选择的监控视频中一帧的图像示意图;
图4为本发明实施例中基于CNN的钢坯位置检测方法中步骤3的流程图;
图5为本发明实施例中搭建的卷积神经网络结构设计图;
图6为本发明实施例中步骤2搜索到的候选区域示意图;
图7为本发明实施例中最大池化层计算结果示意图;
图8为本发明实施例中全连接层计算结果示意图;
图9为本发明实施例中钢坯跟踪信息图。
具体实施方式
为了使本发明的目的、技术方案及优势更加清晰,下面结合附图和具体实施例对本发明做进一步详细说明。此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
一种基于CNN的钢坯位置检测方法,流程如图1所示,具体方法如下所述:
步骤1:利用历史监控数据建立钢坯轧制的训练样本,并标注出钢坯的真实位置、状态以及需进行的加工操作。
步骤2:根据颜色相似度、纹理相似度和尺寸相似度三个特征,在监控视频画面中搜寻与钢坯相似的图像的位置,流程如图2所示,具体步骤如下:
步骤2.1:选择监控视频中的一帧画面图像,如图3所示。
步骤2.2:将选择的图像分割为N个完全相同的小区域,令搜寻到的与钢坯相似的图像的初始位置区域R=ri,其中,i=(1,2,…,N)。
本实施例中,取N=2000。
所述计算每两个相邻区域对的相似度s(ri,rj)的公式如公式(1)所示:
s(ri,rj)=ω1scolor(ri,rj)+ω2stexture(ri,rj)+ω3ssize(ri,rj) (1)
其中,ω1为颜色权重,scolor为颜色相似度,ω2为纹理权重,stexture为纹理相似度,ω3为尺寸权重,ssize为尺寸相似度;所述颜色相似度scolor、纹理相似度stexture、尺寸相似度ssize的及时公式如公式(2)-公式(4)所示:
其中,d1为图像直方图维数,k1=(1,2,…,d1),Ci为第i个小区域内图像直方图向量, 为第i个小区域内第k1维的图像直方图向量,d2为图像颜色通道维数,k2=(1,2,…,d2),Ti为第i个小区域内图像颜色通道向量, 为第i个小区域内第k2维的图像颜色通道向量,im为搜寻到的候选区域图片。
本实施例中,每个颜色通道具有25个小区间(对于0~255的颜色通道来说,每个小区间的长度为255/25=9),这样,对于选取的RGB图像,就得到一个75维的直方图向量Ci,即d1=75,对于每个颜色通道的像素点,沿周围8个方向计算高斯一阶导数,每个方向统计一个直方图(划分10个小区间),一个颜色通道就得到一个80维的图像颜色通道向量,三个颜色通道就得到240维的图像颜色通道向量Ti,即d2=240。
步骤2.3:计算每两个相邻区域对的相似度s(ri,rj),其中,j=(1,2,…,N),且j≠i。
步骤2.4:将所有相邻区域对的相似度s(ri,rj)汇入相似度集合S中。
步骤2.5:选取集合S中相似度最高的区域对(ri,rj),将此两个相邻区域合并为一个新的区域rt,令R=R∪rt
步骤2.6:将集合S中与合并前的区域ri和rj相邻的区域对相似度移除,形成新的相似度集合S。
步骤2.7:计算与新的区域rt相邻的区域对相似度s(rt,r*),形成新的相似度集合St,令S=S∪St
步骤2.8:计算搜寻到的与钢坯相似的图像的位置区域R的面积MR
步骤2.9:判断搜寻到的与钢坯相似的图像的位置区域R的面积MR与阈值θ1、θ2之前的关系,若θ1<MR<θ2,则继续步骤3,否则,返回步骤2.5。
所述阈值θ1、θ2的取值根据实际情况中涉及到的具体钢坯尺寸设定。
本实施例中,设定阈值θ1=0.7*需搜索钢坯的真实面积、θ2=1.3*需搜索钢坯的真实面积。
步骤3:通过卷积神经网络模型提取候选区域的特征向量,判断步骤2中搜寻到的候选区域是否为钢坯区域以及钢坯当前的活动状态,并返回钢坯需要进行的加工操作,流程如图4所示,具体步骤如下:
步骤3.1:搭建检测所需的卷积神经网络模型。
如图5所示,本实施例中,搭建的卷积神经网络模型包括三部分,第一部分是输入层,第二部分是3段卷积网络,每一段内有2个卷积层,同时每段尾部会连接一个最大池化层,第三部分是2个全连接层,采用ReLU函数作为激活函数,设置输出节点分别为1024和10,每个全连接层之后连接一个输出层。其中,所有的卷积层都使用3×3的卷积核,卷积步长为1×1,池化层都采用2×2的池化核,步长为2×2。
步骤3.2:对步骤2中搜寻到的候选区域图片进行放缩处理。
本实施例中,由于输入层接受的是整张的224×224×3的RGB图像,所以利用Multi-Scale方法讲步骤2中搜寻到的候选区域图片放缩为224×224×3的RGB图像,步骤2中搜寻到的候选区域结果如图6所示。
步骤3.3:将放缩处理后的候选区域图片放到搭建好的卷积神经网络模型中进行训练,提取图片中的特征向量,并获取候选区域的状态信息,通过对比钢坯区域的特征向量,判断候选区域是否为钢坯区域。
本实施例中,将放缩后图像输入到卷积神经网络的输入层,首先经过2个卷积层,第一个卷积层的输入为224×224×3,由于卷积核的个数为32个,所以通过卷积运算后,输出尺寸为224×224×32的特征图谱,然后经过第二个卷积层,卷积核个数同为32个,输入输出尺寸均为224×224×32。在卷积层之后,则是一个池化核为2×2的最大池化层,将224×224×32的特征图谱尺寸变成224×224×32,如图7所示,之后,再经过和前一段卷积网络相似的卷积段,只不过卷积核的数量变成64,因此输出的特征图谱尺寸为112×112×64,经过2×2的最大池化层后,尺寸变为56×56×64,接下来是第三段卷积网络,经过两个卷积层和一个最大池化层以后,输出的特征图谱的尺寸变为28×28×128,接下来,将这三段卷积网络的输出结果进行扁平化,得到长度为28×28×128=100352的一维向量,如图8所示,然后连接两个隐含节点数为2048的全连接层,每个全连接层之后会连接一个输出层,最后连接一个具有10个输出节点的全连接层。
步骤3.4:使用soft-max函数对卷积神经网络的输出结果进行处理,得到当前候选区域为钢坯区域的概率。
步骤3.5:判断得到的概率中是否含有大于阈值的候选区域,若没有,则选择监控视频中的另一帧画面图像,返回步骤2.2,若有,则继续步骤3.6。
本实施例中,设定概率的阈值为0.9。
步骤3.6:根据钢坯区域中钢坯当前位置和状态信息,如图9所示,进行相应的加工操作。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解;其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;因而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。

Claims (4)

1.一种基于CNN的钢坯位置检测方法,其特征在于,包括以下步骤:
步骤1:利用历史监控数据建立钢坯轧制的训练样本,并标注出钢坯的真实位置、状态以及需进行的加工操作;
步骤2:根据颜色相似度、纹理相似度和尺寸相似度三个特征,在监控视频画面中搜寻与钢坯相似的图像的位置,具体步骤如下:
步骤2.1:选择监控视频中的一帧画面图像;
步骤2.2:将选择的图像分割为N个完全相同的小区域,令搜寻到的与钢坯相似的图像的初始位置区域R=ri,其中,i=(1,2,...,N);
步骤2.3:计算每两个相邻区域对的相似度s(ri,rj),其中,j=(1,2,...,N),且j≠i;
步骤2.4:将所有相邻区域对的相似度s(ri,rj)汇入相似度集合S中;
步骤2.5:选取集合S中相似度最高的区域对(ri,rj),将此两个相邻区域合并为一个新的区域rt,令R=R∪rt
步骤2.6:将集合S中与合并前的区域ri和rj相邻的区域对相似度移除,形成新的相似度集合S;
步骤2.7:计算与新的区域rt相邻的区域对相似度s(rt,r*),形成新的相似度集合St,令S=S∪St
步骤2.8:计算搜寻到的与钢坯相似的图像的位置区域R的面积MR
步骤2.9:判断搜寻到的与钢坯相似的图像的位置区域R的面积MR与阈值θ1、θ2之前的关系,若θ1<MR<θ2,则继续步骤3,否则,返回步骤2.5;
步骤3:通过卷积神经网络模型提取候选区域的特征向量,判断步骤2中搜寻到的候选区域是否为钢坯区域以及钢坯当前的活动状态,并返回钢坯需要进行的加工操作,具体步骤如下:
步骤3.1:搭建检测所需的卷积神经网络模型;
步骤3.2:对步骤2中搜寻到的候选区域图片进行放缩处理;
步骤3.3:将放缩处理后的候选区域图片放到搭建好的卷积神经网络模型中进行训练,提取图片中的特征向量,并获取候选区域的状态信息,通过对比钢坯区域的特征向量,判断候选区域是否为钢坯区域;
步骤3.4:使用soft-max函数对卷积神经网络的输出结果进行处理,得到当前候选区域为钢坯区域的概率;
步骤3.5:判断得到的概率中是否含有大于阈值的候选区域,若没有,则选择监控视频中的另一帧画面图像,返回步骤2.2,若有,则继续步骤3.6;
步骤3.6:根据钢坯区域中钢坯当前位置和状态信息,进行相应的加工操作。
2.根据权利要求1所述的基于CNN的钢坯位置检测方法,其特征在于,所述步骤2.2中计算每两个相邻区域对的相似度s(ri,rj)的公式如下:
s(ri,rj)=ω1scolor(ri,rj)+ω2stexture(ri,rj)+ω3ssize(ri,rj);
其中,ω1为颜色权重,scolor为颜色相似度,ω2为纹理权重,stexture为纹理相似度,ω3为尺寸权重,ssize为尺寸相似度;所述颜色相似度scolor、纹理相似度stexture、尺寸相似度ssize的及时公式如下:
其中,d1为图像直方图维数,k1=(1,2,...,d1),Ci为第i个小区域内图像直方图向量, 为第i个小区域内第k1维的图像直方图向量,d2为图像颜色通道维数,k2=(1,2,...,d2),Ti为第i个小区域内图像颜色通道向量, 为第i个小区域内第k2维的图像颜色通道向量,im为搜寻到的候选区域图片。
3.根据权利要求1所述的基于CNN的钢坯位置检测方法,其特征在于,所述步骤2.9中阈值θ1、θ2的取值根据实际情况中涉及到的具体钢坯尺寸设定。
4.根据权利要求1所述的基于CNN的钢坯位置检测方法,其特征在于,所述步骤3.5中判断概率的阈值根据实际情况具体设定。
CN201810401364.9A 2018-04-28 2018-04-28 一种基于cnn的钢坯位置检测方法 Expired - Fee Related CN108830903B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810401364.9A CN108830903B (zh) 2018-04-28 2018-04-28 一种基于cnn的钢坯位置检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810401364.9A CN108830903B (zh) 2018-04-28 2018-04-28 一种基于cnn的钢坯位置检测方法

Publications (2)

Publication Number Publication Date
CN108830903A true CN108830903A (zh) 2018-11-16
CN108830903B CN108830903B (zh) 2021-11-05

Family

ID=64147513

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810401364.9A Expired - Fee Related CN108830903B (zh) 2018-04-28 2018-04-28 一种基于cnn的钢坯位置检测方法

Country Status (1)

Country Link
CN (1) CN108830903B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429425A (zh) * 2020-03-20 2020-07-17 中冶赛迪重庆信息技术有限公司 一种基于深度学习的轧机入口异常识别方法
CN111429424A (zh) * 2020-03-20 2020-07-17 中冶赛迪重庆信息技术有限公司 一种基于深度学习的加热炉入口异常识别方法
CN111598092A (zh) * 2020-05-25 2020-08-28 北京达佳互联信息技术有限公司 图像中目标区域的确定方法、目标识别方法及装置
CN112182797A (zh) * 2020-09-11 2021-01-05 新兴铸管股份有限公司 一种连铸冷床钢坯跟踪方法
CN112404384A (zh) * 2020-11-18 2021-02-26 河北凯昌科技有限公司 连铸铸坯移动追踪系统及方法
CN113814367A (zh) * 2021-09-01 2021-12-21 中冶南方工程技术有限公司 一种基于可见光的连铸坯智能切割定尺方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160140424A1 (en) * 2014-11-13 2016-05-19 Nec Laboratories America, Inc. Object-centric Fine-grained Image Classification
CN105718912A (zh) * 2016-01-26 2016-06-29 浙江捷尚视觉科技股份有限公司 一种基于深度学习的车辆特征物检测方法
CN105740891A (zh) * 2016-01-27 2016-07-06 北京工业大学 基于多层次特征提取和上下文模型的目标检测
CN105760507A (zh) * 2016-02-23 2016-07-13 复旦大学 基于深度学习的跨模态主题相关性建模方法
CN105868774A (zh) * 2016-03-24 2016-08-17 西安电子科技大学 基于选择性搜索和卷积神经网络的车标识别方法
CN106384345A (zh) * 2016-08-31 2017-02-08 上海交通大学 一种基于rcnn的图像检测以及流量统计方法
CN107133943A (zh) * 2017-04-26 2017-09-05 贵州电网有限责任公司输电运行检修分公司 一种防震锤缺陷检测的视觉检测方法
CN107369291A (zh) * 2017-07-13 2017-11-21 南京理工大学 基于深度学习的高压线路防外力破坏预警系统及方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160140424A1 (en) * 2014-11-13 2016-05-19 Nec Laboratories America, Inc. Object-centric Fine-grained Image Classification
CN105718912A (zh) * 2016-01-26 2016-06-29 浙江捷尚视觉科技股份有限公司 一种基于深度学习的车辆特征物检测方法
CN105740891A (zh) * 2016-01-27 2016-07-06 北京工业大学 基于多层次特征提取和上下文模型的目标检测
CN105760507A (zh) * 2016-02-23 2016-07-13 复旦大学 基于深度学习的跨模态主题相关性建模方法
CN105868774A (zh) * 2016-03-24 2016-08-17 西安电子科技大学 基于选择性搜索和卷积神经网络的车标识别方法
CN106384345A (zh) * 2016-08-31 2017-02-08 上海交通大学 一种基于rcnn的图像检测以及流量统计方法
CN107133943A (zh) * 2017-04-26 2017-09-05 贵州电网有限责任公司输电运行检修分公司 一种防震锤缺陷检测的视觉检测方法
CN107369291A (zh) * 2017-07-13 2017-11-21 南京理工大学 基于深度学习的高压线路防外力破坏预警系统及方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
IRONMAN: "RCNN", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/32842771》 *
J. R. R. UIJLING 等: "Selective Search for Object Recognition", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》 *
ROSS GIRSHICK 等: "Rich feature hierarchies for accurate object detection and semantic segmentation Tech report (v5)", 《ARXIV》 *
吴素雯 等: "基于选择性搜索和卷积神经网络的人脸检测", 《计算机应用研究》 *
吴金霞 等: "基于支持向量机的轧制力混合模型", 《辽宁工业大学学报》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429425A (zh) * 2020-03-20 2020-07-17 中冶赛迪重庆信息技术有限公司 一种基于深度学习的轧机入口异常识别方法
CN111429424A (zh) * 2020-03-20 2020-07-17 中冶赛迪重庆信息技术有限公司 一种基于深度学习的加热炉入口异常识别方法
CN111429425B (zh) * 2020-03-20 2023-04-07 中冶赛迪信息技术(重庆)有限公司 一种基于深度学习的轧机入口异常识别方法
CN111429424B (zh) * 2020-03-20 2023-08-11 中冶赛迪信息技术(重庆)有限公司 一种基于深度学习的加热炉入口异常识别方法
CN111598092A (zh) * 2020-05-25 2020-08-28 北京达佳互联信息技术有限公司 图像中目标区域的确定方法、目标识别方法及装置
CN112182797A (zh) * 2020-09-11 2021-01-05 新兴铸管股份有限公司 一种连铸冷床钢坯跟踪方法
CN112182797B (zh) * 2020-09-11 2022-07-05 新兴铸管股份有限公司 一种连铸冷床钢坯跟踪方法
CN112404384A (zh) * 2020-11-18 2021-02-26 河北凯昌科技有限公司 连铸铸坯移动追踪系统及方法
CN113814367A (zh) * 2021-09-01 2021-12-21 中冶南方工程技术有限公司 一种基于可见光的连铸坯智能切割定尺方法
CN113814367B (zh) * 2021-09-01 2022-12-02 中冶南方工程技术有限公司 一种基于可见光的连铸坯智能切割定尺方法

Also Published As

Publication number Publication date
CN108830903B (zh) 2021-11-05

Similar Documents

Publication Publication Date Title
CN108830903A (zh) 一种基于cnn的钢坯位置检测方法
CN113034548B (zh) 一种适用于嵌入式终端的多目标跟踪方法及其系统
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
CN109657575B (zh) 室外施工人员智能视频跟踪算法
CN104282020B (zh) 一种基于目标运动轨迹的车辆速度检测方法
CN110202583A (zh) 一种基于深度学习的仿人机械手控制系统及其控制方法
CN107833236A (zh) 一种动态环境下结合语义的视觉定位系统和方法
Li et al. Robust welding seam tracking and recognition
CN109483573A (zh) 机器学习装置、机器人系统以及机器学习方法
Benyang et al. Safety helmet detection method based on YOLO v4
CN111598066A (zh) 一种基于级联预测的安全帽佩戴识别方法
CN109159113B (zh) 一种基于视觉推理的机器人作业方法
CN104392461B (zh) 一种基于纹理特征的视频跟踪方法
CN110321937B (zh) 一种Faster-RCNN结合卡尔曼滤波的运动人体跟踪方法
CN104766346B (zh) 一种基于视频图像的斑马鱼跟踪方法
Liu et al. CNN-based vision model for obstacle avoidance of mobile robot
CN111462140B (zh) 一种基于区块拼接的实时图像实例分割方法
CN103440667A (zh) 一种遮挡状态下运动目标稳定追踪的自动装置
CN106296743A (zh) 一种自适应运动目标跟踪方法及无人机跟踪系统
CN103077532A (zh) 一种实时视频目标快速跟踪方法
CN104198752A (zh) 基于机器视觉的高温钢坯运动状态的多率检测方法
CN114742987B (zh) 一种用于非金属材料切割的自动定位控制方法及系统
CN111860471A (zh) 一种基于特征检索的工服穿戴识别方法及系统
EP4322020A1 (en) Terminal device positioning method and related device therefor
CN104268551A (zh) 基于视觉特征点的转向角度控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20211105

CF01 Termination of patent right due to non-payment of annual fee