CN106067031B - 基于人工纠错机制与深度学习网络协作机器视觉识别系统 - Google Patents
基于人工纠错机制与深度学习网络协作机器视觉识别系统 Download PDFInfo
- Publication number
- CN106067031B CN106067031B CN201610362686.8A CN201610362686A CN106067031B CN 106067031 B CN106067031 B CN 106067031B CN 201610362686 A CN201610362686 A CN 201610362686A CN 106067031 B CN106067031 B CN 106067031B
- Authority
- CN
- China
- Prior art keywords
- target
- image
- coordinate
- deep learning
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2111—Selection of the most significant subset of features by using evolutionary computational techniques, e.g. genetic algorithms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physiology (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
基于人工纠错机制与深度学习网络协作机器视觉识别系统,深度学习网络实时接收拍摄的视觉反馈图像,对接收的每帧图像进行深度学习处理,将处理后的图像以及图像上检测目标的坐标、角度和时间信息发送至中间结果综合处理单元;将处理后的图像发送至人机纠错接口;人机纠错接口对接收每帧处理后的图像进行连续显示,由人工根据拍摄的视觉反馈图像的具体情况,在显示的图像上将明显错误目标的着重显示去掉,并将相关信息发送至中间结果综合处理单元;中间结果综合处理单元从接收到的每帧图像的检测目标在图像坐标系下的坐标、角度和时间信息中剔除错误目标的信息,得到图像坐标系下,识别目标的坐标、角度和时间信息,同时在接收的着重显示的视觉反馈图像上将错误目标的着重显示去掉,完成视觉识别。
Description
技术领域
本发明涉及一种基于人工纠错机制与深度学习网络协作机器视觉识别系统。
背景技术
在机器视觉技术中,现有的图像识别方法,通常是对一定的特征进行提取,得到的特征与理想值进行比对,比对相似度高的作为识别结果。
在多目标分拣领域,需要识别的目标类别、特征种类非常多,例如各种形状、颜色的瓶子、罐子等,由于特征提取的计算量很大,提取多种特征的方法在实时性上不能满足要求;并且特征提取的方法的准确率一直不高,在工业自动化生产线上,很难满足使用要求。
发明内容
本发明的技术解决问题是:克服现有技术的不足,提出一种基于人工纠错机制与深度学习网络协作机器视觉识系统。
本发明的技术解决方案是:一种基于人工纠错机制与深度学习网络协作机器视觉识别系统,包括深度学习网络、中间结果综合处理单元和人机纠错接口;
深度学习网络实时接收拍摄的视觉反馈图像,对接收的每帧图像进行深度学习处理,即多层卷积、池化操作、分类处理后得到图像上检测目标在图像坐标系下的坐标、角度和时间,并在拍摄的视觉反馈图像上将图像上检测目标的坐标、角度进行着重显示,将处理后的图像以及图像上检测目标的坐标、角度和时间信息发送至中间结果综合处理单元;将处理后的图像发送至人机纠错接口,所述的时间为图像拍摄时间,所述的角度为目标所在轴线与图像坐标系X轴之间的夹角;
人机纠错接口对接收每帧处理后的图像进行连续显示,由人工根据拍摄的视觉反馈图像的具体情况,在显示的图像上将明显错误目标的着重显示去掉,将着重显示去掉的目标在人机纠错接口坐标系下的坐标信息以及时间发送至中间结果综合处理单元;
中间结果综合处理单元将人机纠错接口发送的坐标信息转换到图像坐标系下,得到错误目标的坐标,从接收到的每帧图像的检测目标在图像坐标系下的坐标、角度和时间信息中剔除错误目标的信息,得到图像坐标系下,识别目标的坐标、角度和时间信息,同时在接收的着重显示的视觉反馈图像上将错误目标的着重显示去掉,完成视觉识别。
所述的分类处理为将多层卷积、池化操作后的最后一层即l层的每个结果分别进行如下处理:
(1)将l层的第k个结果Mlk池化为3个不同尺寸的目标矩阵Mkf1,Mkf2,Mkf3;其中Mkf1的尺寸为4×4,池化时滑动窗的尺寸步长为Mkf2的尺寸为2×2,池化时滑动窗的尺寸步长为Mkf3的尺寸为1×1,池化时滑动窗的尺寸m,n,步长为m,n;m×n为Mlk的尺寸;
(2)将Mlk、Mkf2、Mkf3的元素依次复制到一个向量,作为尺寸规则化向量Vk;将Vk分别输入到三个全连接神经网络,第一个网络为类别网络,神经元个数为2即背景和目标物两类,得到结果为F1k,尺寸为2×1;第二个网络为包围盒回归网络,神经元个数为8即分别为背景和目标物的包围盒坐标信息,得到结果为F2k,尺寸为8×1;第三个网络为角度回归网络,神经元个数为1,得到结果为F3k,尺寸为1×1;
(3)根据P=h(F1k)得到目标物的概率,其中θ为分类参数;取P≥b的概率作为目标物,其中b为预设的阈值参数;
则,目标物的坐标F2k为包围盒的坐标(x,y,w,h),其中,xy为包围盒左上角坐标,wh为盒子的宽度和高度;F3k的结果为目标物的角度。
中间结果综合处理单元具体实现步骤如下:
(1)将人机纠错接口发送的坐标信息转换到图像坐标系下,得到错误目标的坐标;
(2)根据错误目标的时间T0,从接收到的深度学习网络处理结果中获取对应帧图像Q0;
(3)将错误目标的坐标分别与上述对应帧图像的所有检测目标坐标计算欧氏距离,欧氏距离最小的目标即为图像Q0上的错误目标(X0,Y0,Z0),将该目标的相关信息剔除;
(4)以Q0为基准,依次获取下一帧图像上纵坐标为Y0的所有目标,根据拍摄时目标物的运动速度v及两帧时间差,计算下一帧图像上对应错误目标的理论位置,计算理论位置与下一帧图像上所有目标的欧氏距离,欧氏距离最小对应的目标位置即为下一帧图像上对应错误目标的坐标系,直至在某一帧图像上获取不到纵坐标为Y0的目标;
(5)对步骤(4)处理后的每帧图像所有目标的Y值进行统计,得到同一个目标的连续被统计的次数,若在规定的时间内统计次数达到预设的阈值,则该目标为识别的正确目标,否则,将该目标的相关信息剔除。
每帧图像上同一目标的确定方法,以一帧图像上的一个目标为基准,依次获取其他帧图像上与基准目标纵坐标相同的目标,根据拍摄时目标物的运动速度v及两帧时间差,计算另外一帧图像上对应目标的理论位置,计算理论位置与该另外一帧图像上所有目标的欧氏距离,欧氏距离最小对应的目标为与基准目标相同的目标。
本发明与现有技术相比的有益效果是:
(1)本发明的基于人工纠错机制与深度学习网络协作机器视觉识别方法,能够克服上述两点不足,在需要识别的特征种类多的情况下,深度学习网络能够有效的识别目标,并且实时性能够满足使用要求;但是深度网络的计算的综合特征虽然数量足够多、速度足够快,但是存在误识别的问题,即错误的将非目标物识别为目标物,人工纠错机制的引入,能够去除这些非目标物,同时保证了速度要求,有效的提高识别的准确率。
(2)深度学习网络目前在工业领域还没有成熟应用,主要原因是识别的范围和正确率不能保证。本发明的待识别目标范围非常广泛,形状、尺寸、颜色差异较大,并且识别环境恶劣,目标物被遮盖的情况十分严重,这在计算机视觉和机器视觉应用中十分少见,识别难度大,人工纠错机制和深度学习网络结合的识别方法,很好的解决了被识别目标广泛和识别环境恶劣的问题。在正确率的保证上,由于有人工纠错机制的引入,正确率大幅提高,满足了工业稳定性的要求。
附图说明
图1为本发明系统框图;
图2为本发明物理架构实施框图;
图3为本发明基于机器视觉的动态目标信息提取示意图;
图4为本发明深度学习网络模块示意图。
具体实施方式
下面结合附图及实施例对本发明做详细说明。
如图1、2所示,本发明系统包括深度学习网络、中间结果综合处理单元和人机纠错接口;按照图2中的物理架构,摄像头实时拍摄传送带上的物品,得到视觉反馈图像,人机纠错接口可以采用目前常用的触摸屏的方式,深度学习网络和中间结果综合处理单元都运行在工控机上,各个部分组合完成对传送带上目标物的识别。下面分别对每部分进行详细说明。
(一)深度学习网络
深度学习网络实时接收拍摄的视觉反馈图像,对接收的每帧图像进行深度学习处理,即多层卷积、池化操作、分类处理后得到图像上检测目标在图像坐标系下的坐标、角度和时间,并在拍摄的视觉反馈图像上将图像上检测目标的坐标、角度进行着重显示,将处理后的图像以及图像上检测目标的坐标、角度和时间信息发送至中间结果综合处理单元;将处理后的图像发送至人机纠错接口(图4),所述的时间为图像拍摄时间,所述的角度为目标所在轴线与图像坐标系X轴之间的夹角;
图像坐标系描述单个像素在整幅图像中的位置坐标,坐标系原点设在图像左上角的像素点,坐标为(0,0),图像坐标系横轴为水平方向,最大值1600,图像坐标系纵轴为垂直方向,最大值为1200,即图像宽度为1600×1200。
(1)对输入的图像分层卷积和池化。
①输入图像的数值矩阵为MO,尺寸为M×N,本方案采用1600×1200。将数值矩阵为MO与卷积核Hk1作卷积运算:
其中,表示矩阵卷积。Hk1为第1层的第k个特征的卷积核矩阵,k=1…256,即第一层共256个特征卷积核,Hk1的参数由VGG16模型得到。M1k为深度网络第1层的第k个输出,即第一层的卷积输出共256个。
②将第一层的卷积结果M1k作池化处理,本方案采用最大值池化方法,即将M1k中每2×2个局部矩阵合并为一个元素,以四个元素中最大值作为结果,池化时的步长为2。
M1k池化后的结果为M1kc,M1kc的尺寸为原尺寸的一半。
③将第一层的卷积池化结果M1kc输入到第二层,得到第二层的结果M2kc,依次得到第l-1层的结果M(l-1)kc。
递推得到第l层的卷积和池化操作:
其中Hkl为第l层的第k个特征的卷积核矩阵,Hk1的参数由VGG16模型得到。Mlk为深度网络第l层的第k个输出。
(2)分类器操作。
①将Mlk(尺寸为m×n)池化为3个不同尺寸的目标矩阵Mkf1,Mkf2,Mkf3。其中Mkf1的尺寸为4×4,池化时滑动窗的尺寸步长为同理得到Mkf2、Mkf3,其中Mkf2的尺寸为2×2,Mkf3的尺寸为1×1。
②将Mlk、Mkf2、Mkf3的元素依次复制到一个向量,作为尺寸规则化向量Vk。将Vk分别输入到三个全连接神经网络。第一个网络为类别网络,神经元个数为2(背景和瓶子共两类),得到结果为F1k,尺寸为2×1。第二个网络为包围盒回归网络,神经元个数为8(类别的包围盒坐标信息),得到结果为F2k,尺寸为8×1。第三个网络为角度回归网络,神经元个数为1,得到结果为F3k,尺寸为1×1。
(3)将F1k输入至分类器函数:
其中θ为分类参数。将F1k代入上式得瓶子的概率:P=h(F1k)取P≥b的概率作为目标瓶子,其中b为阈值参数。
F2k为包围盒的坐标(x,y,w,h),其中,xy为包围盒左上角坐标,wh为盒子的宽度和高度,由此可得瓶子的坐标为:
F3k的结果为瓶子的角度A。
(二)人机纠错接口
人机纠错接口对接收每帧处理后的图像进行连续显示,由人工根据拍摄的视觉反馈图像的具体情况,在显示的图像上将明显错误目标的着重显示去掉,将着重显示去掉的目标在人机纠错接口坐标系下的坐标信息以及时间发送至中间结果综合处理单元;
人机纠错接口坐标系以屏幕的左上角的第一个像素点为原点,横坐标为水平方向,纵坐标为垂直方向;
以从传送带上的垃圾中识别瓶子目标为例,触摸屏上将深度学习网络后每帧图像连续平滑的显示,图像上将深度学习网络得到的检测目标采用最小矩形框或者其他方式进行着重显示,当人工通过触摸屏上的图像发现,最小矩形框中目标不是瓶子时,人工点击触摸屏上对应的矩形框,该位置的矩形框以消失或者其他更亮、更暗的方式进行显示,触摸屏将相应的坐标信息发送至中间结果综合处理单元。
(三)中间结果综合处理单元
中间结果综合处理单元将人机纠错接口发送的坐标信息转换到图像坐标系下,得到错误目标的坐标,从接收到的每帧图像的检测目标在图像坐标系下的坐标、角度和时间信息中剔除错误目标的信息,得到图像坐标系下,识别目标的坐标、角度和时间信息,同时在接收的着重显示的视觉反馈图像上将错误目标的着重显示去掉,完成视觉识别。具体实现步骤如下:
(1)将人机纠错接口发送的坐标信息转换到图像坐标系下,得到错误目标的坐标;
(2)根据错误目标的时间T0,从接收到的深度学习网络处理结果中获取对应帧图像Q0;
(3)将错误目标的坐标分别与上述对应帧图像的所有检测目标坐标计算欧氏距离,欧氏距离最小的目标即为图像Q0上的错误目标(X0,Y0,Z0),将该目标的相关信息剔除;
(4)以Q0为基准,依次获取下一帧图像上纵坐标为Y0的所有目标,根据拍摄时目标物的运动速度v及两帧时间差,计算下一帧图像上对应错误目标的理论位置,计算理论位置与下一帧图像上所有目标的欧氏距离,欧氏距离最小对应的目标位置即为下一帧图像上对应错误目标的坐标系,直至在某一帧图像上获取不到纵坐标为Y0的目标;
以Q0的下一帧图像Q1为例,Q1上对应错误目标的理论位置横坐标X1=X0+v(T1-T0);Q1的下一帧图像Q2对应错误目标的理论位置横坐标X2=X0+v(T2-T0),以此类推。当某一帧图像上获取不到纵坐标为Y0的目标时,代表该目标由于传送带的移动已经不在摄像范围内,因此,后续不需要对该目标进行相应的处理。
在传送带上的目标识别对象是在不断移动的,摄像头对目标识别对象进行连续拍照,在摄像头视野范围内,同一目标识别对象会在多张图像的不同位置出现,动态目标信息提取时,需要剔除那些重复的目标识别信息。为解决同一目标识别对象在连续运动状态下的信息提取,本文提出了基于机器视觉的动态目标信息提取方法。该方法示意如图1所示。把目标识别对象在摄像头视野范围内的图像分为两类,一、刚进摄像头视野和出摄像头视野的目标对象局部图像,如图3中的①和③;二、在摄像头视野范围内的目标对象的完整图像,如图1中的②。
假设传送带的速度为Vc,摄像头的帧率为Fps,摄像头在Y方向的视野范围为SY,目标对象的轮廓以不同姿态在Y轴上占用的最大长度Lmax。则:目标对象在图像中完整的成像次数Nc可以计算为:
Nc取整数部分。
因此,上述步骤(4)也可以预先通过计算完整的成像次数Nc,当计算下一帧图像上对应错误目标理论位置的次数达到Nc时,表明目标由于传送带的移动已经不在摄像范围内。
(5)对步骤(4)处理后的每帧图像所有目标的Y值进行统计,得到同一个目标的连续被统计的次数,若在规定的时间内统计次数达到预设的阈值,则该目标为识别的正确目标,否则,将该目标的相关信息剔除。
每帧图像上同一目标的确定方法,以一帧图像上的一个目标为基准,依次获取其他帧图像上与基准目标纵坐标相同的目标,根据拍摄时目标物的运动速度v及两帧时间差,计算另外一帧图像上对应目标的理论位置,计算理论位置与该另外一帧图像上所有目标的欧氏距离,欧氏距离最小对应的目标为与基准目标相同的目标。
中间结果综合处理单元输出给后续外部应用的信息为每个目标在图像坐标系下的坐标、角度、时间。当目标在多帧图像上出现时,根据上述方法确定每帧图像上的相同目标,选择其中一帧图像上的坐标、角度、时间输出。或者对所有同一目标的坐标、角度、时间取均值输出。
本发明未详细说明部分属于本领域技术人员公知常识。
Claims (4)
1.一种基于人工纠错机制与深度学习网络协作机器视觉识别系统,其特征在于包括深度学习网络、中间结果综合处理单元和人机纠错接口;
深度学习网络实时接收拍摄的视觉反馈图像,对接收的每帧图像进行深度学习处理,即多层卷积、池化操作、分类处理后得到图像上检测目标在图像坐标系下的坐标、角度和时间,并在拍摄的视觉反馈图像上将图像上检测目标的坐标、角度进行着重显示,将处理后的图像以及图像上检测目标的坐标、角度和时间信息发送至中间结果综合处理单元;将处理后的图像发送至人机纠错接口,所述的时间为图像拍摄时间,所述的角度为目标所在轴线与图像坐标系横轴之间的夹角;
人机纠错接口对接收每帧处理后的图像进行连续显示,由人工根据拍摄的视觉反馈图像的具体情况,在显示的图像上将明显错误目标的着重显示去掉,将着重显示去掉的目标在人机纠错接口坐标系下的坐标信息以及时间发送至中间结果综合处理单元;
中间结果综合处理单元将人机纠错接口发送的坐标信息转换到图像坐标系下,得到错误目标的坐标,从接收到的每帧图像的检测目标在图像坐标系下的坐标、角度和时间信息中剔除错误目标的信息,得到图像坐标系下,识别目标的坐标、角度和时间信息,同时在接收的着重显示的视觉反馈图像上将错误目标的着重显示去掉,完成视觉识别;
所述的图像坐标系描述单个像素在整幅图像中的位置坐标,坐标系原点设在图像左上角的像素点,图像坐标系横轴为水平方向,图像坐标系纵轴为垂直方向;人机纠错接口坐标系以屏幕的左上角的第一个像素点为原点,横坐标为水平方向,纵坐标为垂直方向。
2.根据权利要求1所述的一种基于人工纠错机制与深度学习网络协作机器视觉识别系统,其特征在于:所述的分类处理为将多层卷积、池化操作后的最后一层即l层的每个结果分别进行如下处理:
(1)将最后一层即l层的第k个结果Mlk池化为3个不同尺寸的目标矩阵Mkf1,Mkf2,Mkf3;其中Mkf1的尺寸为4×4,池化时滑动窗的尺寸步长为Mkf2的尺寸为2×2,池化时滑动窗的尺寸步长为 Mkf3的尺寸为1×1,池化时滑动窗的尺寸m,n,步长为m,n;m×n为Mlk的尺寸;
(2)将Mlk、Mkf2、Mkf3的元素依次复制到一个向量,作为尺寸规则化向量Vk;将Vk分别输入到三个全连接神经网络,第一个网络为类别网络,神经元个数为2即背景和目标物两类,得到结果为F1k,尺寸为2×1;第二个网络为包围盒回归网络,神经元个数为8即分别为背景和目标物的包围盒坐标信息,得到结果为F2k,尺寸为8×1;第三个网络为角度回归网络,神经元个数为1,得到结果为F3k,尺寸为1×1;
(3)根据P=h(F1k)得到目标物的概率,其中θ为分类参数;取P≥b的概率作为目标物,其中b为预设的阈值参数;
则,目标物的坐标F2k为包围盒的坐标(x,y,w,h),其中,xy为包围盒左上角坐标,wh为盒子的宽度和高度;F3k的结果为目标物的角度。
3.根据权利要求1所述的一种基于人工纠错机制与深度学习网络协作机器视觉识别系统,其特征在于:中间结果综合处理单元具体实现步骤如下:
(1)将人机纠错接口发送的坐标信息转换到图像坐标系下,得到错误目标的坐标;
(2)根据错误目标的时间T0,从接收到的深度学习网络处理结果中获取对应帧图像Q0;
(3)将错误目标的坐标分别与上述对应帧图像的所有检测目标坐标计算欧氏距离,欧氏距离最小的目标即为图像Q0上的错误目标,错误目标的坐标记为(X0,Y0,Z0),将该目标的相关信息剔除;
(4)以Q0为基准,依次获取下一帧图像上纵坐标为Y0的所有目标,根据拍摄时目标物的运动速度v及两帧时间差,计算下一帧图像上对应错误目标的理论位置,计算理论位置与下一帧图像上所有目标的欧氏距离,欧氏距离最小对应的目标位置即为下一帧图像上对应错误目标的坐标系,直至在某一帧图像上获取不到纵坐标为Y0的目标;
(5)对步骤(4)处理后的每帧图像所有目标的Y值进行统计,得到同一个目标的连续被统计的次数,若在规定的时间内统计次数达到预设的阈值,则该目标为识别的正确目标,否则,将该目标的相关信息剔除。
4.根据权利要求1所述的一种基于人工纠错机制与深度学习网络协作机器视觉识别系统,其特征在于:每帧图像上同一目标的确定方法,以一帧图像上的一个目标为基准,依次获取其他帧图像上与基准目标纵坐标相同的目标,根据拍摄时目标物的运动速度v及两帧时间差,计算另外一帧图像上对应目标的理论位置,计算理论位置与该另外一帧图像上所有目标的欧氏距离,欧氏距离最小对应的目标为与基准目标相同的目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610362686.8A CN106067031B (zh) | 2016-05-26 | 2016-05-26 | 基于人工纠错机制与深度学习网络协作机器视觉识别系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610362686.8A CN106067031B (zh) | 2016-05-26 | 2016-05-26 | 基于人工纠错机制与深度学习网络协作机器视觉识别系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106067031A CN106067031A (zh) | 2016-11-02 |
CN106067031B true CN106067031B (zh) | 2019-05-24 |
Family
ID=57420255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610362686.8A Active CN106067031B (zh) | 2016-05-26 | 2016-05-26 | 基于人工纠错机制与深度学习网络协作机器视觉识别系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106067031B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107617573B (zh) * | 2017-09-30 | 2020-08-18 | 浙江瀚镪自动化设备股份有限公司 | 一种基于多任务深度学习的物流编码识别和分拣方法 |
CN107895191B (zh) | 2017-10-30 | 2022-02-22 | 上海寒武纪信息科技有限公司 | 一种信息处理方法及相关产品 |
CN110378172A (zh) * | 2018-04-13 | 2019-10-25 | 北京京东尚科信息技术有限公司 | 信息生成方法和装置 |
US11996105B2 (en) | 2018-09-13 | 2024-05-28 | Shanghai Cambricon Information Technology Co., Ltd. | Information processing method and terminal device |
CN109389161B (zh) * | 2018-09-28 | 2021-08-31 | 广州大学 | 基于深度学习的垃圾识别进化学习方法、装置、系统及介质 |
CN110110666A (zh) * | 2019-05-08 | 2019-08-09 | 北京字节跳动网络技术有限公司 | 目标检测方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102867311A (zh) * | 2011-07-07 | 2013-01-09 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
CN203599095U (zh) * | 2013-10-24 | 2014-05-21 | 南京信息工程大学 | 一种垃圾分选自动控制系统 |
CN104142342A (zh) * | 2014-07-21 | 2014-11-12 | 重庆颖泉标准件有限公司 | 一种机器视觉检测装置 |
CN104615986A (zh) * | 2015-01-30 | 2015-05-13 | 中国科学院深圳先进技术研究院 | 利用多检测器对场景变化的视频图像进行行人检测的方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4208898B2 (ja) * | 2006-06-09 | 2009-01-14 | 株式会社ソニー・コンピュータエンタテインメント | 対象物追跡装置および対象物追跡方法 |
KR101618814B1 (ko) * | 2012-10-09 | 2016-05-09 | 에스케이텔레콤 주식회사 | 단일객체에 대한 기울기를 추정하는 영상을 감시하는 장치 및 방법 |
-
2016
- 2016-05-26 CN CN201610362686.8A patent/CN106067031B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102867311A (zh) * | 2011-07-07 | 2013-01-09 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
CN203599095U (zh) * | 2013-10-24 | 2014-05-21 | 南京信息工程大学 | 一种垃圾分选自动控制系统 |
CN104142342A (zh) * | 2014-07-21 | 2014-11-12 | 重庆颖泉标准件有限公司 | 一种机器视觉检测装置 |
CN104615986A (zh) * | 2015-01-30 | 2015-05-13 | 中国科学院深圳先进技术研究院 | 利用多检测器对场景变化的视频图像进行行人检测的方法 |
Non-Patent Citations (1)
Title |
---|
城市生活垃圾分拣机构的运动学分析与仿真;黄美发,钱广,罗伟钊,陈邕;《机械设计与研究》;20120229;第28卷(第1期);全文 |
Also Published As
Publication number | Publication date |
---|---|
CN106067031A (zh) | 2016-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106067031B (zh) | 基于人工纠错机制与深度学习网络协作机器视觉识别系统 | |
CN106000904B (zh) | 一种生活垃圾自动分拣系统 | |
CN111951237B (zh) | 外观视觉检测方法 | |
Staar et al. | Anomaly detection with convolutional neural networks for industrial surface inspection | |
CN110163853B (zh) | 一种边缘缺陷的检测方法 | |
CN105069799B (zh) | 一种角点定位方法及装置 | |
CN105608671B (zh) | 一种基于surf算法的图像拼接方法 | |
US11398084B2 (en) | Method, apparatus and application system for extracting a target feature | |
CN104992449B (zh) | 基于机器视觉的信息识别及表面缺陷在线检测方法 | |
US9811921B2 (en) | Apparatus and method for processing a depth image | |
CN103530599B (zh) | 一种真实人脸和图片人脸的区别方法和系统 | |
CN111652085B (zh) | 基于2d与3d特征结合的物体识别方法 | |
CN110363742B (zh) | 一种基于cnn和图像处理的转辙机缺口检测方法 | |
CN103902970B (zh) | 自动指纹姿态估计方法及系统 | |
CN105160654A (zh) | 基于特征点提取的毛巾标签缺陷检测方法 | |
CN110189375B (zh) | 一种基于单目视觉测量的图像目标识别方法 | |
CN109261528A (zh) | 基于双目视觉的快件分拣方法及装置 | |
CN110070557A (zh) | 一种基于边缘特征检测的目标识别与定位方法 | |
CN109389105B (zh) | 一种基于多任务的虹膜检测和视角分类方法 | |
CN110969078A (zh) | 基于人体关键点的异常行为识别方法 | |
CN110880175A (zh) | 一种焊点缺陷检测方法、系统以及设备 | |
CN109948725A (zh) | 基于地址-事件表达的神经网络目标检测装置 | |
Kobayashi et al. | Fine-grained action recognition in assembly work scenes by drawing attention to the hands | |
CN111223078B (zh) | 瑕疵等级判定的方法及存储介质 | |
CN114092877A (zh) | 一种基于机器视觉的垃圾桶无人值守系统设计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |