CN112381867B - 用于工业分拣流水线的大面积深度图像空洞自动填充方法 - Google Patents

用于工业分拣流水线的大面积深度图像空洞自动填充方法 Download PDF

Info

Publication number
CN112381867B
CN112381867B CN202011239026.3A CN202011239026A CN112381867B CN 112381867 B CN112381867 B CN 112381867B CN 202011239026 A CN202011239026 A CN 202011239026A CN 112381867 B CN112381867 B CN 112381867B
Authority
CN
China
Prior art keywords
depth
cavity
boundary
depth image
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011239026.3A
Other languages
English (en)
Other versions
CN112381867A (zh
Inventor
冼楚华
刘康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202011239026.3A priority Critical patent/CN112381867B/zh
Publication of CN112381867A publication Critical patent/CN112381867A/zh
Application granted granted Critical
Publication of CN112381867B publication Critical patent/CN112381867B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种用于工业分拣流水线的大面积深度图像空洞自动填充方法,包括步骤:1)获取深度相机捕获的深度图像;2)对捕获的深度图像进行处理,获得大面积深度空洞的位置和边界信息,并筛选得到空洞边界集合;3)对深度空洞边界像素进行无监督聚类,得到大面积深度空洞边界分类,即得到空洞边界点的分类结果;4)利用空洞边界点的分类结果,划分空洞为子空洞,计算子空洞平面方程,进行空洞填充。本发明有效解决传统深度图空洞填充工作精度不高和时间效率低的缺点,已达到自动识别、填充空洞的能力,从而提高了空洞填充的有效性以及提升了物品分拣的鲁棒性。

Description

用于工业分拣流水线的大面积深度图像空洞自动填充方法
技术领域
本发明涉及在工业分拣流水线生产中基于视觉的工业流水线自动分拣的技术领域,尤其是指一种用于工业分拣流水线的大面积深度图像空洞自动填充方法。
背景技术
随着机器视觉在工业生产中的使用越来越多,生产效率已大大提高。在基于视觉的工业流水线自动分拣领域中,使用固定的深度相机结合机械臂对物品分拣是常见的做法。当固定深度照相机捕获深度信息时,有时由于目标物品表面的材料特殊性,比如反光等,对相机捕获深度造成影响,将会丢失反光强烈区域的深度信息,造成一定程度上大面积的深度缺失,产生大面积的空洞,从而影响后续利用深度信息对目标物体的处理。
当前在物品分拣过程存在很多问题,其中对分拣产生比较严重影响的是深度场景图像中出现的深度缺失。这些深度缺失的原因除了深度相机本身的物理采集特性外,大多由于复杂的场景和对象的特殊属性,造成较大的空洞区域。针对这个问题,本文提出了一种快速用于较规则物体修复大面积深度缺失的方法,从而有效地提高机器视觉在物品分拣过程中的效率和鲁棒性。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提出了一种用于工业分拣流水线的大面积深度图像空洞自动填充方法,可有效解决传统深度图空洞填充工作精度不高和时间效率低的缺点,已达到自动识别、填充空洞的能力,从而提高了空洞填充的有效性以及提升了物品分拣的鲁棒性。
为实现上述目的,本发明所提供的技术方案为:用于工业分拣流水线的大面积深度图像空洞自动填充方法,包括以下步骤:
1)获取深度相机捕获的深度图像;
2)对捕获的深度图像进行处理,获得大面积深度空洞的位置和边界信息,并筛选得到空洞边界集合;
3)对深度空洞边界像素进行无监督聚类,得到大面积深度空洞边界分类,即得到空洞边界点的分类结果;
4)利用空洞边界点的分类结果,划分空洞为子空洞,计算子空洞平面方程,进行空洞填充。
在步骤1)中,所述深度相机是指能检测出拍摄空间的景深距离的相机,通过该相机能够获得深度图像,深度图像在计算机表示为矩阵格式,称为深度图像矩阵,用src(x,y)表示,含义为深度图像矩阵中(x,y)位置的大小表示空间到相机的景深距离。
在步骤2)中,对捕获的深度图像采用连通域分析法,获得大面积深度空洞的位置和边界信息,包括以下步骤:
2.1)对深度图像I0逆二值化,即将深度值为0的像素值大小置为1,深度值不为0的像素值大小置为0,处理后得到深度图像I1
2.2)对步骤2.1)处理后的深度图像I1进行膨胀操作,膨胀后的深度图像为I2,公式为:
dst(x,y)=max(x′,y′):element(x′,y′)≠0src(x+x′,y+y′)
式中,src(x+x′,y+y′)为深度图像I1在计算机中的矩阵表示形式,公式整体含义为深度图像矩阵中的坐标(x,y)处周边区域(x+x′,y+y′)内的最大值替代矩阵(x,y)处的值,得到膨胀后的图像dst(x,y),即深度图像I2
2.3)对深度图像I2进行连通域分析:从一个像素值为1的种子开始向邻域周围搜索,发现有相等的像素值则标记为相同的标签,然后继续在邻域搜索,直到周围都没有相等的像素值后就标记为一个连通区域;接着再以其它的种子,继续搜索下一个连通区域,直至遍历完深度图像I2,划分出若干个连通域,编号为0到n,表示为c0,c1,...,cn,cn表示编号为n的连通域,获得边界像素位置集合C={c0,c1,...,cn};
2.4)在原始的深度图像I0上,利用步骤2.3)获得的连通域的边界像素位置集合C,剔除无效边界数据后,计算得到对应连通域边界的均值集合M={m0,m1,...,mn}和方差集合V={v0,v1,...,vn},均值集合M和方差集合V分别代表边界像素位置集合C对应的连通域均值和方差,其中,m0表示编号为0的连通域的均值,v0表示编号为0的连通域的方差,以此类推,mn表示编号为n的连通域的均值,vn表示编号为n的连通域的方差;
2.5)设定阈值mf和阈值vf,对于步骤2.4)获得的均值集合M={m0,m1,...,mn}和方差集合V={v0,v1,...,vn},由公式{mi<mf&&vi<vf}计算,获得筛选出的空洞边界集合其中,上述公式{mi<mf&&vi<vf}的含义表示编号为i的连通域的均值mi和方差vi都小于其固定的均值阈值mf和方差阈值vf
在步骤3)中,采用K均值聚类算法对深度空洞边界像素进行无监督聚类,包括以下步骤:
3.1)对于步骤2)获得空洞边界集合对于每个编号为i的空洞集合/>剔除无效的深度值,以8邻域计算其边界点的像素法向值,通过最小二乘法,得到该空洞的边界法向集合Ni={ni_0,ni_1,...,ni_k},即编号为i的空洞法向集合Ni,表示对于集合/>中编号从0到k的边界点的法向值为ni_0到ni_k
3.2)对步骤3.1)获得的法向数据进行直方图分析,设定阈值f,阈值过滤得到编号为i的空洞聚类类别数Ki,处理全部空洞得到K={K0,K1,...,Kn},表示编号从0到n的空洞的类别数集合;
3.3)根据步骤3.2)得到编号为i的类别数Ki,对步骤3.1)的边界法向集合Ni进行分类,K均值无监督聚类公式为:
式中,Ei是编号为i的空洞所有法向到质心的平方误差总和;质心和元素的距离为欧几里得距离,是编号为i的空洞中编号为m的法向向量,/>是编号为i的空洞中编号为t的聚类中心;
在多次迭代后,得到对空洞边界点法向的分类,即得到空洞轮廓点的类别。
在步骤4)中,根据空洞边界点的分类结果,划分空洞为子空洞,计算子空洞平面方程,进行空洞填充,包括以下步骤:
4.1)根据步骤3)获得的空洞边界点的分类结果,将大面积空洞缺失划分成几个子平面,针对每个类别的边界点,以8邻域中有效的深度值为数据,使用最小二乘法拟合子平面的方程,得到大面积空洞的若干个子平面方程F0,F1,...,Fk,其中编号为i的子平面Fi的一般式表示方程为:
Fi:0=Aix+Biy+Ciz+Di
式中,x,y,z分别为坐标轴的三个方向,Ai,Bi,Ci为平面的法向值,Di为偏移量;
4.2)根据步骤4.1)获得的子平面方程,填充大面积空洞的深度缺失位置,填充方式为:
式中,Fi(x,y)为子平面Fi的一般式方程中带入x,y的数值以后,计算得到的z的数值,src(x,y)代表图像在(x,y)位置的深度值,dst(x,y)代表计算后(x,y)位置的深度值,即为深度空洞补全图像I3
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明首次使用了机器学习的方法实现分拣流水线上的深度缺失填充,使用无监督聚类算法对空洞边界的分类,划分空洞成多个子平面分别填充,具有更低的计算成本。
2、本发明有效解决了现有技术下的较规则物体修复大面积深度缺失问题,降低了人工流水线分拣成本以及能有效解决传统深度图空洞填充工作精度和效率低的缺点,提高机器视觉在物品分拣过程中的效率和鲁棒性。
3、本发明为工业中使用的深度相机拍摄的场景图出现的深度空洞缺失,提出了一个高效的解决方案,与传统的方法相比,降低了计算复杂度,实现了实时计算。
4、本发明在使用深度相机拍摄的场景中具有广泛的使用空间,可以应用于其它相关问题中,在深度空洞处理应用中具有广阔的前景。
附图说明
图1为本发明方法的逻辑流程图。
图2为获取得深度图。
图3为逆二值化后的深度图。
图4为连通域分析后的深度图。
图5为过滤无效数据后的深度图。
图6为阈值过滤后的深度图。
图7为空洞填充后的深度图。
图8为填充后的深度图合成的点云图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
如图1所示,本实施例所提供的用于工业分拣流水线的大面积深度图像空洞自动填充方法,使用了深度相机、工业机器人等辅助设备,可自动填充包含多个平面的大面积深度空洞,包括以下步骤:
1)获取深度相机捕获的深度图,所述深度相机是指能检测出拍摄空间的景深距离的相机,通过该相机能够获得深度图,深度图像在计算机表示为矩阵格式,称为深度图像矩阵,用src(x,y)表示,含义为深度图矩阵中(x,y)位置的大小表示空间到相机的景深距离。其中,获取的深度图可视化后如图2所示。
2)对捕获的深度图采用连通域分析法,获得大面积深度空洞的位置和边界信息,包括以下步骤:
2.1)对深度图像I0逆二值化,即将深度值为0的像素值大小置为1,深度值不为0的像素值大小置为0,处理后得到的深度图像I1;其中,逆二值化后的深度图像如图3所示。
2.2)对步骤2.1)处理后的深度图像I1进行膨胀操作,膨胀后的深度图像为I2,公式为:
dst(x,y)=max(x′,y′):element(x′,y′)≠0src(x+x′,y+y′)
式中,src(x+x′,y+y′)为深度图像I1在计算机中的矩阵表示形式,公式整体含义为深度图像矩阵中的坐标(x,y)周边区域(x+x′,y+y′)内的最大值替代矩阵(x,y)处的值,得到膨胀后的图像dst(x,y),即深度图像I2
2.3)对深度图像I2进行连通域分析:从一个像素值为1的种子开始向邻域周围搜索,发现有相等的像素值则标记为相同的标签,然后继续在邻域搜索,直到周围都没有相等的像素值后就标记为一个连通区域;接着再以其它的种子,继续搜索下一个连通区域,直至遍历完深度图像I2,划分出若干个连通域,编号为0到n,表示为c0,c1,...,cn,cn表示编号为n的连通域,获得边界像素位置集合C={c0,c1,...,cn};
采用上述方式计算,得到的连通域分析结果如图4所示;
2.4)在原始的深度图像I0上,利用步骤2.3)获得的连通域的边界像素位置集合C,剔除无效边界数据后,计算得到对应连通域边界的均值集合M={m0,m1,...,mn}和方差集合V={v0,v1,...,vn},均值集合M和方差集合V分别代表边界像素位置集合C对应的连通域均值和方差,其中,m0表示编号为0的连通域的均值,v0表示编号为0的连通域的方差,以此类推,mn表示编号为n的连通域的均值,vn表示编号为n的连通域的方差;
采用上述方式计算,过滤无效数据后的结果如图5所示;
2.5)设定阈值mf=100和阈值vf=40,对于步骤2.4)获得的均值集合M={m0,m1,...,mn}和方差集合V={v0,v1,...,vn},由公式{mi<mf&&vi<vf}计算,获得筛选出的空洞边界集合其中,上述公式{mi<mf&&vi<vf}的含义表示编号为i的连通域的均值mi和方差vi都小于其固定的均值阈值mf和方差阈值vf
采用上述方式计算,阈值过滤后的结果如图6所示,表示有两个空洞,空洞0和空洞1,其空洞0的部分边界数据信息前20条(共135条)如下表所示:
3)采用K均值聚类算法对深度空洞边界像素进行无监督聚类,包括以下步骤:
3.1)对于步骤2)获得空洞边界集合对于每个编号为i的空洞集合/>剔除无效的深度值,以8邻域计算其边界点的像素法向值,通过最小二乘法,得到该空洞的边界法向集合Ni={ni_0,ni_1,...,ni_k},即编号为i的空洞法向集合Ni,表示对于集合/>中编号从0到k的边界点的法向值为ni_0到ni_k
3.2)对步骤3.1)获得的法向数据进行直方图分析,设定阈值f,阈值过滤得到编号为i的空洞聚类类别数Ki,处理全部空洞得到K={K0,K1,...,Kn},表示编号从0到n的空洞的类别数集合;
3.3)根据步骤3.2)得到编号为i的类别数Ki,对步骤3.1)的边界法向集合Ni进行分类,K均值无监督聚类公式为:
式中,Ei是编号为i的空洞所有法向到质心的平方误差总和;质心和元素的距离为欧几里得距离,是编号为i的空洞中编号为m的法向向量,/>是编号为i的空洞中编号为t的聚类中心;
在多次迭代后,得到对空洞边界点法向的分类,即得到空洞轮廓点的类别。
通过上述计算,得到空洞0的类别有1类,空洞1的类别有1类。
4)根据空洞边界点的分类结果,划分空洞为子空洞,计算子空洞平面方程,进行空洞填充,包括以下步骤:
4.1)根据步骤3)获得的空洞边界点分类信息,将大面积空洞缺失划分成几个子平面,针对每个类别的边界点,以8邻域中有效的深度值为数据,使用最小二乘法拟合子平面的方程,得到大面积空洞的若干个子平面方程F0,F1,...,Fk,其中编号为i的子平面Fi一般式表示方程为:
Fi:0=Aix+Biy+Ciz+Di
式中,x,y,z分别为坐标轴的三个方向,Ai,Bi,Ci为平面的法向值,Di为偏移量;
通过上述计算,得到空洞0的平面方程为:
0=-0.104316048x+0.00737896748y+0.994516790z+1117.79004
4.2)根据步骤4.1)获得的子平面方程,填充大面积空洞的深度缺失位置,填充方式为:
式中,Fi(x,y)为子平面Fi的一般式方程中带入x,y的数值以后,计算得到的z的数值,src(x,y)代表图像在(x,y)位置的深度值,dst(x,y)代表计算后(x,y)位置的深度值,即为深度空洞补全图像I3
通过上述计算,补全后的深度图可视化结果如图7所示。为了更清晰的展示效果,其点云图如图8所示。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。

Claims (3)

1.用于工业分拣流水线的大面积深度图像空洞自动填充方法,其特征在于,包括以下步骤:
1)获取深度相机捕获的深度图像;
2)对捕获的深度图像进行处理,获得大面积深度空洞的位置和边界信息,并筛选得到空洞边界集合;
3)对深度空洞边界像素进行无监督聚类,得到大面积深度空洞边界分类,即得到空洞边界点的分类结果;
采用K均值聚类算法对深度空洞边界像素进行无监督聚类,包括以下步骤:
3.1)对于步骤2)获得空洞边界集合对于每个编号为i的空洞集合/>剔除无效的深度值,以8邻域计算其边界点的像素法向值,通过最小二乘法,得到该空洞的边界法向集合Ni={ni_0,ni_1,...,ni_k},即编号为i的空洞法向集合Ni,表示对于集合/>中编号从0到k的边界点的法向值为ni_0到ni_k
3.2)对步骤3.1)获得的法向数据进行直方图分析,设定阈值f,阈值过滤得到编号为i的空洞聚类类别数Ki,处理全部空洞得到K={K0,K1,...,Kn},表示编号从0到n的空洞的类别数集合;
3.3)根据步骤3.2)得到编号为i的类别数Ki,对步骤3.1)的边界法向集合Ni进行分类,K均值无监督聚类公式为:
式中,Ei是编号为i的空洞所有法向到质心的平方误差总和;质心和元素的距离为欧几里得距离,是编号为i的空洞中编号为m的法向向量,/>是编号为i的空洞中编号为t的聚类中心;
在多次迭代后,得到对空洞边界点法向的分类,即得到空洞轮廓点的类别;
4)利用空洞边界点的分类结果,划分空洞为子空洞,计算子空洞平面方程,进行空洞填充,包括以下步骤:
4.1)根据步骤3)获得的空洞边界点的分类结果,将大面积空洞缺失划分成几个子平面,针对每个类别的边界点,以8邻域中有效的深度值为数据,使用最小二乘法拟合子平面的方程,得到大面积空洞的若干个子平面方程F0,F1,...,Fk,其中编号为i的子平面Fi的一般式表示方程为:
Fi:0=Aix+Biy+Ciz+Di
式中,x,y,z分别为坐标轴的三个方向,Ai,Bi,Ci为平面的法向值,Di为偏移量;
4.2)根据步骤4.1)获得的子平面方程,填充大面积空洞的深度缺失位置,填充方式为:
式中,Fi(x,y)为子平面Fi的一般式方程中带入x,y的数值以后,计算得到的z的数值,src(x,y)代表图像在(x,y)位置的深度值,dst(x,y)代表计算后(x,y)位置的深度值,即为深度空洞补全图像I3
2.根据权利要求1所述的用于工业分拣流水线的大面积深度图像空洞自动填充方法,其特征在于:在步骤1)中,所述深度相机是指能检测出拍摄空间的景深距离的相机,通过该相机能够获得深度图像,深度图像在计算机表示为矩阵格式,称为深度图像矩阵,用src(x,y)表示,含义为深度图像矩阵中(x,y)位置的大小表示空间到相机的景深距离。
3.根据权利要求1所述的用于工业分拣流水线的大面积深度图像空洞自动填充方法,其特征在于:在步骤2)中,对捕获的深度图像采用连通域分析法,获得大面积深度空洞的位置和边界信息,包括以下步骤:
2.1)对深度图像I0逆二值化,即将深度值为0的像素值大小置为1,深度值不为0的像素值大小置为0,处理后得到深度图像I1
2.2)对步骤2.1)处理后的深度图像I1进行膨胀操作,膨胀后的深度图像为I2,公式为:
dst(x,y)=max(x′,y′):element(x′,y′)≠0src(x+x′,y+y′)
式中,src(x+x′,y+y′)为深度图像I1在计算机中的矩阵表示形式,公式整体含义为深度图像矩阵中的坐标(x,y)处周边区域(x+x′,y+y′)内的最大值替代矩阵(x,y)处的值,得到膨胀后的图像dst(x,y),即深度图像I2
2.3)对深度图像I2进行连通域分析:从一个像素值为1的种子开始向邻域周围搜索,发现有相等的像素值则标记为相同的标签,然后继续在邻域搜索,直到周围都没有相等的像素值后就标记为一个连通区域;接着再以其它的种子,继续搜索下一个连通区域,直至遍历完深度图像I2,划分出若干个连通域,编号为0到n,表示为c0,c1,...,cn,cn表示编号为n的连通域,获得边界像素位置集合C={c0,c1,...,cn};
2.4)在原始的深度图像I0上,利用步骤2.3)获得的连通域的边界像素位置集合C,剔除无效边界数据后,计算得到对应连通域边界的均值集合M={m0,m1,...,mn}和方差集合V={v0,v1,...,vn},均值集合M和方差集合V分别代表边界像素位置集合C对应的连通域均值和方差,其中,m0表示编号为0的连通域的均值,v0表示编号为0的连通域的方差,以此类推,mn表示编号为n的连通域的均值,vn表示编号为n的连通域的方差;
2.5)设定阈值mf和阈值vf,对于步骤2.4)获得的均值集合M={m0,m1,...,mn}和方差集合V={v0,v1,...,vn},由公式{mi<mf&&vi<vf}计算,获得筛选出的空洞边界集合其中,上述公式{mi<mf&&vi<vf}的含义表示编号为i的连通域的均值mi和方差vi都小于其固定的均值阈值mf和方差阈值vf
CN202011239026.3A 2020-11-09 2020-11-09 用于工业分拣流水线的大面积深度图像空洞自动填充方法 Active CN112381867B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011239026.3A CN112381867B (zh) 2020-11-09 2020-11-09 用于工业分拣流水线的大面积深度图像空洞自动填充方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011239026.3A CN112381867B (zh) 2020-11-09 2020-11-09 用于工业分拣流水线的大面积深度图像空洞自动填充方法

Publications (2)

Publication Number Publication Date
CN112381867A CN112381867A (zh) 2021-02-19
CN112381867B true CN112381867B (zh) 2023-09-05

Family

ID=74579026

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011239026.3A Active CN112381867B (zh) 2020-11-09 2020-11-09 用于工业分拣流水线的大面积深度图像空洞自动填充方法

Country Status (1)

Country Link
CN (1) CN112381867B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113077503B (zh) * 2021-03-24 2023-02-07 浙江合众新能源汽车有限公司 盲区视频数据生成方法、系统、设备和计算机可读介质
CN113843821A (zh) * 2021-10-18 2021-12-28 浙江工业大学 用于物料分拣的多吸盘可移动机械手及其控制系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102385751A (zh) * 2011-07-19 2012-03-21 中国科学院自动化研究所 基于分水岭变换及支持向量机分类的肝脏肿瘤区域分割方法
CN107622480A (zh) * 2017-09-25 2018-01-23 长春理工大学 一种Kinect深度图像增强方法
CN108399632A (zh) * 2018-03-02 2018-08-14 重庆邮电大学 一种联合彩色图像的rgb-d相机深度图像修复方法
CN109636732A (zh) * 2018-10-24 2019-04-16 深圳先进技术研究院 一种深度图像的空洞修复方法以及图像处理装置
CN110286124A (zh) * 2018-03-14 2019-09-27 浙江大学山东工业技术研究院 基于机器视觉的耐火砖测量系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102385751A (zh) * 2011-07-19 2012-03-21 中国科学院自动化研究所 基于分水岭变换及支持向量机分类的肝脏肿瘤区域分割方法
CN107622480A (zh) * 2017-09-25 2018-01-23 长春理工大学 一种Kinect深度图像增强方法
CN108399632A (zh) * 2018-03-02 2018-08-14 重庆邮电大学 一种联合彩色图像的rgb-d相机深度图像修复方法
CN110286124A (zh) * 2018-03-14 2019-09-27 浙江大学山东工业技术研究院 基于机器视觉的耐火砖测量系统
CN109636732A (zh) * 2018-10-24 2019-04-16 深圳先进技术研究院 一种深度图像的空洞修复方法以及图像处理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于空洞填补的虚拟视点绘制;杨婕;李兆歆;王素琴;石敏;刘京;;计算机工程(第10期);第1-4页 *

Also Published As

Publication number Publication date
CN112381867A (zh) 2021-02-19

Similar Documents

Publication Publication Date Title
CN108562589B (zh) 一种对磁路材料表面缺陷进行检测的方法
CN110992329B (zh) 一种产品表面缺陷检测方法、电子设备及可读存储介质
CN107563446B (zh) 一种微操作系统目标检测方法
CN105740899B (zh) 一种机器视觉图像特征点检测与匹配复合的优化方法
CN112381867B (zh) 用于工业分拣流水线的大面积深度图像空洞自动填充方法
CN110264448B (zh) 一种基于机器视觉的绝缘子故障检测方法
CN111582294B (zh) 一种构建用于表面缺陷检测的卷积神经网络模型的方法及其利用
CN108171688B (zh) 一种基于Gabor特征与随机降维的晶圆表面缺陷检测方法
CN111681249B (zh) 基于Grabcut的砂石颗粒的改进分割算法研究
CN111652085A (zh) 基于2d与3d特征结合的物体识别方法
CN111738271B (zh) 自然环境中被遮挡果实的识别方法
CN104268602A (zh) 一种基于二进制特征匹配的遮挡工件识别方法及装置
CN112132153B (zh) 基于聚类和形态学处理的番茄果实识别方法及系统
CN106651882A (zh) 一种基于机器视觉的燕窝杂质识别与检测方法及装置
Zeng et al. Steel sheet defect detection based on deep learning method
CN113516619B (zh) 一种基于图像处理技术的产品表面瑕疵识别方法
CN112381140B (zh) 一种基于新特征参数的磨粒图像机器学习识别方法
CN113487538A (zh) 一种多目标分割缺陷检测方法、装置及其计算机存储介质
CN112686872A (zh) 基于深度学习的木材计数方法
CN115830018B (zh) 基于深度学习与双目视觉的碳素块检测方法及系统
CN117496401A (zh) 一种用于视频测量影像序列椭圆形目标点全自动识别与跟踪方法
CN115619799B (zh) 一种基于迁移学习的晶粒图像分割方法及系统
CN110827309A (zh) 一种基于超像素的偏光片外观缺陷分割方法
CN116052120A (zh) 基于图像增强和多传感器融合的挖掘机夜间物体检测方法
CN110689553B (zh) 一种rgb-d图像的自动分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant