CN111062937A - 一种基于rgb-d相机的数控nc代码虚实验证方法 - Google Patents

一种基于rgb-d相机的数控nc代码虚实验证方法 Download PDF

Info

Publication number
CN111062937A
CN111062937A CN201911385824.4A CN201911385824A CN111062937A CN 111062937 A CN111062937 A CN 111062937A CN 201911385824 A CN201911385824 A CN 201911385824A CN 111062937 A CN111062937 A CN 111062937A
Authority
CN
China
Prior art keywords
camera
coordinate system
tool
cutter
machine tool
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911385824.4A
Other languages
English (en)
Other versions
CN111062937B (zh
Inventor
杨文安
王鹏宇
刘伟超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201911385824.4A priority Critical patent/CN111062937B/zh
Publication of CN111062937A publication Critical patent/CN111062937A/zh
Application granted granted Critical
Publication of CN111062937B publication Critical patent/CN111062937B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Numerical Control (AREA)

Abstract

本发明公开了一种基于RGB‑D相机的数控NC代码虚实验证方法,属于机床加工仿真领域,包括以下步骤:标定RGB‑D相机中彩色相机和深度相机的内外参数,将像素坐标转化为相机坐标系坐标;用冗余标记定义工件坐标系,RGB‑D相机对标记采集图像;从采集图像提取特征点的像素坐标;计算相机坐标系到工件坐标系的变换矩阵;得到刀具中心点相机坐标系坐标转换为工件坐标系坐标计算模型;构建刀具位置检测的神经网络并训练;训练后用于实时计算刀具坐标;机床输入NC代码和设置虚拟工件尺寸信息;验证刀具是否在NC代码指定的刀具路径上进行加工。本发明解决了仿真NC代码中机床模型不全及虚拟机床模型与实际机床存在差异等问题,提升了机床NC代码仿真的可靠性和真实性。

Description

一种基于RGB-D相机的数控NC代码虚实验证方法
技术领域
本发明属于机床加工仿真领域,尤其涉及一种基于RGB-D相机的数控NC代码虚实验证方法。
背景技术
机床在实际加工工件前需要对NC代码进行验证,传统的验证方法主要可以分为两大类,一类是实际机床上用刀具对工件进行试验加工验证NC代码,另一类是在虚拟机床仿真软件中对NC代码进行验证和检测是是否存在其他异常情况。
对于实际加工试验方法,每次试验加工都需要用夹具装夹工件和更换工件,操作耗时和浪费材料并且试验加工存在撞刀等危险,对操作工人的人身安全造成威胁。对于虚拟机床加工仿真软件,则存在诸多限制。对于要验证NC代码的机床,需要软件支持该机床型号和系统,并且不能保证实际的机床状况和软件中的机床理想状况保持一致,仿真软件中的NC代码验证结果不能保证实际加工的正确性。
因此,急需一种能够保证实际的机床状况和软件中的机床理想状况保持一致的虚拟验证方法。
发明内容
本发明目的在于提供一种能够保证实际的机床状况和软件中的机床理想状况保持一致的虚拟验证方法,发明的内容如下:
一种基于RGB-D相机的数控NC代码虚实验证方法,包括以下步骤:
S10、标定RGB-D相机中彩色相机和深度相机的内部参数,并计算所述彩色相机和所述深度相机之间外部参数,根据所述内部参数和所述外部参数建立彩色像素和深度像素之间的直接映射模型;
S20、用冗余标记定义工件坐标系;将标记放到机床工作台上,所述标记作为特征点;所述RGB-D相机对所述标记采集图像;
S30、从采集图像中提取出所述特征点的像素坐标;
S40、根据所述特征点的像素坐标和所述特征点在工件坐标系下的坐标求解工件坐标系到彩色相机坐标系的位姿变换矩阵T;对位姿变换矩阵T中的旋转角参数进行校正;
S50、使用所述RGB-D相机对机床刀具中心图像采集;根据所述映射模型计算彩色图像中刀具中心的像素坐标对应的深度像素坐标,在深度图像上根据刀具像素的深度信息修正刀具中心点的像素坐标,并根据所述相机模型计算像素点对应的深度相机坐标系坐标和彩色相机坐标系坐标;使用步骤S40中校正后的位姿变换矩阵T将刀具中心的彩色相机坐标系坐标转换成工件坐标系坐标,再结合刀具模型得到刀具底部端面中心在工件坐标系下的坐标;
S60、基于卷积神经网络构建机床刀具位置检测的神经网络;使用训练集对所述神经网络进行训练,所述训练集为步骤S50中采集得到刀具中心图像及对应的刀具底部端面中心在工件坐标系下的坐标;使用步骤S50中标记过的刀具图像对所述神经网络进行参数训练;
S70、将训练后的卷积神经网络用于定位彩色图像中刀具中心的像素坐标并实时计算当前刀具的工件坐标系坐标;
S80、在机床输入NC代码和设置虚拟工件尺寸信息,工件的默认位置与工件坐标系重合;
S90、根据步骤S70得到的实时计算当前刀具的工件坐标系坐标结合步骤S80所输入的NC代码,验证刀具是否在NC代码指定的刀具路径上进行加工。
进一步地,步骤S40利用位姿传感器对位姿变换矩阵T中的旋转角参数进行校正。
进一步地,步骤S60中建机床刀具位置检测的神经网络为面向机床铣刀刀具位置检测的卷积神经网络。
进一步地,步骤S70中采用训练后的卷积神经网络预测彩色图像中铣刀刀具中心的位置和刀具包围盒,将包围盒几何中心的像素坐标作为刀具在彩色图像中的位置。
进一步地,在步骤S90中,步骤S70得到的实时计算铣刀的工件坐标系坐标,得到铣刀位置信息,与机床NC代码进行交叉验证,通过增强现实的人机交互方式来实时仿真刀具铣削工件的过程,实现虚实仿真。
进一步地,对当前刀具位置进行实时监视,同时计算刀具位置与NC指定刀具路径的误差距离,如果误差超出设定值就认为刀具没有按照NC代码运动,给出警报;如果误差未超出设定值则根据得到的刀具位置信息对虚拟工件进行加工仿真。
进一地,步骤S60中对所述机床刀具检测的卷积神经网络构建过程如下:结合RGB-D相机采集的彩色图像尺寸设计卷积神经网络的输入尺寸,并考虑目标检测的准确率和实时性设计网络的结构。
进一步地,所述机床刀具检测的卷积神经网络的主干网络中含有6层卷积层,6层卷积层的卷积核尺寸都是3×3,卷积运算时的步长都是1,6个卷积层的卷积核个数分别为16、32、64、128、256。
进一步地,所述机床刀具检测的卷积神经网络的主干网络中含有5层池化层,其中第一层池化层的步长为5,第二层池化层的步长为3,其余池化层的步长都为2。
进一步地,所示机床刀具检测的卷积神经网络最后用两层卷积核大小1×1的卷积。
本发明的有益效果:
(1)本发明的方法在对机床NC代码仿真加工时避免了传统物理试验验证NC代码时所需要的装夹工件的时间,采用虚拟工件进行加工,减少了工件试验的成本,利用物理刀具与虚拟工件的求交计算来仿真工件加工过程,避免了因为加工参数设置不当带来的工件报废和刀具碰撞问题。
(2)本发明的方法在对机床NC代码仿真加工时,有效解决了软件仿真NC代码中机床模型不全以及虚拟机床模型与实际机床存在差异等问题,提升了机床NC代码仿真的可靠性和真实性。
(3)本发明的方法只需要将冗余标记平行放置到工作台上,将刀具移动至冗余标记中四边形的右上角特征点,将当前机床坐标记录为工件坐标系原点后,即可进行NC代码的仿真。采用增强现实方式的实时显示工件的加工过程,使操作人员具有较强的临场感。
(4)本发明的刀具检测网络能够实现刀具位置的自动检测。
附图说明
图1为一种基于RGB-D相机的机床NC代码虚实验证装置及方法的步骤流程图;
图2为工件坐标系、彩色相机坐标系和深度相机坐标系的示意图;
图3为用于定义和追踪工件坐标系的冗余标记示意图;
图4为用于检测刀具位置的卷积神经网络的结构示意图;
图5为刀具检测网络在刀具图像测试集上的检测结果的交并比示意图;
图6为三轴铣床NC代码仿真方法的验证装置及应用场景示意图;
图7为虚实仿真加工示意图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更加清楚、明白,以下结合附图,对本发明进行进一步详细说明。
如图1所示,本发明所述方法中涉及到的一种基于RGB-D相机的机床NC代码增强现实加工仿真方法包括以下步骤:
步骤S10:标定RGB-D相机的彩色相机和深度相机的内部参数,并计算两相机之间外部参数,根据内部参数和外部参数建立彩色像素到深度像素的映射模型,涉及到的坐标系如图2所示。
本实施例中,建立彩色像素到深度像素的映射模型,具体来说是基于小孔成像模型和相机间的外参矩阵,在彩色图像缺少深度信息的条件下,提出了一种从彩色像素到深度像素的映射计算方法。
通过棋盘标定方法得到RGB-D相机中深度相机和彩色相机的内参矩阵KL和KR,再根据内参矩阵求得从深度相机坐标系到彩色相机坐标系的位姿变换矩阵MLR,则深度像素到彩色像素的映射关系满足下式:
Figure BDA0002340992650000051
其中,(uR,vR)是空间中一点在彩色图像上的图像坐标,(uL,vL)是该点在深度图像上的图像坐标,ZL,ZR分别是该点到深度相机坐标系和彩色相机坐标系XOY平面的距离,其中ZL是已知的。
Figure BDA0002340992650000052
则得到深度像素到彩色像素的映射公式如下:
Figure BDA0002340992650000053
Figure BDA0002340992650000054
Figure BDA0002340992650000061
则从彩色像素到深度像素的映射公式如下:
Figure BDA0002340992650000062
Figure BDA0002340992650000063
但因为彩色图像没有距离信息ZR,因此不能直接从彩色像素映射到深度像素。先根据以下公式计算彩色像素映射的粗糙解:
u0=h11*uR+h12*vR+h13
v0=h21*uR+h22*vR+h23
再在深度图像上对粗糙解像素(u0,v0)的领域内搜索像素,计算深度像素映射到彩色像素后与原来彩色像素的欧氏距离,欧式距离最小的深度像素就是所求的对应像素,从而建立了从彩色图像到深度图像的映射模型。
步骤S20、使用冗余标记定义工件坐标系,将设计的冗余标记放到机床工作台上,利用RGB-D相机对标记采集图像;
步骤S30、从图像中提取出标记特征点的像素坐标;
步骤S40、根据特征点像素坐标和特征点在工件坐标系下的坐标求解工件坐标系和彩色相机坐标系的位姿变换矩阵T,并用位姿传感器对矩阵T中的旋转角参数进行校正。
本实施例中,步骤S20中的用于定义工件坐标系的冗余标记由一个六边形标记和一个四边形标记组成,标记的背景色为白色,标记颜色为黑色,工件坐标系的原点定义在四边形右上角。
具体地,在步骤S20中采用的冗余标记如图3所示,冗余标记由一个六边形和四边形组成。通过彩色相机采集包含标记的加工场景,采用阈值分割和多边形拟合的方法从图像中提取六边形和四边形的顶点。当检测到六边形时,利用六边形的六个顶点的像素坐标和六个顶点预先定义在工件坐标系下的坐标来求解工件坐标系和彩色相机坐标系的相对位姿;当没有检测到六边形时,利用四边形的四个顶点的像素坐标和四个顶点预先定义在工件坐标系下的坐标来求解工件坐标系和彩色相机坐标系的相对位姿。
步骤S50:使用所述RGB-D相机对机床刀具中心图像采集,本实施例中机床刀具为机床铣刀刀具;根据所述映射模型计算彩色图像中刀具中心的像素坐标对应的深度像素坐标,在深度图像上根据刀具像素的深度信息修正刀具中心点的像素坐标,并根据所述相机模型计算像素点对应的深度相机坐标系坐标和彩色相机坐标系坐标;使用步骤S40中校正后的位姿变换矩阵T将刀具中心的彩色相机坐标系坐标转换成工件坐标系坐标,再结合刀具模型得到刀具底部端面中心在工件坐标系下的坐标;
具体地,步骤S50中的刀具中心深度像素修正包含如下步骤:
步骤51:计算彩色像素对应的深度像素D;
步骤52:搜索D周围的深度像素,找到一个深度值不超过深度阈值毫米的深度像素E;
步骤53:在深度像素E所在列向下搜索,找到所有不超过深度阈值的深度像素,将满足深度条件的最下方的深度像素记为L;
步骤54:从L所在列向上搜索,找到每个像素所在行中不超过深度阈值的深度像素,将行中深度像素数作为刀具像素宽度,如果当前行的刀具像素宽度超过前一次的刀具像素宽度2倍,搜索停止。(深度阈值根据实际的相机摆放位置确定)
步骤55:计算得到的所有深度像素的几何中心C,替代像素D作为作为最终的深度像素坐标。
步骤S60:构建专用于铣刀刀具位置检测的卷积神经网络,采集刀具图像进行标记,利用标记过的图像对设计的神经网络进行训练。
机床铣刀刀具检测的卷积神经网络的主干网络中含有6层卷积层,6层卷积层的卷积核尺寸都是3×3,卷积运算时的步长都是1,6个卷积层的卷积核个数分别为16、32、64、128、256。
机床铣刀刀具检测的卷积神经网络的主干网络中含有5层池化层,其中第一层池化层的步长为5,第二层池化层的步长为3,前两层的大步长设计主要是为了在网络前端尽快缩小图像尺寸,提升网络的计算速度,其余池化层的步长都为2。
机床铣刀刀具检测的卷积神经网络通过加入上采样模块来提升特征图的分辨率,并将上采样后的图像和浅层网络中的特征图像堆叠后进行后续处理,提升了网络对小目标物体的检测能力。
机床铣刀刀具检测的卷积神经网络最后用两层卷积核大小1×1的卷积层来实现全连接层的回归计算功能,避免了全连接层的大量计算,并且两层网络保证了包围盒的预测精度。
步骤S70、用训练后的神经网络来定位刀具在彩色图像中的像素坐标。
本实施例中,神经网络训练过程具体为如下步骤:
步骤S51:采集包含铣刀刀具的机床加工现场图像,标记出铣刀刀具在彩色图像中的包围盒;
步骤S61:构建如图4所示的卷积神经网络;
步骤S62:将带有包围盒标记信息的彩色图像输入参数随机初始化的卷积神经网络进行训练,对网络中的参数进行迭代调整;
步骤S71:用训练好的卷积神经网络来预测刀具在彩色图像中的包围盒和包围盒中心的像素坐标。
步骤S80:输入NC代码和设置虚拟工件尺寸信息,工件初始位置与工件坐标系重合;
步骤S90:根据步骤S70得到的实时计算当前刀具的工件坐标系坐标结合步骤S80所输入的NC代码,验证刀具是否在NC代码指定的刀具路径上进行加工。
对当前刀具位置进行实时监视,见图5为刀具检测网络在刀具图像测试集上的检测结果的交并比示意图,计算刀具位置与NC指定刀具路径的误差距离,如果误差过大就认为刀具没有按照NC代码运动,给出警报;否则就根据得到的刀具位置信息对虚拟工件进行加工仿真,并采用增强现实的人家交互方式将虚实仿真加工过程展现出来。
图6为三轴铣床NC代码仿真方法的验证装置及应用场景示意图;
图7为虚实仿真加工示意图。
以上所述,仅是本发明较佳实施例而已,并非对本发明的技术范围作任何限制,故凡是依据本发明的技术实质对以上实施例所作的任何细微修改、等同变化与修饰,均仍属于本发明技术方案的范围的。

Claims (10)

1.一种基于RGB-D相机的数控NC代码虚实验证方法,其特征在于,包括以下步骤:
S10、标定RGB-D相机中彩色相机和深度相机的内部参数,并计算所述彩色相机和所述深度相机之间外部参数,根据所述内部参数和所述外部参数建立彩色像素和深度像素之间的直接映射模型;
S20、用冗余标记定义工件坐标系;将标记放到机床工作台上,所述标记作为特征点;所述RGB-D相机对所述标记采集图像;
S30、从采集图像中提取出所述特征点的像素坐标;
S40、根据所述特征点的像素坐标和所述特征点在工件坐标系下的坐标求解工件坐标系到彩色相机坐标系的位姿变换矩阵T;对位姿变换矩阵T中的旋转角参数进行校正;
S50、使用所述RGB-D相机对机床刀具中心图像采集;根据所述映射模型计算彩色图像中刀具中心的像素坐标对应的深度像素坐标,在深度图像上根据刀具像素的深度信息修正刀具中心点的像素坐标,并根据所述相机模型计算像素点对应的深度相机坐标系坐标和彩色相机坐标系坐标;使用步骤S40中校正后的位姿变换矩阵T将刀具中心的彩色相机坐标系坐标转换成工件坐标系坐标,再结合刀具模型得到刀具底部端面中心在工件坐标系下的坐标;
S60、基于卷积神经网络构建机床刀具位置检测的神经网络;使用训练集对所述神经网络进行训练,所述训练集为步骤S50中采集得到刀具中心图像及对应的刀具底部端面中心在工件坐标系下的坐标;使用步骤S50中标记过的刀具图像对所述神经网络进行参数训练;
S70、将训练后的卷积神经网络用于定位彩色图像中刀具中心的像素坐标并实时计算当前刀具的工件坐标系坐标;
S80、在机床输入NC代码和设置虚拟工件尺寸信息,工件的默认位置与工件坐标系重合;
S90、根据步骤S70得到的实时计算当前刀具的工件坐标系坐标结合步骤S80所输入的NC代码,验证刀具是否在NC代码指定的刀具路径上进行加工。
2.根据权利要求1所述的数控NC代码虚实验证方法,其特征在于,步骤S40利用位姿传感器对位姿变换矩阵T中的旋转角参数进行校正。
3.根据权利要求1所述的数控NC代码虚实验证方法,其特征在于,步骤S60中建机床刀具位置检测的神经网络为面向机床铣刀刀具位置检测的卷积神经网络。
4.根据权利要求3所述的数控NC代码虚实验证方法,其特征在于,步骤S70中采用训练后的卷积神经网络预测彩色图像中铣刀刀具中心的位置和刀具包围盒,将包围盒几何中心的像素坐标作为刀具在彩色图像中的位置。
5.根据权利要求4所述的数控NC代码虚实验证方法,其特征在于,在步骤S90中,步骤S70得到的实时计算铣刀的工件坐标系坐标,得到铣刀位置信息,与机床NC代码进行交叉验证,通过增强现实的人机交互方式来实时仿真刀具铣削工件的过程,实现虚实仿真。
6.根据权利要求5所述的数控NC代码虚实验证方法,其特征在于,对当前刀具位置进行实时监视,同时计算刀具位置与NC指定刀具路径的误差距离,如果误差超出设定值就认为刀具没有按照NC代码运动,给出警报;如果误差未超出设定值则根据得到的刀具位置信息对虚拟工件进行加工仿真。
7.根据权利要求1所述的数控NC代码虚实验证方法,其特征在于,步骤S60中对所述机床刀具检测的卷积神经网络构建过程如下:结合RGB-D相机采集的彩色图像尺寸设计卷积神经网络的输入尺寸,并考虑目标检测的准确率和实时性设计网络的结构。
8.根据权利要求7所述的数控NC代码虚实验证方法,其特征在于,所述机床刀具检测的卷积神经网络的主干网络中含有6层卷积层,6层卷积层的卷积核尺寸都是3×3,卷积运算时的步长都是1,6个卷积层的卷积核个数分别为16、32、64、128、256。
9.根据权利要求8所述的数控NC代码虚实验证方法,其特征在于,所述机床刀具检测的卷积神经网络的主干网络中含有5层池化层,其中第一层池化层的步长为5,第二层池化层的步长为3,其余池化层的步长都为2。
10.根据权利要求9所述的数控NC代码虚实验证方法,其特征在于,所示机床刀具检测的卷积神经网络最后用两层卷积核大小1×1的卷积。
CN201911385824.4A 2019-12-27 2019-12-27 一种基于rgb-d相机的数控nc代码虚实验证方法 Active CN111062937B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911385824.4A CN111062937B (zh) 2019-12-27 2019-12-27 一种基于rgb-d相机的数控nc代码虚实验证方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911385824.4A CN111062937B (zh) 2019-12-27 2019-12-27 一种基于rgb-d相机的数控nc代码虚实验证方法

Publications (2)

Publication Number Publication Date
CN111062937A true CN111062937A (zh) 2020-04-24
CN111062937B CN111062937B (zh) 2023-04-18

Family

ID=70302782

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911385824.4A Active CN111062937B (zh) 2019-12-27 2019-12-27 一种基于rgb-d相机的数控nc代码虚实验证方法

Country Status (1)

Country Link
CN (1) CN111062937B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112683193A (zh) * 2020-11-06 2021-04-20 西安交通大学 基于机器视觉的刀具类型判别及几何参数检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101804586A (zh) * 2010-03-02 2010-08-18 江苏大学 一种虚拟轴机床末端刀具运动位姿的检测方法
CN109471408A (zh) * 2018-11-01 2019-03-15 西北工业大学 基于nc代码重构的三轴机床几何误差补偿方法
CN110238831A (zh) * 2019-07-23 2019-09-17 青岛理工大学 基于rgb-d图像及示教器的机器人示教系统及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101804586A (zh) * 2010-03-02 2010-08-18 江苏大学 一种虚拟轴机床末端刀具运动位姿的检测方法
CN109471408A (zh) * 2018-11-01 2019-03-15 西北工业大学 基于nc代码重构的三轴机床几何误差补偿方法
CN110238831A (zh) * 2019-07-23 2019-09-17 青岛理工大学 基于rgb-d图像及示教器的机器人示教系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王鹏宇 等: "《结合密度峰聚类的K均值图像分割算法》", 《机械与电子》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112683193A (zh) * 2020-11-06 2021-04-20 西安交通大学 基于机器视觉的刀具类型判别及几何参数检测方法及系统

Also Published As

Publication number Publication date
CN111062937B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN110599541B (zh) 一种对多传感器进行标定的方法、装置和存储介质
CN112793564B (zh) 一种基于全景鸟瞰图和深度学习的自主泊车辅助系统
CN100573388C (zh) 实时颜色自动采集的机器人控制方法及机器人
US8086019B2 (en) Method of creating master data used for inspecting concave-convex figure
US20060291719A1 (en) Image processing apparatus
Yan et al. Joint camera intrinsic and lidar-camera extrinsic calibration
JP2022528301A (ja) キャリブレーション方法、位置確定方法、装置、電子機器及び記憶媒体
CN110298891A (zh) 相机外参精度自动评估的方法及装置
CN109816634B (zh) 检测方法、模型训练方法、装置及设备
WO2021188104A1 (en) Object pose estimation and defect detection
CN111062937B (zh) 一种基于rgb-d相机的数控nc代码虚实验证方法
CN112162263A (zh) 传感器的联合标定方法、装置及电子设备
CN118537520A (zh) 一种基于无人机巡检的光伏组件精准定位方法
CN115830135A (zh) 一种图像处理方法、装置及电子设备
CN113298755B (zh) 基于时序影像的生态环境变化斑块快速检测方法和装置
CN117723563B (zh) 一种基于点云配准的芯片引脚缺陷检测方法
CN103679695B (zh) 一种3d四轮定位仪反射标靶及图像识别方法
CN112767498A (zh) 相机标定方法、装置和电子设备
CN116912195A (zh) 旋转目标检测方法、系统、电子设备及存储介质
CN117152265A (zh) 一种基于区域提取的交通图像标定方法及装置
CN113128247B (zh) 一种图像定位标识验证方法及服务器
CN112884691B (zh) 数据增强及装置、数据增强设备和存储介质
Wang et al. A cyber-physical prototype system in augmented reality using RGB-D camera for CNC machining simulation
CN116203976A (zh) 变电站室内巡检方法、装置、无人机和存储介质
CN115902977A (zh) 基于视觉和gps的变电站机器人双重定位方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant