CN109605140B - 基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法 - Google Patents
基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法 Download PDFInfo
- Publication number
- CN109605140B CN109605140B CN201811592695.1A CN201811592695A CN109605140B CN 109605140 B CN109605140 B CN 109605140B CN 201811592695 A CN201811592695 A CN 201811592695A CN 109605140 B CN109605140 B CN 109605140B
- Authority
- CN
- China
- Prior art keywords
- camera
- coordinate system
- tool
- point cloud
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B24—GRINDING; POLISHING
- B24B—MACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
- B24B3/00—Sharpening cutting edges, e.g. of tools; Accessories therefor, e.g. for holding the tools
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B24—GRINDING; POLISHING
- B24B—MACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
- B24B51/00—Arrangements for automatic control of a series of individual steps in grinding a workpiece
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Finish Polishing, Edge Sharpening, And Grinding By Specific Grinding Devices (AREA)
Abstract
本发明提出了一种基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,包括:准备工作;对相机进行标定;将刀具固定在六轴机器人的末端,由标定完成的相机拍摄刀具的图像和结构光投影信息,并获取刀具在相机坐标系中的点云数据,对点云子集的数据进行平滑处理,将平滑处理后的点云数据映射到六轴机器人的末端坐标系中;定义并标定磨具坐标系,并确定点云数据与磨具接触时的相对位姿关系,然后将位姿关系转换至机器人末端坐标系中,生成六轴机器人的轨迹,然后由六轴机器人根据设置的力控参数开启力控并运行上述生成的轨迹,实现对刀具进行开刃。本发明实现的成本较低,可以很好的补偿刀具与其CAD文件之间的误差,实现稳定良好的开刃结果。
Description
技术领域
本发明涉及工业机器人技术领域,特别涉及一种基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法。
背景技术
目前,刀具开刃工作大多还依赖于人工,特别是当开刃对打磨方式及工具有特殊工艺要求时更是如此。然而随着人力成本的上升,自动化刀具开刃的需求也越来越大。想要实现自动化开刃,开刃轨迹是必须实现的重要一步。这里开刃轨迹是指开刃过程中刀具与磨具之间的接触方式。
目前针对特定刀具和打磨工艺,主要有3种自动化开刃系统:
1、特定刀具的开刃机械装置,例如专利CN106271915A提出了一种针对手术刀具的开刃机械装置;
2、打磨机床开刃;
3、工业机械臂配合特定的打磨机构开刃,例如专利US6663465B2提出了一种利用机械臂(至少具备4自由度)和特定打磨机构的开刃系统和方法。
但是上述三种设备均需要自动化生成打磨轨迹,即需要知晓刀具与磨具是如何接触的。现有的实现方式是通过离线编程软件以及刀具的CAD文件来生成。但是这种方法主要有以下几个缺点:1.离线编程软件价格昂贵,成本较高。2.实际的刀具与CAD文件所描述的刀具由于加工误差并不完全相同,当误差大于一定范围时,无法实现精密开刃。3.当机器人没有力控时,无法控制刀具和磨具之间的接触力,从而无法实现稳定开刃。
发明内容
本发明的目的旨在至少解决所述技术缺陷之一。
为此,本发明的目的在于提出一种基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法。
为了实现上述目的,本发明的实施例提供一种基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,包括如下步骤:
步骤S1,准备工作:固定六轴机器人,将相机支架安装在所述六轴机器人的一侧,在所述相机支架上安装相机;
步骤S2,对所述相机进行标定,将标定辅助工具安装在所述六轴机器人的法兰上,对所述相机进行内参标定和手眼标定;
步骤S3,将刀具固定在所述六轴机器人的末端,由标定完成的相机拍摄所述刀具的图像和结构光投影信息,并获取所述刀具在相机坐标系中的点云数据,对所述点云子集的数据进行平滑处理,将平滑处理后的点云数据映射到所述六轴机器人的末端坐标系中;
步骤S4,定义并标定磨具坐标系,并确定点云数据与磨具接触时的相对位姿关系,然后将所述位姿关系转换至机器人末端坐标系中,生成六轴机器人的轨迹,然后由所述六轴机器人根据设置的力控参数开启力控并运行上述生成的轨迹,实现对刀具进行开刃。
进一步,在所述步骤S2中,
对所述相机进行内参标定,包括:首先控制所述六轴机器人运动以将所述标定辅助工具完全进入相机视野,然后利用所述相机拍摄并采集图像,重复多次执行上述步骤,然后利用预设相机标定方法对采集到的图像进行处理,计算得到所述相机的内参;
对所述相机进行手眼标定,包括:首先控制所述六轴机器人运动以将所述标定辅助工具完全进入相机视野,然后利用所述相机拍摄并采集图像,然后计算每次所述标定辅助工具在相机视野中的位置;存储记录此时六轴机器人的末端位置,重复多次执行上述步骤,利用预设手眼标定算法对所述相机进行手眼标定。
进一步,在所述步骤S3中,控制所述六轴机器人运动以使得所述刀具需要开刃的一面完全进入所述相机视野,由标定完成的相机拍摄所述刀具的图像和结构光投影信息,然后根据所述刀具的图像和结构光投影信息获得所述刀具在相机坐标系中的点云数据,生成点云集合。
进一步,在所述步骤S3中,在生成点云集合之后,分析得到刀具的刀刃部位的特征,根据所述刀具刀刃部位的特征在所述点云集合中查找所述刀刃对应的点云子集,其中,所述刀刃部位为刀具与磨具接触的部分;然后对所述点云子集的数据进行平滑处理,将平滑处理后的点云数据映射到所述六轴机器人的末端坐标系中。
进一步,所述刀具的刀刃部位的特征,包括:位置特征、颜色特征和形状特征。
进一步,在所述步骤S3中,根据所述刀具的CAD模型进行卡尔曼滤波,对点云数据进行预测,以实现对所述点云子集的数据进行平滑处理。
进一步,在所述步骤S3中,所述将平滑处理后的点云数据映射到所述六轴机器人的末端坐标系中,包括:
通过手眼标定得到相机坐标系和机器人坐标系之间的齐次变换矩阵,并且通过机器人运动学正解得到机器人坐标系和机器人末端坐标系之间的齐次变换矩阵;
利用上述两个齐次变换矩阵得到相机坐标系和机器人末端坐标系之间的齐次变换矩阵;将所述相机坐标系和机器人末端坐标系之间的齐次变换矩阵依次与每个点云数据相乘,得到机器人末端坐标系中的点云数据,实现数据映射。
进一步,在所述步骤S4中,所述定义并标定磨具坐标系,包括如下步骤:
首先在磨具上设置一个原点作为磨具坐标系原点,然后定义磨具的x、y和z轴,利用机器人标定工具标定该坐标系获得磨具坐标系与机器人坐标系之间的关系。
进一步,在所述步骤S4中,确定刀具和磨具之间实际的物理接触方式,根据刀具与磨盘的接触顺序对刀刃部分对应的点云数据进行排列,并根据排列顺序依次确定每个点云数据与磨具接触时对应的相对位姿关系,将位姿关系转换至机器人末端坐标系中,生成运行轨迹。
进一步,在所述步骤S4中,确定刀具开刃过程中每个打磨点与磨具接触时的接触力,然后设置力控参数并对力控标定,由六轴机器人运行生成的轨迹,实现对刀具的开刃。
根据本发明实施例的基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,利用标定后的3D视觉系统对刀具要开刃部分进行拍摄图像,然后根据拍摄刀具的图像和结构光投影信息获取刀具点云数据,从刀具点云数据中获得刀刃部分对应的点云数据,利用卡尔曼滤波对原始点云数据进行平滑,然后由六轴机器人根据设置的力控参数开启力控并运行上述生成的点云轨迹,实现对刀具进行开刃。本发明实现的成本较低,无需购买昂贵的离线编程软件,可以很好的补偿刀具与其CAD文件之间的误差,并且通过力控可以控制磨具和刀具的接触力,从而实现稳定良好的开刃结果。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法的流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
本发明的基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,需要应用到搭建以下硬件环境:3D视觉系统、相机支架、标定辅助工具、图像处理器、具有力控功能的六轴机器人和所需刀具。
如图1所示,本发明实施例的基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,包括如下步骤:
步骤S1,准备工作:固定六轴机器人,将相机支架安装在六轴机器人的一侧,在相机支架上安装相机。
其中,相机采用3D视觉系统。在本发明中,3D视觉系统包括:双目3D视觉系统、结构光3D视觉系统、激光反射3D视觉系统等。需要说明的是,上述仅是对3D视觉系统的举例,而不是为了限制本发明。本发明中的3D视觉系统还可以采用其他方式,在此不再赘述。
步骤S2,对相机进行标定,将标定辅助工具安装在六轴机器人的法兰上,对相机进行内参标定和手眼标定。
在本发明的一个实施例中,标定辅助工具指各种形式的标定板,包括但不限于棋盘格标定板、圆点标定板、随机模式标定板和ArUco标定板等。
具体的,对相机进行内参标定,包括:首先控制六轴机器人运动以将标定辅助工具完全进入相机视野,然后利用相机拍摄并采集图像,重复多次执行上述步骤,然后利用预设相机标定方法对采集到的图像进行处理,计算得到相机的内参。、
在本发明的一个实施例中,预设相机标定方法包括:线性标定方法、各种非线性标定方法、张正友标定方法、Tsai标定法等各类标定方法。需要说明的是,上述仅是对相机内参标定的举例,而不是为了限制本发明。本发明中的相机内参标定算法还可以采用其他方式,在此不再赘述。
其次,对相机进行手眼标定,包括:首先控制六轴机器人运动以将标定辅助工具完全进入相机视野,然后利用相机拍摄并采集图像,然后计算每次标定辅助工具在相机视野中的位置;存储记录此时六轴机器人的末端位置,重复多次执行上述步骤,利用预设手眼标定算法对相机进行手眼标定。
在本发明的一个实施例中,预设手眼标定方法包括:传统两步法、Navy手眼标定算法、TSAI-LENZ手眼算法。需要说明的是,上述仅是对相机手眼标定的举例,而不是为了限制本发明。本发明中的相机手眼标定算法还可以采用其他方式,在此不再赘述。
通常只需要在第一次刀具打磨前或者相机与六轴机器人的相对位置发生变化时标定一次即可。
步骤S3,将刀具固定在六轴机器人的末端,由标定完成的相机拍摄刀具的图像和结构光投影信息。并获取刀具在相机坐标系中的点云数据,对点云子集的数据进行平滑处理,将平滑处理后的点云数据映射到六轴机器人的末端坐标系中。
控制六轴机器人运动以使得刀具需要开刃的一面完全进入相机视野,由标定完成的相机拍摄刀具的图像和结构光投影信息。其中,3D结构光模式包含但不限于点、线和面等模式。结构光投影信息指的是将结构光投影到环境,然后用视觉记录该环境,从视觉结果中提取的投影信息。结构光投影具体信息与结构光模式等因素有关,在此不再赘述。
然后根据刀具的图像和结构光投影信息获得刀具在相机坐标系中的点云数据,生成点云集合。其中,可以采用PCL库相关方法进行处理。
在生成点云集合之后,分析得到刀具的刀刃部位的特征。在本发明的一个实施例中,刀具的刀刃部位的特征,包括:位置特征、颜色特征和形状特征等。
根据刀具刀刃部位的特征在点云集合中查找刀刃对应的点云子集,其中,刀刃部位为刀具与磨具接触的部分。
然后,对点云子集的数据进行平滑处理,将平滑处理后的点云数据映射到六轴机器人的末端坐标系中。
其后,根据刀具的CAD模型进行卡尔曼滤波,对点云数据进行预测,以实现对点云子集的数据进行平滑处理。
具体来说,根据刀具的标准CAD模型得到刀刃点之间的关系并写成差分形式,该差分形式作为卡尔曼滤波中的理论模型。然后将采集到的点云数据即为卡尔曼滤波中的观测值。根据卡尔曼滤波公式循环计算预测的点云数据。将预测到的点云数据作为新的观测值,并多次重复执行上述步骤,将最终获得预测值作为下一步处理的点云数据。
通过下述方式将平滑处理后的点云数据映射到六轴机器人的末端坐标系中:
通过手眼标定得到相机坐标系和机器人坐标系之间的齐次变换矩阵,并且通过机器人运动学正解得到机器人坐标系和机器人末端坐标系之间的齐次变换矩阵。
利用上述两个齐次变换矩阵得到相机坐标系和机器人末端坐标系之间的齐次变换矩阵;将相机坐标系和机器人末端坐标系之间的齐次变换矩阵依次与每个点云数据相乘,得到机器人末端坐标系中的点云数据,实现数据映射。
步骤S4,定义并标定磨具坐标系,并确定点云数据与磨具接触时的相对位姿关系,然后将位姿关系转换至机器人末端坐标系中,生成六轴机器人的轨迹,然后由六轴机器人根据设置的力控参数开启力控并运行上述生成的轨迹,实现对刀具进行开刃。
首先,定义并标定磨具坐标系,首先在磨具上设置一个原点作为磨具坐标系原点,然后定义磨具的x、y和z轴,利用机器人标定工具标定该坐标系获得磨具坐标系与机器人坐标系之间的关系。
然后,确定刀具和磨具之间实际的物理接触方式,根据刀具与磨盘的接触顺序对刀刃部分对应的点云数据进行排列,并根据排列顺序依次确定每个点云数据与磨具接触时对应的相对位姿关系,将位姿关系转换至机器人末端坐标系中,生成运行轨迹。
确定刀具开刃过程中每个打磨点与磨具接触时的接触力,然后设置力控参数并对力控标定,由六轴机器人运行生成的轨迹,实现对刀具的开刃。
根据本发明实施例的基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,利用标定后的3D视觉系统对刀具要开刃部分进行拍摄图像,然后根据拍摄刀具的图像和结构光投影信息获取刀具点云数据,从刀具点云数据中获得刀刃部分对应的点云数据,利用卡尔曼滤波对原始点云数据进行平滑,然后由六轴机器人根据设置的力控参数开启力控并运行上述生成的点云轨迹,实现对刀具进行开刃。本发明实现的成本较低,无需购买昂贵的离线编程软件,可以很好的补偿刀具与其CAD文件之间的误差,并且通过力控可以控制磨具和刀具的接触力,从而实现稳定良好的开刃结果。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。本发明的范围由所附权利要求及其等同限定。
Claims (8)
1.一种基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,其特征在于,包括如下步骤:
步骤S1,准备工作:固定六轴机器人,将相机支架安装在所述六轴机器人的一侧,在所述相机支架上安装相机;
步骤S2,对所述相机进行标定,将标定辅助工具安装在所述六轴机器人的法兰上,对所述相机进行内参标定和手眼标定;
步骤S3,将刀具固定在所述六轴机器人的末端,由标定完成的相机拍摄所述刀具的图像和结构光投影信息,并获取所述刀具在相机坐标系中的点云数据,对点云子集的数据进行平滑处理,将平滑处理后的点云数据映射到所述六轴机器人的末端坐标系中;其中,控制所述六轴机器人运动以使得所述刀具需要开刃的一面完全进入所述相机视野,由标定完成的相机拍摄所述刀具的图像和结构光投影信息,然后根据所述刀具的图像和结构光投影信息获得所述刀具在相机坐标系中的点云数据,生成点云集合;
在生成点云集合之后,分析得到刀具的刀刃部位的特征,根据所述刀具刀刃部位的特征在所述点云集合中查找所述刀刃对应的点云子集,其中,所述刀刃部位为刀具与磨具接触的部分;然后对所述点云子集的数据进行平滑处理,将平滑处理后的点云数据映射到所述六轴机器人的末端坐标系中;
步骤S4,定义并标定磨具坐标系,并确定点云数据与磨具接触时的相对位姿关系,然后将所述位姿关系转换至机器人末端坐标系中,生成六轴机器人的轨迹,然后由所述六轴机器人根据设置的力控参数开启力控并运行上述生成的轨迹,实现对刀具进行开刃。
2.如权利要求1所述的基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,其特征在于,在所述步骤S2中,
对所述相机进行内参标定,包括:首先控制所述六轴机器人运动以将所述标定辅助工具完全进入相机视野,然后利用所述相机拍摄并采集图像,重复多次执行上述步骤,然后利用预设相机标定方法对采集到的图像进行处理,计算得到所述相机的内参;
对所述相机进行手眼标定,包括:首先控制所述六轴机器人运动以将所述标定辅助工具完全进入相机视野,然后利用所述相机拍摄并采集图像,然后计算每次所述标定辅助工具在相机视野中的位置;存储记录此时六轴机器人的末端位置,重复多次执行上述步骤,利用预设手眼标定算法对所述相机进行手眼标定。
3.如权利要求1所述的基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,其特征在于,所述刀具的刀刃部位的特征,包括:位置特征、颜色特征和形状特征。
4.如权利要求1所述的基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,其特征在于,在所述步骤S3中,根据所述刀具的CAD模型进行卡尔曼滤波,对点云数据进行预测,以实现对所述点云子集的数据进行平滑处理。
5.如权利要求1所述的基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,其特征在于,在所述步骤S3中,所述将平滑处理后的点云数据映射到所述六轴机器人的末端坐标系中,包括:
通过手眼标定得到相机坐标系和机器人坐标系之间的齐次变换矩阵,并且通过机器人运动学正解得到机器人坐标系和机器人末端坐标系之间的齐次变换矩阵;
利用上述两个齐次变换矩阵得到相机坐标系和机器人末端坐标系之间的齐次变换矩阵;将所述相机坐标系和机器人末端坐标系之间的齐次变换矩阵依次与每个点云数据相乘,得到机器人末端坐标系中的点云数据,实现数据映射。
6.如权利要求1所述的基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,其特征在于,在所述步骤S4中,所述定义并标定磨具坐标系,包括如下步骤:
首先在磨具上设置一个原点作为磨具坐标系原点,然后定义磨具的x、y和z轴,利用机器人标定工具标定该坐标系获得磨具坐标系与机器人坐标系之间的关系。
7.如权利要求1所述的基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,其特征在于,在所述步骤S4中,确定刀具和磨具之间实际的物理接触方式,根据刀具与磨具的接触顺序对刀刃部分对应的点云数据进行排列,并根据排列顺序依次确定每个点云数据与磨具接触时对应的相对位姿关系,将位姿关系转换至机器人末端坐标系中,生成运行轨迹。
8.如权利要求1所述的基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法,其特征在于,在所述步骤S4中,确定刀具开刃过程中每个打磨点与磨具接触时的接触力,然后设置力控参数并对力控标定,由六轴机器人运行生成的轨迹,实现对刀具的开刃。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811592695.1A CN109605140B (zh) | 2018-12-25 | 2018-12-25 | 基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811592695.1A CN109605140B (zh) | 2018-12-25 | 2018-12-25 | 基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109605140A CN109605140A (zh) | 2019-04-12 |
CN109605140B true CN109605140B (zh) | 2021-03-23 |
Family
ID=66011553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811592695.1A Active CN109605140B (zh) | 2018-12-25 | 2018-12-25 | 基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109605140B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112518529B (zh) * | 2020-10-16 | 2023-01-10 | 苏州科诺机器人有限责任公司 | 基于工业机器人的自动化刀具开刃工作站及开刃方法 |
CN112318215A (zh) * | 2020-11-04 | 2021-02-05 | 苏州大学 | 一种微型刀具的刃磨工艺 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000254840A (ja) * | 1999-03-05 | 2000-09-19 | Kato Nobuaki | ドリル再研削における自動インデックス方法 |
DE10021302A1 (de) * | 2000-05-02 | 2001-11-08 | Heinz Berger Maschinenfabrik G | Schleifmaschine und Verfahren zum Schärfen von Klingen |
TWM305080U (en) * | 2006-03-16 | 2007-01-21 | Hotwu Technology Co Ltd | Grinding drill device |
CN103862330B (zh) * | 2012-12-14 | 2016-03-23 | 中国科学院沈阳自动化研究所 | 基于机器视觉的弯管磁研磨自动导航方法 |
CN104647388A (zh) * | 2014-12-30 | 2015-05-27 | 东莞市三瑞自动化科技有限公司 | 基于机器视觉的工业机器人智能控制方法及系统 |
CN106041946B (zh) * | 2016-05-23 | 2017-02-22 | 广东工业大学 | 基于图像处理的机械人打磨生产方法及应用其的生产系统 |
CN107127755B (zh) * | 2017-05-12 | 2023-12-08 | 华南理工大学 | 一种三维点云的实时采集装置及机器人打磨轨迹规划方法 |
CN107378780B (zh) * | 2017-07-19 | 2019-01-08 | 江苏大学 | 一种基于视觉系统的机器人铸件打磨自适应方法 |
CN107775023A (zh) * | 2017-11-28 | 2018-03-09 | 重庆华数机器人有限公司 | 一种多功能去毛刺设备 |
CN108195310B (zh) * | 2018-02-12 | 2019-12-13 | 大连大学 | 一种基于计算机视觉的刀具刃型检测装置 |
-
2018
- 2018-12-25 CN CN201811592695.1A patent/CN109605140B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109605140A (zh) | 2019-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111482959B (zh) | 机器人运动视觉系统的自动手眼标定系统与方法 | |
CN111775146B (zh) | 一种工业机械臂多工位作业下的视觉对准方法 | |
CN105377513B (zh) | 具有视觉的自动机加工头及方法 | |
EP3068607B1 (en) | System for robotic 3d printing | |
EP2767370A2 (en) | Robot system and method for controlling the same | |
CN112862878B (zh) | 一种基于3d视觉的机械臂修坯方法 | |
CA2799042A1 (en) | Method and system for generating instructions for an automated machine | |
CN111037561B (zh) | 一种空间注册方法和装置 | |
CN109605140B (zh) | 基于机器视觉和具有力控功能六轴机械臂的刀具开刃方法 | |
JP2016099257A (ja) | 情報処理装置及び情報処理方法 | |
WO2008113807A2 (en) | A method and an apparatus for programming a material removal process carried out on an object by means of a robot | |
CN110119566B (zh) | 一种适用于复杂曲面机器人砂带磨抛的切削深度预测方法及装置 | |
CN113785303A (zh) | 借助于机器人引导的相机来机器学习对象识别 | |
CN114355953B (zh) | 一种基于机器视觉的多轴伺服系统的高精度控制方法及系统 | |
JP2017102529A (ja) | ワーク位置姿勢算出装置およびハンドリングシステム | |
CN113379849A (zh) | 基于深度相机的机器人自主识别智能抓取方法及系统 | |
CN112907682B (zh) | 一种五轴运动平台的手眼标定方法、装置及相关设备 | |
US7957834B2 (en) | Method for calculating rotation center point and axis of rotation, method for generating program, method for moving manipulator and positioning device, and robotic system | |
CN112907683A (zh) | 一种点胶平台的相机标定方法、装置及相关设备 | |
CN105538015A (zh) | 一种叶片类复杂薄壁型面零件自适应定位方法 | |
US20230173660A1 (en) | Robot teaching by demonstration with visual servoing | |
CN108857130B (zh) | 一种基于图像帧位处理的船舶通用结构件三维定位方法 | |
WO2018214156A1 (zh) | 校正机器人的运动控制命令的方法及其相关设备 | |
CN110549326B (zh) | 基于多主动柔顺控制器的机器人研磨抛光加工位姿调节方法 | |
CN109807890B (zh) | 设备误差的校准方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |