CN113506349A - 一种垃圾分选机器人高精度手眼标定方法 - Google Patents
一种垃圾分选机器人高精度手眼标定方法 Download PDFInfo
- Publication number
- CN113506349A CN113506349A CN202110813183.9A CN202110813183A CN113506349A CN 113506349 A CN113506349 A CN 113506349A CN 202110813183 A CN202110813183 A CN 202110813183A CN 113506349 A CN113506349 A CN 113506349A
- Authority
- CN
- China
- Prior art keywords
- camera
- coordinate system
- calibration
- robot
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/34—Sorting according to other particular properties
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C2501/00—Sorting according to a characteristic or feature of the articles or material to be sorted
- B07C2501/0054—Sorting of waste or refuse
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种垃圾分选机器人高精度手眼标定方法,适用并联机器人的eye‑to‑hand系统,且该系统由视觉模块、机器人模块、传送模块三部分构成;包括以下步骤:(1)求解相机参数与姿态矩阵;(2)求解相机内参矩阵与畸变矩阵,完成像素坐标系与相机坐标系转换;(3)利用map_image算子进行映射变换来消除畸变,并得到修正后的参考平面图像;(4)求解相机外参,完成相机坐标系与对应的世界坐标系之间的转换;(5)采用九点标定法进行世界坐标系到机器人坐标系的转换。本发明通过将消除相机畸变与相机内外参标定和机器人标定有机结合,降低了标定误差,实现了标定精度控制在0.1mm。
Description
技术领域
本发明涉及机器人手眼标定方法技术领域,具体涉及一种垃圾分选机器人高精度手眼标定方法。
背景技术
随着生活垃圾中以PET、PE等塑料为主的可回收物比例逐年上升,传统的焚烧、填埋等方法处置成本高、对环境造成负担重;目前针对生活垃圾的再生处理方式多为人工分选,工人工作环境恶劣,且人工分选效率低、错误率高。因此,基于人工智能及机器人技术实现对生活垃圾中可回收物的自动分拣对再生资源产业有着革命性的意义。
既有的自动化分拣一般采用六轴工业机器人代替人工进行作业,但其重复定位精度较低,无法应用在高精度要求的场合。而并联机器人由于其刚度高、结构稳定、精度高、运动惯量小、控制简单、速度快等优点,在垃圾分选领域具有极高的应用价值,尤其适用于需要进行快速抓取操作且定位精度要求较高的可再生资源分选场合使用。通过结合视觉算法与并联机器人技术,可以解决传统机器人分选作业高度结构化、机器人对环境变化的适应能力低、生产线的柔性差等问题。
为避免由视觉系统、机器人参数、控制系统因素等造成的误差,实现并联机器人准确、快速、无损抓取控制,高精度的手眼标定是必要前提。手眼标定是统一视觉系统和机器人的坐标系统,从而使视觉系统所确定的物体位姿转换到机器人坐标系下,由机器人完成对相关特征的处理过程。但是,并联机器人发展起步晚,目前普遍存在因相机镜头畸变及相机内部参数导致的并联机器人手眼标定精度低、手眼标定操作复杂的问题,因而研发出一种易操作的高精度手眼标定方法用于实现并联机器人的精准高效抓取是当前亟需解决的问题。
发明内容
本发明要解决的技术问题是提供一种垃圾分选机器人高精度手眼标定方法,解决了现有eye-to-hand并联机器人的标定方法由于相机镜头畸变导致标定精度低,进而物料抓取不良的问题;通过将消除相机畸变与相机内外参标定和机器人标定有机结合,大大降低了标定误差,从而实现了标定精度控制在0.1mm。
为解决上述技术问题,本发明采取如下技术方案:本发明的一种垃圾分选机器人高精度手眼标定方法,适用并联机器人的eye-to-hand系统,且该系统由视觉模块、机器人模块、传送模块三部分构成;其创新点在于包括以下步骤:
(1)求解相机参数与姿态矩阵;
(2)求解相机内参矩阵与畸变矩阵,完成像素坐标系与相机坐标系转换;
(3)利用map_image算子进行映射变换来消除畸变,并得到修正后的参考平面图像;
(4)求解相机外参,完成相机坐标系与对应的世界坐标系之间的转换;
(5)采用九点标定法进行世界坐标系到机器人坐标系的转换。
优选的,在上述步骤(1)中,消除相机镜头畸变的具体流程为:
(1.1)将halcon圆点标定板置于传送带表面任意位置,确保圆点标定板完全暴露于相机视野范围内,并通过相机采集多张圆点标定板图片;
(1.2)将采集到的图片导入halcon软件,并通过halcon标定助手求解出相机的参数与姿态矩阵。
优选的,在上述步骤(2)中,像素坐标系与相机坐标系转换的具体流程为:
(2.1)求解相机内参;将每一个棋盘格标定板分别放置在传送带上的不同位置,在同一相机视野范围下,确保圆点标定板完全暴露于相机视野范围内;采集多张不同角度及位置的棋盘格标定板照片,并将图片导入matlab;
(2.2)通过matlab对棋盘格标定板的角点进行识别,并对相机进行标定,得到相机的3*3上三角内参矩阵与相机畸变参数矩阵。
优选的,在上述步骤(2.1)中,每一个棋盘格标定板分别放置在传送带上的不同位置。
优选的,在上述步骤(3)中,得到修正后的参考平面图像的具体流程为:
(3.1)将棋盘格标定板平放于传送带一固定位置,作为世界坐标系参考平面;
(3.2)通过相机获取参考平面图像并导入halcon,再根据步骤(1.2)中得到的相机参数与姿态矩阵,通过halcon算子gen_image_to_world_plane_map生成图像平面和世界坐标系的平面之间的映射的投影图;
(3.3)利用map_image算子进行映射变换来消除畸变,并得到修正后的参考平面图像。
优选的,在上述步骤(3.2)中,世界坐标系的平面即为z=0状态下的平面。
优选的,在上述步骤(4)中,相机坐标系与世界坐标系转换的具体流程为:
(4.1)在修正后的参考平面图像中任意选取一个角点作为世界坐标系的坐标原点,以棋盘格相互垂直的两边方向分别作为x轴、y轴方向;
(4.2)随机选取4个角点提取其像素坐标,并通过棋盘格标定板参数计算对应的世界坐标(xw,yw,zw);其中,
xw=n*d (1)
yw=n*d (2)
zw=0 (3)
式中,n为角点距坐标原点棋盘格数量,d为每一小格边长;
(4.3)求解相机外参;在OpenCV中分别输入通过步骤(2.2)获得的相机内参矩阵、畸变参数矩阵以及(4.2)获得的四点像素坐标与对应世界坐标;
(4.4)通过OpenCV中的solvePNP算子求解出相机外参,即旋转矩阵R和平移矩阵T;
优选的,根据上述步骤(2)~(4),可将像素坐标系到世界坐标系的转换通过如下公式进行概括:
将像素坐标、对应的位置信息以及内外参数带入相机参数公式中确定相机参数,且相机参数的确定公式为:
其中,u和v分别为像素坐标系中的像素横坐标和像素纵坐标;xw、yw、zw分别为世界坐标系中的横坐标、纵坐标和竖坐标;R为旋转矩阵;T为平移矩阵;u0、v0、fx、fy为相机内参,即u0和v0分别为图像中心横坐标和图像中心纵坐标,fx和fy分别为横向等效焦距和纵向等效焦距;s为相机坐标系中的相机坐标;
其求解过程为:
s=f/c (7)
通过上述计算即可完成从像素坐标系到世界坐标系的转换。
优选的,在上述步骤(5)中,从世界坐标系到机器人坐标系转换的具体流程为:
(5.1)在步骤(3.3)得到的参考平面中,任意选取九个角点并获取其世界坐标;
(5.2)在并联机器人法兰盘中心位置固定一标定工具,标定工具为圆柱锥结构,尖端朝下,与传送带水平面垂直安装;
(5.3)开启传送带,使传送带上作为参考平面的棋盘格标定板移动至并联机器人工作范围内;
(5.4)控制并联机器人移动,使标定工具尖端依次对准选取的九个角点,并分别记录角点对应的机器人坐标;
(5.5)通过halcon的vector_to_hom_mat2d算子进行仿射变换,得出3*3仿射变换矩阵;
(5.6)默认参考平面在世界坐标系的z轴坐标为0,在不考虑物料高度情况下,通过公式完成世界坐标系到机器人坐标系的变换,且其公式为:
其中,xR、yR分别为机器人坐标系中的横坐标、纵坐标。
本发明的有益效果:
(1)本发明解决了现有eye-to-hand并联机器人的标定方法由于相机镜头畸变导致标定精度低,进而物料抓取不良的问题;通过将消除相机畸变与相机内外参标定和机器人标定有机结合,大大降低了标定误差,从而实现了标定精度控制在0.1mm;
(2)本发明无需通过工具将标定板固定于精确位置,对标定板位置要求精度低,操作简单,且降低了标定难度和标定成本。
附图说明
为了更清晰地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明机器人的eye-to-hand模型结构示意图。
图2为图1中相机标定过程示意图。
图3为图1中机器人坐标标定过程示意图。
图4为图1中halcon圆点标定板示意图。
具体实施方式
下面将通过具体实施方式对本发明的技术方案进行清楚、完整地描述。
本发明的一种垃圾分选机器人高精度手眼标定方法,如图1所示,适用并联机器人的eye-to-hand系统,且该系统由视觉模块、机器人模块、传送模块三部分构成;其中,传送模块所用的传送带长度为4m,宽度为0.9mm,最高速度可达2m/s;视觉模块采用500万像素CMOS工业相机,且其镜头焦距为8mm,视觉模块位于所述机器人模块的前端,并固定在传送带上方1m的高度;机器人模块采用四轴并联机器人,且其工作范围为900mm,并固定在传送带上方。
本发明的一种垃圾分选机器人高精度手眼标定方法,如图1~4所示,包括以下步骤:
(1)求解相机参数与姿态矩阵;
在上述步骤中,由于相机镜头存在径向畸变及切向畸变,因而相机采集到的图片会存在一定程度的畸变现象;因此消除相机镜头畸变的具体流程为:
(1.1)将halcon圆点标定板置于传送带表面任意位置,确保圆点标定板完全暴露于相机视野范围内,并通过相机采集多张圆点标定板图片;
其中,halcon圆点标定板为由7*7个圆点组成,且每个圆点直径为12.5mm;
(1.2)将采集到的图片导入halcon软件,并通过halcon标定助手求解出相机的参数与姿态矩阵。
(2)求解相机内参矩阵与畸变矩阵,完成像素坐标系与相机坐标系转换;
在上述步骤中,像素坐标系与相机坐标系转换的具体流程为:
(2.1)求解相机内参,将每一个棋盘格标定板分别放置在传送带上的不同位置,在同一相机视野范围下,确保圆点标定板完全暴露于相机视野范围内;采集45张不同角度及位置的棋盘格标定板照片,并将图片导入matlab;
其中,每一个棋盘格标定板均为由方格边长24mm的7*6个角点组成,且分别放置在传送带上的不同位置;
(3)利用map_image算子进行映射变换来消除畸变,并得到修正后的参考平面图像;
在上述步骤中,得到修正后的参考平面图像的具体流程为:
(3.1)将棋盘格标定板平放于传送带一固定位置,作为世界坐标系参考平面;
(3.2)通过相机获取参考平面图像并导入halcon,再根据步骤(1.2)中得到的相机参数与姿态矩阵,通过halcon算子gen_image_to_world_plane_map生成图像平面和世界坐标系的平面之间的映射的投影图;
其中,世界坐标系的平面即为z=0状态下的平面;
(3.3)利用map_image算子进行映射变换来消除畸变,并得到修正后的参考平面图像。
(4)求解相机外参,完成相机坐标系与对应的世界坐标系之间的转换;
在上述步骤中,相机坐标系与世界坐标系转换的具体流程为:
(4.1)在修正后的参考平面图像中选取顶角角点作为世界坐标系的坐标原点;
(4.2)随机选取4个角点提取其像素坐标,并通过棋盘格标定板参数计算对应的世界坐标(xw,yw,zw);其中,
xw=n*d (1)
yw=n*d (2)
zw=0 (3)
式中,n为角点距坐标原点棋盘格数量,d为每一小格边长;
本实施例中随机选取4个角点提取其像素坐标(1282,1118)、(922,1118)、(922,818)、(1281,818),通过棋盘格标定板参数计算对应的世界坐标为(0,0,0)、(-144,0,0)、(-144,120,0)、(0,120,0);
(4.3)求解相机外参;在OpenCV中分别输入通过步骤(2.2)获得的相机内参矩阵、畸变参数矩阵以及(4.2)获得的四点像素坐标与对应世界坐标;
本发明根据上述步骤(2)~(4),可将像素坐标系到世界坐标系的转换通过如下公式进行概括:
将像素坐标、对应的位置信息以及内外参数带入相机参数公式中确定相机参数,且相机参数的确定公式为:
其中,u和v分别为像素坐标系中的像素横坐标和像素纵坐标;xw、yw、zw分别为世界坐标系中的横坐标、纵坐标和竖坐标;R为旋转矩阵;T为平移矩阵;u0、v0、fx、fy为相机内参,即u0和v0分别为图像中心横坐标和图像中心纵坐标,fx和fy分别为横向等效焦距和纵向等效焦距;s为相机坐标系中的相机坐标;
其求解过程为:
s=f/c (7)
通过上述计算确定相机参数s=990.99590,即完成从像素坐标系到世界坐标系的转换。
(5)采用九点标定法进行世界坐标系到机器人坐标系的转换;
在上述步骤中,从世界坐标系到机器人坐标系转换的具体流程为:
(5.1)在步骤(3.3)得到的参考平面中,任意选取九个角点并获取其世界坐标(0,0)、(-144,0)、(-144,120)、(0,120)、(-96,144)、(24,48)、(-96,48)、(-48,120)、(-48,-24);
(5.2)在并联机器人法兰盘中心位置固定一标定工具,标定工具为圆柱锥结构,尖端朝下,与传送带水平面垂直安装;
(5.3)开启传送带,使传送带上作为参考平面的棋盘格标定板移动至并联机器人工作范围内;
(5.4)控制并联机器人移动,使标定工具尖端依次对准选取的九个角点,并分别记录角点对应的机器人坐标(-563.88,-64.26)、(-706.20,-64.88)、(-704.48,54.40)、(-562.66,55.21)、(-656.58,77.60)、(-539.50,-17.37)、(-657.85,-17.35)、(-610.20,54.66)、(-611.22,-88.30);
(5.6)默认参考平面在世界坐标系的z轴坐标为0,在不考虑物料高度情况下,即可通过公式完成世界坐标系到机器人坐标系的变换,且其公式为:
其中,xR、yR分别为机器人坐标系中的横坐标、纵坐标。
本发明的有益效果:
(1)本发明解决了现有eye-to-hand并联机器人的标定方法由于相机镜头畸变导致标定精度低,进而物料抓取不良的问题;通过将消除相机畸变与相机内外参标定和机器人标定有机结合,大大降低了标定误差,从而实现了标定精度控制在0.1mm;
(2)本发明无需通过工具将标定板固定于精确位置,对标定板位置要求精度低,操作简单,且降低了标定难度和标定成本。
上面所述的实施例仅仅是本发明的优选实施方式进行描述,并非对本发明的构思和范围进行限定,在不脱离本发明设计构思的前提下,本领域中普通工程技术人员对本发明的技术方案作出的各种变型和改进均应落入本发明的保护范围,本发明的请求保护的技术内容,已经全部记载在技术要求书中。
Claims (9)
1.一种垃圾分选机器人高精度手眼标定方法,适用并联机器人的eye-to-hand系统,且该系统由视觉模块、机器人模块、传送模块三部分构成;其特征在于包括以下步骤:
(1)求解相机参数与姿态矩阵;
(2)求解相机内参矩阵与畸变矩阵,完成像素坐标系与相机坐标系转换;
(3)利用map_image算子进行映射变换来消除畸变,并得到修正后的参考平面图像;
(4)求解相机外参,完成相机坐标系与对应的世界坐标系之间的转换;
(5)采用九点标定法进行世界坐标系到机器人坐标系的转换。
2.根据权利要求1所述的一种垃圾分选机器人高精度手眼标定方法,其特征在于:在上述步骤(1)中,消除相机镜头畸变的具体流程为:
(1.1)将halcon圆点标定板置于传送带表面任意位置,确保圆点标定板完全暴露于相机视野范围内,并通过相机采集多张圆点标定板图片;
(1.2)将采集到的图片导入halcon软件,并通过halcon标定助手求解出相机的参数与姿态矩阵。
3.根据权利要求2所述的一种垃圾分选机器人高精度手眼标定方法,其特征在于:在上述步骤(2)中,像素坐标系与相机坐标系转换的具体流程为:
(2.1)求解相机内参;将每一个棋盘格标定板分别放置在传送带上的不同位置,在同一相机视野范围下,确保圆点标定板完全暴露于相机视野范围内;采集多张不同角度及位置的棋盘格标定板照片,并将图片导入matlab;
(2.2)通过matlab对棋盘格标定板的角点进行识别,并对相机进行标定,得到相机的3*3上三角内参矩阵与相机畸变参数矩阵。
4.根据权利要求3所述的一种垃圾分选机器人高精度手眼标定方法,其特征在于:在上述步骤(2.1)中,每一个棋盘格标定板分别放置在传送带上的不同位置。
5.根据权利要求3所述的一种垃圾分选机器人高精度手眼标定方法,其特征在于:在上述步骤(3)中,得到修正后的参考平面图像的具体流程为:
(3.1)将棋盘格标定板平放于传送带一固定位置,作为世界坐标系参考平面;
(3.2)通过相机获取参考平面图像并导入halcon,再根据步骤(1.2)中得到的相机参数与姿态矩阵,通过halcon算子gen_image_to_world_plane_map生成图像平面和世界坐标系的平面之间的映射的投影图;
(3.3)利用map_image算子进行映射变换来消除畸变,并得到修正后的参考平面图像。
6.根据权利要求5所述的一种垃圾分选机器人高精度手眼标定方法,其特征在于:在上述步骤(3.2)中,世界坐标系的平面即为z=0状态下的平面。
7.根据权利要求5所述的一种垃圾分选机器人高精度手眼标定方法,其特征在于:在上述步骤(4)中,相机坐标系与世界坐标系转换的具体流程为:
(4.1)在修正后的参考平面图像中任意选取一个角点作为世界坐标系的坐标原点,以棋盘格相互垂直的两边方向分别作为x轴、y轴方向;
(4.2)随机选取4个角点提取其像素坐标,并通过棋盘格标定板参数计算对应的世界坐标(xw,yw,zw);其中,
xw=n*d (1)
yw=n*d (2)
zw=0 (3)
式中,n为角点距坐标原点棋盘格数量,d为每一小格边长;
(4.3)求解相机外参;在OpenCV中分别输入通过步骤(2.2)获得的相机内参矩阵、畸变参数矩阵以及(4.2)获得的四点像素坐标与对应世界坐标;
(4.4)通过OpenCV中的solvePNP算子求解出相机外参,即旋转矩阵R和平移矩阵T。
8.根据权利要求7所述的一种垃圾分选机器人高精度手眼标定方法,其特征在于:根据上述步骤(2)~(4),可将像素坐标系到世界坐标系的转换通过如下公式进行概括:
将像素坐标、对应的位置信息以及内外参数带入相机参数公式中确定相机参数,且相机参数的确定公式为:
其中,u和v分别为像素坐标系中的像素横坐标和像素纵坐标;xw、yw、zw分别为世界坐标系中的横坐标、纵坐标和竖坐标;R为旋转矩阵;T为平移矩阵;u0、v0、fx、fy为相机内参,即u0和v0分别为图像中心横坐标和图像中心纵坐标,fx和fy分别为横向等效焦距和纵向等效焦距;s为相机坐标系中的相机坐标;
其求解过程为:
s=f/c (7)
通过上述计算即可完成从像素坐标系到世界坐标系的转换。
9.根据权利要求7所述的一种垃圾分选机器人高精度手眼标定方法,其特征在于:在上述步骤(5)中,从世界坐标系到机器人坐标系转换的具体流程为:
(5.1)在步骤(3.3)得到的参考平面中,任意选取九个角点并获取其世界坐标;
(5.2)在并联机器人法兰盘中心位置固定一标定工具,标定工具为圆柱锥结构,尖端朝下,与传送带水平面垂直安装;
(5.3)开启传送带,使传送带上作为参考平面的棋盘格标定板移动至并联机器人工作范围内;
(5.4)控制并联机器人移动,使标定工具尖端依次对准选取的九个角点,并分别记录角点对应的机器人坐标;
(5.5)通过halcon的vector_to_hom_mat2d算子进行仿射变换,得出3*3仿射变换矩阵;
(5.6)默认参考平面在世界坐标系的z轴坐标为0,在不考虑物料高度情况下,通过公式完成世界坐标系到机器人坐标系的变换,且其公式为:
其中,xR、yR分别为机器人坐标系中的横坐标、纵坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110813183.9A CN113506349A (zh) | 2021-07-19 | 2021-07-19 | 一种垃圾分选机器人高精度手眼标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110813183.9A CN113506349A (zh) | 2021-07-19 | 2021-07-19 | 一种垃圾分选机器人高精度手眼标定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113506349A true CN113506349A (zh) | 2021-10-15 |
Family
ID=78013774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110813183.9A Withdrawn CN113506349A (zh) | 2021-07-19 | 2021-07-19 | 一种垃圾分选机器人高精度手眼标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113506349A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114219850A (zh) * | 2021-11-16 | 2022-03-22 | 英博超算(南京)科技有限公司 | 一种应用360全景环视技术的车辆测距系统 |
CN114332249A (zh) * | 2022-03-17 | 2022-04-12 | 常州铭赛机器人科技股份有限公司 | 相机视野内分段式手眼标定方法 |
CN114905509A (zh) * | 2022-04-28 | 2022-08-16 | 伯朗特机器人股份有限公司 | 手眼标定方法、机器人系统及存储介质 |
CN115131444A (zh) * | 2022-08-30 | 2022-09-30 | 常州铭赛机器人科技股份有限公司 | 一种基于单目视觉点胶平台的标定方法 |
WO2023097647A1 (zh) * | 2021-12-03 | 2023-06-08 | 宁德时代新能源科技股份有限公司 | Ccd相机标定系统、方法、装置、计算设备及存储介质 |
CN116485918A (zh) * | 2023-06-25 | 2023-07-25 | 天府兴隆湖实验室 | 一种标定方法、系统及计算机可读存储介质 |
-
2021
- 2021-07-19 CN CN202110813183.9A patent/CN113506349A/zh not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114219850A (zh) * | 2021-11-16 | 2022-03-22 | 英博超算(南京)科技有限公司 | 一种应用360全景环视技术的车辆测距系统 |
CN114219850B (zh) * | 2021-11-16 | 2024-05-10 | 英博超算(南京)科技有限公司 | 一种应用360全景环视技术的车辆测距系统 |
WO2023097647A1 (zh) * | 2021-12-03 | 2023-06-08 | 宁德时代新能源科技股份有限公司 | Ccd相机标定系统、方法、装置、计算设备及存储介质 |
CN114332249A (zh) * | 2022-03-17 | 2022-04-12 | 常州铭赛机器人科技股份有限公司 | 相机视野内分段式手眼标定方法 |
CN114332249B (zh) * | 2022-03-17 | 2022-05-24 | 常州铭赛机器人科技股份有限公司 | 相机视野内分段式手眼标定方法 |
CN114905509A (zh) * | 2022-04-28 | 2022-08-16 | 伯朗特机器人股份有限公司 | 手眼标定方法、机器人系统及存储介质 |
CN114905509B (zh) * | 2022-04-28 | 2023-09-26 | 伯朗特机器人股份有限公司 | 手眼标定方法、机器人系统及存储介质 |
CN115131444A (zh) * | 2022-08-30 | 2022-09-30 | 常州铭赛机器人科技股份有限公司 | 一种基于单目视觉点胶平台的标定方法 |
CN115131444B (zh) * | 2022-08-30 | 2022-11-15 | 常州铭赛机器人科技股份有限公司 | 一种基于单目视觉点胶平台的标定方法 |
CN116485918A (zh) * | 2023-06-25 | 2023-07-25 | 天府兴隆湖实验室 | 一种标定方法、系统及计算机可读存储介质 |
CN116485918B (zh) * | 2023-06-25 | 2023-09-08 | 天府兴隆湖实验室 | 一种标定方法、系统及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113506349A (zh) | 一种垃圾分选机器人高精度手眼标定方法 | |
CN106780623B (zh) | 一种机器人视觉系统快速标定方法 | |
CN111791227B (zh) | 机器人手眼标定方法、装置及机器人 | |
CN104552341B (zh) | 移动工业机器人单点多视角挂表位姿误差检测方法 | |
CN110580725A (zh) | 一种基于rgb-d相机的箱体分拣方法及系统 | |
CN108827154B (zh) | 一种机器人无示教抓取方法、装置及计算机可读存储介质 | |
CN113379849B (zh) | 基于深度相机的机器人自主识别智能抓取方法及系统 | |
CN111083376B (zh) | 确定目标物安装位置的方法、系统、装置以及电子设备 | |
CN112223285A (zh) | 一种基于组合测量的机器人手眼标定方法 | |
CN106269548A (zh) | 一种物体自动分拣方法及其装置 | |
CN101645136A (zh) | 图像识别检测系统 | |
CN114714365B (zh) | 一种基于云平台的无序工件抓取方法及其系统 | |
JP7261306B2 (ja) | 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法 | |
CN112873164A (zh) | 一种自动化物料搬运机器人 | |
CN112947458A (zh) | 基于多模态信息的机器人准确抓取方法及计算机可读介质 | |
JP2020082274A (ja) | 画像処理装置およびその制御方法、プログラム | |
CN102179804A (zh) | 3h型ccd视觉工业机器人 | |
CN114193440A (zh) | 基于3d视觉的机器人自动抓取系统及方法 | |
CN111267094A (zh) | 一种基于双目视觉的工件定位与抓取方法 | |
CN102990177B (zh) | 一种提高自动焊锡机器人编程速度和精度的方法 | |
Guo et al. | The research of material sorting system based on Machine Vision | |
CN206645534U (zh) | 一种基于双相机的机器人无序抓取装置 | |
CN111906767A (zh) | 基于双目结构光的视觉纠偏机械臂及纠偏方法 | |
CN116038703A (zh) | 一种光伏电池串的机器人抓取位姿获取方法及系统 | |
Chen | Research and practice of industrial sorting technology based on machine vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20211015 |