CN107423770A - 一种面向高速生产线的机器人视觉定位方法 - Google Patents
一种面向高速生产线的机器人视觉定位方法 Download PDFInfo
- Publication number
- CN107423770A CN107423770A CN201710655220.1A CN201710655220A CN107423770A CN 107423770 A CN107423770 A CN 107423770A CN 201710655220 A CN201710655220 A CN 201710655220A CN 107423770 A CN107423770 A CN 107423770A
- Authority
- CN
- China
- Prior art keywords
- matrix
- consequence
- robot
- image
- production lines
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
本发明提供的一种面向高速生产线的机器人视觉定位方法,把需要搜索目标的平面图像转为灰度图后,进行二值化处理,并旋转得到多张二值化模板,用于与机器人视野获得的灰度处理后的实时平面图像通过近似算法进行匹配,进而搜索得出需寻找目标在机器人视野内的具体位置,便于机器人执行下一步操作;将需寻找的目标图像和实时平面图像进行灰度处理,抗光线干扰能力强,并且对于有旋转角度的目标也能够很好的识别和定位,方法的识别率高、定位精度高;本发明的定位方法可应用于寻找不同目标,通用性极高。
Description
技术领域
本发明属于工业机器人和智能制造技术领域,具体涉及一种面向高速生产线的机器人视觉定位方法。
背景技术
由于工业机器人作业效率高、操作定位精准,具有自动化程度高的明显优势,目前已经广泛应用于汽车业、电子制造业、机械加工等行业。随着先进制造技术的发展,各类制造行业在高速自动化生产线对工业机器人有很大的需求,高速自动化生产线上使用的机器人对视觉系统有很高的要求。高速生产线需要解决非结构环境因素下机器人视觉定位问题,由于零件形状和大小、送料托盘位置、日照情况等因素会发生变化,需要解决鲁棒识别问题;另外,高速生产线由于作业速度高,对视觉系统的处理速度有很高的要求。
现有的大多数机器人视觉系统,对复杂作业场合普遍存在识别率低、定位精度差、速度慢等问题,这会导致在物料上下料与传输过程中出现失误,同时会使生产线的效率变低。
发明内容
本发明的目的在于克服现有技术的不足,提供一种识别率高、定位精度高的机器人视觉定位方法。
为了达到上述目的,本发明采用以下技术方案:
一种面向高速生产线的机器人视觉定位方法,包括以下步骤,
a.人工采集待识别目标的平面图像,并截取目标图像中的零件图像作为模板图像;
b.将所述模板图像进行滤波、转换为灰度图后,进行二值化处理;
c.将二值化处理后的模板图像旋转,生成N+1张具有角度差异的二值化模板,并进行存储;
d.机器人通过采集装置获取待识别目标的实时平面图像,将实时平面图像进行滤波并转换为灰度图;
e.将实时平面图像与N+1张二值化模板进行近似算法匹配得出N+1个匹配结果矩阵,将每个结果矩阵对应的目标模板的旋转角度设为该结果矩阵的旋转系数;
f.设置搜索阈值,在N+1个结果矩阵中搜索小于该设置阈值的结果矩阵,提取符合条件的结果矩阵所处的空间位置以及所处矩阵的旋转系数,空间位置即为检测的目标位置,旋转系数即为检测的目标的旋转角度,规划机械人的运动路径。
与现有技术相比,本发明的机器人视觉定位方法,把需要搜索目标的平面图像转为灰度图后和进行二值化处理,并旋转得到多张二值化模板,用于与机器人视野获得的灰度处理的实时平面图像通过近似算法进行匹配,进而搜索得出需寻找目标在机器人视野内的具体位置和旋转的角度,便于机器人执行下一步操作;将需寻找的目标图像和实时平面图像进行灰度处理,抗光线干扰能力强,并且对于相对于有旋转角度的目标也能够很好的识别和定位,方法的识别率高、定位精度高;本发明的定位方法可应用于寻找不同目标,通用性极高。
优选的,以模板图像的中心为旋转支点进行旋转,具体为将旋转的角度平均分成N个角度单元,旋转模板图像的旋转角度依次增大一个角度单元,加上原始模板图像,得出N+1张二值化目标模板序列,并存入外部设备;采用这种方式,对于有旋转角度的目标也能快速的识别和定位,提高本发明定位方法的识别和定位目标位置的可靠性。
优选的,步骤e中,视觉图像采用SSD相似度函数将其分别与N+1张二值化模板通过滑动窗口的方法进行匹配,每张二值化模板对应得到一个结果矩阵,共获得N+1个结果矩阵,每个结果矩阵对应二值化模板的旋转角度设为该结果矩阵的旋转系数;采用SSD相似度函数使机器人实时平面图像与每张二值化模板匹配对应得出一个相似度最接近的结果矩阵,该结果矩阵包含需要搜索目标的位置和旋转系数,便于下一步搜索得出需寻找目标在视觉图像的位置。
优选的,在步骤f中,将第一次搜索得到小于设定阈值的最小值的结果矩阵提取并记录保存后,重复上述步骤,提取最小值的第二结果矩阵,如此循环,直至结果矩阵最小值大于所述阈值,则停止继续搜索。
进一步优选的,最小值的结构矩阵被提取后,将该最小值的结构矩阵以及与所述最小值的结构矩阵具有相同位置信息的结果矩阵的数值均设定为大于设定阈值的数值,进而继续搜索下一个最小值的结果矩阵作为第二结果矩阵最小值,直至所搜索到的结果矩阵的最小值大于所述阈值,则停止继续搜索;采用这样的方式,以防止下次搜索最小值的结果矩阵时,把上次搜索的最小值结果矩阵以及视觉图像对应该最小值位置的结果矩阵重复当作了最小值点。
优选的,在步骤f中,采用线性搜索的方法对N+1个结果矩阵中的最小值进行搜索;提高搜索的结果矩阵中最小值的过程的可靠性。
优选的,步骤h中,将模板图像与二值化之前灰度处理后模板图通过SSD相似度函数的计算方式得出所述阈值;计算出该阈值,用于判断在视觉图像含有需搜索目标的数量,以及判定视觉图像是否含有搜索目标。
优选的,将所述阈值上浮或下降百分之五到百分之三十作为终止搜索的阈值;避免搜索结果矩阵最小值过程过于严谨,将阈值按一定百分比递增或下降,增大搜索最小值结果矩阵的范围。
优选的,步骤a中,采集待识别目标的平面图像,截取其中恰好包含所述目标外轮廓、没有旋转、没有放缩、亮度均匀的矩形区域,当作模板图像;避免非识别目标的因素影响机器人定位识别。
附图说明
图1为本发明的机器人视觉定位方法的流程图;
图2为本发明使用迭代法求解二值化的流程图。
具体实施方式
以下结合附图说明本发明的技术方案:
参见图1,本发明的一种面向高速生产线的机器人视觉定位方法,包括以下步骤:
a.定义模板图像:人工采集待识别零件的平面图像,截取平面图像中恰好包含所述目标外轮廓、没有旋转、没有放缩、亮度均匀的矩形区域,作为模板图像;
b.模板图像预处理:将模板图像进行滤波、转换为灰度图后,通过如图2所示的迭代法求解出的阈值对目标图像进行二值化处理;
c.以二值化处理后的模板图像的中心为旋转支点进行旋转,具体为将模板图像旋转一定角度α,其中角度α平均分成N个角度单元,旋转模板图像的旋转角度依次增大一个角度单元加上原始模板图像,得出N+1张二值化模板序列,并进行存储,用于后续匹配使用;
d.机器人通过采集装置获取待识别目标的实时平面图像,将实时平面图像进行滤波并转换为灰度图;
e.采用SSD相似度函数将实时平面图像与N+1张二值化模板通过滑动窗口的方法进行匹配,每张二值化模板对应得到一个结果矩阵,共获得N+1个结果矩阵,每个结果矩阵对应的目标模板的旋转角度设为该结果矩阵的旋转系数;
f.设置搜索阈值,在N+1个结果矩阵中搜索小于该设置阈值的最小值的结果矩阵,对该结果矩阵记进行记录保存,并将该最小值的结构矩阵以及与所述最小值的结构矩阵具有相同位置信息的结果矩阵的数值均设定为大于设定阈值的数值,进而继续搜索最小值的结果矩阵作为第二个结果矩阵最小值,直至所搜索的结果矩阵最小值大于所述阈值;提取小于阈值的结果矩阵所处的空间位置以及旋转系数,得出需要寻找目标的空间位置和旋转角度;规划机械人的运动路径;
h.若搜索的搜索到的结果矩阵的值大于该设置阈值,则停止继续搜索。
步骤e中,所述滑动窗口的方法为:二值化模板在二值化之前灰度处理后的实时平面图上滑动,按照该实时平面图的像素点作为移动单位,直至二值化模板滑行覆盖整个实时平面图,并匹配实时平面图内相似度最高的位置,进而匹配得出结果矩阵。
步骤f中,将目标图像与二值化之前灰度处理后的实时平面图像通过SSD相似度函数的计算方式得出所述阈值,本实施例中将阈值上浮或下降百分之五到百分之三十(具体设定浮动比例可根据实际情况确定,不限定于设定的浮动比例)作为终止搜索的阈值;根据小于设定阈值的最小值结果矩阵的个数得到在机器人视野图像内需要搜索的目标,将输出结果矩阵转为机器人坐标,机器人执行对应工作指令。
作为优选方案,在步骤f中,采用线性搜索的方法对N+1个结果矩阵中的最小值进行搜索;提高搜索的结果矩阵中最小值的过程的可靠性。
步骤f中,搜索最小值的结果矩阵的方式为:在结果矩阵内的元素的最小值为所要搜索的数值,在N+1个结构矩阵中搜索最小值的结果矩阵为结果矩阵内的最小值元素为所要搜索的结果矩阵,举例如下:
和参照上述矩阵A和矩阵B,矩阵A中的元素的最小值为“2”;而矩阵B中的元素的最小值为“1”;故在矩阵A和矩阵B中,矩阵B为最小值的结果矩阵。
步骤c中,将模板图像旋转得出N+1张二值化模板序列,其变换方式为:在图像坐标系中,把模板图像中心平移到原点处,旋转角度θ(旋转的角度θ可根据零件的模板图像的旋转对称角度而确定,或者旋转一周角得出各个角度的二值化模板),再将图像中心平移回原处,裁剪图像保留原来大小,经过几何变换后的图像上的像素点坐标计算公式为:
式中:(x,y,1)为几何变换之前像素点的坐标;为几何变换后的像素点的坐标;(x0,y0)为图像的中心;θ为旋转角度。矩阵H1表示把模板图像中心平移到原点处这一过程的平移变换矩阵,H2表示模板图像旋转角度θ这一过程的旋转变换矩阵,H3表示将模板图像中心平移回原处这一过程的变换矩阵。旋转角度θ可通过θ=θ0+i·△θ计算得出。该方法的角度定位精度为:△θ=(θ1-θ0)/N=α/N其中i=0、1……N其中θ0和θ1表示旋转角度的下限和上限;N表示对旋转角度切分的层数。
由此,通过模板图像可以得到N+1张二值化模板,每张二值化模板对应了一种旋转角度θ,模板图像旋转角度依次增大△θ。
输出的最小值结果矩阵坐标采用以下公式转换为机器人坐标: 其中:其中矩阵R1、T1表示摄像头与机器人末端的安装关系,代表外参数。R2,T2,R3,T3表示相机的内参数。
K、L、M参数可根据逆变换的方式得到公式后,进行标定求得。根据坐标转换公式的推导过程可知R1、R2、R3、T1、T2、T3矩阵对于摄像头安装固定后就不会变化了,所以对于同一摄像头,识别不同目标时只需改变Zc的即可,其值可由目标顶端距离识别平面的高度与标定物距离识别平面的差Δ计算得出Zc=Zc+△。
与现有技术相比,本发明的机器人视觉定位方法,把需要搜索目标的图像灰度处理和二值化处理,并旋转得到多张二值化模板,用于与机器人视野获得的灰度处理的视觉图像通过近似算法进行匹配,进而搜索得出需寻找目标在机器人视野内的具体位置,便于机器人执行下一步操作;将需寻找的目标图像和视觉图像进行灰度处理,抗光线干扰能力强,并且对于相对于有旋转角度的目标也能够很好的识别和定位,方法的识别率高、定位精度高;本发明的定位方法可应用于不同寻找目标,通用性极高。
根据上述说明书的揭示和教导,本发明所属领域的技术人员还可以对上述实施方式进行变更和修改。因此,本发明并不局限于上面揭示和描述的具体实施方式,对本发明的一些修改和变更也应当落入本发明的权利要求的保护范围内。此外,尽管本说明书中使用了一些特定的术语,但这些术语只是为了方便说明,并不对本发明构成任何限制。
Claims (10)
1.一种面向高速生产线的机器人视觉定位方法,其特征在于:包括以下步骤,
a.人工采集待识别目标的平面图像,并截取平面图像中的零件图像作为模板图像;
b.将所述模板图像进行滤波、转换为灰度图后,进行二值化处理;
c.将二值化处理后的模板图像旋转,生成N+1张具有角度差异的二值化模板,并进行存储;
d.机器人通过采集装置获取待识别目标的实时平面图像,将实时平面图像进行滤波并转换为灰度图;
e.将实时平面图像与N+1张二值化模板进行近似算法匹配得出N+1个匹配结果矩阵,将每个结果矩阵对应的目标模板的旋转角度设为该结果矩阵的旋转系数;
f.设置搜索阈值,在N+1个结果矩阵中搜索小于该设置阈值的结果矩阵,提取符合条件的结果矩阵所处的空间位置以及旋转系数,规划机械人的运动路径。
2.根据权利要求1所述的一种面向高速生产线的机器人视觉定位方法,其特征在于:步骤c中,以模板图像的中心为旋转支点进行旋转。
3.根据权利要求1所述的一种面向高速生产线的机器人视觉定位方法,其特征在于:步骤e中,采用SSD相似度函数将实时平面图像与N+1张二值化模板通过滑动窗口的方法进行匹配,每张二值化模板对应得到一个结果矩阵,共获得N+1个结果矩阵,每个结果矩阵对应二值化模板的旋转角度设为该结果矩阵的旋转系数。
4.根据权利要求1所述的一种面向高速生产线的机器人视觉定位方法,其特征在于:在步骤f中,将第一次搜索得到小于设定阈值的最小值的结果矩阵提取并记录保存后,重复上述步骤,提取第二最小值的结果矩阵,如此循环,直至所述结果矩阵最小值大于所述阈值。
5.根据权利要求4所述的一种面向高速生产线的机器人视觉定位方法,其特征在于:最小值的结构矩阵被提取后,将该最小值的结构矩阵以及与所述最小值的结构矩阵具有相同位置信息的结果矩阵的数值均设定为大于设定阈值的数值。
6.根据权利要求1所述的一种面向高速生产线的机器人视觉定位方法,其特征在于:在步骤f中,采用线性搜索的方法对N+1个结果矩阵中的最小值进行搜索。
7.根据权利要求1、4或5任一项所述的一种面向高速生产线的机器人视觉定位方法,其特征在于:若搜索到的结果矩阵的值大于该设置阈值,则停止继续搜索。
8.根据权利要求1所述的一种面向高速生产线的机器人视觉定位方法,其特征在于:步骤f中,将目标图像与二值化之前灰度处理后的实时平面图像通过SSD相似度函数的计算方式得出所述阈值。
9.根据权利要求8所述的一种面向高速生产线的机器人视觉定位方法,其特征在于:将所述阈值上浮或下降百分之五到百分之三十作为终止搜索的阈值。
10.根据权利要求1所述的一种面向高速生产线的机器人视觉定位方法,其特征在于:步骤a中,采集待识别目标的平面图像,截取其中恰好包含零件外轮廓、没有旋转、没有放缩、亮度均匀的矩形区域,当作模板图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710655220.1A CN107423770B (zh) | 2017-08-03 | 2017-08-03 | 一种面向高速生产线的机器人视觉定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710655220.1A CN107423770B (zh) | 2017-08-03 | 2017-08-03 | 一种面向高速生产线的机器人视觉定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107423770A true CN107423770A (zh) | 2017-12-01 |
CN107423770B CN107423770B (zh) | 2021-03-26 |
Family
ID=60437334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710655220.1A Active CN107423770B (zh) | 2017-08-03 | 2017-08-03 | 一种面向高速生产线的机器人视觉定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107423770B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108876762A (zh) * | 2018-05-11 | 2018-11-23 | 西安交通大学苏州研究院 | 面向智能生产线的机器人视觉识别定位方法 |
CN111966041A (zh) * | 2020-08-26 | 2020-11-20 | 珠海格力电器股份有限公司 | 机器人的控制方法和装置 |
CN112560704A (zh) * | 2020-12-18 | 2021-03-26 | 温州大学乐清工业研究院 | 一种多特征融合的视觉识别方法及系统 |
CN112862802A (zh) * | 2021-02-26 | 2021-05-28 | 中国人民解放军93114部队 | 基于边缘外观序列匹配的地点识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1985002575A1 (en) * | 1983-12-15 | 1985-06-20 | Fanuc Ltd. | Industrial robot with origin adjusting means |
CN102654902A (zh) * | 2012-01-16 | 2012-09-05 | 江南大学 | 基于轮廓向量特征的嵌入式实时图像匹配方法 |
CN103793712A (zh) * | 2014-02-19 | 2014-05-14 | 华中科技大学 | 一种基于边缘几何特征的图像识别方法及系统 |
-
2017
- 2017-08-03 CN CN201710655220.1A patent/CN107423770B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1985002575A1 (en) * | 1983-12-15 | 1985-06-20 | Fanuc Ltd. | Industrial robot with origin adjusting means |
CN102654902A (zh) * | 2012-01-16 | 2012-09-05 | 江南大学 | 基于轮廓向量特征的嵌入式实时图像匹配方法 |
CN103793712A (zh) * | 2014-02-19 | 2014-05-14 | 华中科技大学 | 一种基于边缘几何特征的图像识别方法及系统 |
Non-Patent Citations (2)
Title |
---|
刘诗浩: "基于视觉的LED晶片位置识别算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
周丽莎: "基于模板匹配的视觉定位技术研究与应用", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108876762A (zh) * | 2018-05-11 | 2018-11-23 | 西安交通大学苏州研究院 | 面向智能生产线的机器人视觉识别定位方法 |
CN111966041A (zh) * | 2020-08-26 | 2020-11-20 | 珠海格力电器股份有限公司 | 机器人的控制方法和装置 |
CN112560704A (zh) * | 2020-12-18 | 2021-03-26 | 温州大学乐清工业研究院 | 一种多特征融合的视觉识别方法及系统 |
CN112862802A (zh) * | 2021-02-26 | 2021-05-28 | 中国人民解放军93114部队 | 基于边缘外观序列匹配的地点识别方法 |
CN112862802B (zh) * | 2021-02-26 | 2024-05-14 | 中国人民解放军93114部队 | 基于边缘外观序列匹配的地点识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107423770B (zh) | 2021-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11878433B2 (en) | Method for detecting grasping position of robot in grasping object | |
CN111775152B (zh) | 基于三维测量引导机械臂抓取散乱堆叠工件的方法及系统 | |
CN107423770A (zh) | 一种面向高速生产线的机器人视觉定位方法 | |
CN111144322A (zh) | 一种分拣方法、装置、设备和存储介质 | |
CN110480637B (zh) | 一种基于Kinect传感器的机械臂零件图像识别抓取方法 | |
CN110246127A (zh) | 基于深度相机的工件识别与定位方法和系统、分拣系统 | |
CN112509063A (zh) | 一种基于边缘特征匹配的机械臂抓取系统及方法 | |
CN111462154A (zh) | 基于深度视觉传感器的目标定位方法、装置及自动抓取机器人 | |
CN109461184B (zh) | 一种机器人机械臂抓取物体的抓取点自动定位方法 | |
CN108876762A (zh) | 面向智能生产线的机器人视觉识别定位方法 | |
CN112828892B (zh) | 一种工件抓取方法、装置、计算机设备及存储介质 | |
CN113034600A (zh) | 基于模板匹配的无纹理平面结构工业零件识别和6d位姿估计方法 | |
CN112936257A (zh) | 一种工件抓取方法、装置、计算机设备及存储介质 | |
CN108074264A (zh) | 一种分级多目视觉定位方法、系统及装置 | |
CN111240195A (zh) | 基于机器视觉的自动控制模型训练、目标物回收方法及装置 | |
Shi et al. | A fast workpiece detection method based on multi-feature fused SSD | |
CN116188540A (zh) | 一种基于点云信息的目标识别和位姿估计方法 | |
CN112084875B (zh) | 一种多激光雷达坐标系统一方法 | |
Wang et al. | 6D Pose Estimation for Vision-guided Robot Grasping Based on Monocular Camera | |
Wang et al. | Accurate Rapid Grasping of Small Industrial Parts from Charging Tray in Clutter Scenes. | |
CN107145906B (zh) | 基于全景视觉成像系统的移动机器人室内快速归航方法 | |
CN116572253B (zh) | 一种试管的抓取控制方法及装置 | |
US20240253236A1 (en) | Method for controlling robotic arm, electronic device, and computer-readable storage medium | |
CN111540012B (zh) | 一种基于机器视觉的光照鲁棒的平面上物体识别定位方法 | |
CN116902559B (zh) | 传送片状物的视觉定位矫正方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |