CN106384115B - 一种机械臂关节角度检测方法 - Google Patents

一种机械臂关节角度检测方法 Download PDF

Info

Publication number
CN106384115B
CN106384115B CN201610948647.6A CN201610948647A CN106384115B CN 106384115 B CN106384115 B CN 106384115B CN 201610948647 A CN201610948647 A CN 201610948647A CN 106384115 B CN106384115 B CN 106384115B
Authority
CN
China
Prior art keywords
mechanical arm
joint
image
coordinate
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610948647.6A
Other languages
English (en)
Other versions
CN106384115A (zh
Inventor
李迅
刘海丰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Institute of Technology
Original Assignee
Wuhan Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Institute of Technology filed Critical Wuhan Institute of Technology
Priority to CN201610948647.6A priority Critical patent/CN106384115B/zh
Publication of CN106384115A publication Critical patent/CN106384115A/zh
Application granted granted Critical
Publication of CN106384115B publication Critical patent/CN106384115B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20116Active contour; Active surface; Snakes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种机械臂关节角度检测方法,包括步骤:1)采集RGB‑D原始图像;2)提取机械臂轮廓;3)对提取的机械臂轮廓进行平滑处理;4)提取机械臂轮廓骨架;5)定位机械臂关节点;6)计算机械臂关节角度。机械臂轮廓的提取采用的是彩色图像与深度图像结合的阈值分割技术;机械臂关节点的定位是通过细化算法提取出机械臂轮廓骨架,然后结合机械臂各刚体部件的位置关系和骨架线的长度对其关节点定位;机械臂关节角度是根据关节点的三维信息,由向量的可平移性质及方向性将机械臂关节角度计算简化为对空间向量夹角的计算得到。本发明阈值分割效果好,关节点的定位更加准确,能够良好的计算出机械臂各关节角度,鲁棒性较强,简单有效。

Description

一种机械臂关节角度检测方法
技术领域
本发明涉及图像处理与机器视觉领域,具体涉及一种机械臂关节角度检测方法。
背景技术
随着机器人技术的高速发展和社会工业化进程的加速,机器人逐渐参与到人类的活动中来,并日益成为人类的好帮手。机械臂也是机器人的重要的一种,由于它能完成多种多样的任务,如装配,搬运,焊接等等,还可以代替人类在一些危险的恶劣的工作环境中完成既定的任务等优势。它被广泛应用于工业制造、空间探索、国防科技等领域。
由于工业机器人系统是多输入、多输出、强非线性、强耦合的高度复杂系统,在长时间高速运动的情况下,机器人的非线性动力学特性十分显著,并且在实际工作中存在的各种复杂不确性因素,严重影响着机器人的控制性能,甚至有可能出现故障,破坏物体和伤及工人,变为机器杀手。为此,机械臂角度的检测对机械臂的故障检测、精准度提高和安全保障有着潜在的价值。
传统的机械臂各个关节的角度值的计算是利用已知机械臂的末端执行器的坐标位置(或位姿)通过机械臂的逆向运动学计算求得,但是由于机械臂各关节变量相互耦合,根据逆运动方程求得的解也不是唯一的解,需根据机械臂的组合形态和各关节的运动范围经过多次反复计算再选择一组合理解,通过逆运动学求解机械臂各关节角度十分复杂。
发明内容
本发明要解决的技术问题是,针对现有通过逆运动学求解机械臂各关节角度存在算法非常复杂的不足,提供一种机械臂关节角度检测方法,利用RBG-D图像检测机械臂角度,阈值分割效果好,关节点的定位更加准确,简化了机械臂关节角度求解。
本发明为解决上述技术问题所采用的技术方案是:
一种机械臂关节角度检测方法,包括如下步骤:
步骤一:采集RGB-D原始图像;
步骤二:结合彩色图像与深度图像,用阈值分割的方法提取机械臂目标轮廓图像;
步骤三:对提取的机械臂轮廓进行平滑处理(预处理);
步骤四:通过Zhang并行快速细化算法提取机械臂轮廓骨架;
步骤五:结合机械臂各刚体部件的位置关系(刚体比例关系)和骨架线长度对机械臂关节点定位,确定机械臂关节点;
步骤六:通过定位出的机械臂关节点的三维信息(深度信息)和空间向量的可平移性质及方向性计算机械臂各关节角度,将机械臂关节角度计算简化为对空间向量夹角的计算。
按上述方案,步骤二中,阈值分割提取机械臂目标轮廓图像具体包括两大块:
a、设定阈值对深度图像进行阈值分割提取机械臂轮廓,对于深度图像,通过深度值的判定把机械臂目标区域与背景区域进行初步区分,深度图像目标提取的公式:
其中,f(x,y)是阈值分割中(x,y)处的逻辑值,d(x,y)为深度图像中(x,y)坐标处的深度值,θ为深度图像的阈值分割的阈值门限,θ根据机械臂的工作空间设置;
b、结合彩色图像进行分割,移除机械臂目标以外物体,对于彩色图像,阈值的选取根据机械臂主体颜色来设定,设定过程如下:首先取彩色图像第一帧作为先验图片,将其由RGB图像转换为YCbCr图像,然后手动选取机械臂主体颜色部分,若选择的矩形宽为w,高为h,p(y,cb,cr)为矩形区域的像素点,(i,j)为图像二维坐标,则矩形区域的颜色平均值为:
取矩形区域的颜色平均值为彩色图像的阈值分割的阈值门限;
彩色图像目标提取的公式:
其中,g(x,y)是阈值分割中(x,y)处的逻辑值,c(x,y)为深度图像中(x,y)坐标处的YcbCr值,为彩色图像的阈值分割的阈值门限,根据手动选取机械臂主体颜色部分的平均值来设置;
最终的阈值分割的逻辑值取深度图像与彩色图像阈值分割的交集。
按上述方案,步骤五机械臂关节点定位具体为:
通过遍历幅机械臂骨架图,细化后的机械臂骨架线机械臂骨架部分像素值为1,背景部分为0,机械臂骨架为单位像素宽,找出像素值为1的八邻域只有一个像素值为1的所有像素点,根据机械臂关节位置关系,像素坐标点纵坐标y最大的像素点为机械臂底座关节点位置,像素点横坐标x最小的为机械臂末端执行器的关节点位置;再从机械臂末端执行器关节点的像素位置开始延骨架线遍历,直到遍历到机械臂底座关节点位置截止,遍历路径的像素点总个数为机械臂骨架线长度,再通过机械臂产品规格图,得到机械臂各个关节的比例,其他关节点按照计算的骨架线长度和各个关节的比例关系就可以定位出来。
按上述方案,步骤六机械臂关节角度的计算具体为:
通过相机建立空间坐标系,将定位出的关节点由图像二维坐标转换为三维坐标,再将机械臂关节角度计算简化为对空间向量夹角的计算;深度图像到空间三维坐标的转换由如下表达式求得:
其中,(i,j)为图像二维坐标,(x,y,z)为空间坐标,(δx,δy)为相机的镜头畸变,(cx,cy)为图像中心点,(fx,fy)为比例参数,d是深度图像二维坐标(x,y)处的深度值;根据定位出的关节点像素的图像二维坐标和深度值,按上式算出每个关节点的空间坐标;
对于任意两个不重合的三维坐标点A(x1,y1,z1)、B(x2,y2,z2),转化到传统空间坐标系中组成向量AB,转化公式为:
根据以上性质,机械臂关节角度的计算简化为空间向量夹角的计算,如定位出的关节坐标点A(x1,y1,z1)、B(x2,y2,z2)、C(x3,y3,z3)之间关节角度,直接通过计算空间向量BA和BC的夹角得出,公式如下:
关节点B、C、D、E之间关节角度依次按上述公式计算,对于机械臂基座转动的关节角度计算按以下方式计算:将关节点A初始位置投影到xOz平面A′,以向量EA′为基准,在机械臂转动的过程中将关节点A继续投影到xOz平面A″,通过计算向量EA′和EA″的夹角获得。
本发明的工作原理:基于RGB-D图像检测机械臂关节角度,首先通过RGB-D图像定位出机械臂关节点,然后通过定位出的关节点的三维信息计算机械臂关节角度。
本发明与现有技术相比具有如下有益效果:
1、通过结合彩色图像和深度图像的阈值分割方法所提取的机械臂目标图像要比单纯的用深度图像或者彩色图像进行阈值分割效果要好;
2、通过结合机械臂各刚体部件的位置关系和骨架线的长度对机械臂关节点进行定位的方式,可以使关节点的定位更加准确;
3、通过向量的性质求解机械臂关节角度的方式简化了计算的复杂性,并且简单有效。
附图说明
图1是本发明机械臂关节角度检测方法流程图;
图2是本发明实施例机械臂关节点空间向量表示图。
具体实施方式
下面根据具体实施例并结合附图,对本发明作进一步详细的说明。
参照图1所示,本发明实施例所述的机械臂关节角度检测方法,包括如下步骤:
步骤一:首先用Kinect采集RGB-D原始图像;
步骤二:设定阈值对深度图像进行阈值分割提取机械臂轮廓,对于深度图像,通过深度值的判定把机械臂目标区域与背景区域进行初步区分,深度图像机械臂目标提取中阈值的限定发挥着关键性的作用,本文采集的场景固定,阈值范围选择机械臂工作空间范围内的深度值,通过多次试验可以得到。
深度图像目标提取的公式:
其中,f(x,y)是阈值分割中(x,y)处的逻辑值,d(x,y)为深度图像中(x,y)坐标处的深度值,θ为深度图像的阈值分割的阈值门限,阈值门限θ根据机械臂的工作空间设置。
单纯的用深度图像阈值分割后的机械臂轮廓图像可能含有机械臂以外物体,于是结合彩色图像进行分割,移除机械臂目标以外物体,对于彩色图像,其阈值的选取根据机械臂主体颜色来设定,其设定过程如下:首先取彩色图像第一帧作为先验图片,将其由RGB图像转换为YCbCr图像,然后手动选取机械臂主体颜色部分,若选择的矩形宽为w,高为h,p(y,cb,cr)为矩形区域的像素点,(i,j)为图像二维坐标,则矩形区域的颜色平均值为:
取矩形区域的颜色平均值为彩色图像的阈值分割的阈值门限,整个过程为了忽略光照强度的影响以cb,cr通道进行分割。
彩色图像目标提取的公式:
其中,g(x,y)是阈值分割中(x,y)处的逻辑值,c(x,y)为深度图像中(x,y)坐标处的YcbCr值,为彩色图像的阈值分割的阈值门限,阈值门限根据手动选取机械臂主体颜色部分的平均值来设置。
最终的阈值分割的逻辑值取深度图像与彩色图像阈值分割的交集。
步骤三:用中值滤波对机械臂轮廓图像就行平滑处理(预处理)。
步骤四:用zhang并行快速细化算法提取机械臂轮廓骨架。
步骤五:机械臂关节点定位。机械臂都会有它的产品说明书和产品技术规格书,机械臂各个关节的结构尺寸都有标注,各部分的关节比例关系为后面关节点定位提供有效的信息。通过遍历幅机械臂骨架图,细化后的机械臂骨架线机械臂骨架部分像素值为1,背景部分为0,机械臂骨架为单位像素宽,找出像素值为1的八邻域只有一个像素值为1的所有像素点,根据机械臂关节位置关系,像素坐标点纵坐标y最大的像素点为机械臂底座关节点位置,像素点横坐标x最小的为机械臂末端执行器的关节点位置。再从机械臂末端执行器关节点的像素位置开始延骨架线遍历,直到遍历到机械臂底座关节点位置截止,遍历路径的像素点总个数为机械臂骨架线长度,再通过机械臂产品规格图,可以得到机械臂各个关节的比例,其他关节点按照计算的骨架线长度和各个关节的比例关系就可以定位出来。
步骤六:机械臂关节角度的计算。通过Kinect相机建立空间坐标系,将定位出的关节点由图像二维坐标转换为三维坐标,再将机械臂关节角度计算简化为对空间向量夹角的计算,该方法简单有效。
深度图像到空间三维坐标的转换由如下表达式求得:
其中,(i,j)为图像二维坐标,(x,y,z)为空间坐标,(δx,δy)为Kinect相机的镜头畸变,(cx,cy)为图像中心点,(fx,fy)为比例参数,d是深度图像二维坐标(x,y)处的深度值,根据定位出的关节点像素的图像二维坐标和深度值,按上式即可算出每个关节点的空间坐标;
参照图2所示,对于Kinect坐标系中任意两个不重合的三维坐标点A(x1,y1,z1)、B(x2,y2,z2),转化到传统空间坐标系中组成向量AB,转化公式为:
根据以上性质,机械臂关节角度的计算可以简化为空间向量夹角的计算,如定位出的关节坐标点A(x1,y1,z1)、B(x2,y2,z2)、C(x3,y3,z3)之间关节角度,可以直接通过计算空间向量BA和BC的夹角得出,公式如下:
关节点B、C、D,E之间关节角度依次按上述公式计算即可,对于机械臂基座转动的关节角度计算按以下方式计算:将关节点A初始位置投影到xOz平面A′,以向量EA′为基准,在机械臂转动的过程中将关节点A继续投影到xOz平面A″,通过上述公式计算向量EA′和EA″的夹角获得。
显然,上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而这些属于本发明的精神所引伸出的显而易见的变化或变动仍处于本发明的保护范围之中。

Claims (2)

1.一种机械臂关节角度检测方法,其特征在于,包括如下步骤:
步骤一:采集RGB-D原始图像;
步骤二:结合彩色图像与深度图像,用阈值分割的方法提取机械臂目标轮廓图像;
步骤三:对提取的机械臂轮廓进行平滑处理;
步骤四:通过Zhang并行快速细化算法提取机械臂轮廓骨架;
步骤五:结合机械臂各刚体部件的位置关系和骨架线长度对机械臂关节点定位,确定机械臂关节点,机械臂关节点定位具体为:
通过遍历幅机械臂骨架图,细化后的机械臂骨架线机械臂骨架部分像素值为1,背景部分为0,机械臂骨架为单位像素宽,找出像素值为1的八邻域只有一个像素值为1的所有像素点,根据机械臂关节位置关系,像素坐标点纵坐标y最大的像素点为机械臂底座关节点位置,像素点横坐标x最小的为机械臂末端执行器的关节点位置;再从机械臂末端执行器关节点的像素位置开始延骨架线遍历,直到遍历到机械臂底座关节点位置截止,遍历路径的像素点总个数为机械臂骨架线长度,再通过机械臂产品规格图,得到机械臂各个关节的比例,其他关节点按照计算的骨架线长度和各个关节的比例关系就可以定位出来;
步骤六:通过定位出的机械臂关节点的三维信息和空间向量的可平移性质及方向性计算机械臂各关节角度,将机械臂关节角度计算简化为对空间向量夹角的计算,机械臂关节角度的计算具体为:
通过相机建立空间坐标系,将定位出的关节点由图像二维坐标转换为三维坐标,再将机械臂关节角度计算简化为对空间向量夹角的计算;深度图像到空间三维坐标的转换由如下表达式求得:
其中,(i,j)为图像二维坐标,(x,y,z)为空间坐标,(δx,δy)为相机的镜头畸变,(cx,cy)为图像中心点,(fx,fy)为比例参数,d是深度图像二维坐标(x,y)处的深度值;根据定位出的关节点像素的图像二维坐标和深度值,按上式算出每个关节点的空间坐标;
对于任意两个不重合的三维坐标点A(x1,y1,z1)、B(x2,y2,z2),转化到传统空间坐标系中组成向量AB,转化公式为:
根据以上性质,机械臂关节角度的计算简化为空间向量夹角的计算,如定位出的关节坐标点A(x1,y1,z1)、B(x2,y2,z2)、C(x3,y3,z3)之间关节角度,直接通过计算空间向量BA和BC 的夹角得出,公式如下:
关节点B、C、D、E之间关节角度依次按上述公式计算,对于机械臂基座转动的关节角度计算按以下方式计算:将关节点A初始位置投影到xOz平面A′,以向量EA′为基准,在机械臂转动的过程中将关节点A继续投影到xOz平面A″,通过计算向量EA′和EA″的夹角获得。
2.如权利要求1所述的机械臂关节角度检测方法,其特征在于,步骤二中,阈值分割提取机械臂目标轮廓图像具体包括两大块:
a、设定阈值对深度图像进行阈值分割提取机械臂轮廓,对于深度图像,通过深度值的判定把机械臂目标区域与背景区域进行初步区分,深度图像目标提取的公式:
其中,f(x,y)是阈值分割中(x,y)处的逻辑值,d(x,y)为深度图像中(x,y)坐标处的深度值,θ为深度图像的阈值分割的阈值门限,θ根据机械臂的工作空间设置;
b、结合彩色图像进行分割,移除机械臂目标以外物体,对于彩色图像,阈值的选取根据机械臂主体颜色来设定,设定过程如下:首先取彩色图像第一帧作为先验图片,将其由RGB图像转换为YCbCr图像,然后手动选取机械臂主体颜色部分,若选择的矩形宽为w,高为h,p(y,cb,cr)为矩形区域的像素点,(i,j)为图像二维坐标,则矩形区域的颜色平均值为:
取矩形区域的颜色平均值为彩色图像的阈值分割的阈值门限;
彩色图像目标提取的公式:
其中,g(x,y)是阈值分割中(x,y)处的逻辑值,c(x,y)为深度图像中(x,y)坐标处的YcbCr值,为彩色图像的阈值分割的阈值门限,根据手动选取机械臂主体颜色部分的平均值来设置;
最终的阈值分割的逻辑值取深度图像与彩色图像阈值分割的交集。
CN201610948647.6A 2016-10-26 2016-10-26 一种机械臂关节角度检测方法 Active CN106384115B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610948647.6A CN106384115B (zh) 2016-10-26 2016-10-26 一种机械臂关节角度检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610948647.6A CN106384115B (zh) 2016-10-26 2016-10-26 一种机械臂关节角度检测方法

Publications (2)

Publication Number Publication Date
CN106384115A CN106384115A (zh) 2017-02-08
CN106384115B true CN106384115B (zh) 2019-10-22

Family

ID=57956590

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610948647.6A Active CN106384115B (zh) 2016-10-26 2016-10-26 一种机械臂关节角度检测方法

Country Status (1)

Country Link
CN (1) CN106384115B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107560880B (zh) * 2017-08-31 2020-07-31 西门子工厂自动化工程有限公司 机械手性能测试方法及装置,计算机可读存储介质
CN108510582B (zh) * 2018-04-02 2021-12-14 苏州蜗牛数字科技股份有限公司 一种匹配任意骨骼模型的刚体生成方法
CN108673484A (zh) * 2018-07-09 2018-10-19 原敏虎 一种万能机械臂
CN109492639A (zh) * 2018-11-12 2019-03-19 北京拓疆者智能科技有限公司 装载位置三维坐标获取方法、系统及图像识别设备
CN110378956A (zh) * 2019-07-23 2019-10-25 招商局重庆交通科研设计院有限公司 用于隧道灯清洁的隧道灯具定位方法及系统
CN110695990A (zh) * 2019-09-23 2020-01-17 江苏理工学院 一种基于Kinect手势识别的机械臂控制系统
CN111145236B (zh) * 2019-12-04 2022-10-18 东南大学 一种基于数字孪生的产品拟实物装配模型生成方法及实现框架
CN111402337A (zh) * 2020-04-03 2020-07-10 中联重科股份有限公司 工程机械臂架类设备的姿态识别方法、装置及该工程机械
CN113280805B (zh) * 2021-04-14 2023-03-17 中联重科股份有限公司 用于识别臂架姿态的方法、处理器、装置及工程机械
CN113343412B (zh) * 2021-04-22 2022-02-22 国网浙江省电力有限公司嘉兴供电公司 一种机械臂末端精准定位虚拟仿真方法
CN113896105A (zh) * 2021-05-27 2022-01-07 徐州重型机械有限公司 一种起重机状态监控系统
CN113925497B (zh) * 2021-10-22 2023-09-15 吉林大学 一种基于双目视觉测量系统的汽车乘员乘坐姿态提取方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102778953A (zh) * 2012-06-28 2012-11-14 华东师范大学 基于Kinect的皮影戏远程数字表演的体感控制方法
CN102922521A (zh) * 2012-08-07 2013-02-13 中国科学技术大学 一种基于立体视觉伺服的机械臂系统及其实时校准方法
CN103386683A (zh) * 2013-07-31 2013-11-13 哈尔滨工程大学 一种基于Kinect的体感控制机械臂方法
CN104167016A (zh) * 2014-06-16 2014-11-26 西安工业大学 一种基于rgb彩色与深度图像的三维运动重建方法
CN104315998A (zh) * 2014-10-29 2015-01-28 武汉科技大学 一种基于深度图像和方位角的门开度判断方法
CN105631875A (zh) * 2015-12-25 2016-06-01 广州视源电子科技股份有限公司 确定相机坐标与机械臂手爪坐标映射关系的方法及其系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102778953A (zh) * 2012-06-28 2012-11-14 华东师范大学 基于Kinect的皮影戏远程数字表演的体感控制方法
CN102922521A (zh) * 2012-08-07 2013-02-13 中国科学技术大学 一种基于立体视觉伺服的机械臂系统及其实时校准方法
CN103386683A (zh) * 2013-07-31 2013-11-13 哈尔滨工程大学 一种基于Kinect的体感控制机械臂方法
CN104167016A (zh) * 2014-06-16 2014-11-26 西安工业大学 一种基于rgb彩色与深度图像的三维运动重建方法
CN104315998A (zh) * 2014-10-29 2015-01-28 武汉科技大学 一种基于深度图像和方位角的门开度判断方法
CN105631875A (zh) * 2015-12-25 2016-06-01 广州视源电子科技股份有限公司 确定相机坐标与机械臂手爪坐标映射关系的方法及其系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于RGB-D图像的手势检测研究;张峰;《中国优秀硕士学位论文全文数据库信息科技辑》;20141016;第I138-282页 *

Also Published As

Publication number Publication date
CN106384115A (zh) 2017-02-08

Similar Documents

Publication Publication Date Title
CN106384115B (zh) 一种机械臂关节角度检测方法
CN111179324B (zh) 基于颜色和深度信息融合的物体六自由度位姿估计方法
US10068344B2 (en) Method and system for 3D capture based on structure from motion with simplified pose detection
JP6031554B2 (ja) 単眼カメラに基づく障害物検知方法及び装置
KR102113909B1 (ko) 3차원 모델링 방법 및 장치
CN113192179B (zh) 一种基于双目立体视觉的三维重建方法
KR20160121509A (ko) 2개의 카메라로부터의 곡선의 세트의 구조형 광 매칭
CN110136211A (zh) 一种基于主动双目视觉技术的工件定位方法及系统
CN111107337A (zh) 深度信息补全方法及其装置、监控系统和存储介质
CN107545247B (zh) 基于双目识别的立体认知方法
Solak et al. Distance estimation using stereo vision for indoor mobile robot applications
TW201714695A (zh) 即時三維建模之雷射飛行打標系統及其方法
CN113888639A (zh) 基于事件相机与深度相机的视觉里程计定位方法及系统
US11348271B2 (en) Image processing device and three-dimensional measuring system
Han et al. Target positioning method in binocular vision manipulator control based on improved canny operator
CN110599407B (zh) 基于向下倾角方向的多台tof相机人体降噪方法及系统
CN106548482B (zh) 一种基于稀疏匹配与图像边缘的稠密匹配方法及系统
Thangarajah et al. Vision-based registration for augmented reality-a short survey
CN112837366A (zh) 基于双目相机和卷积神经网络的目标识别及定位的方法
Kurka et al. Automatic estimation of camera parameters from a solid calibration box
CN103927757B (zh) 基于分级采样的目标物体立体视觉三维分析处理方法
Ikai et al. Evaluation of finger direction recognition method for behavior control of Robot
US20230135674A1 (en) 6d pose measurement method for mechanical parts based on virtual contour feature points
JP2013254300A (ja) 画像処理方法
CN112614182B (zh) 基于深度学习的识别加工位置的方法、存储设备、移动终端

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant