CN105856262A - 一种小型机器人触觉对物体进行探测与识别的方法 - Google Patents
一种小型机器人触觉对物体进行探测与识别的方法 Download PDFInfo
- Publication number
- CN105856262A CN105856262A CN201610323410.9A CN201610323410A CN105856262A CN 105856262 A CN105856262 A CN 105856262A CN 201610323410 A CN201610323410 A CN 201610323410A CN 105856262 A CN105856262 A CN 105856262A
- Authority
- CN
- China
- Prior art keywords
- target object
- mechanical arm
- sensor
- thing
- visual field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/082—Grasping-force detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本发明涉及一种小型机器人触觉对物体进行探测与识别的方法,属于机器人应用领域,该方法包括:获得实际视野距离,将目标物体放置在摄像头视野中;将目标物体在摄像头视野坐标转换为物体实际视野坐标,计算机械臂旋转角度α;控制机械臂旋转至α,夹持器合拢直往前探索,不断靠近目标物体,当检测到弯曲传感器已经弯曲,准备进行抓取;控制板不断采集并检测传感器阵列和单点压力传感器的数据,当检测到单点压力传感器的数值达到设定的压力阈值后,通过传感器阵列的值判断出抓取点处在物的中心;通过触觉对目标物体进行数据采集、训练分类器、实时抓取完成目标物体的识别。该方法通过触觉对物体的内在属性进行分析,并实现不同物体之间的精确分类。
Description
技术领域
本发明属于机器人应用技术领域,具体涉及一种小型机器人触觉对物体进行探测与识别的方法。
背景技术
当前机器人实现物体的探测与识别绝大部分是基于视觉。视觉已能够对目标物体进行较精确的探测,也能识别出绝大部分物体,但是只依赖视觉在实际应用场景中仍存在较多的限制,如环境(光线等)的变化引起的视觉误差,还有对于两个视觉上相似度极高的物体的视觉区分度过小等。基于触觉的物体探测与识别可以有效地规避这些外界因素带来的干扰。首先触觉不会受到环境的影响,其次,对于某些视觉上特别相似的物体如新鲜的苹果和内部腐烂的苹果,通过触觉可以有效地进行识别分类。当前也有公开技术是关于机器人触觉识别的,中国专利CN2820474公开了一种阵列式机器人触觉传感器,但是,该传感器进行机器人的触觉感知与物体识别是建立在物体表面,通过多个传感器获取到物体表面的凹凸形状信息形成图像并处理,本质上与视觉图像处理相当,只是使用了传感器进行数据采集,且不能推广应用于小型机器人。
发明内容
本发明的目是为克服已有机器人基于视觉实现物体的探测与识别的不足之处,提出一种小型机器人触觉对物体进行探测与识别的方法,该方法可以通过触觉对物体的内在属性进行分析,并实现不同物体之间的精确分类。
本发明的特点及有益效果在于:可以通过触觉完成对只使用视觉无法分类的物体进行分类,同时本发明在小型机器人上具有高度可拓展性。
附图说明
图1是本发明方法的实施例装置布置俯视图。
具体实施方式
本发明提出的一种小型机器人触觉对物体进行探测与识别的方法结合附图及实施例说明如下:
本实施例中所采用的设备:探测与识别装置、分类器、铝质连接件、毫米直尺、预装有视觉和机械运动控制上位机程序的笔记本电脑(上位机程序负责与Arduino UNO通信以控制Arduino UNO控制板采集和发送信息)一台以及四个方形标定物。所述的探测与识别装置如图1所示,包括Bighand机械手夹持器1、用于抓取的桌面型机械臂2、单目摄像头3、及与Bighand机械手夹持器1相连的机械臂末端接口4;传感器、预先存储有机械运动控制下位机程序(下位机程序负责采集传感器信息并控制舵机运动)的Arduino UNO控制板、安装在Bighand机械手夹持器1上的RB‐150舵机(图1中未标示出),其中传感器包括sparkFun Flex2.2弯曲传感器、基于sparkFun 402压力传感器的2*2压力传感器阵列、sparkFun FSR406单点压力传感器。本实施例的探测与识别装置的组装,具体包括:
a)制作sparkFun 402压力传感器的2*2压力传感器阵列:取4片sparkFun 402压力传感器、2片42mm*38mm的矩形亚克力板和4片直径为5mm(约为sparkFun402压力传感器直径的一半)的圆形亚克力板;将一片矩形亚克力板平放在桌面上,然后将4片压力传感器均匀粘连在该亚克力板上,其中两片引脚朝上,两片引脚朝下,且引脚保持平行,4片压力传感器对称分布;然后将4片圆形亚克力板分别粘连在4片传感器中心,最后将剩余的一片矩形亚克力板平盖在4片圆形亚克力板上,并与4片圆形亚克力板粘连固定,制得sparkFun 402压力传感器的2*2压力传感器阵列。
b)将1片sparkFun FSR406单点压力传感器,1片步骤a)制得的sparkFun 402压力传感器的2*2压力传感器阵列分别平贴于Bighand机械手夹持器1的左右爪内测,并粘连固定。
c)将sparkFun Flex2.2弯曲传感器平贴至夹持器左爪外侧。
d)通过铝质连接件将Bighand机械手夹持器装配在桌面型机械臂2的末端接口4,用螺丝固定。
e)将单目摄像头3置于距离桌面型机械臂2底部中心约20cm的地方,使得机械臂回归零点调整摄像头位置直到摄像头视线平行于机械臂臂末端且摄像头底部与机械臂底部持水平,然后固定摄像头,完成机械臂初始化。
f)将单目摄像头3、Arduino UNO控制板通过usb连线连接至笔记本电脑,并开启笔记本电脑中的视觉和机械运动控制上位机程序。
本实施例提出的一种采用上述设备的小型机器人触觉对物体进行探测与识别的方法,本实施例待识别的目标物为水果类物体,具体实施步骤如下:
1)对探测与识别装置进行标定,获得实际视野距离,将目标物体放置在摄像头视野中;具体包括:
1‐1)开启单目摄像头3,调整摄像头角度至摄像头俯视角约为45°,此时摄像头视野为一个矩形,摄像头视野的宽度和高度,分别为wf和hf。放置四个方形标定物至此矩形视野内的四角,其中一个标定物至于视野左上角,一个标定物置于视野左下角,一个标定物置于视野右上角,剩余标定物置于视野右下角。
1‐2)(在实际应用过程中,目标物所在的实际位置在实际视野中,而被摄像头拍摄到的为摄像头视野,实际视野是一个倒梯形,而摄像头视野是一个矩形。因此需要具体测量实际视野的上底宽度、下底宽度和高度以便用来与实际视野做变换。)用毫米直尺测量出左上角标定物和右上角标定物之间的距离,记为实际视野上底宽度wu,测量出左下角标定物和右下角标定物之间的距离,记为实际视野下底宽度wb,并垂直测量左上角标定物与左下角标定物之间的垂直距离,右上角标定物与右下角标定物之间的垂直距离,两个值取平均记为实际视野高度h;同时用毫米直尺分别测量出左下角表定物和右下角标定物与单目摄像头3底部的垂直距离,两个值取平均记为实际视野距离d,将目标物体放置在摄像头视野中。
2)视觉粗定位:确定目标物体在摄像头视野中的中心坐标,并转换为物体实际视野坐标,计算得到的机械臂旋转角度;具体实施方式包括:
开启Arduino UNO控制板,单目摄像头3拍摄一张照片,照片中包含有目标物体;Arduino UNO控制板接收到摄像头拍摄的照片后,使用Bing算法(程明明)对照片进行处理,得到近2000(Bing算法中可以约定所需要得到的矩形框的数量,视实际需要设定)个含有目标物体的矩形框,然后从这2000个矩形框中取出矩形面积小于1300px2的矩形框(此条件下矩形框可用性高,为多次实验得到的经验值),并用白色填充所有筛选出来的矩形框的照片,紧接着对筛选出的照片进行分割,分割出白色的矩形框部分,获取分割出来的每一块矩形框的所有边界点(即对矩形框的四条边框取多个点)坐标,然后将所有边界点的横坐标和纵坐标分别取平均值,得到中心坐标,该坐标即为目标物体的中心坐标;设目标物体在摄像头视野中的中心坐标为(x0,y0),目标物体在实际视野中的坐标为(x0',y0'),将摄像头视野坐标转换为物体实际视野坐标的公式如下:
坐标转换完成后,通过实际视野坐标计算得到为了抓到目标物体,机械臂的舵机应该旋转的角度α计算公式如下:
上述公式(1)‐(3)中的参数含义如下:
(x0,y0)是目标物体在摄像头视野中的坐标,(x0',y0')是目标物体在实际视野中的坐标,wf和hf分别代表摄像头视野的宽度和高度,wu,h,wb分别代表实际视野上底宽度,实际视野高度,实际视野下底宽度,d表示实际视野距离。
3)精确定位:根据得到的机械臂旋转角度α,控制机械臂旋转至α,夹持器合拢直往前探索,不断靠近目标物体,当检测到弯曲传感器已经弯曲,则判断已经探索到目标物体,然后通过Arduino UNO控制板张开夹持器,准备进行抓取;具体实施如下:
根据步骤2)的视觉粗定位得到的机械臂旋转角度α,控制机械臂旋转至α,夹持器1合拢(此时机械臂2是指向目标物体的中心的,但是,由于不知道目标物体的深度信息,同时由于是粗定位,机械臂对物体中心的指向不一定精准,故)机械臂2在旋转α度后一直往前探索,不断靠近目标物体,且探索过程中(为了克服粗定位误差会有一个左右摆动的过程,具体表现为)控制机械臂2往左摆动5°再往右摆动5°。在这个过程中,控制板会一直采集并检测装载在夹持器左爪的弯曲传感器的数据,一旦检测到弯曲传感器数值变化超过弯曲阈值(本实施例取值为10°,此值表示检测到弯曲传感器已经弯曲,该取值可以根据不同的弯曲传感器和控制电路而人为调整),则判断已经探索到目标物体,然后通过Arduino UNO控制板张开夹持器,(为了防止夹持器1张开过程中对目标物体的位置产生影响(如把目标物体推开))此时控制机械臂的舵机后往后收缩约5cm(视目标物体大小而定,只要保证机械臂末端不会触碰到物体即可),然后再前进10cm(为收缩距离的两倍),准备进行抓取;
4)调整物体抓取点:控制板不断采集并检测2*2传感器阵列中4个传感器和单点压力传感器的数据,当检测到单点压力传感器的数值达到设定的压力阈值后,记录此时2*2传感器阵列的4个传感器值,通过这4个传感器的值判断出抓取点处在目标物的中心;具体实施包括:
(为了提高对目标物体的抓取稳定性和采集目标物体触觉数据的稳定性,每一次抓取都力求抓取点为目标物体的几何中心,)在完成步骤4)对目标物体的精确定位后,通过Arduino UNO控制板控制夹持器1缓慢合拢,合拢过程中,控制板不断采集并检测2*2传感器阵列中4个传感器和单点压力传感器的数据,当检测到单点压力传感器的数值达到设定的压力阈值300(此数值取值与采用的传感器和控制电路相关,可以根据采用产品的不同自由设定,只要达到该压力阈值后则可确定单点压力传感器碰触到物体即可)后,记录此时2*2传感器阵列的4个传感器值分别为:f1、f2、f3、f4,对应传感器位置分别为:左下角,左上角,右上角,右下角。通过这4个传感器的值判断出抓取点是否在中心。若(f2+f3-(f1+f4)>50),则说明当前抓取点偏上,偏上则抓开夹持器,机械臂2往下移动3°,反之则偏下,则机械臂2往上移动3°。机械臂2不断进行上下调整直到(f2+f3-(f1+f4)<=50)或者调整次数超过了设定的最大次数(本实施例设为5次),再判断(若(f1+f2-(f3+f4)>50),则说明当前抓取点偏前方,偏前方则机械臂往后移动3°,反之则偏后方,则机械臂2往前方移动3°。机械臂2不断进行前后调整直到(f1+f2-(f3+f4)<=50)或者调整次数超过了5次,则认为此时机械臂2的位置为物体抓取点;
(在本实施例中,主要抓取对象为水果,一般来说,水果的大小也就是机械臂单方向调整24°的范围,单次调整的范围越大,调整速度越快,而单次调整的范围越小,调整的精度越高。本实施例调整策略中的单次调整角度与最大调整次数的乘积保证能覆盖目标物体的一半长度,在本实施例中为12°。因此若设定单次调整为2°则最大调整次数不可小于6次。同时,由于调整的不稳定性,有时调整一次之后会越过抓取中心点,故调整次数应该增加1到2次。为了以较好的精度较快地调整完,本实施例采用调整角度为3°,调整次数为5次);
5)物体识别:通过触觉对目标物体进行数据采集、训练分类器、实时抓取完成目标物体的识别。
对目标物体的抓取点调整完成后,接下来通过触觉对目标物体进行分类:分类的过程包括物体数据采集、训练分类器、实时抓取识别。物体数据采集过程中,需要不断地对目标物体进行抓取,抓取的时候,夹持器慢慢合拢,此时控制板在不断采集并检测单点压力传感器的数据,当单点压力传感器的数值超过300后,控制夹持器合拢的舵机将控制夹持器1继续合拢转动5°,然后控制夹持器张开(数据采集过程中,合拢转动的角度视目标物体的可承受范围而定,本实施例目标物体为水果,在合拢转动角度超过5°后,水果会被损坏,故合拢角度不可超过5°);具体包括:
5‐1)物体数据采集
5‐1‐1)训练数据采集:对选定的用于训练的物体(本实施例选定8种不同水果)进行数据采集,每种水果采集两次,其中每次采集使用夹持器抓取目标物体50次,记录所有传感器数值与相应的舵机旋转角度作为训练数据;
5‐1‐2)测试数据采集:对选定的用于测试的物体(本实施例选定8种不同水果)再次进行数据采集,每种水果采集两次,其中每次使用夹持器抓取目标物体20次,记录传感器数值与相应的舵机旋转角度作为测试数据;
5‐2)训练分类器通过采集的训练数据使用KNN或SVM等任意一种分类方法训练一个分类器,然后使用测试数据对分类器性能进行测试,若分类器的分类错误率低于设定的阈值(本实施例设为20%),则可认为该分类器可用;
5‐3)实时抓取识别
抓取待识别的目标物体3次,获得3组传感器数值与相应的舵机旋转角度作为待识别数据,将待识别数据通过步骤5‐2)训练出的分类器进行分类,分类器给出分类结果,此分类结果即为准确识别出物体所属类别。例如,抓取待识别苹果3次,得到3组数据,将3组数据通过分类器进行分类,分类器给出的分类结果为3,而3则是苹果的代表标记,说明分类器已经分辨出目标物体为苹果。
Claims (7)
1.一种小型机器人触觉对物体进行探测与识别的方法,其特征在于,该方法采用的设备包括:探测与识别装置、分类器、预装有视觉和机械运动控制上位机程序的PC机一台,以及标定物;所述的探测与识别装置包括Bighand机械手夹持器、用于抓取的桌面型机械臂、单目摄像头、及与Bighand机械手夹持器相连的机械臂末端接口;传感器、预先存储有机械运动控制下位机程序的Arduino UNO控制板、安装在Bighand机械手夹持器上的RB‐150舵机,其中传感器包括sparkFun Flex2.2弯曲传感器、基于sparkFun 402压力传感器的2*2压力传感器阵列、sparkFun FSR406单点压力传感器;
该方法包括以下步骤:
1)对探测与识别装置进行标定,获得实际视野距离,将目标物体放置在摄像头视野中;
2)视觉粗定位:确定目标物体在摄像头视野中的中心坐标,并转换为物体实际视野坐标,计算得到的机械臂旋转角度;
3)精确定位:根据得到的机械臂旋转角度α,控制机械臂旋转至α,夹持器合拢直往前探索,不断靠近目标物体,当检测到弯曲传感器已经弯曲,则判断已经探索到目标物体,然后通过Arduino UNO控制板张开夹持器,准备进行抓取;
4)调整物体抓取点:控制板不断采集并检测2*2传感器阵列中4个传感器和单点压力传感器的数据,当检测到单点压力传感器的数值达到设定的压力阈值后,记录此时2*2传感器阵列的4个传感器值,通过这4个传感器的值判断出抓取点处在目标物体的中心;
5)物体识别:通过触觉对目标物体进行数据采集、训练分类器、实时抓取完成目标物体的识别。
2.如权利要求1所述的方法,其特征在于,还包括探测与识别装置的组装,具体包括:
a)制作sparkFun 402压力传感器的2*2压力传感器阵列:取4片sparkFun 402压力传感器、2片42mm*38mm的矩形亚克力板和4片直径为5mm(约为sparkFun402压力传感器直径的一半)的圆形亚克力板;将一片矩形亚克力板平放在桌面上,然后将4片压力传感器均匀粘连在该亚克力板上,其中两片引脚朝上,两片引脚朝下,且引脚保持平行,4片压力传感器对称分布;然后将4片圆形亚克力板分别粘连在4片传感器中心,最后将剩余的一片矩形亚克力板平盖在4片圆形亚克力板上,并与4片圆形亚克力板粘连固定,制得sparkFun 402压力传感器的2*2压力传感器阵列;
b)将1片sparkFun FSR406单点压力传感器,1片步骤a)制得的sparkFun 402压力传 感器的2*2压力传感器阵列分别平贴于Bighand机械手夹持器1的左右爪内测,并粘连固定;
c)将sparkFun Flex2.2弯曲传感器平贴至夹持器左爪外侧;
d)通过连接件将Bighand机械手夹持器装配在桌面型机械臂2的末端接口4,用螺丝固定;
e)将单目摄像头置于距离桌面型机械臂底部中心20cm的地方,使得机械臂回归零点调整摄像头位置直到摄像头视线平行于机械臂臂末端且摄像头底部与机械臂底部持水平,然后固定摄像头,完成机械臂初始化;
f)将单目摄像头、Arduino UNO控制板通过usb连线连接至笔记本电脑,并开启笔记本电脑中的视觉和机械运动控制上位机程序。
3.如权利要求1所述的方法,其特征在于,所述步骤1)具体包括:
1‐1)开启单目摄像头,调整摄像头角度至摄像头俯视角为45°,此时摄像头视野为一个矩形,摄像头视野的宽度和高度,分别为wf和hf;放置四个方形标定物至此矩形视野内的四角,其中一个标定物至于视野左上角,一个标定物置于视野左下角,一个标定物置于视野右上角,剩余标定物置于视野右下角;
1‐2)用直尺测量出左上角标定物和右上角标定物之间的距离,记为实际视野上底宽度wu,测量出左下角标定物和右下角标定物之间的距离,记为实际视野下底宽度wb,并垂直测量左上角标定物与左下角标定物之间的垂直距离,右上角标定物与右下角标定物之间的垂直距离,两个值取平均记为实际视野高度h;同时用毫米直尺分别测量出左下角表定物和右下角标定物与单目摄像头3底部的垂直距离,两个值取平均记为实际视野距离d,将目标物体放置在摄像头视野中。
4.如权利要求1所述的方法,其特征在于,所述步骤2)具体包括:开启Arduino UNO控制板,单目摄像头拍摄一张照片,照片中包含有目标物体;Arduino UNO控制板接收到摄像头拍摄的照片后,使用Bing算法对照片进行处理,得到2000个含有目标物体的矩形框,然后从这2000个矩形框中筛选出矩形面积小于1300px2的矩形框的照片,并对筛选出的照片进行分割,获取分割出来的每一块矩形框的所有边界点坐标,然后将所有边界点的横坐标和纵坐标分别取平均值,目标物体在摄像头视野中的中心坐标,将摄像头视野坐标转换为物体实际视野坐标,通过实际视野坐标计算得到为了抓到目标物体,机械臂的舵机应该旋转的角度α。
5.如权利要求1所述的方法,其特征在于,所述步骤3)具体包括:根据步骤2)的视觉粗定位得到的机械臂旋转角度α,控制机械臂旋转至α,夹持器合拢后一直往前探索, 不断靠近目标物体,控制板一直采集并检测装载在夹持器左爪的弯曲传感器的数据,当检测到弯曲传感器数值变化超过弯曲阈值,,则判断已经探索到目标物体,然后通过Arduino UNO控制板张开夹持器,准备进行抓取。
6.如权利要求1所述的方法,其特征在于,所述步骤4)具体包括:通过Arduino UNO控制板控制夹持器缓慢合拢,合拢过程中,控制板不断采集并检测2*2传感器阵列中4个传感器和单点压力传感器的数据,当检测到单点压力传感器的数值达到设定的压力阈值后,记录此时2*2传感器阵列的4个传感器值通过这4个传感器的值判断出抓取点在目标物体的中心认为此时机械臂的位置即为物体抓取点。
7.如权利要求1所述的方法,其特征在于,所述步骤5)具体包括:
5‐1)物体数据采集
5‐1‐1)训练数据采集:对选定的用于训练的物体进行数据采集,记录所有传感器数值与相应的舵机旋转角度作为训练数据;
5‐1‐2)测试数据采集:对选定的用于测试的物体再次进行数据采集,记录传感器数值与相应的舵机旋转角度作为测试数据;
5‐2)训练分类器通过采集的训练数据使用KNN或SVM等任意一种分类方法训练一个分类器,然后使用测试数据对分类器性能进行测试,若分类器的分类错误率低于设定的阈值,则可认为该分类器可用;
5‐3)实时抓取识别
抓取待识别的目标物体3次,获得3组传感器数值与相应的舵机旋转角度作为待识别数据,将待识别数据通过步骤5‐2)训练出的分类器进行分类,分类器给出分类结果,此分类结果即为准确识别出物体所属类别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610323410.9A CN105856262B (zh) | 2016-05-16 | 2016-05-16 | 一种小型机器人触觉对物体进行探测与识别的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610323410.9A CN105856262B (zh) | 2016-05-16 | 2016-05-16 | 一种小型机器人触觉对物体进行探测与识别的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105856262A true CN105856262A (zh) | 2016-08-17 |
CN105856262B CN105856262B (zh) | 2018-02-02 |
Family
ID=56634884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610323410.9A Active CN105856262B (zh) | 2016-05-16 | 2016-05-16 | 一种小型机器人触觉对物体进行探测与识别的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105856262B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106652018A (zh) * | 2016-09-29 | 2017-05-10 | 北京京东尚科信息技术有限公司 | 物品三维重建方法、装置和系统 |
CN109127447A (zh) * | 2018-07-20 | 2019-01-04 | 华侨大学 | 一种基于机械手触觉分类识别物料的装置 |
CN110796045A (zh) * | 2019-10-17 | 2020-02-14 | 上海红星美凯龙设计云信息科技有限公司 | 一种视野中可见物体实时智能抓取排序算法 |
CN110861853A (zh) * | 2019-11-29 | 2020-03-06 | 三峡大学 | 视觉与触觉相结合的智能垃圾分类方法 |
CN110936369A (zh) * | 2018-09-25 | 2020-03-31 | 南京曼新智能科技有限公司 | 一种基于双目视觉和机械臂的大型工件位姿精确测量与抓取的装置与方法 |
CN111380503A (zh) * | 2020-05-29 | 2020-07-07 | 电子科技大学 | 一种采用激光辅助标定的单目相机测距方法 |
CN112428264A (zh) * | 2020-10-26 | 2021-03-02 | 中国计量大学 | 一种机器人臂的矫正方法及系统 |
CN113970969A (zh) * | 2021-12-27 | 2022-01-25 | 深圳市心流科技有限公司 | 一种仿生手的压力警报方法、仿生手、终端及存储介质 |
CN114700946A (zh) * | 2022-04-15 | 2022-07-05 | 山东新一代信息产业技术研究院有限公司 | 一种基于巡检机器人的设备震动频率采集方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103442859A (zh) * | 2011-03-17 | 2013-12-11 | 哈里公司 | 在指根处具有多力感测的机器人抓持装置 |
CN103495981A (zh) * | 2013-09-29 | 2014-01-08 | 中山大学 | 一种基于触觉传感器的机械手 |
JP2015160257A (ja) * | 2014-02-26 | 2015-09-07 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置および制御方法 |
WO2015175739A1 (en) * | 2014-05-16 | 2015-11-19 | Microsoft Technology Licensing, Llc | Robotic task demonstration interface |
CN105171767A (zh) * | 2015-09-08 | 2015-12-23 | 许志林 | 一种多传感器多独立自由度多指机器人灵巧手 |
-
2016
- 2016-05-16 CN CN201610323410.9A patent/CN105856262B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103442859A (zh) * | 2011-03-17 | 2013-12-11 | 哈里公司 | 在指根处具有多力感测的机器人抓持装置 |
CN103495981A (zh) * | 2013-09-29 | 2014-01-08 | 中山大学 | 一种基于触觉传感器的机械手 |
JP2015160257A (ja) * | 2014-02-26 | 2015-09-07 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置および制御方法 |
WO2015175739A1 (en) * | 2014-05-16 | 2015-11-19 | Microsoft Technology Licensing, Llc | Robotic task demonstration interface |
CN105171767A (zh) * | 2015-09-08 | 2015-12-23 | 许志林 | 一种多传感器多独立自由度多指机器人灵巧手 |
Non-Patent Citations (2)
Title |
---|
宋彩霞: "臂_手系统的运动控制及稳定抓取研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
张雪华: "采用Kinect的多臂协调操作系统", 《智能系统学报》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106652018A (zh) * | 2016-09-29 | 2017-05-10 | 北京京东尚科信息技术有限公司 | 物品三维重建方法、装置和系统 |
CN109127447A (zh) * | 2018-07-20 | 2019-01-04 | 华侨大学 | 一种基于机械手触觉分类识别物料的装置 |
CN110936369B (zh) * | 2018-09-25 | 2022-10-04 | 南京曼新智能科技有限公司 | 一种基于双目视觉和机械臂的大型工件位姿精确测量与抓取的方法 |
CN110936369A (zh) * | 2018-09-25 | 2020-03-31 | 南京曼新智能科技有限公司 | 一种基于双目视觉和机械臂的大型工件位姿精确测量与抓取的装置与方法 |
CN110796045A (zh) * | 2019-10-17 | 2020-02-14 | 上海红星美凯龙设计云信息科技有限公司 | 一种视野中可见物体实时智能抓取排序算法 |
CN110796045B (zh) * | 2019-10-17 | 2024-04-09 | 上海红星美凯龙设计云信息科技有限公司 | 一种视野中可见物体实时智能抓取排序算法 |
CN110861853A (zh) * | 2019-11-29 | 2020-03-06 | 三峡大学 | 视觉与触觉相结合的智能垃圾分类方法 |
CN110861853B (zh) * | 2019-11-29 | 2021-10-19 | 三峡大学 | 视觉与触觉相结合的智能垃圾分类方法 |
CN111380503A (zh) * | 2020-05-29 | 2020-07-07 | 电子科技大学 | 一种采用激光辅助标定的单目相机测距方法 |
CN112428264A (zh) * | 2020-10-26 | 2021-03-02 | 中国计量大学 | 一种机器人臂的矫正方法及系统 |
CN112428264B (zh) * | 2020-10-26 | 2021-12-07 | 中国计量大学 | 一种机器人臂的矫正方法及系统 |
CN113970969A (zh) * | 2021-12-27 | 2022-01-25 | 深圳市心流科技有限公司 | 一种仿生手的压力警报方法、仿生手、终端及存储介质 |
CN114700946A (zh) * | 2022-04-15 | 2022-07-05 | 山东新一代信息产业技术研究院有限公司 | 一种基于巡检机器人的设备震动频率采集方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105856262B (zh) | 2018-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105856262A (zh) | 一种小型机器人触觉对物体进行探测与识别的方法 | |
CN105956586B (zh) | 一种基于tof 3d摄像机的智能跟踪系统 | |
CN102231093B (zh) | 一种屏幕定位控制方法及装置 | |
US11644901B2 (en) | Method and device for detecting a user input on the basis of a gesture | |
WO2019006760A1 (zh) | 一种姿态的识别方法、设备及可移动平台 | |
CN105872477A (zh) | 视频监控方法和视频监控系统 | |
CN108307767B (zh) | 适用于全自动除草机的障碍物检测避障系统及方法 | |
CN110132989A (zh) | 一种混凝土裂缝检测设备、方法以及终端系统 | |
CN105046808B (zh) | 一种纸币多光谱高分辨率图像采集系统及采集方法 | |
CN105426858A (zh) | 一种基于视觉和振动信息融合的地面类型辨识方法 | |
CN101984453B (zh) | 一种人眼识别系统及方法 | |
CN103488972A (zh) | 基于深度信息的指尖检测方法 | |
CN202008669U (zh) | 大角度人脸识别装置 | |
CN102945362A (zh) | 基于异构数据融合的传感器协同手势识别方法及系统 | |
CN110378325A (zh) | 一种机器人抓取过程中的目标位姿识别方法 | |
CN104952104A (zh) | 一种三维人体姿态估计方法和装置 | |
CN102003945A (zh) | 一种虚拟光学引伸计及其测量方法 | |
CN105404866B (zh) | 一种多模式自动实施人体状态感知的实现方法 | |
CN103426172A (zh) | 基于视觉的目标跟踪方法及装置 | |
CN103279760A (zh) | 一种植物检疫幼虫实时分类方法 | |
CN109740654A (zh) | 一种基于深度学习的舌体自动检测方法 | |
CN105718964A (zh) | 一种输电线防振锤的视觉检测方法 | |
CN101603817B (zh) | 玻璃厚度的检测设备和检测方法 | |
CN111399634B (zh) | 一种手势引导物体识别的方法及装置 | |
CN108010151A (zh) | 人脸识别考勤方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |