CN105718954B - 一种基于视触觉融合的目标属性和类别的识别方法 - Google Patents
一种基于视触觉融合的目标属性和类别的识别方法 Download PDFInfo
- Publication number
- CN105718954B CN105718954B CN201610046789.3A CN201610046789A CN105718954B CN 105718954 B CN105718954 B CN 105718954B CN 201610046789 A CN201610046789 A CN 201610046789A CN 105718954 B CN105718954 B CN 105718954B
- Authority
- CN
- China
- Prior art keywords
- tactile
- time series
- training sample
- dtw
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于视触觉融合的目标属性和类别的识别方法,属于分类技术领域,该方法包括:1)采集作为训练样本的视触觉信息:2)按照不同的训练样本和它们不同的属性,将训练样本分为物体类别i类、属性j类,对每个训练样本抓取并采集触觉信息和视觉图像,建立训练样本数据集;3)对需要进行分类的测试样体进行抓取、采集视觉图像,得到测试样本的触觉信息和视觉图像,建立测试样本数据集,求出触觉时间序列测试集与训练集的动态时间规整(DTW)距离矩阵和视觉图像测试集与训练集的协方差描述子距离矩阵。4)将所有测试样本通过最近邻算法得到每个测试样本的物体、属性类别。本发明在最近邻算法的基础上实现一种精细目标识别的视触觉融合方法。提高了分类的鲁棒性和准确率。
Description
技术领域
本发明涉及一种基于视触觉融合的目标属性和类别的识别方法,属于物体分类技术领域。
背景技术
BH8系列的BarrettHand灵巧手是一个可编程的多手指抓持器,它具有非常高的灵活性,可以抓取不同形状、大小及姿态的目标物体。该灵巧手由三个手指F1、F2、F3和一个手掌S四个触觉传感器组成,每个传感器分别包含24个触觉阵列,可抓取物体并采集所抓取物体的触觉信息得到触觉时间序列。
在现有的物体类型识别技术中,包括有多种不同方式的物体类型识别技术,例如:基于启发式规则方式的物体类型识别技术,多采用物体的形状、大小、比例等简单信息对提取的前景物体进行分析,得到物体的类型,但是这种方法比较简单,效果差且抗干扰能力差。然而,基于灵巧手触觉和摄像头视觉信息的物体类别分类和属性分类从一个新的角度对物体进行分类,得到鲁棒的效果。
经对现有的技术文献检索分析,发现邓亚峰等人的发明专利“物体分类模型的训练方法及利用该模型的识别方法,申请号为201010536354.X”中揭示了一种物体分类模型的基于图像的训练方法,此发明对提取的前景物体区域进行主轴归一化变换;同时,采用块匹配技术对不同帧图像上的前景物体区域进行对齐处理,提取的前景物体区域中有效的物体前景区域作为最终前景物体区域,从而实现物体分类。但该方法只是提取物体不同帧图像作为分类特征,未将类似方法应用在触觉信息和视觉信息融合的方法上。
发明内容
本发明的目的是提出一种基于视触觉融合的目标属性和类别的识别方法,在最近邻算法的基础上实现基于视触觉信息的物体类别和属性类别分类,提高目标分类的鲁棒性和准确率。
本发明提出的基于视触觉融合的目标属性和类别的识别方法,包括以下步骤:
(1)采集作为训练样本物体的视触觉信息:
设定用于精细目标识别的灵巧手的抓取力矩值为F,F=2300-4000N/m,灵巧手手掌的零触觉信号为Z,灵巧手的非零触觉信号为Y,采集训练样本的视觉图像,将训练样本放到灵巧手的手掌上,监测并采集手掌的触觉信息,当监测到手掌的触觉信息为零触觉信号Z时,继续等待触觉信息,当监测到手掌的触觉信息为非零触觉信号Y时,向灵巧手发送一个抓取指令,使灵巧手抓取训练样本,到达上述设定的力矩值F时停止抓取,实时采集抓取过程中灵巧手的手指的触觉信息,得到一个触觉时间序列;
(2)设训练样本的个数为N,按照训练样本的物体类别和属性,将训练样本分为i类物体、j类属性,每个训练样本的标签为ci *、cj *,其中1≤i≤N、1≤j≤N,重复上述步骤(1),遍历所有的N个训练样本,对每个训练样本抓取,采集触觉信息得到触觉时间序列和视觉图像,得到一个1*N大小的触觉训练样本数据集,数据集的表达式为:
Str=[S1,S2,…,SN]
(3)设测试样本的个数为M,利用上述步骤(1)和步骤(2)的方法,采集每个测试样本的视觉图像,抓取测试样本,得到每个测试样本的触觉时间序列,得到一个1*M大小的触觉测试样本数据集,数据集的表达式为:
Ste=[S1,S2,…,SM]
(4)设触觉训练样本数据集中,触觉时间序列SI的长度为Tn,表达式为:其中1≤I≤N,
触觉测试样本数据集中,触觉时间序列SJ的长度为Tm,表达式为:其中1≤J≤M,
设SI和SJ之间的抓取匹配路径为W,wk=(v,h)k为抓取匹配路径W中的第k个元素,wK是W的最后一个路径,W=w1,w2,...,wK,max(Tm,Tn)≤K≤Tm+Tn-1;
根据上述抓取匹配路径W,按照动态时间规整理论,计算得到时间序列SI和SJ之间的最小匹配路径DTW(SI,SJ)为:
其中,为K个抓取匹配路径之和;
(5)遍历触觉训练样本数据集中的所有触觉时间序列,重复步骤(4),得到触觉测试样本数据集中的一个触觉时间序列SJ与触觉训练样本数据集中的所有触觉时间序列Str之间的最小匹配路径DTW(SJ,Str),1≤J≤M,表达式为:
Str=[S1,S2,…,SN]
DTW(SJ,Str)=[DTW(SJ,S1),DTW(SJ,S2),…,DTW(SJ,SN)]
(6)遍历触觉测试样本数据集中的所有触觉时间序列,重复步骤(5)得到触觉测试样本数据集中的所有触觉时间序列Ste分别与触觉训练样本数据集中的所有触觉时间序列Str的最小匹配路径DTW(Ste,Str),构建一个动态时间规整距离矩阵D:
上述距离矩阵D中,D11是Ste中第一个触觉时间序列与Str中第一个触觉时间序列之间的DTW距离,D1N是Ste中第一个触觉时间序列与Str中第N个触觉时间序列之间的DTW距离,DM1是Ste中第M个触觉时间序列与Str中第一个触觉时间序列之间的DTW距离,DMN是Ste中第M个触觉时间序列与Str中第N个触觉时间序列之间的DTW距离;
(7)从上述训练样本的视觉图像中提取协方差描述子,得到一个视觉训练样本数据集Rtr,表达式为:Rtr=[R1,R2,…,RN],
从上述测试样本的视觉图像中提取协方差描述子,得到一个视觉测试样本数据集Rte,表达式为:Rte=[R1,R2,…,RM],
采用Log-Euclidean距离dcov(Ro,Rr),1≤o≤N,1≤r≤M,近似度量视觉训练样本数据集Rtr中的任意一个协方差描述子与视觉测试样本数据集Rte中的任意一个协方差描述子之间的差异,表达式为:
dcov(Ro,Rr)=||logm(Ro)-logm(Rr)||F,
其中logm表示对矩阵求对数;
(8)遍历视觉训练样本数据集Rtr中的所有协方差描述子,重复步骤(7),得到视觉测试样本数据集Rte中一个协方差描述子与视觉训练样本数据集Rtr中的所有协方差描述子之间的Log-Euclidean距离d,表达式为:
d=[d1,d2,…dN]
(9)遍历视觉测试样本数据集Rte中的所有协方差描述子,重复步骤(8),得到视觉测试样本数据集中的所有协方差描述子与视觉训练样本数据集中的所有协方差描述子之间的Log-Euclidean距离d,构成Log-Euclidean距离矩阵Dle,表达式为:
上述距离矩阵Dle中,d11是Rte中第一个协方差描述子与Rtr中第一个协方差描述子之间的Log-Euclidean距离,d1N是Rte中第一个协方差描述子与Rtr中第N个协方差描述子之间的Log-Euclidean距离,dM1是Rte中第M个协方差描述子与Rtr中第一个协方差描述子之间的Log-Euclidean距离,dMN是Rte中第M个协方差描述子与Rtr中第N个协方差描述子之间的Log-Euclidean距离;
(10)根据上述步骤(6)得到的动态时间规整(DTW)距离矩阵D和步骤(9)得到的Log-Euclidean距离矩阵Dle,得到第A个测试样本的动态时间规整(DTW)距离A1和Log-Euclidean距离A2,表达式为:
A1=[DA,1,DA,2,…,DA,N]
A2=[dA,1,dA,2,…,dA,N]
分别求出A1和A2中的最小值Da和db,其中1≤a≤N,1≤b≤N,根据最近邻算法,则第a个训练样本的标签ca *即为第A个测试样本的属性,第b个训练样本的标签cb *即为第A个测试样本的类别;
(11)重复步骤(10),得到所有测试样本的属性和类别,完成目标属性和类别的识别。
本发明提出的基于视触觉融合的目标属性和类别的识别方法,具有以下优点:
1、本发明提出的基于视触觉融合的目标属性和类别的识别方法,利用灵巧手采集到的物体触觉信息进行训练和测试,实现物体的属性分类。利用摄像头采集到物体的视觉信息进行训练和测试,实现物体的类别分类。
2、本发明的分类方法,在最近邻算法的基础上联合灵巧手三个手指之间触觉信息和摄像头采集的视觉信息进行物体分类,提高了分类的鲁棒性和准确率。
附图说明
图1为本发明的基于最近邻算法的视触觉融合的物体分类、属性分类方法流程框图。
具体实施方式
本发明提出的基于视触觉融合的目标属性和类别的识别方法,其流程框图如图1所示,包括以下步骤:
(1)采集作为训练样本物体的视触觉信息:
设定用于精细目标识别的灵巧手的抓取力矩值为F,F=2300-4000N/m,灵巧手手掌的零触觉信号为Z,零触觉的含义是手掌上无物体,灵巧手的非零触觉信号为Y,采集训练样本的视觉图像,将训练样本放到灵巧手的手掌上,监测并采集手掌的触觉信息,当监测到手掌的触觉信息为零触觉信号Z时,继续等待触觉信息,当监测到手掌的触觉信息为非零触觉信号Y时,向灵巧手发送一个抓取指令,使灵巧手抓取训练样本,到达上述设定的力矩值F时停止抓取,实时采集抓取过程中灵巧手的手指的触觉信息,得到一个触觉时间序列;
(2)设训练样本的个数为N,按照训练样本的物体类别和属性,将训练样本分为i类物体、j类属性,每个训练样本的标签为ci *、cj *,其中1≤i≤N、1≤j≤N,重复上述步骤(1),遍历所有的N个训练样本,对每个训练样本抓取,采集触觉信息得到触觉时间序列和视觉图像,得到一个1*N大小的触觉训练样本数据集,数据集的表达式为:
Str=[S1,S2,…,SN]
(3)设测试样本的个数为M,利用上述步骤(1)和步骤(2)的方法,采集每个测试样本的视觉图像,抓取测试样本,得到每个测试样本的触觉时间序列,得到一个1*M大小的触觉测试样本数据集,数据集的表达式为:
Ste=[S1,S2,…,SM]
(4)设触觉训练样本数据集中,触觉时间序列SI的长度为Tn,表达式为:其中1≤I≤N,
触觉测试样本数据集中,触觉时间序列SJ的长度为Tm,表达式为:其中1≤J≤M,
设SI和SJ之间的抓取匹配路径为W,wk=(v,h)k为抓取匹配路径W中的第k个元素,wK是W的最后一个路径,W=w1,w2,...,wK,max(Tm,Tn)≤K≤Tm+Tn-1;
根据上述抓取匹配路径W,按照动态时间规整理论,计算得到时间序列SI和SJ之间的最小匹配路径DTW(SI,SJ)为:
其中,为K个抓取匹配路径之和;
(5)遍历触觉训练样本数据集中的所有触觉时间序列,重复步骤(4),得到触觉测试样本数据集中的一个触觉时间序列SJ与触觉训练样本数据集中的所有触觉时间序列Str之间的最小匹配路径DTW(SJ,Str),1≤J≤M,表达式为:
Str=[S1,S2,…,SN]
DTW(SJ,Str)=[DTW(SJ,S1),DTW(SJ,S2),…,DTW(SJ,SN)]
(6)遍历触觉测试样本数据集中的所有触觉时间序列,重复步骤(5)得到触觉测试样本数据集中的所有触觉时间序列Ste分别与触觉训练样本数据集中的所有触觉时间序列Str的最小匹配路径DTW(Ste,Str),构建一个动态时间规整(DTW)距离矩阵D:
上述距离矩阵D中,D11是Ste中第一个触觉时间序列与Str中第一个触觉时间序列之间的DTW距离,D1N是Ste中第一个触觉时间序列与Str中第N个触觉时间序列之间的DTW距离,DM1是Ste中第M个触觉时间序列与Str中第一个触觉时间序列之间的DTW距离,DMN是Ste中第M个触觉时间序列与Str中第N个触觉时间序列之间的DTW距离;
(7)一般情况下,用于图像处理的协方差描述子(CovD)中,令{fx}x=1,...,q为表征图像的灰度值、梯度、边缘、空间属性等的p维特征向量,其中q为图像像元数量。因此任意一幅图像p×p维的协方差描述子R定义为:
其中,μ是均值特征矢量。
从上述训练样本的视觉图像中提取协方差描述子,得到一个视觉训练样本数据集Rtr,表达式为:Rtr=[R1,R2,…,RN],
从上述测试样本的视觉图像中提取协方差描述子,得到一个视觉测试样本数据集Rte,表达式为:Rte=[R1,R2,…,RM],
采用Log-Euclidean距离dcov(Ro,Rr),1≤o≤N,1≤r≤M,近似度量视觉训练样本数据集Rtr中的任意一个协方差描述子与视觉测试样本数据集Rte中的任意一个协方差描述子之间的差异,表达式为:
dcov(Ro,Rr)=||logm(Ro)-logm(Rr)||F,
其中logm表示对矩阵求对数;
(8)遍历视觉训练样本数据集Rtr中的所有协方差描述子,重复步骤(7),得到视觉测试样本数据集Rte中一个协方差描述子与视觉训练样本数据集Rtr中的所有协方差描述子之间的Log-Euclidean距离d,表达式为:
d=[d1,d2,…dN]
(9)遍历视觉测试样本数据集Rte中的所有协方差描述子,重复步骤(8),得到视觉测试样本数据集中的所有协方差描述子与视觉训练样本数据集中的所有协方差描述子之间的Log-Euclidean距离d,构成Log-Euclidean距离矩阵Dle,表达式为:
上述距离矩阵Dle中,d11是Rte中第一个协方差描述子与Rtr中第一个协方差描述子之间的Log-Euclidean距离,d1N是Rte中第一个协方差描述子与Rtr中第N个协方差描述子之间的Log-Euclidean距离,dM1是Rte中第M个协方差描述子与Rtr中第一个协方差描述子之间的Log-Euclidean距离,dMN是Rte中第M个协方差描述子与Rtr中第N个协方差描述子之间的Log-Euclidean距离;
(10)根据上述步骤(6)得到的动态时间规整(DTW)距离矩阵D和步骤(9)得到的Log-Euclidean距离矩阵Dle,得到第A个测试样本的动态时间规整(DTW)距离A1和Log-Euclidean距离A2,表达式为:
A1=[DA,1,DA,2,…,DA,N]
A2=[dA,1,dA,2,…,dA,N]
分别求出A1和A2中的最小值Da和db,其中1≤a≤N,1≤b≤N,根据最近邻算法(knn),则第a个训练样本的标签ca *即为第A个测试样本的属性,第b个训练样本的标签cb *即为第A个测试样本的类别;
(11)重复步骤(10),得到所有测试样本的属性和类别,完成目标属性和类别的识别。
以下介绍本发明方法的一个实施例:
选择脉动(空瓶)、脉动(满水)、企鹅(毛绒玩具)三个物体作为训练样本,选择加多宝(空瓶)、熊猫(毛绒玩具)两个物体作为测试样本。其中训练样本属性分为:空、满、软,类别分为:瓶子、瓶子、毛绒玩具。
根据上述步骤采集训练样本的触觉信息,得到一个1*3的触觉训练样本数据集,表达式为:Stre=[S1,S2,S3],采集测试样本的触觉信息,得到一个1*2的触觉测试样本数据集,表达式为:Stee=[S1,S2];
根据上述步骤求得Stee中所有触觉时间序列分别与Stre中所有触觉时间序列的DTW距离,组成一个2*3的DTW距离矩阵De,表达式为:
其中D11表示Stee中的第一个触觉信息与Stre中的第一个触觉信息的DTW距离,D21表示Stee中的第二个触觉信息与Stre中的第一个触觉信息的DTW距离。类似地可知道其他元素代表含义。
根据上述步骤采集训练样本的视觉图像,提取视觉图像的协方差描述子R,得到一个1*3的视觉训练样本数据集,表达式为:Rtre=[R1,R2,R3],采集测试样本的视觉图像,提取视觉图像的协方差描述子R,得到一个1*2的视觉测试样本数据集,表达式为:Rtee=[R1,R2];
根据上述步骤求得Rtee中所有协方差描述子分别与Rtre中所有协方差描述子的Log-Euclidean距离,组成一个2*3的Log-Euclidean距离矩阵Dlee,表达式为:
其中d11表示Rtee中的第一个协方差描述子与Rtre中的第一个协方差描述子的Log-Euclidean距离,d21表示Rtee中的第二个协方差描述子与Rtre中的第一个协方差描述子的Log-Euclidean距离。类似地可知道其他元素代表含义。
根据上述步骤求得De中每一行的最小值,这里假设最小值是D11和D23,通过最近邻算法,第一个测试样本的属性就是第一个训练样本的属性:“空”,第二个测试样本的属性就是第三个训练样本的属性:“软”。同理求出Dlee中每一行的最小值,这里假设最小值是d11和d23,通过最近邻算法,第一个测试样本的类别就是第一个训练样本的类别:“瓶子”,第二个测试样本的类别就是第三个训练样本的类别:“毛绒玩具”。
Claims (1)
1.一种基于视触觉融合的目标属性和类别的识别方法,其特征在于,该方法包括以下步骤:
(1)采集作为训练样本物体的视触觉信息:
设定用于精细目标识别的灵巧手的抓取力矩值为F,F=2300-4000N/m,灵巧手手掌的零触觉信号为Z,灵巧手的非零触觉信号为Y,采集训练样本的视觉图像,将训练样本放到灵巧手的手掌上,监测并采集手掌的触觉信息,当监测到手掌的触觉信息为零触觉信号Z时,继续等待触觉信息,当监测到手掌的触觉信息为非零触觉信号Y时,向灵巧手发送一个抓取指令,使灵巧手抓取训练样本,到达上述设定的力矩值F时停止抓取,实时采集抓取过程中灵巧手的手指的触觉信息,得到一个触觉时间序列;
(2)设训练样本的个数为N,按照训练样本的物体类别和属性,将训练样本分为i类物体、j类属性,每个训练样本的标签为ci *、cj *,其中1≤i≤N、1≤j≤N,重复上述步骤(1),遍历所有的N个训练样本,对每个训练样本抓取,采集触觉信息得到触觉时间序列和视觉图像,得到一个1*N大小的触觉训练样本数据集,数据集的表达式为:
Str=[S1,S2,···,SN]
(3)设测试样本的个数为M,利用上述步骤(1)和步骤(2)的方法,采集每个测试样本的视觉图像,抓取测试样本,得到每个测试样本的触觉时间序列,得到一个1*M大小的触觉测试样本数据集,数据集的表达式为:
Ste=[S1,S2,···,SM]
(4)设触觉训练样本数据集中,触觉时间序列SI的长度为Tn,表达式为:其中1≤I≤N,
触觉测试样本数据集中,触觉时间序列SJ的长度为Tm,表达式为:其中1≤J≤M,
设SI和SJ之间的抓取匹配路径为W,wk=(v,h)k为抓取匹配路径W中的第k个元素,wK是W的最后一个路径,W=w1,w2,...,wK,max(Tm,Tn)≤K≤Tm+Tn-1;
根据上述抓取匹配路径W,按照动态时间规整理论,计算得到时间序列SI和SJ之间的最小匹配路径DTW(SI,SJ)为:
其中,为K个抓取匹配路径之和;
(5)遍历触觉训练样本数据集中的所有触觉时间序列,重复步骤(4),得到触觉测试样本数据集中的一个触觉时间序列SJ与触觉训练样本数据集中的所有触觉时间序列Str之间的最小匹配路径DTW(SJ,Str),1≤J≤M,表达式为:
Str=[S1,S2,···,SN]
DTW(SJ,Str)=[DTW(SJ,S1),DTW(SJ,S2),···,DTW(SJ,SN)]
(6)遍历触觉测试样本数据集中的所有触觉时间序列,重复步骤(5)得到触觉测试样本数据集中的所有触觉时间序列Ste分别与触觉训练样本数据集中的所有触觉时间序列Str的最小匹配路径DTW(Ste,Str),构建一个动态时间规整距离矩阵D:
上述距离矩阵D中,D11是Ste中第一个触觉时间序列与Str中第一个触觉时间序列之间的DTW距离,D1N是Ste中第一个触觉时间序列与Str中第N个触觉时间序列之间的DTW距离,DM1是Ste中第M个触觉时间序列与Str中第一个触觉时间序列之间的DTW距离,DMN是Ste中第M个触觉时间序列与Str中第N个触觉时间序列之间的DTW距离;
(7)从上述训练样本的视觉图像中提取协方差描述子,得到一个视觉训练样本数据集Rtr,表达式为:Rtr=[R1,R2,···,RN],
从上述测试样本的视觉图像中提取协方差描述子,得到一个视觉测试样本数据集Rte,表达式为:Rte=[R1,R2,···,RM],
采用Log-Euclidean距离dcov(Ro,Rr),1≤o≤N,1≤r≤M,近似度量视觉训练样本数据集Rtr中的任意一个协方差描述子与视觉测试样本数据集Rte中的任意一个协方差描述子之间的差异,表达式为:
dcov(Ro,Rr)=||logm(Ro)-logm(Rr)||F,
其中logm表示对矩阵求对数;
(8)遍历视觉训练样本数据集Rtr中的所有协方差描述子,重复步骤(7),得到视觉测试样本数据集Rte中一个协方差描述子与视觉训练样本数据集Rtr中的所有协方差描述子之间的Log-Euclidean距离d,表达式为:
d=[d1,d2,···dN]
(9)遍历视觉测试样本数据集Rte中的所有协方差描述子,重复步骤(8),得到视觉测试样本数据集中的所有协方差描述子与视觉训练样本数据集中的所有协方差描述子之间的Log-Euclidean距离d,构成Log-Euclidean距离矩阵Dle,表达式为:
上述距离矩阵Dle中,d11是Rte中第一个协方差描述子与Rtr中第一个协方差描述子之间的Log-Euclidean距离,d1N是Rte中第一个协方差描述子与Rtr中第N个协方差描述子之间的Log-Euclidean距离,dM1是Rte中第M个协方差描述子与Rtr中第一个协方差描述子之间的Log-Euclidean距离,dMN是Rte中第M个协方差描述子与Rtr中第N个协方差描述子之间的Log-Euclidean距离;
(10)根据上述步骤(6)得到的动态时间规整(DTW)距离矩阵D和步骤(9)得到的Log-Euclidean距离矩阵Dle,得到第A个测试样本的动态时间规整(DTW)距离A1和Log-Euclidean距离A2,表达式为:
A1=[DA,1,DA,2,···,DA,N]
A2=[dA,1,dA,2,···,dA,N]
分别求出A1和A2中的最小值Da和db,其中1≤a≤N,1≤b≤N,根据最近邻算法,则第a个训练样本的标签ca *即为第A个测试样本的属性,第b个训练样本的标签cb *即为第A个测试样本的类别;
(11)重复步骤(10),得到所有测试样本的属性和类别,完成目标属性和类别的识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610046789.3A CN105718954B (zh) | 2016-01-22 | 2016-01-22 | 一种基于视触觉融合的目标属性和类别的识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610046789.3A CN105718954B (zh) | 2016-01-22 | 2016-01-22 | 一种基于视触觉融合的目标属性和类别的识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105718954A CN105718954A (zh) | 2016-06-29 |
CN105718954B true CN105718954B (zh) | 2019-03-05 |
Family
ID=56153979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610046789.3A Active CN105718954B (zh) | 2016-01-22 | 2016-01-22 | 一种基于视触觉融合的目标属性和类别的识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105718954B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105956351A (zh) * | 2016-07-05 | 2016-09-21 | 上海航天控制技术研究所 | 一种基于机器学习的触觉信息分类计算建模方法 |
CN106671112B (zh) * | 2016-12-13 | 2018-12-11 | 清华大学 | 一种基于触觉阵列信息的机械手抓取稳定性判断方法 |
CN110861854B (zh) * | 2019-11-29 | 2022-04-08 | 三峡大学 | 智能垃圾分类装置及智能垃圾分类方法 |
CN110861853B (zh) * | 2019-11-29 | 2021-10-19 | 三峡大学 | 视觉与触觉相结合的智能垃圾分类方法 |
CN112388655B (zh) * | 2020-12-04 | 2021-06-04 | 齐鲁工业大学 | 一种基于触觉振动信号与视觉图像融合的抓取物识别方法 |
CN112766349B (zh) * | 2021-01-12 | 2021-08-24 | 齐鲁工业大学 | 一种基于机器视觉与触觉感知的物体描述生成方法 |
CN112809679B (zh) * | 2021-01-25 | 2023-04-07 | 清华大学深圳国际研究生院 | 可形变物体抓取的方法、装置及计算机可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102004925A (zh) * | 2010-11-09 | 2011-04-06 | 无锡中星微电子有限公司 | 物体分类模型的训练方法及利用该模型的识别方法 |
CN105005787A (zh) * | 2015-06-24 | 2015-10-28 | 清华大学 | 一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法 |
-
2016
- 2016-01-22 CN CN201610046789.3A patent/CN105718954B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102004925A (zh) * | 2010-11-09 | 2011-04-06 | 无锡中星微电子有限公司 | 物体分类模型的训练方法及利用该模型的识别方法 |
CN105005787A (zh) * | 2015-06-24 | 2015-10-28 | 清华大学 | 一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法 |
Non-Patent Citations (3)
Title |
---|
Learing Dynamic Tactile Sensing With Robust Vision-Based Training;Oliver Kroemer等;《IEEE TRANSACTIONS ON ROBOTICS》;20111231;第27卷(第3期);第545-557页 |
Object Identification with Tactile Sensors using Bag-of-Features;Alexander Schneider等;《IEEE International Conference on Intelligent Robots and Systems》;20091031;第243-248页 |
基于单目视觉的移动机器人系统目标识别与定位研究;徐敏;《中国优秀硕士学位论文全文数据库》;20151231;第1-68页 |
Also Published As
Publication number | Publication date |
---|---|
CN105718954A (zh) | 2016-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105718954B (zh) | 一种基于视触觉融合的目标属性和类别的识别方法 | |
CN105005787B (zh) | 一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法 | |
CN107808143B (zh) | 基于计算机视觉的动态手势识别方法 | |
Žemgulys et al. | Recognition of basketball referee signals from videos using Histogram of Oriented Gradients (HOG) and Support Vector Machine (SVM) | |
CN104408405B (zh) | 人脸表示和相似度计算方法 | |
CN105335725B (zh) | 一种基于特征融合的步态识别身份认证方法 | |
CN103325122B (zh) | 基于双向排序的行人检索方法 | |
CN105975934B (zh) | 一种用于增强现实辅助维修的动态手势识别方法及系统 | |
CN109597485B (zh) | 一种基于双指角域特征的手势交互系统及其工作方法 | |
CN109829467A (zh) | 图像标注方法、电子装置及非暂态电脑可读取储存媒体 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN104239902B (zh) | 基于非局部相似性和稀疏编码的高光谱图像分类方法 | |
CN101930549B (zh) | 基于第二代曲线波变换的静态人体检测方法 | |
CN103186775A (zh) | 基于混合描述子的人体运动识别方法 | |
CN106671112B (zh) | 一种基于触觉阵列信息的机械手抓取稳定性判断方法 | |
CN102509085A (zh) | 基于轮廓不变矩特征的猪行走姿态识别系统和方法 | |
CN110929687B (zh) | 一种基于关键点检测的多人行为识别系统及工作方法 | |
CN103971106A (zh) | 多视角人脸图像性别识别方法及装置 | |
CN110414446A (zh) | 机器人的操作指令序列生成方法及装置 | |
CN108932712A (zh) | 一种转子绕组质量检测系统及方法 | |
Iscimen et al. | Smart robot arm motion using computer vision | |
CN103310193B (zh) | 一种记录体操视频中运动员重要技术动作时刻的方法 | |
CN111126143A (zh) | 一种基于深度学习的运动评判指导方法及系统 | |
CN106529470A (zh) | 一种基于多级深度卷积神经网络的手势识别方法 | |
CN104598898B (zh) | 一种基于多任务拓扑学习的航拍图像快速识别系统及其快速识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |