CN105005787B - 一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法 - Google Patents
一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法 Download PDFInfo
- Publication number
- CN105005787B CN105005787B CN201510354646.4A CN201510354646A CN105005787B CN 105005787 B CN105005787 B CN 105005787B CN 201510354646 A CN201510354646 A CN 201510354646A CN 105005787 B CN105005787 B CN 105005787B
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- msup
- tactile
- training sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
Abstract
本发明涉及一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法,属于材质分类技术领域,该方法包括:1)采集作为训练样本的物体的触觉信息:2)按照训练样本材质的不同,将训练样本分为i类,对每个训练样本抓取,采集触觉信息得到触觉时间序列,建立训练样本数据集;3)根据得到的训练样本数据集,提取训练样本的特征,建立触觉序列字典Φ(D);4)对需要进行分类的测试样本物体进行抓取,得到测试样本的触觉时间序列,将得到的每个测试样本触觉时间序列对其材质进行分类,得到测试样本的类别;5)对于所有测试样本遍历上述步骤4),得到每个测试样本的材质的类别。本发明在联合稀疏编码方法的基础上实现基于触觉信息的材质分类,提高了分类的鲁棒性和准确率。
Description
技术领域
本发明属于材质分类技术领域,特别涉及一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法。
背景技术
BH8系列的BarrettHand灵巧手是一个可编程的多手指抓持器,它具有非常高的灵活性,可以抓取不同形状、大小及姿态的目标物体。该灵巧手由三个手指F1、F2、F3和一个手掌S四个触觉传感器组成,每个传感器分别包含24个触觉阵列,可抓取物体并采集所抓取物体的触觉信息得到触觉时间序列。
在现有的物体类型识别技术中,包括有多种不同方式的物体类型识别技术,例如:基于启发式规则方式的物体类型识别技术,多采用物体的形状、大小、比例等简单信息对提取的前景物体进行分析,得到物体的类型,但是这种方法比较简单,效果差且抗干扰能力差。然而,基于灵巧手触觉的物体材质分类从一个新的角度对物体进行分类,得到鲁棒的效果。
经对现有的技术文献检索分析,发现邓亚峰等人的发明专利“物体分类模型的训练方法及利用该模型的识别方法,申请号为201010536354.X”中揭露了一种物体分类模型的基于图像的训练方法,此发明对提取的前景物体区域进行主轴归一化变换;同时,采用块匹配技术对不同帧图像上的前景物体区域进行对齐处理,提取的前景物体区域中有效的物体前景区域作为最终前景物体区域,从而实现物体分类。但该方法只是提取物体不同帧图像作为分类特征,未将类似方法应用在触觉信息上。
发明内容
本发明的目的是为克服已有技术的不足之处,提出一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法,本发明在联合稀疏编码方法的基础上实现基于触觉信息的材质分类,提高了分类的鲁棒性和准确率。
本发明提出的一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法,其特征在于,该方法包括以下步骤:
1)采集作为训练样本的物体的触觉信息:
设定灵巧手抓取力矩值F为2300-4000N/m,非零触觉信号为Y,零触觉信号为Z;将作为训练样本的物体放到灵巧手手掌S上,手掌S实时监测并采集掌心的触觉信息,当监测到手掌的零触觉信号Z时,继续等待监测掌心信号,当监测到掌心的非零触觉信号Y时,传送抓取指令给灵巧手,灵巧手延时1-2秒,对训练样本的物体进行抓取,到达设定的力矩值F时停止,抓取过程实时采集物体触觉信息得到触觉时间序列;
2)设训练样本物体的个数为N,按照训练样本材质的不同,将训练样本分为i类,每类训练样本的标签为ci *,其中1≤i≤N,重复步骤1),遍历所有的N个训练样本,对每个训练样本抓取,采集触觉信息得到触觉时间序列,建立1*N大小的训练样本数据集;
3)根据步骤2)得到的训练样本数据集,提取训练样本的特征,建立触觉序列字典Φ(D);
4)重复上述步骤1),对需要进行分类的测试样本物体进行抓取,得到测试样本的触觉时间序列,在上述步骤3)得到的触觉序列字典Φ(D)的基础上,对测试样本进行材质分类,得到测试样本的材质类别;
5)对于所有测试样本遍历上述步骤4),直到将所有测试样本的材质进行分类,得到每个测试样本的材质的类别。
本发明提出的基于灵巧手触觉信息的联合稀疏编码的材质分类方法,具有以下优点:
1、本发明提出的基于灵巧手触觉信息的联合稀疏编码的材质分类方法,利用灵巧手采集到的物体触觉信息进行训练和测试,实现物体的材质分类。
2、本发明的分类方法,在稀疏编码的基础上联合灵巧手三个手指之间触觉信息进行物体分类,提高了分类的鲁棒性和准确率。
附图说明
图1为本发明的基于灵巧手触觉信息的联合稀疏编码的材质分类方法流程框图。
图2为本发明的基于灵巧手触觉信息的联合稀疏编码的材质分类方法装置组成示意图。
具体实施方式
本发明提出的一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法结合附图及实施例详细说明如下:
本发明提出的一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法流程如图1所示,该方法包括以下步骤:
1)采集作为训练样本的物体的触觉信息:
设定灵巧手抓取力矩值F为2300-4000N/m,非零触觉信号为Y,零触觉信号为Z;将作为训练样本的物体放到灵巧手手掌S上,手掌S实时监测并采集掌心的触觉信息,当监测到手掌的零触觉信号Z时,继续等待监测掌心信号,当监测到掌心的非零触觉信号Y时,传送抓取指令给灵巧手,灵巧手延时1-2秒,对训练样本的物体进行抓取,到达设定的力矩值F时停止,抓取过程实时采集物体触觉信息得到触觉时间序列;(采集数据过程中由于每次抓取的时间稍有不同,所以每次抓取的触觉时间序列长度T不相同);
2)设训练样本物体的个数为N,按照训练样本材质的不同,将训练样本分为i类,每类训练样本的标签为ci *,其中1≤i≤N,重复步骤1),遍历所有的N个训练样本,对每个训练样本抓取,采集触觉信息得到触觉时间序列,建立1*N大小的训练样本数据集;
3)根据步骤2)得到的训练样本数据集,提取训练样本的特征,建立触觉序列字典Φ(D),具体过程如下:
(3-1)设训练样本中两个长度分别为Ti和Tj的触觉时间序列为Si和Sj:
设Si和Sj之间的抓取匹配路径为W,wk=(i,j)k为抓取匹配路径W的第k个元素,wK是W的最后一个路径,W=w1,w2,...,wK max(Ti,Tj)≤K≤Ti+Tj-1;
(3-2)根据步骤(3-1)得到的Si和Sj之间抓取匹配路径W,按照动态时间规整理(DTW)论计算得到时间序列Si和Sj之间的最小匹配路径DTW(Si,Sj):
其中,为K个抓取匹配路径之和;
(3-3)利用步骤(3-2)得到的最小匹配路径DTW(Si,Sj),构造时间序列Si和Sj核函数K(Si,Sj):
K(Si,Sj)=exp(-γ2DTW(Si,Sj)) (4)
其中,γ为调整的常量参数;
(3-4)两个时间序列Si和Sj之间基于DTW核的匹配功能定义为K(Si,Sj)=ΦT(Si)Φ(Sj),其中从P低维空间到H高维空间的非线性变换为Φ(·):P→H,ΦT(Si)为Φ(Sj)的转置;
(3-5)提取步骤(3-4)N个训练样本的高维线性变换Φ(·):P→H,每个训练样本H维的空间特性组合成为匹配矩阵Φ(D)的列向量:
Φ(D)=[Φ(S1) Φ(S2) … Φ(SN)] (5)
(3-6)利用步骤(3-5)得到的训练样本的匹配矩阵Φ(D)通过稀疏编码理论及残差最小原则,将λ和步骤(6-3)中的γ调整到最优,得到触觉序列字典Φ(D):,其中Y为训练样本中的任意一个样本,x为Y相对于字典Φ(D)的稀疏表达,||x||1为稀疏表达x的1范数,λ为惩罚参数;
4)重复上述步骤1),对需要进行分类的测试样本物体进行抓取,得到测试样本的触觉时间序列,在上述步骤3)得到的触觉序列字典Φ(D)的基础上,将得到的每个测试样本触觉时间序列对其材质进行分类,得到测试样本的类别,具体过程如下:
(4-1)灵巧手包含3个手指,如图2所示,单个手指(F1或F2或F3)得到的测试样本的时间序列S,由训练样本中与S相近的类线性表示,由稀疏编码的定义得到每个测试样本的表达式:
其中,Φ(S)为测试样本的高维空间匹配项,Φ(D)为训练样本得到的匹配矩阵,的二范数,||x||1为x的1范数,x为系数矢量,λ为惩罚参数;测试样本的重构误差为:
其中,K(S,D)=[K(S,S1) K(S,S2) … K(S,SN)]T,K(D,D)是个N×N的方阵,第i行,j列的元素为K(Si,Sj);因此将稀疏编码的定义得到每个测试样本的表达公式(6)重新定义为:
通过凸优化得到稀疏系数x,测试样本S通过残差rc=-2KT(S,Dc)x+xTK(Dc,Dc)x来进行分类;
(4-2)灵巧手包含3个手指,则第m个手指采集序列对应的字典为Φ(D(m)),测试样本序列表达式为S={S(1),S(2),S(3)},其中由第m个手指得到的序列为m=1,2,3。根据上述步骤(4-1)相似的原理得到3个手指信息的联合稀疏编码表示:
其中,x(m)为第m个手指的稀疏编码矢量,X=[x(1) x(2) x(3)]∈RN×3,L21范数为X每个列向量2范数的和;
(4-3)利用CVX凸优化工具求解步骤(4-2)中的稀疏系数x(m);
(4-4)利用步骤(4-3)得到的x(m),根据稀疏编码理论,测试样本S(m)的残差计算为:
其中,为第m个手指提取的触觉序列字典中第c类的特征,Φ(S(m))T为Φ(S(m))的转置;
(4-5)利用步骤(4-4)得到的残差计算M个手指的残差和rc:
其中,m=1,2,…M;
(4-6)利用步骤(4-5)得到的残差和rc来判别测试样本的类别c*,测试样本的类别由最小的重构误差对应的样本的类别决定,因此
5)对于所有测试样本遍历上述步骤4),直到将所有测试样本的材质进行分类,得到每个测试样本的材质的类别。
Claims (3)
1.一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法,其特征在于,该方法包括以下步骤:
1)采集作为训练样本的物体的触觉信息:
设定灵巧手抓取力矩值F为2300-4000N/m,非零触觉信号为n,零触觉信号为Z;将作为训练样本的物体放到灵巧手手掌s上,手掌s实时监测并采集掌心的触觉信息,当监测到手掌的零触觉信号Z时,继续等待监测掌心信号,当监测到掌心的非零触觉信号n时,传送抓取指令给灵巧手,灵巧手延时1-2秒,对训练样本的物体进行抓取,到达设定的力矩值F时停止,抓取过程实时采集物体触觉信息得到触觉时间序列;
2)设训练样本物体的个数为N,按照训练样本材质的不同,将训练样本分为i类,每类训练样本的标签为ci *,其中1≤i≤N,重复步骤1),遍历所有的N个训练样本,对每个训练样本抓取,采集触觉信息得到触觉时间序列,建立1*N大小的训练样本数据集;
3)根据步骤2)得到的训练样本数据集,提取训练样本的特征,建立触觉序列字典Φ(D);
4)重复上述步骤1),对需要进行分类的测试样本物体进行抓取,得到测试样本的触觉时间序列,在上述步骤3)得到的触觉序列字典Φ(D)的基础上,对测试样本进行材质分类,得到测试样本的材质类别;
5)对于所有测试样本遍历上述步骤4),直到将所有测试样本的材质进行分类,得到每个测试样本的材质的类别。
2.如权利要求1所述方法,其特征在于,所述步骤3)具体过程如下:
(3-1)设训练样本中两个长度分别为Ti和Tj的触觉时间序列为Si和Sj:
<mrow>
<msub>
<mi>S</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mo>&lsqb;</mo>
<msub>
<mi>S</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>S</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mn>2</mn>
</mrow>
</msub>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<msub>
<mi>S</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<msub>
<mi>T</mi>
<mi>i</mi>
</msub>
</mrow>
</msub>
<mo>&rsqb;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mo>&lsqb;</mo>
<msub>
<mi>S</mi>
<mrow>
<mi>j</mi>
<mo>,</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>S</mi>
<mrow>
<mi>j</mi>
<mo>,</mo>
<mn>2</mn>
</mrow>
</msub>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<msub>
<mi>S</mi>
<mrow>
<mi>j</mi>
<mo>,</mo>
<msub>
<mi>T</mi>
<mi>j</mi>
</msub>
</mrow>
</msub>
<mo>&rsqb;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
设Si和Sj之间的抓取匹配路径为W,wk=(i,j)k为抓取匹配路径W的第k个元素,wK是W的最后一个路径,W=w1,w2,...,wK,max(Ti,Tj)≤K≤Ti+Tj-1;
(3-2)根据步骤(3-1)得到的Si和Sj之间抓取匹配路径W,按照动态时间规整理论计算得到时间序列Si和Sj之间的最小匹配路径DTW(Si,Sj):
<mrow>
<mi>D</mi>
<mi>T</mi>
<mi>W</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>S</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>S</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
<msqrt>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</msubsup>
<msub>
<mi>w</mi>
<mi>k</mi>
</msub>
</mrow>
</msqrt>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,为K个抓取匹配路径之和;
(3-3)利用步骤(3-2)得到的最小匹配路径DTW(Si,Sj),构造时间序列Si和Sj核函数K(Si,Sj):
K(Si,Sj)=exp(-γ2DTW(Si,Sj)) (4)
其中,γ为调整的常量参数;
(3-4)两个时间序列Si和Sj之间基于DTW核的匹配功能定义为K(Si,Sj)=ΦT(Si)Φ(Sj),其中从P低维空间到H高维空间的非线性变换为Φ(·):P→H,ΦT(Si)为Φ(Si)的转置;
(3-5)提取步骤(3-4)N个训练样本的高维非线性变换Φ(·):P→H,每个训练样本H维的空间特性组合成为触觉序列字典Φ(D)的列向量:
Φ(D)=[Φ(S1) Φ(S2) … Φ(SN)] (5)
(3-6)利用步骤(3-5)得到的训练样本的触觉序列字典Φ(D)通过稀疏编码理论及残差最小原则,将λ和步骤(3-3)中的γ调整到最优,得到触觉序列字典Φ(D),其中Y为训练样本中的任意一个样本,x为Y相对于触觉序列字典Φ(D)的稀疏系数矢量,||x||1为稀疏系数矢量x的1范数,λ为惩罚参数。
3.如权利要求2所述方法,其特征在于,所述步骤4)具体过程如下:
(4-1)灵巧手包含3个手指,单个手指F1或F2或F3得到的测试样本的时间序列S,由训练样本中与S相近的类线性表示,由稀疏编码的定义得到每个测试样本的表达式:
<mrow>
<mtable>
<mtr>
<mtd>
<munder>
<mrow>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
<mi>x</mi>
</munder>
</mtd>
<mtd>
<mrow>
<mo>|</mo>
<mo>|</mo>
<mi>&Phi;</mi>
<mrow>
<mo>(</mo>
<mi>S</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>&Phi;</mi>
<mrow>
<mo>(</mo>
<mi>D</mi>
<mo>)</mo>
</mrow>
<mi>x</mi>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mi>&lambda;</mi>
<mo>|</mo>
<mo>|</mo>
<mi>x</mi>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>1</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,Φ(S)为测试样本的高维空间匹配项,Φ(D)为训练样本的触觉序列字典,
的二范数,||x||1为x的1范数,x为稀疏系数矢量,λ为惩罚参数;测试样本的重构误差为:
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>t</mi>
<mi>r</mi>
<mi>a</mi>
<mi>c</mi>
<mi>e</mi>
<mo>{</mo>
<msup>
<mrow>
<mo>(</mo>
<mi>&Phi;</mi>
<mo>(</mo>
<mi>S</mi>
<mo>)</mo>
<mo>-</mo>
<mi>&Phi;</mi>
<mo>(</mo>
<mi>D</mi>
<mo>)</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mrow>
<mo>(</mo>
<mi>&Phi;</mi>
<mo>(</mo>
<mi>S</mi>
<mo>)</mo>
<mo>-</mo>
<mi>&Phi;</mi>
<mo>(</mo>
<mi>D</mi>
<mo>)</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>}</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mi>t</mi>
<mi>r</mi>
<mi>a</mi>
<mi>c</mi>
<mi>e</mi>
<mo>{</mo>
<mi>K</mi>
<mrow>
<mo>(</mo>
<mi>S</mi>
<mo>,</mo>
<mi>S</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mn>2</mn>
<msup>
<mi>K</mi>
<mi>T</mi>
</msup>
<mrow>
<mo>(</mo>
<mi>S</mi>
<mo>,</mo>
<mi>D</mi>
<mo>)</mo>
</mrow>
<mi>x</mi>
<mo>+</mo>
<msup>
<mi>x</mi>
<mi>T</mi>
</msup>
<mi>K</mi>
<mrow>
<mo>(</mo>
<mi>D</mi>
<mo>,</mo>
<mi>D</mi>
<mo>)</mo>
</mrow>
<mi>x</mi>
<mo>}</mo>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,K(S,D)=[K(S,S1) K(S,S2) … K(S,SN)]T,K(D,D)是个N×N的方阵,第i行,j列的元素为K(Si,Sj);因此将稀疏编码的定义得到每个测试样本的表达公式(6)重新定义为:
<mrow>
<mtable>
<mtr>
<mtd>
<munder>
<mrow>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
<mi>x</mi>
</munder>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>2</mn>
<msup>
<mi>K</mi>
<mi>T</mi>
</msup>
<mrow>
<mo>(</mo>
<mi>S</mi>
<mo>,</mo>
<mi>D</mi>
<mo>)</mo>
</mrow>
<mi>x</mi>
<mo>+</mo>
<msup>
<mi>x</mi>
<mi>T</mi>
</msup>
<mi>K</mi>
<mrow>
<mo>(</mo>
<mi>D</mi>
<mo>,</mo>
<mi>D</mi>
<mo>)</mo>
</mrow>
<mi>x</mi>
<mo>+</mo>
<mi>&lambda;</mi>
<mo>|</mo>
<mo>|</mo>
<mi>x</mi>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>1</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
通过凸优化得到稀疏系数矢量x,测试样本时间序列S通过残差rc=-2KT(S,Dc)x+xTK(Dc,Dc)x来进行分类;
(4-2)灵巧手包含3个手指,则第m个手指采集序列对应的字典为Φ(D(m)),测试样本时间序列表达式为S={S(1),S(2),S(3)},其中由第m个手指得到的时间序列为m=1,2,3;根据上述步骤(4-1)中表达公式(6)的定义得到3个手指信息的联合稀疏编码表示:
<mrow>
<mtable>
<mtr>
<mtd>
<munder>
<mrow>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
<mi>x</mi>
</munder>
</mtd>
<mtd>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>3</mn>
</munderover>
<mo>|</mo>
<mo>|</mo>
<mi>&Phi;</mi>
<mrow>
<mo>(</mo>
<msup>
<mi>S</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>&Phi;</mi>
<mrow>
<mo>(</mo>
<msup>
<mi>D</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>)</mo>
</mrow>
<msup>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mi>&lambda;</mi>
<mo>|</mo>
<mo>|</mo>
<mi>X</mi>
<mo>|</mo>
<msub>
<mo>|</mo>
<mrow>
<mn>2</mn>
<mo>,</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>9</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,x(m)为第m个手指的稀疏系数矢量,X=[x(1) x(2) x(3)]∈RN×3,||X||2,1为X每个列向量2范数的和;
(4-3)利用CVX凸优化工具求解步骤(4-2)中的稀疏系数矢量x(m);
(4-4)利用步骤(4-3)得到的x(m),根据稀疏编码理论,第m个手指得到的时间序列S(m)的残差计算为:
<mrow>
<msubsup>
<mi>r</mi>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<mo>-</mo>
<mn>2</mn>
<msup>
<mi>K</mi>
<mi>T</mi>
</msup>
<mrow>
<mo>(</mo>
<msup>
<mi>S</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>,</mo>
<msubsup>
<mi>D</mi>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<msup>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>+</mo>
<msup>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
<mi>T</mi>
</mrow>
</msup>
<mi>K</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>D</mi>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>D</mi>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<msup>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>10</mn>
<mo>)</mo>
</mrow>
</mrow>
其中, 为第m个手指提取的触觉序列字典中第c类的特征,Φ(S(m))T为Φ(S(m))的转置;
(4-5)利用步骤(4-4)得到的残差计算M个手指的残差和rc:
<mrow>
<msub>
<mi>r</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<msubsup>
<mi>r</mi>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>11</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,m=1,2,3;
(4-6)利用步骤(4-5)得到的残差和rc来判别测试样本的类别c*,测试样本的类别由最小的重构误差对应的样本的类别决定,因此
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510354646.4A CN105005787B (zh) | 2015-06-24 | 2015-06-24 | 一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510354646.4A CN105005787B (zh) | 2015-06-24 | 2015-06-24 | 一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105005787A CN105005787A (zh) | 2015-10-28 |
CN105005787B true CN105005787B (zh) | 2018-05-29 |
Family
ID=54378452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510354646.4A Active CN105005787B (zh) | 2015-06-24 | 2015-06-24 | 一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105005787B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106671112A (zh) * | 2016-12-13 | 2017-05-17 | 清华大学 | 一种基于触觉阵列信息的机械手抓取稳定性判断方法 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105718884B (zh) * | 2016-01-20 | 2019-06-25 | 浙江大学 | 一种基于多指机械手触感信息特征提取的物件分类方法 |
CN105718954B (zh) * | 2016-01-22 | 2019-03-05 | 清华大学 | 一种基于视触觉融合的目标属性和类别的识别方法 |
CN105956351A (zh) * | 2016-07-05 | 2016-09-21 | 上海航天控制技术研究所 | 一种基于机器学习的触觉信息分类计算建模方法 |
CN106295703B (zh) * | 2016-08-15 | 2022-03-25 | 清华大学 | 一种对时间序列进行建模并识别的方法 |
CN107169117B (zh) * | 2017-05-25 | 2020-11-10 | 西安工业大学 | 一种基于自动编码器和dtw的手绘图人体运动检索方法 |
CN107116554B (zh) * | 2017-05-25 | 2021-05-04 | 北京理工大学 | 一种仿生灵巧手确定目标物体形状和位置的装置与方法 |
CN109710058A (zh) * | 2018-11-27 | 2019-05-03 | 南京恩诺网络科技有限公司 | 触觉信息录制方法及装置、系统 |
CN110170994B (zh) * | 2019-04-29 | 2020-10-27 | 清华大学 | 一种用于机械手抓取任务的触觉伺服控制方法 |
CN111421536B (zh) * | 2020-03-13 | 2021-07-09 | 清华大学 | 一种基于触觉信息的摇杆操作控制方法 |
CN111590611B (zh) * | 2020-05-25 | 2022-12-02 | 北京具身智能科技有限公司 | 一种基于多模态主动感知的物品分类回收方法 |
CN112668609A (zh) * | 2020-12-07 | 2021-04-16 | 深圳先进技术研究院 | 一种基于核方法的触觉模态识别方法 |
CN113780460A (zh) * | 2021-09-18 | 2021-12-10 | 广东人工智能与先进计算研究院 | 一种材质识别方法、装置、机器人、电子设备及存储介质 |
CN115519579A (zh) * | 2022-10-24 | 2022-12-27 | 深圳先进技术研究院 | 一种基于三元组对比网络的机器人抓取预测方法 |
CN116652971A (zh) * | 2023-07-31 | 2023-08-29 | 江苏云幕智造科技有限公司 | 一种不同刚度物体识别与机械手抓取力控制方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009521165A (ja) * | 2005-12-22 | 2009-05-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | バレンタイン用の枕状物体 |
CN100583007C (zh) * | 2006-12-21 | 2010-01-20 | 财团法人工业技术研究院 | 具有表面显示信息与互动功能的可动装置 |
-
2015
- 2015-06-24 CN CN201510354646.4A patent/CN105005787B/zh active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106671112A (zh) * | 2016-12-13 | 2017-05-17 | 清华大学 | 一种基于触觉阵列信息的机械手抓取稳定性判断方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105005787A (zh) | 2015-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105005787B (zh) | 一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法 | |
CN105718954B (zh) | 一种基于视触觉融合的目标属性和类别的识别方法 | |
CN104281855B (zh) | 基于多任务低秩的高光谱图像分类方法 | |
CN107808143A (zh) | 基于计算机视觉的动态手势识别方法 | |
CN110490080B (zh) | 一种基于图像的人体跌倒判别方法 | |
CN102938070B (zh) | 一种基于动作子空间与权重化行为识别模型的行为识别方法 | |
CN106682697A (zh) | 一种基于卷积神经网络的端到端物体检测方法 | |
CN107742095A (zh) | 基于卷积神经网络的汉语手语识别方法 | |
Agrawal et al. | Recognition of Indian Sign Language using feature fusion | |
CN101354608A (zh) | 一种视频输入实现方法及系统 | |
CN107122752A (zh) | 一种人体动作比对方法及装置 | |
CN101794396A (zh) | 基于迁移网络学习的遥感图像目标识别系统及方法 | |
CN111985621A (zh) | 口罩佩戴实时检测的神经网络模型的搭建方法及实施系统 | |
CN101930549B (zh) | 基于第二代曲线波变换的静态人体检测方法 | |
CN103186775A (zh) | 基于混合描述子的人体运动识别方法 | |
CN105139041A (zh) | 基于图像的语种识别方法及装置 | |
CN104376326A (zh) | 一种用于图像场景识别的特征提取方法 | |
Zhang et al. | Training quality-aware filters for no-reference image quality assessment | |
CN104298977A (zh) | 一种基于不相关性约束的低秩表示人体行为识别方法 | |
CN104156690B (zh) | 一种基于图像空间金字塔特征包的手势识别方法 | |
WO2021129236A1 (zh) | 一种采用一维卷积神经网络的声学垃圾分类方法 | |
CN106778714B (zh) | 基于非线性特征和模型合并的lda人脸识别方法 | |
CN112926453A (zh) | 基于运动特征增强和长时时序建模的考场作弊行为分析方法 | |
Li et al. | Dating ancient paintings of Mogao Grottoes using deeply learnt visual codes | |
Akiyama et al. | Mobile Leaf Identification System using CNN applied to plants in Hokkaido |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |