CN116572254B - 一种机器人仿人多手指联合触觉感知方法、系统和设备 - Google Patents
一种机器人仿人多手指联合触觉感知方法、系统和设备 Download PDFInfo
- Publication number
- CN116572254B CN116572254B CN202310829132.4A CN202310829132A CN116572254B CN 116572254 B CN116572254 B CN 116572254B CN 202310829132 A CN202310829132 A CN 202310829132A CN 116572254 B CN116572254 B CN 116572254B
- Authority
- CN
- China
- Prior art keywords
- finger
- fingers
- sample
- matrix
- carrying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000012549 training Methods 0.000 claims abstract description 27
- 239000013598 vector Substances 0.000 claims abstract description 25
- 238000005070 sampling Methods 0.000 claims abstract description 8
- 230000007246 mechanism Effects 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 26
- 238000012360 testing method Methods 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 11
- 230000035807 sensation Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 6
- 238000012804 iterative process Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 238000002372 labelling Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000011002 quantification Methods 0.000 claims description 2
- 238000009827 uniform distribution Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000002759 z-score normalization Methods 0.000 description 2
- 241000764238 Isis Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000011423 initialization method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1607—Calculation of inertia, jacobian matrixes and inverses
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Automation & Control Theory (AREA)
- Bioinformatics & Computational Biology (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Fuzzy Systems (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种机器人仿人多手指联合触觉感知方法、系统和设备,方法为:使用多指机械手爪对不同类物体抓取试验,采样触觉多维信息获得多维时间序列并标记物体类别;对标签样本增强处理;对增强样本集每个样本各个手指的多维时间序列进行特征提取并拼接,得到不同手指对应的特征向量;使用增强样本集中各样本不同手指对应的特征向量为输入,对应物体类别标记为输出,分别训练手指对应的B‑ELM网络作为分类器;对于多指机械手爪中未知分类的物体,根据采样时间序列提取各手指对应的特征向量并输入对应的分类器中,最终使用软投票机制对各分类器的输出进行决策,确定多指机械手爪中的物体类别。本发明具有较好的分类准确率和较强的鲁棒性。
Description
技术领域
本发明涉及信号分类技术领域,具体涉及一种机器人多手指联合触觉感知,提出了一种基于BOSS的时间序列特征提取与多B-ELM分类器相结合的机器人仿人多手指联合触觉感知方法、系统和设备。
背景技术
随着智能化和自动化技术的不断发展,智能机器人的使用逐渐普遍。而机器人对于环境的感知能力,成为了该技术发展与革新的一个关键问题。目前机器人主要依赖传感器对外界环境进行感知,而在传感器技术中,力/触觉传感器因其高精度、高灵敏度、广泛适用性和安全性等特点受到了广泛关注。
力/触觉信息属于时间序列信号,其特征提取是一个至关重要的问题,其目的就是将高维度、复杂的力/触觉数据转化为低维度、简单的特征向量,从而更好地进行分类、聚类和挖掘等任务。传统的力/触觉信息分类方法通常基于先验知识,需要进行大量的手动特征提取和算法优化,其分类精度和鲁棒性都较低。近年来流行的深度学习方法也因计算资源昂贵、模型复杂以及不可解释强等方面存在相应弊端。
发明内容
基于现有技术中传统分类方法需要进行大量的特征工程和算法优化的问题以及深度学习方法中需要大量的训练数据和计算资源等问题,本发明提供一种机器人仿人多手指联合触觉感知方法、系统和设备,提高感知分类的准确率。
为实现上述技术目的,本发明采用如下技术方案:
一种机器人仿人多手指联合触觉感知方法,包括:
步骤1,使用多指机械手爪对不同类物体进行抓取试验,对试验过程中各手指上的触觉传感器返回的触觉多维信息进行采样获得多维时间序列,并对各时间序列进行物体类别标记;
步骤2,对步骤1的标签样本进行增强处理,获得增强样本集;
步骤3,对增强样本集中的每个样本,通过窗口划分、SFA变换以及直方图统计操作,对样本中各个手指的多维时间序列进行特征提取并拼接,得到不同手指对应的特征向量;
步骤4,使用增强样本集中的所有样本中不同手指对应的特征向量作为输入,样本对应的物体类别标记作为输出,分别训练手指对应的B-ELM网络作为分类器;
步骤5,对于多指机械手爪中未知分类的物体,从多指机械手爪各手指的触觉传感器返回的触觉信息进行采样获得时间序列,提取各手指对应的特征向量并输入对应的分类器中,最终使用软投票机制对各分类器的输出进行决策,确定多指机械手爪中的物体类别。
进一步地,步骤2中的增强处理,包括以下任意一种或多种操作方式:添加高斯噪声(Jitter)、乘以随机因子(Scaling)、幅值扭曲(Magnitude Warping)、时间扭曲(TimeWarping)、窗口裁剪(Cropping)。
进一步地,步骤3中对每个样本每个时间序列进行特征提取的具体过程为:
步骤3-1,对每个时间序列,使用长度为的窗口划分
子序列,得到子序列集合:
;
其中,为第个时间序列的时间步数,N为样本数量,为
划分得到的个子序列,任意第个子序列为:
步骤3-2,采用SFA方法将各子序列按照字符串目标长度和字符表转换成对应的字符串;
步骤3-3,使用直方图统计每个时间序列对应包括每种字符串的数量,得到每个时间序列对应的特征向量。
进一步地,步骤3-2具体过程为:
(1)近似:对每个子序列进行DTF变换,取前个频率分量对各自子序列进行近
似得到傅里叶系数矩阵;其中任意第个频率分量为;对所有N个时间序列的第个子序列集合并行操作,
得到傅里叶系数矩阵为:
;
式中,为傅里叶系数矩阵中的第列,;为字符串目标长度;
(2)量化:将矩阵每一列都按照从小到大的原则排序得到新排序的矩阵;通过等深分箱的方法(数据量与箱数可整除时,每两个断点中的数据
量相同;不可整除时向下取整,剩余量按顺序逐一分给前面的箱子,每一个箱子中的数字映
射为同一字母)获得各列矩阵的个断点,每相邻两个
断点之间区间分别映射到字符表中的个字符;将新排序的矩阵中第行第列元素,
根据其在所在列的断点区间进行字母映射,即:
式中,和表示第列相邻的第个断点,为字母表
中的第个字母;为元素映射得到的字母。之后将该字母放置对应的字符矩阵,其在
字符矩阵中的位置同排序前的位置,则每个子序列对应得到包括个字符的字符串。
进一步地,在经步骤3-2得到个子序列对应的个字符串后,对相
邻的字符串进行比较,若相同则删除其中1个字符串,直到每相邻两个字符串均不同,再执
行步骤3-3的字符串数量统计。
进一步地,窗口长度、字符串目标长度以及字符表的字符个数的确定方法为:
将、、共同作为超参数并设置搜索范围和搜索次数,循环执行步骤3-5,以测试集在步骤5
的最终决策准确率最大化为目标进行超参数搜索,确定最终的窗口长度、字符串目标长度以及字符表的字符个数。
进一步地,设某个手指经步骤3提取得到的特征向量与对应标签为,则步骤4对该手指对应B-ELM网络进行训练的方法为:
首先设置B-ELM网络的隐藏节点数,最大迭代次数,期望误差,初
始误差矩阵;
然后开始迭代:,并做判断获取新增节点对应的权值与偏置:
;
其中:表示均匀分布,和分别是sigmoid函数与Min-Max归一化函数,和表示对应逆函数,表示输入的广义逆矩阵,是方差,是误差反馈矩阵且:
上式中是第个节点对应的输出权值且:
而隐藏节点的输出矩阵可以表示为:
最后更新误差矩阵;当训练误差达到期望误差以下或迭代次
数达到时,循环终止,保留迭代过程中每个隐藏节点的权值与偏置,形成网络隐藏
层的权值与偏置,并根据ELM相关理论根据获得网络最终的输出权值,其中是网络隐藏层输出的广义逆矩阵,;否则继续迭代训练。
本发明结合块增量ELM的初始化方法,将B-ELM的初始隐藏层数设置为非0(初始节点的权值与偏置均为随机采样),以减少迭代次数和训练时间,进而提高训练速度。为了获得最佳性能,在训练中通过对测试集进行评估,将迭代过程中测试集准确率最高时的模型保存并用于后续集成决策。
进一步地,步骤5使用软投票机制对各分类器的输出进行决策表示为:
式中,为手指数,为手指索引,为物体类别数,为第个手指对应的分类器
的输出,为第个手指对应分类器输出所有类物体类别的概率,最终通过
最大概率原则,选择中数值最大的数对应的物体类别作为决策得到的类别标签。
一种机器人仿人多手指联合触觉感知系统,包括:
样本获取与标记模块,用于:使用多指机械手爪对不同类物体进行抓取试验,对试验过程中各手指上的触觉传感器返回的触觉多维信息进行采样获得多维时间序列,并对各时间序列进行物体类别标记;
样本增强模块,用于:标签样本进行增强处理,获得增强样本集;
特征向量提取模块,用于:对增强样本集中的每个样本,通过窗口划分、SFA变换以及直方图统计操作,对样本中各个手指的多维时间序列进行特征提取并拼接,得到不同手指对应的特征向量;
分类器训练模块,用于:以增强样本集中的所有样本中不同手指对应的特征向量作为输入,以样本对应的物体类别标记作为输出,分别训练手指对应的B-ELM网络作为分类器;
物体类别决策模块,用于:使用软投票机制对各分类器的输出进行决策,确定多指机械手爪中的物体类别。
一种电子设备,包括存储器及处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器实现上述任一项所述的机器人仿人多手指联合触觉感知方法。
有益效果
本发明可以自动地从多指机械手爪的原始力/触觉信号中提取特征并对抓取物体进行快速分类,避免了传统分类方法中需要进行大量的特征工程和算法优化的问题以及深度学习方法中需要大量的训练数据和计算资源等问题,相比现有技术而言具有更好的分类准确率和较强的鲁棒性。
附图说明
图1为本发明实施例所述方法的流程图;
图2为本发明实施例单指基于BOSS特征提取模块与B-ELM分类模块训练示意图;
图3为本发明实施例多指力/触觉信息分类的集成决策示意图;
图4为本发明实施例中三维力的数据增强展示图,其中4(a)为原样本集,4(b)为增强样本集;
图5为本发明实施例基于BOSS特征提取的效果图,其中5(a)为时间序列样本,5(b)为时间序列窗口划分示意图,5(c)是每个子序列提取得到的字符串,5(d)为直方图统计结果;
图6为本发明实施例添加0均值、不同标准差的高斯噪声后的分类准确率。
具体实施方式
下面对本发明的实施例作详细说明,本实施例以本发明的技术方案为依据开展,给出了详细的实施方式和具体的操作过程,对本发明的技术方案作进一步解释说明。
本发明实施例提供一种机器人仿人多手指联合触觉感知方法,参考图1-3所示,包括以下步骤:
步骤1:实施例中将力/触觉传感器安装在三爪机器手的三个手指上,通过抓取挤压物体,得到了试验过程中手指的三维力、力的二范数以及手指位置信息,因此样本的每个手指有5个时间序列特征,步长为50。其中被抓取物体有19类,包括手爪空放,一共20类物体标签数据。每一类数据有100个样本,共2000个样本,原始数据集形状为(3, 2000, 50, 5)。另有存在一个小型数据集,包含120个样本,代表真实世界数据,用于对模型进行验证。
步骤2:采用Z-Score标准化对样本中各个时间序列进行预处理,然后通过(1)乘以均值为1、标准差为0.1的随机因子(Scaling)和(2)时间扭曲(Time Warping)得到增强数据。
时间扭曲是通过从均值为1、标准差为0.2的正态分布中选择时间比例因子,并在每个时间序列上通过插值的方法进行拉伸或压缩,导致时间间隔被平滑扭曲,某些时间步上的信号发生移动。图4为某次试验传感器的三维力信息以及数据增强后的结果。每个样本增强4次,包括原始样本共得到10000个数据样本,因此增强后的样本集形状为(3, 10000,50, 5 )。实施例中分别对原始样本集和增强后的样本集进行学习与分类决策说明该方法的有效性,并通过增加均值为0,标准差不同的高斯噪声来验证模型的鲁棒性。原始样本集和增强样本集均按照8:2划分训练集、测试集。
步骤3:通过BOSS模型对多指力/触觉信息进行特征提取。
实施例中由于时间序列步长较少,根据经验和参数搜索结果,确定了BOSS模型的
相关参数分别为:窗口长度,字符长度,字母表的大小。即依次并行截取集
合中所有序列连续的24个实值作为窗口,通过SFA变换将其压缩并量化为对应长度为4,字
母类别数不超过3的字符串(例如),因此至多有种字符串,即每个时间序列经
特征提取后的特征向量大小不超过。
提取过程中为了避免过度提取信号平稳区域的特征,应用了数据块消减(numerosity reduction),即当上一个窗口与本次窗口提取得到的字符串相同时,本次窗口结果不参与直方图统计。例如,当连续窗口经过上述变换后得到的字符串依次为
应用数据块消减后得到:
因此直方图统计结果为
例如对图5(a)所示的时间序列,按图5(b)进行子序列划分,所有子序列对应得到图5(c)所示的子符串,最终统计得到图5(d)所示的字符串直方图。
步骤4:每个B-ELM的最大迭代次数250(即B-ELM最多有250个隐藏节点),初始隐藏
节点数50,期望误差。
通过步骤3操作后,将三个手指训练集的特征向量分别输入到对应的B-ELM分类器进行训练,训练中隐藏节点数从0开始递增,迭代次数达到250或训练误差到期望误差以下时停止训练,并保留训练过程中对应测试集准确率最大时的模型最为单指训练的最终模型。
步骤5:完成网络训练后,通过图3的多指分类的集成决策方法对测试集进行测试,得到模型的分类预测结果,并计算分类准确率。
步骤6:对窗口长度,字符串长度以及字母表的大小进行超参数搜索,设置
搜索范围如表1所示,搜索次数为150,循环执行步骤3、步骤4和步骤5,搜索目的在于集成分
类决策得到的测试集准确率最高。
按照上述方法完成实验后,进行了十次交叉验证,得到的结果对比数据集来源论文中相关模型的验证集分类准确率,结果如表2:
可以看到该分类方法在本实施例的准确率上并不输于神经网络和深度学习模型。同时,为了验证该方法的鲁棒性,在原始样本集和增强样本集进行Z-score归一化后,对每个时间序列随机增加均值为0,标准差不同的高斯噪声并进行十次交叉验证,实验得到的平均结果如图6所示。可以看到,在信号严重变形(30%的噪声干扰)的情况下,该方法仍然保持着不低于50%的分类准确率,证实了本发明在基于多指力/触觉信息的物体分类问题上具有较好的鲁棒性。
以上实施例为本申请的优选实施例,本领域的普通技术人员还可以在此基础上进行各种变换或改进,在不脱离本申请总的构思的前提下,这些变换或改进都应当属于本申请要求保护的范围之内。
Claims (10)
1.一种机器人仿人多手指联合触觉感知方法,其特征在于,包括:
步骤1,使用多指机械手爪对不同类物体进行抓取试验,对试验过程中各手指上的触觉传感器返回的触觉多维信息进行采样获得多维时间序列,并对各时间序列进行物体类别标记;
步骤2,对步骤1的标签样本进行增强处理,获得增强样本集;
步骤3,对增强样本集中的每个样本,通过窗口划分、SFA变换以及直方图统计操作,对样本中各个手指的多维时间序列进行特征提取并拼接,得到不同手指对应的特征向量;
步骤4,使用增强样本集中的所有样本中不同手指对应的特征向量作为输入,样本对应的物体类别标记作为输出,分别训练手指对应的B-ELM网络作为分类器;
步骤5,对于多指机械手爪中未知分类的物体,从多指机械手爪各手指的触觉传感器返回的触觉信息进行采样获得时间序列,提取各手指对应的特征向量并输入对应的分类器中,最终使用软投票机制对各分类器的输出进行决策,确定多指机械手爪中的物体类别。
2.根据权利要求1所述的机器人仿人多手指联合触觉感知方法,其特征在于,步骤2中的增强处理,包括以下任意一种或多种操作方式:添加高斯噪声、乘以随机因子、幅值扭曲、时间扭曲、窗口裁剪。
3.根据权利要求1所述的机器人仿人多手指联合触觉感知方法,其特征在于,步骤3中对每个样本每个时间序列进行特征提取的具体过程为:
步骤3-1,对每个时间序列,使用长度为/>的窗口划分子序列,得到子序列集合/>:
;
其中,为第/>个时间序列/>的时间步数,N为样本数量,/>为划分得到的/>个子序列,任意第/>个子序列为:
;
步骤3-2,采用SFA方法将各子序列按照字符串目标长度和字符表转换成对应的字符串;
步骤3-3,使用直方图统计每个时间序列对应包括每种字符串的数量,得到每个时间序列对应的特征向量。
4.根据权利要求3所述的机器人仿人多手指联合触觉感知方法,其特征在于,步骤3-2具体过程为:
(1)近似:对每个子序列进行DTF变换,取前/>个频率分量对各自子序列进行近似得到傅里叶系数矩阵/>;其中任意第/>个频率分量为;对所有N个时间序列的第/>个子序列集合并行操作,得到傅里叶系数矩阵/>为:
;
式中,为傅里叶系数矩阵/>中的第/>列,/>;/>为字符串目标长度;
(2)量化:将矩阵的每一列都按照从小到大的原则排序得到新排序的矩阵;通过等深分箱的方法获得各列矩阵/>的/>个断点,每相邻两个断点之间区间分别映射到字符表中的/>个字符;将新排序的矩阵/>中第/>行第/>列元素/>,根据其在所在列的断点区间进行字母映射,即:
;
式中,和/>表示第/>列相邻的第/>个断点,/>为字母表/>中的第/>个字母;/>为元素/>映射得到的字母;之后将该字母放置对应的字符矩阵,其在字符矩阵中的位置同/>排序前的位置,则每个子序列对应得到包括/>个字符的字符串。
5.根据权利要求3所述的机器人仿人多手指联合触觉感知方法,其特征在于,在经步骤3-2得到个子序列对应的/>个字符串后,对相邻的字符串进行比较,若相同则删除其中1个字符串,直到每相邻两个字符串均不同,再执行步骤3-3的字符串数量统计。
6.根据权利要求3所述的机器人仿人多手指联合触觉感知方法,其特征在于,窗口长度、字符串目标长度/>以及字符表的字符个数/>的确定方法为:将/>、/>、/>共同作为超参数并设置搜索范围和搜索次数,循环执行步骤3-5,以测试集在步骤5的最终决策准确率最大化为目标进行超参数搜索,确定最终的窗口长度/>、字符串目标长度/>以及字符表的字符个数/>。
7.根据权利要求1所述的机器人仿人多手指联合触觉感知方法,其特征在于,设某个手指经步骤3提取得到的特征向量与对应标签为,则步骤4对该手指对应B-ELM网络进行训练的方法为:
首先设置B-ELM网络的隐藏节点数,最大迭代次数/>,期望误差/>,初始误差矩阵/>;
然后开始迭代:,并做判断获取新增节点对应的权值/>与偏置/>:
;
其中:表示均匀分布,/>和/>分别是sigmoid函数与Min-Max归一化函数,/>和/>表示对应逆函数,/>表示输入的广义逆矩阵,/>是方差,/>是误差反馈矩阵且:
;
上式中是第/>个节点对应的输出权值且:
;
而隐藏节点的输出矩阵可以表示为:
;
最后更新误差矩阵;当训练误差/>达到期望误差以下或迭代次数达到/>时,循环终止,保留迭代过程中每个隐藏节点的权值与偏置,形成网络隐藏层的权值/>与偏置/>,并根据ELM相关理论根据/>获得网络最终的输出权值/>,其中/>是网络隐藏层输出/>的广义逆矩阵,/>;否则继续迭代训练。
8.根据权利要求1所述的机器人仿人多手指联合触觉感知方法,其特征在于,步骤5使用软投票机制对各分类器的输出进行决策表示为:
;
式中,为手指数,/>为手指索引,/>为物体类别数,/>为第/>个手指对应的分类器的输出,/>为第/>个手指对应分类器输出所有/>类物体类别的概率,最终通过最大概率原则,选择/>中数值最大的数对应的物体类别作为决策得到的类别标签。
9.一种机器人仿人多手指联合触觉感知系统,其特征在于,包括:
样本获取与标记模块,用于:使用多指机械手爪对不同类物体进行抓取试验,对试验过程中各手指上的触觉传感器返回的触觉多维信息进行采样获得多维时间序列,并对各时间序列进行物体类别标记;
样本增强模块,用于:标签样本进行增强处理,获得增强样本集;
特征向量提取模块,用于:对增强样本集中的每个样本,通过窗口划分、SFA变换以及直方图统计操作,对样本中各个手指的多维时间序列进行特征提取并拼接,得到不同手指对应的特征向量;
分类器训练模块,用于:以增强样本集中的所有样本中不同手指对应的特征向量作为输入,以样本对应的物体类别标记作为输出,分别训练手指对应的B-ELM网络作为分类器;
物体类别决策模块,用于:使用软投票机制对各分类器的输出进行决策,确定多指机械手爪中的物体类别。
10.一种电子设备,包括存储器及处理器,所述存储器中存储有计算机程序,其特征在于,所述计算机程序被所述处理器执行时,使得所述处理器实现如权利要求1~8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310829132.4A CN116572254B (zh) | 2023-07-07 | 2023-07-07 | 一种机器人仿人多手指联合触觉感知方法、系统和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310829132.4A CN116572254B (zh) | 2023-07-07 | 2023-07-07 | 一种机器人仿人多手指联合触觉感知方法、系统和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116572254A CN116572254A (zh) | 2023-08-11 |
CN116572254B true CN116572254B (zh) | 2023-09-08 |
Family
ID=87536132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310829132.4A Active CN116572254B (zh) | 2023-07-07 | 2023-07-07 | 一种机器人仿人多手指联合触觉感知方法、系统和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116572254B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117325150A (zh) * | 2023-09-01 | 2024-01-02 | 哈尔滨工业大学 | 基于域间自适应的无力传感器刚软手指多点接触检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110170994A (zh) * | 2019-04-29 | 2019-08-27 | 清华大学 | 一种用于机械手抓取任务的触觉伺服控制方法 |
CN111461003A (zh) * | 2020-03-31 | 2020-07-28 | 湖南大学 | 基于视频图像序列特征提取的燃煤工况识别方法 |
WO2021256999A1 (en) * | 2020-06-15 | 2021-12-23 | National University Of Singapore | Event-driven visual-tactile sensing and learning for robots |
CN115302518A (zh) * | 2022-09-23 | 2022-11-08 | 中国科学院自动化研究所 | 主从式机器人的控制方法、装置、电子设备及存储介质 |
CN115618261A (zh) * | 2022-09-22 | 2023-01-17 | 国网江苏省电力有限公司南京供电分公司 | 一种基于nca与ssa-kelm的光伏接入配电网漏电识别方法 |
CN115994337A (zh) * | 2023-03-24 | 2023-04-21 | 北京科技大学 | 一种带钢热连轧非平稳过程微小故障检测方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11794350B2 (en) * | 2020-10-22 | 2023-10-24 | Mitsubishi Electric Research Laboratories, Inc. | Interactive tactile perception method for classification and recognition of object instances |
-
2023
- 2023-07-07 CN CN202310829132.4A patent/CN116572254B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110170994A (zh) * | 2019-04-29 | 2019-08-27 | 清华大学 | 一种用于机械手抓取任务的触觉伺服控制方法 |
CN111461003A (zh) * | 2020-03-31 | 2020-07-28 | 湖南大学 | 基于视频图像序列特征提取的燃煤工况识别方法 |
WO2021256999A1 (en) * | 2020-06-15 | 2021-12-23 | National University Of Singapore | Event-driven visual-tactile sensing and learning for robots |
CN115618261A (zh) * | 2022-09-22 | 2023-01-17 | 国网江苏省电力有限公司南京供电分公司 | 一种基于nca与ssa-kelm的光伏接入配电网漏电识别方法 |
CN115302518A (zh) * | 2022-09-23 | 2022-11-08 | 中国科学院自动化研究所 | 主从式机器人的控制方法、装置、电子设备及存储介质 |
CN115994337A (zh) * | 2023-03-24 | 2023-04-21 | 北京科技大学 | 一种带钢热连轧非平稳过程微小故障检测方法及装置 |
Non-Patent Citations (1)
Title |
---|
基于区间的时间序列分类算法的研究;李建平;王兴伟;马连博;黄敏;;网络空间安全(08);第84-101页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116572254A (zh) | 2023-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107122375B (zh) | 基于图像特征的图像主体的识别方法 | |
CN110826338B (zh) | 一种单选择门与类间度量的细粒度语义相似识别的方法 | |
CN116572254B (zh) | 一种机器人仿人多手指联合触觉感知方法、系统和设备 | |
CN111368920A (zh) | 基于量子孪生神经网络的二分类方法及其人脸识别方法 | |
JP7178513B2 (ja) | ディープラーニングに基づく中国語単語分割方法、装置、記憶媒体及びコンピュータ機器 | |
CN112231477A (zh) | 一种基于改进胶囊网络的文本分类方法 | |
CN111143567B (zh) | 一种基于改进神经网络的评论情感分析方法 | |
CN106033426A (zh) | 一种基于潜在语义最小哈希的图像检索方法 | |
CN111144548A (zh) | 抽油机井工况的识别方法及装置 | |
CN111125411A (zh) | 一种深度强相关哈希学习的大规模图像检索方法 | |
CN113392191B (zh) | 一种基于多维度语义联合学习的文本匹配方法和装置 | |
CN107357895B (zh) | 一种基于词袋模型的文本表示的处理方法 | |
CN110968697A (zh) | 文本分类方法、装置、设备及可读存储介质 | |
CN113691542A (zh) | 基于HTTP请求文本的Web攻击检测方法及相关设备 | |
CN110619045A (zh) | 一种基于卷积神经网络和自注意力的文本分类模型 | |
CN115374845A (zh) | 商品信息推理方法和装置 | |
CN111353032B (zh) | 面向社区问答的问题分类方法及系统 | |
CN108549915B (zh) | 基于二值权重的图像哈希码训练模型算法及分类学习方法 | |
CN106815209B (zh) | 一种维吾尔文农业技术术语识别方法 | |
CN113283519A (zh) | 一种基于离散系数的深度神经网络近似模型分析方法 | |
CN113806543A (zh) | 一种基于残差跳跃连接的门控循环单元的文本分类方法 | |
CN113255752A (zh) | 基于特征聚类的固体材料一致性分选方法 | |
CN113849645B (zh) | 邮件分类模型训练方法、装置、设备及存储介质 | |
CN113190681B (zh) | 一种基于胶囊网络遮罩记忆注意力的细粒度文本分类方法 | |
CN109902720A (zh) | 基于子空间分解进行深度特征估计的图像分类识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |