CN114700947A - 基于视触融合的机器人及其抓取系统和方法 - Google Patents

基于视触融合的机器人及其抓取系统和方法 Download PDF

Info

Publication number
CN114700947A
CN114700947A CN202210417868.6A CN202210417868A CN114700947A CN 114700947 A CN114700947 A CN 114700947A CN 202210417868 A CN202210417868 A CN 202210417868A CN 114700947 A CN114700947 A CN 114700947A
Authority
CN
China
Prior art keywords
robot
visual
grabbing
fusion
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210417868.6A
Other languages
English (en)
Inventor
李智军
廖朴金
李国欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202210417868.6A priority Critical patent/CN114700947A/zh
Publication of CN114700947A publication Critical patent/CN114700947A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于视触融合的机器人及其抓取系统和方法,机器人系统包含多自由度的机械臂与多自由度的机械手本体,同时有安装在机器手上的视觉相机和触觉传感器,用于获得两个模态的信息。视觉与触觉感知融合算法利用采集的视觉信息获取目标物体的外部轮廓信息,触觉信息获取目标物体的表面形貌与质地软硬等信息,通过预处理后利用卷积神经网络提取视觉信息的特征和触觉信息的特征,两个模态特征信息融合之后获得的新的特征用于预测物体抓取过程中的滑动概率。通过滑动概率实时调整机器手与物体的接触面积和物体表面的受力大小,在整个过程中保证机器手总以合适的力对物体进行稳定抓取。

Description

基于视触融合的机器人及其抓取系统和方法
技术领域
本发明涉及多模态融合和机器人抓取的技术领域,具体地,涉及基于视触融合的机器人及其抓取系统和方法,尤其涉及一种基于视触融合的机器人抓取系统及方法。
背景技术
随着人工智能技术的发展,智能机器人也开始逐步进入大众视野。一直以来,人们都希望机器人能真正的像人一样能和环境进行交互,因此,机器人的对外界环境的感知就成了智能机器人领域的热点问题。近几年来,得益于计算机视觉和自然语言技术的飞速发展,机器人在处理视觉,听觉和文本信息这几类问题都取得了很大的进步。目标检测,人脸识别,语音导航等任务在已经在机器人得到了充分地运用。但是,在机器人触觉领域,目前的研究确少之又少,一方面是因为触觉信息在整个机器人对外界环境的感知中只占了比较少的一部分,触觉信息在大部分机器人的操作中并不是必须的,另一方面也和触觉信息自身数据结构有关,传统的触觉传感器大部分是采用电信号作为输出,这使得整个机器人操作的过程中不便于处理。
作为机器人末端操作的关键性问题,机器人抓取任务就和机器人触觉感知密切相关。最开始的机器人抓取任务中,对于物体的抓取完全是通过固定的指令控制机器人手末端,以固定的方式抓取物体。但是这种方式很明显忽略了抓取过程中物体的状态信息和物体本身的材质信息,由于不同物体材质不同,有的物体材质坚硬,有的物体材质柔软,如果在抓取的时候都采用相同的力,可能会导致物体损坏,并且,物体在被抓取的过程中,其是否滑动是我们最为关注的,利用物体在抓取过程中的是否滑动的状态信息对机器手末端进行控制,能够保证整个过程抓取过程的稳定性。随着机器人感知技术的发展,触觉信息开始被用于机器人抓取任务之中,用于感知抓取过程中机器手和物体之间的压力变化,但之前的触觉传感器大都是压电传感器,压电传感器通过感受接触面的形变将压力信号转变为电信号,通过电信号进一步对机器手末端进行控制。但电信号的在抓取过程中的处理需要经过一系列的转换,这对控制机器手进行实时的调整又是不利的。
最近几年,多模态融合技术在迅速发。不同模态信息之间存在着信息的互补,在各种任务中利用不同模态信息相互融合,可能会取得比单独利用某个模态信息更好的效果。由此自然想到将视觉信息引入机器人抓取任务中,视觉模态提供抓取过程中物体外部整体图像信息,触觉模态提供抓取过程中机器人和物体接触面的局部信息,进一步通过神经网络实现两个模态信息的融合,利用融合的信息实现机器人对物体的稳定抓取。
在公开号为CN113696186A的专利文献中公开了复杂的环境条件下,基于视触融合的机械臂自主移动抓取方法,主要包括对目标位置的趋近控制和对环境信息的反馈控制。可见光与深度图像基于深度网络完成对目标的识别定位,并调整移动机械不断趋近目标物体;根据传感器模块与外界环境及目标物体的接触力信息,调整机械臂位姿;同时选取目标物体的最佳位姿与合适的抓取力大小,有效防止了机械臂的碰撞损害与失稳,并且减少了被抓物体的严重形变。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于视触融合的机器人及其抓取系统和方法。
根据本发明提供的一种基于视触融合的机器人抓取系统,包括:机器人灵巧手平台,触觉传感器,外部视觉相机,内部计算单元;
所述机器人灵巧手平台与所述触觉传感器和所述外部视觉相机相连接;所述触觉传感器和所述外部视觉相机获取视觉信息和触觉信息,所述视觉信息和所述触觉信息相融合并进入内部计算单元,预测出机器人灵巧手平台抓取过程中物体滑动的概率。
优选地,所述机器人灵巧手平台包括机器人机械臂和机械灵巧手,所述机械灵巧手安装在所述机器人机械臂的末端,对物体进行抓取。
优选地,所述机器人机械臂的自由度至少为6个,所述机械灵巧手的自由度至少为3个。
优选地,所述外部视觉相机包括usb外部摄像机,所述usb外部摄像机安装在机器人机械臂末端和机械灵巧手的上方,所述usb外部摄像机获取视觉信息,并通过usb端口将视觉信息送入内部计算单元。
优选地,所述触觉传感器黄与机械灵巧手的内侧,所述触觉传感器采用基于光学信号的触觉传感器,基于光学信号的触觉传感器直接输出阵列信息,利用卷积神经网络提取特征。
本发明还提供一种基于视触融合的机器人抓取方法,所述方法应用上述中的基于视触融合的机器人抓取系统,所述方法包括如下步骤:
步骤S1:获取网络训练数据;
步骤S2:训练网络数据;
步骤S3:利用抓取过程中物体的滑动概率进行反馈控制。
优选地,所述步骤S1中的整个网络模型首先需要通过训练,训练数据来自于多次抓取实验,通过在多个常见物体进行多次抓取实验,usb外部摄像机和触觉传感器分别获得抓取过程重点的视觉图像和触觉图像,手动标记抓取过程中物体的状态信息,获得整个网络的训练数据。
优选地,所述步骤S2由步骤S1获取的视觉图像和触觉图像经过预处理之后分别送入卷积神经网络提取图像特征,预处理先要将图像的归一化,之后通过随机翻转,平移等数据增强操作,最后需要将图像裁剪到网络指定的输入大小,采用Transformer作为融合特征的训练网络,在Transformer网络之后,经过一个全连接层,全连接层的输出通过softmax函数,预测输出物体滑动的概率。
优选地,所述步骤S3在抓取过程中,usb外部摄像机获得视觉图像和触觉传感器获得的触觉图像分别送入步骤S2所训练好的模型之中,得到当下物体滑动的概率,以该概率作为控制信号,调整末端灵巧手对物体的抓握的控制。
本发明还提供一种机器人,所述机器人使用上述中的基于视触融合的机器人抓取系统。
与现有技术相比,本发明具有如下的有益效果:
1、本发明在抓取过程中,引入视觉图像信息作为辅助,通过视觉和触觉信息的融合,比传统指利用触觉信息的机器人抓取更加准确;
2、本发明对物体抓取过程中物体滑动概率的预测采用了深度神经网络端到端的方式,不需要对于触觉模态信息进行大量的处理,更加简单高效;
3、本发明神经网络对于信息处理更快,通过神经网络预测抓取过程中物体的滑动概率,进而控制机器人灵巧手的抓握姿态,提高了整个机器人抓取的过程的实时性。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明的系统示意图;
图2为本发明的主要装置安装示意图;
图3为本发明的预测滑动概率的算法流程图;
图4为本发明采用的VGG-16网络结构图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
针对现有的机器人抓取过程中的缺陷,本发明的目的是提供一种基于视触融合的机器人及其抓取系统和方法,用于实现机器人灵活高效的抓取。如图1所示,该机器人系统的主要部分有机器人灵巧手平台,触觉传感器,外部视觉相机,内部计算单元。机器人灵巧手平台包括机器人机械臂和机械灵巧手、外部视觉相机包括usb外部摄像机。
该方法是在抓机器人抓取过程中,视觉信息和触觉信息融合之后的产生的特征信息被送入神经网络,预测出抓取过程中物体滑动的概率。其中,视觉信息是由安装在机器人灵巧手上的usb外部摄像机获得,触觉信息由安装在机器人灵巧手内测的触觉传感器获得。
机器人机械臂要求的自由度至少为6个,可以采用市面上常见的具有六自由度的消费级别的UR5机械臂。机械灵巧手要求的自由度至少为3个,可以采用具有六自由度灵巧手Eagle Shoal。其中,机械灵巧手安装在所述机器人机器臂的末端,可以实现日常大部分常见物体的抓取。
usb外部摄像机安装在机器人机械臂末端和机械灵巧手的上方,在抓取过程中,可以实时拍摄所抓取物体的图像,然后通过usb端口将图像送入计算单元,外部视觉相机可以直接采用能够获取视觉图像的普通网络摄像机。
触觉传感器安装于机械灵巧手的内侧,用于获得物体抓取过程中的接触点的各种信息。需要特别指出的是,在本发明中采用的触觉传感器是基于光学特性的触觉传感器,通过感受接触物体表面的形变输出高分辨率的触觉图像。该触觉图像和视觉图像数据结构相似,都是数字矩阵,因此可以利用卷积神经网络进行处理,提取触觉信息特征,基于光学信号的触觉传感器可以直接输出阵列信息,方便之后利用卷积神经网络提取特征。目前,该类触觉传感器包括但不限于GelSight传感器,OmniTact传感器等,触觉传感器采用基于光学信号的Gel Sight传感器。Gel Sight触觉传感器通过感受接触物体表面的形变直接输出光学阵列信息,使得触觉模态信息与视觉模态信息有相同的结构形式,更加容易处理。
本发明实施例还公开了一种基于视触融合的机器人抓取方法,主要过程在于,视觉相机获取视觉图像和触觉传感器获得的触觉图像分别送入卷积神经网络提取特征,两个模态的特征信息融合之后送入Transfomer网络,预测输出当前的状态,即滑动的概率,根据滑动的概率对灵巧手和机械臂进行控制,实现机器人对于物体的稳定性抓取。
模型建立:
自行进行多次抓取实验,同时记录抓取过程中视觉相机的图像信息I和触觉传感器的触觉信息T,并且观察抓取过程中物体的状态并且做好标注。将获取到图像信息先进行一定的预处理。预处理先要将图像的归一化,之后通过随机翻转,平移等数据增强操作,最后需要将图像裁剪到网络指定的输入大小,并且将图像信息I和触觉信息T分别放入与训练好的卷积神经网络(如VGG,ResNet,GoogleNet等)提取特征,得到特征Feauter1和Feature2。所获得的两个特征进行特征融合,之后再一起作为新的输入送入Transformer网络。通过训练,网络可以预测出当前物体滑动的一个概率。将网络预测的物体滑动概率用作反馈控制信号输入到机械灵巧手,机械手通过改变手指相应的抓握力度和与物体的接触面积,实时地对抓取过程进行调整,从而使得物体抓取过程稳定。
具体来说,整个过程有以下步骤:
步骤S1:获取网络训练数据。整个网络模型首先需要通过训练才能用于实际运用,训练数据来自于多次抓取实验。通过在多个常见物体进行多次抓取实验,usb外部摄像机和触觉传感器分别获得抓取过程重点的视觉图像和触觉图像,同时,手动标记抓取过程中物体的状态信息。从而获得整个网络的训练数据。特别地,抓取过程中物体的状态有成功抓到物体并且过程中有滑动,但物体没有掉落;成功抓到物体但过程中物体掉落;没有抓到物体。将对应的状态运用独热编码,作为训练数据的标签。
步骤S2:训练网络数据。由步骤S1获取的视觉图像和触觉图像经过预处理之后分别送入卷积神经网络提取图像特征。预处理先要将图像的归一化,之后通过随机翻转,平移等数据增强操作,最后需要将图像裁剪到网络指定的输入大小。在本实施例中,采用的卷积神经网络包括但不限于预训练好的提取图像特征的卷积神经网络,比如VGG-16,ResNet,Dense Net等。在本实施例中,采用VGG-16网络作为特征提取网络。VGG-16网络由13个卷积层和3个全连接层组成,每个卷积层中采用3x3的卷积核,第2,第4,第7,第10和第13个卷积层之后都由一个池化层,用于减小特征图的大小,之后连续三层为全连接层,最后一层为softmax函数的输出层。具体实施过程中,摒弃VGG-16最后的输出层和所有全连接层,其他网络层全部保留用于提取视觉图像和触觉图像的特征,将提取的视觉特征和触觉特征分别记为Fimg和Ftac,之后将两个特征进行特征融合,获得融合特征向量Fmix。即融合的特征向量用下面的公式表示:
Figure BDA0003606675850000061
特别的,本发明网络结构中的特征融合(上述等式中的
Figure BDA0003606675850000062
)指的特征向量的连接,即直接将触觉特征向量连接到视觉特征向量特征之上,形成新的融合特征向量。
由于整个抓取过程为一个时序过程,一般处理时序序列问题都会采用LSTM网络,即长短时记忆模型。本发明提出的方法采用Transformer网络替代LSTM网络。Transformer是2017年提出的可用于处理时序系列问题的网络模型,与LSTM模型相比,Transformer主要的特点是运用了自我注意力机制来捕捉全局的上下文关系,从而建立对于远距离的依赖,以此来提取更强有力的特征。并且,由于Transformer的对于时间片t的计算并不依赖t-1时刻的计算,其每个时刻的计算都运用了全局的信息,因此,Transformer具有更高的模型并行能力,比LSTM模型的速度更快,因此,采用Transformer作为融合特征的训练网络。在Transformer网络之后,会再经过一个全连接层,全连接层的输出通过softmax函数,就能预测输出物体滑动的概率。
步骤S3:利用抓取过程中物体的滑动概率进行反馈控制。抓取过程中,usb外部摄像机获得视觉图像和触觉传感器获得的触觉图像分别送入步骤S2所训练好的模型之中,得到当下物体滑动的概率。以该概率作为控制信号,调整末端灵巧手对物体的抓握的控制。灵巧手对物体的控制可以通过控制灵巧手与物体的接触面积和灵巧手指的弯曲程度实现。从最简单的角度出发,可以设计一个滑动阈值,当输出的概率大于该滑动阈值时,认为物体即将滑落,需要增大机械灵巧手与物体的接触面积或者灵巧手的握力,从而可以在抓取过程实现物体实时的稳定性抓取。
本发明的装置包括由机械臂和灵巧手组成的机器人灵巧手平台,usb网络相机,基于光学信号的触觉传感器以及用于深度神经网络模型的计算单元。本发明把视觉信息引入机器人抓取过程中,利用深度神经网络对视觉模态信息和触觉模态信息进行融合,端到端的预测输出物体的滑动概率,进而实时对机器人末端的灵巧手进行控制,实现灵活高效稳定的抓取。
本发明还提供一种机器人,所述机器人使用上述中的基于视触融合的机器人抓取系统。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统及其各个装置、模块、单元以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统及其各个装置、模块、单元以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同功能。所以,本发明提供的系统及其各项装置、模块、单元可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置、模块、单元也可以视为硬件部件内的结构;也可以将用于实现各种功能的装置、模块、单元视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (10)

1.一种基于视触融合的机器人抓取系统,其特征在于,包括:机器人灵巧手平台,触觉传感器,外部视觉相机,内部计算单元;
所述机器人灵巧手平台与所述触觉传感器和所述外部视觉相机相连接;所述触觉传感器和所述外部视觉相机获取视觉信息和触觉信息,所述视觉信息和所述触觉信息相融合并进入内部计算单元,预测出机器人灵巧手平台抓取过程中物体滑动的概率。
2.根据权利要求1所述的基于视触融合的机器人抓取系统,其特征在于,所述机器人灵巧手平台包括机器人机械臂和机械灵巧手,所述机械灵巧手安装在所述机器人机械臂的末端,对物体进行抓取。
3.根据权利要求2所述的基于视触融合的机器人抓取系统,其特征在于,所述机器人机械臂的自由度至少为6个,所述机械灵巧手的自由度至少为3个。
4.根据权利要求1所述的基于视触融合的机器人抓取系统,其特征在于,所述外部视觉相机包括usb外部摄像机,所述usb外部摄像机安装在机器人机械臂末端和机械灵巧手的上方,所述usb外部摄像机获取视觉信息,并通过usb端口将视觉信息送入内部计算单元。
5.根据权利要求1所述的基于视触融合的机器人抓取系统,其特征在于,所述触觉传感器黄与机械灵巧手的内侧,所述触觉传感器采用基于光学信号的触觉传感器,基于光学信号的触觉传感器直接输出阵列信息,利用卷积神经网络提取特征。
6.一种基于视触融合的机器人抓取方法,其特征在于,所述方法应用如权利要求1-5任一项所述的基于视触融合的机器人抓取系统,所述方法包括如下步骤:
步骤S1:获取网络训练数据;
步骤S2:训练网络数据;
步骤S3:利用抓取过程中物体的滑动概率进行反馈控制。
7.根据权利要求6所述的基于视触融合的机器人抓取方法,其特征在于,所述步骤S1中的整个网络模型首先需要通过训练,训练数据来自于多次抓取实验,通过在多个常见物体进行多次抓取实验,usb外部摄像机和触觉传感器分别获得抓取过程重点的视觉图像和触觉图像,手动标记抓取过程中物体的状态信息,获得整个网络的训练数据。
8.根据权利要求6所述的基于视触融合的机器人抓取方法,其特征在于,所述步骤S2由步骤S1获取的视觉图像和触觉图像经过预处理之后分别送入卷积神经网络提取图像特征,预处理先要将图像的归一化,之后通过随机翻转,平移等数据增强操作,最后需要将图像裁剪到网络指定的输入大小,采用Transformer作为融合特征的训练网络,在Transformer网络之后,经过一个全连接层,全连接层的输出通过softmax函数,预测输出物体滑动的概率。
9.根据权利要求6所述的基于视触融合的机器人抓取方法,其特征在于,所述步骤S3在抓取过程中,usb外部摄像机获得视觉图像和触觉传感器获得的触觉图像分别送入步骤S2所训练好的模型之中,得到当下物体滑动的概率,以该概率作为控制信号,调整末端灵巧手对物体的抓握的控制。
10.一种机器人,其特征在于,所述机器人使用如权利要求1-5任一项所述的基于视触融合的机器人抓取系统。
CN202210417868.6A 2022-04-20 2022-04-20 基于视触融合的机器人及其抓取系统和方法 Pending CN114700947A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210417868.6A CN114700947A (zh) 2022-04-20 2022-04-20 基于视触融合的机器人及其抓取系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210417868.6A CN114700947A (zh) 2022-04-20 2022-04-20 基于视触融合的机器人及其抓取系统和方法

Publications (1)

Publication Number Publication Date
CN114700947A true CN114700947A (zh) 2022-07-05

Family

ID=82174649

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210417868.6A Pending CN114700947A (zh) 2022-04-20 2022-04-20 基于视触融合的机器人及其抓取系统和方法

Country Status (1)

Country Link
CN (1) CN114700947A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115431279A (zh) * 2022-11-07 2022-12-06 佛山科学技术学院 弱刚度特性条件下基于视触融合的机械臂自主抓取方法
CN115625713A (zh) * 2022-12-05 2023-01-20 开拓导航控制技术股份有限公司 基于触觉-视觉融合感知的机械手抓取方法和机械手
CN116502069A (zh) * 2023-06-25 2023-07-28 四川大学 一种基于深度学习的触觉时序信号识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112388655A (zh) * 2020-12-04 2021-02-23 齐鲁工业大学 一种基于触觉振动信号与视觉图像融合的抓取物识别方法
CN113920165A (zh) * 2021-10-29 2022-01-11 深圳供电局有限公司 一种基于多传感器特征融合的机器人位姿估计方法及系统
US20220036194A1 (en) * 2021-10-18 2022-02-03 Intel Corporation Deep neural network optimization system for machine learning model scaling
CN114248893A (zh) * 2022-02-28 2022-03-29 中国农业大学 一种面向海参捕捞的作业型水下机器人及其控制方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112388655A (zh) * 2020-12-04 2021-02-23 齐鲁工业大学 一种基于触觉振动信号与视觉图像融合的抓取物识别方法
US20220036194A1 (en) * 2021-10-18 2022-02-03 Intel Corporation Deep neural network optimization system for machine learning model scaling
CN113920165A (zh) * 2021-10-29 2022-01-11 深圳供电局有限公司 一种基于多传感器特征融合的机器人位姿估计方法及系统
CN114248893A (zh) * 2022-02-28 2022-03-29 中国农业大学 一种面向海参捕捞的作业型水下机器人及其控制方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
崔少伟等: "基于视触融合的机器人抓取滑动检测", 《华中科技大学学报(自然科学版)》, vol. 48, no. 01, pages 98 - 102 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115431279A (zh) * 2022-11-07 2022-12-06 佛山科学技术学院 弱刚度特性条件下基于视触融合的机械臂自主抓取方法
CN115625713A (zh) * 2022-12-05 2023-01-20 开拓导航控制技术股份有限公司 基于触觉-视觉融合感知的机械手抓取方法和机械手
CN116502069A (zh) * 2023-06-25 2023-07-28 四川大学 一种基于深度学习的触觉时序信号识别方法
CN116502069B (zh) * 2023-06-25 2023-09-12 四川大学 一种基于深度学习的触觉时序信号识别方法

Similar Documents

Publication Publication Date Title
CN114700947A (zh) 基于视触融合的机器人及其抓取系统和方法
US10717191B2 (en) Apparatus and methods for haptic training of robots
CN111055279B (zh) 基于触觉与视觉结合的多模态物体抓取方法与系统
CN107239728B (zh) 基于深度学习姿态估计的无人机交互装置与方法
WO2020119631A1 (zh) 一种轻量视觉问答系统及方法
CN111832702A (zh) 用于机器人抓取的深度机器学习方法和装置
Yang et al. Video-based Chinese sign language recognition using convolutional neural network
US20100235145A1 (en) Methods and systems for data processing and their applications
Cruz et al. Multi-modal integration of dynamic audiovisual patterns for an interactive reinforcement learning scenario
Alameh et al. DCNN for tactile sensory data classification based on transfer learning
JP2023542055A (ja) オブジェクトインスタンスの分類および認識のための対話型触覚認知方法
Tao et al. American sign language alphabet recognition using leap motion controller
Faris et al. Proprioception and exteroception of a soft robotic finger using neuromorphic vision-based sensing
JP2024086832A (ja) ロボットシステム、および、ロボット装置
CN110472507A (zh) 基于深度残差网络的人手深度图像位姿估计方法及系统
Li et al. Design of a tactile sensing robotic gripper and its grasping method
Prashanth et al. Book detection using deep learning
Assem et al. Identification of Unknown Marine Debris by ROVs Using Deep Learning and Different Convolutional Neural Network Structures
Alsharif et al. Deep Learning Technology to Recognize American Sign Language Alphabet Using Mulit-Focus Image Fusion Technique
CN113894779A (zh) 一种应用于机器人交互的多模态数据处理方法
Kulkarni et al. Intelligent gesture recognition system for translating indian sign language to english
CN117772648B (zh) 基于具身智能的零件分拣处理方法、装置、设备及介质
Duong et al. Deep Learning based 6DOF Robot Arm Control with Computer Vision
Patel et al. Dynamic Hand Gesture Recognition for Indian Sign Language using Integrated CNN-LSTM Architecture.
Das et al. Development of a Real Time Vision-Based Hand Gesture Recognition System for Human-Computer Interaction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination