CN107127735A - 人示范式具有力与位置目的任务的机器人学习 - Google Patents

人示范式具有力与位置目的任务的机器人学习 Download PDF

Info

Publication number
CN107127735A
CN107127735A CN201710106979.4A CN201710106979A CN107127735A CN 107127735 A CN107127735 A CN 107127735A CN 201710106979 A CN201710106979 A CN 201710106979A CN 107127735 A CN107127735 A CN 107127735A
Authority
CN
China
Prior art keywords
task
gloves
controller
robot
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710106979.4A
Other languages
English (en)
Inventor
M·E·阿卜杜拉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of CN107127735A publication Critical patent/CN107127735A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10009Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
    • G06K7/10366Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35464Glove, movement of fingers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39298Trajectory learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Toxicology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Medical Informatics (AREA)
  • Manipulator (AREA)

Abstract

用于向机器人示范任务的系统包括手套、传感器以及控制器。在操作人员佩戴手套以及示范任务时,传感器测量任务特征。任务特征包括手套的姿态、关节角度构型以及分布的力。控制器接收任务特征并且使用机器学习逻辑来学习并且将示范的任务作为任务应用文件记录下来。控制器将控制信号发送至机器人,由此使得机器人自动地执行示范的任务。方法包括使用手套测量任务特征、将任务特征发送至控制器、使用机器学习逻辑处理任务特征、产生控制信号以及将控制信号发送至机器人使得机器人自动地执行任务。

Description

人示范式具有力与位置目的任务的机器人学习
技术领域
本发明涉及人示范的机器人应用的学习,特别是具有力与位置目的的那些学习。
背景技术
串联机器人是机电装置,其能够操纵使用一系列机器人连杆的对象。机器人连杆通过机器人关节相互连接,每个关节通过一个或多个关节致动器来驱动。每个机器人关节进而又代表独立的控制变量或自由度。设置在串连机器人远端的末端执行器被配置为执行特定的任务,诸如抓握作业工具或者堆叠多个部件。通常,通过闭环力、速度、阻抗、或者基于位置的控制律将串连机器人控制到期望的目标值。
在制造中,需要能够用最少量的停工期生产新的或更多种的产品的灵活的工厂和工艺。为了全面实现这个目标,需要机器人平台来迅速地适应新任务而无需耗时的重新编程以及代码编译。传统上,机器人由人工以编程语言通过将行为编码来编程或者通过带有下拉菜单的教导器来编程。随着机器人以及应用两者复杂性的增大,这种传统技术已经变得过度复杂和消耗时间。因此,已经发展了以更简单的、更加直观的方式来产生程序的尝试,通常被称为“通过示范学习”或者“模仿学习”。
使用此类方法,操作人员执行任务并且计算机系统通过使用机器学习技术靠观察来学习该任务。训练操作通常如此进行:或者由操作人员直接地执行任务同时计算机视觉系统记录行为,或者由操作人员握住机器人并且通过所需的运动序列在物理上将其移动。此类“通过示范学习”技术具有可将编程具有增加复杂性的机器人应用简化的潜力。机器人任务通常具有限定任务的位置或运动的目的。尤其是,这些类型的任务已经开始结合力或阻抗的目的,也就是说,规定要施加的力的等级的目的。当任务也要求力的目的时,仅仅使用位置捕捉数据不再足够。因此,当机器人通过任务示范移动或后驱时,尝试通过向机器人添加力传感器来学习此类任务的系统已经进展。然而,对于具有力和位置两个目的的某些类型的灵巧任务的示范,现存方法仍然不是最佳。
发明内容
本文公开了一种用于促进操作人员示范的、具有力和位置目的应用的机器人学习的系统和相应的方法。本方法旨在极大地简化复杂机器人应用的发展,特别是那些在非结构化环境和/或直接的人工机器人交互和协作发生的环境中使用的那些机器人应用。非结构化环境,如在本领域已知的,是没有针对特定应用来高度配置和设计的工作环境。随着机器人复杂性的持续增加,可被执行的机器人任务类型的复杂性也在增加。例如,某些新兴的机器人使用腱致动的手指和可对置拇指来以类似于人的灵巧性和敏捷度水平执行任务。因而传统的任务编程和常规的后驱任务示范对此类机器人来说复杂到了不能实行的程度。
在示例性实施例中,用于向机器人示范具有力和位置两者目的的任务的系统包括可由操作人员佩戴的手套。系统还包括传感器以及一个或多个控制器,且控制器与传感器进行通信。在佩戴手套的操作人员单独通过其动作积极地示范任务时,传感器共同地测量任务特征。任务特征包括作用在手套上的分布的力,以及手套姿态和关节角度构型。
可对控制器编程将机器学习逻辑施加到任务特征,由此来学习并将示范的任务作为任务应用文件记录下来。还可对控制器编程以执行任务应用文件,并且由此控制机器人的操作,也就是说,机器人自动地执行初始由佩戴手套的操作人员示范的任务。
还公开了一种使用手套用于向机器人示范任务的方法,上述的传感器定位在手套上。该方法可包括在操作人员佩戴手套并且示范任务时,使用手套测量任务特征集合,并且随后将任务特征发送至控制器。该方法可包括使用机器学习逻辑通过控制器处理任务特征,由此来学习并将示范的任务作为任务应用文件记录下来,并且使用该任务应用文件产生一组控制信号。将该组控制信号发送至机器人,由此使得机器人自动地执行示范的任务。
本发明的上述特征以及其它特征和优点从以下结合附图对实施本发明的最佳方式进行的详细描述中能够很容易了解到。
附图说明
图1为可用作系统的一部分的示例性手套的示意图,用于向本文阐述的机器人示范力-位置型任务。
图2为图1中所示的手套的手掌侧的示意图。
图3为使用图1和图2中所示的手套,用于向机器人示范且执行力-位置型任务的系统的示意图。
图4为描述使用图4中所示的系统,用于向机器人示范力-位置型任务的示例性方法的流程图。
具体实施方式
参考附图,其中相同的参考数字对应于不同视图中相同的或类似的部件,根据示例性实施例,在图1和图2中示意性地示出了手套10。如图3所示,作为系统25的一部分,手套10被配置为在向机器人70示范具有力和位置两者目的的任务中,由操作人员50佩戴。图3的系统25按照方法100受到控制,方法100的实施例参照图4在下面进行描述。
对于图1和图2中所示的手套10,该手套可包括多个接合的或铰接的手指12以及可选择的接合的或铰接的可对置拇指12T。手套10还包括背面16与手掌17。手套10可以由任何合适的材料构成,诸如透气性的网、尼龙和/或皮革。可以使用可选的腕带18来帮助将手套10固定到图3所示的操作人员50的手腕上。尽管在图1和图2中的示例性实施例中示出了四个手指12和可对置的拇指12T,手套10的其他构型也可以很容易地想象到,诸如适合用于捏夹型抓握应用的二指或三指构型。
与常规的在给定任务示范期间使用视觉系统来确定位置和教导器以驱动机器人的方法不同,本方法允许操作人员50直接地执行灵巧的任务,也就是说,在示范中靠操作人员50单独作用而无需机器人70的任何干预。如图3中所示,示例性的灵巧的任务可包括将灯泡35抓握、插入以及旋转进入螺纹插座(未示出)。该任务涉及到严密监控以及控制一些动态地变化的变量,这些变量共同明确地描述如何开始抓握灯泡35、在仍然抓握灯泡35时如何牢固并快速地将灯泡35插入插座、灯泡35应该如何被快速地拧接入插座中以及应该检测到多少反馈力以表明灯泡35已经完全被拧接进入且坐入在插座内。使用单独应用视觉照相机和其它常规的位置传感器的常规的机器人驱动任务示范,不能最佳地学习这种任务。
为了解决这个挑战,操作人员50在此直接地执行任务,且示范的任务具有如上文指出的力和位置两个目的。为了完成期望的目的,可对手套10装配多个不同的传感器,至少包括手掌姿态传感器20、关节构型传感器30以及力传感器阵列40,所有的传感器都被布置在图1和图2中所示的手掌17、手指12以及拇指12T上。传感器20、30和40与一个或多个控制器通信,在示例性实施例中包括第一控制器(C1)60。在佩戴手套10的操作人员50直接地示范任务时,传感器20、30和40被配置为共同测量任务特征(TC)。
任务特征可包括使用力传感器阵列40所确定的在手套10上分布的力(箭头F10),以及通过手掌姿态传感器20确定的手掌姿态(箭头O17)和使用各种关节构型传感器30确定的关节角度构型(箭头J12)。第一控制器60(其可用描述手套10的运动学的运动学数据(K10)来编程)可处理任务特征并且在机器人70的控制之前,向第二控制器(C2)80输出任务应用文件(TAF)(箭头85),随后在下面将更详细地描述。尽管本文描述了第一控制器60和第二控制器80,在其它实施例中也可以使用单个控制器或多于两个控制器。
对于图2中所示的力传感器阵列40,每个力传感器40可被实施为本领域已知类型的载荷传感器,例如压敏电阻传感器或压力变换器。可以将力传感器40分布到手套10的手掌17、手指12以及拇指12T的所有可能的接触表面,以便在示范的任务期间,在手套10处或者沿着手套10多个点或者手套10的表面,精确地测量作用在手套10上/由手套10施加的共同的力,并且最终确定在手套10上的力分布。各个力传感器40输出相应的力信号,在图2中描述为力信号FA、FB、…FN。力传感器40可以具有各种尺寸。例如,在一些实施例中可以设想采用大面积压力垫形式的压力传感器140。
图1的关节构型传感器30被配置为测量手指12和12T的各种关节的单独的关节角度(箭头J12)。各关节绕着相应的关节轴线(A12)旋转,为说明简单起见,在图1中只显示一个。如在本领域已知,人指有三个关节,总共十二个关节轴,外加拇指12T的关节轴。
在一个示例性实施例中,关节构型传感器30可以实施为定位在各关节处的单独的解析器,或者如图所示作为嵌入在或者连接至手套10的材料的柔性带。关节构型传感器30确定各个关节的弯曲角度,并且将单独的关节角度(箭头J12)输出至图3的第一控制器60。如在本领域已知,此类柔性传感器可以实施为柔性导电纤维或整合至手套10的柔性纤维中的其它柔性导电传感器,各具有相应于手套10的不同关节角度的可变电阻。在电阻中测量的变化横跨第一控制器60的存储器(M)中涉及的关节构型传感器30,以规定特定关节角度或关节角度的组合。其它关节构型传感器30可包括霍耳效应传感器、光学传感器或在发明意图范围内的微机电系统(MEMS)双轴加速计和单轴陀螺仪。
图1中的手掌姿态传感器20可同样地为惯性或磁性传感器、射频识别(RFID)装置,或者在三维空间(即:xyz坐标)中,可操作成用于确定手掌17的六个自由度位置及方向或手掌姿态(箭头O17)的其它合适的本地定位装置。在不同实施例中,手掌姿态传感器20可被嵌入或连接至手掌17的材料中或者背面16。在直接地示范任务期间,当图3的操作人员50佩戴手套10时,传感器20、30和40共同测量任务特征85。
参考图3,如上简要说明的系统25包括手套10以及传感器20、30和40,以及第一控制器60和第二控制器80。控制器60和80可以实现为相同的装置,也就是说,指定为整合控制系统的逻辑模块,或者它们可以是以无线方式或通过传输导体相互通信的单独的计算装置。第一控制器60接收来自传感器20、30和40的测量的任务特征,即:力F10、手掌姿态O17以及关节构型J12
可选地,在示范任务以及输出相同的位置信号(箭头P50)期间,系统25可包括可操作地用于检测目标(诸如,操作人员50的位置或者操作人员的手,或者由操作人员50持有的或位于操作人员50附近的组装的或其它对象)的摄像机38,在此情况下位置信号(箭头P50)可作为测量的任务特征的一部分被接收。针对此目的,根据所接收到的位置信号(箭头P50),可通过第一控制器60使用机器视觉模块(MVM)来确定操作人员50的位置(例如,通过接收图像文件并且使用已知的图像处理算法通过机器视觉模块(MVM)来确定位置),以及来确定手套10对于操作人员50的相对位置。
然后,第一控制器60使用第一控制器60的机器学习(ML)逻辑模块将常规的机器学习技术应用到测量的任务特征,并由此来学习以及把示范的任务作为任务应用文件85记录下来。将第二控制器80编程以将来自第一控制器60的任务应用文件85接收作为计算机可读指令,并且最终执行任务应用文件85,并由此控制图3中的机器人70的操作。
第一控制器60和第二控制器80各自可包括诸如处理器(P)以及存储器(M)的共同元件,后者包括有形的、非瞬变性存储器装置或介质(诸如只读存储器、随机存取存储器、光学存储器、闪存存储器、电可编程只读存储器等)。第一控制器60和第二控制器80还可包括任何需要的逻辑电路,包括但不限于成比例-积分-微分控制逻辑、高速时钟、模拟-数字电路、数字-模拟电路、数字信号处理器和必要的输入/输出装置以及其它信号调节和/或缓冲电路。本文所用的术语“模块”,包括机器视觉模块(MVM)和机器学习(ML)逻辑模块,可以实施为用于执行指定任务的所有必需的硬件和软件。
末端执行器72的运动学信息K72和手套10的运动学信息(K10)可被存储在存储器M中,使得第一控制器60能够计算操作人员50和/或手套10的相对位置和方向以及任务示范正在发生的工作区内的点。本文所用的术语“运动学”是指校准的并且因此已知的给定装置或对象的大小、相对位置、构型、运动轨迹以及运动限制的范围。因此,通过准确获知手套10如何构型和移动,以及末端执行器72如何同样地移动,第一控制器60可以将手套10的运动转换成末端执行器72的运动,并且由此编译需要的机器可执行指令。
一般对于机器学习而言,该术语本文是指本领域所熟知的人工智能的类型。因此,用必需的数据分析逻辑将第一控制器60进行编程以用于迭代地从动态输入数据学习以及适应动态输入数据。例如,第一控制器60可以执行诸如图形检测和识别的示例性操作,例如,使用受监督学习或无监督学习、贝叶斯算法、聚类算法、决策树算法或神经网络。最终,机器学习模块(ML)输出任务应用文件85,即:使用第二控制器80可由机器人70执行的计算机可读程序或代码。最终,第二控制器80向机器人70输出控制信号(箭头CC70),由此使得机器人70执行在任务应用文件85中所阐明的示范的任务。
图4描绘了使用图1和图2中的手套10用于向机器人70示范具有力和位置目的的任务的示例性方法100。方法100从步骤S102开始,这需要使用图1和图2中所示的手套10仅仅通过人的示范来示范机器人任务。图3的操作人员50将图1和图2中的手套10佩戴在手上,并且使用戴手套的手直接地示范任务,而无需末端执行器72或机器人70的任何干预或动作。在操作人员50通过手套10继续示范任务时,方法100继续行进至步骤S104。
步骤S104包括在操作人员50佩戴手套10并且示范任务时,使用手套10测量任务特征(TC)。传感器20、30和40共同测量任务特征(TC)并且将描述任务特征的信号,即:力F10、手掌姿态O17以及关节构型J12,发送至第一控制器60。方法100继续到步骤S106。
在步骤S106处,第一控制器60可确定任务示范是否完成。可以采用各种方法来实施步骤S106,包括检测手套10的原始位置或校准手势或位置,或者检测通知第一控制器60任务示范完成的按钮(未示出)的下压。方法100接着前进到步骤S108,其可选地由在步骤S107处采集的数据来通知。
可选步骤S107包括使用图3的摄像机38来采集视觉数据,并因此采集位置信号(箭头P50)。如果使用步骤S107,摄像机38(例如,3D点云摄像机或光学扫描器)可采集3D位置信息并且通过机器视觉模块(MVM)来确定操作人员50的相对位置、手套10和/或其它信息并且将这些转发至第一控制器60。
步骤S108包括从步骤S102至步骤S106学习示范的任务。在通过图3中所示的机器学习(ML)模块完成示范的期间或者之后,需要处理所接收的任务特征。步骤S108可包括产生任务原语,也就是说,示范的任务的核心步骤,诸如“用力分布X在点X1Y2Z3处抓握灯泡35”,“将抓握的灯泡35移动至位置X2Y1Z2”,“以角度φ和速度V将灯泡35插入插座”,“用转距T旋转灯泡35”等。这些任务原语之间的转换可以通过检测来自步骤S104的采集的数据的值中的变化来检测。当已经学习了示范的任务时,方法100继续前进到步骤S110。
步骤S110包括将来自步骤S108的示范的任务转换成任务应用文件85。步骤S110可包括使用运动学信息K10和K72来将通过操作人员50执行的任务转换成适合用于图3中所示的末端执行器72的机器可读和可执行代码。例如,因为由图3中的操作人员50使用的人手的灵巧性的高水平至多仅可以通过机器手(末端执行器72)近似,使用机器人70不可能完全地复制操作员50使用的特定的力分布、姿态以及关节构型。因此,可将第一控制器60进行编程以将示范的任务转换成通过末端执行器72可以实现的最接近的近似值,例如,通过转换函数、查询表或者校准因素。然后产生以第二控制器80能够理解的形式的指令作为任务应用文件85。一旦任务应用文件85已经产生,则方法100继续进行到步骤S112。
在步骤S112处,第二控制器80接收来自第一控制器60的任务应用文件85,并且执行相对于如图3的机器人70的控制动作。在执行步骤S112中,第二控制器80将描述所要求的具体运动的控制信号(箭头CC70)发送至机器人70。然后,机器人70根据任务应用文件85移动末端执行器72,并且由此在这次单独地且自动地通过机器人70的操作来执行示范的任务。
尽管对实施本发明的最佳模式已经进行了详细地描述,但是熟悉本发明涉及领域的技术人员将认识到,落入所附权利要求的范围内的各种可替换设计和实施例可以存在。

Claims (10)

1.一种用于向机器人示范具有力和位置目的的任务的系统,所述系统包括:
手套;
多个传感器,其在操作人员佩戴所述手套并示范所述任务时配置为共同测量任务特征集合,其中所述任务特征集合包括所述手套的姿态、关节角度构型和分布的力;以及
控制器,其与所述传感器通信,所述控制器被编程以:
从所述传感器接收所述测量的任务特征;以及
将机器学习逻辑施加到所述接收的测量的任务特征,由此来学习并将所述示范的任务作为任务应用文件记录下来。
2.根据权利要求1所述的系统,其中所述控制器进一步被编程为使用所述任务应用文件来产生控制信号的集合,并且将所述控制信号的集合发送至所述机器人由此使得所述机器人自动地执行所述示范的任务。
3.根据权利要求1所述的系统,其中所述手套包括手掌和多个手指,并且其中测量所述手套的所述分布的力的所述传感器包括布置在所述手套的所述手指和手掌上的多个力传感器。
4.根据权利要求1所述的系统,其中测量所述手套的所述关节角度构型的所述传感器包括多个柔性导电传感器,所述柔性导电传感器各具有对应于所述手套的不同关节角度的可变电阻。
5.根据权利要求1所述的系统,还包括采用所述操作人员、所述操作人员的手或者对象的形式可操作地用于检测目标位置的摄像机,其中所述第一控制器被编程为接收所述检测的位置作为所述任务特征的集合的一部分。
6.根据权利要求1所述的系统,其中所述第一控制器以所述手套的末端执行器的运动学信息以及所述手套的运动学信息进行编程,并且使用所述末端执行器和所述手套的所述运动学信息可操作地用于计算所述末端执行器的相对位置和方向。
7.一种使用手套用于向机器人示范具有力和位置目的的任务的方法,被配置为共同测量任务特征集合的多个传感器定位在所述手套上,所述任务特征集合包括所述手套的姿态、关节角度构型以及分布的力,所述方法包括:
在操作人员佩戴所述手套并且示范所述任务时,使用所述手套测量所述任务特征集合;
将所述任务特征发送至控制器;以及
使用机器学习逻辑通过所述控制器处理所述任务特征,由此来学习并且将所述示范的任务作为任务应用文件记录下来。
8.根据权利要求7所述的方法,其进一步包括:
使用所述任务应用文件通过所述控制器产生控制信号集合;以及
将来自所述控制器的所述控制信号集合发送至所述机器人,由此使得所述机器人自动地执行所述示范的任务。
9.根据权利要求7所述的方法,其中所述手套包括手掌和多个手指,所述传感器包括多个布置在所述手指和手掌上的压敏电阻力传感器,并且测量所述任务特征集合包括使用所述压敏电阻力传感器测量所述分布的力。
10.根据权利要求7所述的方法,其中所述传感器包括各具有对应于所述手套的不同关节角度的可变电阻的多个柔性导电传感器,并且其中测量所述任务特征集合包括通过所述柔性导电传感器测量所述关节角度构型。
CN201710106979.4A 2016-02-29 2017-02-27 人示范式具有力与位置目的任务的机器人学习 Pending CN107127735A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/056232 2016-02-29
US15/056,232 US20170249561A1 (en) 2016-02-29 2016-02-29 Robot learning via human-demonstration of tasks with force and position objectives

Publications (1)

Publication Number Publication Date
CN107127735A true CN107127735A (zh) 2017-09-05

Family

ID=59580497

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710106979.4A Pending CN107127735A (zh) 2016-02-29 2017-02-27 人示范式具有力与位置目的任务的机器人学习

Country Status (3)

Country Link
US (1) US20170249561A1 (zh)
CN (1) CN107127735A (zh)
DE (1) DE102017202717A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107932515A (zh) * 2017-11-16 2018-04-20 哈尔滨航士科技发展有限公司 一种基于机械手臂学习的电子设备与方法
CN109048924A (zh) * 2018-10-22 2018-12-21 深圳控石智能系统有限公司 一种基于机器学习的智能机器人柔性作业装置及其方法
CN109500815A (zh) * 2018-12-03 2019-03-22 深圳市越疆科技有限公司 用于前置姿态判断学习的机器人
CN110962146A (zh) * 2019-05-29 2020-04-07 博睿科有限公司 机器人设备的操纵系统和方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110914022B (zh) * 2017-08-10 2023-11-07 罗伯特·博世有限公司 直接教导机器人的系统和方法
US10481689B1 (en) * 2018-01-10 2019-11-19 Electronic Arts Inc. Motion capture glove
WO2019173678A1 (en) * 2018-03-09 2019-09-12 Siemens Aktiengesellschaft Optimal hand pose tracking using a flexible electronics-based sensing glove and machine learning
DE102018108445B3 (de) 2018-04-10 2019-08-01 Ifm Electronic Gmbh Verfahren zum Programmieren eines Fertigungsschritts für einen Industrieroboter
US10996754B2 (en) * 2018-10-12 2021-05-04 Aurora Flight Sciences Corporation Manufacturing monitoring system
US20200121541A1 (en) * 2018-10-22 2020-04-23 Abilitech Medical, Inc. Hand assist orthotic
JP6882249B2 (ja) * 2018-11-29 2021-06-02 ファナック株式会社 ロボット用操作装置
CN109739357B (zh) * 2019-01-02 2020-12-11 京东方科技集团股份有限公司 机械手的控制方法及装置
CN109760050A (zh) * 2019-01-12 2019-05-17 鲁班嫡系机器人(深圳)有限公司 机器人行为训练方法、装置、系统、存储介质及设备
US11642784B2 (en) * 2020-05-29 2023-05-09 Honda Motor Co., Ltd. Database construction for control of robotic manipulator
CN111652248B (zh) * 2020-06-02 2023-08-08 上海岭先机器人科技股份有限公司 一种柔性布料的定位方法和装置
US11371903B2 (en) 2020-06-10 2022-06-28 Toyota Motor Engineering & Manufacturing North America, Inc. Pressure detection and management methods for determining a resultant force and apparatus incorporating the same
CN111941423B (zh) * 2020-07-24 2021-08-24 武汉万迪智慧科技有限公司 一种人机交互机械抓手控制系统及方法
CN113537489B (zh) * 2021-07-09 2024-03-19 厦门大学 一种手肘角度预测方法、终端设备及存储介质
CN117860254B (zh) * 2024-03-11 2024-05-14 浙江立久佳运动器材有限公司 基于阵列式压力传感器的手部电刺激反馈控制系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0551196A (ja) * 1991-08-23 1993-03-02 Fujita Corp 動作検出解読システム
CN1696872A (zh) * 2004-05-13 2005-11-16 中国科学院自动化研究所 一种触觉反馈数据手套
US20070078564A1 (en) * 2003-11-13 2007-04-05 Japan Science And Technology Agency Robot drive method
CN202137764U (zh) * 2011-06-08 2012-02-08 杨少毅 机器人体感交互手套
US20150290795A1 (en) * 2014-02-20 2015-10-15 Mark Oleynik Methods and systems for food preparation in a robotic cooking kitchen
CN105058396A (zh) * 2015-07-31 2015-11-18 深圳先进技术研究院 机器人示教系统及其控制方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3263824A (en) * 1963-12-20 1966-08-02 Northrop Corp Servo controlled manipulator device
US5038144A (en) * 1990-03-21 1991-08-06 Roger Kaye Forearm mounted multi-axis remote control unit
JP2698320B2 (ja) * 1993-08-31 1998-01-19 日本電信電話株式会社 常装着型入力システム、常装着型意図伝達システム、常装着型音楽用キーボードシステム及び常装着型点字入出力システム
IT1264718B1 (it) * 1993-10-08 1996-10-04 Scuola Superiore Di Studi Universitari E Di Perfezionamento Sant Anna Dispositivo atto a fornire una retroazione di forza ad un'unita' fisiologica, da utilizzarsi in particolare come interfaccia avanzata
US6126373A (en) * 1997-12-19 2000-10-03 Fanuc Usa Corporation Method and apparatus for realtime remote robotics command
US6304840B1 (en) * 1998-06-30 2001-10-16 U.S. Philips Corporation Fingerless glove for interacting with data processing system
KR100446612B1 (ko) * 2001-07-24 2004-09-04 삼성전자주식회사 다차원 공간상에서의 정보 선택 방법 및 장치
US20080167662A1 (en) * 2007-01-08 2008-07-10 Kurtz Anthony D Tactile feel apparatus for use with robotic operations
US9552056B1 (en) * 2011-08-27 2017-01-24 Fellow Robots, Inc. Gesture enabled telepresence robot and system
WO2014040175A1 (en) * 2012-09-14 2014-03-20 Interaxon Inc. Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data
US9076033B1 (en) * 2012-09-28 2015-07-07 Google Inc. Hand-triggered head-mounted photography
US9471767B2 (en) * 2014-08-22 2016-10-18 Oracle International Corporation CAPTCHA techniques utilizing traceable images
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
US10073522B2 (en) * 2014-12-12 2018-09-11 Regents Of The University Of Minnesota Articles of handwear for sensing forces applied to medical devices
US9652038B2 (en) * 2015-02-20 2017-05-16 Sony Interactive Entertainment Inc. Magnetic tracking of glove fingertips
US9665174B2 (en) * 2015-02-20 2017-05-30 Sony Interactive Entertainment Inc. Magnetic tracking of glove fingertips with peripheral devices
US9676098B2 (en) * 2015-07-31 2017-06-13 Heinz Hemken Data collection from living subjects and controlling an autonomous robot using the data
JP6240689B2 (ja) * 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0551196A (ja) * 1991-08-23 1993-03-02 Fujita Corp 動作検出解読システム
US20070078564A1 (en) * 2003-11-13 2007-04-05 Japan Science And Technology Agency Robot drive method
CN1696872A (zh) * 2004-05-13 2005-11-16 中国科学院自动化研究所 一种触觉反馈数据手套
CN202137764U (zh) * 2011-06-08 2012-02-08 杨少毅 机器人体感交互手套
US20150290795A1 (en) * 2014-02-20 2015-10-15 Mark Oleynik Methods and systems for food preparation in a robotic cooking kitchen
CN105058396A (zh) * 2015-07-31 2015-11-18 深圳先进技术研究院 机器人示教系统及其控制方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107932515A (zh) * 2017-11-16 2018-04-20 哈尔滨航士科技发展有限公司 一种基于机械手臂学习的电子设备与方法
CN107932515B (zh) * 2017-11-16 2021-08-13 哈尔滨航士科技发展有限公司 一种基于机械手臂学习的电子设备与方法
CN109048924A (zh) * 2018-10-22 2018-12-21 深圳控石智能系统有限公司 一种基于机器学习的智能机器人柔性作业装置及其方法
CN109500815A (zh) * 2018-12-03 2019-03-22 深圳市越疆科技有限公司 用于前置姿态判断学习的机器人
CN109500815B (zh) * 2018-12-03 2023-06-02 日照市越疆智能科技有限公司 用于前置姿态判断学习的机器人
CN110962146A (zh) * 2019-05-29 2020-04-07 博睿科有限公司 机器人设备的操纵系统和方法
US11612999B2 (en) 2019-05-29 2023-03-28 BrainCo Inc. System and method for manipulating robotic device

Also Published As

Publication number Publication date
US20170249561A1 (en) 2017-08-31
DE102017202717A1 (de) 2017-08-31

Similar Documents

Publication Publication Date Title
CN107127735A (zh) 人示范式具有力与位置目的任务的机器人学习
Homberg et al. Robust proprioceptive grasping with a soft robot hand
US20090132088A1 (en) Transfer of knowledge from a human skilled worker to an expert machine - the learning process
WO2020241796A1 (ja) 制御装置、制御システム、機械装置システム及び制御方法
Li et al. Intuitive control of a robotic arm and hand system with pneumatic haptic feedback
WO2011065034A1 (ja) ロボットの動作を制御する方法およびロボットシステム
WO2021024586A1 (ja) 制御装置、制御システム、ロボットシステム及び制御方法
WO2021132281A1 (ja) 訓練データ選別装置、ロボットシステム及び訓練データ選別方法
De Pasquale et al. GoldFinger: wireless human–machine interface with dedicated software and biomechanical energy harvesting system
Fishel et al. Tactile telerobots for dull, dirty, dangerous, and inaccessible tasks
Graña et al. A panoramic survey on grasping research trends and topics
Hoffmann et al. Adaptive robotic tool use under variable grasps
WO2019173678A1 (en) Optimal hand pose tracking using a flexible electronics-based sensing glove and machine learning
Zhang et al. Vision-based sensing for electrically-driven soft actuators
Zhong et al. A hybrid underwater manipulator system with intuitive muscle-level sEMG mapping control
Matsuoka The mechanisms in a humanoid robot hand
Murillo et al. Individual robotic arms manipulator control employing electromyographic signals acquired by myo armbands
Kadalagere Sampath et al. Review on human‐like robot manipulation using dexterous hands
Zubrycki et al. Test setup for multi-finger gripper control based on robot operating system (ROS)
Robertsson et al. Perception modeling for human-like artificial sensor systems
da Fonseca et al. Stable grasping and object reorientation with a three-fingered robotic hand
Nazari et al. Deep functional predictive control (deep-fpc): Robot pushing 3-d cluster using tactile prediction
WO2020241797A1 (ja) 制御装置、制御システム、機械装置システム及び制御方法
Zhu Teleoperated Grasping Using an Upgraded Haptic-Enabled Human-Like Robotic Hand and a CyberTouch Glove
Sharmila et al. Design of Robotic Arm with Three Degree of Freedom (DOF) operated by Bluetooth enabled Smartphones

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170905

WD01 Invention patent application deemed withdrawn after publication