CN102310409A - 机器人装置及基于机器人装置的把持方法 - Google Patents
机器人装置及基于机器人装置的把持方法 Download PDFInfo
- Publication number
- CN102310409A CN102310409A CN2011101888295A CN201110188829A CN102310409A CN 102310409 A CN102310409 A CN 102310409A CN 2011101888295 A CN2011101888295 A CN 2011101888295A CN 201110188829 A CN201110188829 A CN 201110188829A CN 102310409 A CN102310409 A CN 102310409A
- Authority
- CN
- China
- Prior art keywords
- information
- hand
- grasped
- contact position
- positional information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 14
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 238000012937 correction Methods 0.000 claims description 30
- 230000008859 change Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 abstract description 35
- 230000000007 visual effect Effects 0.000 abstract description 28
- 230000033001 locomotion Effects 0.000 description 26
- 230000009471 action Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0009—Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39484—Locate, reach and grasp, visual guided grasping
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39492—Finger impedance control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39532—Gripping force sensor build into finger
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
机器人装置具备:机器人臂;多指手部,设置在机器人臂的顶端,具有用于进行力控制的力传感器;图像处理部,通过由视觉传感器进行的检测来取得把持对象物的至少位置信息;及控制装置,根据通过图像处理部来取得的把持对象物的至少位置信息,使机器人臂进行移动而使多指手部接近把持对象物,根据多指手部的力传感器的输出而检测出对于把持对象物的实际接触位置,根据检测出的接触位置的信息而修正把持对象物的位置信息。
Description
技术领域
本发明涉及一种机器人装置及基于机器人装置的把持方法。
背景技术
以往,作为具备机器人臂及多指手部的机器人装置,如在日本国专利申请公开号2005-161507和日本国专利申请公开号2003-94367中所示,公开有具备机器人臂、设置在机器人臂顶端的多指手部、照相机的机器人装置。
另外,公开有具备机器人臂、设置在机器人臂顶端的多指手部、照相机、录入有对象物的形状等信息的数据库的机器人装置。
发明内容
根据本发明的一个实施方式,机器人装置具备:机器人臂;多指手部,设置在机器人臂的顶端,具有用于进行力控制的手指尖力传感器;信息取得单元,通过由使用者进行的输入或由检测单元进行的检测来取得对象物的至少位置信息;及控制部,根据通过信息取得单元来取得的对象物的至少位置信息,使机器人臂进行移动而使多指手部接近对象物,根据多指手部的手指尖力传感器的输出而检测出对于对象物的实际接触位置,根据检测出的接触位置的信息而修正对象物的位置信息。
根据本发明的另一个实施方式,基于机器人装置的把持方法为,基于包括在顶端设有具有手指尖力传感器的多指手部的机器人臂的机器人装置的把持方法,其具备:取得对象物的至少位置信息的步骤;根据取得的对象物的至少位置信息,使机器人臂进行移动而使机器人臂顶端的多指手部接近对象物,根据多指手部的手指尖力传感器的输出而检测出对于对象物的实际接触位置的步骤;及根据检测出的接触位置的信息而修正对象物的位置信息的步骤。
附图说明
通过参照附图并考虑以下的详细说明,可以更加容易地理解并得到该发明的更优秀的评价与多的付随利益。
图1是表示第1实施方式的机器人装置的整体构成的模式图。
图2是用于说明图1所示的第1实施方式的机器人装置在进行把持动作时的控制装置的处理的流程图。
图3是表示第2实施方式的机器人装置的整体构成的模式图。
图4是用于说明图3所示的第2实施方式的机器人装置在进行把持动作时的控制装置的处理的流程图。
图5是表示第3实施方式的机器人装置的整体构成的模式图。
图6是表示图5所示的第3实施方式的机器人装置的控制装置的构成的框图。
图7是用于说明图5所示的第3实施方式的机器人装置在进行把持动作时的控制装置的处理的流程图。
具体实施方式
以下参照附图对本发明的实施方式进行说明。在各图中,对同样的构成要素标注相同的符号。
参照图1对第1实施方式的机器人装置100的结构进行说明。并且,在第1实施方式中,对应用于在日常生活(环境)中使用的生活支援机器人上的例子进行说明。
如图1所示,第1实施方式的机器人装置100具有如下功能,根据使用者的指示,通过安装在机器人臂10的顶端的多指手部20来把持并提起物体(把持对象物110),将物体移动到指定的位置。
机器人装置100具备:机器人臂10;安装在机器人臂10的顶端的多指手部20;检测把持对象物110及把持对象物110周边的视觉传感器30;及对机器人装置100的动作进行控制的控制装置40。并且,视觉传感器30是检测单元的一例,同时控制装置40是控制部的一例。
机器人臂10包括多个臂(联杆)11及连接各臂11的关节部12。在各关节部12上分别设有未图示的马达,各关节部12在规定的驱动方向(围绕关节轴的旋转方向)上驱动所连接的臂11。由此,机器人臂10具有例如可进行6自由度动作的结构。
多指手部20安装在机器人臂10的顶端,包括等角度间隔配置的3个手指部21、22、23。3个手指部21、22、23具有相同的结构,在顶端(手指尖)分别具有力传感器21a、22a、23a。另外,各手指部21、22、23分别具有根部侧的关节部21b、22b、23b和中间部的关节部21c、22c、23c。通过设置在上述关节部(21b~23b和21c~23c)的未图示的马达,在围绕关节轴的旋转方向上驱动各手指部21、22、23。因此,手指部21、22、23的自由度分别是2自由度。并且,力传感器21a、22a、23a是手指尖力传感器的一例。
力传感器21a、22a、23a分别由检测正交的3轴方向上的力的压力传感器构成。该力传感器21a、22a、23a分别检测出施加于手指部21、22、23的手指尖上的外力(负载)。另外,力传感器21a、22a、23a的检测信号被输出到控制装置40。由此,在第1实施方式中,可以根据力传感器21a、22a、23a的输出而检测出多指手部20(手指部21、22、23)与物体(把持对象物110及周围的壁、工作台等物体)的接触。
视觉传感器30由对把持对象物110及把持对象物110的周围进行拍摄的照相机构成。由视觉传感器30所拍摄的图像数据被控制装置40读入。
控制装置40包括臂控制部41、手控制部42、图像处理部43、对象物数据库44。另外,在控制装置40中储存有用于对机器人装置100的动作进行控制的作业动作程序45。并且,图像处理部43是信息取得单元的一例。
臂控制部41具有如下功能,根据作业动作程序45而进行对机器人臂10的各部的动作控制。具体而言,臂控制部41根据通过图像处理部43所取得的把持对象物110的位置信息及姿势信息,对机器人臂10的各关节部12进行驱动。另外,在对把持对象物110进行把持动作时,臂控制部41以进行靠近把持对象物110的动作(使机器人臂10进行移动而将多指手部20接近把持对象物110的动作)的方式控制机器人臂10。
手控制部42具有如下功能,根据作业动作程序45而进行多指手部20的各手指部21~23的动作控制。具体而言,手控制部42通过分别对多指手部20的3个手指部21、22、23进行控制,来进行采取如下姿势的把持动作控制,即对把持对象物110进行把持的把持姿势或作为把持姿势的前阶段的靠近姿势(为了采取把持姿势而将各手指部配置在把持对象物110附近(周围)的姿势)。
另外,在对把持对象物110进行的把持动作中,手控制部42根据力传感器21a、22a、23a的输出而进行力控制(阻抗控制),从而能够以不改变把持对象物110位置的强度使多指手部20(手指部21、22、23)接触把持对象物110。具体而言,通过如下方法来修正输入位置指令,对于各手指部21、22、23,根据虚拟机械阻抗(惯性系数、粘性系数及刚性(弹性)系数)来设定规定力与变位量的关系的阻抗模型,同时对于向各手指部21、22、23的输入位置指令,根据阻抗模型来将力传感器21a、22a、23a的输出(力信息)变换为位置变位量而进行反馈。在将该虚拟机械阻抗(惯性系数、粘性系数及刚性(弹性)系数)的值较小地进行设定时,由于对于外力的阻力变小,因此可以使在与物体接触时作用于物体的力变小。因而,通过适当地调整该机械阻抗值,能够实现所谓的轻柔地接触把持对象物110,能够在不改变把持对象物110的位置的情况下使多指手部20接触把持对象物110。
图像处理部43通过读入由视觉传感器30所拍摄的图像数据并对图像数据进行图像处理,从而可以取得把持对象物110的位置信息、姿势(朝向)信息、形状信息。在此,把持对象物110的位置信息是在视觉传感器30上设定的坐标系(例如X、Y及Z轴的正交坐标系)上的3自由度的位置信息。另外,把持对象物110的姿势信息是在视觉传感器30上设定的坐标系(例如X、Y及Z轴的正交坐标系)上的围绕各轴的3自由度的旋转角度位置信息。如果将这些位置信息及姿势信息从视觉传感器30的坐标系变换成机器人臂10及多指手部20的坐标系,则能够得到在机器人臂10及多指手部20的坐标系上的把持对象物110的位置信息及姿势信息。另外,把持对象物110的形状信息是通过图像处理来取得的把持对象物110的轮廓等信息。通过将该形状信息与对象物数据库44的信息进行对照,从而通过包含在图像数据中的形状(把持对象物110的形状)来特定录入在对象物数据库44中的把持对象物110。
对象物数据库44可以将成为把持对象的物体预先作为把持对象物110而进行录入,包含把持对象物110的尺寸信息、对多指手部20的把持位置(对于把持对象物110用哪个位置进行把持)及把持姿势(从哪个方向以什么样的关节角度进行把持(例如从上方把持、从侧方把持等))进行规定的把持形态数据等。控制装置40如下构成,通过将由图像处理部43所检测出的把持对象物110的形状信息与对象物数据库44的信息进行对照,能够取得把持对象物110的尺寸信息等。
通过上述的构成,控制部40根据由视觉传感器30所拍摄的图像数据来取得把持对象物110的位置信息、姿势信息、尺寸信息、把持位置及把持姿势,同时根据上述信息通过臂控制部41及手控制部42来对机器人臂10及多指手部20进行驱动,从而对把持对象物110进行把持动作。但是,在根据由视觉传感器30所拍摄的图像数据而取得的把持对象物110的位置信息及姿势信息中包含有误差的情况下等,多指手部20的把持位置及把持姿势(把持的方向)有可能偏离。
也就是说,为了根据由视觉传感器30所取得的把持对象物110的位置信息及姿势信息而对机器人臂10及多指手部20进行驱动,则需要视觉传感器30的坐标系(照相机坐标系)与机器人臂10及多指手部20的坐标系(机器人装置100的坐标系)正确地一致。因此,预先进行为了使两者的坐标系一致的校准(校正)。但是,也存在校准不充分的情况或机器人臂10及多指手部20与视觉传感器30的位置关系发生变化的情况等。在此情况下,由于在把持对象物110的位置信息及姿势信息中包含误差,因而多指手部20的把持位置及把持姿势(把持的方向)偏离。
因此,在该第1实施方式中,根据对于把持对象物110的实际接触位置的信息而修正把持对象物110的位置信息及姿势信息,从而抑制多指手部20的把持位置及把持姿势偏离。即,控制装置40根据由视觉传感器30所取得的把持对象物110的位置信息及姿势信息,使机器人臂10进行移动而将多指手部20接近把持对象物110,根据多指手部20的各手指尖的力传感器21a、22a、23a的输出而检测出对于把持对象物110的实际接触位置。具体而言,通过机器人臂10的关节角度及多指手部20的关节角度,算出在力传感器(21a、22a、23a)检测到对于把持对象物110的接触时的接触位置。而且,控制装置40具有根据检测出的接触位置的信息而修正把持对象物110的位置信息及姿势信息的位置补正功能。另外,在第1实施方式中,控制装置40如下构成,可以由使用者来设定是否使用该位置补正功能。
并且,在执行位置补正功能时,即使如上所述地通过根据力传感器21a、22a、23a的输出而由手控制部42进行力控制(阻抗控制),来驱动机器人臂10及各手指部21、22、23,使多指手部20的3个手指部21、22、23全都接触把持对象物110,也可以在不对把持对象物110施加像使把持对象物110的位置发生变位那样的力的情况下进行动作。
接下来,参照图2对第1实施方式的机器人装置100在进行把持动作时的控制装置40的处理流程进行说明。在该第1实施方式中,根据控制装置40的作业动作程序45而进行机器人装置100的把持动作。
如图2所示,在步骤S1中,根据由视觉传感器30所拍摄的图像数据,由控制装置40的图像处理部43来取得把持对象物110的位置信息、姿势信息及形状信息。接下来,在步骤S2中,通过将取得的把持对象物110的形状信息与控制装置40的对象物数据库44内的数据进行对照,从而取得对应于形状信息的把持对象物110的尺寸信息、把持对象物110的把持形态数据(把持位置及把持姿势)等。
在步骤S3中,根据取得的把持对象物110的位置信息、姿势信息与把持对象物110的尺寸信息、把持形态数据,由臂控制部41及手控制部42来决定把持对象物110向把持位置的移动路径及对应于把持姿势的多指手部20的靠近姿势(各手指部21、22、23的关节角度、手指部彼此的间隔等)。而且,通过驱动各手指部21、22、23的关节部(21b~23b和21c~23c),来将多指手部20的各手指部21、22、23配制成对于把持对象物110呈靠近姿势。
接下来,在步骤S4中,通过控制装置40来判断位置补正功能是否被使用者设定为有效。而且,在位置补正功能被设定为有效时,进入步骤S5,执行接触位置的检测及位置信息(姿势信息)的修正。另外,在位置补正功能被设定为无效时,进入步骤S9。
在步骤S5中,根据取得的把持对象物110的位置信息及姿势信息,由控制装置40的臂控制部41来使机器人臂10移动,开始进行使多指手部20接近把持对象物110的靠近动作。
当继续进行靠近动作时,在将多指手部20配制在把持位置之后,以从靠近姿势接近把持姿势的方式驱动各手指部21、22、23。此时,在把持对象物110的位置信息中包含误差时,在多指手部20向把持位置移动的过程中,或者在把持位置处以从靠近姿势接近把持姿势的方式驱动各手指部21、22、23的过程中,多指手部20的手指部21、22、23分别与把持对象物110接触。由此,由手指部21、22、23顶端的力传感器21a、22a、23a检测出对于把持对象物110的接触。此时,通过控制装置40的手控制部42来进行各手指部21、22、23的力控制(阻抗控制),从而以不改变把持对象物110的位置的强度(所谓的轻柔接触)来进行接触动作。当检测出对于把持对象物110的接触时,机器人臂10及多指手部20的动作暂时被停止。
在步骤S6中,由力传感器21a、22a、23a检测出的对于把持对象物110的接触的位置(接触位置)分别由控制装置40(手控制部42)来取得。通过该步骤S6来取得把持对象物110的实际位置(在机器人臂10及多指手部20的坐标系上的位置)。另外,根据对于把持对象物110的多个(3个点)接触位置,算出把持对象物110的实际姿势。
并且,在上述步骤S1中取得的把持对象物110的位置信息中包含误差时,在被检测出的实际接触位置与基于图像数据的位置信息上则产生位置的偏离。同样,在上述步骤S1中取得的把持对象物110的姿势信息中包含误差时,在实际的把持对象物110的姿势与基于图像数据的姿势信息上则产生姿势(朝向)的偏离。
于是,在步骤S7中,根据被检测出的3个点的接触位置的信息来修正把持对象物110的位置信息及姿势信息。随之,根据修正后的把持对象物110的位置信息及姿势信息,由臂控制部41来修正机器人臂10的位置(即多指手部20的把持位置),同时由手控制部42来修正多指手部20(手指部21、22、23)的把持姿势。
之后,在步骤S8中,在已修正的把持位置上配制多指手部20的状态下,由手控制部42来分别使手指部21、22、23移动,多指手部20采取已修正的把持姿势,从而执行对把持对象物110的把持。
另一方面,在步骤S4中由使用者将位置补正功能设定成无效时,不进行上述的根据实际接触位置的位置修正,在步骤S9中,根据把持对象物110的位置信息及姿势信息,由臂控制部41来使机器人臂10移动,执行使多指手部20接近把持对象物110的靠近动作。而且,当多指手部20以靠近姿势被配制在把持位置时,过渡至步骤S8,由手控制部42使各手指部21、22、23从靠近姿势移动到把持姿势,执行对把持对象物110的把持。
在第1实施方式中,如上所述,根据把持对象物110的位置信息来使机器人臂10移动,从而使多指手部20接近把持对象物110,根据多指手部20的力传感器21a、22a、23a的输出来检测出对于把持对象物110的实际接触位置,设置根据检测出的接触位置来修正把持对象物110的位置信息的控制装置40,从而可以根据多指手部20对于把持对象物110的实际接触位置来修正把持对象物110的位置信息。由此,即使在由图像处理部43取得的把持对象物110的位置信息中包含误差的情况下,也可以根据实际接触位置来修正把持对象物110的位置信息的偏离,因此可以确实地对把持对象物110进行把持。
另外,在第1实施方式中,如上所述,通过将控制装置40如下构成,即在根据利用接触位置来修正的位置信息而修正多指手部20的把持位置的同时,进行通过多指手部20来对把持对象物110进行把持的控制,从而即使在把持对象物110的位置信息中包含误差的情况下,也可以根据实际接触位置,通过把持位置被修正的多指手部20来确实地对把持对象物110进行把持。
另外,在第1实施方式中,如上所述,通过将控制装置40如下构成,即根据由图像处理部43取得的把持对象物110的位置信息及姿势信息来使机器人臂10移动且使多指手部20接近把持对象物110,根据多指手部20的力传感器21a、22a、23a的输出来检测出对于把持对象物110的实际接触位置,根据检测出的接触位置的信息来修正把持对象物110的位置信息及姿势信息,从而根据检测出的接触位置的信息,不仅可以修正把持对象物110的位置信息,而且也可以修正把持对象物110的姿势信息,因此可以更加确实地对把持对象物110进行把持。
另外,在第1实施方式中,如上所述,通过在构成为可以由使用者来设定是否进行位置信息的修正(是否使用位置补正功能)的同时,将控制装置40如下构成,即在设定成进行位置信息的修正时,根据力传感器21a、22a、23a的输出来检测出对于把持对象物110的实际接触位置,根据检测出的接触位置的信息来修正把持对象物110的位置信息,从而使用者可以根据机器人装置100的用途、使用环境等而设定是否进行位置信息的修正,同时在设定成进行位置信息的修正时,即使在把持对象物110的位置信息中包含误差时也可以确实地对把持对象物110进行把持。
另外,在第1实施方式中,如上所述,通过将控制装置40如下构成,即根据3个力传感器21a、22a、23a的输出而检测出对于把持对象物110的实际接触位置,根据检测出的接触位置的信息来修正把持对象物110的位置信息,从而通过设置在多指手部20的手指尖上的3个力传感器21a、22a、23a,可以检测出在1次接触动作中实际的把持对象物110的多个(3个点)接触位置。由此,由于可以取得把持对象物110的多个(3个点)接触位置的信息,因此不仅可以容易地修正把持对象物110的位置信息,而且也可以容易地修正姿势信息。
另外,在第1实施方式中,如上所述,通过将控制装置40如下构成,即在将预先储存有把持对象物110信息的对象物数据库44与通过图像处理部43来取得的把持对象物110的形状信息进行对照而得到把持对象物110的尺寸信息的同时,根据把持对象物110的尺寸信息及位置信息,使机器人臂10进行移动而使多指手部20接近把持对象物110,根据多指手部20的力传感器21a、22a、23a的输出而检测出对于把持对象物110的实际接触位置,从而可以从对象物数据库44中取得把持对象物110的正确的尺寸信息。由此,根据把持对象物110的尺寸信息及位置信息,可以容易地使多指手部20(力传感器21a、22a、23a)接触把持对象物110。另外,由于可以通过利用尺寸信息来求出在把持对象物110上的接触位置的位置关系,因此通过较少的接触位置信息也可以修正把持对象物110的位置信息。
另外,在第1实施方式中,如上所述,将控制装置40如下构成,即根据把持对象物110的位置信息及姿势信息,通过利用多指手部20的力传感器21a、22a、23a的力控制(阻抗控制)来以不改变把持对象物110位置的强度使多指手部20接触把持对象物110,在此状态下根据多指手部20的力传感器21a、22a、23a的输出来检测出对于把持对象物110的实际接触位置,根据检测出的接触位置的信息来修正把持对象物110的位置信息。由此,由于可以抑制在使多指手部20接触把持对象物110时因与多指手部20接触的力而使把持对象物110的位置发生变化,因此可以更加正确地检测出对于把持对象物110的实际接触位置。
下面,参照图3及图4对第2实施方式的机器人装置200进行说明。在该第2实施方式中,与构成为可以由使用者设定是否使用位置补正功能的上述第1实施方式不同,对如下构成的例子进行说明,即根据把持对象物110的位置信息与实际接触位置的偏离量来判断是否使用位置补正功能。
在第2实施方式中,如图3所示,机器人装置200的控制装置240如下构成,即对根据视觉传感器30的图像数据来取得的把持对象物110的位置信息与利用各手指部21、22、23顶端的力传感器21a、22a、23a来检测出的对于把持对象物110的实际接触位置的偏离量是否大于规定的阈值来进行判断。而且,控制装置240如下构成,即在把持对象物110的位置信息与实际接触位置的偏离量大于规定的阈值时,根据接触位置的信息来执行修正把持对象物110的位置信息及姿势信息的位置补正功能。该阈值是例如在不修正位置信息及姿势信息的情况下可以对把持对象物110进行把持的位置偏离量的最大值。并且,控制装置240的臂控制部41、手控制部42、图像处理部43及对象物数据库44具有与上述第1实施方式的控制装置40的臂控制部41、手控制部42、图像处理部43及对象物数据库44相同的构成,只是控制装置240的作业动作程序245不同于第1实施方式。另外,控制装置240是控制部的一例。
并且,第2实施方式的其他构成与上述第1实施方式相同。
下面,参照图3及图4对第2实施方式的机器人装置200在进行把持动作时的控制装置240的处理流程进行说明。在该第2实施方式中,根据控制装置240的作业动作程序245来进行机器人装置200的把持动作。
在第2实施方式的机器人装置200进行把持动作时的控制装置240的处理流程中,步骤S1~步骤S3与上述第1实施方式相同。即,如图4所示,在步骤S1中,根据由视觉传感器30所拍摄的图像数据,由控制装置240的图像处理部43来取得把持对象物110的位置信息、姿势信息及形状信息。接下来,在步骤S2中,通过将取得的把持对象物110的形状信息与控制装置240的对象物数据库44内的数据进行对照而得到把持对象物110的尺寸信息、把持形态数据等。在步骤S3中,根据取得的把持对象物110的位置信息、姿势信息与把持对象物110的尺寸信息、把持形态数据,将多指手部20的各手指部21、22、23配制成对于把持对象物110呈靠近姿势。
在上述的步骤S3后,在该第2实施方式中,在步骤S14中,通过根据取得的把持对象物110的位置信息及姿势信息,由臂控制部41使机器人臂10移动,从而使多指手部20接近把持对象物110,同时执行使配置在把持位置的多指手部20接触把持对象物110的靠近动作。
伴随靠近动作的进行,由手指部21、22、23顶端的力传感器21a、22a、23a来分别检测出对于把持对象物110的接触,同时机器人臂10及多指手部20的动作暂时被停止。此时,通过手控制部42根据力传感器21a、22a、23a的输出来进行各手指部21、22、23的力控制(阻抗控制),从而以不改变把持对象物110的位置的强度(以所谓的轻柔接触)来进行接触动作。而且,在步骤S15中,由力传感器21a、22a、23a检测出的对于把持对象物110接触的位置(接触位置)分别由控制装置240(手控制部42)来取得。通过该步骤S15来取得把持对象物110的实际位置及姿势(在机器人臂10及多指手部20的坐标系上的位置及姿势)。
在此,在第2实施方式中,在步骤S16中,由控制装置240来判断在上述步骤S1中取得的把持对象物110的位置信息与在上述步骤S15中检测出的对于把持对象物110的实际接触位置的偏离量是否大于规定的阈值。在把持对象物110的位置信息与实际接触位置的偏离量大于规定的阈值时,进入步骤S17,进行位置信息及姿势信息的修正(多指手部20的把持位置及把持姿势的修正)。另一方面,在把持对象物110的位置信息与实际接触位置的偏离量在规定的阈值以下时,判断不修正把持位置及把持姿势便可进行把持,进入步骤S18。
在步骤S17中,根据检测出的多个接触位置的信息,由控制装置240的手控制部42来修正把持对象物110的位置信息及姿势信息。随之,根据修正后的把持对象物110的位置信息及姿势信息,由臂控制部41来修正机器人臂10的位置(即多指手部20的把持位置),同时由手控制部42来修正多指手部20(手指部21、22、23)的把持姿势。
在步骤S18中,通过在已修正的把持位置上配制多指手部20的状态下,由控制装置240的手控制部42来分别使手指部21、22、23移动,多指手部20采取已修正的把持姿势,从而执行由多指手部20进行的对把持对象物110的把持。并且,在上述步骤S16中判断成把持对象物110的位置信息与实际接触位置的偏离量在规定的阈值以下时,过渡至此步骤S18,不修正多指手部20的把持位置及把持姿势而执行把持动作。
在第2实施方式中,如上所述,通过将控制装置240如下构成,即在根据把持对象物110的位置信息的位置与检测出的对于把持对象物110的实际接触位置的偏离量大于规定的阈值时,根据力传感器21a、22a、23a的输出来检测出对于把持对象物110的实际接触位置,根据检测出的接触位置的信息来修正把持对象物110的位置信息,从而在控制装置240判断成通过图像处理部43来取得的把持对象物110的位置信息对于实际接触位置而言包含大于规定的阈值的偏离量(误差)时,可以根据检测出的接触位置的信息来修正把持对象物110的位置信息。由此,能够只是在通过图像处理部43来取得的把持对象物110的位置信息与实际把持对象物110的位置信息的偏离量大得难以确实地进行把持的情况下(大于阈值时),才根据检测出的接触位置的信息来修正把持对象物110的位置信息。其结果,可以减少控制装置240的控制负载。
并且,第2实施方式的其他效果与上述第1实施方式相同。
下面,参照图5~图7对第3实施方式的机器人装置300进行说明。在该第3实施方式中,对与上述第1实施方式及上述第2实施方式不同的设置有使机器人装置300的机器人臂10及多指手部20移动的移动台车350的例子进行说明。
在第3实施方式中,如图5所示,机器人装置300具备机器人臂10、多指手部20、视觉传感器30、控制装置340、移动台车350。在第3实施方式中,在将机器人臂10及设在机器人臂10顶端的多指手部20设置在移动台车350上的同时,将控制装置340设置在移动台车350内部。由此,机器人装置300如下构成,即当接收到来自使用者的对把持对象物110进行把持(及移动)的指示时,使移动台车350向把持对象物110移动,从而能够对把持对象物110进行把持。并且,控制装置340是控制部的一例。另外,第3实施方式的机器人臂10、多指手部20及视觉传感器30的构成与上述第1及第2实施方式相同。
移动台车350例如在包括4个车轮351的同时内置有用于驱动车轮351的马达352。而且,构成为通过根据从控制装置340输入的控制信号来驱动各车轮351的马达352,从而可以使移动台车350移动到任意的位置。
如图6所示,控制装置340包括臂控制部41、手控制部42、图像处理部43、对象物数据库44、作业动作程序345、移动台车控制部346。并且,控制装置340的臂控制部41、手控制部42、图像处理部43及对象物数据库44具有与上述第1实施方式的控制装置40的臂控制部41、手控制部42、图像处理部43及对象物数据库44形同的构成,控制装置340的作业动作程序345及移动台车控制部346与第1实施方式不同。
移动台车控制部346通过对移动台车350的马达352输出控制信号,从而具有控制移动台车350移动的功能。在对把持对象物110进行把持动作时,移动台车控制部346根据基于视觉传感器30的图像数据而取得的把持对象物110的位置信息及姿势信息,使移动台车350向把持对象物110移动。
另外,在第3实施方式中,控制装置340如下构成,即在对把持对象物110进行把持动作时的移动台车350的移动量大于规定的阈值的情况下,使用位置补正功能。即,如上所述,把持对象物110的位置信息与实际接触位置的偏离是在校准不充分的情况下或者在机器人臂10及多指手部20与视觉传感器30的位置关系发生变化的情况等下发生。在该第3实施方式中,移动台车350的移动量大于规定的阈值时,可以考虑到机器人臂10及多指手部20与视觉传感器30的位置关系发生变化的情况,或者由于移动台车350的移动而位置、方向发生偏离的情况等,因此发生把持对象物110的位置信息与实际接触位置的位置偏离的可能性提高。另一方面,在移动台车350的移动量较小时,由于位置关系在移动台车350移动的前后变化不大,因此控制装置340可以判断成不需要使用位置补正功能。
另外,在该第3实施方式中,控制装置340如下构成,即在移动台车350的移动量即使在规定的阈值以下时,在根据视觉传感器30的图像数据而取得的把持对象物110的位置信息与利用各手指部21、22、23顶端的力传感器21a、22a、23a来检测出的对于把持对象物110的实际接触位置的偏离量大于规定的阈值的情况下,也使用位置补正功能。位置补正功能的内容与上述第1及第2实施方式相同,控制装置340(手控制部42)根据力传感器21a、22a、23a的输出而取得多个(3个点)把持对象物110的接触位置,同时根据多个(3个点)接触位置的信息而修正把持对象物110的位置信息及姿势信息。
并且,第3实施方式的其他构成与上述第1及第2实施方式相同。
下面,参照图7对第3实施方式的机器人装置300在进行把持动作时的控制装置340的处理流程进行说明。在该第3实施方式中,根据控制装置340的作业动作程序345来进行机器人装置300的把持动作。
在第3实施方式的机器人装置300进行把持动作时的控制装置340的处理流程中,步骤S1及步骤S2与上述第1实施方式相同。即,如图7所示,在步骤S1中,根据由视觉传感器30所拍摄的图像数据,由控制装置340的图像处理部43来取得把持对象物110的位置信息、姿势信息及形状信息。接下来,在步骤S2中,通过将取得的把持对象物110的形状信息与控制装置340的对象物数据库44内的数据进行对照,从而取得对应于形状信息的把持对象物110的尺寸信息、把持对象物110的把持形态数据(把持位置及把持姿势)等。
接下来,在步骤S23中,通过由移动台车控制部346驱动移动台车350的马达352,从而使移动台车350向把持对象物110移动。具体而言,首先根据取得的把持对象物110的位置信息、姿势信息与把持对象物110的尺寸信息、把持形态数据,由臂控制部41、手控制部42及移动台车控制部346来决定把持对象物110向把持位置的移动路径及对应于把持姿势的多指手部20的靠近姿势。而且,根据把持对象物110向把持位置的移动路径,由移动台车控制部346来使移动台车350移动到可在把持位置配置多指手部20的位置。此时,由移动台车控制部346来取得移动台车350的移动距离。
接下来,在步骤S24中,通过控制装置340的手控制部42,根据把持对象物110的把持位置及把持姿势来将多指手部20的各手指部21、22、23配制成对于把持对象物110呈靠近姿势。
在此,在第3实施方式中,在步骤S25中,由控制装置340来判断在上述步骤S23中的移动台车350的移动量是否大于规定的阈值。在移动量大于规定的阈值时,判断成使用位置补正功能,进入步骤S26。另一方面,在移动台车350的移动量在规定的阈值以下时,判断成在该步骤S25的时刻不使用位置补正功能,进入步骤S30。
接下来,在步骤S26中,根据取得的把持对象物110的位置信息及姿势信息,由控制装置340的臂控制部41来使机器人臂10移动,执行使多指手部20接近把持对象物110的靠近动作。
伴随靠近动作的进行,由多指手部20的力传感器21a、22a、23a来分别检测出对于把持对象物110的接触,同时机器人臂10及多指手部20的动作暂时被停止。此时,通过控制装置340的手控制部42根据力传感器21a、22a、23a的输出来进行各手指部21、22、23的力控制(阻抗控制),从而以不改变把持对象物110的位置的强度来进行接触动作。在步骤S27中,由力传感器21a、22a、23a检测出的对于把持对象物110接触的位置(接触位置)分别由控制装置340(手控制部42)来取得。通过该步骤S27来取得把持对象物110的实际位置及姿势(在机器人臂10及多指手部20的坐标系上的位置及姿势)。
在步骤S28中,根据检测出的多个(3个点)接触位置的信息,由控制装置340的手控制部42来修正把持对象物110的位置信息及姿势信息。随之,根据修正后的把持对象物110的位置信息及姿势信息,由臂控制部41来修正机器人臂10的位置(即多指手部20的把持位置),同时由手控制部42来修正多指手部20(手指部21、22、23)的把持姿势。
在步骤S29中,在被修正的把持位置上配制多指手部20的状态下,通过由手控制部42来使多指手部20采取被修正的把持姿势,从而执行对把持对象物110的把持。
另一方面,在上述步骤S25中机器人装置300(移动台车350)的移动量在规定的阈值以下时,过渡至步骤S30。在步骤S30中,根据把持对象物110的位置信息及姿势信息,由臂控制部41来使机器人臂10移动,执行将多指手部20配置在把持对象物110的把持位置的靠近动作。
而且,在步骤S31中,由手控制部42来使各手指部21、22、23分别移动,多指手部20对于把持对象物110的把持动作开始。此时,由多指手部20的力传感器21a、22a、23a来分别检测出对于把持对象物110的接触,同时由控制装置340(手控制部42)来取得检测出接触的各个位置(接触位置)。因此,通过该步骤S31,在把持动作的过程中取得把持对象物110的实际位置及姿势(在机器人臂10及多指手部20的坐标系上的位置及姿势)。
而且,在该第3实施方式中,在步骤S32中,与上述步骤S25不同,由控制装置340来判断在上述步骤S1中取得的把持对象物110的位置信息与在上述步骤S31中检测出的对于把持对象物110的实际接触位置的偏离量是否大于规定的阈值,从而判断是否使用位置补正功能。即,在上述步骤S25中,虽然是根据移动台车350的移动量来判断是否使用位置补正功能,但是即使在移动台车350的移动量较小时,也可以考虑到发生位置信息与实际接触位置偏离的情况。考虑到该点,在第3实施方式中,在步骤S32中,在把持对象物110的位置信息与实际接触位置的偏离量大于规定的阈值时,进入步骤S33,在暂时中断把持动作的同时修正多指手部20的把持位置及把持姿势。另一方面,在把持对象物110的位置信息与实际接触位置的偏离量在规定的阈值以下时,不使用位置补正功能而直接进行把持动作,同时通过多指手部20采取把持姿势来完成对把持对象物110的把持。
在步骤S33中,与上述步骤S28相同,根据检测出的多个(3个点)接触位置的信息,由手控制部42来修正把持对象物110的位置信息及姿势信息。随之,根据修正后的把持对象物110的位置信息及姿势信息,由臂控制部41来修正机器人臂10的位置(即多指手部20的把持位置),同时由手控制部42来修正多指手部20(手指部21、22、23)的把持姿势。之后,过渡至步骤S29,由手控制部42来分别驱动各手指部21、22、23,通过多指手部20采取被修正的把持姿势来执行对把持对象物110的把持。
在第3实施方式中,如上所述,设置使在顶端设有多指手部20的机器人臂10向把持对象物110进行移动的移动台车350,根据通过图像处理部43来取得的把持对象物110的位置信息及姿势信息来使移动台车350及机器人臂10进行移动,从而使多指手部20接近把持对象物110,根据多指手部20的力传感器21a、22a、23a的输出而检测出对于把持对象物110的实际接触位置,根据检测出的接触位置的信息而修正把持对象物110的位置信息。这样,即使在因机器人装置300自身的位置变化而在通过图像处理部43来取得的把持对象物110的位置信息中容易包含误差的情况下,也可以通过多指手部20来检测出对于把持对象物110的实际接触位置,并根据检测出的接触位置的信息来修正把持对象物110的位置信息,因此可以确实地对把持对象物110进行把持。
并且,第3实施方式的其他效果与上述第2实施方式相同。
并且,应该认为,这次公开的实施方式在所有方面均为例示,不进行限制。
例如,在上述第1~第3实施方式中,虽然示出了应用于作为生活支援机器人来使用的机器人装置100(200、300)上的例子,但是不局限于这些。只要是具备机器人臂及多指手部的装置,则可以作为生活支援机器人以外的机器人装置来使用。例如,也可以应用于各种工业用机器人装置上。
另外,在上述第1~第3实施方式中,虽然示出了在作为检测单元的一例而设置视觉传感器(照相机)的同时,作为信息取得单元的一例而设置图像处理部的例子,但是不局限于这些。除了视觉传感器(照相机)以外,也可以通过键盘等输入装置来由使用者输入把持对象物的位置信息。另外,也可以组合视觉传感器、图像处理部与触摸面板,由使用者在触摸面板的画面上选择把持对象物。此外,也可以使用视觉传感器以外的距离传感器来取得对象物的位置信息,例如将压力传感器阵列状配置,取得放置在压力传感器(阵列)上的对象物的位置信息。
另外,在上述第1~第3实施方式中,虽然示出了根据检测出的接触位置的信息来修正把持对象物的位置信息并根据被修正的位置信息来由多指手部对把持对象物进行把持的例子,但是不局限于这些。也可以根据被修正的位置信息来进行把持以外的动作控制。例如,根据被修正的位置信息,在作为对象物的容器内收纳物体或者注入液体。
另外,在上述第1~第3实施方式中,虽然示出了在机器人装置上只设置1个机器人臂及1个多指手部的例子,但是不局限于这些。也可以设置多个机器人臂及多指手部。另外,也可以在1个机器人臂上设置多个多指手部。
另外,在上述第1~第3实施方式中,虽然示出了设置6自由度的机器人臂的例子,但是不局限于这些。也可以使用6自由度以外的机器人臂。同样,机器人臂的形状、机器人臂的关节部的位置等也可以是上述第1~第3实施方式中的构成以外的构成。
另外,在上述第1~第3实施方式中,虽然示出了设置具有3个2自由度的手指部的6自由度多指手部的例子,但是多指手部的手指自由度及个数不局限于这些。也可以在多指手部上设置2个手指部,也可以在多指手部上设置4个以上的手指部。另外,手指部也可以是1自由度,也可以是3自由度以上。而且,多指手部的形状、多指手部的各手指部的关节部各自的位置等也可以是上述第1~第3实施方式中的构成以外的构成。
另外,在上述第1~第3实施方式中,虽然示出了在多指手部的3个手指部上分别设置手指尖力传感器的例子,但是不局限于这些。至少在1个手指部上设置手指尖力传感器即可。
另外,在上述第1~第3实施方式中,虽然示出了由检测3轴方向上的力的压力传感器来构成作为手指尖力传感器的一例的力传感器21a、22a、23a的例子,但是不局限于这些。也可以由检测3轴以外的6轴方向上的力的传感器来构成手指尖力传感器。
另外,在上述第1~第3实施方式中的机器人装置的动作说明中,虽然对检测出对于把持对象物的实际接触位置并根据检测出的接触位置来修正把持对象物的位置信息及姿势信息的例子进行了说明,但是不局限于这些。实际接触位置的检测也可以将把持对象物以外的物体作为对象物。即,在把持对象物110被设置在工作台(参照图5)等的上面时,可以通过首先使多指手部20的手指部21、22、23接触工作台,并检测出对于工作台的接触位置来修正关于把持对象物110的高度位置(Z轴方向上的位置信息)的位置信息。另外,如果工作台大致呈水平,则由于在工作台上的把持对象物110的围绕X轴及Y轴的倾斜(姿势)也大致呈水平,因此可以通过检测出对于工作台的接触位置(3个点)来修正把持对象物110的姿势信息。由此,在根据视觉传感器的图像数据而识别出把持对象物被设置在工作台或架子等上时(在把持对象物与其他物体之间的位置关系明确时),通过将该工作台或架子作为对象物来检测出接触位置,从而可以减少需要从实际的把持对象物中取得的信息的数量(在修正位置信息及姿势信息时,用于特定各3自由度的合计6自由度的接触位置的个数)。
并且,在进行把持时,根据不同的把持对象物的形状,不需要特定6自由度的位置及姿势的情况也较多。例如,对于圆柱状的把持对象物,由于不需要考虑围绕Z轴的姿势,因此在这样的情况下,也可以在只取得位置信息的同时根据实际接触位置来修正位置信息并进行把持。
另外,虽然在上述第1实施方式中,示出了由使用者根据对控制装置40的设定来决定是否使用根据检测出的接触位置来修正把持对象物的位置信息的位置补正功能的例子,并在上述第2实施方式中,示出了根据位置信息与检测出的接触位置的偏离量的大小来决定是否使用根据检测出的接触位置来修正把持对象物的位置信息的位置补正功能的例子,并在上述第3实施方式中,示出了根据移动台车350的移动量及位置信息与检测出的接触位置的偏离量的大小来决定是否使用根据检测出的接触位置来修正把持对象物的位置信息的位置补正功能的例子,但是不局限于这些。也可以根据上述以外的其他判断基准来决定是否使用根据检测出的接触位置来修正把持对象物的位置信息的位置补正功能。
另外,在上述第1~第3实施方式中,虽然对根据检测出的接触位置来修正把持对象物的位置信息及姿势信息的例子进行了说明,但是不局限于这些。也可以根据检测出的接触位置来只修正把持对象物的位置信息。
另外,在上述第1~第3实施方式中,作为在对把持对象物110进行的把持动作中的多指手部20的力控制,虽然示出了通过进行阻抗控制而以不改变把持对象物110的位置的强度(所谓的轻柔接触)来使多指手部20(手指部21、22、23)接触把持对象物110的例子,但是不局限于这些。也可以通过进行阻抗控制以外的力控制,从而控制为以不改变把持对象物的位置的强度(所谓的轻柔接触)来使多指手部接触把持对象物。另外,也可以不进行力控制而使多指手部接触把持对象物。
另外,在上述第1~第3实施方式中,虽然示出了将对象物数据库44与通过图像处理部43取得的对象物的形状信息进行对照而取得把持对象物110的尺寸信息的例子,但是不局限于这些。也可以在不取得尺寸信息的情况下根据由图像处理部43取得的对象物的位置信息、姿势信息、形状信息而进行对于把持对象物的接触动作。
另外,在上述第1~第3实施方式中,虽然示出了控制装置包括对象物数据库的例子,但是不局限于这些。例如也可以在外部的服务器中设置对象物数据库,同时使控制装置访问外部的服务器而取得把持对象物的尺寸信息、把持形态数据等对象物数据库的信息。
另外,在上述第3实施方式中,虽然示出了在机器人装置300上设置4轮移动台车350,并将控制装置340内置于移动台车350上的例子,但是不局限于这些。不需要将移动台车制成4轮,也不需要将控制装置内置于移动台车上。移动台车也可以是3轮,也可以是履带(无限轨道)型,也可以是在导轨等的轨道上移动。控制装置可以设置在移动台车的内部,也可以设置在移动台车的外部。
Claims (10)
1.一种机器人装置,其特征为,具备:
机器人臂;
多指手部,设置在所述机器人臂的顶端,具有用于进行力控制的手指尖力传感器;
信息取得单元,通过由使用者进行的输入或由检测单元进行的检测来取得对象物的至少位置信息;
及控制部,根据通过所述信息取得单元来取得的所述对象物的至少位置信息,使所述机器人臂进行移动而使所述多指手部接近所述对象物,根据所述多指手部的手指尖力传感器的输出而检测出对于所述对象物的实际接触位置,根据检测出的所述接触位置的信息而修正所述对象物的所述位置信息。
2.根据权利要求1所述的机器人装置,其特征为,所述控制部进行如下控制,根据所述被修正的位置信息来修正所述多指手部的把持位置,同时通过所述多指手部来把持所述对象物。
3.根据权利要求1所述的机器人装置,其特征为,
所述信息取得单元通过由使用者进行的输入或由检测单元进行的检测,来取得所述对象物的位置信息并且还取得姿势信息,
所述控制部根据通过所述信息取得单元来取得的所述对象物的位置信息及所述姿势信息,使所述机器人臂进行移动而使所述多指手部接近所述对象物,根据所述多指手部的手指尖力传感器的输出而检测出对于所述对象物的实际接触位置,根据检测出的所述接触位置的信息而修正所述对象物的所述位置信息及所述姿势信息。
4.根据权利要求1所述的机器人装置,其特征为,
可以由使用者来设定是否进行对所述位置信息的修正,
所述控制部如下构成,在被设定为进行对所述位置信息的修正时,根据所述手指尖力传感器的输出而检测出对于所述对象物的实际接触位置,根据检测出的所述接触位置的信息而修正所述对象物的所述位置信息。
5.根据权利要求1所述的机器人装置,其特征为,
所述控制部如下构成,在基于通过所述信息取得单元来取得的所述对象物的位置信息的位置与检测出的对于所述对象物的实际接触位置的偏离量大于规定的阈值时,根据检测出的所述接触位置的信息而修正所述对象物的所述位置信息。
6.根据权利要求1所述的机器人装置,其特征为,
在所述多指手部的手指尖上设置有多个所述手指尖力传感器,
所述控制部根据多个所述手指尖力传感器的输出而检测出对于所述对象物的实际接触位置,根据检测出的所述接触位置的信息而修正所述对象物的所述位置信息。
7.根据权利要求1所述的机器人装置,其特征为,
所述信息取得单元通过由使用者进行的输入或由检测单元进行的检测来取得对象物的位置信息及形状信息,
所述控制部如下构成,将预先储存有对象物信息的数据库与通过所述信息取得单元来取得的对象物的形状信息进行对照而得到所述对象物的尺寸信息,同时根据所述对象物的所述尺寸信息及所述位置信息,使所述机器人臂进行移动而使所述多指手部接近所述对象物,根据所述多指手部的手指尖力传感器的输出而检测出对于所述对象物的实际接触位置。
8.根据权利要求1所述的机器人装置,其特征为,
所述控制部如下构成,根据所述对象物的至少位置信息,通过由所述多指手部的手指尖力传感器进行的力控制,在以不改变所述对象物的位置的强度使所述多指手部接触所述对象物的状态下,根据所述多指手部的手指尖力传感器的输出而检测出对于所述对象物的实际接触位置,根据检测出的所述接触位置的信息而修正所述对象物的所述位置信息。
9.根据权利要求1所述的机器人装置,其特征为,
还具备使在顶端设有所述多指手部的所述机器人臂向所述对象物进行移动的移动台车,
根据通过所述信息取得单元来取得的所述对象物的至少位置信息,使所述移动台车及所述机器人臂进行移动而使所述多指手部接近所述对象物,根据所述多指手部的手指尖力传感器的输出而检测出对于所述对象物的实际接触位置,根据检测出的所述接触位置的信息而修正所述对象物的所述位置信息。
10.一种机器人装置的把持方法,其为基于包括在顶端设有具有手指尖力传感器的多指手部的机器人臂的机器人装置的把持方法,其特征为,具备:
取得对象物的至少位置信息的步骤;
根据取得的所述对象物的至少位置信息,使所述机器人臂进行移动而使所述机器人臂顶端的所述多指手部接近所述对象物,根据所述多指手部的所述手指尖力传感器的输出而检测出对于所述对象物的实际接触位置的步骤;
及根据检测出的所述接触位置的信息而修正所述对象物的所述位置信息的步骤。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010-152765 | 2010-07-05 | ||
JP2010152765A JP5505138B2 (ja) | 2010-07-05 | 2010-07-05 | ロボット装置およびロボット装置による把持方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102310409A true CN102310409A (zh) | 2012-01-11 |
Family
ID=45400302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011101888295A Pending CN102310409A (zh) | 2010-07-05 | 2011-07-05 | 机器人装置及基于机器人装置的把持方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8498745B2 (zh) |
EP (1) | EP2460628A3 (zh) |
JP (1) | JP5505138B2 (zh) |
CN (1) | CN102310409A (zh) |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103192404A (zh) * | 2013-04-12 | 2013-07-10 | 安徽埃夫特智能装备有限公司 | 工业机器人视觉抓具 |
CN104169051A (zh) * | 2012-03-19 | 2014-11-26 | 株式会社安川电机 | 作业机器人及机器人系统 |
CN104669281A (zh) * | 2015-03-16 | 2015-06-03 | 青岛海之晨工业装备有限公司 | 基于3d机器视觉引导的工业机器人自动拆垛系统 |
CN105313127A (zh) * | 2014-06-02 | 2016-02-10 | 精工爱普生株式会社 | 机器人、机器人的控制方法以及机器人的控制装置 |
CN105415370A (zh) * | 2014-09-16 | 2016-03-23 | 发那科株式会社 | 物品取出装置 |
CN105775734A (zh) * | 2016-05-05 | 2016-07-20 | 连云港贝斯特机械设备有限公司 | 一种培养基筐搬运机器人及使用控制方法 |
CN106239476A (zh) * | 2015-06-08 | 2016-12-21 | 发那科株式会社 | 机器人与具备力的显示功能的机器人控制装置 |
CN107042527A (zh) * | 2017-05-20 | 2017-08-15 | 天津大学 | 一种基于三维力传感器的工业机器人标定装置及标定方法 |
CN107108120A (zh) * | 2014-12-25 | 2017-08-29 | 株式会社大福 | 物品搬运用容器升降搬运装置 |
CN107363830A (zh) * | 2016-03-18 | 2017-11-21 | 精工爱普生株式会社 | 机器人控制装置、机器人以及机器人系统 |
CN107363837A (zh) * | 2017-09-08 | 2017-11-21 | 桂林加宏汽车修理有限公司 | 一种机械手控制系统及控制机械手捕获物体的方法 |
CN107650149A (zh) * | 2017-08-21 | 2018-02-02 | 北京精密机电控制设备研究所 | 一种基于串联机械臂的接触与非接触融合测量系统及方法 |
CN108290295A (zh) * | 2015-11-16 | 2018-07-17 | 川崎重工业株式会社 | 机器人及机器人的作业方法 |
CN108465641A (zh) * | 2018-03-14 | 2018-08-31 | 郑州工程技术学院 | 一种货物分拣系统 |
CN109500810A (zh) * | 2017-09-15 | 2019-03-22 | 株式会社东芝 | 把持装置及搬运设备 |
CN110355774A (zh) * | 2018-04-10 | 2019-10-22 | 发那科株式会社 | 手控制装置及手控制系统 |
CN110394797A (zh) * | 2018-04-24 | 2019-11-01 | 发那科株式会社 | 机器人控制装置和系统 |
CN110465960A (zh) * | 2019-01-18 | 2019-11-19 | 牧今科技 | 具有物件丢失管理机制的机器人系统 |
CN110757490A (zh) * | 2019-12-03 | 2020-02-07 | 徐州欧普莱斯工业机械有限公司 | 一种用于轮胎搬运的稳定、安全型机械手 |
CN110871444A (zh) * | 2018-08-31 | 2020-03-10 | 发那科株式会社 | 信息处理装置以及信息处理方法 |
CN110914025A (zh) * | 2017-07-14 | 2020-03-24 | Thk株式会社 | 把持系统 |
CN110921302A (zh) * | 2019-12-03 | 2020-03-27 | 徐州欧普莱斯工业机械有限公司 | 一种用于搬运轮胎的机械手的工作方法 |
CN111232637A (zh) * | 2020-02-14 | 2020-06-05 | 广东技术师范大学 | 一种灵活的搬运机械手 |
CN111283713A (zh) * | 2020-03-30 | 2020-06-16 | 安徽轶记机械科技有限公司 | 一种适用于多种规格的零部件抓取的机械手臂 |
CN112173519A (zh) * | 2019-07-01 | 2021-01-05 | 上海快仓智能科技有限公司 | 控制方法和自动引导车 |
CN112173518A (zh) * | 2019-07-01 | 2021-01-05 | 上海快仓智能科技有限公司 | 控制方法和自动引导车 |
CN112236272A (zh) * | 2018-07-13 | 2021-01-15 | 欧姆龙株式会社 | 把持姿态评价装置和把持姿态评价程序 |
WO2021012122A1 (zh) * | 2019-07-19 | 2021-01-28 | 西门子(中国)有限公司 | 机器人手眼标定方法、装置、计算设备、介质以及产品 |
CN112428248A (zh) * | 2019-08-26 | 2021-03-02 | 精工爱普生株式会社 | 机器人系统及控制方法 |
CN113015604A (zh) * | 2018-12-11 | 2021-06-22 | 株式会社富士 | 机器人控制系统及机器人控制方法 |
CN114269521A (zh) * | 2019-08-09 | 2022-04-01 | 索尼集团公司 | 信息处理装置、信息处理方法、程序和机器人 |
CN114845845A (zh) * | 2019-12-16 | 2022-08-02 | 国立大学法人东北大学 | 把持装置、控制方法和程序 |
CN115592662A (zh) * | 2021-07-08 | 2023-01-13 | 精工爱普生株式会社(Jp) | 拣选方法、拣选系统以及拣选控制装置 |
TWI861970B (zh) * | 2022-06-30 | 2024-11-11 | 日商川崎重工業股份有限公司 | 機械人、機械人系統及機械人之作業方法 |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10105844B2 (en) * | 2016-06-16 | 2018-10-23 | General Electric Company | System and method for controlling robotic machine assemblies to perform tasks on vehicles |
EP2255930A1 (de) * | 2009-05-27 | 2010-12-01 | Leica Geosystems AG | Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum |
JP5454491B2 (ja) * | 2011-02-25 | 2014-03-26 | 株式会社安川電機 | 作業システム |
CN103889650B (zh) * | 2011-11-16 | 2017-05-24 | 日产自动车株式会社 | 接合体的制造方法及其制造装置 |
KR101294348B1 (ko) | 2012-05-11 | 2013-08-07 | 재단법인대구경북과학기술원 | 원격제어 로봇의 자율적 협업 기반 밸브 조작 방법 및 그 시스템 |
DE102012208094A1 (de) * | 2012-05-15 | 2013-11-21 | Kuka Laboratories Gmbh | Verfahren zum Ermitteln möglicher Positionen eines Roboterarms |
JP5469216B2 (ja) * | 2012-07-31 | 2014-04-16 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置 |
JP6195333B2 (ja) * | 2012-08-08 | 2017-09-13 | キヤノン株式会社 | ロボット装置 |
US20140209434A1 (en) * | 2013-01-31 | 2014-07-31 | Honda Motor Co., Ltd. | Apparatus for use with fixture assembly and workpiece |
CN104552322A (zh) * | 2013-10-28 | 2015-04-29 | 精工爱普生株式会社 | 把持装置、机器人以及把持方法 |
JP6255901B2 (ja) * | 2013-10-30 | 2018-01-10 | セイコーエプソン株式会社 | ロボット制御装置、ロボットおよびロボットシステム |
JP6511715B2 (ja) * | 2013-10-31 | 2019-05-15 | セイコーエプソン株式会社 | ロボット制御装置、ロボットシステム、及びロボット |
JP2015085500A (ja) * | 2013-11-01 | 2015-05-07 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置 |
CN104760040A (zh) * | 2013-11-01 | 2015-07-08 | 精工爱普生株式会社 | 机器人、控制装置以及机器人系统 |
JP6415291B2 (ja) | 2014-12-09 | 2018-10-31 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP6541397B2 (ja) * | 2015-04-06 | 2019-07-10 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10272573B2 (en) * | 2015-12-18 | 2019-04-30 | Ge Global Sourcing Llc | Control system and method for applying force to grasp a brake lever |
JP6752615B2 (ja) * | 2015-07-29 | 2020-09-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム |
US10029372B2 (en) * | 2015-12-11 | 2018-07-24 | General Electric Company | Control system and method for brake bleeding |
US10471595B2 (en) * | 2016-05-31 | 2019-11-12 | Ge Global Sourcing Llc | Systems and methods for control of robotic manipulation |
CN107225577A (zh) * | 2016-03-25 | 2017-10-03 | 深圳光启合众科技有限公司 | 应用在智能机器人上的触觉感知方法以及触觉感知装置 |
US9827670B1 (en) * | 2016-05-24 | 2017-11-28 | X Development Llc | Coaxial finger face and base encoding |
CN107717981B (zh) * | 2016-08-12 | 2021-01-05 | 财团法人工业技术研究院 | 机械手臂的控制装置及其教导系统与方法 |
US10781056B2 (en) * | 2016-12-22 | 2020-09-22 | General Electric Company | Adaptive apparatus and system for automated handling of components |
US10773902B2 (en) * | 2016-12-22 | 2020-09-15 | General Electric Company | Adaptive apparatus and system for automated handling of components |
JP2018111155A (ja) * | 2017-01-11 | 2018-07-19 | セイコーエプソン株式会社 | ロボット制御装置、ロボット、及びロボットシステム |
JP7178994B2 (ja) * | 2017-05-15 | 2022-11-28 | Thk株式会社 | 把持システム |
JP6640792B2 (ja) | 2017-06-30 | 2020-02-05 | ファナック株式会社 | ハンド制御装置、ハンド制御方法、およびハンドのシミュレーション装置 |
DE102018200435B3 (de) * | 2017-07-31 | 2018-11-15 | Volkswagen Aktiengesellschaft | Kraftfahrzeug und Verfahren zum Steuern eines Roboters |
JP6678832B2 (ja) * | 2017-09-22 | 2020-04-08 | 三菱電機株式会社 | 遠隔制御マニピュレータシステムおよび制御装置 |
JP6927852B2 (ja) | 2017-11-01 | 2021-09-01 | Thk株式会社 | ハンド機構 |
KR102586779B1 (ko) * | 2018-03-27 | 2023-10-11 | 소니그룹주식회사 | 제어 장치, 제어 방법, 및 프로그램 |
JP7124440B2 (ja) * | 2018-05-23 | 2022-08-24 | セイコーエプソン株式会社 | ロボット制御装置およびロボットシステム |
US11919147B2 (en) | 2018-08-29 | 2024-03-05 | Fastbrick Ip Pty Ltd | Gripping apparatus |
JP7141288B2 (ja) * | 2018-09-25 | 2022-09-22 | 川崎重工業株式会社 | ロボットシステム |
EP3867047B1 (en) | 2018-10-15 | 2024-11-27 | General Electric Company | System and methods of automated film removal |
JP7000361B2 (ja) * | 2019-01-24 | 2022-01-19 | ファナック株式会社 | 追随ロボットおよび作業ロボットシステム |
US11312581B2 (en) * | 2019-04-16 | 2022-04-26 | Abb Schweiz Ag | Object grasp system and method |
US11620416B2 (en) * | 2019-05-02 | 2023-04-04 | Dassault Systemes Americas Corp. | Systems and methods for determining digital model positioning for grasping |
CN110181500B (zh) * | 2019-06-06 | 2021-07-13 | 广东海洋大学 | 一种仿生机械手的控制系统及其控制方法 |
CN110640732B (zh) * | 2019-09-30 | 2022-10-11 | 佛山科学技术学院 | 一种柔顺夹持器的自适应抓取方法 |
CN113119103B (zh) * | 2019-12-31 | 2022-10-14 | 深圳富泰宏精密工业有限公司 | 确定标记物的深度标准值的方法、计算机装置 |
JP7358994B2 (ja) | 2020-01-08 | 2023-10-11 | オムロン株式会社 | ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラム |
US12122616B2 (en) * | 2020-01-09 | 2024-10-22 | Fanuc Corporation | Workpiece transfer system |
WO2021166918A1 (ja) * | 2020-02-17 | 2021-08-26 | 株式会社Preferred Networks | ロボット |
JP7133604B2 (ja) * | 2020-11-05 | 2022-09-08 | Dmg森精機株式会社 | ロボット搭載移動装置及びシステムの位置決め制御方法 |
JP7620882B2 (ja) | 2021-07-12 | 2025-01-24 | Johnan株式会社 | ピッキングシステム |
US20230021942A1 (en) * | 2021-07-14 | 2023-01-26 | Dassault Systèmes Americas Corp. | Environment-aware Prepositioning Of Digital Models In An Environment |
JPWO2023013699A1 (zh) * | 2021-08-03 | 2023-02-09 | ||
JP2023029076A (ja) | 2021-08-20 | 2023-03-03 | ミネベアミツミ株式会社 | 把持装置及び把持装置の制御方法 |
JP7678135B2 (ja) | 2021-11-29 | 2025-05-15 | 京セラ株式会社 | 制御装置、ロボット制御システム、及びロボット制御方法 |
US20230271319A1 (en) * | 2022-02-28 | 2023-08-31 | Denso Wave Incorporated | Method of generating a learning model for transferring fluid from one container to another by controlling robot arm based on a machine-learned learning model, and a method and system for weighing the fluid |
WO2024009387A1 (ja) * | 2022-07-05 | 2024-01-11 | ファナック株式会社 | ビジョンシステム、及びビジョン検出方法 |
CN117549338B (zh) * | 2024-01-09 | 2024-03-29 | 北京李尔现代坦迪斯汽车系统有限公司 | 一种用于汽车坐垫生产车间的抓取机器人 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10100089A (ja) * | 1996-08-05 | 1998-04-21 | Yaskawa Electric Corp | 多関節多指ハンドの把持制御方法及び物体把持方法 |
CN1843712A (zh) * | 2006-05-12 | 2006-10-11 | 上海大学 | 基于虚拟现实机器人灵巧手遥操作平台 |
CN100999077A (zh) * | 2006-12-28 | 2007-07-18 | 中国科学院合肥物质科学研究院 | 一种多用途形状自适应机器人手爪及工作方法 |
JP2009078310A (ja) * | 2007-09-25 | 2009-04-16 | Seiko Epson Corp | ロボット用ハンド及びロボット用ハンドの制御方法並びにロボット用ハンドの制御システム |
CN101522377A (zh) * | 2006-10-20 | 2009-09-02 | 株式会社日立制作所 | 机械手 |
WO2009144767A1 (ja) * | 2008-05-29 | 2009-12-03 | 株式会社ハーモニック・ドライブ・システムズ | 複合型センサおよびロボットハンド |
CN101618544A (zh) * | 2008-07-04 | 2010-01-06 | 发那科株式会社 | 物品取出装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06277959A (ja) * | 1993-03-29 | 1994-10-04 | Mazda Motor Corp | 物品組付ロボットの制御方法および制御装置 |
JP3670700B2 (ja) * | 1994-04-27 | 2005-07-13 | 株式会社日立製作所 | ロボット機構制御方法 |
JPH0947986A (ja) * | 1995-08-09 | 1997-02-18 | Toshiba Corp | ロボットハンド及び位置姿勢補正ロボット並びに自動教示ロボット |
JP2003094367A (ja) | 2001-09-21 | 2003-04-03 | Ricoh Co Ltd | 手先視覚付ロボットハンド |
EP1472052A2 (en) * | 2002-01-31 | 2004-11-03 | Braintech Canada, Inc. | Method and apparatus for single camera 3d vision guided robotics |
US6996456B2 (en) * | 2002-10-21 | 2006-02-07 | Fsi International, Inc. | Robot with tactile sensor device |
JP4055703B2 (ja) | 2003-12-05 | 2008-03-05 | トヨタ自動車株式会社 | ロボットハンド装置 |
JP2005349492A (ja) * | 2004-06-08 | 2005-12-22 | Sharp Corp | ロボットハンド |
JP2006102920A (ja) * | 2004-10-08 | 2006-04-20 | Fanuc Ltd | 把握型ハンド |
JP2007122705A (ja) * | 2005-09-30 | 2007-05-17 | Nachi Fujikoshi Corp | 溶接教示位置補正システム及びキャリブレーション方法 |
JP5013270B2 (ja) * | 2006-02-02 | 2012-08-29 | 株式会社安川電機 | ロボットシステム |
JP2008055584A (ja) * | 2006-09-04 | 2008-03-13 | Toyota Motor Corp | 物体把持を行うロボット及びロボットによる物体の把持方法 |
WO2008058061A2 (en) * | 2006-11-03 | 2008-05-15 | President And Fellows Of Harvard College | Robust compliant adaptive grasper and method of manufacturing same |
US8255092B2 (en) * | 2007-05-14 | 2012-08-28 | Irobot Corporation | Autonomous behaviors for a remote vehicle |
KR101479232B1 (ko) * | 2008-05-13 | 2015-01-06 | 삼성전자 주식회사 | 로봇과 로봇 핸드, 로봇 핸드의 제어 방법 |
JP5281377B2 (ja) * | 2008-12-04 | 2013-09-04 | トヨタ自動車株式会社 | ロボット装置 |
US20100256814A1 (en) * | 2009-04-07 | 2010-10-07 | Smith Joshua R | System and methods for robotic manipulation |
US8504198B2 (en) * | 2009-05-14 | 2013-08-06 | Honda Motor Co., Ltd. | Robot hand and control system, control method and control program for the same |
-
2010
- 2010-07-05 JP JP2010152765A patent/JP5505138B2/ja not_active Expired - Fee Related
-
2011
- 2011-07-04 US US13/175,933 patent/US8498745B2/en not_active Expired - Fee Related
- 2011-07-04 EP EP11172485.2A patent/EP2460628A3/en not_active Withdrawn
- 2011-07-05 CN CN2011101888295A patent/CN102310409A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10100089A (ja) * | 1996-08-05 | 1998-04-21 | Yaskawa Electric Corp | 多関節多指ハンドの把持制御方法及び物体把持方法 |
CN1843712A (zh) * | 2006-05-12 | 2006-10-11 | 上海大学 | 基于虚拟现实机器人灵巧手遥操作平台 |
CN101522377A (zh) * | 2006-10-20 | 2009-09-02 | 株式会社日立制作所 | 机械手 |
CN100999077A (zh) * | 2006-12-28 | 2007-07-18 | 中国科学院合肥物质科学研究院 | 一种多用途形状自适应机器人手爪及工作方法 |
JP2009078310A (ja) * | 2007-09-25 | 2009-04-16 | Seiko Epson Corp | ロボット用ハンド及びロボット用ハンドの制御方法並びにロボット用ハンドの制御システム |
WO2009144767A1 (ja) * | 2008-05-29 | 2009-12-03 | 株式会社ハーモニック・ドライブ・システムズ | 複合型センサおよびロボットハンド |
CN101618544A (zh) * | 2008-07-04 | 2010-01-06 | 发那科株式会社 | 物品取出装置 |
Cited By (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104169051A (zh) * | 2012-03-19 | 2014-11-26 | 株式会社安川电机 | 作业机器人及机器人系统 |
CN103192404A (zh) * | 2013-04-12 | 2013-07-10 | 安徽埃夫特智能装备有限公司 | 工业机器人视觉抓具 |
CN103192404B (zh) * | 2013-04-12 | 2016-01-13 | 安徽埃夫特智能装备有限公司 | 工业机器人视觉抓具 |
CN105313127A (zh) * | 2014-06-02 | 2016-02-10 | 精工爱普生株式会社 | 机器人、机器人的控制方法以及机器人的控制装置 |
CN105415370A (zh) * | 2014-09-16 | 2016-03-23 | 发那科株式会社 | 物品取出装置 |
CN107108120A (zh) * | 2014-12-25 | 2017-08-29 | 株式会社大福 | 物品搬运用容器升降搬运装置 |
CN107108120B (zh) * | 2014-12-25 | 2019-05-10 | 株式会社大福 | 物品搬运用容器升降搬运装置 |
CN104669281A (zh) * | 2015-03-16 | 2015-06-03 | 青岛海之晨工业装备有限公司 | 基于3d机器视觉引导的工业机器人自动拆垛系统 |
US9889561B2 (en) | 2015-06-08 | 2018-02-13 | Fanuc Corporation | Robot controller having function for displaying robot and force |
CN106239476A (zh) * | 2015-06-08 | 2016-12-21 | 发那科株式会社 | 机器人与具备力的显示功能的机器人控制装置 |
CN108290295B (zh) * | 2015-11-16 | 2021-12-07 | 川崎重工业株式会社 | 机器人及机器人的作业方法 |
CN108290295A (zh) * | 2015-11-16 | 2018-07-17 | 川崎重工业株式会社 | 机器人及机器人的作业方法 |
CN107363830B (zh) * | 2016-03-18 | 2022-02-25 | 精工爱普生株式会社 | 机器人控制装置、机器人以及机器人系统 |
CN107363830A (zh) * | 2016-03-18 | 2017-11-21 | 精工爱普生株式会社 | 机器人控制装置、机器人以及机器人系统 |
CN105775734A (zh) * | 2016-05-05 | 2016-07-20 | 连云港贝斯特机械设备有限公司 | 一种培养基筐搬运机器人及使用控制方法 |
CN105775734B (zh) * | 2016-05-05 | 2018-02-06 | 连云港贝斯特机械设备有限公司 | 一种培养基筐搬运机器人及使用控制方法 |
CN107042527A (zh) * | 2017-05-20 | 2017-08-15 | 天津大学 | 一种基于三维力传感器的工业机器人标定装置及标定方法 |
CN107042527B (zh) * | 2017-05-20 | 2023-04-28 | 天津大学 | 一种基于三维力传感器的工业机器人标定装置及标定方法 |
CN110914025A (zh) * | 2017-07-14 | 2020-03-24 | Thk株式会社 | 把持系统 |
CN110914025B (zh) * | 2017-07-14 | 2023-11-07 | Thk株式会社 | 把持系统 |
CN107650149A (zh) * | 2017-08-21 | 2018-02-02 | 北京精密机电控制设备研究所 | 一种基于串联机械臂的接触与非接触融合测量系统及方法 |
CN107650149B (zh) * | 2017-08-21 | 2020-09-18 | 北京精密机电控制设备研究所 | 一种基于串联机械臂的接触与非接触融合测量系统及方法 |
CN107363837A (zh) * | 2017-09-08 | 2017-11-21 | 桂林加宏汽车修理有限公司 | 一种机械手控制系统及控制机械手捕获物体的方法 |
CN109500810A (zh) * | 2017-09-15 | 2019-03-22 | 株式会社东芝 | 把持装置及搬运设备 |
CN108465641A (zh) * | 2018-03-14 | 2018-08-31 | 郑州工程技术学院 | 一种货物分拣系统 |
CN108465641B (zh) * | 2018-03-14 | 2020-01-17 | 郑州工程技术学院 | 一种货物分拣系统 |
CN110355774B (zh) * | 2018-04-10 | 2024-09-06 | 发那科株式会社 | 手控制装置及手控制系统 |
CN110355774A (zh) * | 2018-04-10 | 2019-10-22 | 发那科株式会社 | 手控制装置及手控制系统 |
CN110394797A (zh) * | 2018-04-24 | 2019-11-01 | 发那科株式会社 | 机器人控制装置和系统 |
CN112236272B (zh) * | 2018-07-13 | 2024-01-30 | 欧姆龙株式会社 | 把持姿态评价装置和把持姿态评价程序 |
CN112236272A (zh) * | 2018-07-13 | 2021-01-15 | 欧姆龙株式会社 | 把持姿态评价装置和把持姿态评价程序 |
CN110871444A (zh) * | 2018-08-31 | 2020-03-10 | 发那科株式会社 | 信息处理装置以及信息处理方法 |
CN113015604B (zh) * | 2018-12-11 | 2024-03-08 | 株式会社富士 | 机器人控制系统及机器人控制方法 |
CN113015604A (zh) * | 2018-12-11 | 2021-06-22 | 株式会社富士 | 机器人控制系统及机器人控制方法 |
US11654558B2 (en) | 2019-01-18 | 2023-05-23 | Mujin, Inc. | Robotic system with piece-loss management mechanism |
US12208525B2 (en) | 2019-01-18 | 2025-01-28 | Mujin, Inc. | Robotic system with piece-loss management mechanism |
CN110465960A (zh) * | 2019-01-18 | 2019-11-19 | 牧今科技 | 具有物件丢失管理机制的机器人系统 |
CN112173518A (zh) * | 2019-07-01 | 2021-01-05 | 上海快仓智能科技有限公司 | 控制方法和自动引导车 |
CN112173519A (zh) * | 2019-07-01 | 2021-01-05 | 上海快仓智能科技有限公司 | 控制方法和自动引导车 |
CN114174006B (zh) * | 2019-07-19 | 2024-03-05 | 西门子(中国)有限公司 | 机器人手眼标定方法、装置、计算设备、介质以及产品 |
WO2021012122A1 (zh) * | 2019-07-19 | 2021-01-28 | 西门子(中国)有限公司 | 机器人手眼标定方法、装置、计算设备、介质以及产品 |
CN114174006A (zh) * | 2019-07-19 | 2022-03-11 | 西门子(中国)有限公司 | 机器人手眼标定方法、装置、计算设备、介质以及产品 |
US12042942B2 (en) | 2019-07-19 | 2024-07-23 | Siemens Ltd., China | Robot hand-eye calibration method and apparatus, computing device, medium and product |
CN114269521A (zh) * | 2019-08-09 | 2022-04-01 | 索尼集团公司 | 信息处理装置、信息处理方法、程序和机器人 |
US12186891B2 (en) | 2019-08-09 | 2025-01-07 | Sony Group Corporation | Information processing device, information processing method, program, and robot |
CN114269521B (zh) * | 2019-08-09 | 2024-08-02 | 索尼集团公司 | 信息处理装置、信息处理方法、程序和机器人 |
CN112428248B (zh) * | 2019-08-26 | 2024-01-05 | 精工爱普生株式会社 | 机器人系统及控制方法 |
CN112428248A (zh) * | 2019-08-26 | 2021-03-02 | 精工爱普生株式会社 | 机器人系统及控制方法 |
CN110921302A (zh) * | 2019-12-03 | 2020-03-27 | 徐州欧普莱斯工业机械有限公司 | 一种用于搬运轮胎的机械手的工作方法 |
CN110757490A (zh) * | 2019-12-03 | 2020-02-07 | 徐州欧普莱斯工业机械有限公司 | 一种用于轮胎搬运的稳定、安全型机械手 |
US12168302B2 (en) | 2019-12-16 | 2024-12-17 | Tohoku University | Grasping device, control method, and program |
CN114845845A (zh) * | 2019-12-16 | 2022-08-02 | 国立大学法人东北大学 | 把持装置、控制方法和程序 |
CN111232637A (zh) * | 2020-02-14 | 2020-06-05 | 广东技术师范大学 | 一种灵活的搬运机械手 |
CN111283713A (zh) * | 2020-03-30 | 2020-06-16 | 安徽轶记机械科技有限公司 | 一种适用于多种规格的零部件抓取的机械手臂 |
CN115592662A (zh) * | 2021-07-08 | 2023-01-13 | 精工爱普生株式会社(Jp) | 拣选方法、拣选系统以及拣选控制装置 |
TWI861970B (zh) * | 2022-06-30 | 2024-11-11 | 日商川崎重工業股份有限公司 | 機械人、機械人系統及機械人之作業方法 |
Also Published As
Publication number | Publication date |
---|---|
US8498745B2 (en) | 2013-07-30 |
JP5505138B2 (ja) | 2014-05-28 |
EP2460628A3 (en) | 2016-09-21 |
JP2012011531A (ja) | 2012-01-19 |
US20120004774A1 (en) | 2012-01-05 |
EP2460628A2 (en) | 2012-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102310409A (zh) | 机器人装置及基于机器人装置的把持方法 | |
CN108214454B (zh) | 机器人系统、机器人控制装置及机器人控制方法 | |
US8504206B2 (en) | Control apparatus and method for master-slave robot, master-slave robot, control program, and integrated electronic circuit | |
US9193072B2 (en) | Robot and control method thereof | |
US11230004B2 (en) | Robot system and robot control method | |
JP6450960B2 (ja) | ロボット、ロボットシステム及び教示方法 | |
JP6454960B2 (ja) | ロボット、ロボットシステム、ロボット制御装置 | |
CN107962563B (zh) | 控制装置、机器人以及机器人系统 | |
JP2015085458A (ja) | ロボット制御装置、ロボットシステム、及びロボット | |
US10195744B2 (en) | Control device, robot, and robot system | |
JP2011115877A (ja) | 双腕ロボット | |
JP7044047B2 (ja) | ロボット | |
US10960542B2 (en) | Control device and robot system | |
JP2015000455A (ja) | ロボット装置及びロボット装置の制御方法 | |
JP2009078310A (ja) | ロボット用ハンド及びロボット用ハンドの制御方法並びにロボット用ハンドの制御システム | |
CN110914025B (zh) | 把持系统 | |
JP6217322B2 (ja) | ロボット制御装置、ロボット及びロボット制御方法 | |
JP2021045810A (ja) | モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステム | |
JP3328414B2 (ja) | ロボットハンドの姿勢制御装置 | |
JP2017039184A (ja) | ロボット | |
JP2015085499A (ja) | ロボット、ロボットシステム、制御装置及び制御方法 | |
JP2013111684A (ja) | ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、並びに、ロボットアームの制御用集積電子回路 | |
WO2021130929A1 (ja) | ロボット、システム、方法及びプログラム | |
JP4715296B2 (ja) | ロボットハンドの持ち替え把持制御方法。 | |
JP7259487B2 (ja) | 制御方法およびロボットシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20120111 |