WO2020012712A1 - 把持姿勢評価装置及び把持姿勢評価プログラム - Google Patents

把持姿勢評価装置及び把持姿勢評価プログラム Download PDF

Info

Publication number
WO2020012712A1
WO2020012712A1 PCT/JP2019/009816 JP2019009816W WO2020012712A1 WO 2020012712 A1 WO2020012712 A1 WO 2020012712A1 JP 2019009816 W JP2019009816 W JP 2019009816W WO 2020012712 A1 WO2020012712 A1 WO 2020012712A1
Authority
WO
WIPO (PCT)
Prior art keywords
gripping
index value
posture
gripping posture
unit
Prior art date
Application number
PCT/JP2019/009816
Other languages
English (en)
French (fr)
Inventor
僚一 倉谷
茜 中島
心一 細見
章洋 鈴村
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to CN201980038340.4A priority Critical patent/CN112236272B/zh
Priority to EP19833268.6A priority patent/EP3822048B1/en
Priority to US17/253,700 priority patent/US20210260755A1/en
Publication of WO2020012712A1 publication Critical patent/WO2020012712A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50391Robot

Definitions

  • the present invention relates to a gripping posture evaluation device and a gripping posture evaluation program.
  • the worker adjusts the transfer conditions including the holding posture and the like so that the work held by the robot by the robot hand does not drop.
  • the gripping posture is generally determined in consideration of the stability of gripping, and the gripping posture at which the work does not drop due to a trial and error is determined by the operator.
  • the method of automatically transporting the object by the robot is automatically determined based on the three-dimensional shape of the work (object) and the state of the contents of the object, and the robot is determined based on the determined transportation method.
  • the method of automatically transporting the object by the robot is automatically determined based on the three-dimensional shape of the work (object) and the state of the contents of the object, and the robot is determined based on the determined transportation method.
  • the gripping attitude of the object is automatically determined as a transport method, but the gripping attitude is determined for the purpose of not diffusing the contents of the object.
  • the target object may be stably transported, but an excessive load may be applied to the robot, and it cannot be said that an appropriate gripping posture can be achieved from the viewpoint of the load on the robot. If the robot is transported in a gripping posture where an excessive load is imposed on the robot, the robot is brought to an emergency stop and work cannot be continued.
  • the present invention has been made in view of the above points, and provides a gripping posture evaluation device and a gripping posture evaluation program which can evaluate an appropriate gripping posture of an object in consideration of a load of a robot.
  • a first aspect of the present disclosure is a gripping posture evaluation device, which is derived by a gripping posture deriving unit that derives a gripping posture of a robot hand when a robot hand included in the robot grips a workpiece, and a gripping posture deriving unit.
  • a gripping posture evaluation device which is derived by a gripping posture deriving unit that derives a gripping posture of a robot hand when a robot hand included in the robot grips a workpiece, and a gripping posture deriving unit.
  • a load index value calculation unit that calculates a load index value representing a load applied to the robot, and a load index value calculated by the load index value calculation unit.
  • a grasping posture evaluating unit that evaluates whether the grasping posture is appropriate, and each time the grasping posture evaluating unit evaluates that the grasping posture is not appropriate, derivation of a new grasping posture by the grasping posture deriving unit, The calculation of the load index value by the load index value calculation unit and the evaluation by the gripping posture evaluation unit are repeated.
  • the gripping posture evaluation device is a stability index that calculates a stability index value representing stability of gripping of the workpiece when the robot hand grips and transports the workpiece based on the gripping posture derived by the gripping posture deriving unit. Further comprising a value calculating unit, wherein the gripping posture evaluating unit determines whether the gripping posture is appropriate based on the load index value calculated by the load index value calculating unit and the stability index value calculated by the stability index value calculating unit. Can be evaluated.
  • the gripping posture evaluation device further includes an operation trajectory generation unit that generates an operation trajectory when the robot conveys the work, and the load index value calculation unit calculates the operation trajectory according to the operation trajectory generated by the operation trajectory generation unit.
  • the load index value when the robot grips and transports the workpiece with the robot hand is calculated, and the stability index value calculation unit calculates the load index value according to the motion trajectory generated by the motion trajectory generation unit.
  • Calculation of the load index value by the load index value calculation unit, calculation of the stability index value by the stability index value calculation unit, and evaluation by the gripping posture evaluation unit. Ri may return.
  • the load index value calculation unit evaluates whether the calculated load index value is appropriate, and if the load index value calculation unit evaluates that the load index value is not appropriate, It is possible to derive a new gripping posture by the gripping posture deriving unit without evaluating the gripping posture related to the load index value evaluated as not being performed by the gripping posture evaluating unit.
  • the stability index value calculation unit evaluates whether the calculated stability index value is appropriate, and determines that the stability index value is not appropriate by the stability index value calculation unit. It is possible to derive a new gripping posture by the gripping posture deriving unit without evaluating the gripping posture related to the stability index value that is evaluated as not being satisfied by the gripping posture evaluating unit.
  • the gripping posture evaluation device of the first aspect when picking up or placing a work, further includes a gripping possibility evaluating unit that evaluates whether or not the robot can realize the gripping posture derived by the gripping posture deriving unit. If the graspability evaluation unit evaluates that the posture of the robot cannot be realized, the grasp posture derivation unit further derives a new grasp posture different from the grasp posture regarding the posture evaluated by the grasp possibility evaluation unit. sell.
  • the gripping posture deriving unit derives a plurality of gripping postures, and the gripping posture evaluating unit determines whether each of the plurality of gripping postures derived by the gripping posture deriving unit is appropriate. If there are a plurality of gripping postures determined to be appropriate among the plurality of gripping postures, the load index values calculated by the load index value calculation unit are compared for each of the plurality of gripping postures determined to be appropriate, and the optimal A suitable gripping posture can be determined.
  • the gripping posture deriving unit derives a plurality of gripping postures
  • the gripping posture evaluating unit determines whether each of the plurality of gripping postures derived by the gripping posture deriving unit is appropriate.
  • the load index value and the stability index value calculation unit calculated by the load index value calculation unit for each of the plurality of gripping postures determined to be appropriate.
  • the gripping posture deriving unit can derive the gripping posture by randomly determining the relative positional relationship between the robot hand and the work.
  • the gripping posture deriving unit preferentially derives a gripping posture from a position where a hand position of a robot to which the robot hand is attached and a center of gravity position of the work, and derives a gripping posture.
  • the gripping posture can be derived such that the distance between the hand of the robot to which the robot hand is attached and the center of gravity of the work is increased.
  • a second aspect of the present disclosure is a gripping posture evaluation program, which is derived by a gripping posture deriving step of deriving a gripping posture of the robot hand when the robot hand of the robot grips a workpiece, and a gripping posture deriving step.
  • a load index value calculating step for calculating a load index value representing a load applied to the robot when the robot hand grips and transports the workpiece with the held gripping posture, and a load index value calculated in the load index value calculating step.
  • a grip posture evaluation step of evaluating whether or not the grip posture is appropriate, and each time the grip posture is evaluated as inappropriate by the grip posture evaluation step, a new grip posture is calculated by the grip posture derivation step. Deriving, repeating the calculation of the load index value by the load index value calculation step and the evaluation by the gripping posture evaluation step, To execute the door to the computer.
  • the gripping posture evaluation program includes a stability index for calculating a stability index value representing stability of gripping of the workpiece when the robot hand grips and transports the workpiece based on the gripping posture derived in the gripping posture deriving step.
  • the method further includes a value calculation step, and in the grip posture evaluation step, whether the grip posture is appropriate based on the load index value calculated in the load index value calculation step and the stability index value calculated in the stability index value calculation step. Can be evaluated.
  • the gripping posture evaluation program further includes an operation trajectory generation step of generating an operation trajectory when the robot conveys the work, and in the load index value calculation step, the operation trajectory generated in the operation trajectory generation step Calculates the load index value when the robot grips and transports the work with the robot hand according to the above.
  • the robot grips the work with the robot hand according to the motion trajectory generated in the motion trajectory generation step.
  • a new grasping posture is derived in the grasping posture derivation step, and a new motion trajectory is calculated in the movement trajectory generation step.
  • the load finger in the load index value calculation step. Calculated values, evaluation by calculation and the gripping posture evaluation step of stability index by stability index calculating step may be repeated.
  • FIG. 2 is a block diagram illustrating a hardware configuration of a gripping posture evaluation device according to the first embodiment.
  • FIG. 4 is a block diagram illustrating an example of a functional configuration of the gripping posture evaluation device. It is a figure showing an example of a robot hand and a work.
  • FIG. 3 is a diagram illustrating an example of a holding posture in which a work is held by a robot hand.
  • FIG. 9 is a diagram illustrating an example of a gripping posture index value and a load index value in an exemplary gripping posture.
  • FIG. 1 is a diagram showing a schematic configuration of a robot and a gripping posture evaluation device.
  • the gripping posture evaluation device 10 is connected to the robot RB and controls the robot RB.
  • the gripping posture evaluation device 10 may be incorporated in a control device as one function of the control device that controls the robot RB.
  • the gripping posture evaluation device 10 is a device for evaluating the posture of the robot RB gripping a workpiece or the like to be transported. The detailed configuration of the gripping posture evaluation device 10 will be described later.
  • the robot RB has, for example, a robot arm A to which a robot hand H is attached at the end as an end effector.
  • the robot RB holds the work by holding the work with the robot hand H. Then, the work is held and transported to a predetermined destination, the work is released, and the work is placed.
  • the robot RB is a so-called pick-and-place device that picks up a work at a predetermined place and mounts the work at a destination.
  • the configuration of the robot RB will be described.
  • the robot RB is a vertical articulated robot
  • the present invention is also applicable to horizontal articulated robots (scalar robots) and the like.
  • the present invention is applicable to an apparatus having a robot arm such as a parallel link robot, a humanoid robot, and a mobile manipulator.
  • the present invention is also applicable to a mobile robot having a gripper, such as a robot hand, a drone, or the like.
  • FIG. 2 is a diagram showing a configuration of a robot that is a vertical articulated robot.
  • the robot RB is a 6-degree-of-freedom 6-axis robot including a base link BL, links L1 to L6, and joints J1 to J6.
  • a joint is a joint that connects links.
  • the joints J1 to J6 rotatably connect the links by a motor (not shown).
  • the links L1 to L6 and the robot hand H connected to the link L6 are referred to as a robot arm.
  • the link L1 and the link L2 are connected via a joint J2 that rotates in the direction of arrow C2 about the horizontal axis S2 in FIG. Therefore, the link L2 rotates in the arrow C2 direction with the joint J2 as a fulcrum.
  • the link L2 and the link L3 are connected via a joint J3 that rotates in the direction of arrow C3 about the axis S3 in FIG. Accordingly, the link L3 rotates in the direction of the arrow C3 with the joint J3 as a fulcrum.
  • the link L3 and the link L4 are connected via a joint J4 that rotates in the direction of arrow C4 about the axis S4 in FIG. Therefore, the link L4 rotates around the joint J4 in the direction of arrow C4.
  • the link L4 and the link L5 are connected via a joint J5 that rotates in the direction of arrow C5 about the axis S5 in FIG. Therefore, the link L5 rotates around the joint J5 in the direction of arrow C5.
  • the link L5 and the link L6 are connected via a joint J6 that rotates in the direction of arrow C6 about the axis S6 in FIG. Therefore, the link L6 rotates in the direction of the arrow C6 with the joint J6 as a fulcrum.
  • the robot hand H is attached to the link L6.
  • the joints J1 to J6 each have a predetermined range of rotation angle set as a movable range.
  • the posture of the robot RB is determined by the rotation angles of the joints J1 to J6. Therefore, the operation command value for operating the robot RB is the rotation angle of each of the joints J1 to J6 corresponding to the posture to be taken by the robot RB. For example, the holding posture in which the robot RB holds the work is also obtained as rotation angle data of the joints J1 to J6.
  • FIG. 3 is a block diagram showing a hardware configuration of the gripping posture evaluation device according to the first embodiment.
  • the gripping posture evaluation apparatus 10 of the present embodiment evaluates a gripping posture when a workpiece is gripped by a robot arm, using a robot, a robot hand attached to the robot, and a model of a workpiece as an object to be gripped by the robot hand.
  • the model include a physical model in which a physical phenomenon acting on a robot or the like is expressed by a mathematical expression, or a dynamic model obtained by system identification or machine learning from measurement data of an actual machine.
  • the model includes information such as the shape, mass, and position of the center of gravity of the robot, the robot hand, and the work.
  • the gripping posture evaluation device 10 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a storage 14, an input unit 15, a monitor 16, and an optical disk drive. It has a device 17 and a communication interface 18. The components are connected to each other via a bus 19 so that they can communicate with each other.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the ROM 12 or the storage 14 stores a gripping posture evaluation program for executing the evaluation of the gripping posture.
  • the CPU 11 is a central processing unit that executes various programs and controls each component. That is, the CPU 11 reads the program from the ROM 12 or the storage 14 and executes the program using the RAM 13 as a work area. The CPU 11 controls the above components and performs various arithmetic processes according to a program recorded in the ROM 12 or the storage 14.
  • the ROM 12 stores various programs and various data.
  • the RAM 13 temporarily stores a program or data as a work area.
  • the storage 14 is constituted by an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a flash memory, and stores various programs including an operating system and various data.
  • the input unit 15 includes a keyboard 151 and a pointing device such as a mouse 152, and is used for performing various inputs.
  • the monitor 16 is, for example, a liquid crystal display, and displays various kinds of information such as whether or not the work has been absorbed.
  • the monitor 16 may function as the input unit 15 by adopting a touch panel system.
  • the optical disk drive 17 reads data stored in various recording media (such as a CD-ROM or a Blu-ray disc) and writes data to the recording medium.
  • the communication interface 18 is an interface for communicating with other devices.
  • a standard such as Ethernet (registered trademark), FDDI, or Wi-Fi (registered trademark) is used.
  • FIG. 4 is a block diagram illustrating an example of a functional configuration of the gripping posture evaluation device.
  • the gripping posture evaluation device 10 includes, as functional components, a gripping posture deriving unit 101, a stability index value calculating unit 102, a load index value calculating unit 103, a gripping posture evaluation unit 104, and a gripping posture output unit 105.
  • Each functional configuration is realized by the CPU 11 reading out the gripping posture evaluation program stored in the ROM 12 or the storage 14 and developing and executing the program on the RAM 13.
  • the gripping posture deriving unit 101 derives a gripping posture of the robot hand when the robot hand H of the robot RB grips a target object.
  • the holding posture is determined according to a predetermined rule or randomly based on a model of the work and a model of the robot hand H. Details of the determination of the holding posture will be described later.
  • the stability index value calculation unit 102 calculates a stability index value indicating the stability of gripping the workpiece when the robot hand H grips and transports the workpiece based on the gripping attitude derived by the gripping attitude deriving unit 101.
  • the stability index value calculation unit 102 calculates the stability index value by using the gripping posture derived by the gripping posture derivation unit 101 and the motion trajectory of the robot RB when gripping and transporting the work.
  • the stability index value for example, the concept of force closure (force constraint) indicating stability in robot engineering, particularly in handling, can be applied.
  • the force closure represents an evaluation index of the balance of the external force to the work.
  • the concept of form closure may be applied to the stability index value.
  • the form closure represents a state in which there is no direction in which the work can move due to the restriction on the work, that is, an evaluation index of the restricted state.
  • the force closure and the foam closure are well-known concepts and will not be described herein. In the following embodiment, an example in which force closure is applied as a stability index value will be described.
  • the stability index value for example, when the force closure is not performed, the stability index value is 0, and when the force closure is performed, a numerical value greater than 0 and 1 or less is given according to the high stability. .
  • the gripping force recommended by the manufacturer determined by the specifications of the robot hand H and the weight of the work W is set as the gripping force of the robot RB, and the stability at the time when the gripping posture is derived a plurality of times at random is determined.
  • the value be 1. The higher the number of times, the higher the credibility of the best value, but it is realistic to set the number of times that can be processed in real time.
  • the gripping posture may be preferentially derived from a position where the hand position of the robot RB to which the robot hand H is attached and the position of the center of gravity of the work W match.
  • the user specifies the limit gripping force that is not broken by once causing the robot hand H to grip the workpiece W in an arbitrary posture.
  • the best gripping force may be set as the gripping force of the robot hand H, and the best value of the stability when the gripping posture is randomly derived a plurality of times may be set to 1.
  • the load index value calculation unit 103 calculates a load index value representing a load acting on the robot RB when the robot hand H grips and transports a workpiece based on the gripping posture derived by the gripping posture deriving unit 101.
  • the load acting on the robot RB is obtained as a torque acting on a motor that rotates the joints J1 to J6 of the robot RB.
  • the load index value calculation unit 103 calculates a load index value by inputting the motion trajectory of the robot RB when gripping and transporting the work and the equation of motion of the motion acting on the robot RB when transporting the work.
  • the load index value is, for example, a numerical value inversely proportional to the magnitude of the load acting on the robot RB, and is calculated as a numerical value from 0 to 1. That is, the load index value is calculated such that the larger the load acting on the robot RB, the smaller the load index value.
  • the load index value is calculated by, for example, the following equation (1).
  • the gripping posture evaluation unit 104 evaluates whether the gripping posture is appropriate based on at least the load index value calculated by the load index value calculation unit 103. In the present embodiment, the grip posture evaluation unit 104 determines whether the grip posture is appropriate based on the stability index value calculated by the stability index value calculation unit 102 and the load index value calculated by the load index value calculation unit 103. To evaluate.
  • the gripping posture output unit 105 outputs a control signal for operating the robot RB and the robot hand H based on the gripping posture evaluated as appropriate by the gripping posture evaluation unit 104.
  • FIG. 5 is a diagram showing an example of a robot hand and a work.
  • FIG. 6 is a diagram illustrating an example of a gripping posture in which a workpiece is gripped by a robot hand.
  • FIG. 7 is a diagram illustrating an example of a grip posture index value and a load index value in the illustrated grip posture.
  • FIG. 5 a case where an L-shaped work W is gripped by a robot hand H will be described as an example.
  • the basic concept for deriving the gripping posture for gripping the workpiece W by the robot hand H is shown in, for example, FIG.
  • FIG. 6 the position of the center of gravity G of the work W is indicated by a black and white circle.
  • FIG. 6 illustrates four gripping postures (A) to (D).
  • the gripping posture (A) the distance between the center of gravity G of the work W and the tip of the robot RB (the tip of the link L6) is minimized.
  • the gripping posture (A) higher values are more likely to appear in the stability index value and the load index value than in other gripping postures.
  • the gripping posture deriving unit 101 first derives the gripping posture (A), and further, when it is necessary to derive another gripping posture, the center of gravity G is used as the center.
  • various gripping postures can be derived.
  • the gripping posture deriving unit 101 sets the gripping posture such that the distance between the hand of the robot RB and the center of gravity G of the work W increases as the number of times of deriving the gripping posture increases. Is derived.
  • the gripping posture deriving unit 101 first derives the gripping posture (B), and further, when it is necessary to derive another gripping posture, the center of gravity G is used as the center.
  • the gripping posture deriving unit 101 performs the gripping so that the distance between the center of the robot hand H and the center of gravity G of the work W increases as the number of times of deriving the gripping posture increases. Deriving the posture.
  • the gripping posture (C) In the gripping posture (C), the gripping position by the robot hand H and the center of gravity G of the work W are matched.
  • the gripping posture (C) is a highly stable gripping posture, but gripping cannot be realized depending on the shape of the work W. Also, the load index value tends to be low.
  • the gripping posture deriving unit 101 first derives the gripping posture (C), and when it is necessary to derive another gripping posture, the center of gravity G is used as the center.
  • Various gripping postures can be derived by changing the relative angle between the workpiece W and the robot hand H and increasing the distance between the gripping position and the center of gravity G of the workpiece W.
  • various gripping postures can be obtained by gradually shifting the gripping posture starting from each gripping posture.
  • all of the gripping postures (A) to (C) may be adopted. In this case, for example, the gripping postures (A) to (C) are sequentially adopted, and the gripping posture is calculated.
  • the gripping posture may be randomly determined as in the gripping posture (D).
  • the gripping posture is not tied to the regularity, and the gripping posture is not biased, so that an optimal gripping posture may be obtained.
  • the gripping posture can be derived based on various ideas.
  • the derivation of the gripping posture is not limited to the above concept, and may be derived by any concept.
  • the stability index value and the load index value when the gripping posture is determined based on the gripping postures (A) to (D) as described above are, for example, as shown in the table of FIG. According to FIG. 7, in the case of the gripping posture (A), the gripping posture index value and the load index value are 0.6 and 0.9, respectively.
  • the grip posture evaluation unit 104 calculates 1.5, which is the total value of the grip posture index value and the load index value, as the evaluation value.
  • the gripping posture index value and the load index value are 0.2 and 0.5, respectively.
  • the grip posture evaluating unit 104 calculates 0.7, which is the sum of the grip posture index value and the load index value, as an evaluation value.
  • both the holding posture index value and the load index value may be 0.0 to 1.0. Is from 0.0 to 2.0.
  • the gripping posture evaluation unit 104 can calculate an evaluation value based on the gripping posture index value and the load index value. Note that the grip posture evaluation unit 104 may calculate the evaluation value by weighting each of the grip posture index value and the load index value.
  • FIG. 8 is a flowchart showing the flow of the gripping posture evaluation process.
  • the CPU 11 reads out the gripping posture evaluation program from the ROM 12 or the storage 14, and develops and executes the program in the RAM 13, thereby performing the gripping posture evaluation processing.
  • the CPU 11 acquires a model of the work W (step S101), and further acquires a model of the robot hand H (step S102). Specifically, the CPU 11 acquires, as a model of the work W and the robot hand H, information on the shape, the mass, and the position of the center of gravity of the work W and the robot hand H.
  • the CPU 11 derives the gripping posture as the gripping posture deriving unit 101 (Step S103). Derivation of the gripping posture is as described above. For example, the CPU 11 derives the holding posture (A) shown in FIG. Subsequently, the CPU 11 acquires an operation trajectory when the robot RB conveys the work W (step S104).
  • the motion trajectory is a trajectory on which the robot RB operates, and is expressed as a time-series set of data such as angles, angular velocities, and angular accelerations of the joints J1 to J6 of the robot RB.
  • the CPU 11 calculates a stability index value as the stability index value calculation unit 102 based on the gripping posture derived in step S103 and the motion trajectory acquired in step S104 (step S105).
  • the CPU 11 determines whether the calculated stability index value is appropriate (step S106). Whether or not the stability index value is appropriate is determined by comparing with a predetermined threshold value. For example, when the stability index value is calculated within the range of 0.0 to 1.0, a threshold is set as a numerical value within the range. The threshold is set, for example, to 0.3. In this case, if the stability index value calculated in step S105 is 0.3 or more, it is determined in step S106 that the stability index value is appropriate. The threshold value is appropriately determined according to the stability required by the operator.
  • step S106 the CPU 11 returns to step S103 to derive another gripping posture.
  • Another gripping posture is derived, for example, by changing the relative angle between the work W and the robot hand H about the center of gravity G of the work W, or increasing the distance of the work W from the center of gravity G. You.
  • step S106 If the stability index value is appropriate (step S106: YES), the CPU 11 acquires a motion equation acting on the robot RB by transporting the work W (step S107).
  • the CPU 11 calculates the load index value as the load index value calculation unit 103 based on the gripping posture derived in step S103, the motion trajectory obtained in step S104, and the equation of motion obtained in step S107 (step S108). .
  • the CPU 11 determines whether the calculated load index value is appropriate (step S109). Whether or not the load index value is appropriate is determined by comparing with a predetermined threshold value. For example, when the load index value is calculated within a range of 0.0 to 1.0, a threshold is set as a numerical value within the range. The threshold is set, for example, to 0.3. In this case, if the load index value calculated in step S108 is 0.3 or more, it is determined in step S109 that the stability index value is appropriate. The threshold is appropriately determined according to the load that the worker can tolerate.
  • step S109: NO If the load index value is not appropriate (step S109: NO), the CPU 11 returns to step S103 to derive another gripping posture.
  • step S109 the CPU 11 causes the gripping posture evaluation unit 104 to calculate an evaluation value (step S110).
  • the evaluation value is, for example, the total value of the stability index value calculated in step S105 and the load index value calculated in step S108.
  • the CPU 11 determines whether the evaluation value is appropriate (step S111). Whether the evaluation value is appropriate is determined by comparing the evaluation value with a predetermined threshold value. For example, when the evaluation value is calculated within a range of 0.0 to 2.0, a threshold is set as a numerical value within the range. The threshold is set as, for example, 1.2. In this case, when the evaluation value calculated in step S110 is 1.2 or more, it is determined in step S111 that the evaluation value is appropriate. The threshold is appropriately determined by an operator.
  • step S111: NO If the evaluation value is not appropriate (step S111: NO), the CPU 11 returns to step S103 and derives another gripping posture.
  • step S111 If the evaluation value is appropriate (step S111: YES), the CPU 11 identifies the gripping posture determined to be appropriate in step S111 as the optimal gripping posture, and stores it in the storage 14 ( Step S112). Then, the CPU 11 ends the gripping posture evaluation process. In addition, as the subsequent processing, the CPU 11 controls the robot RB as the gripping posture output unit 105 based on the optimal gripping posture stored in the storage 14 and applies the robot RB to the transfer of the work W.
  • the grip posture evaluation device 10 of the first embodiment it is determined whether the grip posture is appropriate based on the load index value calculated by the load index value calculation unit 103. Therefore, an appropriate gripping posture of the work can be evaluated in consideration of the load acting on the robot RB.
  • the gripping posture evaluation device 10 also considers the stability index value calculated by the stability index value calculation unit 102. Therefore, an appropriate gripping posture of the work can be evaluated in consideration of not only the load acting on the robot RB but also that the work W is stably conveyed.
  • the gripping posture evaluation device 10 individually determines whether or not the stability index value itself is appropriate, and derives another gripping posture if the stability index value does not satisfy a predetermined threshold. Therefore, in the case of an unstable gripping posture, another gripping posture can be considered without calculating an evaluation value. An appropriate gripping posture can be searched for more quickly.
  • the gripping posture evaluation device 10 also determines whether the load index value itself is appropriate or not, and derives another gripping posture if the load index value does not satisfy a predetermined threshold. Therefore, in the case of a gripping posture with a large load, another gripping posture can be considered without calculating an evaluation value. An appropriate gripping posture can be searched for more quickly.
  • the gripping posture evaluating apparatus 10 When deriving the gripping posture, the gripping posture evaluating apparatus 10 first sets the gripping posture such that the position of the hand of the robot RB is closest to the position of the center of gravity G of the work W. If the holding posture is not appropriate, the holding posture is derived so that the relative positional relationship between the robot hand H and the work W gradually changes. As the position of the hand of the robot RB is closer to the position of the center of gravity G of the work W, the stability index value and the load index value are likely to be larger. Easy to find quickly.
  • the gripping posture evaluation device 10 can also derive the gripping posture completely at random. In this case, there is no restriction that the position of the hand of the robot RB is close to the position of the center of gravity G of the work W, so that the holding posture cannot be biased and a holding posture with a larger evaluation value may be found.
  • the evaluation value is calculated from both the stability index value and the load index value.
  • step S105, step S106, step S110, and step S111 may be omitted, and the load index value itself may be used as the evaluation value.
  • step S111 of FIG. 8 when one gripping posture having an appropriate evaluation value is found in step S111 of FIG. 8, it is regarded as the optimal gripping posture, and the process proceeds to step S112.
  • step S112 a plurality of gripping postures whose evaluation values are appropriate are obtained, and an optimum gripping posture is specified from the plurality of gripping postures.
  • FIG. 9 is a flowchart showing the flow of the gripping posture evaluation process according to the second embodiment.
  • many steps overlap with the gripping posture evaluation processing of the first embodiment. Therefore, in FIG. 9, the same steps as those in FIG. 8 are denoted by the same reference numerals, and description thereof will be omitted. That is, steps S101 to S111 in FIG. 9 are the same as steps S101 to S111 in FIG.
  • step S111 If the evaluation value is appropriate (step S111: YES), the CPU 11 stores the evaluation value determined to be appropriate in the storage 14 in association with the gripping posture of the evaluation value (step S201).
  • the CPU 11 determines that the evaluation value is appropriate and the evaluation value stored in the storage 14 is equal to or more than a predetermined number (step S202).
  • the predetermined number is arbitrarily determined.
  • the predetermined number is 10, for example.
  • step S202 If the number of evaluation values stored in the storage 14 is less than the predetermined number (step S202: NO), the CPU 11 returns to step S103 and derives a new gripping posture.
  • step S202 when the number of evaluation values stored in the storage 14 is equal to or more than the predetermined number (step S202: YES), the CPU 11 optimizes the gripping posture associated with the highest value among the evaluation values stored in the storage 14. It is specified as a proper gripping posture (step S203).
  • the gripping posture deriving unit 101 derives a plurality of gripping postures. Then, the holding posture evaluating unit 104 determines whether or not each of the evaluation values of the plurality of holding postures derived by the holding posture deriving unit 101 is appropriate. When there are a plurality of gripping postures determined to be appropriate among the plurality of gripping postures, the gripping posture evaluation unit 104 compares the evaluation values calculated for each of the plurality of gripping postures determined to be appropriate, and determines an optimal gripping posture. To determine. Therefore, an optimal gripping posture can be specified by the gripping posture evaluation process shown in FIG.
  • step S202 of FIG. 9 it may be determined whether the number of gripping postures derived in step S103 is equal to or more than a predetermined number instead of the number of gripping postures having an appropriate evaluation value.
  • the predetermined number is set to 50 to 10,000 or the like. In this way, by counting the number of gripping postures to be derived, and further setting the predetermined number to a relatively large value, an evaluation value is calculated for a plurality of comprehensively derived gripping postures, and an optimal gripping posture is specified. it can.
  • an upper limit is set for the number to be derived, it is possible to prevent the operation time from becoming too long.
  • the evaluation value is calculated from both the stability index value and the load index value.
  • step S105, step S106, step S110, and step S111 may be omitted, and the load index value itself may be used as the evaluation value.
  • FIG. 10 is a diagram illustrating an example of a functional configuration of the gripping posture evaluation device according to the third embodiment.
  • the gripping posture evaluation device 10 includes, as additional components, a start / end point posture calculation unit 110, a grip possibility evaluation unit 111, and a motion trajectory generation unit 112.
  • Each functional configuration is realized by the CPU 11 reading out the gripping posture evaluation program stored in the ROM 12 or the storage 14 and developing and executing the program on the RAM 13.
  • the start / end point posture calculation unit 110 and the grip possibility evaluation unit 111 realize a function of supporting the grip posture derivation unit 101.
  • the start / end point posture calculation unit 110 calculates at least one of the posture of the robot RB when the robot RB picks up the work W and the posture of the robot RB when the robot RB mounts the work W.
  • the gripping posture deriving unit 101 acquires the current (initial) position and posture of the work W from image information of a three-dimensional camera or an infrared camera (not shown). Then, the grasping posture derived from the model of the robot hand H and the model of the work W by the grasping posture deriving unit 101 is applied to the acquired current position and posture of the work W.
  • the start / end point posture calculation unit 110 calculates the posture of the robot RB when the work W at the current position and posture is grasped by the derived grasp posture, as the start posture.
  • the start / end point posture calculation unit 110 acquires image information of a target position where the workpiece W is transported by a three-dimensional camera or an infrared camera (not shown). The start / end point posture calculation unit 110 determines the target position and posture of the workpiece W when the work W is transported and placed to the target position from the acquired image information of the target position. Then, the grasping posture derived from the model of the robot hand H and the model of the work W by the grasping posture deriving unit 101 is applied to the position and posture of the work W at the target position. In other words, the start / end point posture calculation unit 110 calculates, as the end point posture, the posture of the robot RB when the workpiece W at the target position and posture is gripped by the derived gripping posture.
  • start / end point posture calculation unit 110 may acquire the current position and posture of the work W and the target position and posture of the work W as specified values registered in advance by the worker.
  • the grip possibility evaluation unit 111 evaluates whether the start point posture and the end point posture of the robot RB calculated by the start / end point posture calculation unit 110 are postures that can be realized by the robot RB.
  • the motion trajectory generation unit 112 generates a motion trajectory of the robot RB when the robot RB conveys the workpiece W.
  • the motion trajectory is, for example, a trajectory connecting the current position and posture of the work W registered as a predetermined value by the worker in advance with the target position and posture of the work W.
  • the motion trajectory is a trajectory connecting the current position and posture of the work W calculated by the start / end point posture calculation unit 110 to the target position and posture of the work W.
  • Operation trajectory generator 112 for example, RRT (Rapidly-exploring Random Tree) or PRM (Probabilistic Roadmap) random sampling method such as, or, CHOMP (Covariant Hamiltonian Optimization for Motion Planning) or STOMP (Stochastic Trajectory Optimization for Motion Planning)
  • RRT Randomly-exploring Random Tree
  • PRM Probabilistic Roadmap
  • a trajectory can be generated by an optimization method such as. By using such a method, the path from the start point to the end point can be searched at high speed, and the motion trajectory can be generated. Then, the motion trajectory can be changed randomly at each generation.
  • FIG. 11 is a flowchart showing the flow of the gripping posture evaluation process of the third embodiment. Note that some steps of the gripping posture evaluation processing of the third embodiment are the same as the processing illustrated in FIG. In FIG. 11, steps similar to those in FIG. 8 are denoted by the same reference numerals as in FIG. 8, and description thereof will be omitted.
  • the CPU 11 calculates the posture of the robot RB at the start point and the posture of the robot RB at the end point as the start / end point posture calculation unit 110 (step S301).
  • the CPU 11 applies the gripping posture derived in step S103 to the current position and posture of the work W and the target position and posture of the work W, thereby obtaining the posture of the robot RB at the start point and the robot RB at the end point. Is calculated.
  • the CPU 11 as the grip possibility evaluation unit 111 evaluates the possibility of realizing the calculated grip posture (step S302). Specifically, the CPU 11 determines whether or not the posture of the robot RB at the start point and the end point calculated in step S301 can be actually realized by the movement of the robot RB. If at least one of the start point and the end point exceeds the movable range of the robot RB, the gripping posture derived in step S103 is not feasible. Further, if the robot RB comes into contact with an obstacle when the derived gripping posture is executed due to an obstacle around the work W or the like, the gripping posture derived in step S103 is not feasible.
  • the CPU 11 determines whether or not the holding posture can be realized (step S303). If the gripping posture is not feasible (step S303: NO), the CPU 11 returns to step S103. When returning to step S103, the CPU 11 generates a new motion trajectory in step S304. Therefore, the gripping posture derived in step S103 and the motion trajectory generated in step S304 are randomly combined, and an optimal combination of the gripping posture and the motion trajectory is also searched.
  • step S303 If the gripping posture is feasible (step S303: YES), the CPU 11 generates a motion trajectory on which the robot RB operates from the start point calculated in step S301 to the end point (step S304). Then, the CPU 11 calculates a stability index value and a load index value when the robot RB operates on the generated motion trajectory (Steps S105 and S108).
  • the process it is determined whether the calculated gripping posture can correspond to the actual position and posture of the work W and the target position and posture of the work W. If it is not possible, the process immediately proceeds to the derivation of a new gripping posture, so that it is possible to reduce the number of trials relating to the gripping posture of the work W that cannot be realized. As a result, optimization of the holding posture can be efficiently realized.
  • Step S201 and S202 in FIG. 9 may be applied to the flowchart in FIG. In this case, the derivation of the gripping posture and the generation of the motion trajectory are surely repeated.
  • the motion trajectory with the optimum load on the robot may be stored in a database such as the storage 14 and the current motion trajectory may be generated based on the past optimum motion trajectory.
  • the motion trajectory adopted in the past it is possible to generate the motion trajectory according to the preference of the worker.
  • step S106 when the stability index value is not appropriate in step S106, the process returns to step S103. Then, as long as the holding posture can be realized, both the derivation of the holding posture in step S103 and the generation of the motion trajectory in step S304 have been repeated. However, it is not always necessary to repeat both the derivation of the holding posture and the generation of the motion trajectory. For example, at least one of the derivation of the gripping posture and the generation of the motion trajectory may be repeated according to the type, size, mass, or the like of the work W, or according to the user's designation. Since not only the derivation of the gripping posture but also the generation of the motion trajectory changes the load and the stability, it is also meaningful to repeat the generation of the motion trajectory.
  • the present invention is not limited to the case where the work W is gripped, but can be applied to a case where the work is held by suction using a suction pad or the like instead of the robot hand H.
  • various processors other than the CPU may execute the gripping posture evaluation processing executed by the CPU by reading the software (program) in the above embodiments.
  • a PLD Programmable Logic Device
  • FPGA Field-Programmable Gate Array
  • ASIC Application Specific Integrated Circuit for executing a process for performing Integrated Specialized Circuit.
  • a dedicated electric circuit or the like which is a processor having a circuit configuration designed exclusively is exemplified.
  • the gripping posture evaluation processing may be executed by one of these various processors, or a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs, and a CPU and an FPGA). Combination, etc.).
  • the hardware structure of these various processors is more specifically an electric circuit in which circuit elements such as semiconductor elements are combined.
  • the mode in which the program for the grip posture evaluation processing is stored (installed) in the ROM 12 or the storage 14 in advance has been described, but the present invention is not limited to this.
  • the programs are stored on non-transitory (non-transitory) media such as CD-ROM (Compact Disk Read Only Memory), DVD-ROM (Digital Versatile Disk Disk Read Only Only Memory), and USB (Universal Serial Data Bus) memory. It may be provided in a form. Further, the program may be downloaded from an external device via a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

ロボットの負荷を考慮して、対象物の適正な把持姿勢を評価できる把持姿勢評価装置を提供する。 把持姿勢評価装置(10)は、ロボットRBが備えるロボットハンドHがワークを把持する際のロボットハンドHの把持姿勢を導出する把持姿勢導出部(101)と、把持姿勢導出部(101)により導出された把持姿勢によりロボットハンドHがワークを把持して搬送する場合の、ロボットRBにかかる負荷を表す負荷指標値を算出する負荷指標値算出部(103)と、負荷指標値算出部(103)により算出された負荷指標値に基づいて、把持姿勢が適正か否かを評価する把持姿勢評価部(104)と、を有し、把持姿勢評価部(104)により把持姿勢が適正でないと評価される度に、把持姿勢導出部(101)による新たな把持姿勢の導出、負荷指標値算出部(103)による負荷指標値の算出及び把持姿勢評価部(104)による評価を繰り返す。

Description

把持姿勢評価装置及び把持姿勢評価プログラム
 本願は2018年7月13日出願の日本出願第2018-133730号の優先権を主張すると共に、その全文を参照により本明細書に援用する。
 本発明は、把持姿勢評価装置及び把持姿勢評価プログラムに関する。
 ロボットのティーチング作業においては、ロボットがロボットハンドにより把持したワークが落下しないように、作業者が把持姿勢等を含む搬送条件を調整する。把持姿勢は、把持の安定性を考慮して決定されることが一般的であり、トライアンドエラーによりワークが落下しない把持姿勢が作業者により決定されている。
 トライアンドエラーにより把持姿勢を決定する場合、最適な把持姿勢を得るには、作業者の熟練が必要となる。作業者の熟練度によっては、最適な把持姿勢が得られなかったり、また、得られるまでに多大な時間を要したりする場合がある。さらに、バラ積みされたワークをロボットによってピッキングさせるような事例においては、ワークの向きが定まっていないため、起こり得るワークの向きを想定して複数の最適な把持姿勢をティーチングする必要があった。
 このため、自動で適正な把持姿勢を得ることが望まれている。これに関連して、ワーク(対象物)の三次元形状と対象物の内容物の状態とに基づいて、ロボットによる対象物の搬送方法を自動で決定し、決定された搬送方法に基づいてロボットを制御する制御装置が提案されている(例えば、特開2016-034685号公報参照)。
 しかしながら、特開2016-034685号公報記載の発明では、搬送方法として、対象物の把持姿勢を自動で決定するものの、把持姿勢は、対象物の内容物を拡散させないことを目的として決定される。これでは、対象物が安定的な搬送されるかもしれないが、ロボットに無理な負荷がかかる場合があり、ロボットの負荷という観点においては適切な把持姿勢を達成できるとは言えない。もし、ロボットに無理な負荷がかかる把持姿勢でロボットに搬送を行わせた場合、ロボットが非常停止してしまい、作業を継続できなくなる。
 本発明は、上記の点に鑑みてなされたものであり、ロボットの負荷を考慮して、対象物の適正な把持姿勢を評価できる把持姿勢評価装置及び把持姿勢評価プログラムを提供する。
 本開示の第一態様は、把持姿勢評価装置であって、ロボットが備えるロボットハンドがワークを把持する際のロボットハンドの把持姿勢を導出する把持姿勢導出部と、把持姿勢導出部により導出された把持姿勢によりロボットハンドがワークを把持して搬送する場合の、ロボットにかかる負荷を表す負荷指標値を算出する負荷指標値算出部と、負荷指標値算出部により算出された負荷指標値に基づいて、把持姿勢が適正か否かを評価する把持姿勢評価部と、を有し、把持姿勢評価部により把持姿勢が適正でないと評価される度に、把持姿勢導出部による新たな把持姿勢の導出、負荷指標値算出部による負荷指標値の算出及び把持姿勢評価部による評価を繰り返す。
 第一態様の把持姿勢評価装置は、把持姿勢導出部により導出された把持姿勢によりロボットハンドがワークを把持して搬送する場合の、ワークの把持の安定性を表す安定指標値を算出する安定指標値算出部を更に有し、把持姿勢評価部は、負荷指標値算出部により算出された負荷指標値及び安定指標値算出部により算出された安定指標値に基づいて、把持姿勢が適正か否かを評価しうる。
 第一態様の把持姿勢評価装置は、ロボットがワークを搬送する際の動作軌道を生成する動作軌道生成部を更に有し、負荷指標値算出部は、動作軌道生成部により生成された動作軌道に従ってロボットがロボットハンドによりワークを把持して搬送する場合の負荷指標値を算出し、安定指標値算出部は、動作軌道生成部により生成された動作軌道に従ってロボットがロボットハンドによりワークを把持して搬送する場合の安定指標値を算出し、把持姿勢評価部により把持姿勢が適正でないと評価される度に、把持姿勢導出部による新たな把持姿勢の導出及び動作軌道生成部による新たな動作軌道の生成の少なくとも一方、負荷指標値算出部による負荷指標値の算出、安定指標値算出部による安定指標値の算出及び把持姿勢評価部による評価を繰り返しうる。
 第一態様の把持姿勢評価装置において、負荷指標値算出部は、算出した負荷指標値が適正か否かを評価し、負荷指標値算出部により負荷指標値が適正でないと評価された場合、適正でないと評価された負荷指標値に関する把持姿勢を把持姿勢評価部により評価することなく、把持姿勢導出部により新たな把持姿勢を導出しうる。
 第一態様の把持姿勢評価装置において、安定指標値算出部は、算出した安定指標値が適正か否かを評価し、安定指標値算出部により安定指標値が適正でないと評価された場合、適正でないと評価された安定指標値に関する把持姿勢を把持姿勢評価部により評価することなく、把持姿勢導出部により新たな把持姿勢を導出しうる。
 第一態様の把持姿勢評価装置は、ワークを取り上げ又は載置する場合に、把持姿勢導出部により導出した把持姿勢を、ロボットが実現可能か否かを評価する把持可能性評価部を更に有し、把持可能性評価部によりロボットの姿勢が実現不可能と評価された場合、把持姿勢導出部は、把持可能性評価部により評価された姿勢に関する把持姿勢とは異なる新たな把持姿勢を更に導出しうる。
 第一態様の把持姿勢評価装置において、把持姿勢導出部は、複数の把持姿勢を導出し、把持姿勢評価部は、把持姿勢導出部により導出された複数の把持姿勢の各々ついて適正か否かを判断し、複数の把持姿勢のうち適正と判断した把持姿勢が複数存在する場合、適正と判断した複数の把持姿勢の各々について負荷指標値算出部により算出された負荷指標値を比較して、最適な把持姿勢を決定しうる。
 第一態様の把持姿勢評価装置において、把持姿勢導出部は、複数の把持姿勢を導出し、把持姿勢評価部は、把持姿勢導出部により導出された複数の把持姿勢の各々ついて適正か否かを判断し、複数の把持姿勢のうち適正と判断した把持姿勢が複数存在する場合、適正と判断した複数の把持姿勢の各々について負荷指標値算出部により算出された負荷指標値及び安定指標値算出部により算出された安定指標値をそれぞれ比較して、最適な把持姿勢を決定しうる。
 第一態様の把持姿勢評価装置において、把持姿勢導出部は、ロボットハンド及びワークの相対的な位置関係をランダムに決定することにより、把持姿勢を導出しうる。
 第一態様の把持姿勢評価装置において、把持姿勢導出部は、前記ロボットハンドが取り付けられるロボットの手先位置と前記ワークの重心位置が一致するところから優先的に把持姿勢を導出し、把持姿勢の導出回数を重ねる程、ロボットハンドが取り付けられるロボットの手先と、ワークの重心との距離が離れるように、把持姿勢を導出しうる。
 また、本開示の第二態様は、把持姿勢評価プログラムであって、ロボットが備えるロボットハンドがワークを把持する際のロボットハンドの把持姿勢を導出する把持姿勢導出ステップと、把持姿勢導出ステップにより導出された把持姿勢によりロボットハンドがワークを把持して搬送する場合の、ロボットにかかる負荷を表す負荷指標値を算出する負荷指標値算出ステップと、負荷指標値算出ステップにより算出された負荷指標値に基づいて、把持姿勢が適正か否かを評価する把持姿勢評価ステップと、を有し、把持姿勢評価ステップにより把持姿勢が適正でないと評価される度に、把持姿勢導出ステップにより新たな把持姿勢を導出し、負荷指標値算出ステップによる負荷指標値の算出及び把持姿勢評価ステップによる評価を繰り返す、ことをコンピュータに実行させる。
 第二態様の把持姿勢評価プログラムは、把持姿勢導出ステップにより導出された把持姿勢によりロボットハンドがワークを把持して搬送する場合の、ワークの把持の安定性を表す安定指標値を算出する安定指標値算出ステップを更に有し、把持姿勢評価ステップにおいては、負荷指標値算出ステップにより算出された負荷指標値及び安定指標値算出ステップにより算出された安定指標値に基づいて、把持姿勢が適正か否かを評価しうる。
 第二態様の把持姿勢評価プログラムは、ロボットがワークを搬送する際の動作軌道を生成する動作軌道生成ステップを更に有し、負荷指標値算出ステップにおいては、動作軌道生成ステップにおいて生成された動作軌道に従ってロボットがロボットハンドによりワークを把持して搬送する場合の負荷指標値を算出し、安定指標値算出ステップにおいては、動作軌道生成ステップにより生成された動作軌道に従ってロボットがロボットハンドによりワークを把持して搬送する場合の安定指標値を算出し、把持姿勢評価ステップにおいて把持姿勢が適正でないと評価される度に、把持姿勢導出ステップによる新たな把持姿勢の導出及び動作軌道生成ステップによる新たな動作軌道の生成の少なくとも一方、負荷指標値算出ステップによる負荷指標値の算出、安定指標値算出ステップによる安定指標値の算出及び把持姿勢評価ステップによる評価が繰り返されうる。
 本開示によれば、ロボットの負荷を考慮して、対象物の適正な把持姿勢を評価できる。
ロボット及び把持姿勢評価装置の概略構成を示す図である。 垂直多関節ロボットであるロボットの構成を示す図である。 第1実施形態に係る把持姿勢評価装置のハードウェア構成を示すブロック図である。 把持姿勢評価装置の機能構成の例を示すブロック図である。 ロボットハンドとワークの一例を示す図である。 ロボットハンドによりワークを把持する把持姿勢の例を示す図である。 例示する把持姿勢における、把持姿勢指標値及び負荷指標値の例を示す図である。 把持姿勢評価処理の流れを示すフローチャートである。 第2実施形態に係る把持姿勢評価処理の流れを示すフローチャートである。 第3実施形態に係る把持姿勢評価装置の機能構成の例を示す図である。 第3実施形態の把持姿勢評価処理の流れを示すフローチャートである。
 以下、本発明の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一または等価な構成要素および部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
 (第1実施形態)
 図1は、ロボット及び把持姿勢評価装置の概略構成を示す図である。
 図1に示すように、把持姿勢評価装置10は、ロボットRBに接続され、ロボットRBを制御する。把持姿勢評価装置10は、ロボットRBを制御する制御装置の一機能として、制御装置に組み込まれても良い。
 把持姿勢評価装置10は、搬送の対象物であるワーク等をロボットRBが把持する姿勢を評価する装置である。把持姿勢評価装置10の詳細な構成については、後述する。
 ロボットRBは、例えば、先端にエンドエフェクタとしてロボットハンドHが取り付けられたロボットアームAを有する。ロボットRBは、ロボットハンドHでワークを把持することによってワークを保持した状態となる。そして、ワークを保持した状態で所定の目的地まで搬送し、ワークの保持を解除してワークを載置する。このように、ロボットRBは、ワークを所定の場所で取り上げ、目的地に載置する、いわゆるピックアンドプレース装置である。
 把持姿勢評価装置10の詳細について説明する前に、ロボットRBの構成について説明する。本実施形態では、一例としてロボットRBが垂直多関節ロボットである場合について説明する。しかし、水平多関節ロボット(スカラーロボット)等にも本発明は適用可能である。また、パラレルリンクロボット、ヒューマノイド型ロボット、及びモバイルマニピュレータ等のロボットアームを備えた装置にも本発明は適用可能である。また、ロボットハンドのような把持部を有するモバイルロボット、ドローン等にも本発明は適用可能である。
 図2は、垂直多関節ロボットであるロボットの構成を示す図である。
 図2に示すように、ロボットRBは、ベースリンクBL、リンクL1~L6、ジョイントJ1~J6を備えた6自由度の6軸ロボットである。なお、ジョイントとは、リンク同士を接続する関節である。ジョイントJ1~J6は、図示しないモータによりリンク同士を回転可能に接続する。また、以下では、リンクL1~L6及びリンクL6に接続されたロボットハンドHを含めてロボットアームと称する。
 ベースリンクBLとリンクL1とは、図2において鉛直軸S1を中心として矢印C1方向に回転するジョイントJ1を介して接続されている。従って、リンクL1は、ジョイントJ1を支点として矢印C1方向に回転する。
 リンクL1とリンクL2とは、図2において水平軸S2を中心として矢印C2方向に回転するジョイントJ2を介して接続されている。従って、リンクL2は、ジョイントJ2を支点として矢印C2方向に回転する。
 リンクL2とリンクL3とは、図2において軸S3を中心として矢印C3方向に回転するジョイントJ3を介して接続されている。従って、リンクL3は、ジョイントJ3を支点として矢印C3方向に回転する。
 リンクL3とリンクL4とは、図2において軸S4を中心として矢印C4方向に回転するジョイントJ4を介して接続されている。従って、リンクL4は、ジョイントJ4を支点として矢印C4方向に回転する。
 リンクL4とリンクL5とは、図2において軸S5を中心として矢印C5方向に回転するジョイントJ5を介して接続されている。従って、リンクL5は、ジョイントJ5を支点として矢印C5方向に回転する。
 リンクL5とリンクL6とは、図2において軸S6を中心として矢印C6方向に回転するジョイントJ6を介して接続されている。従って、リンクL6は、ジョイントJ6を支点として矢印C6方向に回転する。なお、図2では図示は省略したが、リンクL6にロボットハンドHが取り付けられる。
 ジョイントJ1~J6は、予め定めた回転角度の範囲が可動域として各々設定されている。
 ロボットRBの姿勢は、ジョイントJ1~J6の各々の回転角度によって定まる。従って、ロボットRBを動作させるための動作指令値は、ロボットRBが取るべき姿勢に対応したジョイントJ1~J6の各々の回転角度である。例えば、ロボットRBがワークを把持する把持姿勢も、ジョイントJ1~J6の回転角度データとして得られる。
 次に、把持姿勢評価装置10について説明する。
 図3は、第1実施形態に係る把持姿勢評価装置のハードウェア構成を示すブロック図である。
 本実施形態の把持姿勢評価装置10は、ロボット、ロボットに取り付けられるロボットハンド、ロボットハンドにより把持される対象物であるワークのモデルを用いて、ロボットアームによりワークを把持する際の把持姿勢を評価する。モデルとしては、例えば、ロボット等に働く物理現象を数式で表現した物理モデル、又は実機の計測データからシステム同定あるいは機械学習などにより得られた動的モデルがある。モデルには、ロボット、ロボットハンド及びワークの形状、質量及び重心位置等の情報が含まれる。
 図3に示すように、把持姿勢評価装置10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、モニタ16、光ディスク駆動装置17及び通信インタフェース18を有する。各構成は、バス19を介して相互に通信可能に接続されている。
 本実施形態では、ROM12又はストレージ14には、把持姿勢の評価を実行する把持姿勢評価プログラムが格納されている。CPU11は、中央演算処理ユニットであり、各種プログラムを実行したり、各構成を制御したりする。すなわち、CPU11は、ROM12又はストレージ14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12又はストレージ14に記録されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。
 ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリにより構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
 入力部15は、キーボード151、及びマウス152等のポインティングデバイスを含み、各種の入力を行うために使用される。モニタ16は、例えば、液晶ディスプレイであり、ワークの吸着の成否等の各種の情報を表示する。モニタ16は、タッチパネル方式を採用して、入力部15として機能してもよい。光ディスク駆動装置17は、各種の記録媒体(CD-ROM又はブルーレイディスクなど)に記憶されたデータの読み込みや、記録媒体に対するデータの書き込み等を行う。
 通信インタフェース18は、他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI又はWi-Fi(登録商標)等の規格が用いられる。
 次に、把持姿勢評価装置10の機能構成について説明する。
 図4は、把持姿勢評価装置の機能構成の例を示すブロック図である。
 図4に示すように、把持姿勢評価装置10は、機能構成として、把持姿勢導出部101、安定指標値算出部102、負荷指標値算出部103、把持姿勢評価部104及び把持姿勢出力部105を有する。各機能構成は、CPU11がROM12又はストレージ14に記憶された把持姿勢評価プログラムを読み出し、RAM13に展開して実行することにより実現される。
 把持姿勢導出部101は、ロボットRBが備えるロボットハンドHが対象物であるワークを把持する際のロボットハンドの把持姿勢を導出する。把持姿勢は、ワークのモデル及びロボットハンドHのモデルに基づいて、所定の規則に従って、或いはランダムに決定される。把持姿勢の決定について、詳細は後述する。
 安定指標値算出部102は、把持姿勢導出部101により導出された把持姿勢によりロボットハンドHがワークを把持して搬送する場合の、ワークの把持の安定性を表す安定指標値を算出する。ここで、安定指標値算出部102は、把持姿勢導出部101により導出された把持姿勢、及び、ワークを把持して搬送する際のロボットRBの動作軌道を入力として、安定指標値を算出する。安定指標値は、例えば、ロボット工学の特にハンドリングにおける安定性を示すフォースクロージャ(力拘束)の考え方を適用できる。フォースクロージャは、ワークに対する外力のつり合いの評価指標を表す。或いは、安定指標値には、フォームクロージャ(形態拘束)の考え方を適用してもよい。フォームクロージャは、ワークに対する拘束によってワークが動ける方向がない状態、すなわち拘束状態の評価指標を表す。フォースクロージャ及びフォームクロージャについては、公知の考え方であるので、ここでの説明は省略する。以下の本実施形態では、フォースクロージャを安定指標値として適用する例について説明する。フォースクロージャを安定指標値とした場合、例えば、フォースクロージャとならない場合は、安定指標値は0、フォースクロージャとなる場合は、安定性の高さに応じて、0より大きく1以下の数値を与える。
 具体的には、例えば、ロボットハンドHの仕様やワークWの重量によって決められるメーカ推奨の把持力をロボットRBの把持力として設定し,把持姿勢をランダムに複数回導出した際の安定性の最良値を1とする。回数は多いほど最良値の信憑性が高まるが、実時間で処理できる回数を設定するのが現実的である。ランダムでなく、ロボットハンドHが取り付けられるロボットRBの手先位置とワークWの重心位置が一致するところから優先的に把持姿勢を導出しても良い。或いは、ワークWが脆くメーカ推奨の把持力をかけると壊れてしまう場合は、ユーザが一度ロボットハンドHに任意の姿勢でワークWを把持させることによって壊れない限界の把持力を特定し、特定された把持力をロボットハンドHの把持力として設定し、把持姿勢をランダムに複数回導出した際の安定性の最良値を1としてもよい。
 負荷指標値算出部103は、把持姿勢導出部101により導出された把持姿勢によりロボットハンドHがワークを把持して搬送する場合の、ロボットRBに作用する負荷を表す負荷指標値を算出する。ここで、ロボットRBに作用する負荷は、ロボットRBのジョイントJ1~J6を回転させるモータに作用するトルクとして得られる。負荷指標値算出部103は、ワークを把持して搬送する際のロボットRBの動作軌道、及びワークを搬送する際にロボットRBに作用する運動の運動方程式を入力として、負荷指標値を算出する。負荷指標値は、例えば、ロボットRBに作用する負荷の大きさに反比例する数値であって、0から1の数値として算出される。すなわち、ロボットRBに作用する負荷が大きい程、小さい負荷指標値となるように、負荷指標値が算出される。負荷指標値は、例えば次のような式に(1)により算出される。
Figure JPOXMLDOC01-appb-M000001

 
 把持姿勢評価部104は、少なくとも負荷指標値算出部103により算出された負荷指標値に基づいて、把持姿勢が適正か否かを評価する。本実施形態では、把持姿勢評価部104は、安定指標値算出部102により算出された安定指標値、及び負荷指標値算出部103により算出された負荷指標値に基づいて、把持姿勢が適正か否かを評価する。
 把持姿勢出力部105は、把持姿勢評価部104によって適正と評価された把持姿勢により、ロボットRB及びロボットハンドHを動作させるために、制御信号を出力する。
 次に、把持姿勢導出部101により導出されるロボットハンドHによるワークの把持姿勢の例について、説明する。
 図5は、ロボットハンドとワークの一例を示す図である。図6は、ロボットハンドによりワークを把持する把持姿勢の例を示す図である。図7は、例示する把持姿勢における、把持姿勢指標値及び負荷指標値の例を示す図である。
 本実施形態では、図5に示すように、ロボットハンドHにより、L字型のワークWを把持する場合を例に説明する。ロボットハンドHによりワークWを把持する把持姿勢を導き出すための基本となる考え方は、例えば、図6に示される。なお、図6では、白黒の丸により、ワークWの重心Gの位置を示している。
 図6には、把持姿勢(A)~(D)の4つが例示されている。把持姿勢(A)では、ワークWの重心GとロボットRBの手先(リンクL6の先端)との距離を最短にする。把持姿勢(A)は、他の把持姿勢と比べて、安定指標値及び負荷指標値に高い値が出やすい。把持姿勢(A)が採用される場合、把持姿勢導出部101は、最初に、把持姿勢(A)を導出し、更に、別の把持姿勢の導出の必要がある場合は、重心Gを中心としたワークWとロボットハンドHとの相対的な角度を変化させたり、重心Gに対するワークWの距離を遠ざけたりすることにより、様々な把持姿勢を導出できる。すなわち、把持姿勢(A)が採用される場合、把持姿勢導出部101は、把持姿勢の導出回数を重ねる程、ロボットRBの手先と、ワークWの重心Gとの距離が離れるように、把持姿勢を導出する。
 把持姿勢(B)では、ロボットハンドHの中心(重心)とワークWの重心Gとを一致させる。把持姿勢(B)は、把持姿勢(A)よりも安定指標値及び負荷指標値は低くなる傾向がある。把持姿勢(B)が採用される場合、把持姿勢導出部101は、最初に、把持姿勢(B)を導出し、更に、別の把持姿勢の導出の必要がある場合は、重心Gを中心としたワークWとロボットハンドHとの相対的な角度を変化させたり、重心Gに対するワークWの重心Gまでの距離を遠ざけたりすることにより、様々な把持姿勢を導出できる。すなわち、把持姿勢(B)が採用される場合、把持姿勢導出部101は、把持姿勢の導出回数を重ねる程、ロボットハンドHの中心と、ワークWの重心Gとの距離が離れるように、把持姿勢を導出する。
 把持姿勢(C)では、ロボットハンドHによる把持位置と、ワークWの重心Gとを一致させる。把持姿勢(C)は、安定性の高い把持姿勢であるが、ワークWの形状によっては把持が実現できない。また、負荷指標値は低くなる傾向がある。把持姿勢(C)が採用される場合、把持姿勢導出部101は、最初に、把持姿勢(C)を導出し、更に、別の把持姿勢の導出の必要がある場合は、重心Gを中心としたワークWとロボットハンドHとの相対的な角度を変化させたり、把持位置とワークWの重心Gまでの距離を遠ざけたりすることにより、様々な把持姿勢を導出できる。
 このように、把持姿勢(A)~(C)の何れかが採用される場合、それぞれの把持姿勢を起点として、少しずつ把持姿勢をずらしていくことにより、様々な把持姿勢が得られる。あるいは、把持姿勢(A)~(C)が全て採用されても良い。この場合、例えば、把持姿勢(A)~(C)が順に採用され、把持姿勢が算出される。
 また、把持姿勢(A)~(C)以外に、把持姿勢(D)のように、ランダムに把持姿勢が決定されても良い。ランダムの場合、導出される把持姿勢に規則性がないため、安定指標値及び負荷指標値が安定しない。しかし、ランダムな把持姿勢(D)によれば、規則性に縛られず、把持姿勢が偏らないため、最適な把持姿勢が得られる可能性がある。
 上記のように、様々な考え方に基づいて、把持姿勢が導出されうる。しかし、把持姿勢の導出は上記の考え方に限定されず、いかなる考え方によって導出されても良い。
 なお、上記のような把持姿勢(A)~(D)により把持姿勢が決定された場合の安定指標値及び負荷指標値は、例えば、図7に示す表のようになる。図7によれば、把持姿勢(A)の場合、把持姿勢指標値及び負荷指標値が、それぞれ、0.6及び0.9である。ここで、把持姿勢評価部104は、把持姿勢指標値及び負荷指標値の合計値である1.5を評価値として算出する。把持姿勢(B)の場合、把持姿勢指標値及び負荷指標値が、それぞれ、0.2及び0.5である。把持姿勢評価部104は、把持姿勢指標値及び負荷指標値の合計値である0.7を評価値として算出する。把持姿勢(C)の場合、上記のワークWの形状の例ではロボットハンドHがワークWを把持できない。このため、把持姿勢指標値及び負荷指標値が算出できず、評価値も得られない。把持姿勢(D)の場合、ランダムな姿勢で一義的に把持姿勢が求められないので、把持姿勢指標値及び負荷指標値は、いずれも0.0~1.0の可能性があり、評価値は、0.0~2.0となる。
 このように、把持姿勢評価部104は、把持姿勢指標値及び負荷指標値に基づいて、評価値を算出できる。なお、把持姿勢評価部104は、把持姿勢指標値及び負荷指標値にそれぞれ重みを付けて、評価値を算出しても良い。
 次に、把持姿勢評価装置10の作用について説明する。
 図8は、把持姿勢評価処理の流れを示すフローチャートである。CPU11がROM12又はストレージ14から把持姿勢評価プログラムを読み出して、RAM13に展開し実行することにより、把持姿勢評価処理が行なわれる。
 最初に、CPU11は、ワークWのモデルを取得し(ステップS101)、更に、ロボットハンドHのモデルを取得する(ステップS102)。具体的には、CPU11は、ワークW及びロボットハンドHのモデルとして、ワークW及びロボットハンドHの形状、質量及び重心位置の情報を取得する。
 CPU11は、把持姿勢導出部101として、把持姿勢を導出する(ステップS103)。把持姿勢の導出は、上述の通りである。例えば、CPU11は、図6の把持姿勢(A)の把持姿勢を導出する。続けて、CPU11は、ロボットRBがワークWを搬送する際の動作軌道を取得する(ステップS104)。ここで、動作軌道は、ロボットRBが動作する軌道のことであり、ロボットRBの各ジョイントJ1~J6の角度、角速度及び角加速度等のデータの時系列の集合として表される。
 CPU11は、安定指標値算出部102として、ステップS103において導出された把持姿勢、及びステップS104で取得した動作軌道に基づいて、安定指標値を算出する(ステップS105)。CPU11は、算出した安定指標値が適正か否か判断する(ステップS106)。安定指標値が適正か否かは、所定の閾値と比較することにより判断される。例えば、安定指標値が、0.0から1.0の値の範囲内で算出される場合、当該範囲内の数値として閾値が設定される。閾値は、例えば、0.3として設定される。この場合、ステップS105において算出した安定指標値が0.3以上の場合、ステップS106において、安定指標値が適正と判断される。閾値は、作業者が必要とする安定性に応じて、適宜決定される。
 安定指標値が適正でない場合(ステップS106:NO)、CPU11は、ステップS103に戻り、別の把持姿勢を導出する。別の把持姿勢は、例えば、ワークWの重心Gを中心としたワークWとロボットハンドHとの相対的な角度を変化させたり、重心Gに対するワークWの距離を遠ざけたりすることにより、導出される。
 安定指標値が適正である場合(ステップS106:YES)、CPU11は、ワークWの搬送によりロボットRBに作用する運動方程式を取得する(ステップS107)。
 CPU11は、負荷指標値算出部103として、ステップS103において導出された把持姿勢、ステップS104で取得した動作軌道、及びステップS107で取得した運動方程式に基づいて、負荷指標値を算出する(ステップS108)。CPU11は、算出した負荷指標値が適正か否か判断する(ステップS109)。負荷指標値が適正か否かは、所定の閾値と比較することにより判断される。例えば、負荷指標値が、0.0から1.0の値の範囲内で算出される場合、当該範囲内の数値として閾値が設定される。閾値は、例えば、0.3として設定される。この場合、ステップS108において算出した負荷指標値が0.3以上の場合、ステップS109において、安定指標値が適正と判断される。閾値は、作業者が許容できる負荷に応じて、適宜決定される。
 負荷指標値が適正でない場合(ステップS109:NO)、CPU11は、ステップS103に戻り、別の把持姿勢を導出する。
 負荷指標値が適正である場合(ステップS109:YES)、CPU11は、把持姿勢評価部104として、評価値を算出する(ステップS110)。評価値は、例えば、ステップS105で算出した安定指標値及びステップS108で算出した負荷指標値の合計値である。
 CPU11は、評価値が適正か否か判断する(ステップS111)。評価値が適正か否かは、所定の閾値と比較することにより判断される。例えば、評価値が、0.0から2.0の値の範囲内で算出される場合、当該範囲内の数値として閾値が設定される。閾値は、例えば、1.2として設定される。この場合、ステップS110において算出した評価値が1.2以上の場合、ステップS111において、評価値が適正と判断される。閾値は、作業者により適宜決定される。
 評価値が適正でない場合(ステップS111:NO)、CPU11は、ステップS103に戻り、別の把持姿勢を導出する。
 評価値が適正である場合(ステップS111:YES)、CPU11は、ステップS111で評価値が適正であると判断された把持姿勢を、最適な把持姿勢であると特定し、ストレージ14に記憶する(ステップS112)。そして、CPU11は、把持姿勢評価処理を終了する。なお、この後の処理として、CPU11は、把持姿勢出力部105として、ストレージ14に記憶された最適な把持姿勢により、ロボットRBを制御し、ワークWの搬送に適用する。
 以上のように、第1実施形態の把持姿勢評価装置10によれば、負荷指標値算出部103により算出された負荷指標値に基づいて、把持姿勢が適正か否か判断する。従って、ロボットRBに作用する負荷を考慮して、ワークの適正な把持姿勢を評価できる。
 また、把持姿勢評価装置10は、安定指標値算出部102により算出した安定指標値も考慮する。従って、ロボットRBに作用する負荷だけでなく、ワークWが安定的に搬送されることも考慮して、ワークの適正な把持姿勢を評価できる。
 把持姿勢評価装置10は、安定指標値自体についても個別に適正か否かを判断し、安定指標値が所定の閾値を満足しなければ、別の把持姿勢を導出する。従って、安定しない把持姿勢の場合、評価値を算出するまでもなく、別の把持姿勢を検討できる。適正な把持姿勢をより早く探索できる。
 把持姿勢評価装置10は、負荷指標値自体についても個別に適正か否かを判断し、負荷指標値が所定の閾値を満足しなければ、別の把持姿勢を導出する。従って、負荷が大きい把持姿勢の場合、評価値を算出するまでもなく、別の把持姿勢を検討できる。適正な把持姿勢をより早く探索できる。
 把持姿勢評価装置10は、把持姿勢を導出する際に、まずは、ロボットRBの手先の位置がワークWの重心Gの位置に最も近づくような把持姿勢とする。そして、把持姿勢が適正でなければ、徐々にロボットハンドHとワークWとの相対な位置関係が変化するように、把持姿勢を導出する。ロボットRBの手先の位置がワークWの重心Gの位置に近い程、安定指標値及び負荷指標値が大きくなりやすいので、完全にランダムに把持姿勢を導出する場合に比べて、適正な把持姿勢を早く発見しやすい。
 一方、把持姿勢評価装置10は、把持姿勢を完全にランダムに導出することもできる。この場合、ロボットRBの手先の位置がワークWの重心Gの位置に近い把持姿勢という制限がないので、把持姿勢に偏りができず、より大きな評価値の把持姿勢を発見できる可能性がある。
 以上、第1実施形態の把持姿勢評価装置10について説明した。しかし、本発明は、第1実施形態に限定されない。種々な改良又は改変が可能である。
 例えば、上記第1実施形態では、安定指標値及び負荷指標値の両方から評価値を算出している。しかし、ステップS105、ステップS106、ステップS110、及びステップS111を省略して、負荷指標値自体を評価値としても良い。
 以下に、更なる改変例について、説明する。
 (第2実施形態)
 第1実施形態においては、図8のステップS111において、評価値が適正な把持姿勢が1つ見つかった時点で、最適な把持姿勢とみなして、ステップS112に進んでいた。第2実施形態では、評価値が適正な把持姿勢を複数求め、その中から最適な把持姿勢を特定する。
 図9は、第2実施形態に係る把持姿勢評価処理の流れを示すフローチャートである。なお、図9に示す把持姿勢評価処理においては、多くのステップが第1実施形態の把持姿勢評価処理と重複する。従って、図9において図8と同様のステップには同様の参照符号を付して説明を省略する。すなわち、図9のステップS101~ステップS111は、図8のステップS101~ステップS111と同様である。
 評価値が適正である場合(ステップS111:YES)、CPU11は、適正と判断した評価値と、当該評価値の把持姿勢とを関連付けてストレージ14に記憶する(ステップS201)。
 CPU11は、適正と判断してストレージ14に記憶した評価値が所定数以上か否か判断する(ステップS202)。ここで、所定数は、任意に決定される。所定数は、例えば10である。
 ストレージ14に記憶した評価値の数が所定数未満の場合(ステップS202:NO)、CPU11は、ステップS103に戻り、新たな把持姿勢を導出する。
 一方、ストレージ14に記憶した評価値の数が所定数以上の場合(ステップS202:YES)、CPU11は、ストレージ14に記憶されている評価値のうち最も高い値に関連づけられている把持姿勢を最適な把持姿勢として特定する(ステップS203)。
 以上のように、第2実施形態の把持姿勢評価装置10によれば、把持姿勢導出部101は、複数の把持姿勢を導出する。そして、把持姿勢評価部104は、把持姿勢導出部101により導出された複数の把持姿勢の各々の評価値について適正か否か判断する。把持姿勢評価部104は、複数の把持姿勢のうち適正と判断した把持姿勢が複数存在する場合、適正と判断した複数の把持姿勢の各々について算出された評価値を比較して、最適な把持姿勢を決定する。従って、図8に示す把持姿勢評価処理よりも、最適な把持姿勢を特定しうる。
 なお、図9のステップS202において、適正な評価値の把持姿勢の数の代わりに、ステップS103で導出した把持姿勢の数が所定数以上か否かを判断しても良い。この場合、例えば、所定数は、50~10000等に設定される。このように、導出する把持姿勢の数をカウントし、さらに、所定数を多めに設定することで、網羅的に導出された複数の把持姿勢について、評価値を算出し、最適な把持姿勢を特定できる。また、導出する数に上限を設けるため、演算時間が長くなり過ぎることを防止できる。
 また、上記第2実施形態では、安定指標値及び負荷指標値の両方から評価値を算出している。しかし、ステップS105、ステップS106、ステップS110、及びステップS111を省略して、負荷指標値自体を評価値としても良い。
 (第3実施形態)
 第3実施形態では、第1実施形態に更に追加の構成を含む。
 図10は、第3実施形態に係る把持姿勢評価装置の機能構成の例を示す図である。
 図10に示すように、第3実施形態に係る把持姿勢評価装置10は、追加の構成として、始/終点姿勢算出部110、把持可能性評価部111及び動作軌道生成部112を有する。各機能構成は、CPU11がROM12又はストレージ14に記憶された把持姿勢評価プログラムを読み出し、RAM13に展開して実行することにより実現される。
 始/終点姿勢算出部110及び把持可能性評価部111は、把持姿勢導出部101を支援する機能を実現する。具体的には、始/終点姿勢算出部110は、ロボットRBがワークWを取り上げる場合のロボットRBの姿勢、及びロボットRBがワークWを載置する場合のロボットRBの姿勢の少なくとも一方を算出する。ここで、例えば、把持姿勢導出部101は、図示しない三次元カメラ又は赤外線カメラの画像情報からワークWの現在(初期)の位置及び姿勢を取得する。そして、把持姿勢導出部101によりロボットハンドHのモデル及びワークWのモデルから導出された把持姿勢を、取得したワークWの現在の位置及び姿勢に当てはめる。換言すると、始/終点姿勢算出部110は、現在の位置及び姿勢のワークWを、導出された把持姿勢により把持する時のロボットRBの姿勢を始点姿勢として算出する。
 更に、始/終点姿勢算出部110は、図示しない三次元カメラ又は赤外線カメラにより、ワークWを搬送する目標位置の画像情報を取得する。始/終点姿勢算出部110は、取得した目標位置の画像情報から、目標位置まで搬送し載置した時のワークWの目標の位置及び姿勢を決定する。そして、把持姿勢導出部101によりロボットハンドHのモデル及びワークWのモデルから導出された把持姿勢を、目標位置におけるワークWの位置及び姿勢に当てはめる。換言すると、始/終点姿勢算出部110は、目標の位置及び姿勢のワークWを、導出された把持姿勢により把持する時のロボットRBの姿勢を終点姿勢として算出する。
 なお、始/終点姿勢算出部110は、ワークWの現在の位置及び姿勢、並びにワークWの目標の位置及び姿勢を、作業者が予め登録した規定値として取得しても良い。
 把持可能性評価部111は、始/終点姿勢算出部110により算出したロボットRBの始点姿勢及び終点姿勢が、ロボットRBが実現可能な姿勢か否かを評価する。
 動作軌道生成部112は、ロボットRBがワークWを搬送する際のロボットRBの動作の軌道を生成する。動作軌道は、例えば、作業者が予め規定値として登録したワークWの現在の位置及び姿勢からワークWの目標の位置及び姿勢を結ぶ軌道である。或いは、動作軌道は、上記の始/終点姿勢算出部110により算出されたワークWの現在の位置及び姿勢からワークWの目標の位置及び姿勢を結ぶ軌道である。動作軌道生成部112は、例えば、RRT(Rapidly-exploring Random Tree)又はPRM(Probabilistic Roadmap)などのランダムサンプリング手法、或いは、CHOMP(Covariant Hamiltonian Optimization for Motion Planning)又はSTOMP(Stochastic Trajectory Optimization for Motion Planning)などの最適化手法により、軌道を生成できる。このような手法を用いることにより、始点から終点までの経路を高速に探索し、動作軌道を生成できる。そして、動作軌道は生成の度にランダムに変更され得る。
 次に、第3実施形態の把持姿勢評価装置10の作用について説明する。
 図11は、第3実施形態の把持姿勢評価処理の流れを示すフローチャートである。なお、第3実施形態の把持姿勢評価処理の一部のステップは、図8に示す処理と同様である。図11において図8と同様のステップについては、図8と同様の参照番号を付し、説明を省略する。
 CPU11は、ステップS103において把持姿勢を導出した後、始/終点姿勢算出部110として、始点におけるロボットRBの姿勢及び終点におけるロボットRBの姿勢を算出する(ステップS301)。ここで、CPU11は、ワークWの現在の位置及び姿勢、並びにワークWの目標の位置及び姿勢に、ステップS103において導出した把持姿勢を適用することにより、始点におけるロボットRBの姿勢及び終点におけるロボットRBの姿勢を算出する。
 続けて、CPU11は、把持可能性評価部111として、算出した把持姿勢の実現の可能性を評価する(ステップS302)。具体的には、CPU11は、ステップS301において算出した始点及び終点におけるロボットRBの姿勢がそれぞれ、実際にロボットRBの可動により実現できるか否か判断する。始点及び終点の少なくとも一方において、ロボットRBの可動範囲を超えている場合、ステップS103において導出した把持姿勢は実現可能性がないことになる。また、ワークWの周辺に障害物があるなどして、導出した把持姿勢を実行するとロボットRBが障害物に接触する場合、ステップS103において導出した把持姿勢は実現可能性がないことになる。
 CPU11は、把持姿勢が実現可能か否か判断する(ステップS303)。把持姿勢が実現可能でない場合(ステップS303:NO)、CPU11は、ステップS103に戻る。ステップS103に戻った場合、CPU11は、ステップS304において、新たな動作軌道を生成することになる。従って、ステップS103において導出される把持姿勢と、ステップS304において生成される動作軌道とがランダムに組み合わされ、最適な把持姿勢と動作軌道との組み合わせも探索されることになる。
 把持姿勢が実現可能である場合(ステップS303:YES)、CPU11は、ステップS301で算出した始点から終点まで、ロボットRBが動作する動作軌道を生成する(ステップS304)。そして、CPU11は、生成した動作軌道をロボットRBが動作する際の安定指標値及び負荷指標値を算出する(ステップS105、ステップS108)。
 以上のように、第3実施形態においては、実際のワークWの位置及び姿勢、並びに目標とするワークWの位置及び姿勢に、算出した把持姿勢が対応できるか否かを判断する。対応できない場合には、即座に新しい把持姿勢の導出に移るため、実現できないワークWの把持姿勢に関する試行を低減できる。結果として、把持姿勢の最適化を効率的に実現できる。
 また、ステップS103に戻る度に、ステップS103における把持姿勢の導出と、ステップS304における動作軌道の生成とが、繰り返される。従って、把持姿勢の導出と、動作軌道の生成とが1回だけ試行される場合と比べて、高い確率で、ロボットRBに作用する負荷が小さい把持姿勢が得られうる。なお、図11のフローチャートに、図9のステップS201及びステップS202を適用しても良い。この場合、確実に、把持姿勢の導出と、動作軌道の生成が繰り返される。
 なお、上記第3実施形態においては、ロボットの動作軌道を特定の手法により生成する点について説明した。しかし、ロボットの負荷が最適であった動作軌道をストレージ14等のデータベースに蓄積し、過去の最適な動作軌道を基準として、今回の動作軌道を生成しても良い。過去に採用した動作軌道を参照することにより、作業者の好み等に合わせた動作軌道が生成可能となる。
 また、上記第3実施形態においては、図11に示すように、ステップS106において安定性指標値が適正でない場合、ステップS103まで戻っていた。そして、把持姿勢が実現可能である限り、ステップS103の把持姿勢の導出及びステップS304の動作軌道の生成の両方を繰り返していた。しかし、必ずしも把持姿勢の導出及び動作軌道の生成の両方を繰り返さなくても良い。例えば、ワークWの種類、大きさ又は質量等によって、或いは、ユーザの指定によって、把持姿勢の導出及び動作軌道の生成の少なくとも一方だけを繰り返しても良い。把持姿勢の導出だけでなく、動作軌道の生成によっても、負荷及び安定性が変化するため、動作軌道の生成を繰り返すことも有意義である。
 上記第1実施形態から第3実施形態においては、ロボットRBに装着されたロボットハンドHによりワークWを把持する場合について説明した。しかし、本発明は、ワークWを把持する場合に限定されず、ロボットハンドHの代わりに吸着パッド等により吸着保持する場合にも適用できる。
 なお、上記各実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した把持姿勢評価処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、把持姿勢評価処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
 また、上記各実施形態では、把持姿勢評価処理のプログラムがROM12又はストレージ14に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の持続性(non-transitory)の記録媒体に記録された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。

Claims (13)

  1.  ロボットが備えるロボットハンドがワークを把持する際の前記ロボットハンドの把持姿勢を導出する把持姿勢導出部と、
     前記把持姿勢導出部により導出された前記把持姿勢により前記ロボットハンドが前記ワークを把持して搬送する場合の、前記ロボットにかかる負荷を表す負荷指標値を算出する負荷指標値算出部と、
     前記負荷指標値算出部により算出された前記負荷指標値に基づいて、前記把持姿勢が適正か否かを評価する把持姿勢評価部と、
     を有し、
     前記把持姿勢評価部により把持姿勢が適正でないと評価される度に、前記把持姿勢導出部による新たな把持姿勢の導出、前記負荷指標値算出部による負荷指標値の算出及び前記把持姿勢評価部による評価を繰り返す把持姿勢評価装置。
  2.  前記把持姿勢導出部により導出された前記把持姿勢により前記ロボットハンドが前記ワークを把持して搬送する場合の、前記ワークの把持の安定性を表す安定指標値を算出する安定指標値算出部を更に有し、
     前記把持姿勢評価部は、前記負荷指標値算出部により算出された前記負荷指標値及び前記安定指標値算出部により算出された安定指標値に基づいて、前記把持姿勢が適正か否かを評価する請求項1に記載の把持姿勢評価装置。
  3.  前記ロボットが前記ワークを搬送する際の動作軌道を生成する動作軌道生成部を更に有し、
     前記負荷指標値算出部は、前記動作軌道生成部により生成された前記動作軌道に従って前記ロボットが前記ロボットハンドにより前記ワークを把持して搬送する場合の前記負荷指標値を算出し、
     前記安定指標値算出部は、前記動作軌道生成部により生成された前記動作軌道に従って前記ロボットが前記ロボットハンドにより前記ワークを把持して搬送する場合の前記安定指標値を算出し、
     前記把持姿勢評価部により把持姿勢が適正でないと評価される度に、前記把持姿勢導出部による新たな把持姿勢の導出及び前記動作軌道生成部による新たな動作軌道の生成の少なくとも一方、前記負荷指標値算出部による負荷指標値の算出、前記安定指標値算出部による安定指標値の算出及び前記把持姿勢評価部による評価を繰り返す請求項2に記載の把持姿勢評価装置。
  4.  前記負荷指標値算出部は、算出した前記負荷指標値が適正か否かを評価し、
     前記負荷指標値算出部により前記負荷指標値が適正でないと評価された場合、適正でないと評価された前記負荷指標値に関する把持姿勢を前記把持姿勢評価部により評価することなく、前記把持姿勢導出部により新たな把持姿勢を導出する請求項1~3のいずれか一項に記載の把持姿勢評価装置。
  5.  前記安定指標値算出部は、算出した前記安定指標値が適正か否かを評価し、
     前記安定指標値算出部により前記安定指標値が適正でないと評価された場合、適正でないと評価された前記安定指標値に関する把持姿勢を前記把持姿勢評価部により評価することなく、前記把持姿勢導出部により新たな把持姿勢を導出する請求項2または請求項3に記載の把持姿勢評価装置。
  6.  前記ワークを取り上げ又は載置する場合に、前記把持姿勢導出部により導出した把持姿勢を、前記ロボットが実現可能か否かを評価する把持可能性評価部を更に有し、
     前記把持可能性評価部により前記ロボットの姿勢が実現不可能と評価された場合、前記把持姿勢導出部は、前記把持可能性評価部により評価された姿勢に関する把持姿勢とは異なる新たな把持姿勢を更に導出する請求項1~5の何れか一項に記載の把持姿勢評価装置。
  7.  前記把持姿勢導出部は、複数の把持姿勢を導出し、
     前記把持姿勢評価部は、前記把持姿勢導出部により導出された前記複数の把持姿勢の各々ついて適正か否かを判断し、前記複数の把持姿勢のうち適正と判断した把持姿勢が複数存在する場合、適正と判断した複数の把持姿勢の各々について前記負荷指標値算出部により算出された前記負荷指標値を比較して、最適な把持姿勢を決定する請求項1~6のいずれか一項に記載の把持姿勢評価装置。
  8.  前記把持姿勢導出部は、複数の把持姿勢を導出し、
     前記把持姿勢評価部は、前記把持姿勢導出部により導出された前記複数の把持姿勢の各々ついて適正か否かを判断し、前記複数の把持姿勢のうち適正と判断した把持姿勢が複数存在する場合、適正と判断した複数の把持姿勢の各々について前記負荷指標値算出部により算出された前記負荷指標値及び前記安定指標値算出部により算出された前記安定指標値をそれぞれ比較して、最適な把持姿勢を決定する請求項2、請求項3又は請求項5に記載の把持姿勢評価装置。
  9.  前記把持姿勢導出部は、前記ロボットハンド及び前記ワークの相対的な位置関係をランダムに決定することにより、把持姿勢を導出する請求項1~8の何れか一項に記載の把持姿勢評価装置。
  10.  前記把持姿勢導出部は、前記ロボットハンドが取り付けられるロボットの手先位置と前記ワークの重心位置が一致するところから優先的に把持姿勢を導出し、前記把持姿勢の導出回数を重ねる程、前記ロボットハンドが取り付けられる前記ロボットの手先と、前記ワークの重心との距離が離れるように、前記把持姿勢を導出する請求項1~8の何れか一項に記載の把持姿勢評価装置。
  11.  ロボットが備えるロボットハンドがワークを把持する際の前記ロボットハンドの把持姿勢を導出する把持姿勢導出ステップと、
     前記把持姿勢導出ステップにより導出された前記把持姿勢により前記ロボットハンドが前記ワークを把持して搬送する場合の、前記ロボットにかかる負荷を表す負荷指標値を算出する負荷指標値算出ステップと、
     前記負荷指標値算出ステップにより算出された前記負荷指標値に基づいて、前記把持姿勢が適正か否かを評価する把持姿勢評価ステップと、
     を有し、
     前記把持姿勢評価ステップにより把持姿勢が適正でないと評価される度に、前記把持姿勢導出ステップにより新たな把持姿勢を導出し、前記負荷指標値算出ステップによる負荷指標値の算出及び前記把持姿勢評価ステップによる評価を繰り返す、
     ことをコンピュータに実行させる把持姿勢評価プログラム。
  12.  前記把持姿勢導出ステップにより導出された前記把持姿勢により前記ロボットハンドが前記ワークを把持して搬送する場合の、前記ワークの把持の安定性を表す安定指標値を算出する安定指標値算出ステップを更に有し、
     前記把持姿勢評価ステップにおいては、前記負荷指標値算出ステップにより算出された前記負荷指標値及び前記安定指標値算出ステップにより算出された安定指標値に基づいて、前記把持姿勢が適正か否かを評価する請求項11に記載の把持姿勢評価プログラム。
  13.  前記ロボットが前記ワークを搬送する際の動作軌道を生成する動作軌道生成ステップを更に有し、
     前記負荷指標値算出ステップにおいては、前記動作軌道生成ステップにおいて生成された前記動作軌道に従って前記ロボットが前記ロボットハンドにより前記ワークを把持して搬送する場合の前記負荷指標値を算出し、
     前記安定指標値算出ステップにおいては、前記動作軌道生成ステップにより生成された前記動作軌道に従って前記ロボットが前記ロボットハンドにより前記ワークを把持して搬送する場合の前記安定指標値を算出し、
     前記把持姿勢評価ステップにおいて把持姿勢が適正でないと評価される度に、前記把持姿勢導出ステップによる新たな把持姿勢の導出及び前記動作軌道生成ステップによる新たな動作軌道の生成の少なくとも一方、前記負荷指標値算出ステップによる負荷指標値の算出、前記安定指標値算出ステップによる安定指標値の算出及び前記把持姿勢評価ステップによる評価が繰り返される請求項12に記載の把持姿勢評価プログラム。
PCT/JP2019/009816 2018-07-13 2019-03-11 把持姿勢評価装置及び把持姿勢評価プログラム WO2020012712A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201980038340.4A CN112236272B (zh) 2018-07-13 2019-03-11 把持姿态评价装置和把持姿态评价程序
EP19833268.6A EP3822048B1 (en) 2018-07-13 2019-03-11 Gripping attitude evaluating device, and gripping attitude evaluating program
US17/253,700 US20210260755A1 (en) 2018-07-13 2019-03-11 Gripping posture evaluation apparatus and non-transitory computer-readable storage medium storing a gripping posture evaluation program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-133730 2018-07-13
JP2018133730A JP7028092B2 (ja) 2018-07-13 2018-07-13 把持姿勢評価装置及び把持姿勢評価プログラム

Publications (1)

Publication Number Publication Date
WO2020012712A1 true WO2020012712A1 (ja) 2020-01-16

Family

ID=69142312

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/009816 WO2020012712A1 (ja) 2018-07-13 2019-03-11 把持姿勢評価装置及び把持姿勢評価プログラム

Country Status (5)

Country Link
US (1) US20210260755A1 (ja)
EP (1) EP3822048B1 (ja)
JP (1) JP7028092B2 (ja)
CN (1) CN112236272B (ja)
WO (1) WO2020012712A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112809679B (zh) * 2021-01-25 2023-04-07 清华大学深圳国际研究生院 可形变物体抓取的方法、装置及计算机可读存储介质
CN114663513B (zh) * 2022-05-17 2022-09-20 广州纳丽生物科技有限公司 一种操作仪工作端移动轨迹的实时位姿估计与评估方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007331075A (ja) * 2006-06-16 2007-12-27 Yaskawa Electric Corp 移動作業ロボットの物体把持システムおよび物体把持方法
JP2009032189A (ja) * 2007-07-30 2009-02-12 Toyota Motor Corp ロボットの動作経路生成装置
JP2012006097A (ja) * 2010-06-23 2012-01-12 Yaskawa Electric Corp ロボット装置
JP2014210310A (ja) * 2013-04-18 2014-11-13 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
JP2016034685A (ja) 2014-08-04 2016-03-17 キヤノン株式会社 搬送制御装置、搬送制御方法およびプログラム
JP2018133730A (ja) 2017-02-16 2018-08-23 Kddi株式会社 ネットワークシステム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0643036B2 (ja) * 1985-12-26 1994-06-08 日立建機株式会社 把持装置
JP3086104B2 (ja) * 1993-05-07 2000-09-11 日立建機株式会社 力制御作業機械の重量・重心位置補正装置
JP3442221B2 (ja) * 1996-05-21 2003-09-02 株式会社リコー ロボットの制御方法
WO2005099417A2 (en) * 2004-04-12 2005-10-27 Strider Labs, Inc. System and method for computing grasps for a robotic hand with a palm
JP4508164B2 (ja) * 2006-06-26 2010-07-21 トヨタ自動車株式会社 多関節ロボット及びその制御プログラム
US7650263B2 (en) * 2006-09-26 2010-01-19 Strider Labs, Inc. Method for fast computation of optimal contact forces
JP4271249B2 (ja) * 2007-06-14 2009-06-03 ファナック株式会社 嵌合装置
JP5448326B2 (ja) * 2007-10-29 2014-03-19 キヤノン株式会社 把持装置および把持装置制御方法
JP2011200948A (ja) * 2010-03-24 2011-10-13 Sony Corp 把持判別装置および把持判別方法
JP5311294B2 (ja) * 2010-04-28 2013-10-09 株式会社安川電機 ロボットの接触位置検出装置
JP5505138B2 (ja) * 2010-07-05 2014-05-28 株式会社安川電機 ロボット装置およびロボット装置による把持方法
JP2012206219A (ja) * 2011-03-30 2012-10-25 Seiko Epson Corp ロボット制御装置及びロボットシステム
US9014857B2 (en) * 2012-01-13 2015-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and computer-program products for generating grasp patterns for use by a robot
KR101438971B1 (ko) * 2012-12-27 2014-09-15 현대자동차주식회사 로봇그리퍼 및 그 제어방법
JP2014138964A (ja) * 2013-01-21 2014-07-31 Toyota Motor Corp ロボットハンドの制御装置及び制御方法
JP5893665B2 (ja) * 2014-04-14 2016-03-23 ファナック株式会社 作用された力に応じて移動されるロボットを制御するロボット制御装置
CN105091807B (zh) * 2014-04-30 2017-12-01 鸿富锦精密工业(深圳)有限公司 机器人工具坐标系的校正方法
DE102015204641B4 (de) * 2014-06-03 2021-03-25 ArtiMinds Robotics GmbH Verfahren und System zur Programmierung eines Roboters
US9381645B1 (en) * 2014-12-08 2016-07-05 Amazon Technologies, Inc. System for automating manipulation of items
US9889564B2 (en) * 2015-07-08 2018-02-13 Empire Technology Development Llc Stable grasp point selection for robotic grippers with machine vision and ultrasound beam forming
JP6711591B2 (ja) * 2015-11-06 2020-06-17 キヤノン株式会社 ロボット制御装置およびロボット制御方法
DE112017007397B4 (de) * 2017-04-04 2021-09-30 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007331075A (ja) * 2006-06-16 2007-12-27 Yaskawa Electric Corp 移動作業ロボットの物体把持システムおよび物体把持方法
JP2009032189A (ja) * 2007-07-30 2009-02-12 Toyota Motor Corp ロボットの動作経路生成装置
JP2012006097A (ja) * 2010-06-23 2012-01-12 Yaskawa Electric Corp ロボット装置
JP2014210310A (ja) * 2013-04-18 2014-11-13 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
JP2016034685A (ja) 2014-08-04 2016-03-17 キヤノン株式会社 搬送制御装置、搬送制御方法およびプログラム
JP2018133730A (ja) 2017-02-16 2018-08-23 Kddi株式会社 ネットワークシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3822048A4

Also Published As

Publication number Publication date
JP2020011317A (ja) 2020-01-23
JP7028092B2 (ja) 2022-03-02
CN112236272B (zh) 2024-01-30
CN112236272A (zh) 2021-01-15
EP3822048A4 (en) 2021-12-01
EP3822048A1 (en) 2021-05-19
EP3822048B1 (en) 2024-05-01
US20210260755A1 (en) 2021-08-26

Similar Documents

Publication Publication Date Title
JP6860863B2 (ja) 経路出力方法
JP6807949B2 (ja) 干渉回避装置
JP6931457B2 (ja) モーション生成方法、モーション生成装置、システム及びコンピュータプログラム
JP6640792B2 (ja) ハンド制御装置、ハンド制御方法、およびハンドのシミュレーション装置
US10589424B2 (en) Robot control device, robot, and robot system
US11654564B2 (en) Efficient data generation for grasp learning with general grippers
JP7021160B2 (ja) ハンドリング装置、ハンドリング方法及びプログラム
JP5458274B2 (ja) 把持位置計算装置及び把持位置計算方法
Cruciani et al. Benchmarking in-hand manipulation
WO2020012712A1 (ja) 把持姿勢評価装置及び把持姿勢評価プログラム
US11865720B2 (en) Handling device and control device
JP2021091013A (ja) 制御装置、ロボット装置、シミュレーション装置、制御方法、シミュレーション方法、物品の製造方法、プログラム及び記録媒体
Mucchiani et al. Dynamic grasping for object picking using passive zero-dof end-effectors
Nugroho et al. Handling four DOF robot to move objects based on color and weight using fuzzy logic control
WO2020149020A1 (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JPWO2019069361A1 (ja) 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム
JP5803179B2 (ja) ロボットの制御方法およびロボットの制御装置
US20240198526A1 (en) Auto-generation of path constraints for grasp stability
KR20240093690A (ko) 로봇 디바이스들에 대한 비선형 궤적 최적화
JP2022120649A (ja) 制御システム、動作計画装置、制御装置、動作計画及び制御方法、動作計画方法、並びに制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19833268

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019833268

Country of ref document: EP

Effective date: 20210215