WO2024048174A1 - エンドエフェクタ、エンドエフェクタの制御装置及びグリッパの制御方法 - Google Patents

エンドエフェクタ、エンドエフェクタの制御装置及びグリッパの制御方法 Download PDF

Info

Publication number
WO2024048174A1
WO2024048174A1 PCT/JP2023/028114 JP2023028114W WO2024048174A1 WO 2024048174 A1 WO2024048174 A1 WO 2024048174A1 JP 2023028114 W JP2023028114 W JP 2023028114W WO 2024048174 A1 WO2024048174 A1 WO 2024048174A1
Authority
WO
WIPO (PCT)
Prior art keywords
end effector
detection surface
sensor
gripping
control
Prior art date
Application number
PCT/JP2023/028114
Other languages
English (en)
French (fr)
Inventor
佳祐 小山
Original Assignee
国立大学法人大阪大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人大阪大学 filed Critical 国立大学法人大阪大学
Publication of WO2024048174A1 publication Critical patent/WO2024048174A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • B25J15/12Gripping heads and other end effectors having finger members with flexible finger members
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L5/00Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes
    • G01L5/16Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes for measuring several components of force

Definitions

  • the present invention relates to an end effector, an end effector control device, and a gripper control method.
  • Patent Document 1 discloses a gripper (robot hand) that is an example of an end effector.
  • This robot hand includes a hand base, at least one finger, a wrist connection frame coupled to a distal end of a robot arm, and a force sensor that detects translational force or torque in at least one axis
  • the hand base includes , is constructed by combining a palm side frame located on the palm side of the robot hand and a back side frame located on the back side of the robot hand, and the force sensor is arranged so as to be included in the base of the hand.
  • one mounting surface of the force sensor is coupled to the wrist connection frame, and the other mounting surface of the force sensor is coupled to the hand base, so that the force sensor is capable of controlling the force acting on the hand base. and detecting a force acting on the finger.
  • Patent Document 1 when the placement surface on which the object to be gripped is placed is arbitrary, the placement surface and the gripping part of the gripper collide, and the gripper becomes uncontrollable. The pointing finger problem is likely to become an issue. Similar problems exist not only in grippers but also in end effectors.
  • the present invention provides an end effector etc. that can solve the problem of thrusting fingers where the action part collides with the mounting surface of the object and becomes uncontrollable.
  • an end effector includes an action section, a support, and a detection surface.
  • the action portion is configured to protrude toward one end and come into contact with an object.
  • the support body is configured to flexibly support the action part so that at least one of the position and orientation of the action part is displaced when the support body receives a force generated by contact between the action part and the object.
  • the detection surface is configured to be in non-contact with the object on one end side and the other end side of the action part, and at least one of its position and orientation is displaced together with the action part.
  • the end effector is attached to the robot arm and is arranged to face a sensor that can measure at least one of its position and orientation.
  • FIG. 2 is a perspective view showing the configuration of an end effector 2 according to the present embodiment.
  • FIG. 2 is a perspective view showing a state before the end effector 2 shown in FIG. 1 is attached to the robot system 1 according to the present embodiment.
  • FIG. 2 is a perspective view showing a state after the end effector 2 shown in FIG. 1 is attached to the robot system 1 according to the present embodiment.
  • 3 is a block diagram showing a control device 4 electrically connected to a sensor 3 and a robot arm 5.
  • FIG. 2 is a schematic diagram showing input parameters used to control a gripper made up of a pair of end effectors 2.
  • FIG. 2 is a schematic diagram showing input parameters used to control a gripper made up of three end effectors 2.
  • FIG. FIG. 2 is a schematic diagram showing an end effector 2 having various action parts.
  • FIG. 2 is a plan view mainly showing a configuration overview of a detection section S2 of the sensor S1.
  • the program for realizing the software appearing in this embodiment may be provided as a non-transitory computer-readable medium, or may be downloaded from an external server.
  • the program may be provided in a manner that allows the program to be started on an external computer and the function thereof is realized on the client terminal (so-called cloud computing).
  • the term "unit” may include, for example, a combination of hardware resources implemented by circuits in a broad sense and software information processing that can be concretely implemented by these hardware resources.
  • various types of information are handled in this embodiment, and these information include, for example, the physical value of a signal value representing voltage and current, and the signal value as a binary bit collection consisting of 0 or 1. It is expressed by high and low levels or quantum superposition (so-called quantum bits), and communication and calculations can be performed on circuits in a broad sense.
  • a circuit in a broad sense is a circuit realized by at least appropriately combining a circuit, a circuit, a processor, a memory, and the like.
  • ASIC Application Specific Integrated Circuit
  • SPLD Simple Programmable Logic Device
  • CPLD Complex Programmable Logic Device
  • FPGA field programmable gate array
  • FIG. 1 is a perspective view showing the configuration of an end effector 2 according to this embodiment.
  • FIG. 2 is a perspective view showing a state before the end effector 2 shown in FIG. 1 is attached to the robot system 1 according to the present embodiment.
  • FIG. 3 is a perspective view showing a state after the end effector 2 shown in FIG. 1 is attached to the robot system 1 according to the present embodiment.
  • FIG. 4 is a block diagram showing the sensor 3, the robot arm 5, and the control device 4 that are electrically connected.
  • the robot system 1 includes an end effector 2, a sensor 3, a control device 4, and a robot arm 5.
  • End effector 2 The end effector 2 is attached to the robot arm 5, and its position and orientation are controlled by the robot arm 5, so that the end effector 2 can perform a desired task.
  • the end effector 2 is configured to be detachable from the sensor 3 located at the tip of the robot arm 5.
  • the means for attaching and detaching is not particularly limited, and may be screwed, for example.
  • Examples of the desired task include picking various objects Ob (see FIG. 7), stirring, and the like. That is, the end effector 2 may function as a gripper configured to be able to grip the object Ob.
  • the end effector 2 includes a gripping claw 21 which is an example of an action part, a detected object 22 including at least a detection surface 222, a support 23, and an elastic member 24.
  • the gripping claw 21, which is an example of the action part, is configured to protrude toward one end and come into contact with the object Ob.
  • the one end side here is the side located in the -z direction in the coordinate system shown in FIG.
  • the side located in the +z direction is sometimes called the other end side.
  • the illustrated coordinate system will be described in more detail later.
  • FIG. 1 shows one gripping claw 21 on one end effector 2, as shown in FIG. 21 grips the object Ob.
  • the action portion is the gripping claw 21, and is configured to grip the object Ob with the gripping claws 21 of each end effector 2 in a state where the plurality of end effectors 2 are attached to the robot arm 5.
  • the gripper is capable of gripping the object Ob with two gripping claws 21 provided by two end effectors 2.
  • the gripping claw 21 has a thin flat plate shape as a whole, and has a substantially N-shaped shape. It is preferable that the gripping claw 21 is made of, for example, metal, has rigidity, and does not deform its shape itself.
  • the tip portion 211 of the gripping claw 21 is a portion that directly contacts the object Ob, and extends along the z-axis.
  • a central portion 212 connected to the tip portion 211 is bent with respect to the tip portion 211 and extends with at least a component in the y-axis direction.
  • the rear end portion 213 connected to the center portion 212 is bent with respect to the center portion 212 and extends along the z-axis like the tip portion 211.
  • the detected object 22 is a member that includes at least a detection surface 222.
  • a claw fixing portion 221 and a detection surface 222 are illustrated.
  • the above-described gripping claws 21 are fixed to the claw fixing portions 221.
  • the claw fixing portion 221 is inserted through a hole (not shown) provided in a flat plate 231 of the support body 23, which will be described later, and extends to the other end side.
  • a detection surface 222 that is an object to be detected by the sensor 3 described later is the surface on the other end side of the detected object 22.
  • the detection surface 222 is arranged to face the sensor 3 capable of measuring at least one of the position and orientation when the end effector 2 is attached to the robot arm 5. .
  • the detected object 22 is supported by a support body 23 via an elastic member 24.
  • the elastic member 24 may be, for example, a plurality of springs.
  • the support body 23 has a flat plate 231, a column 232, and a flat plate 233, and the flat plate 233 is fixedly attached to the sensor 3 located at the tip of the robot arm 5.
  • the flat plate 231 and the flat plate 233 are arranged side by side in the z-axis direction and are substantially parallel to each other.
  • the flat plate 231 and the flat plate 233 are connected to each other by a plurality of supports 232. Note that the flat plate 233 is provided with a hole 233a so that a sensor 3, which will be described later, can detect the detection surface 222.
  • the detected object 22 supported by the support body 23 via the elastic member 24 changes at least in its position and posture when a force is applied.
  • One side is configured to be displaced.
  • the detected object 22 is connected to the gripping claw 21 which is an action part, the position and posture of the gripping claw 21 and the detected object 22 are controlled by the force generated when the grasping claw 21 comes into contact with the object Ob. At least one of them is configured to be variable.
  • the support body 23 has a gripping claw such that at least one of the position and orientation of the gripping claw 21 is displaced when it receives a force generated by the contact between the gripping claw 21 (an example of a working part) and the object Ob. 21 flexibly supported.
  • the detection surface 222 is configured not to be in contact with the object Ob on one end side and the other end side of the gripping claw 21, and is configured such that at least one of its position and orientation is displaced together with the gripping claw 21.
  • the detection surface 222 is configured such that its position can be displaced by 0.01 mm or more.
  • the displacement amount is, for example, 0.01, 0.02, 0.03, 0.04, 0.05, 0.06, 0.07, 0.08, 0.09, 0.1. ,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1,1.5,2,2.5,3,3.5 , 4, 4.5, 5, 5.5, 6, 6.5, 7, 7.5, 8, 8.5, 9, 9.5, 10 mm, and any 2 of the numerical values exemplified here. It may be within the range between two. Support via the elastic member 24 allows displacements on this order of magnitude. It becomes possible to control the end effector 2 as desired by using the sensor 3 capable of measuring displacement on this order of magnitude rather than a general force sensor, and the pointing finger problem can be solved. This will be explained in more detail later.
  • each component related to the left end effector 2l has a letter suffixed with l
  • each component related to the right end effector 2r has a letter suffixed with an r.
  • an xyz coordinate system is shown in FIGS. 1 to 3
  • the direction in which the end effectors 2l and 2r are lined up is defined as the y-axis direction.
  • the direction in which the detection surface 222 and the sensor 3, which will be described later, face each other is defined as the z-axis direction.
  • the direction perpendicular to the plane defined by the y-axis and the z-axis is defined as the x-axis direction. This definition is assumed to be the same even if the posture of the end effector 2 changes due to rotational movement.
  • the sensor 3 includes a housing 31 and a detection section 32, and is configured to be able to measure the distance and attitude (angle formed) of the detection surface 222 with respect to the detection section 32. As long as the sensor 3 has such properties, its details are not particularly limited.
  • the housing 31 has a substantially flat plate shape, and preferably has the same or similar shape to the flat plate 233 in the end effector 2. When the end effector 2 is attached to the robot arm 5, the flat plate 233 of the end effector 2, which has the same or similar shape as the housing 31, is attached to the housing 31 of the sensor 3.
  • the sensor 3 detects the detection surface 222 located inside the support 23 through a hole 233a provided in the flat plate 233.
  • the end effector 2 functions as an attachment to the sensor 3, and the positional relationship between the detection surface 222 and the sensor 3, which will be described later, is fixed, and accuracy can be further improved.
  • the sensor 3 is connected to a communication section 41 of the control device 4 shown in FIG. 4 through a wiring 33. That is, electrical physical quantities such as current, charge amount, and voltage output from the sensor 3 can be input to the control device 4 through the wiring 33 and the communication section 41.
  • the sensor 3 located on the left side is shown as a sensor 3l
  • the sensor 3 located on the right side is shown as a sensor 3r.
  • the control device 4 is a device or circuit configured to control the operation of the sensor 3 and the robot arm 5, which will be described later, and is, for example, a computer or a microcomputer.
  • the control device 4 includes a communication section 41, a storage section 42, and a processor 43, and these components are electrically connected via a communication bus 40 inside the control device 4. Each component will be further explained.
  • the communication unit 41 is configured to be able to transmit various electrical signals from the control device 4 to external components. Furthermore, the communication unit 41 is configured to be able to receive various electrical signals from external components to the control device 4 . Specifically, the communication unit 41 receives, via the wiring 33, an electrical physical quantity corresponding to the spatial physical quantity (input parameter of the detection surface 222) detected by the detection unit 32. Furthermore, the communication unit 41 controls dynamic parameters such as the position and posture of the robot arm 5 based on the input parameters measured by the sensor 3 . More preferably, the communication unit 41 has a network communication function, so that various information can be communicated between the control device 4 and external devices via a network such as the Internet.
  • the storage unit 42 stores various information defined by the above description. This may be used, for example, as a storage device such as a solid state drive (SSD) that stores various programs related to the control device 4 executed by the processor 43, or as a temporary storage device related to program calculations. It can be implemented as a memory such as a random access memory (RAM) that stores information (arguments, arrays, etc.).
  • the storage unit 42 stores various programs, variables, etc. related to the control device 4 executed by the processor 43.
  • the processor 43 is, for example, a central processing unit (CPU) not shown.
  • the processor 43 implements various functions related to the control device 4 by reading predetermined programs stored in the storage unit 42 . That is, information processing by software stored in the storage unit 42 is specifically implemented by the processor 43, which is an example of hardware, so that it can be executed as each functional unit included in the processor 43.
  • the processor 43 is not limited to a single processor, and may be implemented so as to have a plurality of processors 43 for each function. It may also be a combination thereof.
  • the robot arm 5 has multiple degrees of freedom and is configured to be able to control its mechanical parameters.
  • the robot arm 5 has three degrees of freedom in translation and three degrees of freedom in rotation. That is, the robot arm 5 is configured to be able to control the mechanical parameters of the end effector 2 attached to its tip.
  • the mechanical parameters of the robot arm 5 are controlled by a processor 43 of the control device 4.
  • An end effector 2 is attached to the robot arm 5.
  • the control device 4 is a device that controls the end effector 2, and includes a processor 43 (an example of a control section), and the processor 43 controls the gripping claws of the end effector 2 based on the measurement result by the sensor 3. 21 mechanical parameters are controlled.
  • the mechanical parameters include at least one of position and orientation.
  • the position or posture of the end effector 2 can be feedback-controlled.
  • the mechanical parameter includes at least one of velocity and acceleration.
  • the speed or acceleration of the end effector 2 can be feedback-controlled. A method of controlling the robot arm 5 will be described in detail later.
  • this control method is a method of controlling an end effector 2 (gripper) having a plurality of gripping claws 21.
  • This control method includes the following steps. First, in the acquisition step, input parameters of the detection surface 222 corresponding to each gripping claw 21 are acquired for each gripping claw 21 . Note that, as described above, the input parameter is at least one of the position and orientation of the detection surface 222. Subsequently, in the control step, the mechanical parameters of the gripping claws 21 are controlled based on the sum or difference of the input parameters.
  • FIG. 5 is a schematic diagram showing input parameters used to control the gripper consisting of a pair of end effectors 2.
  • the sensor 3l detects the mechanical parameters of the detection surface 222l in the end effector 2l.
  • the mechanical parameters here preferably include a distance d_l between the sensor 3l and the detection surface 222l, an inclination angle ⁇ _l of the detection surface 222l around the x-axis, and an inclination angle ⁇ _l of the detection surface 222l around the y-axis.
  • the sensor 3r detects the mechanical parameters of the detection surface 222r in the end effector 2r.
  • the mechanical parameters here preferably include a distance d_r between the sensor 3r and the detection surface 222r, an inclination angle ⁇ _r of the detection surface 222r around the x-axis, and an inclination angle ⁇ _r of the detection surface 222r around the y-axis. .
  • Table 1 is a table showing control methods in each axis direction related to translation or rotation of a gripper consisting of a pair of end effectors 2.
  • the control in each axis direction related to translation or rotation shown in Table 1 is performed simultaneously and sequentially. Each item will be explained in detail below.
  • the processor 43 uses a value obtained by adding an appropriate offset to the sum of the distance d_l and the distance d_r as an input parameter, and outputs a control value obtained by multiplying this by a gain G_z.
  • d_ref is a preset offset having a distance dimension for each end effector 2, and since there are end effectors 2l and 2r, the value obtained by doubling this is subtracted from the sum of distance d_l and distance d_r. There is. By sequentially performing such control at a predetermined control rate, the positions of the end effectors 2l and 2r can be translated in the z-axis direction without using a force sensor.
  • the mechanical parameters related to the translational movement of the gripping claws 21 are controlled based on the sum of each input parameter.
  • the end effector 2 can be controlled with a degree of freedom in translation.
  • the processor 43 outputs a control value obtained by using the difference between the distance d_l and the distance d_r as an input parameter and multiplying the difference by the gain G_Rx.
  • the processor 43 uses the difference between the tilt angle ⁇ _l and the tilt angle ⁇ _r as an input parameter, and outputs a control value obtained by multiplying the difference by the gain G_Rz.
  • the positions of the end effectors 2l and 2r can be rotated around the z-axis without using a force sensor. The same applies to the case where forces in the x-axis direction are applied in opposite directions to both the gripping claws 21l on the end effector 2l and the gripping claws 21r on the end effector 2r.
  • the mechanical parameters related to the rotational movement of the gripping claws 21 are controlled based on the difference between the input parameters.
  • the end effector 2 (gripper) can be controlled with rotational freedom.
  • FIG. 6 is a schematic diagram showing input parameters used to control the gripper made up of three end effectors 2.
  • This gripper further includes an end effector 2c in addition to the aforementioned end effectors 2l and 2r.
  • the components included in the end effector 2c will be represented by adding c to the end of the reference numeral.
  • the sensor 3c is configured to detect the detection surface 222c of the end effector 2c.
  • the end effectors 2l and 2r are arranged side by side in the y-axis direction.
  • Table 2 is a table showing control methods in each axis direction related to translation or rotation of the gripper made up of the three end effectors 2.
  • the control in each axis direction related to translation or rotation shown in Table 2 is performed simultaneously and sequentially.
  • the processor 43 uses the sum of the tilt angle ⁇ _l, the tilt angle ⁇ _r, and the tilt angle ⁇ _c as an input parameter, and outputs a control value obtained by multiplying the sum by the gain G_x. By sequentially performing such control at a predetermined control rate, the positions of the end effectors 2l, 2r, and 2c can be translated in the x-axis direction without using a force sensor.
  • the processor 43 outputs a control value obtained by multiplying the sum of the tilt angle ⁇ _l, the tilt angle ⁇ _r, and the tilt angle ⁇ _c by the gain G_y as an input parameter.
  • the processor 43 outputs a control value obtained by using a value obtained by adding an appropriate offset to the sum of distance d_l, distance d_r, and distance d_c as an input parameter, and multiplying the value by gain G_z.
  • d_ref is a preset offset having a distance dimension for each end effector 2, and since there are end effectors 2l, 2r, and 2c, the value multiplied by 3 is calculated from the sum of distance d_l and distance d_r. It is decreasing.
  • the processor 43 uses the difference between the sum of distance d_l and distance d_r and distance d_c as an input parameter, and outputs a control value obtained by multiplying this by gain G_Ry. By sequentially performing such control at a predetermined control rate, the positions of the end effectors 2l, 2r, and 2c can be rotated around the x-axis without using a force sensor.
  • the processor 43 outputs a control value obtained by using the above-mentioned sum of possible differences as an input parameter and multiplying this by a gain G_Rz.
  • the end effector includes a gripping claw 21 (an example of an action part), a support body 23, and a detection surface 222.
  • the gripping claw 21 is configured to protrude toward one end and come into contact with the object Ob.
  • the support body 23 is configured to flexibly support the gripping claws 21 so that at least one of the position and posture of the gripping claws 21 is displaced when receiving a force generated by the contact between the gripping claws 21 and the object Ob. be done.
  • the detection surface 222 is configured to be in non-contact with the object Ob on one end side and the other end side of the gripping claw 21, and at least one of its position and orientation is displaced together with the gripping claw 21.
  • the detection surface 222 is arranged to face a sensor capable of measuring at least one of the position and orientation of the end effector 2 when it is attached to the robot arm 5.
  • a force exceeding the measurable numerical range of the force sensor is generated, resulting in a finger thrust problem, but according to this embodiment, the grasping claw 21 ( At least one of the position and orientation of the action part) changes flexibly, and by measuring this with the sensor 3 with a sufficiently wide measurement range, the gripping claw 21 (action part) collides with the object's placement surface and becomes uncontrollable.
  • the pointing finger problem can be solved.
  • the processor 43 acquires the input parameters of the detection surface 222 corresponding to each of the gripping claws 21 for each of the gripping claws 21.
  • the input parameter is at least one of the position and orientation of the detection surface 222.
  • the input parameters are configured to control the mechanical parameters of the gripping claws 21 based on the sum or difference of the input parameters.
  • the processor 43 controls the mechanical parameters related to the translational movement of the gripping claws 21 based on the sum of the input parameters.
  • the processor 43 controls the mechanical parameters related to the rotational movement of the gripping claws 21 based on the difference between the input parameters.
  • the end effector 2 can perform a stable picking task by feedback control using simple calculation values without causing the finger pointing problem. That is, for example, it is possible to perform a difficult task such as picking a plurality of objects Ob one by one that are piled up in bulk.
  • the robot system 1 according to this embodiment may be further modified.
  • FIG. 7 is a schematic diagram showing an end effector 2 having various working parts.
  • the configuration shown in FIG. 7A has grippers that taper like tweezers, and is suitable for the task of picking bulk objects Ob one by one.
  • the form shown in FIG. 7B is a gripper that spreads in a figure-eight shape, and a bottom holding part 214 is provided further ahead of the tip part 211.
  • Such a configuration is suitable for the task of scooping up and grasping the object Ob placed on the placement surface.
  • FIG. 7A has grippers that taper like tweezers, and is suitable for the task of picking bulk objects Ob one by one.
  • the form shown in FIG. 7B is a gripper that spreads in a figure-eight shape, and a bottom holding part 214 is provided further ahead of the tip part 211.
  • Such a configuration is suitable for the task of scooping up and grasping the object Ob placed on the placement surface.
  • FIG. 7C is a gripper consisting of a pair of end effectors 2 configured on a straight line, and is suitable for a task such as grasping an object Ob such as food with chopsticks.
  • the form shown in FIG. 7D is a stirrer consisting of one end effector 2 configured linearly, and is suitable for the task of appropriately stirring an object Ob such as food.
  • the mechanical parameters of the action portion may be controlled based on at least one of the position and orientation of one detection surface 222 in the end effector 2.
  • control with three translational degrees of freedom, or one translational degree of freedom and two rotational degrees of freedom is possible.
  • Table 3 is a table showing a method for controlling the three translational degrees of freedom of one end effector 2.
  • Table 4 is a table showing a control method for one degree of freedom in translation and two degrees of freedom in rotation of one end effector 2.
  • the control in each axis direction shown in Table 3 or Table 4 is performed simultaneously and sequentially.
  • the distance d between the sensor 3 and the detection surface 222, the inclination angle ⁇ of the detection surface 222 around the x-axis, and the inclination angle ⁇ of the detection surface 222 around the y-axis are used as input parameters.
  • G_x, G_y, G_z, G_Rx, and G_Ry are gains in each control, and d_ref is a preset offset having a distance dimension.
  • the position of the end effector 2 can be translated or rotated without using a force sensor.
  • the end effector 2 was detachable from the sensor 3 attached to the tip of the robot arm 5, but the end effector 2 may further include the sensor 3.
  • the sensor 3 is included in the end effector 2, the positional relationship between the detection surface 222 and the sensor 3 is fixed, and accuracy can be further improved.
  • Sensor S1 is a sensor for measuring a target object.
  • the target object is, for example, the detection surface 222 described above.
  • the sensor S1 is configured to be able to measure spatial physical quantities related to the reference plane and the object in the sensor S1.
  • the spatial physical quantity here preferably includes at least the distance d between the reference plane and the object, and the angles ⁇ and ⁇ (parameters indicating the three-dimensional posture) of the object with respect to the reference plane.
  • the distance d is a close distance, for example, the distance d is 50 mm or less, and specifically, for example, 50, 49, 48, 47, 46, 45, 44, 43, 42, 41, 40, 39 , 38, 37, 36, 35, 34, 33, 32, 31, 30, 29, 28, 27, 26, 25, 24, 23, 22, 21, 20, 19, 18, 17, 16, 15, 14 , 13, 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 1, 0 mm, and may be within the range between any two of the numerical values exemplified here. .
  • the distance d and the angles ⁇ and ⁇ to the object can be measured, and can be applied to various situations such as object picking and inspection. Moreover, according to such an aspect, it is possible to accurately grasp an object located at a very close distance.
  • FIG. 8 is a plan view mainly showing the configuration of the detection section S2 of the sensor S1.
  • the sensor S1 mainly includes a detection section S2.
  • the detection unit S2 includes a base material S21 and a light receiving/emitting block S3 provided on the base material S21. Each component will be further explained below.
  • the base material S21 constitutes a housing of the sensor S1.
  • the base material S21 has, for example, a substantially circular shape and is configured in a flat plate shape, but this is just an example and is not limited to this.
  • the base material S21 is made of a material that is black, matte, and has low reflectance, for example.
  • the base material S21 includes a light receiving/emitting block S3 provided thereon.
  • a plurality of light receiving and emitting blocks S3 are provided on the base material S21.
  • a light emitting element S31 and a light receiving element S32 are arranged in each light receiving/emitting block S3.
  • one light emitting element S31 and one light receiving element S32 are arranged in one light receiving/emitting block S3.
  • the light receiving element S32 and the associated light emitting element S31 are adjacent to each other and form the light receiving and emitting block S3.
  • a plurality of light receiving and emitting blocks S3 are provided on the base material S21.
  • the number of light emitting elements S31 is preferably 2 to 30, more preferably 2 to 10, and most preferably 2 to 4. Specifically, for example, the number of light emitting elements S31 is 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20 , 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, and may be within the range between any two of the numerical values exemplified here.
  • the number of light receiving and emitting blocks S3 is preferably two or more, preferably three or more, and in this embodiment, four light receiving and emitting blocks S3a, S3b, S3c, and S3d are provided.
  • the light receiving and emitting blocks S3 are arranged annularly and at regular intervals on the base material S21. In other words, the light receiving/emitting block S3 is arranged symmetrically with respect to the base material S21.
  • a light emitting element S31a and a light receiving element S32a are arranged in the receiving and emitting block S3a
  • a light emitting element S31b and a light receiving element S32b are arranged in the receiving and emitting block S3b
  • a light emitting element S31b and a light receiving element S32b are arranged in the receiving and emitting block S3c.
  • An element S31c and a light receiving element S32c are arranged, and a light emitting element S31d and a light receiving element S32d are arranged in the light receiving/emitting block S3d.
  • symmetry occurs in each of the photocurrents (an example of an electrical physical quantity) based on the plurality of light receiving elements S32, and the accuracy of the sensor S1 can be further improved.
  • the number of light receiving elements S32 is the same as that of the light emitting elements S31, and they are in one-to-one correspondence with each of the light emitting elements S31. According to such an aspect, since a photocurrent based on the plurality of light receiving elements S32 is obtained, the accuracy of the sensor S1 can be further improved.
  • the light emitting elements S31 are provided at different positions on the base material S21.
  • the light emitting element S31 may be any element that emits diffused light, such as a light emitting diode (LED), and is preferably an infrared LED that emits infrared light that is invisible to humans and is harmless to the human body.
  • the present invention is not limited to this, and the light emitting element S31 may be a red LED, a green LED, or a blue LED.
  • the light receiving element S32 is provided on the base material S21.
  • the light receiving element S32 is an element that detects the received light, and uses this as a trigger to generate a photocurrent, which is an example of an electrical physical quantity.
  • the light receiving element S32 is configured to be able to output a photocurrent depending on the illuminance of the received light.
  • the characteristics of light illuminance and photocurrent are linear.
  • the main light receiving element S32 include a phototube, a photomultiplier tube, a phototransistor using the internal photoelectric effect of a semiconductor, a photodiode, an avalanche photodiode, a photoconductive cell, and an image sensor.
  • the light receiving element S32 is a photodiode with wide directivity or a phototransistor that is a combination of the photodiode and an amplifier.
  • the light receiving element S32 receives, as main light, the reflected light emitted from the light emitting element S31 belonging to the same light receiving/emitting block S3 and reflected from the target object. Further, the light receiving element S32 receives reflected light emitted from the light emitting element S31 belonging to the adjacent light receiving/emitting block S3 and reflected from the object as crosstalk light. For example, the light receiving element S32a receives reflected light caused by the light emitting element S31a as main light, and receives reflected light caused by the light emitting elements S31b and S31d as crosstalk light.
  • the light receiving element S32 receives one of the reflected lights caused by each light emitting element S31 as the main light, and can distinguish the reflected light other than the main light as crosstalk light from the main light. It is configured to receive light and generate a photocurrent (an example of an electrical physical quantity) in accordance with the reflected light.
  • the reflected light here is light emitted from each of the light emitting elements S31 and reflected from the object. In this way, the spatial physical quantities related to the reference surface and the object in sensor S1 are measured based on the photocurrents based on the main light and the crosstalk light that are received in a distinguishable manner.
  • the value of the photocurrent or the calculated value based on the photocurrent is input as an input parameter to the trained model stored in the storage unit 42 of the control device 4 described above.
  • This learned model is a model in which the relationship between the spatial physical quantities related to the reference plane and the object in the sensor S1 and the value or calculated value of the photocurrent is machine-learned in advance.
  • the spatial physical quantity of the object can be measured by the sensor S1 alone without using a separate computer or the like.
  • An end effector comprising an action part, a support, and a detection surface, the action part is configured to protrude toward one end and come into contact with an object, and the support The sensing surface is configured to flexibly support the acting portion so that at least one of the position and orientation of the acting portion is displaced when receiving a force generated by contact between the acting portion and the object.
  • the end effector is configured such that the other end side of the action part is configured so as not to be in contact with the object, and at least one of the position and orientation thereof is displaced together with the action part, and the end effector is attached to the robot arm.
  • the object which is arranged so as to face a sensor capable of measuring at least one of the position and orientation in the state.
  • the end effector functions as an attachment to the sensor, the positional relationship between the detection surface and the sensor is fixed, and accuracy can be further improved.
  • the senor is included in the end effector, the positional relationship between the detection surface and the sensor is fixed, and accuracy can be further improved.
  • the action portion is a gripping claw, and when a plurality of the end effectors are attached to the robot arm, each The object is configured to grip the object with the gripping claws of the end effector.
  • a control device for an end effector including a control section, the end effector being the end effector according to any one of (1) to (5) above, and the control section controlling the sensor
  • the mechanical parameter of the acting part is controlled based on the measurement results obtained by the method.
  • the end effector can be controlled without causing the finger pointing problem.
  • the end effector is configured such that the action portion is a gripping claw, and when a plurality of the end effectors are attached to the robot arm, the gripping of each end effector is performed.
  • the control unit is configured to grasp the object with the claws, and the control unit obtains input parameters of the detection surface corresponding to each of the grasping claws, and the input parameters are configured to grasp the object for each of the grasping claws.
  • the object is configured to control a mechanical parameter of the gripping claw based on the sum or difference of each of the input parameters in at least one of the position and orientation of the surface.
  • feedback control using simple calculation values allows the gripper to perform a stable picking task without causing the finger pointing problem.
  • control unit controls a mechanical parameter related to translational movement of the gripping claw based on the sum of each of the input parameters.
  • the gripper can be controlled with a degree of freedom in translation.
  • control unit controls a mechanical parameter related to rotational movement of the gripping claw based on a difference between the input parameters.
  • the gripper can be controlled with rotational freedom.
  • the dynamic parameter includes at least one of position and orientation.
  • the position or posture of the gripper can be feedback-controlled.
  • the speed or acceleration of the gripper can be feedback-controlled.
  • a method for controlling a gripper having a plurality of gripping claws comprising the following steps, and in the acquisition step, input parameters of a detection surface corresponding to each of the gripping claws are acquired for each of the gripping claws. , wherein the input parameter is at least one of the position and orientation of the detection surface, and in the control step, the mechanical parameter of the gripping claw is controlled based on the sum or difference of each of the input parameters. .
  • feedback control using simple calculation values allows the gripper to perform a stable picking task without causing the finger pointing problem.
  • the gripper can be controlled with a degree of freedom in translation.
  • the gripper can be controlled with rotational freedom.
  • the position or posture of the gripper can be feedback-controlled.
  • the speed or acceleration of the gripper can be feedback-controlled. Of course, this is not the case.
  • Robot system 2 End effector 2c: End effector 2l: End effector 2r: End effector 21: Gripping claw 21c: Gripping claw 21l: Gripping claw 21r: Gripping claw 211: Tip portion 212: Center portion 213: Rear end portion 214 : Bottom holding part 22 : Detected object 221 : Claw fixing part 222 : Detection surface 222c : Detection surface 222l : Detection surface 222r : Detection surface 23 : Support body 231 : Flat plate 232 : Post 233 : Flat plate 233a : Hole 24 : Elastic member 3: Sensor 3c: Sensor 3l: Sensor 3r: Sensor 31: Housing 32: Detection section 32c: Detection section 32l: Detection section 32r: Detection section 33: Wiring 4: Control device 40: Communication bus 41: Communication section 42: Memory Unit 43: Processor 5: Robot arm G_Rx: Gain G_Ry: Gain G_

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

【課題】物体の載置面に作用部が衝突して制御不能となる突き指問題を解消可能なエンドエフェクタ等を提供すること。 【解決手段】本発明の一態様によれば、エンドエフェクタが提供される。このエンドエフェクタは、作用部と、支持体と、検出面とを備える。作用部は、一端側に突出することで物体と接触するように構成される。支持体は、作用部と物体との接触によって発生する力を受けたときに作用部の位置及び姿勢の少なくとも一方が変位するように、作用部を柔軟に支持するように構成される。検出面は、作用部の、一端側に対する他端側において、物体と非接触に構成され、且つその位置及び姿勢の少なくとも一方が作用部とともに変位する。エンドエフェクタがロボットアームに取り付けられた状態で、位置及び姿勢の少なくとも一方を計測可能なセンサと対向するように配置される。

Description

エンドエフェクタ、エンドエフェクタの制御装置及びグリッパの制御方法
 本発明は、エンドエフェクタ、エンドエフェクタの制御装置及びグリッパの制御方法に関する。
 特許文献1には、エンドエフェクタの一例であるグリッパ(ロボットハンド)が開示されている。このロボットハンドは、ハンド基部と、少なくとも1指と、ロボットアームの先端部に結合される手首連結フレームと、少なくとも1軸の並進力もしくはトルクを検出する力センサと、を備え、前記ハンド基部は、ロボットハンドの掌側に位置する掌側フレームと、ロボットハンドの甲側に位置する甲側フレームとを結合することにより構成され、前記力センサは、前記ハンド基部に内包されるように配置されており、前記力センサの一方の取付け面が前記手首連結フレームに結合されるとともに、前記力センサの他方の取付け面が前記ハンド基部に結合されて、前記力センサが前記ハンド基部に作用する力および前記指に作用する力を検出する。
特開2015-47680号公報
 一方で、特許文献1に開示される先行技術では、把持対象の物体が載置される載置面が任意である場合、載置面とグリッパの把持部とが衝突して、グリッパが制御不能となる突き指問題が課題となりやすい。グリッパに限らずエンドエフェクタにおいて同様の課題が存在する。
 本発明では上記事情を鑑み、物体の載置面に作用部が衝突して制御不能となる突き指問題を解消可能なエンドエフェクタ等を提供することとした。
 本発明の一態様によれば、エンドエフェクタが提供される。このエンドエフェクタは、作用部と、支持体と、検出面とを備える。作用部は、一端側に突出することで物体と接触するように構成される。支持体は、作用部と物体との接触によって発生する力を受けたときに作用部の位置及び姿勢の少なくとも一方が変位するように、作用部を柔軟に支持するように構成される。検出面は、作用部の、一端側に対する他端側において、物体と非接触に構成され、且つその位置及び姿勢の少なくとも一方が作用部とともに変位する。エンドエフェクタがロボットアームに取り付けられた状態で、位置及び姿勢の少なくとも一方を計測可能なセンサと対向するように配置される。
 本開示によれば、物体の載置面に作用部が衝突して制御不能となる突き指問題を解消することができる。
本実施形態に係るエンドエフェクタ2の構成を示す斜視図である。 本実施形態に係るロボットシステム1において、図1に示されるエンドエフェクタ2を取り付ける前の状態を示す斜視図である。 本実施形態に係るロボットシステム1において、図1に示されるエンドエフェクタ2を取り付けた後の状態を示す斜視図である。 センサ3及びロボットアーム5と電気的に接続された制御装置4を示すブロック図である。 一対のエンドエフェクタ2からなるグリッパの制御に用いる入力パラメータを示す概要図である。 3つのエンドエフェクタ2からなるグリッパの制御に用いる入力パラメータを示す概要図である。 種々の作用部を有するエンドエフェクタ2を示す概要図である。 センサS1の、主に検出部S2の構成概要を示す平面図である。
[実施形態]
 以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。
 ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。
 また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。
 また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。
1.ハードウェア構成
 本節では、本実施形態に係るロボットシステム1のハードウェア構成について説明する。図1は、本実施形態に係るエンドエフェクタ2の構成を示す斜視図である。図2は、本実施形態に係るロボットシステム1において、図1に示されるエンドエフェクタ2を取り付ける前の状態を示す斜視図である。図3は、本実施形態に係るロボットシステム1において、図1に示されるエンドエフェクタ2を取り付けた後の状態を示す斜視図である。図4は、センサ3及びロボットアーム5と、電気的に接続された制御装置4を示すブロック図である。
 図3及び図4に示されるように、ロボットシステム1は、エンドエフェクタ2と、センサ3と、制御装置4と、ロボットアーム5とを備える。
(エンドエフェクタ2)
 エンドエフェクタ2は、ロボットアーム5に装着され、その位置及び姿勢がロボットアーム5によって制御されることで、所望のタスクを実行可能に構成される。好ましくは、図1~図3に示されるように、エンドエフェクタ2は、ロボットアーム5の先端に位置するセンサ3に対して、着脱可能に構成される。着脱の手段は特に限定されず、例えばネジ止めされればよい。所望のタスクとは、例えば種々の物体Ob(図7参照)のピッキングや、撹拌等が挙げられる。すなわち、エンドエフェクタ2は、物体Obを把持可能に構成されるグリッパとして機能してもよい。
 図1に示されるように、エンドエフェクタ2は、作用部の一例である把持爪21と、少なくとも検出面222を含む被検出体22と、支持体23と、弾性部材24とを備える。作用部の一例である把持爪21は、一端側に突出することで物体Obと接触するように構成される。ここでの一端側とは、図1に示される座標系での-z方向に位置する側である。これに対して、+z方向に位置する側を他端側と呼ぶことがある。図示の座標系については、後にさらに詳述する。
 図1では、1つのエンドエフェクタ2における1つの把持爪21が図示されているが、図3に示されるように、複数のエンドエフェクタ2がロボットアーム5に装着されることで、複数の把持爪21によって物体Obが把持される。換言すると、作用部は、把持爪21であり、複数のエンドエフェクタ2がロボットアーム5に取り付けられた状態で、各エンドエフェクタ2の把持爪21どうしで物体Obを把持するように構成される。以下、2つのエンドエフェクタ2による2つの把持爪21によって物体Obを把持可能なグリッパとして説明をする。具体的には、把持爪21は、全体として薄型平板形をなし、略N型形状を有する。把持爪21は、例えば金属で構成され、剛性を有し、その形状それ自体は変形しないことが好ましい。把持爪21における先端部211は、物体Obと直接接触する部位であり、z軸に沿って延在している。先端部211と接続された中央部212は、先端部211に対して屈曲し、少なくともy軸方向の成分を有して延在している。さらに、中央部212と接続された後端部213は、中央部212に対して屈曲し、先端部211同様にz軸に沿って延在している。
 被検出体22は、少なくとも検出面222を含む部材である。ここでは、被検出体22として、爪固定部221と、検出面222とが図示されている。爪固定部221には、前述した把持爪21が固定される。爪固定部221は、後述の支持体23における平板231に設けられた孔(不図示)を挿通し、他端側に延在する。後述のセンサ3によって検出される対象である検出面222は、被検出体22の他端側の表面である。換言すると、図3に示されるように、検出面222は、エンドエフェクタ2がロボットアーム5に取り付けられた状態で、位置及び姿勢の少なくとも一方を計測可能なセンサ3と対向するように配置される。
 被検出体22は、弾性部材24を介して、支持体23に支持されている。弾性部材24は、例えば複数のバネであってよい。支持体23は、平板231と、支柱232と、平板233とを有し、平板233がロボットアーム5の先端に位置するセンサ3に対して固定されて取り付けられる。平板231と平板233とは、z軸方向に並んで配置され、互いに略平行な関係をなす。平板231と平板233とは、複数の支柱232によって互いに接続されている。なお、平板233は、後述のセンサ3が検出面222を検出可能なように、孔233aが設けられている。
 ここで、支持体23がロボットアーム5に固定配置されているのに対し、支持体23が弾性部材24を介して支持する被検出体22は、力が加えられると、その位置及び姿勢の少なくとも一方が変位するように構成されている。また、被検出体22は、作用部である把持爪21と接続されているため、把持爪21が物体Obに接触したときに発生する力によって、把持爪21及び被検出体22の位置及び姿勢の少なくとも一方が可変に構成されている。換言すると、支持体23は、把持爪21(作用部の一例)と物体Obとの接触によって発生する力を受けたときに把持爪21の位置及び姿勢の少なくとも一方が変位するように、把持爪21を柔軟に支持するように構成される。そして、検出面222は、把持爪21の、一端側に対する他端側において、物体Obと非接触に構成され、且つその位置及び姿勢の少なくとも一方が把持爪21とともに変位するように構成される。
 好ましくは、検出面222は、その位置が0.01mm以上変位可能に構成される。かかる変位量は、具体的には例えば、0.01,0.02,0.03,0.04,0.05,0.06,0.07,0.08,0.09,0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1,1.5,2,2.5,3,3.5,4,4.5,5,5.5,6,6.5,7,7.5,8,8.5,9,9.5,10mmであり、ここで例示した数値の何れか2つの間の範囲内であってもよい。弾性部材24を介した支持により、このようなオーダの変位量が可能である。一般的な力覚センサではなく、このようなオーダの変位を計測可能なセンサ3を用いて、エンドエフェクタ2を所望に制御することが可能となり、突き指問題を解消することができる。これについては後にさらに詳述する。
 なお、図3中において、左側に位置するエンドエフェクタ2をエンドエフェクタ2lと図示し、右側に位置するエンドエフェクタ2をエンドエフェクタ2rと図示している。同様に、左側のエンドエフェクタ2lに関する各構成要素は、符号の末尾にlを付され、右側のエンドエフェクタ2rに関する各構成要素は、符号の末尾にrを付されている。また、図1~図3には、xyz座標系が示されているが、エンドエフェクタ2l,2rが並ぶ方向がy軸方向として定義される。検出面222と、後述のセンサ3とが対向する方向がz軸方向として定義される。y軸とz軸とで定義される平面に垂直な方向がx軸方向として定義される。回転移動によりエンドエフェクタ2の姿勢が変化した場合であっても、この定義は同様であるとする。
(センサ3)
 センサ3は、筐体31と、検出部32とを備え、検出部32に対する検出面222の距離及び姿勢(成す角度)を計測可能に構成される。このような性質のセンサ3であれば、その詳細は特に限定されない。筐体31は、略平板形状を有し、好ましくは、エンドエフェクタ2における平板233と同一又は類似の形状を有する。エンドエフェクタ2のロボットアーム5への装着の際は、センサ3における筐体31に、筐体31の形状と同一又は類似の形状を有する、エンドエフェクタ2における平板233が取り付けられる。センサ3は、平板233に設けられた孔233aを介して、支持体23の内部に位置する検出面222を検出する。このような態様によれば、エンドエフェクタ2がセンサ3に対するアタッチメントとして機能し、後述の検出面222とセンサ3との位置関係が固定化され、より精度を高めることができる。また、センサ3は、配線33を通じて、図4に示される制御装置4の通信部41と接続されている。すなわち、センサ3から出力される、電流、電荷量、電圧等の電気物理量は、配線33及び通信部41を通じて、制御装置4に入力されうる。
 なお、図3中においては、左側に位置するセンサ3をセンサ3lと図示し、右側に位置するセンサ3をセンサ3rと図示している。
(制御装置4)
 続いて、制御装置4について説明する。制御装置4は、センサ3及び後述のロボットアーム5の動作を制御するように構成される装置又は回路であり、例えば、コンピュータ又はマイコンである。制御装置4は、通信部41と、記憶部42と、プロセッサ43とを有し、これらの構成要素が制御装置4の内部において通信バス40を介して電気的に接続されている。各構成要素についてさらに説明する。
 通信部41は、制御装置4から種々の電気信号を外部の構成要素に送信可能に構成される。また、通信部41は、外部の構成要素から制御装置4への種々の電気信号を受信可能に構成される。具体的には、通信部41は、検出部32によって検出された空間物理量(検出面222の入力パラメータ)に対応する電気物理量を、配線33を介して受信する。また、通信部41はセンサ3によって計測された当該入力パラメータに基づいて、ロボットアーム5の、例えば位置及び姿勢等の力学的パラメータを制御する。さらに好ましくは、通信部41がネットワーク通信機能を有し、これによりインターネット等のネットワークを介して、制御装置4と外部機器との間で種々の情報を通信可能に実施してもよい。
 記憶部42は、前述の記載により定義される様々な情報を記憶する。これは、例えば、プロセッサ43によって実行される制御装置4に係る種々のプログラム等を記憶するソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。記憶部42は、プロセッサ43によって実行される制御装置4に係る種々のプログラムや変数等を記憶している。
 プロセッサ43は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。プロセッサ43は、記憶部42に記憶された所定のプログラムを読み出すことによって、制御装置4に係る種々の機能を実現する。すなわち、記憶部42に記憶されているソフトウェアによる情報処理が、ハードウェアの一例であるプロセッサ43によって具体的に実現されることで、プロセッサ43に含まれる各機能部として実行されうる。なお、プロセッサ43は単一であることに限定されず、機能ごとに複数のプロセッサ43を有するように実施してもよい。またそれらの組合せであってもよい。
(ロボットアーム5)
 ロボットアーム5は、複数の自由度を有し、その力学的パラメータを制御可能に構成される。好ましくは、ロボットアーム5は、並進3自由度と、回転3自由度とを有する。すなわち、ロボットアーム5は、その先端に取り付けられたエンドエフェクタ2の力学的パラメータを制御可能に構成される。ロボットアーム5の力学的パラメータは、制御装置4のプロセッサ43によって制御される。ロボットアーム5にはエンドエフェクタ2が取り付けられている。すなわち換言すると、制御装置4は、エンドエフェクタ2を制御する装置であり、プロセッサ43(制御部の一例)を備え、プロセッサ43は、センサ3による計測の結果に基づいて、エンドエフェクタ2における把持爪21の力学的パラメータを制御する。好ましくは、力学的パラメータは、位置及び姿勢の少なくとも一方を含む。このような態様によれば、エンドエフェクタ2の位置又は姿勢をフィードバック制御することができる。また好ましくは、力学的パラメータは、速度及び加速度の少なくとも一方を含む。このような態様によれば、エンドエフェクタ2の速度又は加速度をフィードバック制御することができる。ロボットアーム5の制御方法については後に詳述する。
2.制御方法
 本節では、本実施形態に係る、エンドエフェクタ2を取り付けたロボットアーム5の制御方法を説明する。本例においては、この制御方法は、複数の把持爪21を有するエンドエフェクタ2(グリッパ)の制御方法である。この制御方法は、次の各ステップを備える。まず、取得ステップでは、把持爪21それぞれに対応する検出面222の入力パラメータを、把持爪21ごとにそれぞれ取得する。なお前述の通り、入力パラメータは、検出面222の位置及び姿勢のうちの少なくとも一方である。続いて、制御ステップでは、入力パラメータそれぞれの和又は差に基づいて、把持爪21の力学的パラメータを制御する。
2.1 一対のエンドエフェクタ2からなるグリッパ
 図5は、一対のエンドエフェクタ2からなるグリッパの制御に用いる入力パラメータを示す概要図である。図5に示されるように、センサ3lは、エンドエフェクタ2lにおける検出面222lの力学的パラメータを検出する。ここでの力学的パラメータは、好ましくは、センサ3lと検出面222lとの距離d_lと、検出面222lのx軸周りの傾斜角α_lと、検出面222lのy軸周りの傾斜角β_lとを含む。同様に、センサ3rは、エンドエフェクタ2rにおける検出面222rの力学的パラメータを検出する。ここでの力学的パラメータは、好ましくは、センサ3rと検出面222rとの距離d_rと、検出面222rのx軸周りの傾斜角α_rと、検出面222rのy軸周りの傾斜角β_rとを含む。
 表1は、一対のエンドエフェクタ2からなるグリッパの並進又は回転に係る各軸方向の制御方法を示す表である。好ましくは、表1に示される並進又は回転に係る各軸方向の制御が、逐次同時に実行される。以下、各項目について詳述する。
(x軸方向の並進移動)
 エンドエフェクタ2lにおける把持爪21lと、エンドエフェクタ2rにおける把持爪21rとにx軸方向の力がかかっている場合に、力が緩和するように、ロボットアーム5の先端をx軸方向に並進移動させることを想定する。このようなx軸方向の力がかかると、把持爪21l,21rがy軸周りに回転して持ち上がる。そのため、プロセッサ43は、傾斜角β_lと傾斜角β_rとの和を入力パラメータとして、これにゲインG_xを乗じた制御値を出力するとよい。このような制御を所定の制御レートで逐次行うことで、力覚センサを用いずとも、エンドエフェクタ2l,2rの位置をx軸方向に並進移動させることができる。
(y軸方向の並進移動)
 エンドエフェクタ2lにおける把持爪21lと、エンドエフェクタ2rにおける把持爪21rとにy軸方向の力がかかっている場合に、力が緩和するように、ロボットアーム5の先端をy軸方向に並進移動させることを想定する。このようなy軸方向の力がかかると、把持爪21l,21rがx軸周りに回転して持ち上がる。そのため、プロセッサ43は、傾斜角α_lと傾斜角α_rとの和を入力パラメータとして、これにゲインG_yを乗じた制御値を出力するとよい。このような制御を所定の制御レートで逐次行うことで、力覚センサを用いずとも、エンドエフェクタ2l,2rの位置をy軸方向に並進移動させることができる。
(z軸方向の並進移動)
 エンドエフェクタ2lにおける把持爪21lと、エンドエフェクタ2rにおける把持爪21rとにz軸方向の力がかかっている場合に、力が緩和するように、ロボットアーム5の先端をz軸方向に並進移動させることを想定する。このようなz軸方向の力がかかると、把持爪21l,21rが持ち上がる又は引っ張られることで、検出面222lと検出部32lとの距離d_l及び検出面222rと検出部32rとの距離d_rが変化する。そのため、プロセッサ43は、距離d_lと距離d_rとの和に適宜オフセットを加えた値を入力パラメータとして、これにゲインG_zを乗じた制御値を出力するとよい。なお、オフセットを加えることで、例えば意図的に載置面に力がかかるように制御することが可能である。なお、d_refは、各エンドエフェクタ2において、距離次元を有する予め設定されたオフセットであり、エンドエフェクタ2l,2rがあるため、これを2倍した値を距離d_lと距離d_rとの和から減じている。このような制御を所定の制御レートで逐次行うことで、力覚センサを用いずとも、エンドエフェクタ2l,2rの位置をz軸方向に並進移動させることができる。
 換言すると、制御方法における制御ステップでは、入力パラメータそれぞれの和に基づいて、把持爪21の、並進運動に関する力学的パラメータを制御する。このような態様によれば、並進自由度を有して、エンドエフェクタ2(グリッパ)を制御することができる。
(x軸周りの回転移動)
 エンドエフェクタ2lにおける把持爪21lと、エンドエフェクタ2rにおける把持爪21rとのうちの何れか一方にz軸方向の力がかかっている場合に、力が緩和するように、ロボットアーム5の先端をx軸周りに回転移動させることを想定する。このようなz軸方向の力がかかると、把持爪21l,21rの一方が持ち上がる又は引っ張られることで、検出面222lと検出部32lとの距離d_l及び検出面222rと検出部32rとの距離d_rに差が生じる。そのため、プロセッサ43は、距離d_lと距離d_rとの差を入力パラメータとして、これにゲインG_Rxを乗じた制御値を出力するとよい。このような制御を所定の制御レートで逐次行うことで、力覚センサを用いずとも、エンドエフェクタ2l,2rの位置をx軸周りに回転移動させることができる。なお、エンドエフェクタ2lにおける把持爪21lと、エンドエフェクタ2rにおける把持爪21rとの両方に逆向きにz軸方向の力がかかっている場合も、同様である。
(z軸周りの回転移動)
 エンドエフェクタ2lにおける把持爪21lと、エンドエフェクタ2rにおける把持爪21rとのうちの何れか一方にx軸方向の力がかかっている場合に、力が緩和するように、ロボットアーム5の先端をz軸周りに回転移動させることを想定する。このようなx軸方向の力がかかると、把持爪21l,21rの一方がy軸周りに回転して持ち上がることで、傾斜角β_lと傾斜角β_rとに差が生じる。そのため、プロセッサ43は、傾斜角β_lと傾斜角β_rとの差を入力パラメータとして、これにゲインG_Rzを乗じた制御値を出力するとよい。このような制御を所定の制御レートで逐次行うことで、力覚センサを用いずとも、エンドエフェクタ2l,2rの位置をz軸周りに回転移動させることができる。なお、エンドエフェクタ2lにおける把持爪21lと、エンドエフェクタ2rにおける把持爪21rとの両方に逆向きにx軸方向の力がかかっている場合も、同様である。
 換言すると、制御方法における制御ステップでは、入力パラメータそれぞれの差に基づいて、把持爪21の、回転運動に関する力学的パラメータを制御する。このような態様によれば、回転自由度を有して、エンドエフェクタ2(グリッパ)を制御することができる。
2.2 3つのエンドエフェクタ2からなるグリッパ
 3つ以上のエンドエフェクタ2からなるグリッパが実施されてもよい。図6は、3つのエンドエフェクタ2からなるグリッパの制御に用いる入力パラメータを示す概要図である。このグリッパは、前述のエンドエフェクタ2l,2rに加え、エンドエフェクタ2cをさらに有する。以下、エンドエフェクタ2cに含まれる構成要素は、符号の末尾にcを付して表すこととする。また、センサ3cは、エンドエフェクタ2cの検出面222cを検出するように構成される。エンドエフェクタ2l,2rは、y軸方向に並んで配置されている。また、エンドエフェクタ2cは、エンドエフェクタ2l,2rとともに、正三角形の頂点をなす位置に配置されている。表2は、3つのエンドエフェクタ2からなるグリッパの並進又は回転に係る各軸方向の制御方法を示す表である。好ましくは、表2に示される並進又は回転に係る各軸方向の制御が、逐次同時に実行される。以下、各項目について詳述する。
(x軸方向の並進移動)
 エンドエフェクタ2lにおける把持爪21lと、エンドエフェクタ2rにおける把持爪21rと、エンドエフェクタ2cにおける把持爪21cとにx軸方向の力がかかっている場合に、力が緩和するように、ロボットアーム5の先端をx軸方向に並進移動させることを想定する。このようなx軸方向の力がかかると、把持爪21l,21r,21cがy軸周りに回転して持ち上がる。そのため、プロセッサ43は、傾斜角β_lと傾斜角β_rと傾斜角β_cとの和を入力パラメータとして、これにゲインG_xを乗じた制御値を出力するとよい。このような制御を所定の制御レートで逐次行うことで、力覚センサを用いずとも、エンドエフェクタ2l,2r,2cの位置をx軸方向に並進移動させることができる。
(y軸方向の並進移動)
 エンドエフェクタ2lにおける把持爪21lと、エンドエフェクタ2rにおける把持爪21rと、エンドエフェクタ2cにおける把持爪21cとにy軸方向の力がかかっている場合に、力が緩和するように、ロボットアーム5の先端をy軸方向に並進移動させることを想定する。このようなy軸方向の力がかかると、把持爪21l,21r,21cがx軸周りに回転して持ち上がる。そのため、プロセッサ43は、傾斜角α_lと傾斜角α_rと傾斜角α_cとの和を入力パラメータとして、これにゲインG_yを乗じた制御値を出力するとよい。このような制御を所定の制御レートで逐次行うことで、力覚センサを用いずとも、エンドエフェクタ2l,2r,2cの位置をy軸方向に並進移動させることができる。
(z軸方向の並進移動)
 エンドエフェクタ2lにおける把持爪21lと、エンドエフェクタ2rにおける把持爪21rと、エンドエフェクタ2cにおける把持爪21cとにz軸方向の力がかかっている場合に、力が緩和するように、ロボットアーム5の先端をz軸方向に並進移動させることを想定する。このようなz軸方向の力がかかると、把持爪21l,21r,21cが持ち上がる又は引っ張られることで、検出面222lと検出部32lとの距離d_l、検出面222rと検出部32rとの距離d_r及び検出面222cと検出部32cとの距離d_cが変化する。そのため、プロセッサ43は、距離d_lと距離d_rと距離d_cとの和に適宜オフセットを加えた値を入力パラメータとして、これにゲインG_zを乗じた制御値を出力するとよい。なお、d_refは、各エンドエフェクタ2において、距離次元を有する予め設定されたオフセットであり、エンドエフェクタ2l,2r,2cがあるため、これを3倍した値を距離d_lと距離d_rとの和から減じている。このような制御を所定の制御レートで逐次行うことで、力覚センサを用いずとも、エンドエフェクタ2l,2r,2cの位置をz軸方向に並進移動させることができる。
(x軸周りの回転移動)
 前節の場合と同様のため、説明を省略する。
(y軸周りの回転移動)
 エンドエフェクタ2lにおける把持爪21l及びエンドエフェクタ2rにおける把持爪21rと、エンドエフェクタ2cにおける把持爪21cとのうちの何れか一方にz軸方向の力がかかっている場合に、力が緩和するように、ロボットアーム5の先端をy軸周りに回転移動させることを想定する。このようなz軸方向の力がかかると、把持爪21l,21r及び把持爪21cの一方が持ち上がる又は引っ張られることで、検出面222lと検出部32lとの距離d_l及び検出面222rと検出部32rとの距離d_rの和と、検出面222cと検出部32cとの距離d_cとに差が生じる。そのため、プロセッサ43は、距離d_l及び距離d_rの和と、距離d_cとの差を入力パラメータとして、これにゲインG_Ryを乗じた制御値を出力するとよい。このような制御を所定の制御レートで逐次行うことで、力覚センサを用いずとも、エンドエフェクタ2l,2r,2cの位置をx軸周りに回転移動させることができる。
(z軸周りの回転移動)
 エンドエフェクタ2lにおける把持爪21lと、エンドエフェクタ2rにおける把持爪21rとのうちの何れか一方にx軸方向の力がかかっているか、又はエンドエフェクタ2cにおける把持爪21cにy軸方向の力がかかっている場合に、力が緩和するように、ロボットアーム5の先端をz軸周りに回転移動させることを想定する。把持爪21l,21rに対するx軸方向の力がかかると、把持爪21l,21rの一方がy軸周りに回転して持ち上がることで、傾斜角β_lと傾斜角β_rとに差が生じる。あるいは、把持爪21cに対するy軸方向の力がかかると、把持爪21cがx軸周りに回転して持ち上がることで、傾斜角α_l又は傾斜角α_rと、傾斜角α_cとに差が生じる。そのため、プロセッサ43は、前述の想定しうる差の合計を入力パラメータとして、これにゲインG_Rzを乗じた制御値を出力するとよい。このような制御を所定の制御レートで逐次行うことで、力覚センサを用いずとも、エンドエフェクタ2l,2r,2cの位置をz軸周りに回転移動させることができる。
 以上をまとめると、本実施形態に係るエンドエフェクタは、把持爪21(作用部の一例)と、支持体23と、検出面222とを備える。把持爪21は、一端側に突出することで物体Obと接触するように構成される。支持体23は、把持爪21と物体Obとの接触によって発生する力を受けたときに把持爪21の位置及び姿勢の少なくとも一方が変位するように、把持爪21を柔軟に支持するように構成される。検出面222は、把持爪21の、一端側に対する他端側において、物体Obと非接触に構成され、且つその位置及び姿勢の少なくとも一方が把持爪21とともに変位する。検出面222は、エンドエフェクタ2がロボットアーム5に取り付けられた状態で、位置及び姿勢の少なくとも一方を計測可能なセンサと対向するように配置される。力覚センサを用いた従来手法では、力覚センサの計測可能な数値範囲を超えた力が発生することで、突き指問題が発生していたが、このような態様によれば、把持爪21(作用部)の位置及び姿勢の少なくとも一方が柔軟に変化し、これを十分計測範囲の広いセンサ3で計測することで、物体の載置面に把持爪21(作用部)が衝突して制御不能となる突き指問題を解消することができる。
 また、別の観点によれば、プロセッサ43は、把持爪21それぞれに対応する検出面222の入力パラメータを、把持爪21ごとにそれぞれ取得する。入力パラメータは、検出面222の位置及び姿勢のうちの少なくとも一方である。入力パラメータは、入力パラメータそれぞれの和又は差に基づいて、把持爪21の力学的パラメータを制御するように構成される。好ましくは、プロセッサ43は、入力パラメータそれぞれの和に基づいて、把持爪21の、並進運動に関する力学的パラメータを制御する。好ましくは、プロセッサ43は、入力パラメータそれぞれの差に基づいて、把持爪21の、回転運動に関する力学的パラメータを制御する。このような態様によれば、シンプルな演算値を用いたフィードバック制御により、突き指問題を発生させずに、安定なピッキングタスクをエンドエフェクタ2(グリッパ)に実行させることができる。すなわち、例えば、ばら積みされた複数の物体Obを1つずつピッキングするというような、困難なタスクを実行することもできる。
[その他]
 本実施形態に係るロボットシステム1をさらに創意工夫してもよい。
 前述の実施形態では、複数のエンドエフェクタ2からなるグリッパについて説明したが、グリッパも含め、様々な形態のエンドエフェクタ2を実施することができる。図7は、種々の作用部を有するエンドエフェクタ2を示す概要図である。図7Aに示されるような形態は、ピンセットのように先細るグリッパあり、ばら積みされた物体Obを1つずつピッキングするタスクに適している。図7Bに示される形態は、八の字に広がるグリッパであり、先端部211のさらに先に底面保持部214が設けられている。このような形態は、載置面に載置された物体Obをすくい取って把持するタスクに適している。図7Cに示される形態は、直線上に構成された一対のエンドエフェクタ2からなるグリッパであり、食品等の物体Obを箸で掴むようなタスクに適している。図7Dに示される形態は、直線状に構成された1つのエンドエフェクタ2からなるマドラであり、食品等の物体Obを適宜撹拌するタスクに適している。
 前述したマドラ等、1つのエンドエフェクタ2として実施される場合、そのエンドエフェクタ2における1つの検出面222の位置及び姿勢の少なくとも一方に基づいて、作用部の力学的パラメータが制御されてもよい。かかる場合、並進3自由度の制御、又は並進1自由度及び回転2自由度の制御が可能である。表3は、1つのエンドエフェクタ2の並進3自由度の制御方法を示す表である。また、表4は、1つのエンドエフェクタ2の並進1自由度及び回転2自由度の制御方法を示す表である。好ましくは、表3又は表4に示される各軸方向の制御が、逐次同時に実行される。制御には、センサ3と検出面222との距離dと、検出面222のx軸周りの傾斜角αと、検出面222のy軸周りの傾斜角βとが入力パラメータとして用いられるとよい。G_x,G_y,G_z,G_Rx,G_Ryは、各制御におけるゲインであり、d_refは、距離次元を有する予め設定されたオフセットである。
 上記の各表の項目に示される制御を所定の制御レートで逐次行うことで、力覚センサを用いずとも、エンドエフェクタ2の位置を並進移動又は回転移動させることができる。
 前述の実施形態では、ロボットアーム5の先端に取り付けられたセンサ3にエンドエフェクタ2が着脱可能であったが、エンドエフェクタ2がセンサ3をさらに備える態様であってもよい。このような態様によれば、センサ3がエンドエフェクタ2に含まれる構成となり、検出面222とセンサ3との位置関係が固定化され、より精度を高めることができる。
 本実施形態に係るセンサ3は特に限定されるものではないが、例えば下記に詳述するセンサS1が採用されてもよい。センサS1は、対象物を計測するためのセンサである。対象物は、例えば上述の検出面222である。より詳細には、センサS1は、センサS1における基準面と、対象物とに係る空間物理量を計測可能に構成される。ここでの空間物理量は、基準面と対象物との距離dと、基準面に対する対象物の角度α,β(3次元姿勢を示すパラメータ)とを少なくとも含むとよい。特に好ましくは、距離dは至近距離であり、例えば距離dは50mm以下であり、具体的には例えば、50,49,48,47,46,45,44,43,42,41,40,39,38,37,36,35,34,33,32,31,30,29,28,27,26,25,24,23,22,21,20,19,18,17,16,15,14,13,12,11,10,9,8,7,6,5,4,3,2,1,0mmであり、ここで例示した数値の何れか2つの間の範囲内であってもよい。このような態様によれば、対象物との距離dと角度α,βとを計測し、物体のピッキングや検査等様々な場面に応用することができる。また、このような態様によれば、ごく近距離に位置する対象物を正確に把握することができる。
 図8は、センサS1の、主に検出部S2の構成概要を示す平面図である。図8に示されるように、センサS1は、主として、検出部S2を備える。検出部S2は、基材S21と、基材S21上に設けられた受発光ブロックS3とを備える。以下、各構成要素について更に説明する。
 基材S21は、センサS1の筐体を構成する。本実施形態では、基材S21は、例えば略円形を有し、平板状に構成されているが、あくまでも一例であり、この限りではない。好ましくは、基材S21は、例えば黒色で艶がなく、反射率の低い素材で形成される。また、基材S21は、その上に設けられた受発光ブロックS3を備える。
 図8に示されるように、受発光ブロックS3は、基材S21上に複数設けられる。各受発光ブロックS3には、発光素子S31と、受光素子S32とが配置され、ここでは、1つの受発光ブロックS3に、1つの発光素子S31と、1つの受光素子S32とが配置されている。換言すると、受光素子S32と、対応付けられた発光素子S31とは、互いに隣接して受発光ブロックS3を形成する。受発光ブロックS3が基材S21上に複数設けられる。
 ここで、好ましくは、発光素子S31の数は、2~30であり、さらに好ましくは、2~10であり、最も好ましくは、発光素子S31の数は、2~4である。具体的には例えば、発光素子S31の数は、2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30個であり、ここで例示した数値の何れか2つの間の範囲内であってもよい。
 また、受発光ブロックS3の数は、2以上、好ましくは3以上であるとよく、本実施形態では、4つの受発光ブロックS3a,S3b,S3c,S3dが設けられている。図8に示されるように、さらに好ましくは、受発光ブロックS3それぞれは、環状且つ等間隔に基材S21上に配置される。換言すると、受発光ブロックS3は、基材S21に対して、対称性を有して配置される。具体的には、受発光ブロックS3aに、発光素子S31aと、受光素子S32aとが配置され、受発光ブロックS3bに、発光素子S31bと、受光素子S32bとが配置され、受発光ブロックS3cに、発光素子S31cと、受光素子S32cとが配置され、受発光ブロックS3dに、発光素子S31dと、受光素子S32dとが配置されている。このような態様によれば、複数の受光素子S32に基づく光電流(電気物理量の一例)それぞれに対称性が生じ、よりセンサS1の精度を高めることができる。換言すると、受光素子S32は、発光素子S31と同数であり、発光素子S31それぞれと1対1に対応付けられている。このような態様によれば、複数の受光素子S32に基づく光電流が得られるため、よりセンサS1の精度を高めることができる。
 図8に示されるように、発光素子S31は、基材S21上において異なる位置にそれぞれ設けられる。発光素子S31は、拡散光を照射する素子であればよく、例えば発光ダイオード(LED)であり、好ましくは、人が視認不能であり且つ人体に無害な赤外光を発光する赤外線LEDである。もちろんこれに限定されず、発光素子S31は、赤色LEDでも、緑色LEDでも、青色LEDでもよい。このような発光ダイオードである発光素子S31のアノード側に、不図示の電源のプラス側を接続することによって、電流が流れて特定周波数の拡散光が対象物に照射される。
 図8に示されるように、受光素子S32は、基材S21上に設けられる。受光素子S32は、受光した光を検知する素子で、これを契機として電気物理量の一例である光電流を発生させる。換言すると、受光素子S32は、受光した光の照度に応じて光電流を出力可能に構成される。好ましくは、光の照度と光電流との特性が、線形を有する。主な受光素子S32として、例えば、光電管、光電子増倍管、半導体の内部光電効果を利用したフォトトランジスタ、フォトダイオード、アバランシェフォトダイオード、光導電セル、イメージセンサ等が挙げられる。好ましくは、受光素子S32は、広指向性を有するフォトダイオードや、当該フォトダイオードと増幅器とを組み合わせたフォトトランジスタである。
 ここで、受光素子S32は、同じ受発光ブロックS3に所属する発光素子S31から発光され且つ対象物を反射した反射光を主たる光として受光する。また、受光素子S32は、隣接する受発光ブロックS3に所属する発光素子S31から発光され且つ対象物を反射した反射光をクロストーク光として受光する。例えば、受光素子S32aは、発光素子S31aに起因する反射光を主たる光として受光し、発光素子S31b,S31dに起因する反射光をクロストーク光としてそれぞれ受光する。以上を換言すると、受光素子S32は、各発光素子S31に起因する反射光のうちの1つを主たる光として受光するとともに、主たる光以外の反射光をクロストーク光として主たる光とは区別可能に受光し、反射光に応じた光電流(電気物理量の一例)を発生させるように構成される。ここでの反射光は、発光素子S31それぞれから発光され且つ対象物からそれぞれ反射した光である。このように、区別可能に受光された主たる光と、クロストーク光とに基づく光電流それぞれに基づいて、センサS1における基準面と対象物とに係る空間物理量が計測される。
 具体的には、光電流の値又は光電流に基づく演算値が入力パラメータとして、前述の制御装置4の記憶部42に記憶された学習済みモデルに入力される。この学習済みモデルは、センサS1における基準面と対象物とに係る空間物理量と、光電流の値又は演算値との関係を予め機械学習させたモデルである。このような態様によれば、センサS1単体で別途コンピュータ等を使用することなく対象物の空間物理量を計測することができる。
 さらに、次に記載の各態様で提供されてもよい。
(1)エンドエフェクタであって、作用部と、支持体と、検出面とを備え、前記作用部は、一端側に突出することで物体と接触するように構成され、前記支持体は、前記作用部と前記物体との接触によって発生する力を受けたときに前記作用部の位置及び姿勢の少なくとも一方が変位するように、前記作用部を柔軟に支持するように構成され、前記検出面は、前記作用部の、前記一端側に対する他端側において、前記物体と非接触に構成され、且つその位置及び姿勢の少なくとも一方が前記作用部とともに変位し、前記エンドエフェクタがロボットアームに取り付けられた状態で、前記位置及び姿勢の少なくとも一方を計測可能なセンサと対向するように配置される、もの。
 このような態様によれば、物体の載置面に作用部が衝突して制御不能となる突き指問題を解消することができる。
(2)上記(1)に記載のエンドエフェクタにおいて、前記ロボットアームの先端に位置する前記センサに対して、着脱可能に構成される、もの。
 このような態様によれば、エンドエフェクタがセンサに対するアタッチメントとして機能し、検出面とセンサとの位置関係が固定化され、より精度を高めることができる。
(3)上記(1)に記載のエンドエフェクタにおいて、前記センサを、さらに備える、もの。
 このような態様によれば、センサがエンドエフェクタに含まれる構成となり、検出面とセンサとの位置関係が固定化され、より精度を高めることができる。
(4)上記(1)~(3)の何れか1つに記載のエンドエフェクタにおいて、前記検出面は、その位置が0.01mm以上変位可能に構成される、もの。
 このような態様によれば、力覚センサではなく、このようなオーダの変位を計測可能なセンサを用いてエンドエフェクタを制御することが可能となり、突き指問題を解消することができる。
(5)上記(1)~(4)の何れか1つに記載のエンドエフェクタにおいて、前記作用部は、把持爪であり、複数の前記エンドエフェクタが前記ロボットアームに取り付けられた状態で、各エンドエフェクタの前記把持爪どうしで前記物体を把持するように構成される、もの。
 このような態様によれば、載置面に載置された物体を、突き指問題を発生させることなく安定にピッキングタスクを実行可能なグリッパを提供することができる。
(6)エンドエフェクタの制御装置であって、制御部を備え、前記エンドエフェクタは、上記(1)~(5)の何れか1つに記載のエンドエフェクタであり、前記制御部は、前記センサによる計測の結果に基づいて、前記作用部の力学的パラメータを制御する、もの。
 このような態様によれば、突き指問題を発生させずに、エンドエフェクタを制御することができる。
(7)上記(6)に記載の制御装置において、前記エンドエフェクタは、前記作用部が把持爪であり、複数の前記エンドエフェクタが前記ロボットアームに取り付けられた状態で、各エンドエフェクタの前記把持爪どうしで前記物体を把持するように構成され、前記制御部は、前記把持爪それぞれに対応する検出面の入力パラメータを、前記把持爪ごとにそれぞれ取得し、ここで前記入力パラメータは、前記検出面の位置及び姿勢のうちの少なくとも一方で、前記入力パラメータそれぞれの和又は差に基づいて、前記把持爪の力学的パラメータを制御するように構成される、もの。
 このような態様によれば、シンプルな演算値を用いたフィードバック制御により、突き指問題を発生させずに、安定なピッキングタスクをグリッパに実行させることができる。
(8)上記(7)に記載の制御装置において、前記制御部は、前記入力パラメータそれぞれの和に基づいて、前記把持爪の、並進運動に関する力学的パラメータを制御する、もの。
 このような態様によれば、並進自由度を有して、グリッパを制御することができる。
(9)上記(7)又は(8)に記載の制御装置において、前記制御部は、前記入力パラメータそれぞれの差に基づいて、前記把持爪の、回転運動に関する力学的パラメータを制御する、もの。
 このような態様によれば、回転自由度を有して、グリッパを制御することができる。
(10)上記(6)~(9)の何れか1つに記載の制御装置において、前記力学的パラメータは、位置及び姿勢の少なくとも一方を含む、もの。
 このような態様によれば、グリッパの位置又は姿勢をフィードバック制御することができる。
(11)上記(6)~(10)の何れか1つに記載の制御装置において、前記力学的パラメータは、速度及び加速度の少なくとも一方を含む、もの。
 このような態様によれば、グリッパの速度又は加速度をフィードバック制御することができる。
(12)複数の把持爪を有するグリッパの制御方法であって、次の各ステップを備え、取得ステップでは、前記把持爪それぞれに対応する検出面の入力パラメータを、前記把持爪ごとにそれぞれ取得し、ここで前記入力パラメータは、前記検出面の位置及び姿勢のうちの少なくとも一方で、制御ステップでは、前記入力パラメータそれぞれの和又は差に基づいて、前記把持爪の力学的パラメータを制御する、方法。
 このような態様によれば、シンプルな演算値を用いたフィードバック制御により、突き指問題を発生させずに、安定なピッキングタスクをグリッパに実行させることができる。
(13)上記(12)に記載の制御方法であって、前記制御ステップでは、前記入力パラメータそれぞれの和に基づいて、前記把持爪の、並進運動に関する力学的パラメータを制御する、方法。
 このような態様によれば、並進自由度を有して、グリッパを制御することができる。
(14)上記(12)又は(13)に記載の制御方法であって、前記制御ステップでは、前記入力パラメータそれぞれの差に基づいて、前記把持爪の、回転運動に関する力学的パラメータを制御する、方法。
 このような態様によれば、回転自由度を有して、グリッパを制御することができる。
(15)上記(12)~(14)の何れか1つに記載の制御方法において、前記力学的パラメータは、位置及び姿勢の少なくとも一方を含む、方法。
 このような態様によれば、グリッパの位置又は姿勢をフィードバック制御することができる。
(16)上記(12)~(15)の何れか1つに記載の制御方法において、前記力学的パラメータは、速度及び加速度の少なくとも一方を含む、方法。
 このような態様によれば、グリッパの速度又は加速度をフィードバック制御することができる。
 もちろん、この限りではない。
 最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1    :ロボットシステム
2    :エンドエフェクタ
2c   :エンドエフェクタ
2l   :エンドエフェクタ
2r   :エンドエフェクタ
21   :把持爪
21c  :把持爪
21l  :把持爪
21r  :把持爪
211  :先端部
212  :中央部
213  :後端部
214  :底面保持部
22   :被検出体
221  :爪固定部
222  :検出面
222c :検出面
222l :検出面
222r :検出面
23   :支持体
231  :平板
232  :支柱
233  :平板
233a :孔
24   :弾性部材
3    :センサ
3c   :センサ
3l   :センサ
3r   :センサ
31   :筐体
32   :検出部
32c  :検出部
32l  :検出部
32r  :検出部
33   :配線
4    :制御装置
40   :通信バス
41   :通信部
42   :記憶部
43   :プロセッサ
5    :ロボットアーム
G_Rx :ゲイン
G_Ry :ゲイン
G_Rz :ゲイン
G_x  :ゲイン
G_y  :ゲイン
G_z  :ゲイン
Ob   :物体
S1   :センサ
S2   :検出部
S21  :基材
S3   :受発光ブロック
S31  :発光素子
S31a :発光素子
S31b :発光素子
S31c :発光素子
S31d :発光素子
S32  :受光素子
S32a :受光素子
S32b :受光素子
S32c :受光素子
S32d :受光素子
S3a  :受発光ブロック
S3b  :受発光ブロック
S3c  :受発光ブロック
S3d  :受発光ブロック
d    :距離
d_c  :距離
d_l  :距離
d_r  :距離
α_c  :傾斜角
α_l  :傾斜角
α_r  :傾斜角
β_c  :傾斜角
β_l  :傾斜角
β_r  :傾斜角

Claims (16)

  1. エンドエフェクタであって、
     作用部と、支持体と、検出面とを備え、
     前記作用部は、一端側に突出することで物体と接触するように構成され、
     前記支持体は、前記作用部と前記物体との接触によって発生する力を受けたときに前記作用部の位置及び姿勢の少なくとも一方が変位するように、前記作用部を柔軟に支持するように構成され、
     前記検出面は、
      前記作用部の、前記一端側に対する他端側において、前記物体と非接触に構成され、且つその位置及び姿勢の少なくとも一方が前記作用部とともに変位し、
      前記エンドエフェクタがロボットアームに取り付けられた状態で、前記位置及び姿勢の少なくとも一方を計測可能なセンサと対向するように配置される、もの。
  2. 請求項1に記載のエンドエフェクタにおいて、
     前記ロボットアームの先端に位置する前記センサに対して、着脱可能に構成される、もの。
  3. 請求項1に記載のエンドエフェクタにおいて、
     前記センサを、さらに備える、もの。
  4. 請求項1~3の何れか1つに記載のエンドエフェクタにおいて、
     前記検出面は、その位置が0.01mm以上変位可能に構成される、もの。
  5. 請求項1~4の何れか1つに記載のエンドエフェクタにおいて、
     前記作用部は、把持爪であり、
     複数の前記エンドエフェクタが前記ロボットアームに取り付けられた状態で、各エンドエフェクタの前記把持爪どうしで前記物体を把持するように構成される、もの。
  6. エンドエフェクタの制御装置であって、
     制御部を備え、
     前記エンドエフェクタは、請求項1~5の何れか1つに記載のエンドエフェクタであり、
     前記制御部は、前記センサによる計測の結果に基づいて、前記作用部の力学的パラメータを制御する、もの。
  7. 請求項6に記載の制御装置において、
     前記エンドエフェクタは、
      前記作用部が把持爪であり、
      複数の前記エンドエフェクタが前記ロボットアームに取り付けられた状態で、各エンドエフェクタの前記把持爪どうしで前記物体を把持するように構成され、
     前記制御部は、
      前記把持爪それぞれに対応する検出面の入力パラメータを、前記把持爪ごとにそれぞれ取得し、ここで前記入力パラメータは、前記検出面の位置及び姿勢のうちの少なくとも一方で、
      前記入力パラメータそれぞれの和又は差に基づいて、前記把持爪の力学的パラメータを制御するように構成される、もの。
  8. 請求項7に記載の制御装置において、
     前記制御部は、前記入力パラメータそれぞれの和に基づいて、前記把持爪の、並進運動に関する力学的パラメータを制御する、もの。
  9. 請求項7又は8に記載の制御装置において、
     前記制御部は、前記入力パラメータそれぞれの差に基づいて、前記把持爪の、回転運動に関する力学的パラメータを制御する、もの。
  10. 請求項6~9の何れか1つに記載の制御装置において、
     前記力学的パラメータは、位置及び姿勢の少なくとも一方を含む、もの。
  11. 請求項6~10の何れか1つに記載の制御装置において、
     前記力学的パラメータは、速度及び加速度の少なくとも一方を含む、もの。
  12. 複数の把持爪を有するグリッパの制御方法であって、
     次の各ステップを備え、
     取得ステップでは、前記把持爪それぞれに対応する検出面の入力パラメータを、前記把持爪ごとにそれぞれ取得し、ここで前記入力パラメータは、前記検出面の位置及び姿勢のうちの少なくとも一方で、
     制御ステップでは、前記入力パラメータそれぞれの和又は差に基づいて、前記把持爪の力学的パラメータを制御する、方法。
  13. 請求項12に記載の制御方法において、
     前記制御ステップでは、前記入力パラメータそれぞれの和に基づいて、前記把持爪の、並進運動に関する力学的パラメータを制御する、方法。
  14. 請求項12又は13に記載の制御方法において、
     前記制御ステップでは、前記入力パラメータそれぞれの差に基づいて、前記把持爪の、回転運動に関する力学的パラメータを制御する、方法。
  15. 請求項12~14の何れか1つに記載の制御方法において、
     前記力学的パラメータは、位置及び姿勢の少なくとも一方を含む、方法。
  16. 請求項12~15の何れか1つに記載の制御方法において、
     前記力学的パラメータは、速度及び加速度の少なくとも一方を含む、方法。
PCT/JP2023/028114 2022-08-31 2023-08-01 エンドエフェクタ、エンドエフェクタの制御装置及びグリッパの制御方法 WO2024048174A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-138229 2022-08-31
JP2022138229A JP2024034164A (ja) 2022-08-31 2022-08-31 エンドエフェクタ、エンドエフェクタの制御装置及びグリッパの制御方法

Publications (1)

Publication Number Publication Date
WO2024048174A1 true WO2024048174A1 (ja) 2024-03-07

Family

ID=90099201

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/028114 WO2024048174A1 (ja) 2022-08-31 2023-08-01 エンドエフェクタ、エンドエフェクタの制御装置及びグリッパの制御方法

Country Status (2)

Country Link
JP (1) JP2024034164A (ja)
WO (1) WO2024048174A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010221358A (ja) * 2009-03-24 2010-10-07 Toyota Industries Corp ロボットハンド用撮像装置内蔵フィンガ
JP2015034733A (ja) * 2013-08-08 2015-02-19 株式会社豊田自動織機 ロボットハンド
JP2019525132A (ja) * 2016-06-20 2019-09-05 エックス デベロップメント エルエルシー 再帰反射多軸力トルクセンサー

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010221358A (ja) * 2009-03-24 2010-10-07 Toyota Industries Corp ロボットハンド用撮像装置内蔵フィンガ
JP2015034733A (ja) * 2013-08-08 2015-02-19 株式会社豊田自動織機 ロボットハンド
JP2019525132A (ja) * 2016-06-20 2019-09-05 エックス デベロップメント エルエルシー 再帰反射多軸力トルクセンサー

Also Published As

Publication number Publication date
JP2024034164A (ja) 2024-03-13

Similar Documents

Publication Publication Date Title
US10583570B2 (en) Displacement measurement device, robot, and robot arm
JP5089774B2 (ja) 複合型センサおよびロボットハンド
US4808064A (en) Micropositioning apparatus for a robotic arm
US20150127141A1 (en) Robot, control device, robot system and robot control method
JP2009274204A (ja) ロボット、ロボットハンド及びロボットハンドの制御方法
Tar et al. Development of a low cost 3d optical compliant tactile force sensor
Mahler et al. Guest editorial open discussion of robot grasping benchmarks, protocols, and metrics
WO2024048174A1 (ja) エンドエフェクタ、エンドエフェクタの制御装置及びグリッパの制御方法
Chen et al. i-hand: An intelligent robotic hand for fast and accurate assembly in electronic manufacturing
WO2021096808A1 (en) Ergonomic mobile controller for coordinate measuring machine
US20200189116A1 (en) Control apparatus that controls arm for gripping object
CN111721391A (zh) 用机器人推定负荷的重量及重心位置的装置、方法及程序
Hirai et al. High-speed and intelligent pre-grasp motion by a robotic hand equipped with hierarchical proximity sensors
US6842246B2 (en) Six degree of freedom position ranging
JP2023508912A (ja) ロボットマニピュレータの仮想力センサの較正
JP2014155994A (ja) ロボットおよびロボット制御装置
JP2007276112A (ja) ロボットハンド装置
JP2019089166A (ja) 力検出システムおよびロボット
JP6719756B2 (ja) 身体部位接触力センサ
JP2767480B2 (ja) 6軸力センサによる計測値の校正方法
Tsuji et al. A General‐Purpose Safety Light Curtain Using ToF Sensor for End Effector on Human Collaborative Robot
JP2012220332A (ja) 光学式位置検出装置
Kim et al. Stable grasping of objects using air pressure sensors on a robot hand
Lam et al. Human finger inspired grasping structure using tactile sensing array with single type optoelectronic sensor
US6522415B1 (en) Device and method for determining a relative position of two objects with regard to one another

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23859943

Country of ref document: EP

Kind code of ref document: A1