WO2019239563A1 - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
WO2019239563A1
WO2019239563A1 PCT/JP2018/022809 JP2018022809W WO2019239563A1 WO 2019239563 A1 WO2019239563 A1 WO 2019239563A1 JP 2018022809 W JP2018022809 W JP 2018022809W WO 2019239563 A1 WO2019239563 A1 WO 2019239563A1
Authority
WO
WIPO (PCT)
Prior art keywords
workpiece
unit
robot
robot system
work
Prior art date
Application number
PCT/JP2018/022809
Other languages
English (en)
French (fr)
Inventor
洸太 山口
聡浩 道添
Original Assignee
ヤマハ発動機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ発動機株式会社 filed Critical ヤマハ発動機株式会社
Priority to JP2020525044A priority Critical patent/JP7143410B2/ja
Priority to US17/053,523 priority patent/US11926057B2/en
Priority to DE112018007727.6T priority patent/DE112018007727B4/de
Priority to PCT/JP2018/022809 priority patent/WO2019239563A1/ja
Priority to CN201880094149.7A priority patent/CN112218748B/zh
Publication of WO2019239563A1 publication Critical patent/WO2019239563A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45063Pick and place manipulator

Definitions

  • the present invention relates to a robot system including a robot that takes out and conveys the workpiece from a container or the like in which a plurality of workpieces are accommodated.
  • a robot system for taking out a workpiece by a robot having a hand unit is known, for example, as disclosed in Patent Document 1.
  • This robot system identifies the uppermost workpiece based on the surface position of the stacked workpieces measured by the three-dimensional measuring apparatus, and the target position of the hand unit and the target of the hand unit from which this workpiece can be taken out.
  • the posture is set and the hand unit is controlled based on the target position and the target posture.
  • This invention is made
  • the place made into the objective is taking out a workpiece
  • a robot system includes a robot including a hand unit that grips and takes out the workpiece from a storage unit in which a plurality of workpieces are stored, and transports the workpiece to a predetermined position.
  • a robot control unit that controls the transfer operation of the robot that takes out the workpiece and transports it to the predetermined position, and a condition relating to the transfer operation, and a grip prohibition that prohibits the workpiece from being held by the hand unit
  • a transfer condition setting unit configured to set transfer conditions including at least a region, and the robot control unit controls the robot based on the transfer conditions set by the transfer condition setting unit.
  • FIG. 1 is a block diagram showing a configuration of a robot system according to an embodiment of the present invention.
  • FIG. 2 is a side view showing an example of a robot provided in the robot system.
  • FIG. 3 is a flowchart for explaining the basic operation of the robot system.
  • FIG. 4A is a plan view of the workpiece.
  • 4B is a cross-sectional view of the workpiece (a cross-sectional view taken along line IV-IV in FIG. 4A).
  • FIG. 5 is a schematic plan view showing an example of a work housed in the first container.
  • FIG. 6 is a schematic plan view showing an example of a work housed in the first container.
  • FIG. 7 is a schematic plan view showing an example of a work housed in the first container.
  • FIG. 1 is a block diagram showing a configuration of a robot system according to an embodiment of the present invention.
  • FIG. 2 is a side view showing an example of a robot provided in the robot system.
  • FIG. 3 is
  • FIG. 8 is a table showing an example of a reward table.
  • FIG. 9A is a table showing an example of specific rewards in the reward table of FIG.
  • FIG. 9B is a table showing an example of specific rewards in the reward table of FIG.
  • FIG. 10A is a table showing an example of specific rewards in the reward table of FIG.
  • FIG. 10B is a table showing an example of specific rewards in the reward table of FIG.
  • FIG. 11 is a flowchart illustrating an example of an operation for learning a conveyance condition.
  • FIG. 12 is a flowchart (continuation of FIG. 11) showing an example of the learning operation of the conveyance conditions.
  • FIG. 13 is a diagram illustrating a configuration of a robot system according to a modification.
  • FIG. 14 is a diagram illustrating a configuration of a robot system according to a modification.
  • FIG. 1 is a block diagram showing a configuration of a robot system 1 according to an embodiment of the present invention.
  • the robot system 1 includes a robot 2, a first camera 3A (first and third imaging units), a second camera 3B (second imaging unit), and a control unit 4 that controls the robot 2 and the cameras 3A and 3B.
  • the robot system 1 is a system for taking out a workpiece from a container accommodated in a state where a plurality of workpieces are stacked and transporting the workpiece to a desired target position (predetermined position).
  • FIG. 2 is a side view showing an example of the robot 2 provided in the robot system 1.
  • the robot 2 is a robot that takes out the workpiece W (picking) from the first container 30 (accommodating portion) accommodated in a state where a plurality of workpieces W are stacked in piles and transports the workpiece W to another second container 32.
  • Each of the containers 30 and 32 is a bottomed container having a rectangular shape in plan view with an upper side opened.
  • the second container 32 is a dish-shaped container whose interior is partitioned into a plurality of storage areas 33.
  • the robot 2 takes out the workpiece W through the opening of the first container 30 and places the workpiece W in any of the storage areas 33 through the opening of the second container 32.
  • the robot 2 is a 6-axis vertical articulated robot including a base part 21, a body part 22, a first arm 23, a second arm 24, a wrist part 25, and a hand part 26.
  • the base part 21 is fixedly installed on a floor, a stand or the like.
  • the body portion 22 is disposed on the upper surface of the base portion 21 so as to be rotatable in both forward and reverse directions around the first axis 2A extending in the vertical direction (vertical direction).
  • the first arm 23 is an arm member having a predetermined length, and one end portion in the longitudinal direction thereof is attached to the trunk portion 22 via a second shaft 2B extending in the horizontal direction. The first arm 23 can rotate in both forward and reverse directions around the second axis 2B.
  • the second arm 24 includes an arm base 24a and an arm portion 24b.
  • the arm base 24a is a base portion of the second arm 24, and is attached to the other end portion in the longitudinal direction of the first arm 23 via a third shaft 2C extending parallel to the second shaft 2B and extending in the horizontal direction. Yes.
  • the arm base 24a can rotate in both forward and reverse directions around the third axis 2C.
  • the arm portion 24b is an arm member having a predetermined length, and one end portion in the longitudinal direction thereof is attached to the arm base 24a via a fourth shaft 2D perpendicular to the third shaft 2C.
  • the arm portion 24b can rotate in both forward and reverse directions around the fourth axis 2D.
  • the wrist portion 25 is attached to the other end portion in the longitudinal direction of the arm portion 24b via a fifth shaft 2E that extends parallel to the second shaft 2B and the third shaft 2C and extends in the horizontal direction.
  • the wrist portion 25 can rotate in both forward and reverse directions around the fifth axis 2E.
  • the hand part 26 is a part for taking out the workpiece W from the first container 30 in the robot 2, and is attached to the wrist part 25 via a sixth axis 2F perpendicular to the fifth axis 2E.
  • the hand part 26 can rotate in both forward and reverse directions around the sixth axis 2F.
  • the hand portion 26 is not particularly limited as long as it can hold the workpiece W in the first container 30.
  • the hand portion 26 has a structure including a plurality of claw portions that hold and hold the workpiece W.
  • a structure including an electromagnet or a negative pressure generating device that generates an attractive force with respect to the workpiece W may be used.
  • the hand part 26 has a structure provided with a pair of claw parts that can be contacted and separated, and the work W in the first container 30 is gripped (clamped) by the pair of claw parts. Take out.
  • the body part 22, the first arm 23, the second arm 24 (arm base 24a, arm part 24b), the wrist part 25, and the hand part 26 of the robot 2 are each driven by a driving motor (not shown).
  • the number of axes of the robot 2 is not limited to six, and may be any other number.
  • the robot 2 is not particularly limited as long as it is a robot having a hand part that can take out the workpiece W from the first container 30.
  • the robot 2 is a vertical articulated robot, a horizontal articulated robot, or a double arm type.
  • the multi-joint robot can be employed.
  • the first camera 3 ⁇ / b> A captures an image including the work W accommodated in the first container 30, and is disposed above the first container 30.
  • the first camera 3 ⁇ / b> A also captures an image including the hand unit 26 after the operation of taking out the workpiece W in order to confirm whether the workpiece W has been taken out from the first container 30.
  • the second camera 3 ⁇ / b> B captures an image including the work W accommodated in the second container 32, and is disposed above the second container 32.
  • These first and second cameras 3 ⁇ / b> A and 3 ⁇ / b> B constitute a three-dimensional measuring instrument together with a camera controller 41 described later.
  • control unit 4 controls the robot 2 and the cameras 3A and 3B in an integrated manner.
  • the control unit 4 includes a camera control unit 41, a robot control unit 42, a transport condition setting unit 43, a storage unit 44, and a learning unit 45.
  • the camera control unit 41 executes an imaging operation by the first camera 3A and the second camera 3B, and includes an imaging control unit 41a and an image processing unit 41b.
  • the imaging control unit 41a includes the hand unit 26 after the operation of taking out the workpiece W while causing the first camera 3A to perform an operation of imaging the inside of the first container 30 when the hand unit 26 takes out the workpiece W. An operation for capturing an image is executed.
  • the imaging control unit 41a causes the second camera 3B to perform an operation for imaging the inside of the second container 32.
  • the image processing unit 41b generates image data including the three-dimensional position information of the workpiece W by performing image processing on images captured by the cameras 3A and 3B.
  • the three-dimensional position information of the workpiece W is expressed by coordinate values (X, Y, Z) using, for example, an XYZ orthogonal coordinate system.
  • the robot control unit 42 causes the robot 2 (hand unit 26) to perform a workpiece W conveyance operation based on the conveyance conditions set by the conveyance condition setting unit 43.
  • the robot control unit 42 performs a workpiece W transfer operation in accordance with the transfer conditions, that is, the workpiece W take-out (picking) operation, and the workpiece W transport and placement operations (transport operation and placement operation).
  • the drive motor of the robot 2 is controlled so as to execute (sometimes collectively referred to as “place operation”).
  • the learning unit 45 performs machine learning related to the transfer operation of the workpiece W, information regarding how the robot control unit 42 operates the robot 2 is output to the learning unit 45.
  • the conveyance condition setting unit 43 sets the conveyance conditions such as the operation of the robot 2 when conveying the workpiece W and items to be prohibited according to the workpiece W. For example, this is an agreement regarding an area or the like in which the hand unit 26 should not be held in the workpiece W. This point will be described in detail later.
  • This conveyance condition may be taught by an operator via an input unit (not shown), or may be acquired as a result of machine learning described later.
  • the storage unit 44 stores the transfer conditions set by the transfer condition setting unit 43 in an update manner.
  • the storage unit 44 stores table data in which a plurality of (types) of workpieces W are associated with basic information and conveyance conditions described later.
  • the learning unit 45 executes a learning process for learning the operation of the robot hand 10.
  • the learning unit 45 acquires the control information of the robot 2 by the robot control unit 42 and the image data input from the camera control unit 41 for each learning cycle.
  • the learning part 45 is made to learn the optimal action pattern and conveyance conditions of the robot 2 in the case of conveying the workpiece
  • the behavior pattern includes, for example, which position of the workpiece W is gripped by the hand unit 26 and how much force (gripping force) during the picking operation of the workpiece W, and the picking, transporting, and place operations of the workpiece W. This is an action of the robot 2 regarding how fast the hand unit 26 is moved (transport speed).
  • these behavior elements are included in the transport conditions.
  • the learning unit 45 includes a quality observation unit 46, a reward setting unit 47, and a value function updating unit 48. These will be described in detail later.
  • FIG. 3 is a flowchart for explaining the basic operation of the robot system 1.
  • the control unit 4 acquires basic information such as the shape of the workpiece W (step S1).
  • This basic information is information such as the type, shape, size, surface state, etc. of the workpiece W, and the control unit 4 performs an input operation by an operator via an input unit (not shown) or an imaging result by the first camera 3A.
  • This basic information is acquired based on this.
  • the said surface state is the surface treatment etc. which were given to the workpiece
  • the transfer condition setting unit 43 sets the transfer condition of the workpiece W based on the basic information (step S3). As described above, this conveyance condition may be taught by an operator via an input unit (not shown), or may be acquired as a result of machine learning.
  • the camera control unit 41 causes the first camera 3 ⁇ / b> A to image the inside of the first container 30, so that the robot control unit 42 picks up a workpiece W (referred to as a target workpiece W as appropriate) based on the image data. Is identified (step S5).
  • the robot control unit 42 drives the robot 2 to execute a transfer operation of taking out the target workpiece W from the first container 30 and transferring it to the second container 32 (step S7).
  • the robot control unit 42 specifies the workpiece W to be picked up based on the transfer conditions set by the transfer condition setting unit 43 and executes the transfer operation.
  • the camera control unit 41 causes the second camera 3B to image the inside of the second container 32, thereby recognizing the state of the workpiece W based on the image data (step S9).
  • the robot control unit 42 controls the notifying unit (not shown) to give an abnormality to the operator. The operation to be notified is executed.
  • the robot controller 42 determines whether a predetermined number N of workpieces W have been transferred from the first container 30 to the second container 32 (step S11), and if not, the process proceeds to step S5. Then, the robot 2 is caused to execute a transfer operation for the next workpiece W. On the other hand, when a predetermined number N of workpieces W are transferred from the first container 30 to the second container 32, the robot control unit 42 ends this flowchart.
  • FIG. 4A and 4B are diagrams for explaining an example of the conveyance conditions, FIG. 4A is a plan view of the workpiece W, and FIG. 4B is a sectional view of the workpiece W (a sectional view taken along line IV-IV in FIG. 4A). is there.
  • the workpiece W shown in FIG. 4A is, for example, a hexagonal bolt (cap bolt).
  • the workpiece W (referred to as a bolt W as appropriate) includes a head portion 50 having a hole for inserting a wrench and a shaft portion 52.
  • the shaft portion 52 includes a screw portion 52a on the distal end side and a non-screw portion on the head side (referred to as a cylindrical portion 52b).
  • the transport condition setting unit 43 sets transport conditions for gripping and transporting the bolt W with the hand unit 26 while ensuring the quality of the bolt W.
  • the screw portion 52a is set to the grip prohibition area Aa that prohibits the gripping by the hand portion 26, and the gripping that allows the other portion to be gripped by the hand portion 26 is set.
  • Set to possible area Ab That is, when the workpiece W is transported, the grippable area Ab is gripped by the hand unit 26. Thereby, the inconvenience that the screw thread 52a is crushed by gripping the screw part 52a with the hand part 26 is prevented.
  • the conveyance condition setting unit 43 further sets a portion corresponding to the cylindrical portion 52b in the grippable region Ab as a conditional region Ab1 that allows the gripping with a condition. That is, the head part 50 is preferentially grasped, and the cylindrical part 52b is grasped by the hand part 26 only when a predetermined condition is satisfied.
  • the predetermined condition is, for example, a case where the head portion 50 is positioned at the corner of the first container 30 and cannot be gripped by the hand portion 26. In this case, the cylindrical portion 52b is gripped by the hand portion 26. To do.
  • the cylindrical portion 52b is adjacent to the screw portion 52a, and if it is allowed to be gripped in the same manner as the head portion 50, a part of the screw portion 52a is gripped by the hand portion 26 due to an operation error or the like of the robot 2. Because it is conceivable that the thread is damaged. Further, when the shaft portion 52 is subjected to a special surface treatment, it is also possible to suppress the disadvantage that the surface treatment of the cylindrical portion 52b is damaged by the hand portion 26 as much as possible.
  • the screw part 52a is not only the grip prohibition area Aa but also the contact prohibition area Ba.
  • the head 50 and the cylindrical part 52b are not only the grippable area Ab but also the contactable area Bb. That is, when one bolt W is an object to be transported, the screw portion 52a of the one bolt W is the grip prohibition area Aa, and the other part is the grippable area Ab.
  • the screw portion 52a is a contact-prohibited region Ba that prohibits the hand portion 26 from contacting, and the other portions are the hand portion 26. This is a contact-prohibited area Ba that prohibits contact.
  • the conveyance condition setting unit 43 sets the grip prohibition area Aa and the grippable area Ab, and sets the contact prohibition area Ba and the contact prohibition area Ba.
  • the transport condition setting unit 43 further sets a certain space (cylindrical space) around the bolt W including the tip of the screw portion 52a from the tip of the cylindrical portion 52b as the intrusion prohibition region Bc (see FIGS. 4A and 4B). ).
  • This area Bc is an area where the hand portion 26 is prohibited from entering. That is, the hand portion 26 is prohibited from approaching the screw portion 52a of the bolt W around the bolt W to be taken out. As a result, the screw portion 52 a is more highly suppressed from being damaged by the hand portion 26.
  • the transport condition setting unit 43 sets a transport condition in which a plurality of bolts W are preferentially removed from the bolt W located at the highest position when they overlap each other. Moreover, the conveyance condition setting unit 43 sets the gripping position, the gripping force, and the transport speed at which the bolt W can be securely gripped and transported as the transport condition according to the shape of the bolt W and the surface treatment state. To set. At this time, the gripping force and the transport speed particularly when gripping the cylindrical portion 52b (conditional area Ab1) are set to be lower than the gripping force and the transport speed when gripping the other portion (head 50). Set the transport conditions.
  • FIGS. 5 to 7 are schematic plan views showing the bolts W accommodated in the first container 30.
  • FIG. 5 to 7 are schematic plan views showing the bolts W accommodated in the first container 30.
  • the plurality of bolts W1 to W3 are arranged apart from each other. Specifically, each of the bolts W1 to W3 can hold the head 50 by the hand portion 26, and the head 50 of any bolt W of the bolts W1 to W3 can be held.
  • the hand portions 26 are separated from each other with a distance such that they do not enter the intrusion prohibited area Bc of other bolts W. Accordingly, in such a case, the robot 2 takes out any one of the bolts W1 to W3 from the first container 30 by holding the head 50 with the hand portion 26.
  • the bolts W1 and W2 are arranged so as to overlap each other. Specifically, the head 50 of the other bolt W1 overlaps the screw portion 52a of one bolt W2. In this case, if an attempt is made to grip the screw portion 52a of the upper bolt W1 with the hand portion 26, the hand portion 26 enters the entry prohibition region Bc of the lower bolt W2 and contacts the screw portion 52a (contact prohibition region Ba). There is a risk. Therefore, in such a case, the robot 2 grips the cylindrical portion 52b (gripable region Ab1) of the bolt W2 with the hand portion 26 and removes it from the first container 30. At this time, the robot 2 grips the cylindrical portion 52b with a gripping force set in the transport condition and lower than the gripping force when the head 50 is gripped.
  • the bolts W1 and W2 do not overlap, but the head 50 and the cylindrical portion 52b of one bolt W1 are in contact with the cylindrical portion 52b and the screw portion 52a of the other bolt W2.
  • the hand portion 26 may enter the intrusion prohibited region Bc of the other bolt W2. is there.
  • the periphery of the head 50 of the other bolt W2 is widely opened. Therefore, in such a case, the robot 2 grips the head 50 of the bolt W2 with the hand unit 26 and takes out the first container 30.
  • the transfer condition setting unit 43 determines whether or not the grip prohibition area Aa (contact prohibition area Ba) or intrusion is prohibited depending on the type or position of the surface treatment. Region Bc is set.
  • the learning unit 45 uses the control information of the robot 2 when a certain transport operation is performed and the quality information of the work W on which the transport operation is performed, to determine the optimal behavior pattern of the robot 2 when transporting the work W. And the transport conditions are learned.
  • the “quality information” is information that mainly represents the state of the surface (appearance) of the workpiece W after conveyance.
  • the learning result acquired by the learning unit 34 is reflected in the conveyance conditions set by the conveyance condition setting unit 43.
  • the learning method is not particularly limited, and for example, “supervised learning”, “unsupervised learning”, “reinforcement learning”, and the like can be employed.
  • a Q-learning technique as reinforcement learning is employed as a learning technique in the learning unit 45.
  • Q-learning is a method of learning a high-value behavior that rewards the behavior of the robot 2 when the continuous motion of the robot 2 is divided into a plurality of states and the states are sequentially shifted.
  • Q-learning as reinforcement learning executed by the learning unit 45 can be realized by using, for example, a neural network (Neural Network).
  • a neural network has a configuration that mimics the structure of a human brain, and is configured by laminating logic circuits that mimic the functions of neurons (neurons) in the human brain.
  • the learning unit 45 includes a quality observation unit 46, a reward setting unit 47, and a value function updating unit 48 as described above (FIG. 1).
  • the quality observation unit 46 compares the image data of the workpiece W before conveyance (hereinafter referred to as image data before conveyance) with the image data of the workpiece W after conveyance (hereinafter referred to as image data after conveyance). Evaluate the quality (hereinafter referred to as work quality evaluation).
  • the pre-conveyance image data is image data including three-dimensional position information (X, Y, Z coordinate values) of the target workpiece W, and is acquired by imaging the workpiece W in advance separately from the robot system 1. Those obtained by imaging the inside of the first container 30 by the first camera 3A are used.
  • the quality observation unit 46 compares the image data before and after the conveyance, and determines the presence or absence of a grip mark or a flaw (hereinafter simply referred to as a flaw) formed during the conveyance, the position of the flaw, the size of the flaw, and the like. Based on the condition of the wound, the evaluation is made in three stages (A to C evaluation) (see FIG. 8). For example, when no scratch is formed during conveyance, the workpiece quality evaluation is “A”, and when a large scratch is formed, the workpiece quality evaluation is “C”. Further, even if the scratch is small, if the position is the threaded portion 52a (grip prohibited area Aa) of the workpiece W, the workpiece quality evaluation is set to “C”.
  • the quality observation unit 46 evaluates the quality of the picking operation by the hand unit 26 based on image data including the hand unit 26 immediately after taking out the workpiece from the first container 30 (hereinafter referred to as post-takeout image data) (
  • post-takeout image data image data including the hand unit 26 immediately after taking out the workpiece from the first container 30
  • place evaluation the quality of the place operation of the workpiece W is evaluated based on the post-conveyance image data (hereinafter referred to as “place evaluation”).
  • the post-takeout image data data obtained by causing the first camera 3 ⁇ / b> A to image an area including the hand unit 26 after the workpiece W is taken out by the hand unit 26 is used.
  • the quality observing unit 46 specifies the gripping position and gripping posture of the workpiece W by the hand unit 26 based on the image data after taking out, and performs three-level evaluation (A to C evaluation) as picking evaluation (See FIG. 8). For example, when the hand unit 26 appropriately grips the work W only in the grippable area Ab, the pinking evaluation is “A”, and the hand W 26 grips the work W in the state where the hand part 26 has entered the grip prohibition area Aa. In such a case, the picking evaluation is set to “B” or “C” according to the degree of penetration.
  • the quality observation unit 46 specifies the position and orientation of the workpiece W after conveyance based on the image data after conveyance, and performs three-level evaluation (A to C evaluation) as place evaluation (see FIG. 8).
  • the place evaluation is “A”, which is different from the posture in which the workpiece W is determined.
  • the place evaluation is set to “B” or “C”.
  • the quality observation unit 46 performs three stages of evaluation as picking evaluation, place evaluation, and work quality evaluation, but each evaluation is not limited to three stages.
  • the reward setting unit 47 associates the transfer operation (behavior pattern) executed by the robot 2 with the quality of the work W transferred by the action pattern, and executes a process of giving a reward R to the action pattern. Specifically, the reward setting unit 47 acquires, from the robot control unit 42, action pattern control data executed by the robot 2 when a certain work W is transported. In addition, the reward setting unit 47 acquires evaluation result data derived by the quality observation unit 46 for the workpiece W conveyed by the action pattern. A reward R is given to the behavior pattern based on the behavior pattern control data and the evaluation result data. Specifically, a reward R is given for each behavior element constituting the behavior pattern.
  • the behavior elements include “grip position”, “grip force”, and “transport speed”.
  • the “gripping position” is the position of the hand unit 26 with respect to the workpiece W when the hand unit 26 grips the workpiece W
  • the “gripping force” is the magnitude of the force when the hand unit 26 grips the workpiece W.
  • the “conveying speed” is the moving speed of the hand unit 26 when the picked-up workpiece W is conveyed.
  • the reward R is set so that a larger value is given as the picking evaluation, the place evaluation, and the work quality evaluation are higher.
  • the reward R is given based on, for example, a reward table shown in FIG.
  • picking evaluation, place evaluation, and work quality evaluation are evaluated in three stages (A evaluation to C evaluation), and the reward table includes picking evaluation and place evaluation as vertical items, and work quality evaluation as horizontal items.
  • the reward R is determined by a combination of picking evaluation and place evaluation and work quality evaluation.
  • a reward (Ra 11 to Ra 33 ) for the action pattern of the robot 2 in the picking operation by the hand unit 26 is determined by a combination of picking evaluation and work quality evaluation, and place evaluation
  • the reward (Rb 11 to Rb 33 ) for the action pattern of the robot 2 in the place operation is determined by a combination of the quality evaluation of the work W.
  • the reward (Ra 11 to Ra 33 ) for the action pattern of the picking motion is set for each action element constituting the action pattern, that is, for each of “grip force” and “grip position”, as shown in FIGS. 9A and 9B, for example.
  • FIG. 9A is an example of the reward R of each action element when both the picking evaluation and the work quality evaluation are A evaluations
  • FIG. 9B shows each action when the picking evaluation is A evaluation and the work quality evaluation is C evaluation. It is an example of the reward R of an element.
  • the reward (Rb 11 to Rb 33 ) for the action pattern of the place motion is, for example, as shown in FIGS. 10A and 10B, for each action element constituting the action pattern, that is, “gripping force”, “gripping position”, and “transport speed”. "Is set for each.
  • FIG. 10A is an example of the reward R of each action element when both the place evaluation and the work quality evaluation are A evaluations
  • FIG. 10B shows each action when the place evaluation is A evaluation and the work quality evaluation is C evaluation. It is an example of the reward R of an element.
  • the reward R of each behavior element is set so that a larger value is given as the picking evaluation, the place evaluation, and the work quality evaluation are higher. It is set so that a large value is given.
  • the learning unit 45 learns the behavior pattern of the transport operation of the robot 2 so that the transport speed is as fast as possible.
  • the value function updating unit 48 updates the value function that defines the value Q (s, a) of the behavior pattern of the robot 2 according to the reward R set by the reward setting unit 47.
  • the value function updating unit 48 updates the value function using an update formula of the value Q (s, a) represented by the following formula (1).
  • “s” represents the state of the robot 2
  • “a” represents the behavior of the robot 2 according to the behavior pattern.
  • the state of the robot 2 changes from the state “s” to the state “s ′” by the action “a”.
  • R (s, a) represents the reward R obtained by the transition of the state.
  • the term with “max” is obtained by multiplying the value Q (s ′, a ′) by “ ⁇ ” when the action “a ′” having the highest value in the state “s ′” is selected.
  • “ ⁇ ” is a parameter called an attenuation factor, and is in a range of 0 ⁇ ⁇ 1 (for example, 0.9).
  • “ ⁇ ” is a parameter called a learning rate, and is in a range of 0 ⁇ ⁇ 1 (for example, 0.1).
  • the above equation (1) is based on the reward R (s, a) set by the reward setting unit 47 for the action “a”, and the value Q (s, a) of the action “a” in the state “s”.
  • the above equation (1) is such that the value Q (s ′, a ′) of the action “a ′” in the state “s ′” is greater than the value Q (s, a) of the action “a” in the state “s”.
  • the reward R (s, a) is larger, the value Q (s, a) is increased, and on the contrary, the value Q (s, a) is decreased.
  • the value function updating unit 48 updates the value function using the update formula shown by the above formula (1), thereby the value Q (s, a of a certain action “a” in a certain state “s”. ) To the reward R set for the action “a” and the value Q (s ′, a ′) of the best action “a ′” in the next state “s ′” by the action “a”. I try to get closer.
  • FIG. 11 and FIG. 12 are flowcharts illustrating an example of the learning operation of the conveyance conditions.
  • the conveyance condition setting unit 43 of the control unit 4 determines whether or not the conveyance condition data relating to the target workpiece W is already stored in the storage unit 44 (step S21). If stored, the transport condition setting unit 43 initially sets the stored existing data as the transport condition (step S51). In such a case, when re-learning the existing conveyance conditions of the target workpiece W obtained by the previous learning, or by using the default data of the conveyance conditions originally stored in the control unit 44, the initial setting is performed. The case where learning is performed is assumed.
  • the conveyance condition setting unit 43 determines whether or not the conveyance condition data related to the similar workpiece is stored in the storage unit 44 (step S21). S23). If stored, the transfer condition setting unit 43 initially sets the transfer condition of the target workpiece W based on transfer condition data related to the similar workpiece W.
  • the similar workpiece W is a workpiece W having the same shape as the target workpiece W.
  • the conveyance condition setting unit 43 compares the basic information of the target workpiece with the basic information of the workpiece W stored in the storage unit 44, and determines a workpiece W that satisfies a common point set in advance for both shapes as a similar workpiece.
  • the transfer condition of the target workpiece W is estimated based on the transfer condition of the similar workpiece.
  • the target workpiece W is the hexagon socket head bolt described above
  • a bolt having a different length from the bolt or a bolt having a different diameter is set as a similar workpiece.
  • the transfer conditions of the target workpiece W are initially set by using the existing transfer conditions of the similar workpiece W in this way, it is possible to save the trouble of programming the transfer conditions from scratch.
  • the transport condition setting unit 43 acquires the image data of the target work W (Step S51), and based on the image data. Then, the transfer condition of the target workpiece W is initialized (step S55). For example, the conveyance condition setting unit 43 identifies the shape of the workpiece W from the point cloud density of image data (image data including three-dimensional position information), and the grip prohibition area Aa, the contactable area Bb, and the intrusion prohibition based on the shape. The area Bc is estimated, and the “gripping position”, “gripping force”, and “transport speed” of the workpiece W by the hand unit 26 are estimated. As a result, the conveyance conditions are initialized. Note that the image data is used when it is given in advance by an operator via an input unit (not shown), and when it is not given, the first container is sent via the camera control unit 41. Acquired by causing the first camera 3A to image the inside of 30a.
  • the transfer condition of the target workpiece W is initially set by any one of steps S25, S51, and S55. That is, the gripping prohibition area Aa (contact prohibition area Ba), the grippable area Ab (contactable area Bb), and the intrusion prohibition area Bc of the target work W are determined, and the “grip position” of the work W by the hand unit 26 is determined. , “Grip force” and “transport speed” are determined.
  • the processes in steps S21 to S25 and S51 to S55 described above are preparations for the learning process, and the transport conditions initially set in steps S25, S51, and S55 are determined according to the learning results obtained from the learning process in step S27 and subsequent steps. It will be corrected.
  • the image data in the first container 30 is acquired by the first camera 3A, and the three-dimensional position information of the workpiece W is acquired by the object recognition process of the image processing unit 41b (step S27).
  • the position information (coordinate values) of the workpiece W to be taken out in the first container 30a is acquired, and this position information is given to the robot controller 42.
  • the quality observation unit 46 of the learning unit 45 acquires image data including the three-dimensional position information of the workpiece W from the camera control unit 41 as the above-described pre-conveyance image data.
  • the robot control unit 42 operates the robot 2 on the basis of the conveyance conditions set by the conveyance condition setting unit 43 and the position information of the workpiece W acquired by the object recognition, and conveys the prohibited areas Aa, Bb, Bc, etc.
  • the workpiece W is taken out from the first container 30 (step S29).
  • the camera control unit 41 causes the first camera 3A to capture an image of the work W gripped by the hand unit 26 of the robot 2, and based on the image data, the control unit 4 holds the work W by the hand unit 16. It is determined whether or not (steps S31 and S33).
  • the quality observation unit 46 of the learning unit 45 acquires the image data on which the workpiece W is gripped in this way from the camera control unit 41 as the above-described post-takeout image data.
  • step S33 the robot control unit 42 drives the robot 2 to transport the taken workpiece W to the second container 32, and at the same time, moves the workpiece W at a predetermined XYZ position. Release (clamp release) (step S35). Thereby, conveyance of the workpiece
  • the image data in the second container 32 is acquired by the second camera 3B, and the image data including the three-dimensional position information of the workpiece W is acquired by the object recognition process of the image processing unit 41b ( Step S37).
  • the quality observation unit 46 of the learning unit 45 acquires the image data including the three-dimensional position information of the workpiece W from the camera control unit 41 as the post-conveyance image data.
  • work W is not hold
  • the quality observation unit 46 performs the above-described picking evaluation based on the post-takeout image data acquired in step S31, and performs the above-described place evaluation based on the post-conveyance image data acquired in step S37.
  • the above-described work quality evaluation is performed by comparing the post-conveyance image data acquired in step S37 and the pre-conveyance image data acquired in step S27 (step S39).
  • the reward setting unit 47 gives a reward R based on the behavior pattern of the current robot 2 based on the success / failure of the picking operation and the evaluation result of the quality observation unit 46.
  • the reward R is determined based on the above-described reward table of FIG. In this case, rewards (Ra 11 to Ra 33 ) for the action pattern of the picking operation are given for each action element constituting the action pattern.
  • the reward setting unit 47 determines the “gripping force” and “gripping position” of the action pattern. Reward “100”.
  • the reward setting unit 47 gives the reward “0; zero” to the “gripping force” of the action pattern, and the “gripping position” A reward of “60” is given.
  • rewards (Rb11 to Rb33) for the action pattern of the place action are given for each action element constituting the action pattern.
  • the reward setting unit 47 sets the “gripping force”, “transport speed”, and Reward “100” is given to each “gripping position”.
  • the reward setting unit 47 gives a reward “0” to the “grip force” and “transport speed” of the action pattern, A reward “60” is given to “grip position”.
  • step S33 when the workpiece W is not gripped, the reward setting unit 47 performs the “grip force” and “grip position” of the action pattern of the picking motion regardless of the reward table of FIG. A reward “0” is given, and a reward of “0” is given to the action patterns “gripping force”, “transport speed”, and “gripping position” of the place motion.
  • the value function update unit 48 updates the value function that defines the value Q (s, a) of the behavior pattern of the robot 2 using the update equation of the above equation (1) (step S43). Specifically, the value function that defines the value Q (s, a) of each behavior element of the behavior pattern of the picking motion is updated based on the reward (Ra 11 to Ra 33 ) for each behavior component of the behavior pattern of the picking motion. Then, the value function that defines the value Q (s, a) of each behavior element of the place action behavior pattern is updated based on the reward (Rb 11 to Rb 33 ) for each behavior element of the place action behavior pattern.
  • Each process shown in the above steps S27 to S43 is a process executed in one cycle of the learning process by the learning unit 45.
  • the learning unit 45 determines whether or not the number of learning has reached the predetermined number N (step S45). If the predetermined number N has not been reached (No in step S45), the learning unit 45 moves the process to step S27, causes the next workpiece W to be taken out from the first container 30, and repeats the learning process. On the other hand, when the predetermined number N has been reached (Yes in step S45), the learning unit 34 ends the learning process, and the conveyance condition setting unit 43 stores the learning result, that is, the finally obtained conveyance condition data. 44 (step S47), and this flowchart is ended.
  • the transport condition setting unit 43 corrects the initially set transport condition based on the learning result, and then performs the transport condition. Is newly stored in the storage unit 44 together with the basic information of the target work W, and when the transport condition data of the target work W is already stored in the storage unit 44, the existing data is converted into the corrected transport condition. Overwrite with data.
  • the learning process by the learning unit 45 is executed, thereby detecting a conveyance condition that allows a more ideal workpiece conveyance operation to be performed, and is initially set in steps S49, S25, and S55.
  • the conveyance condition is corrected by the conveyance condition setting unit 43. For example, at the initial “gripping position”, when the hand unit 26 repeatedly fails to take out the workpiece W and a high picking evaluation or a place evaluation cannot be obtained, a higher picking evaluation is performed by the learning process. The obtained “gripping position” will be detected.
  • the conveyance condition setting unit 43 enlarges and corrects the initially set “grasping prohibited area Aa” so that the initially set “gripping position” is included in the gripping prohibited area Aa. As a result, it is possible to set a more ideal conveyance condition that makes it difficult to take out the workpiece W.
  • the value function update unit 48 gives a reward R having a larger value as the transport speed of the workpiece W is higher. That is, the learning unit 45 learns the gripping force and the gripping position in the grippable region Ab so that the transport speed is as fast as possible. Accordingly, a conveyance condition is set such that the workpiece W can be conveyed more quickly from the first container 30 to the second container 32. For example, in a certain learning cycle, the “gripping force” and “transport speed” which are the behavioral elements of the behavior pattern of the place motion are each set to the maximum value, but a strong grip mark is seen on the workpiece W and the workpiece quality evaluation is performed.
  • the learning unit 45 sets the “gripping force” lower than the previous time in the next learning cycle.
  • the “transport speed” is related to the “grip force”. If it is too fast, the learning unit 45 sets the “transport speed” lower than the previous time in the next learning cycle.
  • the relationship between the “gripping force” and the “transport speed” has been described, but the learning unit 45 similarly learns the “gripping position”. As a result, the learning unit 45 learns the gripping force and the gripping position in the grippable region Ab so that the transport speed is as fast as possible within the range in which the workpiece W can be transported appropriately.
  • the robot system 1 described above is an example of a preferred embodiment of the robot system according to the present invention, and the specific configuration thereof can be changed without departing from the gist of the present invention. For example, the following aspects can also be taken.
  • the robot 2 may be capable of automatically and selectively exchanging a tool (a pair of claw portions in the embodiment) of the hand unit 26 for gripping the workpiece W from a plurality of tools.
  • the conveyance condition setting unit 43 can set which tool is used as the conveyance condition, and can learn the optimum tool based on the machine learning by the learning unit 45. According to such a configuration, it is possible to transport the workpiece W while ensuring the quality of the workpiece W by performing the operation of transporting the workpiece W with an optimum tool.
  • the conveyance condition setting unit 43 is based on any of the existing data of the workpiece W, the existing data of the similar workpiece W, and the image data of the workpiece W acquired through the first camera 3A. Is initialized (steps S49, S25, and S55 in FIG. 11).
  • the conveyance conditions may be set based on other information.
  • the basic condition information can be acquired by the transport condition setting unit 43 such as when the basic information of the workpiece W is taught by an operator and stored in the control unit 40 via an input unit (not shown)
  • the conveyance conditions may be set based on the basic information.
  • information relating to the surface state such as the surface treatment applied to the workpiece W is difficult to recognize from the image data. Therefore, information regarding the surface state is stored in the control unit 40 in advance, and the conveyance condition setting unit 43 sets the grip prohibition area Aa (contact prohibition area Ba) and the intrusion prohibition area Bc based on the information regarding the surface state.
  • the rewards (Ra 11 to Ra 33 ) for each behavior pattern of the picking operation and the place operation are given for each behavior element constituting the behavior pattern.
  • the rewards (Ra 11 to Ra 33 ) for each behavior pattern may be the sum of the rewards for each behavior element constituting the behavior pattern.
  • the reward setting unit 47 gives a reward “200” to the behavior pattern, and the picking evaluation is performed.
  • the reward setting unit 47 may give a reward “60” to the action pattern.
  • the rewards (Rb 11 to Rb 33 ) for the action pattern of the place operation may be the sum of the rewards for each action element constituting the action pattern.
  • the reward setting unit 47 gives a reward “300”
  • the place evaluation is A evaluation
  • the reward setting unit 47 may give a reward “60”.
  • the imaging unit that acquires the image data of the workpiece W for the initial setting of the conveyance condition that is, the first imaging unit of the present invention is disposed (fixed) above the first container 30.
  • the first camera 3A is applied.
  • a camera 3C is provided as a first imaging unit in a movable part of the robot 2, such as the hand unit 26, and the work W in the first container 30 before the transfer operation is performed by the camera 3C. You may make it image.
  • the camera 3D is disposed (fixed) upward at a position between the first container 30 and the second container 32 and is taken out from the first container 30. You may make it image this workpiece
  • the 2nd camera arrange
  • the work W in the second container 32 after the carrying operation is performed may be imaged by the camera 3C as illustrated in FIG. 14 as the second imaging unit.
  • the inside of the first container 30 after taking out the workpiece by the hand unit 26 is imaged by the first camera 3A (third imaging unit), and added to the post-takeout image data (or separately from the post-takeout image data), You may make it evaluate the quality of the picking operation
  • the influence on the workpiece W, specifically, the displacement of the other workpiece W, the scratch formed on the other workpiece W, and the like are specified and the picking evaluation is performed. According to such a configuration, it is possible to detect not only the quality of the workpiece W to be picked up but also the conveyance conditions that can maintain the quality of other workpieces W at the time of picking up.
  • the first camera 3A disposed (fixed) above the first container 30 as an imaging unit that images the inside of the first container 30 after the work is taken out by the hand unit 26, that is, the third imaging unit of the present invention.
  • the first camera 3A also functions as the first imaging unit and the third imaging unit of the present invention.
  • the camera 3C may serve as the functions of the first imaging unit and the third imaging unit of the present invention.
  • the transfer condition setting unit 43 further sets an approach method such as approach / separation of the hand unit 26 with respect to the workpiece W when the workpiece W is taken out from the first container 30 as the transfer condition.
  • the storage unit 44 stores the other work image data, the success / failure of the picking operation and the picking evaluation (hereinafter referred to as the picking operation result), and the learning unit 45 captures the first container 30 imaged by the first camera 3A. You may make it learn the optimal approach method based on the image (image containing the object workpiece
  • the approach method includes a moving speed when the hand unit 26 is moved toward and away from the target workpiece W to be picked up, a moving direction specified by the XYZ orthogonal coordinate system, and the like.
  • the approach method may be changed. For example, when the picking operation fails (when the workpiece W cannot be gripped or when the workpiece W is dropped during take-out, it is determined No in the process of step S33 in FIG. 11). In such a case, the picking evaluation may be low (C evaluation).
  • the storage unit 44 functions as the first and second storage units of the present invention
  • the first camera 3A functions as the first and third imaging units of the present invention.
  • the first and third imaging units are not limited to the first camera 3A, but may be a camera 3C as shown in FIG.
  • image data is used as the “work placement information” according to the present invention.
  • the work placement information is not limited to image data
  • each work W in the first container 30 is not limited to image data. Information other than image data may be used as long as the information can specify the arrangement.
  • the workpiece arrangement information may be three-dimensional position information of each workpiece W in the first container 30. That is, the three-dimensional position information of each workpiece W acquired from the image data captured by the first camera 3A is the past three-dimensional position information of each workpiece W stored in the storage unit 44, and the transfer operation has failed.
  • the approach method may be changed when it is similar to the three-dimensional position information of each workpiece W that is certified as being.
  • two-dimensional position information may be used as the work placement information instead of the three-dimensional position information.
  • a dedicated imaging unit (second camera 3B) is provided as an imaging unit for acquiring the post-conveyance image data.
  • the inspection apparatus 5 three-dimensional measurement apparatus 5a
  • the inspection apparatus 5 may also be used as an imaging unit for obtaining the post-conveyance image data from the inspection apparatus.
  • a robot system includes a robot including a hand unit that grips and takes out a workpiece from a storage unit in which a plurality of workpieces are stored, and transports the workpiece to a predetermined position.
  • a robot control unit that controls the transfer operation of the robot that is taken out and transported to the predetermined position, and a condition related to the transfer operation, and a grip prohibition area that prohibits the grip by the hand unit of the workpiece.
  • a transfer condition setting unit configured to set transfer conditions including at least a transfer condition, and the robot control unit controls the robot based on the transfer condition set by the transfer condition setting unit.
  • a grip-prohibited area that prohibits gripping by the hand unit is set according to the workpiece. That is, when the workpiece is transported by the hand unit, a part other than the grip prohibition area is gripped by the hand unit. Accordingly, by setting a part that is easily deformed in shape and a part that is easily damaged among the workpieces as a gripping prohibition region in advance, it is possible to prevent the quality of the workpiece from being impaired when the workpiece is transported.
  • the transfer condition setting unit includes, in addition to the grip prohibition region, at least an entry prohibition region that is a space around the workpiece and prohibits the hand unit from approaching the workpiece. It is preferable to set the conveyance conditions.
  • the hand unit when a workpiece is taken out by the hand unit, the hand unit is prohibited from entering an intrusion prohibited area of another workpiece around the target workpiece to be taken out.
  • the target part is taken out by the hand part so that the hand part does not enter the intrusion prohibited area of another work. Therefore, a certain area including a part that is easily deformed or easily damaged in the work is set as an intrusion prohibited area in advance, so that when the work is taken out from the storage unit, the area around the target work It is suppressed that the quality of the other workpiece
  • the robot system further includes a storage unit that stores the transfer condition of a workpiece, and the transfer condition setting unit sets the transfer condition for a similar workpiece whose shape is similar to a target workpiece for which a transfer condition is to be newly set.
  • the transfer condition of the target workpiece is set based on the transfer condition of the similar workpiece.
  • the transfer condition setting unit sets the transfer condition based on an image of the workpiece.
  • the robot system is capable of capturing an image of a work in the storage unit before the transfer operation is performed, or a work that is taken out of the storage unit and is gripped by the hand unit. It is preferable that the conveyance condition setting unit sets the conveyance condition based on the image of the workpiece imaged by the first imaging unit.
  • this robot system it is possible to acquire image data of a workpiece in the system and to set a conveyance condition using the image data. For this reason, it is possible to set the transport conditions without separately preparing image data of the workpiece.
  • a second imaging unit that can image the workpiece at the predetermined position after the transfer operation is executed, and control information by the robot control unit when the transfer operation is executed
  • a learning unit that obtains external quality information of the workpiece based on an image captured by the second imaging unit and learns the conveyance condition based on the information
  • the conveyance condition setting unit It is preferable to initially set the transport condition and to correct the transport condition based on the learning result of the learning unit.
  • the transfer condition is initially set by the transfer condition setting unit, and the transfer condition is corrected based on the machine learning by the learning unit. Therefore, it is possible to detect the transfer condition for executing the ideal workpiece transfer operation by machine learning without initial setting of the transfer condition for executing the ideal workpiece transfer operation.
  • the robot system further includes a third imaging unit that captures an image of the workpiece in the storage unit after the transfer operation is performed, and the learning unit is configured to control the control information and the quality of the workpiece at the predetermined position.
  • the learning unit is configured to control the control information and the quality of the workpiece at the predetermined position.
  • external quality information of the work in the storage unit based on the image captured by the third imaging unit is further acquired, and the conveyance condition is learned based on the information.
  • the quality information of the workpiece in the container after taking out the workpiece is taken into account in the machine learning of the conveyance conditions. That is, it is possible to take into account the influence that the hand unit has on the work around the work to be taken out. Therefore, it is possible to detect not only the quality of the workpiece to be picked up but also the conveyance conditions that can maintain the quality of other workpieces at the time of picking up.
  • the transport condition further includes at least one of a gripping force of the workpiece by the hand unit, a conveyance speed of the workpiece, and a gripping position of the workpiece by the hand unit.
  • an ideal workpiece transfer operation is performed by machine learning while maintaining the quality of the workpiece and without dropping the workpiece during removal or during transportation. It is possible to detect the transport conditions.
  • the transport condition includes a work transport speed and a gripping position of the work by the hand unit, and the learning unit transports the transport speed as much as possible in an area other than the grip prohibition area in the work. It is preferable to learn the gripping position where the speed becomes faster.
  • this robot system it is possible to detect a conveyance condition that can convey a workpiece at a higher speed while maintaining the quality of the workpiece by machine learning.
  • the robot system when the storage unit is defined as a first storage unit, the robot system further includes a second storage unit that stores past work placement information in the storage unit and past quality information of the work in the storage unit.
  • the first imaging unit is capable of imaging the workpiece in the storage unit before the transfer operation is performed, and the transfer condition is the hand for the workpiece when the workpiece is taken out from the storage unit.
  • the learning unit includes the workpiece placement information acquired from the image data captured by the first imaging unit as the past workpiece placement information and the workpiece quality information in the storage unit. It is preferable to learn to take an approach method different from the transfer condition when the transfer operation is similar to the work arrangement information that is determined to have failed.
  • this robot system it is possible to detect a conveyance condition (approach method) capable of maintaining a higher level of work quality by machine learning, particularly when taking out a work.
  • the transfer condition setting unit obtains information on the surface state of the workpiece and sets the prohibited area based on the information on the surface state.
  • At least one imaging unit that also functions as a plurality of the imaging units.
  • the one imaging unit is provided in a movable part of the robot.
  • a common image pickup unit can be used for a work in a storage unit before a transfer operation is performed, a storage unit after a transfer operation is performed, and a workpiece at a predetermined position after the transfer operation is performed. It becomes possible to pick up images.

Abstract

ロボットシステムは、複数のワークが収容された収容部からワークを把持して取り出し、所定位置に運搬するハンド部を備えたロボットと、前記収容部からワークを取り出して前記所定位置に運搬する、ロボットの搬送動作を制御するロボット制御部と、前記搬送動作に関する条件であって、ワークのうち、前記ハンド部により把持することを禁止する把持禁止領域を少なくとも含む搬送条件を設定する搬送条件設定部とを備える。前記ロボット制御部は、前記搬送条件設定部により設定された搬送条件に基づき前記ロボットを制御する。

Description

ロボットシステム
 本発明は、複数のワークが収容された容器等から前記ワークを取り出して搬送するロボットを備えるロボットシステムに関するものである。
 複数のワークがバラ積みされた状態で収容された容器からワークを取り出すシステムとして、例えば特許文献1に開示されるように、ハンド部を備えたロボットによってワークを取り出すロボットシステムが知られている。このロボットシステムは、三次元測定装置で測定された、バラ積みされたワークの表面位置に基づいて最上位にあるワークを特定し、このワークを取り出し可能なハンド部の目標位置およびハンド部の目標姿勢を設定するとともに、当該目標位置および目標姿勢に基づきハンド部を制御するものでる。
 特許文献1に開示されるような従来のロボットシステムでは、容器からのワークの取り出しが成功した場合でも、ワークの運搬中に、ハンド部の把持部分が傷つき、或いは変形するおそれがある。そのため、ワークの品質を含めた意味で適切なワークの取り出しや運搬が行われているとは言えず、この点に改善の余地がある。
特許第5642738号公報
 本発明は、上記のような事情に鑑みてなされたものであり、その目的とするところは、複数のワークが収容された容器からより良好に品質を保ちつつワークを取り出して所定位置まで運搬することができるロボットシステムを提供することにある。
 そして、本発明の一の局面に係るロボットシステムは、複数のワークが収容された収容部から前記ワークを把持して取り出し、所定位置に運搬するハンド部を備えたロボットと、前記収容部から前記ワークを取り出して前記所定位置に運搬する、前記ロボットの搬送動作を制御するロボット制御部と、前記搬送動作に関する条件であって、前記ワークのうち、前記ハンド部により把持することを禁止する把持禁止領域を少なくとも含む搬送条件を設定する搬送条件設定部と、を備え、前記ロボット制御部は、前記搬送条件設定部により設定された搬送条件に基づき前記ロボットを制御するものである。
図1は、本発明の一実施形態に係るロボットシステムの構成を示すブロック図である。 図2は、ロボットシステムに備えられるロボットの一例を示す側面図である。 図3は、ロボットシステムの基本動作を説明するためのフローチャートである。 図4Aは、ワークの平面図である。 図4Bは、ワークの断面図(図4AのIV-IV線断面図)である。 図5は、第1容器内に収容されたワークの一例を示す平面略図である。 図6は、第1容器内に収容されたワークの一例を示す平面略図である。 図7は、第1容器内に収容されたワークの一例を示す平面略図である。 図8は、報酬表の一例を示す表図である。 図9Aは、図8の報酬表における具体的な報酬の一例を示す表図である。 図9Bは、図8の報酬表における具体的な報酬の一例を示す表図である。 図10Aは、図8の報酬表における具体的な報酬の一例を示す表図である。 図10Bは、図8の報酬表における具体的な報酬の一例を示す表図である。 図11は、搬送条件の学習動作の一例を示すフローチャートである。 図12は、搬送条件の学習動作の一例を示すフローチャート(図11の続き)である。 図13は、変形例に係るロボットシステムの構成を示す図である。 図14は、変形例に係るロボットシステムの構成を示す図である。
 以下、本発明の実施形態に係るロボットシステムについて図面に基づいて説明する。
 [ロボットシステムの全体構成]
 図1は、本発明の一実施形態に係るロボットシステム1の構成を示すブロック図である。ロボットシステム1は、ロボット2と、第1カメラ3A(第1、第3撮像部)と、第2カメラ3B(第2撮像部)と、ロボット2および各カメラ3A、3Bを制御する制御部4とを備える。このロボットシステム1は、複数のワークがバラ積みされた状態で収容された容器からワークを取り出し、所望の目的位置(所定位置)まで搬送するためのシステムである。
 図2は、ロボットシステム1に備えられるロボット2の一例を示す側面図である。ロボット2は、複数のワークWがバラ積みされた状態で収容された第1容器30(収容部)から当該ワークWを取り出して(ピッキング)、別の第2容器32に運搬するロボットである。各容器30、32は、上方側が開口した平面視矩形の有底容器である。第2容器32は内部が複数の収納エリア33に区画された皿形容器である。ロボット2は、第1容器30の開口を介してワークWを取り出し、第2容器32の開口を介して、何れかの収納エリア33内にワークWを載置する。このように第1容器30からワークWを取り出して第2容器32の各収納エリア33に運搬する場面としては、例えば機械製造の現場で、複数の部品がバラ積みされた容器から部品を取り出してキッティングトレイに配膳する場面が想定される。
 ロボット2は、ベース部21と、胴部22と、第1アーム23と、第2アーム24と、手首部25と、ハンド部26とを備えた6軸垂直多関節ロボットである。ベース部21は、床や台等に固定設置されている。胴部22は、ベース部21の上面において、鉛直方向(上下方向)に延びる第1軸2A回りに、正逆両方向に回転可能に配置される。第1アーム23は、所定の長さを有するアーム部材であり、その長手方向の一端部が水平方向に延びる第2軸2Bを介して胴部22に取り付けられている。第1アーム23は、第2軸2B回りに、正逆両方向に回転可能である。
 第2アーム24は、アームベース24aとアーム部24bとを含む。アームベース24aは、第2アーム24のベース部分であり、第2軸2Bに対して平行且つ水平方向に延びる第3軸2Cを介して、第1アーム23の長手方向他端部に取り付けられている。アームベース24aは、第3軸2C回りに、正逆両方向に回転可能である。アーム部24bは、所定の長さを有するアーム部材であり、その長手方向の一端部が第3軸2Cに対して垂直な第4軸2Dを介してアームベース24aに取り付けられている。アーム部24bは、第4軸2D回りに、正逆両方向に回転可能である。
 手首部25は、第2軸2B及び第3軸2Cに対して平行且つ水平方向に延びる第5軸2Eを介して、アーム部24bの長手方向他端部に取り付けられている。手首部25は、第5軸2E回りに、正逆両方向に回転可能である。
 ハンド部26は、ロボット2において第1容器30からワークWを取り出す部分であり、第5軸2Eに対して垂直な第6軸2Fを介して手首部25に取り付けられている。ハンド部26は、第6軸2F回りに、正逆両方向に回転可能である。ハンド部26は、第1容器30内のワークWを保持可能な構造であれば特に限定されるものではなく、例えば、ワークWを把持して保持する複数の爪部を備えた構造であってもよいし、ワークWに対して吸引力を発生する電磁石又は負圧発生装置を備えた構造であってもよい。本実施形態では、ハンド部26は、接離可能な一対の爪部を備えた構造を有し、第1容器30内のワークWを一対の爪部で把持(挟持)することによって当該ワークWを取り出す。
 ロボット2の胴部22、第1アーム23、第2アーム24(アームベース24a、アーム部24b)、手首部25及びハンド部26は、各々図外の駆動モータにより駆動されて作動する。
 なお、ロボット2の軸の数は6軸に限定されるものでなく、それ以外の軸数であってもよい。また、ロボット2は、第1容器30からワークWを取り出し可能なハンド部を備えたロボットであれば特に限定されるものではなく、例えば、垂直多関節ロボットや水平多関節ロボット、或いは双腕型の多関節ロボットを採用することができる。
 第1カメラ3Aは、第1容器30に収容されたワークWを含む画像を撮像するものであり、第1容器30の上方に配置されている。また、第1カメラ3Aは、第1容器30からのワークWの取り出しの成否を確認するために、ワークWの取り出し動作後のハンド部26を含む画像を撮像するものでもある。第2カメラ3Bは、第2容器32に収容されたワークWを含む画像を撮像するものであり、第2容器32の上方に配置されている。これら第1、第2のカメラ3A、3Bは、後記カメラ制御部41と共に三次元計測器を構成する。
 制御部4は、上記の通り、ロボット2及び各カメラ3A、3Bを統括的に制御するものである。制御部4は、カメラ制御部41、ロボット制御部42、搬送条件設定部43、記憶部44、及び学習部45を備えている。
 カメラ制御部41は、第1カメラ3Aおよび第2カメラ3Bによる撮像動作を実行させるもので、撮像制御部41aと画像処理部41bとを備えている。撮像制御部41aは、ハンド部26によるワークWの取り出しの際に、第1カメラ3Aに、第1容器30内を撮像する動作を実行させるとともに、ワークWの取り出し動作後のハンド部26を含む画像を撮像する動作を実行させる。また、撮像制御部41aは、第2容器32へ搬送されたワークWを確認する際に、第2カメラ3Bに第2容器32内を撮像する動作を実行させる。
 画像処理部41bは、各カメラ3A、3Bが撮像した画像を画像処理することによって、ワークWの三次元位置情報を含む画像データを生成する。ワークWの三次元位置情報は、例えばXYZ直交座標系を用いた座標値(X,Y,Z)で表される。
 ロボット制御部42は、搬送条件設定部43が設定する搬送条件に基づいて、ロボット2(ハンド部26)にワークWの搬送動作を実行させるものである。ロボット制御部42は、前記搬送条件に従ってワークWの搬送動作を実行するように、すなわち、ワークWの取り出し(ピッキング)動作と、当該ワークWの運搬及び載置動作(運搬動作と載置動作をまとめてプレイス動作と称する場合がある)とを実行するよう、ロボット2の前記駆動モータを制御する。また、学習部45において、ワークWの搬送動作に関する機械学習が実行される場合には、ロボット制御部42がどのようにロボット2を作動させたかに関する情報が学習部45に出力される。
 搬送条件設定部43は、ワークWに応じて、ワークWを搬送する際のロボット2の動作や、禁止すべき事項などの搬送条件を設定するものである。例えばワークWにおいてハンド部26が把持することを禁止すべき領域などについての取り決めである。この点については後に詳述する。この搬送条件は、図外の入力部を介してオペレータにより教示されたものであってもよいし、後述する機械学習の結果として取得されるものであってもよい。
 記憶部44は、搬送条件設定部43が設定した搬送条件を更新的に記憶するものである。記憶部44には、複数(種類)のワークWについて、後記基本情報と搬送条件とを対応づけたテーブルデータが記憶されている。
 学習部45は、ロボットハンド10の動作を学習する学習処理を実行するものである。機械学習によって前記搬送条件を設定する場合、学習部45は、ロボット制御部42によるロボット2の制御情報と、カメラ制御部41から入力される画像データとを、学習サイクル毎に取得する。そして、学習部45は、これらの情報から、ワークWを搬送する場合における最適なロボット2の行動パターンや搬送条件を学習させる。前記行動パターンは、例えば、ワークWのピッキング動作の際にハンド部26によりワークWのどの位置をどの程度の力で把持するか(把持力)、また、ワークWのピッキング、運搬及びプレイス動作の際にハンド部26をどの程度の速度で移動させるか(運搬速度)、などに関するロボット2の行動である。なお、後述する通り、搬送条件にはこれらの行動要素も含まれている。学習部45は、品質観測部46、報酬設定部47及び価値関数更新部48を含む。これらについては、後に詳細に説明する。
 [ワークWの搬送動作]
 図3は、ロボットシステム1の基本動作を説明するためのフローチャートである。先ず、制御部4が、ワークWの形状等の基本情報を取得する(ステップS1)。この基本情報は、ワークWの種別、形状、サイズ、表面状態等の情報であり、制御部4は、図外の入力部を介したオペレータによる入力操作、若しくは、第1カメラ3Aによる撮像結果に基づきこの基本情報を取得する。前記表面状態とは、ワークWに施された表面処理などである。
 次に、搬送条件設定部43が、前記基本情報に基づいて、ワークWの搬送条件を設定する(ステップS3)。この搬送条件は、上述の通り、図外の入力部を介してオペレータにより教示されたもの、或いは機械学習の結果として取得されたものであってもよい。
 続いて、カメラ制御部41が、第1カメラ3Aに第1容器30内を撮像させることにより、その画像データに基づきロボット制御部42が取り出し対象となるワークW(適宜、対象ワークWと称す)を特定する(ステップS5)。
 そして、ロボット制御部42がロボット2を駆動し、対象ワークWを第1容器30から取り出して第2容器32に搬送する搬送動作を実行させる(ステップS7)。ロボット制御部42は、ステップS5、S7において、搬送条件設定部43が設定した搬送条件に基づき、取り出し対象となるワークWを特定するとともに前記搬送動作を実行する。
 搬送動作が完了すると、カメラ制御部41が、第2カメラ3Bに第2容器32内を撮像させることにより、その画像データに基づきワークWの状態が認識される(ステップS9)。この際、ワークWが収納エリア33に収容されていない場合等、搬送動作が不適切と認められる場合には、ロボット制御部42は、図外の報知部を制御し、オペレータに対して異常を報知させる動作を実行させる。
 次に、ロボット制御部42が、所定数NのワークWを第1容器30から第2容器32に搬送したかを判断し(ステップS11)、搬送していない場合には、処理をステップS5に移行し、次のワークWについて搬送動作をロボット2に実行させる。一方、所定数NのワークWが第1容器30から第2容器32に搬送された場合には、ロボット制御部42は、本フローチャートを終了する。
 [搬送条件の具体例]
 図4A、4Bに基づいて、搬送条件設定部43が設定する搬送条件の具体例を説明する。図4A、4Bは、搬送条件の一例を説明するための図であり、図4AはワークWの平面図であり、図4BはワークWの断面図(図4AのIV-IV線断面図)である。
 図4Aに示すワークWは、例えば6角穴付きボルト(キャップボルト)である。このワークW(適宜ボルトWと称す)は、レンチ挿入用の孔部を備えた頭部50と、軸部52とを備える。軸部52は、先端側のネジ部52aと、頭部側の非ねじ部(円筒部52bと称する)とを含む。搬送条件設定部43は、ボルトWの品質を確保しつつボルトWをハンド部26で把持して搬送させるための搬送条件を設定する。
 具体的には、ボルトWのうち、ネジ部52aを、ハンド部26により把持することを禁止する把持禁止領域Aaに設定し、それ以外の部分を、ハンド部26により把持することを許容する把持可能領域Abに設定する。すなわち、ワークWの搬送の際にはハンド部26により把持可能領域Abを把持させるのである。これにより、ネジ部52aをハンド部26で把持することによってそのねじ山が潰れるといった不都合が防止される。
 搬送条件設定部43は、さらに把持可能領域Abのうち、円筒部52bに対応する部分を、条件付きで把持することを許容する条件付き領域Ab1に設定する。すなわち、頭部50を優先的に把持させ、所定条件が満たされた場合にのみ円筒部52bをハンド部26により把持させるのである。所定条件とは、例えば第1容器30の角部に頭部50が位置するためにハンド部26により把持できない場合などであり、この場合には、円筒部52bをハンド部26により把持させるようにする。これは、円筒部52bはネジ部52aに隣接するため、頭部50と同等に把持することを許容すると、ロボット2の作動誤差等に起因してネジ部52aの一部がハンド部26により把持されてねじ山が傷付けられることが考えらえられることによる。また、軸部52に特殊な表面処理が施されているような場合、ハンド部26により円筒部52bの表面処理が傷つけられるといった不都合を出来るだけ抑制するためでもある。
 なお、ネジ部52aは、把持禁止領域Aaであると同時に接触禁止領域Baでもある。また、頭部50及び円筒部52bは、把持可能領域Abであると同時に接触可能領域Bbでもある。すなわち、一のボルトWが搬送対象物である場合、当該一のボルトWのネジ部52aは把持禁止領域Aaであり、それ以外の部分は把持可能領域Abである。一方、送対象物である当該一のボルトW以外のボルトWについては、ネジ部52aは、ハンド部26が接触することを禁止する接触禁止領域Baであり、それ以外の部分は、ハンド部26が接触することを禁止する接触禁止領域Baである。つまり、ハンド部26によるボルトWの取り出しの際には、当該ボルトWの把持可能領域Abのうち、周辺に位置するボルトWのネジ部52a(接触禁止領域Ba)に接触しない位置をハンド部26に把持させるのである。これにより、ボルトWの取り出しの際に、取り出し対象のボルトWの周辺にあるボルトWのネジ部52aがハンド部26により傷つけられることが抑制される。従って、搬送条件設定部43は、把持禁止領域Aa及び把持可能領域Abを設定するとともに、接触禁止領域Ba及び接触禁止領域Baを設定すると言える。
 搬送条件設定部43は、さらに、円筒部52bの先端部分からネジ部52aの先端を含むボルトW周辺の一定の空間(円筒状の空間)を侵入禁止領域Bcと設定する(図4A、4B参照)。この領域Bcは、ハンド部26が侵入することを禁止する領域である。つまり、取り出し対象となるボルトWの周辺にあるボルトWのネジ部52aにハンド部26が接近することを禁止するのである。これによりネジ部52aがハンド部26によって傷つけられることがより高度に抑制される。
 上述した搬送条件に加えて、搬送条件設定部43は、複数のボルトWが重なり合っている場合には、最上位に位置するボルトWから優先的に取り出させるという搬送条件を設定する。また、搬送条件設定部43は、搬送条件として、ボルトWを確実に把持して搬送することが可能となる把持位置、把持力及び運搬速度を、当該ボルトWの形状や表面処理の状態に応じて設定する。この際、特に円筒部52b(条件付き領域Ab1)を把持する場合の把持力及び運搬速度は、それ以外の部分(頭部50)を把持する場合の把持力及び運搬速度よりも低くなるように搬送条件を設定する。
 ここで、上記搬送条件に基づいたロボット2によるボルト(ワーク)Wの取り出し動作の例について図5~図7を用いて説明する。図5~図7は、第1容器30内に収容されたボルトWを示す平面略図である。
 図5の例では、複数のボルトW1~W3は、互いに離間して配置されている。詳しくは、各ボルトW1~W3は、何れも、ハンド部26により頭部50を把持されることが可能で、かつボルトW1~W3の何れのボルトWの頭部50が把持される場合も、当該ハンド部26が他のボルトWの侵入禁止領域Bcに浸入することがないような距離を隔てて互いに離間している。従って、このような場合には、ロボット2は、ボルトW1~W3のうちの何れか一つを、その頭部50をハンド部26で把持して第1容器30から取り出す。
 図6の例では、ボルトW1、W2は互いに重なった状態で配置されている。具体的には、一方のボルトW2のネジ部52aの上に、他方のボルトW1の頭部50が重なっている。この場合、上位のボルトW1のネジ部52aをハンド部26で把持しようとすると、下位のボルトW2の侵入禁止領域Bcにハンド部26が浸入してそのネジ部52a(接触禁止領域Ba)に接触するおそれがある。従って、このような場合には、ロボット2は、ボルトW2の円筒部52b(把持可能領域Ab1)をハンド部26で把持して第1容器30から取り出す。この際、ロボット2は、搬送条件において設定された把持力であって、頭部50を把持する場合の把持力よりも低い把持力で円筒部52bを把持する。
 図7の例では、ボルトW1、W2は重なってはいないが、一方のボルトW1の頭部50及び円筒部52bが、他方のボルトW2の円筒部52b及びネジ部52aに接触している。この場合、一方のボルトW1の頭部50や円筒部52b(条件付き領域Ab1)をハンド部26で把持しようとすると、当該ハンド部26が他方のボルトW2の侵入禁止領域Bcに侵入するおそれがある。その一方で、他方のボルトW2の頭部50は、その周囲が広く開放されている。従って、このような場合には、ロボット2は、ボルトW2の頭部50をハンド部26で把持して第1容器30を取り出す。
 なお、図4A~図7は、ワークWが六角穴付きボルトである場合の把持禁止領域Aa(接触禁止領域Ba)、把持可能領域Ab、Ab1(接触可能領域Bb)及び侵入禁止領域Bcの例示である。従って、ワークWの種類やサイズが異なれば、これらの領域の位置や広さが異なることは言うまでもない。また、例えば鏡面処理等の表面処理が施されているワークWについては、搬送条件設定部43は、当該表面処理の種類や位置等に応じて把持禁止領域Aa(接触禁止領域Ba)や侵入禁止領域Bcを設定する。
 [機械学習について]
 次に、前記学習部45の構成について説明するとともに、搬送条件設定部43が、学習部45による機械学習によって搬送条件を設定する例について説明する。
 <学習部の構成>
 学習部45は、ある搬送動作が実行されたときのロボット2の制御情報と、その搬送動作が実行されたワークWの品質情報とから、ワークWを搬送する場合の最適なロボット2の行動パターン及び搬送条件を学習する。ここで、「品質情報」とは、主に搬送後のワークWの表面(外観)の状態を表す情報である。学習部34により取得された学習結果は、搬送条件設定部43が設定する搬送条件に反映される。
 なお、学習の手法としては、特に限定されるものではなく、例えば、「教師あり学習」、「教師なし学習」及び「強化学習」等を採用することができる。本実施形態では、学習部45における学習の手法として、強化学習としてのQ学習の手法が採用されている。Q学習は、ロボット2の連続的な動作を複数の状態に区分し、状態が順次移行されるときのロボット2の行動について、報酬が得られるような価値の高い行動を学習する手法である。また、学習部45が実行する強化学習としてのQ学習は、例えば、ニューラルネットワーク(Neural Network)を使用して実現することが可能である。ニューラルネットワークは、人間の脳の構造を模した構成となっており、人間の脳におけるニューロン(神経細胞)の機能を模した論理回路を多層に積層して構成されたものである。
 学習部45は、上述した通り(図1)、品質観測部46、報酬設定部47及び価値関数更新部48を含む。
 品質観測部46は、搬送前のワークWの画像データ(以下、搬送前画像データという)と、搬送後のワークWの画像データ(以下、搬送後画像データという)とを比較し、ワークWの品質を評価する(以下、ワーク品質評価という)。搬送前画像データは、対象となるワークWの三次元位置情報(X、Y、Z座標値)を含む画像データであり、このロボットシステム1とは別に事前にワークWを撮像して取得されたもの、或いは第1カメラ3Aにより第1容器30内を撮像させることにより取得されたものが用いられる。
 品質観測部46は、具体的には、搬送前後の画像データを対比し、搬送中に形成された把持痕や傷(以下、単に傷という)の有無、傷の位置、傷の大きさ等を特定し、傷の状態に基づき3段階の評価(A~C評価)を行う(図8参照)。例えば、搬送中に傷が形成されていない場合には、ワーク品質評価を「A」とし、大きい傷が形成されている場合には、ワーク品質評価を「C」とする。また、小さい傷であってもその位置がワークWのネジ部52a(把持禁止領域Aa)であるような場合には、ワーク品質評価を「C」とする。
 また、品質観測部46は、第1容器30からのワーク取り出し直後のハンド部26を含む画像データ(以下、取り出し後画像データという)に基づき、ハンド部26によるピッキング動作の良否を評価するとともに(以下、ピッキング評価という)、前記搬送後画像データに基づき、ワークWのプレイス動作の良否を評価する(以下、プレイス評価という)。取り出し後画像データとしては、ハンド部26によるワークWの取り出し動作後、第1カメラ3Aによりハンド部26を含む領域を撮像させることにより取得されたものが用いられる。
 品質観測部46は、具体的には、取り出し後画像データに基づき、ハンド部26によるワークWの把持位置や把持姿勢を特定し、ピッキング評価として3段階の評価(A~C評価)を行う(図8参照)。例えば、ハンド部26が把持可能領域AbのみでワークWを適切に把持している場合には、ピンキング評価を「A」とし、ハンド部26が把持禁止領域Aaに侵入した状態でワークWを把持しているような場合には、その侵入度合に応じてピッキング評価を「B」又は「C」とする。
 また、品質観測部46は、搬送後画像データに基づき、搬送後のワークWの位置や姿勢を特定し、プレイス評価として3段階の評価(A~C評価)を行う(図8参照)。例えば、品質観測部46は、第2容器32の収納エリア33内に定められた姿勢で載置されている場合には、プレイス評価を「A」とし、ワークWが定められた姿勢とは異なる姿勢で配置され、或いは収納エリア33からはみ出している場合等には、プレイス評価を「B」又は「C」とする。
 なお、当実施形態では、品質観測部46は、ピッキング評価、プレイス評価、ワーク品質評価として各々3段階の評価を行うが、各評価は3段階に限定されるものではない。
 報酬設定部47は、ロボット2が実行した搬送動作(行動パターン)と、その行動パターンによって搬送されたワークWの品質とを関連付けて、当該行動パターンに対して報酬Rを与える処理を実行する。具体的には報酬設定部47は、ロボット制御部42から、あるワークWの搬送の際にロボット2に実行させた行動パターンの制御データを取得する。また、報酬設定部47は、当該行動パターンによって搬送されたワークWについて品質観測部46が導出した評価結果のデータを取得する。前記行動パターンの制御データと、前記評価結果のデータとに基づいて、当該行動パターンに対して報酬Rが与えられる。詳しくは、当該行動パターンを構成する行動要素毎に報酬Rが与えられる。行動要素には「把持位置」、「把持力」及び「運搬速度」が含まれる。「把持位置」は、ハンド部26がワークWを把持する際の当該ワークWに対するハンド部26の位置であり、「把持力」は、ハンド部26がワークWを把持する際の力の大きさであり、「運搬速度」は、取り出されたワークWを運搬する際のハンド部26の移動速度である。これらの行動要素は、上述した通り搬送条件でもある。
 報酬Rは、ピッキング評価、プレイス評価、及びワーク品質評価が高いほど、大きい値が付与されるように設定されている。当例では、報酬Rは、例えば図8に示す報酬表に基づいて与えられる。ピッキング評価、プレイス評価、及びワーク品質評価は、上述の通り各々3段階の評価(A評価~C評価)とされ、報酬表は、ピッキング評価及びプレイス評価を縦項目、ワーク品質評価を横項目としたマトリクス表で規定されている。つまり、ピッキング評価及びプレイス評価と、ワーク品質評価との組合せで報酬Rが決定される。
 より詳しくは、図8に示すように、ピッキング評価と、ワーク品質評価との組み合わせにより、ハンド部26によるピッキング動作におけるロボット2の行動パターンに対する報酬(Ra11~Ra33)が決定され、プレイス評価と、ワークWの品質の評価との組み合わせにより、プレイス動作におけるロボット2の行動パターンに対する報酬(Rb11~Rb33)が決定される。
 ピッキング動作の行動パターンに対する報酬(Ra11~Ra33)は、例えば図9A、9Bに示すように、当該行動パターンを構成する行動要素毎、すなわち「把持力」及び「把持位置」の各々について設定されている。図9Aは、ピッキング評価及びワーク品質評価が共にA評価の場合の各行動要素の報酬Rの例示であり、図9Bは、ピッキング評価がA評価で、ワーク品質評価がC評価の場合の各行動要素の報酬Rの例示である。
 プレイス動作の行動パターンに対する報酬(Rb11~Rb33)は、例えば図10A、10Bに示すように、当該行動パターンを構成する行動要素毎、すなわち「把持力」、「把持位置」及び「搬送速度」の各々について設定されている。図10Aは、プレイス評価及びワーク品質評価が共にA評価の場合の各行動要素の報酬Rの例示であり、図10Bは、プレイス評価がA評価で、ワーク品質評価がC評価の場合の各行動要素の報酬Rの例示である。
 各行動要素の報酬Rは、上記の通り、ピッキング評価、プレイス評価、及びワーク品質評価が高いほど、大きい値が付与されるように設定されているが、さらに、ワークWの運搬速度が速いほど、大きい値が付与されるように設定されている。これにより、学習部45は、可及的に運搬速度が速くなるような、ロボット2の搬送動作の行動パターンを学習するようになっている。
 価値関数更新部48は、ロボット2の行動パターンの価値Q(s,a)を規定する価値関数を、報酬設定部47により設定された報酬Rに応じて更新する。価値関数更新部48は、下記式(1)で示される価値Q(s,a)の更新式を用いて価値関数を更新する。
Figure JPOXMLDOC01-appb-M000001
 上記式(1)において、「s」は、ロボット2の状態を表し、「a」は、行動パターンに従ったロボット2の行動を表す。行動「a」によってロボット2の状態が、状態「s」から状態「s’」へ移行する。R(s,a)は、その状態の移行により得られた報酬Rを表している。「max」が付された項は、状態「s’」において最も価値の高い行動「a’」を選択した場合の価値Q(s’,a’)に「γ」を乗算したものになる。「γ」は、減衰率と呼ばれるパラメータであり、0<γ≦1の範囲(例えば0.9)とされる。また、「α」は、学習率と呼ばれるパラメータであり、0<α≦1の範囲(例えば0.1)とされる。
 上記式(1)は、行動「a」に対して報酬設定部47により設定された報酬R(s,a)に基づいて、状態「s」における行動「a」の価値Q(s,a)を更新する更新式を表している。すなわち、上記式(1)は、状態「s」における行動「a」の価値Q(s,a)よりも、状態「s’」における行動「a’」の価値Q(s’,a’)と報酬R(s,a)との合計値の方が大きければ、価値Q(s,a)を大きくし、反対に小さければ、価値Q(s,a)を小さくすることを示している。つまり、価値関数更新部48は、上記式(1)で示される更新式を用いて価値関数を更新することによって、或る状態「s」における或る行動「a」の価値Q(s,a)を、その行動「a」に対して設定される報酬Rと、その行動「a」による次の状態「s’」における最良の行動「a’」の価値Q(s’,a’)に近付けるようにしている。
 <機械学習処理>
 図11及び図12は、搬送条件の学習動作の一例を示すフローチャートである。先ず、制御部4の搬送条件設定部43が、対象ワークWに関する搬送条件のデータが既に記憶部44に格納されているか否かを判定する(ステップS21)。格納されている場合、搬送条件設定部43は、格納されている既存のデータを搬送条件として初期設定する(ステップS51)。このようなケースとしては、以前の学習により得られた対象ワークWの既存の搬送条件を学習し直す場合や、元々制御部44に記憶されている搬送条件のデフォルトデータを利用して初期設定し学習を行う場合等が想定される。
 既存のデータが記憶部44に格納されていない場合(ステップS21でNo)、搬送条件設定部43は、類似ワークに関する搬送条件のデータが記憶部44に格納されているか否かを判定する(ステップS23)。格納されている場合、搬送条件設定部43は、類似ワークWに関する搬送条件のデータに基づき、対象ワークWの搬送条件を初期設定する。類似ワークWとは、対象ワークWと形状が共通するワークWである。搬送条件設定部43は、対象ワークの上記基本情報と、記憶部44に格納されているワークWの基本情報とを対比し、双方の形状について予め設定された共通点を満たすワークWを類似ワークWと特定し、当該類似ワークの搬送条件に基づき、対象ワークWの搬送条件を推定する。例えば対象ワークWが、上述した六角穴付きボルトである場合には、当該ボルトと長さが異なるボルト、或いは径が異なるボルトなどが類似ワークとされる。このロボットシステム1では、このように類似ワークWの既存の搬送条件を利用して、対象ワークWの搬送条件が初期設定されるので、一から搬送条件をプログラミングするといった手間が省けるのである。
 類似ワークに関する搬送条件のデータが記憶部44に格納されていない場合(ステップS23でNo)、搬送条件設定部43は、対象ワークWの画像データを取得し(ステップS51)、その画像データに基づき、対象ワークWの搬送条件を初期設定する(ステップS55)。例えば搬送条件設定部43は、画像データ(三次元位置情報を含む画像データ)の点群密度等からワークWの形状を特定し、その形状に基づき把持禁止領域Aa、接触可能領域Bb及び侵入禁止領域Bcを推測するとともに、ハンド部26による当該ワークWの「把持位置」、「把持力」、「運搬速度」を推測する。これにより搬送条件を初期設定する。なお、画像データは、図外の入力部を介してオペレータにより事前に与えられている場合には当該画像データが用いられ、与えられていない場合には、カメラ制御部41を介して第1容器30a内部を第1カメラ3Aに撮像させることにより取得される。
 このようにステップS25、S51、S55の何れかの処理により対象ワークWの搬送条件が初期設定される。すなわち、対象ワークWの把持禁止領域Aa(接触禁止領域Ba)、把持可能領域Ab(接触可能領域Bb)及び侵入禁止領域Bcが決定されるとともに、ハンド部26による当該ワークWの「把持位置」、「把持力」、「運搬速度」が決定される。以上のステップS21~S25、S51~S55の処理が、学習処理に際しての事前準備であり、ステップS25、S51、S55で初期設定された搬送条件が、ステップS27以降の学習処理による学習結果に応じて修正されるのである。
 学習処理では、先ず、第1カメラ3Aにより第1容器30内の画像データが取得され、画像処理部41bの物体認識処理によりワークWの三次元位置情報が取得される(ステップS27)。これにより、これから取り出されるワークWの、前記第1容器30a内における位置情報(座標値)が取得され、この位置情報がロボット制御部42に与えられる。なお、学習部45の品質観測部46は、このようなワークWの三次元位置情報を含む画像データを、カメラ制御部41から上述の搬送前画像データとして取得する。
 ロボット制御部42は、搬送条件設定部43が設定した搬送条件及び前記物体認識により取得されたワークWの位置情報に基づきロボット2を動作させ、また、各禁止領域Aa、Bb、Bc等の搬送条件を加味して第1容器30からワークWを取り出させる(ステップS29)。ワそして、カメラ制御部41が、ロボット2のハンド部26に把持されたワークWを第1カメラ3Aにより撮像させ、その画像データに基づき、制御部4がハンド部16にワークWが把持されているか否かを判定する(ステップS31、S33)。なお、学習部45の品質観測部46は、このようにワークWが把持された画像データを、カメラ制御部41から上述の取り出し後画像データとして取得する。
 ワークWが把持されている場合(ステップS33でYes)、ロボット制御部42は、ロボット2を駆動させて、取り出したワークWを第2容器32まで運搬させると共に、所定のXYZ位置でワークWをリリース(把持解除)させる(ステップS35)。これにより、第1容器30から第2容器32へのワークWの搬送が完了する。
 ワークWの搬送が完了すると、第2カメラ3Bにより第2容器32内の画像データが取得され、画像処理部41bの物体認識処理によりワークWの三次元位置情報を含む画像データが取得される(ステップS37)。学習部45の品質観測部46は、このようなワークWの三次元位置情報を含む画像データを、カメラ制御部41から上述の搬送後画像データとして取得する。なお、ワークWが把持されていない場合には(ステップS33でNo)、後記ステップS41に移行される。
 次に、品質観測部46は、ステップS31で取得した取り出し後画像データに基づき、上述のピッキング評価を行うとともに、ステップS37で取得した搬送後画像データに基づき、上述のプレイス評価を行い、さらに、ステップS37で取得した搬送後画像データと、ステップS27で取得した搬送前画像データとを比較することにより、上述のワーク品質評価を行う(ステップS39)。
 続いて、報酬設定部47が、ピッキング動作の成否及び品質観測部46の評価結果に基づき、今回のロボット2の行動パターンに基づき報酬Rを与える。報酬Rは、上述の図8の報酬表に基づき決定される。その場合、ピッキング動作の行動パターンに対する報酬(Ra11~Ra33)は、当該行動パターンを構成する行動要素毎に与えられる。具体的には、図9A、9Bを参照して、ピッキング評価及びワーク品質評価が共にA評価の場合には、報酬設定部47は、当該行動パターンの「把持力」及び「把持位置」に対して報酬「100」を与える。また、ピッキング評価がA評価で、ワーク品質評価がC評価の場合には、報酬設定部47は、当該行動パターンの「把持力」に対して報酬「0;ゼロ」を与え、「把持位置」に対して報酬「60」を与える。
 同様に、プレイス動作の行動パターンに対する報酬(Rb11~Rb33)は、当該行動パターンを構成する行動要素毎に与えられる。具体的には、図10A、図10Bを参照して、プレイス評価及びワーク品質評価が共にA評価の場合には、報酬設定部47は、当該行動パターンの「把持力」、「運搬速度」及び「把持位置」に対してそれぞれ報酬「100」を与える。また、プレイス評価がA評価で、ワーク品質評価がC評価の場合には、報酬設定部47は、当該行動パターンの「把持力」及び「運搬速度」に対してそれぞれ報酬「0」を与え、「把持位置」に対して報酬「60」を与える。
 なお、ステップS33において、ワークWが把持されていない場合には、図8の報酬表に拘わらず、報酬設定部47は、ピッキング動作の行動パターンの「把持力」及び「把持位置」に対して各々報酬「0」を与え、プレイス動作の行動パターン「把持力」、「運搬速度」及び「把持位置」に対して各々報酬「0」の報酬を与える。
 その後、価値関数更新部48が、ロボット2の行動パターンの価値Q(s,a)を規定する価値関数を、上記式(1)の更新式を用いて更新する(ステップS43)。詳しくは、ピッキング動作の行動パターンの各行動要素の価値Q(s,a)を規定する価値関数を、ピッキング動作の行動パターンの各行動要素に対する報酬(Ra11~Ra33)に基づき更新するとともに、プレイス動作の行動パターンの各行動要素の価値Q(s,a)を規定する価値関数を、プレイス動作の行動パターンの各行動要素に対する報酬(Rb11~Rb33)に基づき更新する。
 上記のステップS27~S43で示される各処理が、学習部45による学習処理の1サイクルにおいて実行される処理である。学習部45は、学習回数が所定回数Nに達したか否かを判定する(ステップS45)。所定回数Nに達していない場合は(ステップS45でNo)、学習部45は、ステップS27に処理を移行し、第1容器30からの次のワークWの取り出しを実行させ、学習処理を繰り返す。一方、所定回数Nに達した場合は(ステップS45でYes)、学習部34が学習処理を終了し、搬送条件設定部43が学習結果、すなわち最終的に得られた搬送条件のデータを記憶部44に格納し(ステップS47)、本フローチャートを終了する。この場合、対象ワークWの搬送条件のデータが記憶部44に格納されていない場合には、搬送条件設定部43は、初期設定された搬送条件を学習結果に基づき修正した上で、当該搬送条件を対象ワークWの上記基本情報と共に記憶部44に新規に格納し、対象ワークWの搬送条件のデータが記憶部44に既に格納されている場合には、既存のデータを、修正後の搬送条件のデータによって上書きする。
 <学習による作用効果>
 以上のように、学習部45による学習処理が実行されることにより、より理想的なワークの搬送動作が実行されるような搬送条件が探知されて、ステップS49、S25、S55で初期設定された搬送条件が、搬送条件設定部43により修正されることとなる。例えば、初期設定された「把持位置」では、ハンド部26がワークWの取り出しに繰り返し失敗し、高いピキング評価やプレイス評価が得られないような場合には、学習処理によって、より高いピキング評価が得られる「把持位置」が探知されることとなる。この場合、搬送条件設定部43は、初期設定された「把持位置」が把持禁止領域Aaに含まれるように、例えば、初期設定された「把持禁止領域Aa」を拡大修正する。これにより、ワークWの取り出しに失敗し難い、より理想的な搬送条件が設定されることとなる。
 また、上述の通り、価値関数更新部48は、ワークWの運搬速度が速いほど大きい値の報酬Rを付与する。つまり、学習部45は、可及的に運搬速度が速くなるような把持力や把持位置を把持可能領域Ab内において学習することとなる。従って、第1容器30から第2容器32へ、より速やかにワークWを搬送し得るような搬送条件が設定されることとなる。例えば、ある学習サイクルにおいて、プレイス動作の行動パターンの行動要素である「把持力」及び「運搬速度」が各々最大値に設定されていたが、ワークWに強い把持痕が見られワーク品質評価が低かった場合には、学習部45は、次の学習サイクルでは、前回よりも「把持力」を低く設定する。その結果、ワークWの把持痕は見られなくなったが、例えば第2容器32内でワークWの位置ずれが発生しているような場合、つまり「把持力」との関係で「運搬速度」が速すぎた場合には、学習部45は、さらに次の学習サイクルでは「運搬速度」を前回よりも低く設定する。ここでは、「把持力」と「運搬速度」との関係について述べたが、学習部45は、「把持位置」についても同様に学習する。その結果、学習部45は、ワークWを適切に搬送できる範囲内で、可及的に運搬速度が速くなるような把持力及び把持位置を把持可能領域Ab内において学習することとなる。
 [変形例等]
 上述したロボットシステム1は、本発明に係るロボットシステムの好ましい実施形態の例示であり、その具体的な構成は、本発明の要旨を逸脱しない範囲で変更が可能である。例えば、以下のような態様を採ることもできる。
 (1)ロボット2は、ワークWを把持するためのハンド部26のツール(実施形態では一対の爪部)を複数のツールの中から選択的に自動交換できるものであってもよい。この場合には、搬送条件設定部43が、搬送条件として何れのツールを使用するかを設定し、学習部45による機械学習に基づき最適なツールを学習するようにすることができる。このような構成によれば、最適なツールによりワークWの搬送動作が実行されることにより、当該ワークWの品質をより高度に確保しつつ当該ワークWを搬送することが可能となる。
 (2)上記実施形態では、搬送条件設定部43は、ワークWの既存データ、類似ワークWの既存データ、および第1カメラ3Aを介して取得したワークWの画像データの何れかに基づき搬送条件の初期設定を行う(図11のステップS49、S25、S55)。しかし、それ以外の情報に基づき搬送条件を設定するようにしてもよい。例えば図外の入力部を介してワークWの上記基本情報がオペレータによって教示されて制御部40に記憶されている場合など、搬送条件設定部43が当該基本情報を取得可能な場合には、当該基本情報に基づき搬送条件を設定するようにしてもよい。特に、前記基本情報のうち、ワークWに施された表面処理等の表面状態に関する情報は、画像データから認識し難い。そのため、当該表面状態に関する情報は事前に制御部40に記憶され、搬送条件設定部43が当該表面状態に関する情報に基づき把持禁止領域Aa(接触禁止領域Ba)や侵入禁止領域Bcを設定する。
 (3)上記実施形態では、ピッキング動作およびプレイス動作の各行動パターンに対する報酬(Ra11~Ra33)は、当該行動パターンを構成する行動要素毎に与えられる。しかし、各行動パターンに対する報酬(Ra11~Ra33)は、当該行動パターンを構成する行動要素毎の報酬を合計したものとしてもよい。具体的には、図9A、9Bを参照して、ピッキング評価及びワーク品質評価が共にA評価の場合には、報酬設定部47は当該行動パターンに対して報酬「200」を与え、ピッキング評価がA評価で、ワーク品質評価がC評価の場合には、報酬設定部47は当該行動パターンに対して報酬「60」を与えるようにしてもよい。同様に、プレイス動作の行動パターンに対する報酬(Rb11~Rb33)は、当該行動パターンを構成する行動要素毎の報酬を合計したものとしてもよい。具体的には、図10A、図10Bを参照して、プレイス評価及びワーク品質評価が共にA評価の場合には、報酬設定部47は報酬「300」を与え、プレイス評価がA評価で、ワーク品質評価がC評価の場合には、報酬設定部47は報酬「60」を与えるようにしてもよい。
 (4)上記実施形態では、搬送条件の初期設定のためにワークWの画像データを取得する撮像部として、すなわち本発明の第1撮像部として、第1容器30の上方に配置(固定)された第1カメラ3Aが適用されている。しかし、図14に示すように、第1撮像部として、ハンド部26などロボット2の可動部分にカメラ3Cを設け、当該カメラ3Cで搬送動作が実行される前の第1容器30内のワークWを撮像するようにしてもよい。また、図14に示すように、第1撮像部として、第1容器30と第2容器32との間の位置に上向きにカメラ3Dを配置(固定)し、第1容器30から取り出されて、ハンド部26により把持された状態のワークWをこのカメラ3Dで撮像するようにしてもよい。
 また、上記実施形態では、第2容器32への搬送後のワークWを撮像する撮像部、すなわち本発明の第2撮像部として、第2容器32の上方に配置(固定)された第2カメラ3Bが適用されている。しかし、第2撮像部として、図14に示したようなカメラ3Cで、搬送動作が実行された後の第2容器32内のワークWを撮像するようにしてもよい。
 (5)ハンド部26によるワーク取り出し後の第1容器30内を第1カメラ3A(第3撮像部)で撮像し、上記取り出し後画像データに加え(又は取り出し後画像データとは別に)、当該画像データ(他ワーク画像データという)に基づき、ハンド部26によるピッキング動作の良否を評価するようにしてもよい。つまり、対象となるワークWをハンド部26が取り出す際に、当該対象ワークWの周辺にある他のワークに与える影響を加味するようにしてもよい。この場合には、第1カメラ3Aにより第1容器30内を撮像させることにより取得された上記搬送前画像データと、他ワーク画像データとに基づき、品質観測部46が、ハンド部26による他のワークWへの影響、具体的には、他のワークWの変位や、当該他のワークWに形成された傷等を特定してピッキング評価を行うようにする。このような構成によれば、取り出し対象となるワークWの品質のみならず、当該取り出しの際の他のワークWの品質をも保ち得るような搬送条件を探知させることが可能となる。
 この構成では、ハンド部26によるワーク取り出し後の第1容器30内を撮像する撮像部、すなわち本発明の第3撮像部として、第1容器30の上方に配置(固定)された第1カメラ3Aが適用されている。第1カメラ3Aが本発明の第1撮像部と第3撮像部との機能を兼ねている。しかし、第3撮像部として、図14に示すようなカメラ3Cで第1容器30内のワークWを撮像するようにしてもよい。この場合、カメラ3Cは、本発明の第1撮像部と第3撮像部との機能を兼ねるものであってもよい。
 この変形例(4)においては、さらに、搬送条件設定部43が、搬送条件として、第1容器30からワークWを取り出す際の当該ワークWに対するハンド部26の接近・離間等のアプローチ方法を設定するようにし、記憶部44が、他ワーク画像データとピッキング動作の成否及びピッキング評価と(以下、ピッキング動作結果という)を記憶し、学習部45が、第1カメラ3Aが撮像する第1容器30内の画像(取り出し対象となる対象ワークWを含む画像)と、過去のピッキング動作結果とに基づき最適なアプローチ方法を学習させるようにしてもよい。アプローチ方法とは、取り出し対象である対象ワークWに対してハンド部26を接近・離間等させる際の移動速度や、XYZ直交座標系で特定される移動方向などである。つまり、第1カメラ3Aが撮像した画像データが、記憶部44に格納された過去のピッキング動作結果の画像データであってかつ搬送動作に失敗したと認定される画像データと類似する場合に、前記アプローチ方法を変更するようにしてもよい。搬送動作に失敗したとは、例えばピッキング動作に失敗した場合(ワークWを把持できなかった場合や取り出し中にワークWを脱落させた場合等、図11のステップS33の処理でNoと判定されるような場合)や、ピッキング評価について低評価(C評価)とされるような場合が考えられる。このような構成によれば、ワークWの取り出しの際に、他のワークWの品質をより高度に保ち得るようなアプローチ方法を探知させることが可能となる。なお、この構成では、記憶部44が本発明の第1、第2記憶部として機能し、第1カメラ3Aが本発明の第1、第3撮像部として機能する。第1、第3撮像部は、第1カメラ3Aに限らず、図14に示すようなカメラ3Cであってもよい。また、当例では、本発明に係る「ワーク配置情報」として画像データが用いられているが、ワーク配置情報は、画像データに限定されるものではなく、第1容器30内の各ワークWの配置を特定できる情報であれば画像データ以外の情報であってもよい。例えば、ワーク配置情報は、第1容器30内の各ワークWの三次元位置情報であってもよい。つまり、第1カメラ3Aが撮像した画像データから取得される各ワークWの三次元位置情報が、記憶部44に格納された過去の各ワークWの三次元位置情報であってかつ搬送動作に失敗したと認定される各ワークWの三次元位置情報と類似する場合に、前記アプローチ方法を変更するようにしてもよい。勿論、三次元位置情報の代わりに、二次元位置情報をワーク配置情報として用いてもよい。
 (6)上記実施形態のロボットシステム1では、前記搬送後画像データを取得するための撮像部として専用の撮像部(第2カメラ3B)が備えられている。しかし、例えば図13に示すように、ロボットシステム1が、ワーク収納後の第2容器32を撮像する三次元測定装置5aを具備する検査装置5を含む場合には、前記搬送後画像データを取得するための撮像部として当該検査装置5(三次元測定装置5a)を兼用し、当該検査装置から前記搬送後画像データを取得するようにしてもよい。
 [上記実施形態に包含される発明]
 上述した実施形態には、以下の構成を有する発明が主に含まれる。
 本発明の一の局面に係るロボットシステムは、複数のワークが収容された収容部から前記ワークを把持して取り出し、所定位置に運搬するハンド部を備えたロボットと、前記収容部から前記ワークを取り出して前記所定位置に運搬する、前記ロボットの搬送動作を制御するロボット制御部と、前記搬送動作に関する条件であって、前記ワークのうち、前記ハンド部により把持することを禁止する把持禁止領域を少なくとも含む搬送条件を設定する搬送条件設定部と、を備え、前記ロボット制御部は、前記搬送条件設定部により設定された搬送条件に基づき前記ロボットを制御するものである。
 このロボットシステムによれば、ワークに応じて、ハンド部により把持することを禁止する把持禁止領域が設定される。つまり、ハンド部によるワークの搬送動作に際しては、把持禁止領域以外の部分がハンド部により把持されることとなる。従って、ワークのうち形状的に変形し易い部分や傷つき易い部分が予め把持禁止領域として設定されることで、ワークの搬送の際に、当該ワークの品質が損なわれることが抑制される。
 このロボットシステムにおいて、前記搬送条件設定部は、前記把持禁止領域に加えて、前記ワーク周辺の空間であって前記ワークに対して前記ハンド部が接近することを禁止する侵入禁止領域を少なくとも含む前記搬送条件を設定するのが好適である。
 このロボットシステムによれば、ハンド部によるワークの取り出しの際に、取り出し対象となる対象ワークの周辺にある他のワークの侵入禁止領域にハンド部が侵入することが禁止される。換言すれば、他のワークの侵入禁止領域にハンド部が侵入しないように、ハンド部による対象ワークの取り出しが行われることとなる。従って、ワークのうち形状的に変形し易い部分や傷つき易い部分を含む一定の領域が予め侵入禁止領域として設定されることで、収容部からのワークの取り出しの際に、対象となるワークの周辺にある他のワークの品質が損なわれることが抑制される。
 前記ロボットシステムにおいては、ワークの前記搬送条件を記憶する記憶部をさらに備え、前記搬送条件設定部は、新たに搬送条件を設定すべき対象ワークと形状が類似する類似ワークについてその搬送条件が前記記憶部に既に記憶されている場合に、当該類似ワークの搬送条件に基づき前記対象ワークの搬送条件を設定するものであるのが好適である。
 このロボットシステムによれば、類似ワークの既存の搬送条件を利用して、対象ワークの搬送条件が設定されるので、ワーク毎に一から搬送条件をプログラミングするといった手間が省ける。
 前記一の局面に係るロボットシステムにおいて、前記搬送条件設定部は、前記ワークの画像に基づき前記搬送条件を設定するのが好適である。
 このロボットシステムによれば、ワークの画像データから前記搬送条件が設定されるので、ワークの形状を特定する個々の数値等のデータを入力しながら搬送条件をプログラミングするといった手間が省ける。
 この場合、前記ロボットシステムは、前記搬送動作が実行される前の前記収容部内のワーク、又は前記収容部から取り出された、前記ハンド部により把持された状態のワークを撮像可能な第1撮像部をさらに備え、前記搬送条件設定部は、前記第1撮像部が撮像した前記ワークの画像に基づき前記搬送条件を設定するのが好適である。
 このロボットシステムによれば、当該システムにおいてワークの画像データを取得し、その画像データを用いて搬送条件を設定することができる。そのため、別途、ワークの画像データを準備すること無く、搬送条件を設定することが可能となる。
 なお、上記各ロボットシステムにおいては、前記搬送動作が実行された後の前記所定位置のワークを撮像可能な第2撮像部と、前記搬送動作が実行されたときの前記ロボット制御部による制御情報と、前記第2撮像部が撮像した画像に基づく前記ワークの外観的な品質情報とを取得して、これらの情報に基づき前記搬送条件を学習する学習部と、をさらに備え、前記搬送条件設定部は、前記搬送条件を初期設定するとともに、前記学習部の学習結果に基づき前記搬送条件を修正するのが好適である。
 このロボットシステムによれば、搬送条件設定部により搬送条件が初期設定され、当該搬送条件が、学習部による機械学習に基づき修正される。従って、理想的なワークの搬送動作が実行される搬送条件を初期設定せずとも、機械学習によって、理想的なワークの搬送動作が実行される搬送条件を探知させることが可能となる。
 このロボットシステムにおいては、前記搬送動作が実行された後の前記収容部内のワークを撮像可能な撮像する第3撮像部をさらに備え、前記学習部は、前記制御情報及び前記所定位置におけるワークの品質情報に加え、前記第3撮像部が撮像した画像に基づく前記収容部内のワークの外観的な品質情報をさらに取得し、これらの情報に基づき前記搬送条件を学習するのが好適である。
 このロボットシステムによれば、搬送条件の機械学習において、ワーク取り出し後の収容部内のワークの品質情報が加味される。つまり、ハンド部が取り出し対象となるワークの周辺にあるワークに与える影響を加味することが可能となる。そのため、取り出し対象となるワークの品質のみならず、当該取り出しの際の他のワークの品質をも保ち得るような搬送条件を探知させることが可能となる。
 上記ロボットシステムにおいて、前記搬送条件は、前記ハンド部によるワークの把持力、ワークの運搬速度及び前記ハンド部によるワークの把持位置の少なくとも一つをさらに含むのが好適である。
 このロボットシステムによれば、機械学習によって、ワークの品質を保ちつつ、当該ワークの取り出しの際、或いは運搬途中に当該ワークを脱落させるような事がない、理想的なワークの搬送動作が実行される搬送条件を探知させることが可能となる。
 このロボットシステムにおいては、前記搬送条件は、ワークの運搬速度及び前記ハンド部によるワークの把持位置を含み、前記学習部は、前記ワークにおける前記把持禁止領域以外の領域内において可及的に運搬速度が速くなる前記把持位置を学習するのが好適である。
 このロボットシステムによれば、機械学習により、ワークの品質を保ちつつ、より高速でワークを運搬できるような搬送条件を探知させることが可能となる。
 上記ロボットシステムにおいて、前記記憶部を第1記憶部と定義したときに、過去の前記収容部内のワーク配置情報及び過去の前記収納部内のワークの品質情報とを記憶する第2記憶部をさらに含み、前記第1撮像部は、前記搬送動作が実行される前の前記収容部内のワークを撮像可能なものであり、前記搬送条件は、前記収容部から前記ワークを取り出す際の当該ワークに対する前記ハンド部のアプローチ方法を含み、前記学習部は、前記第1撮像部が撮像した画像データから取得されるワーク配置情報が、前記過去のワーク配置情報であってかつ前記収容部内のワークの品質情報に基づき搬送動作に失敗したと認定されたワーク配置情報と類似する場合に、前記搬送条件とは異なるアプローチ方法をとるように学習するのが好適である。
 このロボットシステムによれば、機械学習により、特にワーク取り出しの際に、より高度にワークの品質を保ち得るような搬送条件(アプローチ方法)を探知させることが可能となる。
 上記ロボットシステムにおいて、前記搬送条件設定部は、ワークの表面状態に関する情報を取得し、当該表面状態に関する情報に基づき前記禁止領域を設定するのが好適である。
 このロボットシステムによれば、ワークの表面処理などの表面状態を加味した、より最適な搬送条件を探知させることが可能となる。
 なお、上記のロボットシステムにおいては、複数の前記撮像部の機能を兼用する少なくとも1つの撮像部を備えているのが好適である。
 このロボットシステムによれば、複数の撮像部の一部を兼用してワークを撮像する合理的な構成が達成される。
 この場合、前記1つの撮像部は、前記ロボットの可動部分に設けられているのが好適である。
 このロボットシステムによれば、搬送動作が実行される前の収容部内、搬送動作が実行された後の収容部内、および搬送動作が実行された後の所定位置に有るワークを共通の撮像部で良好に撮像することが可能となる。

Claims (13)

  1.  複数のワークが収容された収容部から前記ワークを把持して取り出し、所定位置に運搬するハンド部を備えたロボットと、
     前記収容部から前記ワークを取り出して前記所定位置に運搬する、前記ロボットの搬送動作を制御するロボット制御部と、
     前記搬送動作に関する条件であって、前記ワークのうち、前記ハンド部により把持することを禁止する把持禁止領域を少なくとも含む搬送条件を設定する搬送条件設定部と、を備え、
     前記ロボット制御部は、前記搬送条件設定部により設定された搬送条件に基づき前記ロボットを制御する、ロボットシステム。
  2.  請求項1に記載のロボットシステムにおいて、
     前記搬送条件設定部は、前記把持禁止領域に加えて、前記ワーク周辺の空間であって前記ワークに対して前記ハンド部が接近することを禁止する侵入禁止領域を少なくとも含む前記搬送条件を設定する、ロボットシステム。
  3.  請求項1又は2に記載のロボットシステムにおいて、
     ワークの前記搬送条件を記憶する記憶部をさらに備え、
     前記搬送条件設定部は、新たに搬送条件を設定すべき対象ワークと形状が類似する類似ワークについてその搬送条件が前記記憶部に既に記憶されている場合に、当該類似ワークの搬送条件に基づき前記対象ワークの搬送条件を設定する、ロボットシステム。
  4.  請求項1又は2に記載のロボットシステムにおいて、
     前記搬送条件設定部は、前記ワークの画像に基づき前記搬送条件を設定する、ロボットシステム。
  5.  請求項4に記載のロボットシステムにおいて、
     前記搬送動作が実行される前の前記収容部内のワーク、又は前記収容部から取り出された、前記ハンド部により把持された状態のワークを撮像可能な第1撮像部をさらに備え、
     前記搬送条件設定部は、前記第1撮像部が撮像した前記ワークの画像に基づき前記搬送条件を設定する、ロボットシステム。
  6.  請求項1乃至5の何れか一項に記載のロボットステムにおいて、
     前記搬送動作が実行された後の前記所定位置のワークを撮像可能な第2撮像部と、
     前記搬送動作が実行されたときの前記ロボット制御部による制御情報と、前記第2撮像部が撮像した画像に基づく前記ワークの外観的な品質情報とを取得して、これらの情報に基づき前記搬送条件を学習する学習部と、をさらに備え、
     前記搬送条件設定部は、前記搬送条件を初期設定するとともに、前記学習部の学習結果に基づき前記搬送条件を修正する、ロボットシステム。
  7.  請求項6に記載のロボットシステムにおいて、
     前記搬送動作が実行された後の前記収容部内のワークを撮像可能な第3撮像部をさらに備え、
     前記学習部は、前記制御情報及び前記所定位置におけるワークの品質情報に加え、前記第3撮像部が撮像した画像に基づく前記収容部内のワークの外観的な品質情報をさらに取得し、これらの情報に基づき前記搬送条件を学習する、ロボットシステム。
  8.  請求項6又は7に記載のロボットシステムにおいて、
     前記搬送条件は、前記ハンド部によるワークの把持力、ワークの運搬速度及び前記ハンド部によるワークの把持位置の少なくとも一つをさらに含む、ロボットシステム。
  9.  請求項8に記載のロボットシステムにおいて、
     前記搬送条件は、ワークの運搬速度及び前記ハンド部によるワークの把持位置を含み、
     前記学習部は、前記ワークにおける前記把持禁止領域以外の領域内において可及的に運搬速度が速くなる前記把持位置を学習する、ロボットシステム。
  10.  請求項7乃至9の何れか一項に記載のロボットシステムにおいて、
     前記記憶部を第1記憶部と定義したときに、過去の前記収容部内のワーク配置情報及び過去の前記収納部内のワークの品質情報とを記憶する第2記憶部をさらに含み、
     前記第1撮像部は、前記搬送動作が実行される前の前記収容部内のワークを撮像可能なものであり、
     前記搬送条件は、前記収容部から前記ワークを取り出す際の当該ワークに対する前記ハンド部のアプローチ方法を含み、
     前記学習部は、前記第1撮像部が撮像した画像から取得されるワーク配置情報が、前記過去のワーク配置情報であってかつ前記収容部内のワークの品質情報に基づき搬送動作に失敗したと認定されたワーク配置情報と類似する場合に、前記搬送条件とは異なるアプローチ方法をとるように学習する、ロボットシステム。
  11.  請求項1乃至10の何れか一項に記載のロボットシステムにおいて、
     前記搬送条件設定部は、ワークの表面状態に関する情報を取得し、当該表面状態に関する情報に基づき前記禁止領域を設定する、ロボットシステム。
  12.  請求項6乃至11の何れか一項に記載のロボットシステムにおいて、
     複数の前記撮像部の機能を兼用する少なくとも1つの撮像部を備えている、ロボットシステム。
  13.  請求項12に記載のロボットシステムにおいて、
     前記1つの撮像部は、前記ロボットの可動部分に設けられている、ロボットシステム。
PCT/JP2018/022809 2018-06-14 2018-06-14 ロボットシステム WO2019239563A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020525044A JP7143410B2 (ja) 2018-06-14 2018-06-14 ロボットシステム
US17/053,523 US11926057B2 (en) 2018-06-14 2018-06-14 Robot system
DE112018007727.6T DE112018007727B4 (de) 2018-06-14 2018-06-14 Robotersystem
PCT/JP2018/022809 WO2019239563A1 (ja) 2018-06-14 2018-06-14 ロボットシステム
CN201880094149.7A CN112218748B (zh) 2018-06-14 2018-06-14 机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/022809 WO2019239563A1 (ja) 2018-06-14 2018-06-14 ロボットシステム

Publications (1)

Publication Number Publication Date
WO2019239563A1 true WO2019239563A1 (ja) 2019-12-19

Family

ID=68843115

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/022809 WO2019239563A1 (ja) 2018-06-14 2018-06-14 ロボットシステム

Country Status (5)

Country Link
US (1) US11926057B2 (ja)
JP (1) JP7143410B2 (ja)
CN (1) CN112218748B (ja)
DE (1) DE112018007727B4 (ja)
WO (1) WO2019239563A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021220394A1 (ja) * 2020-04-28 2021-11-04 ヤマハ発動機株式会社 機械学習方法およびロボットシステム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6918756B2 (ja) * 2018-08-31 2021-08-11 ファナック株式会社 検出システム
JP7467041B2 (ja) * 2018-09-27 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
JP7192748B2 (ja) * 2019-11-25 2022-12-20 トヨタ自動車株式会社 搬送システム、学習済みモデル生成方法、学習済みモデル、制御方法およびプログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001095348A (ja) * 1999-10-01 2001-04-10 Masateru Nagata 果菜収穫用摘採ハンド及びそれを用いた果菜収穫方法
JP2002200588A (ja) * 2000-12-28 2002-07-16 Denso Corp ロボットによる把持可能部品の把持位置検出方法及びその装置
JP2011073066A (ja) * 2009-09-29 2011-04-14 Canon Inc 物体把持制御方法及び装置
JP2013184273A (ja) * 2012-03-09 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP2015085488A (ja) * 2013-11-01 2015-05-07 トヨタ自動車株式会社 ロボット
JP2016197393A (ja) * 2015-04-03 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2017030135A (ja) * 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
US20170080571A1 (en) * 2015-09-01 2017-03-23 Berkshire Grey Inc. Systems and methods for providing dynamic robotic control systems
US20170136632A1 (en) * 2015-11-13 2017-05-18 Berkshire Grey Inc. Sortation systems and methods for providing sortation of a variety of objects
US9802317B1 (en) * 2015-04-24 2017-10-31 X Development Llc Methods and systems for remote perception assistance to facilitate robotic object manipulation

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4835616B2 (ja) 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
JP2010264559A (ja) * 2009-05-15 2010-11-25 Seiko Epson Corp ロボットの制御方法
JP5402697B2 (ja) 2009-10-26 2014-01-29 株式会社安川電機 ロボット装置及びワーク取り出しシステム並びにワーク取り出し方法
JP5685027B2 (ja) 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
CN103687702B (zh) 2011-06-29 2016-08-24 三菱电机株式会社 部件供给装置
JP2013132707A (ja) * 2011-12-26 2013-07-08 Seiko Epson Corp ロボット設置位置決定装置、及びロボット設置位置決定方法
JP5642738B2 (ja) 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
US9227323B1 (en) * 2013-03-15 2016-01-05 Google Inc. Methods and systems for recognizing machine-readable information on three-dimensional objects
JP6415026B2 (ja) 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP5788460B2 (ja) 2013-11-05 2015-09-30 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP2016020011A (ja) * 2014-07-11 2016-02-04 キヤノン株式会社 ロボット装置およびロボット装置の制御方法
US9561587B2 (en) 2014-12-16 2017-02-07 Amazon Technologies, Inc. Robotic grasping of items in inventory system
CN105983965A (zh) * 2015-02-09 2016-10-05 高振钊 一种用于特定空间下机械手臂抓取的互感识别方法
US10076840B2 (en) 2015-04-03 2018-09-18 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
DE102016009030B4 (de) 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
JP2018034242A (ja) 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
CN206501118U (zh) * 2017-02-23 2017-09-19 武汉库柏特科技有限公司 一种机器人抓取装置
CN108029340A (zh) * 2017-12-05 2018-05-15 江苏科技大学 一种基于自适应神经网络的采摘机器人手臂及其控制方法
JP6725587B2 (ja) * 2018-05-18 2020-07-22 ファナック株式会社 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001095348A (ja) * 1999-10-01 2001-04-10 Masateru Nagata 果菜収穫用摘採ハンド及びそれを用いた果菜収穫方法
JP2002200588A (ja) * 2000-12-28 2002-07-16 Denso Corp ロボットによる把持可能部品の把持位置検出方法及びその装置
JP2011073066A (ja) * 2009-09-29 2011-04-14 Canon Inc 物体把持制御方法及び装置
JP2013184273A (ja) * 2012-03-09 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP2015085488A (ja) * 2013-11-01 2015-05-07 トヨタ自動車株式会社 ロボット
JP2016197393A (ja) * 2015-04-03 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US9802317B1 (en) * 2015-04-24 2017-10-31 X Development Llc Methods and systems for remote perception assistance to facilitate robotic object manipulation
JP2017030135A (ja) * 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
US20170080571A1 (en) * 2015-09-01 2017-03-23 Berkshire Grey Inc. Systems and methods for providing dynamic robotic control systems
US20170136632A1 (en) * 2015-11-13 2017-05-18 Berkshire Grey Inc. Sortation systems and methods for providing sortation of a variety of objects

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021220394A1 (ja) * 2020-04-28 2021-11-04 ヤマハ発動機株式会社 機械学習方法およびロボットシステム
JPWO2021220394A1 (ja) * 2020-04-28 2021-11-04
JP7245959B2 (ja) 2020-04-28 2023-03-24 ヤマハ発動機株式会社 機械学習方法およびロボットシステム

Also Published As

Publication number Publication date
CN112218748B (zh) 2023-09-05
US20210233228A1 (en) 2021-07-29
DE112018007727T5 (de) 2021-02-25
DE112018007727B4 (de) 2022-10-06
JP7143410B2 (ja) 2022-09-28
JPWO2019239563A1 (ja) 2021-03-11
US11926057B2 (en) 2024-03-12
CN112218748A (zh) 2021-01-12

Similar Documents

Publication Publication Date Title
WO2019239563A1 (ja) ロボットシステム
CN109483554B (zh) 基于全局和局部视觉语义的机器人动态抓取方法及系统
CN109483573B (zh) 机器学习装置、机器人系统以及机器学习方法
EP2783810A2 (en) Robot system and method for producing to-be-processed material
US11338435B2 (en) Gripping system with machine learning
JP6771744B2 (ja) ハンドリングシステム及びコントローラ
US9008841B2 (en) Robotic picking of parts from a parts holding bin
JP7191569B2 (ja) 把持装置
US11213954B2 (en) Workpiece identification method
US11305432B2 (en) Work machine and pick-up position selection method
KR20120027253A (ko) 물체-학습 로봇 및 방법
JP7163506B2 (ja) 作業ロボットおよび作業システム
CN110125036B (zh) 一种基于模板匹配的自识别分拣方法
CN114025928A (zh) 末端执行器的控制系统以及末端执行器的控制方法
KR20220139254A (ko) 워크 식별 방법
CN114670189B (zh) 存储介质、以及生成机器人的控制程序的方法及系统
WO2019239562A1 (ja) 機械学習装置及びこれを備えたロボットシステム
WO2004052596A1 (en) Method and arrangement to avoid collision between a robot and its surroundings while picking details including a sensorsystem
US20240098905A1 (en) Method of inserting an electronic components in through-hole technology, THT, into a printed circuit board, PCB, by an industrial robot
KR20230175122A (ko) 대상물의 조작, 특히 픽업을 위한 로봇 제어 방법
CN115837985A (zh) 一种基于机器视觉的无序抓取方法
Tudorie Different approaches in feeding of a flexible manufacturing cell
CN116197886A (zh) 图像数据处理方法、装置、电子设备和存储介质
CN117260700A (zh) 一种机械臂控制方法、计算机设备及可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18922220

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020525044

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18922220

Country of ref document: EP

Kind code of ref document: A1