WO2019163671A1 - 線状物の先端移動方法、制御装置、および、三次元カメラ - Google Patents

線状物の先端移動方法、制御装置、および、三次元カメラ Download PDF

Info

Publication number
WO2019163671A1
WO2019163671A1 PCT/JP2019/005611 JP2019005611W WO2019163671A1 WO 2019163671 A1 WO2019163671 A1 WO 2019163671A1 JP 2019005611 W JP2019005611 W JP 2019005611W WO 2019163671 A1 WO2019163671 A1 WO 2019163671A1
Authority
WO
WIPO (PCT)
Prior art keywords
tip
linear object
robot hand
moving
robot
Prior art date
Application number
PCT/JP2019/005611
Other languages
English (en)
French (fr)
Inventor
基善 北井
Original Assignee
倉敷紡績株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 倉敷紡績株式会社 filed Critical 倉敷紡績株式会社
Priority to CN201980014602.3A priority Critical patent/CN111757796B/zh
Priority to EP19756929.6A priority patent/EP3756835A4/en
Priority to KR1020237038610A priority patent/KR20230159628A/ko
Priority to JP2020501732A priority patent/JP7410849B2/ja
Priority to US16/971,679 priority patent/US11964397B2/en
Priority to KR1020207027324A priority patent/KR20200123816A/ko
Publication of WO2019163671A1 publication Critical patent/WO2019163671A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23PMETAL-WORKING NOT OTHERWISE PROVIDED FOR; COMBINED OPERATIONS; UNIVERSAL MACHINE TOOLS
    • B23P19/00Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes
    • B23P19/04Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes for assembling or disassembling parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40028Insert flexible rod, beam into hole
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40082Docking, align object on end effector with target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40609Camera to monitor end effector as well as object to be handled
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45097Cable harnessing robot
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01RELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
    • H01R43/00Apparatus or processes specially adapted for manufacturing, assembling, maintaining, or repairing of line connectors or current collectors or for joining electric conductors
    • H01R43/28Apparatus or processes specially adapted for manufacturing, assembling, maintaining, or repairing of line connectors or current collectors or for joining electric conductors for wire processing before connecting to contact members, not provided for in groups H01R43/02 - H01R43/26

Definitions

  • the present invention relates to a method for moving the tip of a linear object, a control device, and a three-dimensional camera when the linear object is gripped using a robot hand.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2014-176917
  • Patent Document 2 a robot apparatus for assembling a linear object, in which the fixed end of the linear object with one end fixed is fixed.
  • An apparatus is described in which after gripping the vicinity, the gripper is slid along a predetermined locus and moved to the other end. Accordingly, it is possible to quickly grasp the other end that is difficult to accurately estimate with a hook or the like attached to an electric wire that is an example of a linear object.
  • Patent Document 2 discloses an invention relating to a method for manufacturing a wire harness and an image processing method, and in the course of manufacturing the wire harness, the three-dimensional shape of the wire assembly is measured. A processing position specifying process is performed in which the processing position is specified.
  • the robot hand holds a wire or the like as a linear object and performs control to move the tip of the wire to a predetermined target position.
  • tip of the electric wire into the through-hole provided in the target object is assumed.
  • the robot hand recognizes that the linear object extends straight from the region gripped by the robot hand toward the tip side.
  • This invention is intended to solve the above-mentioned problems, and relates to a method for moving the tip of a linear object, a control device, and a three-dimensional camera when the linear object is held by a robot hand.
  • the linear object tip moving method when moving the tip of the linear object gripped by the robot hand to a target position, the linear object gripped by the robot hand. Measuring a position of the tip of the object, and moving the tip to the target position based on the measured position of the tip.
  • the step of measuring the position of the tip further includes a step of measuring the direction of the tip.
  • the step of moving the tip to the target position includes a step of matching the direction of the tip with a predetermined direction.
  • the orientation of the tip is determined based on the shape of the linear object from the tip to a predetermined distance position.
  • the target position in the step of moving the tip to the target position, is a hole.
  • the step of moving the tip to the target position includes the tip passing through a predetermined near position, the direction of the tip at the near position being matched with a predetermined direction, and the tip being moved. Move.
  • control device controls the movement of the linear object by a robot hand provided in the robot, and the three-dimensional image of the linear object is obtained from a three-dimensional camera that acquires the three-dimensional shape of the linear object.
  • the shape is acquired, the position of the tip of the linear object is acquired from the three-dimensional shape, and information for moving the tip to the target position is obtained based on the position of the tip of the linear object.
  • the robot is notified.
  • control device measures the direction of the tip of the linear object from the three-dimensional shape of the linear object, and matches the direction of the tip of the linear object to a predetermined direction. Then, the robot having the robot hand is notified of information for moving to the target position.
  • the three-dimensional camera is a three-dimensional camera that acquires the three-dimensional shape of the linear object, which is used when controlling the movement of the linear object by a robot hand provided in the robot, Includes a control device, the control device acquires the three-dimensional shape of the linear object from the three-dimensional camera, acquires the position of the tip of the linear object from the three-dimensional shape, and the linear object.
  • the robot having the robot hand is notified of information for moving the tip to the target position based on the position of the tip.
  • an electric wire is used as an example of a linear object, but the present invention is not limited to an electric wire.
  • the linear object in this description may be anything as long as it has an elongated shape.
  • yarn, a fiber, glass fiber, an optical fiber, a tube, dry noodles, etc. are mentioned. It is not limited to the electric wire which bundled the thin wire, The electric wire etc. which consist of a single wire are also included.
  • the effect of the present embodiment appears more remarkably.
  • the overall system 10 for carrying out the linear object gripping method includes a robot 20, a three-dimensional camera 31, and a control device 32.
  • a wire harness W composed of an electric wire W1, an electric wire W2, and an electric wire W3 is disposed.
  • a robot hand 22 is provided at the tip of the robot arm 21, and a linear object is gripped by a pair of gripping portions 23, 23 of the robot hand.
  • the three-dimensional camera 31 is not particularly limited as long as it can measure the three-dimensional shape of the electric wire W1, the electric wire W2, and the electric wire W3.
  • a stereo camera is preferably used.
  • the stereo camera is preferable for measuring the three-dimensional shape of the linear object at high speed.
  • the stereo camera includes two cameras, and finds corresponding points of points to be measured on two images taken from different viewpoints, and determines the three-dimensional measurement points based on the principle of triangulation from the positional relationship of the two cameras. Calculate the position.
  • Japanese Patent Laid-Open No. 2-309202 discloses that a large number of linear objects are picked up by two cameras, and the inclination of the bright lines in the two images and the distance between the bright lines are measured. It is described that the corresponding point is determined by collating the distances as features, and the processing time for determining the corresponding point can be shortened.
  • a straight line obtained by projecting a line connecting the viewpoint of one image and a measurement point onto the other image is called an epipolar line, and the other line corresponding to the point on one image The corresponding point on the image is always projected on the epipolar line on the other image.
  • the corresponding point of a certain point on the linear object can be obtained by finding the intersection of the linear object and the epipolar line on the other image, and the three-dimensional shape of the linear object can be obtained at high speed. Can be measured. If the linear objects are color-coded in different colors, the color camera can be used to extract the corresponding color from the image and then obtain the corresponding points, thereby making the three-dimensional shape of each linear object faster. Can be requested.
  • the control device 32 communicates with the three-dimensional camera 31 through a communication unit (not shown), and acquires the three-dimensional shapes of the electric wire W1, the electric wire W2, and the electric wire W3 from the stereo camera.
  • the control device determines whether or not the robot hand 22 interferes with another linear object when the robot hand 22 grips the linear object, based on the three-dimensional shape acquired from the stereo camera, by an arithmetic unit (not shown). Various calculations are performed to determine the target linear object.
  • the control device notifies the robot 20 of the gripping position of the target linear object to be gripped based on the calculation result via the communication unit.
  • another device for example, a robot controller or a control personal computer for controlling the operation of the robot is provided between the control device 32 and the robot 20. Notification may be made.
  • the related-art linear object gripping method includes a step (S1) of measuring a three-dimensional shape of a plurality of electric wires W1, electric wires W2, and electric wires W3, and the robot hand 22 detects a linear object based on the measured three-dimensional shape.
  • the step S1 for measuring the three-dimensional shape of the plurality of electric wires W1, the electric wires W2, and the electric wires W3 is performed by the three-dimensional camera 31.
  • the stereo camera captures a work space with a linear object, and performs arithmetic processing on the two images to acquire the three-dimensional shapes of the electric wires W1, W2, and W3.
  • the three-dimensional shape of the linear object is represented by an orthogonal coordinate system or an oblique coordinate system, and is preferably represented by an orthogonal coordinate.
  • Determination step S2 is performed by the control device 32. Details of the determination step will be described later.
  • the step S3 for gripping the target linear object is performed by the robot 20.
  • the robot is notified of the gripping position of the target linear object to be gripped from the control device 32, and moves the robot arm 21 and the robot hand 22 to execute a gripping operation.
  • the determination step S2 will be described in detail below. Referring to FIG. 3, in the determination step S2 of the related technology, the three-dimensional shape of the linear object is acquired (S21), the target linear object is selected (S22), and the grip position of the target linear object is determined (S23). ), Obtaining the robot hand standby position (S24), setting various interference areas (S51 to S54), and various interference determinations (S61 to S64).
  • control device 32 acquires the three-dimensional shapes of the electric wires W1, W2, and W3 from the three-dimensional camera 31 (S21).
  • the control device 32 selects a line-of-interest to be gripped by the robot hand 22 (S22).
  • the wire of interest W1, the wire W2 and the wire W3, which are intended to grip the electric wire W1 will be described as a wire (other wire) other than the wire of interest.
  • the control device may receive a designation such as the color of the electric wire from the outside and determine the target linear object based on the instruction.
  • the control device autonomously selects the line-of-interest (see Japanese Patent Application No. 2017-221405).
  • the highest position that is, the uppermost linear object is selected as the attention linear object based on the acquired three-dimensional shape. Can do. This is because even when linear objects are placed in an overlapping manner, the higher the linear object, the lower the probability that another linear object will interfere when the linear object is gripped.
  • the control device 32 determines a gripping position of the wire W1 to be noted (S23). For example, based on a predetermined condition such as how many mm from the tip of the noticeable linear object, the control device calculates the grip position of the noticeable linear object as three-dimensional coordinates.
  • the control device 32 acquires the standby position of the robot hand 22 (S24). If the standby position of the robot hand 22 is predetermined, the coordinates are acquired as the standby position. When the standby position is determined based on the three-dimensional shape of the linear object, for example, when it is determined above a predetermined distance from the linear object, the standby position is obtained by calculation.
  • the control device 32 acquires the current position of the robot hand 22 from the robot 20 and moves the robot hand 22 to the standby position when the current position of the robot hand 22 is different from the standby position.
  • a line segment connecting the standby position of the robot hand 22 and the gripping position of the electric wire W1 provides an approximate movement path when the robot hand 22 executes the gripping operation.
  • the control device 32 sets several interference areas including the gripping position of the target linear object in order to determine the interference between the robot hand 22 and the other electric wires W2 and W3.
  • the first interference area, the first extended interference area, the second interference area, and the second extended interference area are set in this order.
  • interference determination is performed to determine whether or not the other linear object is included in each of the interference regions.
  • Interference judgment for each linear object is to determine whether the point is in the interference area or whether the line segment intersects the interference area while shifting the point or line segment on the linear object in the length direction. Can be done.
  • the second preliminary determination for the second extended interference region, the second determination for the second interference region, the first preliminary determination for the first extended interference region, and the first determination for the first interference region are performed in this order.
  • each interference region and interference determination for the region will be described.
  • the robot hand 22 in the first determination step S61 for the first interference region 51, it is determined whether or not the robot hand 22 interferes with the other electric wires W2 and W3 when holding the electric wire W1.
  • the first interference area 51 is a planar area including the gripping position P of the electric wire W1 and having a predetermined shape and a predetermined size.
  • the first interference region preferably includes the grip position P at the center thereof.
  • the shape of the first interference region is not particularly limited, but is preferably a polygon, a circle, or an ellipse. When the first interference region is a polygon, it is preferably a quadrangle, more preferably a square. This is because the calculation load is reduced and high-speed determination is possible.
  • the first interference region is a polygon
  • a square having sides parallel to a plane formed by any two axes of a coordinate system (hereinafter simply referred to as a “coordinate system”) representing the three-dimensional shape of the linear object is
  • coordinate system a coordinate system representing the three-dimensional shape of the linear object
  • the efficiency of the first preliminary determination can be improved by reducing the first extended interference region described later. If the first interference area is not a polygon, it is preferably a circle. Similarly, the calculation load is reduced and high-speed determination is possible.
  • the first interference region is preferably included in a circle having a diameter 2.0 times that of the circle C1. More preferably, the size is contained in a circle having the same size as the circle C1.
  • the first interference region is preferably a circle C2. It is a size that can contain a circle of the same size as that of Japanese Patent Application No. 2017-221405.
  • the first interference region 51 is preferably orthogonal to the electric wire W1. That the first interference region is orthogonal to the target linear object means that the direction in which the target linear object extends at the gripping position P is perpendicular to the first interference region. This is because a plane equation including the first interference region can be easily obtained.
  • the linear object is often gripped from the side, that is, from a direction perpendicular to the linear object. If there is another linear object in the first interference region orthogonal to the target linear object, even if the robot hand 22 does not grip the target linear object from the side, the robot hand 22 This is because there is a high probability of interference with the linear object.
  • the first determination step S ⁇ b> 61 can be performed by determining the intersection of the line segment L on the other target electric wire W ⁇ b> 2 and the first interference region 51.
  • the line segment L can be a line segment between two adjacent points S and T in the point group representing the three-dimensional shape of the electric wire W2. If the line segment L intersects the first interference area, some point on the line segment L is included in the first interference area.
  • the intersection determination can be performed by a known method. For example, when the inner product of the normal vector N of the plane U including the first interference region 51 and the vectors PS and PT from the gripping position P to both ends S and T of the line segment L is taken, the signs of the two inner products are different.
  • the line segment L intersects the plane U. When the line segment L and the plane U intersect, it may be determined whether or not the intersection is in the first interference region 51.
  • the first preliminary determination step S62 for the first extended interference region 52 is performed prior to the first determination, and faster calculation is performed when the robot hand 22 does not interfere with the other electric wires W2, W3. To find out.
  • the first extended interference region 52 is a spatial region that includes the first interference region 51.
  • the shape and size of the first extended interference region are not particularly limited, but preferably the smallest one of the hexahedrons including the first interference region and having all sides parallel to any axis of the coordinate system is the first. Set as one extended interference area.
  • the coordinate system is an orthogonal coordinate system
  • the hexahedron is a rectangular parallelepiped.
  • the coordinates of the eight vertices A to H of the first extended interference region 52 are as shown in FIG. 8, and the coordinates of one end point S of the line segment L are (xS, yS, zS), if x1 ⁇ xS ⁇ x2, y1 ⁇ yS ⁇ y2, and z1 ⁇ zS ⁇ z2, the point S is in the first extended interference region; otherwise, the point S is 1 Outside the extended interference area.
  • the first determination can be omitted if the result of the first preliminary determination indicates that the hand and other linear objects do not interfere with each other.
  • the second interference region 53 is a planar region that includes a line segment PQ that connects the gripping position P of the electric wire W1 and the standby position Q of the robot hand 22, and has a predetermined width extending on both sides of the line segment PQ.
  • the second interference region preferably includes a line segment PQ at the center in the width direction.
  • the shape of the second interference region is not particularly limited, but is preferably a rectangle or a parallelogram, and more preferably a rectangle having a line segment PQ as an axis of symmetry of line symmetry. This is because the calculation load is reduced and the determination is made at a higher speed.
  • the width of the second interference region 53 is preferably equal to or smaller than the diameter of the circle C1 in FIG.
  • the width of the second interference region is preferably equal to or larger than the diameter of the circle C2 in FIG.
  • the second interference region 53 is preferably set so that the intersection angle with the electric wire W1 is maximized. This is because, when the robot hand 22 approaches the electric wire W1, the gripping portions 23 and 23 often travel in such a plane.
  • 2nd determination process S63 can be performed by the intersection determination of the line segment L on the other electric wire W2 made into object, and the 2nd interference area
  • the second preliminary determination step (S64) for the second extended interference area 54 is performed prior to the second determination, and the case where the robot hand 22 does not interfere with the other electric wires W2 and W3 is found by faster calculation. To do.
  • the second extended interference area 54 is a spatial area that includes the second interference area 53.
  • the shape and size of the second extended interference region are not particularly limited, but preferably the smallest one of the hexahedrons including the second interference region and having all sides parallel to any axis of the coordinate system is the second. 2 Set as an extended interference area.
  • the coordinate system is an orthogonal coordinate system
  • the hexahedron is a rectangular parallelepiped. Thereby, the second preliminary determination can be performed only by comparing the size of the coordinates.
  • the second determination can be omitted when the second preliminary determination shows that the hand and other linear objects do not interfere with each other.
  • the control device 32 interferes with other linear objects when the robot hand 22 holds the holding position of the electric wire W1. Judge that there is no. Then, the electric wire W1 is set as the target linear object, and the grip position is notified to the robot 20.
  • the control device 32 grips the gripping position of the electric wire W1 with the robot hand 22. It is determined that there is interference from other linear objects. The subsequent determination process is omitted, and the process returns to step S22, and the same processing is repeated while changing the target linear object.
  • the control device 32 autonomously selects the next linear object of interest, for example, based on the three-dimensional shape of the electric wires W1 to W3 previously obtained from the three-dimensional camera 31, the linear object at the next higher position is used. An object can be selected as a noticeable linear object.
  • each step may be performed again after changing the positional relationship between the linear objects.
  • the distance from the gripping position of each target linear object to the nearest other linear object may be calculated as the interference distance, and the linear object having a long interference distance may be gripped.
  • the interference distance can be easily calculated by using the distance from the intersection between the first interference region or the second interference region and another linear object in the interference determination to the gripping position.
  • the presence or absence of interference with other linear objects of the robot hand 22 is implemented by calculating the presence or absence of intersection with the polyhedron using the CAD data on the robot hand 22 side and the three-dimensional shape data of the linear object. Also good. However, this method is excellent in accuracy of determination, but is a time-consuming process.
  • whether or not a linear object other than the target linear object exists in the first interference region can be determined by the intersection determination between the planar first interference region and the linear object. And the presence or absence of interference can be determined at high speed. When there is no linear object other than the target linear object in the first interference region, there is a high probability that the robot hand 22 can grip the target linear object without interfering with other linear objects. The same applies to the second interference region.
  • each determination step is not particularly limited, except that the first preliminary determination is performed prior to the first determination and the second preliminary determination is performed prior to the second determination.
  • the 1st determination process was implemented after the 2nd determination process first, you may reverse this order.
  • all determination processes are performed for each line segment while shifting the line segment L in the length direction of the linear object.
  • one determination process for example, the second preliminary determination
  • another determination step for example, a second determination step
  • the attention linear object is selected prior to the acquisition of the standby position of the robot hand 22 (S24) (S22), but the standby position of the robot hand 22 is acquired first, and the attention line is based on the standby position.
  • a shape may be selected.
  • the linear object that is closest to the standby position can be selected as the target linear object.
  • a linear object having the shortest distance between the coordinates of the standby position and the coordinates of the gripping position of the linear object may be selected. This is preferable in that a linear object that is unlikely to interfere with other linear objects can be preferentially selected when gripped.
  • the posture (gripping posture) when the robot hand 22 grips the linear object is preferably gripped so that the grip portion and the linear object are substantially perpendicular. This is because if the orientation of the linear object from the gripping position to the gripping portion is substantially perpendicular to the gripping part, the robot can be easily controlled even when it is inserted into a processing machine after gripping.
  • the posture of the robot hand 22 is adjusted so that the gripping portion and the linear object are oriented at right angles when gripped. Thereafter, the robot hand 22 moves along the second interference region from the standby position toward the gripping position. Thereby, since the posture of the robot hand 22, the moving direction of the robot hand 22, and the orientation of the planes of the first and second interference areas coincide, it is possible to perform highly accurate interference determination.
  • the robot hand 22 holding the linear object according to the present invention may convey the linear object to various manufacturing apparatuses and processing apparatuses.
  • the tip of the gripped electric wire may be moved by the robot hand 22 and inserted into a film peeling machine or a terminal crimping device. You may use for the process of inserting the front-end
  • the control device 32 acquires the three-dimensional shape of the linear object W1 from the three-dimensional camera 31 that acquires the three-dimensional shape of the linear object W1, acquires the position of the tip of the linear object W1 from the three-dimensional shape, It is assumed that information for moving the tip W1s to the target position is notified to the robot 20 having the robot hand 22 based on the position of the tip W1s of the linear object W1.
  • the control device 32 may be any of a control device independent of the robot 20 and the three-dimensional camera 31, a control device provided in the robot 20, and a control device provided in the three-dimensional camera 31.
  • the posture (gripping posture) when the robot hand 22 grips the linear object is preferably gripped so that the grip portion and the linear object are substantially perpendicular.
  • a linear object having a certain degree of flexibility it is assumed that the tip side of the linear object gripped by the robot hand 22 does not extend straight but is bent.
  • control device 32 measures the direction of the tip of the linear object from the three-dimensional shape of the linear object, and matches the direction of the tip of the linear object with a predetermined direction to move the information to the target position.
  • the robot having the robot hand may be notified.
  • a method for measuring the amount of bending of the tip of a linear object when the linear object is conveyed to a predetermined position by the robot hand 22 holding the linear object will be described below.
  • a case where the tip W1s of the electric wire W1 is inserted as a linear object into the hole TGH provided in the target TG will be described as an example of conveyance to a predetermined position.
  • the diameter of the linear object may be in a range that can be recognized by a three-dimensional camera, and is preferably 0.01 mm to 10 cm.
  • the hole TGH provided in the target TG has only to have a size capable of inserting a linear object, and preferably has a diameter of 0.01 mm to 15 cm and a hole depth of at least twice the diameter of the linear object. preferable.
  • FIG. 9 a state in which the electric wire W1 is gripped by the robot hand 22 is shown. Furthermore, the tip W1s of the electric wire W1 is not extended so as to be substantially perpendicular to the robot hand 22, but is bent.
  • the tip W1s of the electric wire W1 gripped by the robot hand 22 Measure the position of the tip W1s of the electric wire W1 gripped by the robot hand 22.
  • the tip bending amount of how much the tip W1s of the electric wire W1 is shifted from L1 may be measured.
  • the three-dimensional shape can be measured using the three-dimensional camera 31 described above. As a result, the position of the tip W1s and the displacement amount X1 can be known.
  • the extending direction of the tip of the electric wire W1 can be determined by measuring the shape from the tip W1s of the electric wire W1 to a predetermined distance position (distance D1 in FIG. 9) and obtaining an average vector.
  • the direction of the tip may be a vector connecting the tip W1s of the electric wire W1 and the position of the insertion length from the tip W1s to the hole.
  • the predetermined distance position (distance D1 in FIG. 9) from the tip W1s of the electric wire W1 is preferably 0.3 to 10 times the hole depth of the hole TGH provided in the target TG, more preferably 0.5 to 5 Is double.
  • the amount of bending from the tip may be measured, and a point up to a sharp change may be set as D1.
  • the position and the tip bending amount are fed back to the movement control of the robot hand 22.
  • the tip W1s can be moved to the hole TGH provided in the target TG by giving a feedback amount from the position of the tip W1s and the tip bending amount.
  • the hole depth of the hole TGH is shallow, there is little problem.
  • the direction of the tip W1s is made to coincide with a predetermined direction so that the electric wire can be inserted into the hole.
  • a near position P11 located on the extension line of the center axis TG-A of the hole TGH is determined in advance, the tip W1s is moved to the near position P11, and the center axis TG- of the hole TGH is set. Movement is performed so that the direction A matches the direction of the tip of the electric wire W1.
  • the moving method may be to match the direction while moving the tip W1s to the near position P11, or after moving the tip W1s to the near position and then rotating the electric wire W1 to match the direction at the near position.
  • the near position is preferably near the target position, and when the target position is a hole, it is preferably on a line extending the central axis of the hole. When the target position is a groove, it is preferable to be directly above the groove. When the target position is a terminal block, it is preferable that the target position is on a line extending in a direction in which the terminals are connected from a position where the terminals are connected.
  • the tip W1s is moved into the hole TGH even when the hole TGH is deep or the hole TGH has a small diameter. It becomes possible to let it pass through.
  • the electric wire W1 it is judged by a sensor or the like whether or not the electric wire W1 has been inserted into the hole TGH. If the insertion has failed, the electric wire W1 is returned to the front position P11 and the position and orientation of the tip W1s of the electric wire W1 are measured again. Then, the tip W1s may be moved to the hole TGH by matching the direction in which the central axis TG-A of the hole TGH extends and the direction of the tip of the electric wire W1.
  • the relative coordinates of the tip of the rod B can be calculated from the robot hand 22. This is held as reference data, for example, P1.
  • the tip position of the rod when moved is the target position.
  • the target position may be set in the hole or may be set near the entrance of the hole.
  • the coordinates of the tip of the moved bar in the robot coordinate system are registered as the target position. This can be calculated by adding P1 to the coordinates of the robot hand. This position is registered as P0. This completes teaching of the target position.
  • the robot hand 22 grips the electric wire W1 to be moved. Thereafter, the electric wire W1 is scanned with a three-dimensional camera.
  • the relative coordinates from the robot hand 22 to the tip W1s of the electric wire W1 can be calculated. If this is P2, for example, the vector calculated in P0-P2 is notified to the robot as a movement vector, and the robot moves the electric wire.
  • the tip W1s may be moved along a line extending the central axis TG-A. Further, without defining the near position P11, the wire W1 may be moved from the initial position to the hole TGH while being rotated so that the extending direction of the tip of the electric wire W1 coincides with the extending direction of the central axis TG-A of the hole TGH. Any moving method that moves the tip W1s of the linear object W1 to a predetermined position so that the direction of the tip W1s matches a predetermined direction when the tip W1s reaches the target position P0 may be used.
  • the linear object and the target position are limited to this. Not. Specific examples where the target position is a hole include an inspection device that inspects the tip of the wire, a wire stripper that strips the coating of the wire, a processing machine that connects the wire and the connector, and a processing device that crimps a crimp terminal on the tip of the wire. A predetermined position is mentioned.
  • the present invention can be used as a solder where the linear object is a solder and the target position is a predetermined position of the substrate to be soldered or a position immediately above the predetermined position of the substrate.
  • the present embodiment can be used by assuming that the linear object is an electric wire with a terminal, and the target position is a predetermined position or a vicinity of the predetermined position of the terminal block.
  • the target position is not limited to the hole, and may be a predetermined inspection position, a processing work position, a surface or a groove, or a predetermined location in the vicinity thereof.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

この線状物の先端移動方法は、ロボットハンド(22)で把持した線状物(W1)の先端(W1s)を目標位置(TG1)に移動させる際の、線状物の先端移動方法であって、ロボットハンド(22)で把持した線状物(W1)の先端(W1s)の位置を計測する工程と、計測した先端(W1s)の位置に基づき、先端(W1s)を目標位置(TG1)に移動させる工程と、を備える。

Description

線状物の先端移動方法、制御装置、および、三次元カメラ
 本発明はロボットハンドを用いて線状物を把持した場合の、線状物の先端移動方法、制御装置、および、三次元カメラに関する。
 対象物を三次元カメラ等で認識して自律的に把持するロボットの普及が進んでいる。線状物を把持することについては、たとえば特開2014-176917号公報(特許文献1)に、線状体の組み付け作業を行なうロボット装置であって、一端が固定された線状体の固定端近傍を把持したのち、把持部を所定の軌跡でスライドさせて他端に移動させる装置が記載されている。これにより、線状物の一例である電線に付いた癖等により正確に推定することが困難な他端を素早く把持できるとされる。
 特開2016-192138号公報(特許文献2)には、ワイヤーハーネスの製造方法および画像処理方法に関する発明が開示され、ワイヤーハーネスを製造する過程において、電線集合体の三次元形状が測定されることによって加工位置が特定される加工位置特定処理が実施される。
特開2014-176917号公報 特開2016-192138号公報
 ロボットハンドで線状物としてたとえば電線等を保持し、所定のターゲット位置に電線の先端を移動させる制御を行なう場合が考えられる。たとえば、対象物に設けられた貫通孔に、その電線の先端を挿入する制御が想定される。ロボットハンド側では、ロボットハンドで把持した領域から先端側に向っては、その線状物は真っ直ぐに延びていると認識している。
 しかしながら、実際には、ロボットハンドで把持した領域から先端側に向って、線状物が曲がっている場合が想定される。そのような場合には、線状物の先端位置を認識した後に、ロボットハンド側の移動を実施して、対象物に設けられた貫通孔に、その電線の先端を移動させる必要がある。
 この発明は、上記課題を解決することを目的としており、ロボットハンドで線状物を保持した場合の、線状物の先端移動方法、制御装置、および、三次元カメラに関する。
 この線状物の先端移動方法においては、ロボットハンドで把持した線状物の先端を目標位置に移動させる際の、線状物の先端移動方法であって、上記ロボットハンドで把持した上記線状物の上記先端の位置を計測する工程と、計測した上記先端の位置に基づき、上記先端を上記目標位置に移動させる工程と、を備える。
 他の形態においては、上記先端の位置を計測する工程は、さらに、上記先端の向きも計測する工程を含む。
 他の形態においては、上記先端を上記目標位置に移動させる工程は、上記先端の向きを所定の向きに一致させる工程を含む。
 他の形態においては、上記先端の向きは、上記先端から所定距離位置までの上記線状物の形状に基づいて決定する。
 他の形態においては、上記先端を上記目標位置に移動させる工程は、上記目標位置が孔である。
 他の形態においては、上記先端を上記目標位置に移動させる工程は、上記先端が予め定めた手前位置を通過し、上記手前位置における上記先端の向きを所定の向きに一致させて、上記先端を移動させる。
 この制御装置においては、ロボットに設けられたロボットハンドによる線状物の移動を制御する制御装置であって、上記線状物の三次元形状を取得する三次元カメラから上記線状物の三次元形状を取得し、上記三次元形状から上記線状物の先端の位置を取得し、上記線状物の上記先端の位置に基づき、上記先端を目標位置に移動させるための情報を上記ロボットハンドを有する上記ロボットに通知する。
 他の形態においては、当該制御装置は、上記線状物の上記三次元形状から上記線状物の上記先端の向きを計測し、上記線状物の上記先端の向きを所定の向きに一致させて上記目標位置まで移動させるための情報を上記ロボットハンドを有する上記ロボットに通知する。
 この三次元カメラにおいては、ロボットに設けられたロボットハンドによる線状物の移動を制御する際に用いられる、上記線状物の三次元形状を取得する三次元カメラであって、当該三次元カメラは、制御装置を含み、上記制御装置は、上記三次元カメラから上記線状物の三次元形状を取得し、上記三次元形状から上記線状物の先端の位置を取得し、上記線状物の上記先端の位置に基づき、上記先端を目標位置に移動させるための情報を上記ロボットハンドを有する上記ロボットに通知する。
 この線状物の先端移動方法、制御装置、および、三次元カメラによれば、ロボットハンドで把持した領域から先端側に向って、線状物が曲がっている場合であっても、線状物の先端位置を認識した後に、ロボットハンド側の移動を実施して、対象物に設けられた貫通孔に、その電線の先端を移動させることを可能とする。
関連技術における線状物把持方法を実行する全体システムを示す図である。 関連技術における線状物把持方法の工程フロー図である。 関連技術における線状物把持方法の判定工程の工程フロー図である。 関連技術における第1干渉領域および第1拡張干渉領域を示す図である。 関連技術における第2干渉領域および第2拡張干渉領域を示す図である。 関連技術における第1干渉領域の大きさを説明するための図である。 関連技術における第1判定工程を説明するための図である。 関連技術における第1予備判定工程を説明するための図である。 実施の形態における線状物の先端移動方法を説明する概略図である。 実施の形態における線状物の他の先端移動方法を説明する概略図である。
 本発明に基づいた実施の形態の先端曲り量計測方法について、以下、図を参照しながら説明する。以下に説明する実施の形態において、個数、量などに言及する場合、特に記載がある場合を除き、本発明の範囲は必ずしもその個数、量などに限定されない。同一の部品、相当部品に対しては、同一の参照番号を付し、重複する説明は繰り返さない場合がある。実施の形態における構成を適宜組み合わせて用いることは当初から予定されていることである。図においては、実際の寸法比率では記載しておらず、構造の理解を容易にするために、一部比率を異ならせて記載している。
 以下の説明においては、線状物の一例として電線を用いた場合について説明しているが、電線に限定されるものではない。この説明での線状物とは、細長い形状を有する物体であれば何でもよい。線状物の一例としては、電線、ワイヤーハーネス、はんだ、紐、糸、繊維、ガラス繊維、光ファイバ、チューブ、乾麺等が挙げられる。細線を束にした電線に限定されず、一本線から構成される電線等も含まれる。特に、たわみが生じるなどして形状が変化する線状物や、直線ではない線状物の場合、本実施の形態の効果がより顕著に表れる。
 (関連技術:線状物把持方法および制御装置)
 以下、図1から図8を参照して、関連技術として、線状物把持方法および制御装置の一例について説明する。
 図1において、線状物把持方法を実施するための全体システム10は、ロボット20と、三次元カメラ31と、制御装置32とを有する。作業空間には、電線W1、電線W2、電線W3から構成されるワイヤーハーネスWが配置されている。
 ロボット20としては、公知の多関節ロボットを好適に利用することができる。ロボットのアーム21の先端にはロボットハンド22が備えられており、ロボットハンドの一対の把持部23、23で線状物を把持する。
 三次元カメラ31は、電線W1、電線W2、電線W3の三次元形状を計測できるものであれば特に限定されない。好ましくはステレオカメラを用いる。ステレオカメラは線状物の三次元形状を高速に計測するのに好ましい。
 ステレオカメラは2台のカメラを含み、異なる視点から撮像された2枚の画像上で計測したい点の対応点を求め、2台のカメラの位置関係から3角測量の原理によって計測点の三次元位置を算出する。ステレオ方式による線状物の三次元計測に関しては、たとえば、特開平2-309202号公報には、多数の線状物を2台のカメラで撮像し、2つの画像中の輝線の傾きと輝線間の距離を特徴として照合することにより対応点を決定することが記載されており、これによって、対応点の決定にかかる処理時間を短縮できるとされる。
 ステレオ方式において、一方の画像の視点と計測点を結ぶ直線を他方の画像上に(特願2017―221045号参照)投影した直線をエピポーラ線といい、一方の画像上の点に対応する他方の画像上の対応点は必ず他方の画像上のエピポーラ線上に投影されている。
 このことを利用して、線状物の上のある点の対応点を求めるには、他方の画像上で線状物とエピポーラ線の交点を求めればよく、高速に線状物の三次元形状を計測できる。線状物が互いに異なる色に色分けされている場合には、カラーカメラを用いることにより、画像から該当する色を抽出してから対応点を求めることで、各線状物の三次元形状をより高速に求めることができる。
 制御装置32は、図示しない通信部によって三次元カメラ31と通信し、ステレオカメラから電線W1、電線W2、電線W3の三次元形状を取得する。制御装置は図示しない演算部によって、ステレオカメラから取得した三次元形状に基づいて、ロボットハンド22が線状物を把持する際に他の線状物と干渉するか否かを判定し、把持すべき目標線状物を決定するための各種演算を行なう。
 制御装置は上記通信部を介して、演算結果に基づいて、把持すべき目標線状物の把持位置をロボット20に通知する。把持位置をロボット20に直接通知するだけでなく、制御装置32とロボット20との間にロボットの動作を制御する別の装置(たとえば、ロボットコントローラや制御用パソコン等)を設け、それらの装置に対して通知しても良い。
 図2を参照して、本関連技術の線状物把持方法を以下に説明する。この関連技術の線状物把持方法は、複数の電線W1、電線W2、電線W3の三次元形状を計測する工程(S1)、計測された三次元形状に基づいてロボットハンド22が線状物を把持する際に他の線状物が干渉するか否かを判定する判定工程(S2)、判定工程S2における判定結果に基づいて決定された目標線状物を把持する工程(S3)を含む。
 複数の電線W1、電線W2、電線W3の三次元形状を計測する工程S1は三次元カメラ31によって実施される。ステレオカメラは線状物のある作業空間を撮像し、2枚の画像を演算処理して電線W1、電線W2、電線W3のそれぞれの三次元形状を取得する。線状物の三次元形状は、直交座標系または斜交座標系で表され、好ましくは直交座標で表される。
 判定工程S2は制御装置32によって実施される。判定工程については詳細を後述する。
 目標線状物を把持する工程S3はロボット20によって実施される。ロボットは、把持すべき目標線状物の把持位置を制御装置32から通知され、ロボットアーム21およびロボットハンド22を移動させて把持動作を実行する。
 以下に判定工程S2を詳細に説明する。
 図3を参照して、本関連技術の判定工程S2では、線状物の三次元形状の取得(S21)、注目線状物の選択(S22)、注目線状物の把持位置の決定(S23)、ロボットハンド待機位置の取得(S24)、各種干渉領域の設定(S51~S54)と各種干渉判定(S61~S64)を実施する。
 制御装置32はまず、三次元カメラ31から電線W1、電線W2、電線W3の三次元形状を取得する(S21)。
 次に、制御装置32は、ロボットハンド22で把持しようとする注目線状物を選択する(S22)。以下において、電線W1を把持しようとする注目線状物、電線W2と電線W3を注目線状物以外の線状物(他の線状物)として説明する。制御装置は、電線の色などの指定を外部から受けて、その指示に基づいて注目線状物を決定してもよい。好ましくは、制御装置は自律的(特願2017―221045号参照)に注目線状物を選択する。
 たとえば、電線W1、電線W2、電線W3が台の上に置かれている場合、取得した三次元形状に基づいて最も高い位置、すなわち最も上にある線状物を注目線状物として選択することができる。線状物が重なり合って置かれている場合でも、上にある線状物ほど、その線状物を把持するときに他の線状物が干渉する確率が低いからである。
 次に、制御装置32は、注目すべき電線W1の把持位置を決定する(S23)。たとえば、注目線状物の先端から何mmというような予め定められた条件に基づいて、制御装置が注目線状物の把持位置を三次元座標として算出する。
 次に、制御装置32は、ロボットハンド22の待機位置を取得する(S24)。ロボットハンド22の待機位置が予め定められている場合は、その座標を待機位置として取得する。待機位置を線状物の三次元形状に基づいて決定する場合、たとえば線状物から所定距離離れた上方に決定するなどの場合は、演算により待機位置を取得する。
 制御装置32はロボットハンド22の現在位置をロボット20から取得し、ロボットハンド22の現在位置が待機位置と異なる場合は、ロボットハンド22を待機位置に移動させる。ロボットハンド22の待機位置と電線W1の把持位置を結ぶ線分が、ロボットハンド22が把持動作を実行するときのおおよその移動経路を与える。
 次に、制御装置32は、ロボットハンド22と他の電線W2、電線W3との干渉判定のために、注目線状物の把持位置を含むいくつかの干渉領域を設定する。図3では、第1干渉領域、第1拡張干渉領域、第2干渉領域、第2拡張干渉領域の順に設定している。すべての他の線状物の1本毎に、当該他の線状物が上記それぞれの干渉領域に含まれるか否かを判定する干渉判定を行なう。
 各線状物についての干渉判定は、線状物上の点または線分を長さ方向にずらしながら、その点が干渉領域内にあるかまたはその線分が干渉領域と交差するかを判定することによって行なうことができる。図3では、第2拡張干渉領域に対する第2予備判定、第2干渉領域に対する第2判定、第1拡張干渉領域に対する第1予備判定、第1干渉領域に対する第1判定の順に実施している。以下に、図3の順番とは異なるが、各干渉領域とその領域に対する干渉判定とについて説明する。
 図4を参照して、第1干渉領域51に対する第1判定工程S61は、ロボットハンド22が電線W1を把持するときに他の電線W2、W3と干渉するか否かを判定する。
 第1干渉領域51は、電線W1の把持位置Pを含み、所定の形状および所定の大きさを有する平面状の領域である。第1干渉領域は、その中心に把持位置Pを含むことが好ましい。第1干渉領域の形状は特に限定されないが、好ましくは、多角形、円または楕円とする。第1干渉領域が多角形の場合は、好ましくは4角形、より好ましくは正方形である。計算の負荷が軽くなり、高速な判定が可能となるからである。第1干渉領域が多角形の場合、線状物の三次元形状を表す座標系(以下、単に「座標系」という)のいずれか2本の軸がなす平面に平行な辺を有する正方形を第1干渉領域とするのが特に好ましい。
 後述する第1拡張干渉領域をより小さくして第1予備判定の効率を向上できるからである。第1干渉領域が多角形でない場合は、好ましくは円である。同じく、計算の負荷が軽くなり、高速な判定が可能となるからである。
 第1干渉領域51の大きさは、大きすぎると実際には干渉しないのに干渉すると誤判定する確率が増大する。図6を参照して、ロボットハンド22の最大断面に外接する最小の円を円C1とすると、第1干渉領域は、好ましくは、円C1の2.0倍の直径を有する円に内包される大きさであり、より好ましくは、円C1と同じ大きさの円に内包される大きさである。
 一方、第1干渉領域が小さすぎると、実施には干渉するのに干渉しないと誤判定する確率が増大する。図6を参照して、ロボットハンド22が線状物を把持するために動作させる把持部23の最大断面に外接する最小の円を円C2とすると、第1干渉領域は、好ましくは、円C2(特願2017―221045号参照)と同じ大きさの円を内包できる大きさである。
 第1干渉領域51は、好ましくは、電線W1と直交する。第1干渉領域が注目線状物と直交するとは、把持位置Pにおいて注目線状物が伸びる方向が第1干渉領域と直角をなすことをいう。第1干渉領域を含む平面の方程式が容易に求められるからである。また、ロボットハンド22で線状物を把持する場合、線状物を真横から、つまり線状物と直角の方向から把持することが多いからである。注目線状物と直交する第1干渉領域内に他の線状物が存在する場合には、ロボットハンド22が注目線状物を真横から把持しない場合であっても、ロボットハンド22が当該他の線状物と干渉する蓋然性が高いからである。
 図7を参照して、第1判定工程S61は、対象とする他の電線W2上の線分Lと第1干渉領域51との交差判定によって行なうことができる。線分Lは、電線W2の三次元形状を表す点群のうち隣り合う2点S、T間の線分とすることができる。線分Lが第1干渉領域と交差するなら、線分L上のどこかの点が第1干渉領域に含まれる。交差判定は公知の方法で行なうことができる。たとえば、第1干渉領域51を含む平面Uの法線ベクトルNと、把持位置Pから線分Lの両端S、TへのベクトルPSおよびPTとの内積を取り、2つの内積の符号が異なる場合は線分Lは平面Uと交差する。線分Lと平面Uが交差する場合は、その交点が第1干渉領域51内にあるか否かを判定すればよい。
 図4を参照して、第1拡張干渉領域52に対する第1予備判定工程S62は、第1判定に先だって実施され、ロボットハンド22と他の電線W2、W3が干渉しない場合を、より高速な計算で発見するために行なう。
 第1拡張干渉領域52は第1干渉領域51を内包する空間領域である。第1拡張干渉領域の形状や大きさは特に限定されないが、好ましくは、第1干渉領域を内包し、すべての辺が座標系のいずれかの軸に平行な6面体のうち最小のものを第1拡張干渉領域として設定する。座標系が直交座標系の場合は、この6面体は直方体である。これにより、座標の大小比較を行なうだけで、第1予備判定が実施できる。
 具体的には、図8を参照して、第1拡張干渉領域52の8つの頂点A~Hの座標を図8のとおりとし、線分Lの一方の端点Sの座標を(xS,yS,zS)とすると、x1≦xS≦x2、かつ、y1≦yS≦y2、かつ、z1≦zS≦z2、であれば点Sは第1拡張干渉領域内にあり、そうでなければ点Sは第1拡張干渉領域外にある。
 第1拡張干渉領域52が第1干渉領域51を内包するので、第1予備判定によってハンドと他の線状物が干渉しないとの結果が得られた場合は、第1判定を省略できる。
 図5を参照して、第2干渉領域53に対する第2判定工程(S63)は、ロボットハンド22が電線W1の把持位置Pまで移動する経路で、他の電線W2、電線W3と干渉するか否かを判定する。
 第2干渉領域53は、電線W1の把持位置Pとロボットハンド22の待機位置Qとを結ぶ線分PQを含み、線分PQの両側に広がり所定の幅を有する平面状の領域である。第2干渉領域は、その幅方向の中心に線分PQを含むことが好ましい。第2干渉領域の形状は、特に限定されないが、好ましくは長方形または平行四辺形であり、より好ましくは、線分PQを線対称の対称軸とする長方形である。計算の負荷を軽くして、より高速に判定するためである。
 第2干渉領域53の幅は、広すぎると実際には干渉しないのに干渉すると誤判定する確率が増大する。第2干渉領域の幅は、好ましくは、図6の円C1の直径以下である。一方、第2干渉領域の幅が狭すぎると、実施には干渉するのに干渉しないと誤判定する確率が(特願2017―221045号参照)増大する。第2干渉領域の幅は、好ましくは、図6の円C2の直径以上である。
 第2干渉領域53は、好ましくは、電線W1との交角が最大となるように設定される。ロボットハンド22が電線W1に接近する際に、把持部23、23がそのような平面内を進むことが多いからである。
 第2判定工程S63は、第1判定工程S61と同様に、対象とする他の電線W2上の線分Lと第2干渉領域53との交差判定によって行なうことができる。
 第2拡張干渉領域54に対する第2予備判定工程(S64)は、第2判定に先だって実施され、ロボットハンド22と他の電線W2、電線W3が干渉しない場合を、より高速な計算で発見するために行なう。
 第2拡張干渉領域54は第2干渉領域53を内包する空間領域である。第2拡張干渉領域の形状や大きさは特に限定されないが、好ましくは、第2干渉領域を内包し、すべての辺が座標系のいずれかの軸に平行な6面体のうち最小のものを第2拡張干渉領域として設定する。座標系が直交座標系の場合は、この6面体は直方体である。これにより、座標の大小比較を行なうだけで、第2予備判定が実施できる。
 第2拡張干渉領域54が第2干渉領域53を内包するので、第2予備判定によってハンドと他の線状物が干渉しないとの結果が得られた場合は、第2判定を省略できる。
 判定の対象とする線分Lを電線W2の長さ方向にずらしながら上記判定工程S61~S64を繰り返して、他の電線W2との干渉判定が完了したら、次の他の電線W3について同じ処理を行なう。
 すべての他の電線W2、W3が干渉領域51~54に含まれないと判定された場合は、制御装置32は電線W1の把持位置をロボットハンド22で把持する際に他の線状物の干渉がないと判定する。その後、電線W1を目標線状物として、その把持位置をロボット20に通知する。
 いずれかの第1判定または第2判定で線分Lが第1干渉領域または第2干渉領域に含まれると判定された場合は、制御装置32は電線W1の把持位置をロボットハンド22で把持する際に他の線状物の干渉があると判定する。以後の判定工程を省略して工程S22に戻り、注目線状物を変えて同じ処理を繰り返す。制御装置32が自律的に次の注目線状物を選択する場合は、たとえば、先に三次元カメラ31から取得した電線W1~W3の三次元形状に基づいて、次に高い位置にある線状物を注目線状物として選択することができる。
 何れの線状物に注目しても他の線状物と「干渉あり」と判定された場合は、線状物全体を回転させて向きを変えたり、線状物を振ったり振動させたりして線状物同士の位置関係を変化させてから、再度各工程を実施してもよい。各注目線状物の把持位置から最も近い他の線状物までの距離を干渉距離として計算しておき、干渉距離の長い線状物から把持するようにしてもよい。これにより、把持が成功しやすい順番で把持動作を実行するようロボットに指示することができる。干渉距離は、干渉判定における第1干渉領域または第2干渉領域と他の線状物との交点から把持位置までの距離を用いることで簡易に計算することができる。
 以上のとおり、本関連技術の線状物把持方法によれば、線状物と他の線状物が干渉するか否かの判定結果に基づいて把持動作を実行するので、複数の線状物から1本の線状物を(特願2017―221045号参照)選んでロボットハンド22で把持することが可能となる。
 ロボットハンド22の他の線状物との干渉の有無は、ロボットハンド22側のCADデータと線状物の三次元形状データを用いて、多面体との交差の有無を計算することによって実施してもよい。しかしこの方法は判定の正確さにおいて優れるが、時間のかかる処理である。
 この関連技術では、注目線状物以外の線状物が第1干渉領域内に存在するか否かを、平面状の第1干渉領域と線状物との交差判定によって判定できるので、計算量が少なく、干渉の有無を高速に判定できる。第1干渉領域内に注目線状物以外の線状物が存在しない場合は、ロボットハンド22が他の線状物と干渉しないで注目線状物を把持できる蓋然性が高い。第2干渉領域についても同様である。
 各判定工程を実施する順番は、第1予備判定を第1判定に先立って行ない、第2予備判定を第2判定に先立って行なう以外は、特に限定されない。上記実施形態では、第2判定工程を先に、第1判定工程を後で実施したが、この順番を逆にしてもよい。上記関連技術では、線分Lを線状物の長さ方向にずらしながら、1つの線分毎にすべての判定工程を実施したが、ある線状物について一つの判定工程(たとえば第2予備判定工程)を終えてから、改めて同じ線状物について他の判定工程(たとえば第2判定工程)を実施してもよい。
 上記関連技術では、ロボットハンド22の待機位置取得(S24)に先立って注目線状物を選択したが(S22)、先にロボットハンド22の待機位置を取得し、その待機位置に基づいて注目線状物を選択してもよい。その場合は、注目線状物として最も待機位置側にある線状物を選択できる。最も待機位置側にある線状物として、待機位置の座標と当該線状物の把持位置の座標との距離が最も短い線状物を選択してもよい。これにより、把持する際に他の線状物と干渉する可能性の低い線状物を優先的に選択できる点で好ましい。
 ロボットハンド22が線状物を把持する際の姿勢(把持姿勢)は、把持部と線状物が略直角をなすように把持することが好ましい。把持部に対して把持位置から先端側の線状物の向きが略垂直であれば、把持した後に加工機等に挿入する際もロボットの制御が容易になるからである。好ましくは、待機位置において、把持した際に把持部と線状物とが直角をなす向きになるように、ロボットハンド22の姿勢を調整する。その後、ロボットハンド22は、待機位置から把持位置に向かって第2干渉領域に沿って移動する。これにより、ロボットハンド22の姿勢、ロボットハンド22の移動方向、ならびに第1および第2干渉領域の平面の向きが一致するため、高精度な干渉判定が可能となる。
 本発明によって線状物を把持したロボットハンド22が当該線状物を種々の製造装置・加工装置まで搬送してもよい。たとえば、把持した電線の先端をロボットハンド22によって移動させ、被膜剥き加工機や端子圧着装置等に挿入してもよい。電線の先端をコネクタ等の各種部品に挿入しワイヤーハーネスを製造する工程に用いてもよい。
 (実施の形態:線状物の先端移動方法、制御装置、および、三次元カメラ)
 次に、上記のように説明した、ロボット20に設けられたロボットハンド22が当該線状物を種々の製造装置・加工装置まで搬送する場合について検討する。具体的には、制御装置32(図1参照)により、ロボット20に設けられたロボットハンド22による線状物W1の移動を制御する。制御装置32は、線状物W1の三次元形状を取得する三次元カメラ31から線状物W1の三次元形状を取得し、この三次元形状から線状物W1の先端の位置を取得し、線状物W1の先端W1sの位置に基づき、先端W1sを目標位置に移動させるための情報をロボットハンド22を有するロボット20に通知することを想定している。
 図1に示した全体システム10においては、ロボットハンド22を有するロボット20、三次元カメラ31、および、制御装置32を有する構成としている。この制御装置32は、ロボット20および三次元カメラ31から独立した制御装置、ロボット20が備える制御装置、および、三次元カメラ31が備える制御装置のいずれであってもよい。
 上記したように、ロボットハンド22が線状物を把持する際の姿勢(把持姿勢)は、把持部と線状物が略直角をなすように把持することが好ましい。しかしながら、ある程度の柔軟性を有する線状物を用いた場合には、ロボットハンド22で把持した線状物の先端側が真っ直ぐに延びておらず、曲がっている場合が想定される。
 このような場合に、ロボットハンド22側が、線状物の先端側の曲りを認識しないまま線状物を搬送した場合には、所定の目標位置に線状物の先端を搬送できない状況となる。
 そこで、制御装置32は、線状物の三次元形状から線状物の先端の向きを計測し、線状物の先端の向きを所定の向きに一致させて目標位置まで移動させるための情報をロボットハンドを有するロボットに通知するようにするとよい。
 以下の実施の形態においては、線状物を把持したロボットハンド22による線状物を所定位置に搬送する場合の、線状物の先端曲り量計測方法について以下説明する。以下の説明では、所定位置への搬送の一例として、ターゲットTGに設けられた孔TGHに、線状物として電線W1の先端W1sを挿入させる場合について説明する。
 ここで、線状物の直径は、三次元カメラで認識できる範囲であればよく、好ましくは0.01mm~10cmである。ターゲットTGに設けられた孔TGHは、線状物を挿入することができる大きさであればよく、好ましくは直径が0.01mm~15cm、孔深さは線状物の直径の2倍以上が好ましい。
 図9を参照して、ロボットハンド22により電線W1を把持した状態を示している。さらに電線W1の先端W1sは、ロボットハンド22に対して略直角をなすように延びておらず曲がった状態となっている。
 ロボットハンド22により把持された電線W1の先端W1sの位置を計測する。この時、ロボットハンド22に対して略直角に延びる方向をL1とした場合に、電線W1の先端W1sがL1に対してどれだけずれているかの先端曲り量を計測してもよい。先端W1sの位置の計測においては、上述した三次元カメラ31を用いて三次元形状を計測できる。これにより、先端W1sの位置やズレ量X1を知ることができる。
 さらに、電線W1の先端W1sから所定距離位置(図9中の距離D1)までの形状を測定し、平均ベクトルを求めることで、電線W1の先端の延びる向きを決定することができる。また、電線W1の先端W1sと、先端W1sから孔への挿入長さの位置とを結ぶベクトルを先端の向きとしてもよい。
 これにより、ターゲットTGに設けられた孔TGHに先端W1sを挿入する際の適切な姿勢の向きが判定できる。電線W1の先端W1sから所定距離位置(図9中の距離D1)は、好ましくはターゲットTGに設けられた孔TGHの孔深さの0.3~10倍、より好ましくは、0.5~5倍である。先端からの曲り量を計測し、急峻に変化する点までをD1としてもよい。次に、電線W1の先端W1sの位置や先端曲り量の計測を終えると、その位置や先端曲り量をロボットハンド22の移動制御にフィードバックする。
 図9に示すように、先端W1sの位置や先端曲り量からフィードバック量を与えることで、先端W1sをターゲットTGに設けられた孔TGHに移動させることが可能である。この場合、孔TGHの孔深さが浅い場合には問題が生じることは少ない。しかし、孔TGHの孔深さが深い場合や孔TGHの直径が小さく電線W1の直径とあまり変わりない場合には、電線を孔に挿入できるような所定の向きに先端W1sの向きを一致させて移動させる必要がある。具体的には、孔TGHの中心軸TG-Aの延びる方向に沿って先端W1sを移動させる必要がある。
 そこで、図10に示すように、孔TGHの中心軸TG-Aの延長線上に位置する手前位置P11を予め定めておき、手前位置P11に先端W1sを移動させるとともに、孔TGHの中心軸TG-Aの方向と、電線W1の先端の向きとを一致させる移動を行なう。
 移動方法は、先端W1sを手前位置P11に移動させながら向きを一致させてもよいし、先端W1sを手前位置まで平行移動させてから、手前位置で向きを一致させるように電線W1を回転させてもよい。手前位置は、目標位置付近であることが好ましく、目標位置が孔である場合は、孔の中心軸の延びる線上であることが好ましい。目標位置が溝である場合は、溝の直上であることが好ましい。目標位置が端子台である場合は、端子をつなげる位置から端子をつなげる方向に延びる線上であることが好ましい。
 その後、中心軸TG-Aの延びる線上に沿って先端W1sを移動させることにより、孔TGHの孔深さが深い場合や孔TGHの直径が小さい場合であっても、先端W1sを孔TGHの内部に挿通させることが可能となる。
 なお、孔TGHに電線W1を挿入できたかどうかをセンサ等で判断し、挿入に失敗していた場合には、電線W1を手前位置P11に戻して、再度電線W1の先端W1s位置と向きを計測し、孔TGHの中心軸TG-Aの延びる方向と電線W1の先端の向きとを合わせて、先端W1sを孔TGHに移動させてもよい。
 具体的な、電線W1の電線先端曲り量計測方法について以下説明する。たとえば、ロボットハンド22から長さ100mmの電線W1が出た状態と仮定する。
 [目標位置のティーチング]
 事前に、ロボット座標系における目標位置の座標を登録する。ロボットハンド22に電線W1ではなく、100mmのまっすぐな棒B(図9参照)を把持させる。ロボットハンド22は、適当な位置をつかんでいるので、棒Bの突出長さは100±数mmである。この棒Bは、電線と同一直径にする。その後、上記の棒Bを三次元カメラでスキャンする。
 次に、ロボットハンド22から棒Bの先端の相対座標が計算できる。これをたとえば、P1のように基準データとして保持する。
 棒の先端を、電線W1を挿入したい孔位置まで移動させる。移動させた時の棒の先端位置が目標位置となる。目標位置は、孔の中に設定してもよいし、孔の入り口付近に設定してもよい。移動させた棒の先端のロボット座標系における座標を目標位置として登録する。これは、ロボットハンドの座標にP1を足すことで計算できる。この位置をP0と登録する。以上で目標位置のティーチングが終了する。
 [電線の移動]
 ロボットハンド22に移動したい電線W1を把持させる。その後、電線W1を三次元カメラでスキャンする。
 ロボットハンド22から電線W1の先端W1sまでの相対座標が計算できる。これをたとえば、P2とすると、P0―P2で計算されるベクトルを移動ベクトルとしてロボットに通知し、ロボットが電線を移動させる。
 これにより、先端W1sと孔TGHとの位置が合うこととなる。
 [電線の移動+方向変更]
 ここで、P2は先端座標であることから、これに先端方向(Rx,Ry,Rz)を同時に計算すれば、上記したように、孔TGHの中心軸TG-Aの延びる方向と、電線W1の先端の延びる方向とを一致させることが可能となる。先端W1sの移動方法は、上記したように予め定めた手前位置P11まで平行移動させ、手前位置P11で電線W1の先端の向きを孔TGHの中心軸TG-Aの方向に一致させるよう回転し、その後、中心軸TG-Aの延びる線上に沿って先端W1sを移動させてもよい。また、手前位置P11を定めずに、電線W1の先端の延びる方向を孔TGHの中心軸TG-Aの延びる方向に一致させるよう回転させながら、初期位置から孔TGHへ移動させてもよい。先端W1sが目標位置P0に到達する際、先端W1sの向きが所定の向きに一致するように、線状物W1の先端W1sを所定位置に移動させる移動方法であればよい。
 線状物を所定位置へ搬送する一例として、ターゲットTGに設けられた孔TGHに、線状物として電線W1の先端W1sを挿入させる場合について説明したが、線状物および目標位置はこれに限定されない。目標位置が孔である具体例としては、電線の先端を検査する検査装置、電線の被膜を剥くワイヤーストリッパー、電線とコネクタを接続する加工機、電線の先端に圧着端子をかしめる加工装置などの所定位置が挙げられる。
 その他の実施例として、例えば、基板に配線をはんだ付けする場合、配線の向きや他の部品の位置に応じて、はんだの向きを制御する必要がある。この場合、線状物をはんだとして、目標位置をはんだ付けしたい基板の所定箇所または基板の所定箇所の直上付近として本発明を利用できる。
 また、端子付きの電線を端子台に移動させる場合には、端子を端子台につなげる向きに制約があるため、端子付き電線の向きを端子台につなげられる所定の向きに一致させるように移動させる必要がある。この場合、線状物は端子付きの電線、目標位置は端子台の所定箇所または所定箇所付近として本実施の形態を利用することができる。このように、目標位置は、孔に限定されず、所定の検査位置、加工作業位置、面や溝、またはこれらの直上付近の所定箇所でもよい。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 10 線状物把持のための全体システム、20 ロボット、21 ロボットアーム、22 ロボットハンド、31 三次元カメラ(ステレオカメラ)、32 制御装置、51 第1干渉領域、52 第1拡張干渉領域、53 第2干渉領域、54 第2拡張干渉領域。

Claims (9)

  1.  ロボットハンドで把持した線状物の先端を目標位置に移動させる際の、線状物の先端移動方法であって、
     前記ロボットハンドで把持した前記線状物の前記先端の位置を計測する工程と、
     計測した前記先端の位置に基づき、前記先端を前記目標位置に移動させる工程と、
    を備える、線状物の先端移動方法。
  2.  前記先端の位置を計測する工程は、さらに、前記先端の向きも計測する工程を含む、請求項1に記載の線状物の先端移動方法。
  3.  前記先端を前記目標位置に移動させる工程は、前記先端の向きを所定の向きに一致させる工程を含む、請求項2に記載の線状物の先端移動方法。
  4.  前記先端の向きは、前記先端から所定距離位置までの前記線状物の形状に基づいて決定する、請求項2または請求項3に記載の線状物の先端移動方法。
  5.  前記先端を前記目標位置に移動させる工程は、前記目標位置が孔である、請求項1から請求項4のいずれかに記載の線状物の先端移動方法。
  6.  前記先端を前記目標位置に移動させる工程は、前記先端が予め定めた手前位置を通過し、前記手前位置における前記先端の向きを所定の向きに一致させて、前記先端を移動させる、請求項1から請求項5のいずれかに記載の線状物の先端移動方法。
  7.  ロボットに設けられたロボットハンドによる線状物の移動を制御する制御装置であって、
     前記線状物の三次元形状を取得する三次元カメラから前記線状物の三次元形状を取得し、
     前記三次元形状から前記線状物の先端の位置を取得し、
     前記線状物の前記先端の位置に基づき、前記先端を目標位置に移動させるための情報を前記ロボットハンドを有する前記ロボットに通知する、制御装置。
  8.  当該制御装置は、前記線状物の前記三次元形状から前記線状物の前記先端の向きを計測し、
     前記線状物の前記先端の向きを所定の向きに一致させて前記目標位置まで移動させるための情報を前記ロボットハンドを有する前記ロボットに通知する、請求項7に記載の制御装置。
  9.  ロボットに設けられたロボットハンドによる線状物の移動を制御する際に用いられる、前記線状物の三次元形状を取得する三次元カメラであって、
     当該三次元カメラは、制御装置を含み、
     前記制御装置は、
     前記三次元カメラから前記線状物の三次元形状を取得し、
     前記三次元形状から前記線状物の先端の位置を取得し、
     前記線状物の前記先端の位置に基づき、前記先端を目標位置に移動させるための情報を前記ロボットハンドを有する前記ロボットに通知する、三次元カメラ。
PCT/JP2019/005611 2018-02-23 2019-02-15 線状物の先端移動方法、制御装置、および、三次元カメラ WO2019163671A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201980014602.3A CN111757796B (zh) 2018-02-23 2019-02-15 线状物的前端移动方法、控制装置以及三维照相机
EP19756929.6A EP3756835A4 (en) 2018-02-23 2019-02-15 LINEAR OBJECT POINT MOVEMENT PROCESS, CONTROL DEVICE AND THREE-DIMENSIONAL CAMERA
KR1020237038610A KR20230159628A (ko) 2018-02-23 2019-02-15 선형물의 선단 이동 방법, 및, 제어 장치
JP2020501732A JP7410849B2 (ja) 2018-02-23 2019-02-15 線状物の先端移動方法、および、制御装置
US16/971,679 US11964397B2 (en) 2018-02-23 2019-02-15 Method for moving tip of line-like object, controller, and three-dimensional camera
KR1020207027324A KR20200123816A (ko) 2018-02-23 2019-02-15 선형물의 선단 이동 방법, 제어 장치, 및, 삼차원 카메라

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018031263 2018-02-23
JP2018-031263 2018-02-23

Publications (1)

Publication Number Publication Date
WO2019163671A1 true WO2019163671A1 (ja) 2019-08-29

Family

ID=67688100

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/005611 WO2019163671A1 (ja) 2018-02-23 2019-02-15 線状物の先端移動方法、制御装置、および、三次元カメラ

Country Status (7)

Country Link
US (1) US11964397B2 (ja)
EP (1) EP3756835A4 (ja)
JP (1) JP7410849B2 (ja)
KR (2) KR20200123816A (ja)
CN (1) CN111757796B (ja)
TW (1) TWI760596B (ja)
WO (1) WO2019163671A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022158604A1 (ja) * 2021-01-25 2022-07-28 三菱電機株式会社 ろう付け装置、ろう付け装置の制御方法およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111757796B (zh) * 2018-02-23 2023-09-29 仓敷纺绩株式会社 线状物的前端移动方法、控制装置以及三维照相机

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02309202A (ja) 1989-05-23 1990-12-25 Nippondenso Co Ltd 位置測定装置
WO1998017444A1 (fr) * 1996-10-24 1998-04-30 Fanuc Ltd Systeme de robot de commande de forces a capteur optique pour travail d'insertion
JP2012200805A (ja) * 2011-03-24 2012-10-22 Canon Inc ロボット制御装置、ロボット制御方法、プログラム及び記録媒体
JP2014176917A (ja) 2013-03-14 2014-09-25 Yaskawa Electric Corp ロボット装置
JP2016192138A (ja) 2015-03-31 2016-11-10 株式会社オートネットワーク技術研究所 ワイヤーハーネスの製造方法および画像処理方法
JP2017221045A (ja) 2016-06-08 2017-12-14 日産自動車株式会社 電動車両の制御方法、及び電動車両の制御装置
JP2017226029A (ja) * 2016-06-20 2017-12-28 キヤノン株式会社 ロボット装置の制御方法、およびロボット装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101522377B (zh) * 2006-10-20 2011-09-14 株式会社日立制作所 机械手
CN101396829A (zh) 2007-09-29 2009-04-01 株式会社Ihi 机器人装置的控制方法以及机器人装置
JP5448326B2 (ja) * 2007-10-29 2014-03-19 キヤノン株式会社 把持装置および把持装置制御方法
JP5528095B2 (ja) * 2009-12-22 2014-06-25 キヤノン株式会社 ロボットシステム、その制御装置及び方法
JP4837116B2 (ja) * 2010-03-05 2011-12-14 ファナック株式会社 視覚センサを備えたロボットシステム
JP2011200948A (ja) 2010-03-24 2011-10-13 Sony Corp 把持判別装置および把持判別方法
US9041914B2 (en) 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
JP6693098B2 (ja) 2015-11-26 2020-05-13 セイコーエプソン株式会社 ロボット、及びロボットシステム
CN111757796B (zh) * 2018-02-23 2023-09-29 仓敷纺绩株式会社 线状物的前端移动方法、控制装置以及三维照相机
JP6810173B2 (ja) * 2019-01-29 2021-01-06 日本金銭機械株式会社 物体把持システム
JP7015265B2 (ja) * 2019-03-14 2022-02-02 ファナック株式会社 コネクタを含むワークを把持する作業ツールおよび作業ツールを備えるロボット装置
US20230124687A1 (en) * 2021-10-14 2023-04-20 Olympus Medical Systems Corp. Method for calibrating endoscope and endoscope system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02309202A (ja) 1989-05-23 1990-12-25 Nippondenso Co Ltd 位置測定装置
WO1998017444A1 (fr) * 1996-10-24 1998-04-30 Fanuc Ltd Systeme de robot de commande de forces a capteur optique pour travail d'insertion
JP2012200805A (ja) * 2011-03-24 2012-10-22 Canon Inc ロボット制御装置、ロボット制御方法、プログラム及び記録媒体
JP2014176917A (ja) 2013-03-14 2014-09-25 Yaskawa Electric Corp ロボット装置
JP2016192138A (ja) 2015-03-31 2016-11-10 株式会社オートネットワーク技術研究所 ワイヤーハーネスの製造方法および画像処理方法
JP2017221045A (ja) 2016-06-08 2017-12-14 日産自動車株式会社 電動車両の制御方法、及び電動車両の制御装置
JP2017226029A (ja) * 2016-06-20 2017-12-28 キヤノン株式会社 ロボット装置の制御方法、およびロボット装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YASUO KITA, YUKIYASU DOMAE, HARUHISA OKUDA, MASANORI SEKI: "1B2-3 Development of robot vision system that can handle flexible objects", 29TH ANNUAL CONFERENCE OF THE ROBOTICS SOCIETY OF JAPAN [29.-NIHON-ROBOTTO-GAKKAI-GAKUJUTSU-KŌENKAI : SEPTEMBER 7 - 9, 2011, TŌKYŌ, JAPAN], 7 September 2011 (2011-09-07), XP009523360 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022158604A1 (ja) * 2021-01-25 2022-07-28 三菱電機株式会社 ろう付け装置、ろう付け装置の制御方法およびプログラム
JP7471468B2 (ja) 2021-01-25 2024-04-19 三菱電機株式会社 ろう付け装置、ろう付け装置の制御方法およびプログラム

Also Published As

Publication number Publication date
KR20200123816A (ko) 2020-10-30
JP7410849B2 (ja) 2024-01-10
CN111757796B (zh) 2023-09-29
US11964397B2 (en) 2024-04-23
EP3756835A4 (en) 2021-12-15
US20200406466A1 (en) 2020-12-31
TWI760596B (zh) 2022-04-11
CN111757796A (zh) 2020-10-09
JPWO2019163671A1 (ja) 2021-02-04
EP3756835A1 (en) 2020-12-30
KR20230159628A (ko) 2023-11-21
TW201941888A (zh) 2019-11-01

Similar Documents

Publication Publication Date Title
JP5685027B2 (ja) 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
JP7106571B2 (ja) 線状物把持方法および制御装置
JP5854815B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5778311B1 (ja) ピッキング装置およびピッキング方法
JP2016099257A (ja) 情報処理装置及び情報処理方法
WO2019163671A1 (ja) 線状物の先端移動方法、制御装置、および、三次元カメラ
US11816754B2 (en) Measurement parameter optimization method and device, and computer control program stored on computer-readable storage medium
JP7454132B2 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
JP7177639B2 (ja) 帯状物の3次元計測方法および帯状物の3次元計測装置
JP7140826B2 (ja) 把持制御装置
JP7222720B2 (ja) 先端部材位置推定方法、先端部材把持方法、先端部材接続方法、先端部材位置推定システム、および、先端部材把持システム
JP2007125653A (ja) ロボットハンドの把持制御装置
JP7217109B2 (ja) 帯状物の作業位置決定方法、ロボット制御方法、帯状物の作業位置決定装置および帯状物ハンドリングシステム
JP2021028107A (ja) コネクタの向きの探索方法、コネクタの接続方法、ロボットハンド、制御装置、撮像装置、およびコネクタ接続システム
WO2021149429A1 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
EP3871842A1 (en) System and method for member articulation
CN112672859B (zh) 带状物的作业位置决定方法、机器人控制方法、作业位置决定装置、带状物处理系统、三维测量方法及三维测量装置
JP7438734B2 (ja) 先端部材の向き認識方法、先端部材向き合わせ方法、先端部材挿入方法、先端部材向き認識装置及び先端部材向き合わせシステム
JP2024080766A (ja) ワークピッキング方法
JP2022150024A (ja) ワーク把持方法、ロボット制御装置およびワーク把持システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19756929

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020501732

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20207027324

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2019756929

Country of ref document: EP

Effective date: 20200923