WO2020050121A1 - 帯状物の作業位置決定方法、ロボット制御方法、帯状物の作業位置決定装置、帯状物ハンドリングシステム、帯状物の3次元計測方法および帯状物の3次元計測装置 - Google Patents

帯状物の作業位置決定方法、ロボット制御方法、帯状物の作業位置決定装置、帯状物ハンドリングシステム、帯状物の3次元計測方法および帯状物の3次元計測装置 Download PDF

Info

Publication number
WO2020050121A1
WO2020050121A1 PCT/JP2019/033831 JP2019033831W WO2020050121A1 WO 2020050121 A1 WO2020050121 A1 WO 2020050121A1 JP 2019033831 W JP2019033831 W JP 2019033831W WO 2020050121 A1 WO2020050121 A1 WO 2020050121A1
Authority
WO
WIPO (PCT)
Prior art keywords
strip
image
side edge
determining
work
Prior art date
Application number
PCT/JP2019/033831
Other languages
English (en)
French (fr)
Inventor
基善 北井
Original Assignee
倉敷紡績株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018164904A external-priority patent/JP7217109B2/ja
Priority claimed from JP2018168289A external-priority patent/JP7177639B2/ja
Application filed by 倉敷紡績株式会社 filed Critical 倉敷紡績株式会社
Priority to CN201980056885.8A priority Critical patent/CN112672859A/zh
Publication of WO2020050121A1 publication Critical patent/WO2020050121A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Definitions

  • the present invention relates to a method and an apparatus for determining a work position of a work on a band, a robot control method for causing a robot hand to work on the work position, and a band handling system. Further, the present invention relates to a method and an apparatus for performing three-dimensional measurement of a strip using a stereo camera.
  • Robots are used to automate the work of handling flexible strips such as flat cables. In such an operation, there is a problem how to recognize and grasp a bent or twisted strip.
  • Patent Document 1 describes a robot hand that grips a flat cable and inserts a cable connector at the distal end into a receiving-side connector.
  • the robot hand grips the cable by pressing the suction part against the flat cable stocked on the table to suction-hold the cable, slightly lifting the cable, and inserting a gripping claw below the cable.
  • Patent Document 2 describes a robot that grasps a flexible elongate member such as a flexible flat cable and connects a cable-side connector at a distal end to a board-side connector.
  • the robot grips a flat cable whose base end is rigidly attached to the base end where the variation in position and posture is smaller than the tip end and a halfway part of the gripping target position with a robot hand,
  • the cable is gripped by moving the robot hand while sliding toward the grip target position.
  • JP 2017-189850 A JP-A-2015-03008
  • Patent Literatures 1 and 2 do not perform three-dimensional measurement of a band or a part of the band in a free state in which deformation due to bending or twisting is not restricted.
  • the flat cable needs to be stocked in advance on the table. Therefore, it cannot be applied to, for example, recognizing and holding a band-shaped object randomly stored in a box or a band-shaped object suspended in the air.
  • the present invention has been made in consideration of the above, and is not limited by the state of a strip, and a method and apparatus for performing three-dimensional measurement of the strip at a high speed, and work on a strip such as gripping of the strip. It is an object of the present invention to provide a method and an apparatus for determining the work position of the robot, and a handling method and a system for enabling the robot hand to grasp the work position.
  • the method for determining a work position of a band includes the steps of: acquiring a three-dimensional coordinate of at least one side of the band; and a work position of the band based on the three-dimensional coordinates of the one side. And determining a work position.
  • the edge of the band refers to four outer peripheries forming a boundary between two flat surfaces (front and back) of the band.
  • the three-dimensional coordinates of the edge indicate the position occupied by the edge in the three-dimensional space, and may be an equation indicating the shape of the edge, or a set of three-dimensional coordinates of points on the edge. There may be.
  • Acquiring three-dimensional coordinates means not only obtaining a three-dimensional coordinate by imaging a band with a three-dimensional measuring device such as a stereo camera, but also storing three-dimensional coordinate data of the band stored in advance in a storage device or the like. Also includes reading from.
  • the work position is used when a person or a robot performs a holding work such as gripping, pinching, suction or the like, or a processing work such as painting, marking, welding, cutting, drilling, attaching parts, sewing, soldering, etc. ,
  • a holding work such as gripping, pinching, suction or the like
  • a processing work such as painting, marking, welding, cutting, drilling, attaching parts, sewing, soldering, etc.
  • the edge coordinate obtaining step is a step of obtaining three-dimensional coordinates of a first side edge of the strip
  • the work position determining step is based on the three-dimensional coordinates of the first side edge. And determining the working position of the strip.
  • the side edge refers to any one of the two sides corresponding to the long side of the above-mentioned edge.
  • the end side coordinate obtaining step is a step of obtaining three-dimensional coordinates of a front end side of the strip, and the work position determining step is performed based on the three-dimensional coordinates of the front end side. This is a step of determining the work position.
  • the leading edge refers to any one of the two edges corresponding to the shorter edges of the edge.
  • the method for determining a work position of a strip further includes a work direction determining step of determining a work direction of the strip based on the acquired three-dimensional coordinates of the edge.
  • the work direction refers to a direction in which a work member such as an end effector that directly performs a work on the strip approaches the strip.
  • the work direction is defined as a work member (eg, a robot hand or a human hand, a holding tool or a processing tool held by a robot hand or a human hand) working on a belt-shaped object. Means the traveling direction when approaching the work position.
  • the working direction is parallel to a surface near the work position (gripping position) of the band, and is at a predetermined angle with the width direction of the band.
  • the direction is preferably a heading direction, and this direction can be the working direction.
  • the work direction (gripping direction) can be appropriately set according to the shape of the robot hand, the work content, and the like. Determining the working direction includes finding a three-dimensional vector of the working direction. According to this method, the working direction can be reliably determined even when the strip is deformed.
  • the robot control method includes the edge coordinate acquiring step and the work position determining step in any one of the above-described strip-shaped work position determining methods, and an operation for causing a robot hand to work on the work position of the strip-shaped object. And a process.
  • the work step is a gripping step of gripping the strip with the robot hand using the work position as a gripping position.
  • another robot control method of the present invention when the work direction is determined in any one of the above-described work position determining methods for the band-shaped object, the edge coordinate acquiring step and the work position determining step in the work position determining method are included.
  • the robot hand with respect to the work position of the strip in the work direction.
  • another robot control method of the present invention further includes, before the work step, a work-before-position setting step of setting the work-before-position at a position away from the work position by a predetermined distance in a direction opposite to the work direction.
  • the operation step is a gripping step of gripping the strip with the robot hand with the operation position being a gripping position and the operation direction being a gripping direction.
  • An apparatus for determining a work position of a strip according to the present invention includes a three-dimensional measuring device for measuring the strip, and a work position of the strip based on three-dimensional coordinates of at least one side of the strip measured by the three-dimensional measurement apparatus. And an arithmetic unit for calculating and outputting.
  • the strip handling system of the present invention includes the work position determination device and a robot including a robot hand that grips the strip, and the robot hand uses the robot hand based on the work position output by the work position determination device. Hold the band.
  • the three-dimensional measurement method for a band-shaped object includes an imaging step of acquiring a first image and a second image of the band-shaped object from different viewpoints, and the first image and the second image.
  • the side edge of the strip refers to any one of the two longer sides of the four sides on the outer periphery of the strip.
  • the three-dimensional coordinates of the first side edge indicate a position occupied by the first side edge in a three-dimensional space, and may be an equation indicating the shape of the first side edge, It may be a set of three-dimensional coordinates of points on the edge.
  • the extracting step further extracts a second side edge of the strip in each of the first image and the second image
  • the three-dimensional calculating step includes extracting the second side edge extracted from the first image.
  • the three-dimensional coordinates of the second side edge are further calculated based on the two side edges and the second side edge extracted from the second image. According to this method, the three-dimensional coordinates of both side edges of the band can be calculated at high speed, and the entire three-dimensional coordinates of the band in the width direction can be obtained.
  • the first corner and the second corner are recognized by recognizing a first corner and a second corner of the strip in each of the first image and the second image.
  • the first side edge and the second side edge are extracted based on Even more preferably, the extracting step extracts an outline of the band-shaped object in each of the first image and the second image, and based on the outline, the first side edge and the second side edge. Is extracted.
  • the extraction step includes extracting an outline of the band-shaped object in each of the first image and the second image, and based on the outline, the first corner and the second corner. Recognize.
  • the outline of the strip is extracted in each of the first image and the second image, and two bending points of the outline are defined by the first corner and the second corner.
  • the extending portion is selected as the second side edge.
  • the extracting step includes recognizing a first corner of the band-shaped object in each of the first image and the second image, and Is extracted. More preferably, in the extracting step, an outline of the strip is extracted in each of the first image and the second image, and the first corner is recognized on the outline. With these methods, the three-dimensional coordinates of the first side edge can be calculated at higher speed.
  • the outline of the strip is extracted, the first corner is recognized on the outline, and the three-dimensional calculation step is performed. Recognizes a corner other than the first corner as a second corner on the three-dimensional coordinates of the contour based on the first image and the second image, and calculates the three-dimensional coordinates of the contour and the second corner.
  • the three-dimensional coordinates of the second side edge are further calculated from the three-dimensional coordinates of the corner. Accordingly, even when both corners cannot be recognized on the first image and the second image, the three-dimensional coordinates of the first side edge and the second side edge can be calculated at higher speed.
  • the three-dimensional measuring method of the strip for calculating the three-dimensional coordinates of the first side edge and the second side edge is a three-dimensional measuring method of the strip for working at the work position.
  • the three-dimensional calculation step after calculating three-dimensional coordinates of the first side edge and the second side edge, a first reference point on the first side edge and the second side edge are calculated. Setting a work position on a straight line connecting the second reference points on the sides, calculating three-dimensional coordinates of the work position, and extending in the in-plane direction of the band through the work position, The method further includes a step of calculating a working direction that forms a predetermined angle with the width direction of the object.
  • the three-dimensional coordinates of the working direction indicate a position occupied by a straight line indicating the working direction in a three-dimensional space, and may be a vector equation of the straight line, or may be a vector equation of the straight line. It may be a set of three-dimensional coordinates.
  • Another three-dimensional measurement method for a band-shaped object includes an imaging step of acquiring a first image and a second image obtained by imaging the band-shaped object from different viewpoints, and the band-shaped object in each of the first image and the second image.
  • the leading edge of the strip refers to any one of the two shorter sides of the four sides on the outer circumference of the strip.
  • the three-dimensional coordinates of the tip side can be calculated at high speed irrespective of the state of bending or twisting of the strip. be able to.
  • Still another three-dimensional measurement method for a strip is a three-dimensional measurement method for a strip for determining a work position with respect to the strip, the first image capturing the strip from a different viewpoint and An imaging step of acquiring a second image, an extraction step of extracting a first side edge or a tip side of the strip in each of the first image and the second image, and the second step of extracting the second image from the first image.
  • the work position is defined as a time when a person or a robot performs a holding work such as gripping, holding, suction, or the like, or a processing work such as painting, marking, welding, cutting, drilling, attaching parts, sewing, soldering, or the like.
  • a holding work such as gripping, holding, suction, or the like
  • a processing work such as painting, marking, welding, cutting, drilling, attaching parts, sewing, soldering, or the like.
  • the strip is measured in a free state without being restricted by deformation.
  • the free state in which the band is not restricted by the deformation is a state in which the tip of the band does not receive stress from another object, or even if it receives some stress from another object.
  • the shape and posture are not stable due to external factors such as balance and wind.
  • the present invention is particularly suitably used for such a band.
  • the three-dimensional measurement apparatus for a strip includes a first camera and a second camera that capture an image of the strip from different viewpoints, and first and second images captured by the first camera and the second camera, respectively. Extracting a first side edge of the band-like object, and the first side edge based on the first side edge extracted from the first image and the first side edge extracted from the second image. And a calculation unit for calculating the three-dimensional coordinates.
  • Another three-dimensional measurement apparatus for a strip includes a first camera and a second camera that image the strip from different viewpoints, and first and second images captured by the first camera and the second camera.
  • a computing unit that extracts a tip side of the band-shaped object in each of the above, and calculates three-dimensional coordinates of the tip side based on the tip side extracted from the first image and the tip side extracted from the second image. Having.
  • Still another object of the present invention is a three-dimensional measuring apparatus for a band, which is used with a robot hand working on the band, wherein the first camera captures an image of the band from a different viewpoint. And a second camera, and calculating three-dimensional coordinates of a first side edge or a tip side of the strip based on the first image and the second image captured by the first camera and the second camera.
  • the work direction refers to a direction in which a work member such as an end effector that directly performs a work on the strip approaches the strip.
  • the work direction is defined as a work member (eg, a robot hand or a human hand, a holding tool or a processing tool held by a robot hand or a human hand) working on a belt-shaped object.
  • a work member eg, a robot hand or a human hand, a holding tool or a processing tool held by a robot hand or a human hand
  • the traveling direction when approaching the work position.
  • the working direction is parallel to a surface near the work position (gripping position) of the band, and is at a predetermined angle with the width direction of the band.
  • the direction is preferably a heading direction, and this direction can be the working direction.
  • the work direction (gripping direction) can be appropriately set according to the shape of the robot hand, the work content, and the like. Calculating the working direction includes obtaining a three-dimensional vector of the working direction.
  • the work position can be determined based on the three-dimensional coordinates of at least one side of the strip.
  • a conventional pattern matching method cannot be applied, such as a flexible belt-like object in which free deformation such as bending, twisting, and bending occurs.
  • the work position is determined based on the three-dimensional shape of at least one end of the strip, so that the robot can control the strip without using a conventional method such as teaching or pattern matching.
  • Hands can work.
  • the strip handling system of the present invention even when the strip is bent or twisted, the strip can be reliably gripped by the robot hand.
  • the processing is performed on the first side edge or the tip side extracted on the first image and the second image, whereby the bending or twisting of the band-like object is performed. Regardless of the state, the three-dimensional coordinates of the first side edge or the tip side can be calculated at high speed.
  • the state of the bending or twisting of the object is performed by performing processing on the first side edge extracted on the first image and the second image. Regardless, the three-dimensional coordinates of the first side edge can be calculated at high speed.
  • the other three-dimensional measuring apparatus for a band-shaped object of the present invention by performing processing on the leading edge extracted on the first image and the second image, regardless of the state of bending or twisting of the band-shaped object. ,
  • the three-dimensional coordinates of the tip side can be calculated at high speed.
  • the three-dimensional coordinates of the work position and the work direction can be calculated at high speed based on the three-dimensional coordinates of the first side edge or the tip side.
  • the robot hand can work on the strip without being restricted by the state of the strip and without using a conventional method such as teaching or pattern matching.
  • FIG. 4 is a diagram for explaining A: a first image and a second image, B: outline extraction, and C: bending point and side edge selection. It is a figure for explaining a setting method of a reference point and a grip position on a belt, and a near position outside a belt. It is a figure for explaining the grasping operation of the band by the robot hand, and is a diagram showing a state where the robot hand is in the A: near position, B: in the grasping position, and C: the band is grasped. is there.
  • FIG. 4 is a diagram for explaining A: a first image and a second image, B: contour extraction, and C: inflection point and region selection. It is a figure for demonstrating the side edge selection method of a strip. It is a figure for demonstrating the determination method of the holding
  • the work position is determined based on the side edge of the belt-shaped object, and the robot hand performs the gripping operation with the work position as the gripping position.
  • a strip-shaped object handling system 10 of the present embodiment includes a three-dimensional measuring device 20 and a robot 30.
  • the three-dimensional measurement of the strip 40 is performed by the three-dimensional measuring device 20, and the gripping position (working position) and the gripping direction (working direction) of the strip 40 are determined based on the result, and the strip is determined.
  • the user holds the robot 30 with a hand (robot hand) 32 and moves the belt-like object to a predetermined target position 60 in a predetermined direction.
  • the band-shaped object 40 is a flexible band-shaped object.
  • the strip include, but are not limited to, flat cables, fabrics, films, ribbons, and the like, and the type of strip is not particularly limited.
  • the cross-sectional shape of the belt-like object does not need to be completely uniform in thickness, and may be any shape as long as both side edges can be recognized as edges.
  • the central portion may have a convex lens-shaped cross-sectional shape with a large thickness, or, like many ribbons, a thick portion such as a folded portion is formed on one or both side edges. Is also good.
  • the strip 40 may be one before being cut or processed as illustrated in FIG. 1, or may be one already cut or partially processed.
  • the belt-shaped material 40 is wound on a reel and is in a hanging state with its tip hanging down in the air.
  • the state such as the position and the posture is not constant due to bending and twisting.
  • the three-dimensional measuring apparatus and method according to the present embodiment are in a “free” or “unsupported” state in which the strip is not limited by bending, twisting, and deformation due to bending, for example, when the strip is a floor, a wall, or a transfer lane.
  • the three-dimensional measuring apparatus and method of the present embodiment can control the balance with the self-weight and the wind even when the belt-like object is in the “free” state and even if it receives some stress from other objects. It is particularly preferably used when the shape or posture is not stable due to the external factors described above.
  • the three-dimensional measuring device 20 measures the three-dimensional coordinates of each part of the strip 40.
  • the type of the three-dimensional measuring device is not particularly limited, and various known devices can be used.
  • the three-dimensional measuring device 20 of the present embodiment is a stereo three-dimensional measuring device.
  • the three-dimensional measurement device 20 includes a first camera 21, a second camera 22, and a calculation unit 23.
  • the first camera 21 and the second camera 22 image the band-like object 40 to be grasped from different viewpoints.
  • the calculation unit 23 processes the two images captured by the first camera and the second camera to obtain the three-dimensional coordinates of the strip 40, and performs various calculations. Details of the function of the calculation unit will be described later.
  • the robot 30 is an articulated robot, and has an arm 31, a hand (robot hand) 32, and a control unit 36.
  • the control unit 36 controls the entire robot 30 including the arm and the hand.
  • the robot 30 grasps the band 40 with the hand 32 and moves the band 40 to the target position 60 by moving the arm and the hand.
  • the hand 32 is attached to the tip of the arm 31 and has two gripping surfaces 33, a plurality of links 34, and a plurality of joints 35 connecting the links. By appropriately operating the joint 35, the hand 32 can increase or decrease the distance between the two gripping surfaces 33, 33.
  • the hand 32 widens the gap between the two gripping surfaces and approaches the band-shaped object 40, and narrows the gap between the two gripping surfaces to pinch the band-shaped object.
  • the structure of the hand is not limited to this, and various types of grippers that open and close fingers using cams and gears, vacuum suction, magnet suction, and the like can also be used.
  • FIG. 3 is a process flow chart of the work position determining method and the three-dimensional measuring method of the strip according to the present embodiment.
  • the calculation unit 23 of the three-dimensional measuring device 20 first receives a gripping distance and a gripping angle as gripping conditions when the robot hand 32 grips the band-shaped object 40.
  • a holding position (working position) G is a position on the band-shaped object 40 that is held by the hand 32, and is given, for example, as a holding distance D from the leading edge 41 of the band-shaped object.
  • the grip angle ⁇ refers to the orientation of the hand with respect to the band when the hand 32 grips the band 40, and is given, for example, as an angle ⁇ from the width direction of the band (dashed line in FIG. 5).
  • the hand 32 makes the surface of the band-shaped object estimated on the basis of the three-dimensional coordinates of the side edges and the gripping surfaces 33, 33 substantially parallel, and sets the front-rear direction (X direction in FIG. 2) of the gripping surfaces 33, 33 of the band-shaped object.
  • the strip is gripped in a gripping direction (working direction) V that intersects the width direction at a gripping angle ⁇ .
  • the gripping distance D and the gripping angle ⁇ are not given as three-dimensional coordinates in space, but as relative positions or angles with respect to the strip 40.
  • the gripping distance D and the gripping angle ⁇ can be determined according to a post-process such as processing or packing.
  • the arithmetic unit 23 receives the grip distance D and the grip angle ⁇ , for example, those input by an operator from input means (not shown).
  • the first camera 21 and the second camera 22 capture the first image L and the second image R of the strip 40. It is not necessary to image the entire band, and it is sufficient to image a range in which the shape of the band is to be estimated. That is, an image of a band-like object in a range necessary for determining a desired grip position and grip direction may be obtained.
  • calculation unit 23 extracts contour C of strip 40 from each of first image L and second image R.
  • the contour C can be extracted by a known method, for example, by calculating a difference between adjacent pixels.
  • the calculation unit 23 selects a bending point of the contour C in each of the first image L and the second image R. Whether or not a point on the contour C is a bending point can be determined based on the angle formed by two straight lines drawn from that point to adjacent points on both sides of the contour C. For example, when the angle is equal to or less than 120 degrees, that point can be determined as a bending point.
  • first corner portion 42 and second corner portion of band 40 when two bending points can be selected in both first image L and second image R, the two bending points are connected to first corner portion 42 and second corner portion of band 40. Recognized as 43. The case where the two corners 42 and 43 can be selected will be described below, and the case where the two corners 42 and 43 cannot be selected will be described later.
  • first corner 42 and the second corner 43 can be selected in the first image L and the second image R
  • first side edge 44 of the strip 40 and the second corner 43 on the first image and the second image are displayed.
  • the second side edge 45 is selected.
  • a portion of the contour C extending from the first corner 42 to the side opposite to the second corner 43 is selected as the first side edge 44
  • the second corner of the contour C is shifted to the first corner.
  • the part extending on the opposite side to the part is selected as the second side edge 45.
  • numbers are sequentially assigned to points on the contour C, the index of the first corner is n1, the index of the second corner is n2, and if n1 ⁇ n2, the index is It can be determined that points less than or equal to n1 constitute the first side edge, and points whose index is greater than or equal to n2 constitute the second side edge.
  • the calculation unit 23 obtains the three-dimensional coordinates of each point on the side edge by comparing the first image L and the second image R for each of the first side edge 44 and the second side edge 45. . Thereby, the three-dimensional coordinates of the first side edge and the second side edge are calculated.
  • the matching process of searching for a corresponding point on each image is the process that requires the heaviest information processing load and is expensive.
  • the first side edge 44 is extracted on the first image L and the second image R, which are two-dimensional images, and the pixels forming the first side edge 44 of the first image L Since the matching is performed with the pixels constituting the first side edge 44 of the image R, the processing load is light.
  • Epipolar lines can be used to search for corresponding points.
  • the epipolar line is a straight line obtained by projecting a straight line connecting the viewpoint of one image and the measurement point on the other image, and the measurement point is always projected on the epipolar line on the other image. If the intersection of the epipolar line corresponding to each pixel constituting the first side edge 44 of the first image L and the first side edge 44 of the second image R is calculated, it is necessary to perform matching for each pixel of both images. Since there is no corresponding point, the corresponding point can be obtained more quickly.
  • the two bend points are the corresponding points of the first corner 42 and the second corner 43. Therefore, for the first side edge 44, the first corner 42 is used as a clue, and starting from the first corner, the corresponding points of the points on the first side are sequentially searched to reduce the load of the matching process. It can be greatly reduced.
  • the matching processing of the first side edge is performed as follows. For the first corner, which is the end point of the first side edge, corresponding points have already been obtained on the first image and the second image.
  • the second image is referred to as the first corner.
  • the corresponding point of the second image can be determined by searching only some points including the next point of the first corner and the next point. Thereafter, similarly, a corresponding point is determined for a point next to a point for which a corresponding relationship has already been obtained, and this is repeated. The same applies to the second side edge 45.
  • the calculation unit 23 performs a predetermined gripping operation on the first side edge 44 from the first corner 42.
  • a point at a distance D is selected as a first reference point P1
  • a point at a predetermined gripping distance D from the second corner 43 on the second side edge 45 is selected as a second reference point P2.
  • the straight line connecting the first reference point P1 and the second reference point P2 is defined as the reference line W
  • the middle point of the first reference point P1 and the second reference point P2 is defined as the gripping position G. calculate.
  • the grip position G can be set to any point on the reference line W according to the shape of the hand.
  • the hand when the hand has a U-shape and the length of the finger of the hand is shorter than the width direction of the band-shaped object, the hand is on the reference line W and is within the length of the finger from the first reference point P1.
  • the distance can be set as the grip position G. If the distance between the two reference points is shorter than the width of the band, it can be assumed that the band is bent in a U-shaped or S-shaped cross section in the width direction. Therefore, when the distance between the reference points is shorter than a predetermined threshold value with respect to the width of the band, it may be determined that the band is significantly deformed, and it may be determined that the band cannot be gripped.
  • the actual shape may be checked by reacquiring the three-dimensional coordinates near the position.
  • the starting point of the predetermined gripping distance D is The first or second corner may be determined in advance such as the acute corner of the one corner or the second corner, or the middle point of the tip side 41, and the first reference point P1 and the second reference point P2 may be selected accordingly.
  • the calculation unit 23 calculates three-dimensional coordinates of the gripping direction V and the near position A.
  • the near position is also called an approach position.
  • the near position is a position where the robot hand 32 starts moving straight forward toward the holding position G along the holding direction V, which is located on the side of the belt-shaped object 40.
  • the arithmetic unit 23 intersects a straight line (reference line) W connecting the first reference point P1 and the second reference point P2 at a predetermined angle ⁇ at the gripping position G on the three-dimensional coordinates, and The gripping direction V extending in the direction is determined.
  • a method of estimating the in-plane direction of the strip 40 will be described.
  • the shape of the surface (flat portion) of the strip is unclear. Therefore, the surface of the strip is estimated from the three-dimensional coordinates of the side edges.
  • a surface is defined by a straight line W connecting the first reference point and the second reference point and three-dimensional coordinates of the first side edge or three-dimensional coordinates of the second side edge.
  • the estimation method is not limited to this, and may be calculated based on the three-dimensional coordinates of the first side edge and the second side edge. Then, a point that is on the gripping direction V and outside the belt-shaped object 40 and that is a predetermined distance from the gripping position G is set as the near position A, and the three-dimensional coordinates of the near position A are determined.
  • the calculation unit 23 determines whether the grip position G and the near position A are within the movable range of the robot hand 32 or outside.
  • the front position A may be on either side of the strip 40.
  • the near position A may be on the near side or the far side of the band-shaped object 40.
  • Which side of the strip is set to the front position A may be determined in advance based on the positional relationship between the strip and the robot, or the side closer to the robot hand may be selected each time measurement is performed.
  • the three-dimensional measuring device 20 outputs the three-dimensional coordinates of the grip position G and the near position A to the control unit 36 of the robot 30.
  • the control unit 36 receives the three-dimensional coordinates of the grip position G and the near position A from the calculation unit 23 of the three-dimensional measurement device 20 and converts the coordinates into robot coordinates.
  • the robot coordinates are coordinates in a coordinate system based on a certain point of the robot, for example, a base coordinate system based on the base of the robot.
  • the control unit further obtains posture parameters such as the rotation angle of each joint necessary to move the hand 32 to the near position A or the grip position G based on the robot coordinates.
  • the control unit 36 drives the joint between the arm 31 and the hand 32 to move the hand to the near position A, and then directs the tip of the hand to the grip position G.
  • the hand takes a posture in which the front-rear direction of the two gripping surfaces 33, 33 is parallel to the gripping direction line V to increase the interval, and the tip is directed straight to the gripping position G (FIG. 8A).
  • the robot 30 may move the hand 32 to the near position A while gradually changing the direction of the hand 32, and the tip may be directly facing the grip position when the hand reaches the near position. In this case, it is not necessary to temporarily stop the hand at the near position, and the advancing operation to the grip position described later may be continuously performed.
  • the robot 30 moves the hand 32 from the near position A in the gripping direction so that the belt-shaped object 40 enters between the two gripping surfaces 33, 33 while keeping the distance between the gripping surfaces 33, 33 wide. It is moved straight forward along the V to the gripping position G.
  • the belt-like object 40 itself may interfere with the hand 32.
  • the robot 30 moves to the target position 60 while holding the strip 40.
  • the target position is, for example, a jig for processing in a post-process, an input port to a processing machine, a container for accommodating a strip, and the like.
  • the gripping direction of the band-shaped object 40 by the hand 32 is known, in other words, the angle between the gripped band-shaped object 40 and the hand 32 is known, so that the hand direction should be appropriately controlled. Thereby, the strip 40 can be moved to the target position in a predetermined direction.
  • first camera 21 and second camera 22 capture first image L and second image R of band-like object 40 (FIG. 9A), and outline the first image and the second image respectively. Even if C is extracted (FIG. 9B), there are cases where two bending points cannot be selected due to the twist of the band-shaped object 40 or the like.
  • FIG. 9C when one bending point 56 of the contour C can be selected in the first image L and the second image R, the following processing is performed.
  • the calculation unit 23 divides the contour C into a first area 58 and a second area 59 at the inflection point 56. Since the inflection point 56 is a point corresponding to one corner of the tip of the strip 40, the three-dimensional coordinates of the first area and the second area are calculated using the inflection point 56 as a clue.
  • the two side edges 48 and 49 of the strip 40 were selected as described above. After the selection of the first reference point and the second reference point, the operation can be performed in the same manner as the above-described method.
  • the contour C of the strip 40 is extracted on the first image L and the second image R, and the first side edge 44 is selected from the contour C, but the entire contour is extracted.
  • the first side edge 44 may be directly extracted by Hough transform or the like.
  • the three-dimensional coordinates of the first side edge 44 and the second side edge 45 are calculated. However, in some cases, only the three-dimensional coordinates of the first side edge may be calculated. Good. For example, when the grip surface 33 of the hand 32 is sufficiently larger than the width of the band 40, the grip position G can be set on the first side edge 44 of the band.
  • the three-dimensional coordinates of the first side edge 44 were calculated, but the tip side 41 of the strip 40 is extracted in each of the first image L and the second image R, and the first image and the first image are extracted.
  • the three-dimensional coordinates of the tip side 41 may be calculated based on the second image.
  • the grip position G can be set on the tip side 41.
  • the gripping direction may be a direction perpendicular to the tip side 41, that is, the longitudinal direction of the strip, and the near position may be set below the tip of the strip in FIG.
  • the holding position G can be set within the plane of the belt-shaped object 40.
  • grip position G may be set on a straight line connecting first reference point P1 on first side edge 44 and third reference point P3 on tip side 41.
  • the gripping position G may be set at a position separated from the first reference point P1 by a predetermined distance d in a direction parallel to the tip side 41.
  • the surface of the band-shaped object 40 is determined from the straight line connecting the first reference point P1 and the third reference point P3 and the three-dimensional coordinates of the tip side 41 or the three-dimensional coordinates of the first side edge 44.
  • An approximate surface in the direction is calculated, and a gripping direction extending in the in-plane direction of the strip can be obtained.
  • the gripping direction can be set by the target position or the shape of the movement destination, for example, when the movement destination is the insertion opening of the jig, the size and shape of the insertion opening of the jig.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

[課題]帯状物の状態による制限を受けることなく、帯状物の作業位置を決定する方法を提供する。 [解決手段]帯状物(40)の少なくとも一端辺の3次元座標を取得する端辺座標取得工程と、前記一端辺の3次元座標に基づいて、前記帯状物の作業位置を決定する作業位置決定工程とを有する帯状物の作業位置決定方法。好ましくは、前記端辺座標取得工程が前記帯状物の第1側端辺の3次元座標を取得する工程であり、前記作業位置決定工程が、前記第1側端辺の3次元座標に基づいて、前記帯状物の前記作業位置を決定する工程である。

Description

帯状物の作業位置決定方法、ロボット制御方法、帯状物の作業位置決定装置、帯状物ハンドリングシステム、帯状物の3次元計測方法および帯状物の3次元計測装置
 本発明は、帯状物に対する作業の作業位置を決定する方法および装置、ならびに当該作業位置に対してロボットハンドに作業させるロボット制御方法および帯状物ハンドリングシステムに関する。また、本発明は、ステレオカメラを用いて帯状物の3次元計測を行う方法および装置に関する。
 フラットケーブル等の可撓性を有する帯状物を扱う作業を、ロボットを利用して自動化することが行われている。このような作業では、曲がったり捻じれたりした状態の帯状物をいかに認識して把持するかが問題となる。
 特許文献1には、フラットケーブルを把持して、先端のケーブル用コネクタを受入側コネクタに挿入するロボットハンドが記載されている。ロボットハンドは、テーブル上にストックされているフラットケーブルに吸着部を押し付けてケーブルを吸着保持し、ケーブルを僅かに持ち上げて、ケーブルの下側に把持爪を差し入れることによって、ケーブルを把持する。
 特許文献2には、フレキシブルフラットケーブル等の可撓性を有する長尺部材を把持して、先端のケーブル側コネクタを基板側コネクタに接続するロボットが記載されている。ロボットは、基端側が剛体に取り付けられたフラットケーブルに対して、先端部に比べて位置及び姿勢のばらつきが小さい基端部と把持目標位置の途中部位をロボットハンドで摺動可能に挟持し、ロボットハンドを把持目標位置に向かって滑らせながら移動させることによって、ケーブルを把持する。
特開2017-189850号公報 特開2015-030086号公報
 しかし、特許文献1および2に開示された方法は、撓みや捻じれによる変形が制限されていない自由な状態にある帯状物または帯状物の部分の3次元計測を行うものではなかった。
 特許文献1に記載された把持方法では、フラットケーブルが予めテーブル上にストックされている必要がある。そのため、例えば箱の中に乱雑に収容された帯状物や、空中に吊り下げられた帯状物を認識して把持することには適用できなかった。
 特許文献2に記載された把持方法では、長尺部材の基端側が剛体に取り付けられた状態であること要し、両端ともに固定されていない帯状物には適用できなかった。また、特許文献2に記載された把持方法ではロボットハンドで途中位置を挟持した後、ロボットハンドを把持目標位置に向かって滑らせるので、ロボットハンドが長尺部材を最終的に把持するまでに時間がかかるという問題があった。
 本発明は、上記を考慮してなされたものであり、帯状物の状態による制限を受けることなく、帯状物の3次元計測を高速に行う方法および装置、帯状物の把持等の帯状物に対する作業の作業位置を決定する方法および装置、ならびにロボットハンドで当該作業位置を把持可能とするハンドリング方法およびシステムを提供することを目的とする。
 本発明の帯状物の作業位置決定方法は、帯状物の少なくとも一端辺の3次元座標を取得する端辺座標取得工程と、前記一端辺の3次元座標に基づいて、前記帯状物の作業位置を決定する作業位置決定工程とを有する。
 ここで、帯状物の端辺とは、帯状物の平坦な2面(表面と裏面)の境界部分を構成する4つの外周辺をいう。端辺の3次元座標とは3次元空間内で当該端辺が占める位置を示すもので、端辺の形状を示す方程式であってもよいし、端辺上の点の3次元座標の集合であってもよい。また、3次元座標の取得とは、ステレオカメラ等の3次元計測装置で帯状物を撮像して3次元座標を得ることだけでなく、予め記憶された帯状物の3次元座標データを記憶装置等から読み込むことも含む。また、作業位置とは、人やロボットが帯状物に対して把持、挟持、吸着等の保持作業または塗装、マーキング、溶接、切断、穴あけ、部品取り付け、縫製、はんだ等の加工作業を行う際に、作業のターゲット位置となる3次元座標をいう。この方法によって、作業しようとする帯状物が撓みや捻じれが生じている状態であっても帯状物に対して確実に作業位置を決定することができる。
 好ましくは、前記端辺座標取得工程が前記帯状物の第1側端辺の3次元座標を取得する工程であり、前記作業位置決定工程が、前記第1側端辺の3次元座標に基づいて、前記帯状物の前記作業位置を決定する工程である。ここで、側端辺とは、上記端辺のうち、長辺にあたる2辺のうちのどちらか1辺をいう。
 あるいは好ましくは、前記端辺座標取得工程が前記帯状物の先端辺の3次元座標を取得する工程であり、前記作業位置決定工程が、前記先端辺の3次元座標に基づいて、前記帯状物の前記作業位置を決定する工程である。ここで、先端辺とは、上記端辺のうち、短辺にあたる2辺のうちのどちらか1辺をいう。
 好ましくは、上記帯状物の作業位置決定方法は、取得した前記端辺の3次元座標に基づいて、前記帯状物の作業方向を決定する作業方向決定工程をさらに有する。ここで、作業方向とは、帯状物に対して直接作業を実行するエンドエフェクタ等の作業部材が帯状物に対してアプローチする方向をいう。言い換えると、作業方向とは、帯状物に対して作業する作業部材(例えば、ロボットハンドや人の手、ロボットハンドや人の手が把持している保持用具や加工用具)が最終的に帯状物の作業位置まで近づいていく際の進行方向をいう。例えば、ロボットハンドによる帯状物の把持作業において作業方向(把持方向)は、帯状物の作業位置(把持位置)近傍の面と平行で、帯状物の幅方向と所定の角度をなして把持位置に向かう方向であることが好ましく、この方向を作業方向とすることができる。作業方向(把持方向)はロボットハンドの形状や作業内容等に応じて適宜設定することができる。作業方向を決定することには作業方向の3次元ベクトルを求めることを含む。この方法によって、帯状物が変形した状態であっても確実に作業方向を決定することができる。
 本発明のロボット制御方法は、上記いずれかの帯状物の作業位置決定方法における前記端辺座標取得工程および前記作業位置決定工程と、前記帯状物の前記作業位置に対してロボットハンドに作業させる作業工程とを有する。好ましくは、前記作業工程が前記作業位置を把持位置として前記ロボットハンドで前記帯状物を把持する把持工程である。この方法によって、ティーチングやパターンマッチングといった従来の手法が適用できない可撓性の帯状物を確実に把持できる。
 本発明の他のロボット制御方法は、上記いずれかの帯状物の作業位置決定方法において作業方向が決定された場合に、当該作業位置決定方法における前記端辺座標取得工程および前記作業位置決定工程と、前記作業方向で前記帯状物の前記作業位置に対してロボットハンドに作業させる作業工程とを有する。好ましくは、本発明の他のロボット制御方法は、前記作業工程の前に、前記作業位置から前記作業方向の逆向きに所定距離離れた位置に作業手前位置を設定する作業手前位置設定工程をさらに有する。より好ましくは、前記作業工程が前記作業位置を把持位置、前記作業方向を把持方向として前記ロボットハンドで前記帯状物を把持する把持工程である。この方法によって、ティーチングやパターンマッチングといった従来の手法が適用できない可撓性の帯状物を確実に把持できる。
 本発明の帯状物の作業位置決定装置は、帯状物を計測する3次元計測装置と、前記3次元計測装置が計測した前記帯状物の少なくとも一端辺の3次元座標から前記帯状物の作業位置を算出して出力する演算部とを有する。
 本発明の帯状物ハンドリングシステムは、上記作業位置決定装置と、前記帯状物を把持するロボットハンドを備えるロボットとを有し、前記作業位置決定装置が出力した前記作業位置に基づき前記ロボットハンドで前記帯状物を把持する。
 本発明の帯状物の3次元計測方法は、帯状物を異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の第1側端辺を抽出する抽出工程と、前記第1画像から抽出した前記第1側端辺および前記第2画像から抽出した前記第1側端辺に基づいて前記第1側端辺の3次元座標を算出する3次元計算工程とを有する。
 ここで、帯状物の側端辺とは、帯状物の外周にある4辺のうち、長辺にあたる2辺のうちのどちらか1辺をいう。第1側端辺の3次元座標とは3次元空間内で第1側端辺が占める位置を示すものを言い、第1側端辺の形状を示す方程式であってもよいし、第1側端辺上の点の3次元座標の集合であってもよい。この方法により、第1画像および第2画像上で抽出した第1側端辺に対して処理を行うことによって、帯状物の撓みや捻じれの状態によらず、第1側端辺の3次元座標を高速に算出することができる。
 好ましくは、前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の第2側端辺をさらに抽出し、前記3次元計算工程は、前記第1画像から抽出した前記第2側端辺および前記第2画像から抽出した前記第2側端辺に基づいて前記第2側端辺の3次元座標をさらに算出する。この方法により、帯状物の両方の側端辺の3次元座標を高速に算出することができ、帯状物の幅方向の全体の3次元座標を求めることができる。
 より好ましくは、前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の第1角部および第2角部を認識して、前記第1角部および前記第2角部に基づいて前記第1側端辺および前記第2側端辺を抽出する。より一層好ましくは、前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の輪郭を抽出して、該輪郭に基づいて前記第1側端辺および前記第2側端辺を抽出する。あるいは、より一層好ましくは、前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の輪郭を抽出して、該輪郭に基づいて前記第1角部および前記第2角部を認識する。特に好ましくは、前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて、前記帯状物の前記輪郭を抽出し、前記輪郭の2つの屈曲点を前記第1角部および前記第2角部として認識し、前記輪郭のうち、前記第1角部から前記第2角部と反対側に延びる部分を前記第1側端辺、前記第2角部から前記第1角部と反対側に延びる部分を前記第2側端辺として選択する。これらの方法により、第1側端辺および第2側端辺の3次元座標をより高速に算出することができる。
 あるいは、本発明の帯状物の3次元計測方法において、前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の第1角部を認識して、前記第1側端辺を抽出する。より好ましくは、前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の輪郭を抽出して、該輪郭上に前記第1角部を認識する。これらの方法により、第1側端辺の3次元座標をより高速に算出することができる。
 さらに好ましくは、前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて、前記帯状物の前記輪郭を抽出し、前記輪郭上に前記第1角部を認識し、前記3次元計算工程は、前記第1画像および前記第2画像に基づいて前記輪郭の3次元座標上で前記第1角部以外の角部を第2角部として認識し、前記輪郭の3次元座標および前記第2角部の3次元座標から第2側端辺の3次元座標をさらに算出する。これにより、第1画像および第2画像上で両方の角部が認識できない場合でも、第1側端辺および第2側端辺の3次元座標をより高速に算出することができる。
 好ましくは、上記のうち第1側端辺および第2側端辺の3次元座標を算出する帯状物の3次元計測方法は、作業位置に対して作業するための帯状物の3次元計測方法であって、前記3次元計算工程は、前記第1側端辺および前記第2側端辺の3次元座標を算出した後に、前記第1側端辺上の第1基準点と前記第2側端辺上の第2基準点を結ぶ直線上に作業位置を設定して、該作業位置の3次元座標を算出する工程と、前記作業位置を通って前記帯状物の面内方向に伸び、前記帯状物の幅方向と所定の角度をなす作業方向を算出する工程をさらに有する。ここで、作業方向の3次元座標とは3次元空間内で作業方向を示す直線が占める位置を示すもので、当該直線のベクトル方程式であってもよいし、当該直線上の2以上の点の3次元座標の集合であってもよい。
 本発明の他の帯状物の3次元計測方法は、帯状物を異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の先端辺を抽出する抽出工程と、前記第1画像および前記第2画像に基づいて前記短辺の3次元座標を算出する3次元計算工程とを有する。ここで、帯状物の先端辺とは、帯状物の外周にある4辺のうち、短辺にあたる2辺のうちのどちらか1辺をいう。
 この方法により、第1画像および第2画像上で抽出した先端辺に対して処理を行うことによって、帯状物の撓みや捻じれの状態によらず、先端辺の3次元座標を高速に算出することができる。
 本発明のさらに他の帯状物の3次元計測方法は、帯状物に対して作業位置を決定するための帯状物の3次元計測方法であって、帯状物を異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の第1側端辺または先端辺を抽出する抽出工程と、前記第1画像から抽出した前記第1側端辺および前記第2画像から抽出した前記第1側端辺から前記第1側端辺の3次元座標を算出する3次元計算工程または前記第1画像から抽出した前記先端辺および前記第2画像から抽出した前記先端辺から前記先端辺の3次元座標を算出する3次元計算工程と、前記第1側端辺または前記先端辺の3次元座標に基づいて前記作業位置の3次元座標を算出する作業位置計算工程とを有する。
 ここで、作業位置とは、人やロボットが帯状物に対して把持、挟持、吸着等の保持作業または塗装、マーキング、溶接、切断、穴あけ、部品取り付け、縫製、はんだ等の加工作業を行う際に、作業のターゲット位置となる3次元座標をいう。この方法によって、作業しようとする帯状物が撓みや捻じれが生じている状態であっても帯状物に対して確実に作業位置を決定することができる。
 好ましくは、上記いずれかの帯状物の3次元計測方法は、前記帯状物が変形の制限を受けない自由な状態で計測される。ここで、前記帯状物が変形の制限を受けない自由な状態とは、帯状物の先端部が他の物から応力を受けない状態、もしくは他の物から多少の応力を受けていたとしても自重とのバランスや風などの外的要因で形状や姿勢が安定してない状態をいう。本発明はこのような帯状物に特に好適に用いられる。
 本発明の帯状物の3次元計測装置は、異なる視点から帯状物を撮像する第1カメラおよび第2カメラと、前記第1カメラおよび前記第2カメラが撮像した第1画像および第2画像のそれぞれにおいて前記帯状物の第1側端辺を抽出し、前記第1画像から抽出した前記第1側端辺および前記第2画像から抽出した前記第1側端辺に基づいて該第1側端辺の3次元座標を算出する演算部とを有する。
 本発明の他の帯状物の3次元計測装置は、異なる視点から帯状物を撮像する第1カメラおよび第2カメラと、前記第1カメラおよび前記第2カメラが撮像した第1画像および第2画像のそれぞれにおいて前記帯状物の先端辺を抽出し、前記第1画像から抽出した前記先端辺および前記第2画像から抽出した前記先端辺に基づいて該先端辺の3次元座標を算出する演算部とを有する。
 本発明のさらに他の帯状物の3次元計測装置は、帯状物に対して作業するロボットハンドとともに用いられる帯状物の3次元計測装置であって、異なる視点から前記帯状物を撮像する第1カメラおよび第2カメラと、前記第1カメラおよび前記第2カメラが撮像した第1画像および第2画像に基づいて前記帯状物の第1側端辺または先端辺の3次元座標を算出し、前記第1側端辺または前記先端辺の3次元座標に基づいて作業位置の3次元座標および作業方向を算出する演算部とを有する。
 この構成によって、帯状物が変形した状態であっても確実に作業位置および作業方向を算出することができる。なおここで、作業方向とは、帯状物に対して直接作業を実行するエンドエフェクタ等の作業部材が帯状物に対してアプローチする方向をいう。言い換えると、作業方向とは、帯状物に対して作業する作業部材(例えば、ロボットハンドや人の手、ロボットハンドや人の手が把持している保持用具や加工用具)が最終的に帯状物の作業位置まで近づいていく際の進行方向をいう。例えば、ロボットハンドによる帯状物の把持作業において作業方向(把持方向)は、帯状物の作業位置(把持位置)近傍の面と平行で、帯状物の幅方向と所定の角度をなして把持位置に向かう方向であることが好ましく、この方向を作業方向とすることができる。作業方向(把持方向)はロボットハンドの形状や作業内容等に応じて適宜設定することができる。作業方向を算出することには作業方向の3次元ベクトルを求めることを含む。
 本発明の帯状物の作業位置決定方法または装置によれば、帯状物の少なくとも一端辺の3次元座標に基づいて、作業位置を決定することができる。これによって、撓み、捻じれ、曲がり等の自由変形が起こる可撓性の帯状物など、従来のパターンマッチング手法が適用できない帯状物に対しても、確実かつ高速に作業のターゲット位置を決定することができる。また、本発明のロボット制御方法によれば、帯状物の少なくとも一端辺の3次元形状に基づいて作業位置を決定するので、ティーチングやパターンマッチングといった従来の手法を用いないで帯状物に対してロボットハンドに作業させることができる。また、本発明の帯状物ハンドリングシステムによれば、帯状物に撓みや捻じれが生じた状態であっても、ロボットハンドで帯状物を確実に把持することができる。
 また、本発明の帯状物の3次元計測方法によれば、第1画像および第2画像上で抽出した第1側端辺または先端辺に対して処理を行うことによって、帯状物の撓みや捻じれの状態によらず、第1側端辺または先端辺の3次元座標を高速に算出することができる。本発明の1つの帯状物の3次元計測装置によれば、第1画像および第2画像上で抽出した第1側端辺に対して処理を行うことによって、帯状物の撓みや捻じれの状態によらず、第1側端辺の3次元座標を高速に算出することができる。本発明の他の帯状物の3次元計測装置によれば、第1画像および第2画像上で抽出した先端辺に対して処理を行うことによって、帯状物の撓みや捻じれの状態によらず、先端辺の3次元座標を高速に算出することができる。本発明のさらに他の帯状物の3次元計測装置によれば、第1側端辺または先端辺の3次元座標に基づいて作業位置の3次元座標および作業方向を高速に算出することができるので、帯状物の状態による制限を受けることなく、さらに、ティーチングやパターンマッチングといった従来の手法を用いないで、帯状物に対してロボットハンドに作業させることが可能となる。
本発明の一実施形態である帯状物ハンドリングシステムの構成を示す図であり、本発明の一実施形態である3次元計測方法を実施する場面の装置構成を示す図である。 ロボットハンドの構造例を示す図である。 本発明の一実施形態である帯状物の作業位置決定方法および3次元計測方法の工程フロー図である。 本発明の一実施形態であるロボット制御方法における把持工程の工程フロー図である。 帯状物の把持位置と把持方向を説明するための図である。 A:第1画像および第2画像、B:輪郭抽出、C:屈曲点および側端辺選択を説明するための図である。 帯状物上の基準点および把持位置、ならびに帯状物外の手前位置の設定方法を説明するための図である。 ロボットハンドによる帯状物の把持作業を説明するための図であって、ロボットハンドがA:手前位置にあるとき、B:把持位置にあるとき、およびC:帯状物を把持した状態を示す図である。 A:第1画像および第2画像、B:輪郭抽出、C:屈曲点および領域選択を説明するための図である。 帯状物の側端辺選択方法を説明するための図である。 帯状物の把持位置の決定方法を説明するための図である。
 本発明の帯状物の作業位置決定方法、ロボット制御方法、帯状物の作業位置決定装置、帯状物ハンドリングシステム、帯状物の3次元計測装置および方法の一実施形態を図1~図10に基づいて説明する。本実施形態では、帯状物の側端辺に基づいて作業位置を決定し、当該作業位置を把持位置としてロボットハンドが把持作業を行う。
 図1を参照して、本実施形態の帯状物ハンドリングシステム10は、3次元計測装置20とロボット30からなる。本実施形態では、3次元計測装置20によって帯状物40の3次元計測を行い、その結果に基づいて帯状物40の把持位置(作業位置)および把持方向(作業方向)を決定し、帯状物をロボット30のハンド(ロボットハンド)32で把持し、帯状物を所定の向きにして所定の目標位置60まで移動する。
 帯状物40は可撓性を有する帯状の物体である。帯状物としてはフラットケーブル、布地、フィルム、リボンなどが例示されるがこれには限られず、帯状物の種類は特に限定されない。また、帯状物の断面形状は、厚さが完全に均一である必要まではなく、両方の側端辺がエッジとして認識できる形状であればよい。例えば、中央部が厚く形成された凸レンズ状の断面形状を有していてもよいし、多くのリボンのように、一方または両方の側端辺に折り返し部分などの厚肉部分が形成されていてもよい。
 また、帯状物40は図1に描かれたように切断や加工がされる前のものであってもよいし、すでに切断または一部加工がされたものであってもよい。図1では、帯状物40はリールに巻かれ、先端が空中に垂れ下がった垂下状態にある。帯状物40の先端近傍は、撓みや捻じれによって、位置や姿勢などの状態が一定しない。本実施形態の3次元計測装置および方法は、このように帯状物が撓みや捻じれ、曲りによる変形を制限されない「自由な」「支持されていない」状態、例えば帯状物が床や壁、搬送レーンといった接地面上に沿って接しておらず、接地面によって帯状物の位置や向きが規定されていない状態にある場合に、特に好適に用いられる。つまり、撮像する帯状物の先端部が他の物から応力を受けない状態である場合に、特に好適に用いられる。また、本実施形態の3次元計測装置および方法は、このように帯状物が「自由な」状態にある場合、および他の物から多少の応力を受けていたとしても自重とのバランスや風などの外的要因で形状や姿勢が安定してない状態である場合に、特に好適に用いられる。
 3次元計測装置20は帯状物40の各部の3次元座標を計測する。3次元計測装置の種類は特に限定されず、公知の種々の装置を用いることができる。本実施形態の3次元計測装置20はステレオ方式の3次元計測装置である。3次元計測装置20は、第1カメラ21、第2カメラ22および演算部23を有する。第1カメラ21および第2カメラ22は、把持すべき帯状物40を異なる視点から撮像する。演算部23は、第1カメラおよび第2カメラが撮像した2枚の画像を処理して帯状物40の3次元座標を求める他、各種演算を行う。演算部の機能の詳細は後述する。
 ロボット30は多関節ロボットであって、アーム31、ハンド(ロボットハンド)32および制御部36を有する。制御部36はアームおよびハンドを含むロボット30全体を制御する。ロボット30はハンド32によって帯状物40を把持し、アームおよびハンドを動かして帯状物40を目標位置60まで移動する。
 図2を参照して、ハンド32はアーム31の先端に取り付けられ、2つの把持面33と、複数のリンク34と、リンクを連結する複数の関節35を有する。ハンド32は、関節35を適切に動作させることにより、両把持面33、33の間隔を広げたり狭めたりすることができる。ハンド32は両把持面の間隔を広げて帯状物40に接近し、両把持面の間隔を狭めて帯状物を挟持する。なお、ハンドの構造はこれには限られず、カムや歯車を用いて指を開閉する各種のグリッパや真空吸着、マグネット吸着等の方式を用いることもできる。
 本実施形態のロボット制御方法を図3および図4に示す工程の流れに沿って、以下に説明する。なお、図3は本実施形態の作業位置決定方法、および帯状物の3次元計測方法の工程フロー図である。
 図3において、3次元計測装置20の演算部23は、まず、ロボットハンド32が帯状物40を把持する際の把持条件として把持距離および把持角度を受信する。図5を参照して、把持位置(作業位置)Gとは帯状物40上にあってハンド32が把持する位置をいい、例えば帯状物の先端辺41からの把持距離Dで与えられる。把持角度θとは、ハンド32が帯状物40を把持するときの、帯状物に対するハンドの向きをいい、例えば、帯状物の幅方向(図5の破線)からの角度θで与えられる。ハンド32は側端辺の3次元座標に基づいて推定した帯状物の面と把持面33、33を略平行にして、把持面33、33の前後方向(図2のX方向)を帯状物の幅方向と把持角度θで交差する把持方向(作業方向)Vに向けて、帯状物を把持する。例えば把持角度θが0度のときは、ハンド32は帯状物を真横から把持する。把持距離Dおよび把持角度θはいずれも、空間の3次元座標ではなく、帯状物40に対する相対的な位置または角度として与えられる。把持距離Dおよび把持角度θは加工や梱包などの後工程に応じて定めることができる。把持距離Dおよび把持角度θは、例えば図示しない入力手段から作業者が入力したものを演算部23が受信する。
 図6Aを参照して、第1カメラ21および第2カメラ22が帯状物40の第1画像Lおよび第2画像Rを撮像する。帯状物全体を撮像する必要はなく、帯状物の形状を推定したい範囲を撮像すればよい。つまり、所望する把持位置や把持方向の決定に必要な範囲の帯状物の画像を取得すればよい。
 図6Bを参照して、演算部23は、第1画像Lおよび第2画像Rのそれぞれで、帯状物40の輪郭Cを抽出する。輪郭Cは、隣接する画素同士の差分演算等により、公知の方法によって抽出できる。
 演算部23は、第1画像Lおよび第2画像Rのそれぞれで、輪郭Cの屈曲点を選択する。輪郭C上の点が屈曲点であるか否かは、その点から輪郭C上の両側の隣点へ引いた2本の直線の成す角度によって判断できる。例えば、当該角度が120度以下であるときに、その点を屈曲点と判断できる。
 図6Cを参照して、第1画像Lおよび第2画像Rの両方で2つの屈曲点が選択できたときは、当該2つの屈曲点を帯状物40の第1角部42および第2角部43として認識する。以下に、2つの角部42、43が選択可能である場合について説明し、選択可能でない場合については後述する。
 第1画像Lおよび第2画像Rで第1角部42および第2角部43を選択できたときは、第1画像および第2画像上で、帯状物40の第1側端辺44および第2側端辺45を選択する。具体的には、輪郭Cのうち第1角部42から第2角部43と反対側に延びる部分を第1側端辺44として選択し、輪郭Cのうち第2角部から前記第1角部と反対側に延びる部分を第2側端辺45として選択する。より具体的には例えば、輪郭C上の点に順番に番号(インデックス)を振り、第1角部のインデックスをn1、第2角部のインデックスをn2として、n1<n2であれば、インデックスがn1以下の点が第1側端辺を構成し、インデックスがn2以上の点が第2側端辺を構成するものと判断できる。
 演算部23は、第1側端辺44および第2側端辺45のそれぞれについて、第1画像Lと第2画像Rを比較することによって、側端辺上の各点の3次元座標を求める。これにより第1側端辺および第2側端辺の3次元座標が算出される。
 ステレオ法による3次元計測では、視点の異なる2つの画像上で計測したい点の対応点を求め、各画像上の対応点および2台のカメラの位置関係から3角測量の原理によって、計測点の3次元座標を算出する。ここで、各画像上の対応点を探索するマッチング処理が最も情報処理の負荷が重く、コストがかかるプロセスである。本実施形態では、まず2次元画像である第1画像Lおよび第2画像R上で第1側端辺44を抽出し、第1画像Lの第1側端辺44を構成する画素と第2画像Rの第1側端辺44を構成する画素とをマッチングするので、処理の負荷が軽い。
 また、対応点の探索にはエピポーラ線を利用することができる。エピポーラ線は一方の画像の視点と計測点を結ぶ直線を他方の画像上に投影した直線で、その計測点は必ず他方の画像上のエピポーラ線上に投影されている。第1画像Lの第1側端辺44を構成する各画素に対応したエピポーラ線と第2画像Rの第1側端辺44との交点を計算すれば、両画像の画素ごとにマッチングする必要がないため、より高速に対応点を求めることができる。
 さらに、第1画像Lと第2画像R上でそれぞれ2つの屈曲点が選択できれば、その2つの屈曲点同士が第1角部42および第2角部43の対応点である。したがって、第1側端辺44については第1角部42を手掛かりにして、第1角部から出発して順次第1側端辺上の点の対応点を探索することによってマッチング処理の負荷が大幅に軽減できる。例えば、第1側端辺のマッチング処理を次のように行う。第1側端辺の端点である第1角部については第1画像および第2画像上で既に対応点が得られている。第1画像で第1角部の次の点(第1側端辺上で第1角部の隣に位置する点をいう、以下も同様)に対しては、第2画像で第1角部、第1角部の次の点、そのまた次の点などを含むいくつかの点についてのみ探索することで、第2画像の対応点を決定できる。以後も同様に、既に対応関係が得られた点の次の点について対応点を決定し、これを繰り返す。第2側端辺45についても同様である。
 図7を参照して、演算部23は第1側端辺44および第2側端辺45の3次元座標を算出した後、第1側端辺44上で第1角部42から所定の把持距離Dの点を第1基準点P1、第2側端辺45上で第2角部43から所定の把持距離Dの点を第2基準点P2として選定する。そして、第1基準点P1と第2基準点P2を結ぶ直線を基準線Wとし、第1基準点P1と第2基準点P2の中点を把持位置Gとして、把持位置Gの3次元座標を計算する。なお、把持位置Gは、ハンドの形状に応じて基準線W上の任意の点を設定することができる。例えば、ハンドがコの字状であってハンドの指部の長さが帯状物の幅方向よりも短い場合、基準線W上であって、第1基準点P1から指部の長さ以内の距離を把持位置Gとして設定することができる。また、2つの基準点の間の距離が帯状物の幅に比べて短い場合は、帯状物が幅方向に対して断面U字状やS字状に撓んでいると推測できる。そこで、帯状物の幅に対して基準点間距離が所定の閾値以上に短い場合は、帯状物の変形が著しいと判断し、把持不可と判定してもよいし、別途3次元計測装置によって把持位置付近の3次元座標を再取得して実際の形状を調べてもよい。
 なお、第1角部42および第2角部43が直角でない場合、すなわち帯状物40の先端辺41が幅方向に対して斜めになっている場合は、所定の把持距離Dの始点を、第1角部または第2角部のうち鋭角である方や先端辺41の中点などに予め決めておき、それに応じて第1基準点P1および第2基準点P2を選定すればよい。
 演算部23は次に、把持方向Vおよび手前位置Aの3次元座標を計算する。手前位置はアプローチ位置とも呼ばれる。手前位置は帯状物40の側方にあって、ロボットハンド32が把持方向Vに沿って、把持位置Gに向かって真っすぐ前進を開始する位置である。
 演算部23は、3次元座標上で、第1基準点P1と第2基準点P2を結んだ直線(基準線)Wと把持位置Gにおいて所定の角度θで交差し、帯状物40の面内方向に伸びる把持方向Vを求める。ここで、帯状物40の面内方向の推定方法について説明する。帯状物の側端辺の3次元座標しか取得していない場合、帯状物の面(平坦部)の形状は不明確である。そこで、側端辺の3次元座標から帯状物の面を推定する。まず、第1基準点と第2基準点を結んだ直線Wと第1側端辺の3次元座標または第2側端辺の3次元座標とで面を規定する。実際にはこれらの直線および座標は同一平面上には乗らないことが考えられるため、近似面を計算して帯状物の面方向とすればよい。推定方法はこれに限らず、第1側端辺および第2側端辺の3次元座標に基づいて計算してもよい。そして、把持方向V上にあり帯状物40の外にある点であって、把持位置Gから所定の距離にある点を手前位置Aとして設定して、手前位置Aの3次元座標を決定する。好ましくは、演算部23は、把持位置Gおよび手前位置Aがロボットハンド32の可動域の内であるか外であるかを判定する。
 手前位置Aは帯状物40のどちら側にあってもよい。例えば図7で、手前位置Aは帯状物40の手前側にあっても奥側にあってもよい。手前位置Aを帯状物のどちら側に設定するかは、帯状物とロボットの位置関係に基づいて予め定めておいてもよいし、ロボットハンドに近い側を計測の都度選択してもよい。
 3次元計測装置20は、把持位置Gおよび手前位置Aの3次元座標をロボット30の制御部36に出力する。
 図4において、ロボット30では、制御部36が3次元計測装置20の演算部23から把持位置Gおよび手前位置Aの3次元座標を受信して、ロボット座標に変換する。ロボット座標は、ロボットのある点を基準とする座標系における座標であり、例えばロボットのベースを基準とするベース座標系である。制御部はさらに、ロボット座標に基づいて、ハンド32を手前位置Aまたは把持位置Gまで移動させるのに必要な各関節の回転角度などの姿勢パラメータを求める。
 ロボット30は、制御部36がアーム31とハンド32の関節を駆動して、ハンドを手前位置Aに移動させ、次いでハンドの先端を把持位置Gに向ける。手前位置においてハンドは、両把持面33、33の前後方向を把持方向線Vに平行にして間隔を広げ、先端を把持位置Gに真っ直ぐ向けた姿勢を取っている(図8A)。あるいは、ロボット30は、ハンド32の向きを徐々に変えながら手前位置Aまで移動させ、ハンドが手前位置に到達した時点で先端が把持位置に真っ直ぐ向いているようにしてもよい。この場合は、ハンドを手前位置で一旦停止させる必要はなく、後述する把持位置までの前進動作を連続して行ってもよい。
 図8Bを参照して、ロボット30は、両把持面33、33の間隔を広げたまま、帯状物40が両把持面33、33の間に入り込むように、ハンド32を手前位置Aから把持方向Vに沿って把持位置Gまで真っ直ぐ前進させる。ハンド32を直接把持位置Gに移動させると、帯状物40自体がハンド32に干渉することがある。ハンド32を一旦帯状物と干渉しない手前位置Aを経由させて、手前位置Aから把持位置Gに向かって前進させることによって、帯状物40を確実に把持できる。
 図8Cを参照して、ハンド32が把持位置Gに到達したら、両把持面33、33の間隔を狭めて帯状物40を挟持する。
 ロボット30は帯状物40を把持したまま目標位置60まで移動させる。目標位置とは、例えば、後工程での加工のための治具、加工機械への投入口や、帯状物を収容する容器などである。また、本実施形態ではハンド32による帯状物40の把持方向が分かっているので、言い換えると把持された帯状物40とハンド32のなす角度が分かっているので、ハンドの向きを適切に制御することにより、帯状物40を所定の向きにして、目標位置まで移動させることができる。
 次に、屈曲点選択工程に戻って、第1画像Lまたは第2画像R上で2つの屈曲点が選択できなかった場合について説明する。
 図9を参照して、第1カメラ21および第2カメラ22が帯状物40の第1画像Lおよび第2画像Rを撮像して(図9A)、第1画像および第2画像のそれぞれで輪郭Cを抽出しても(図9B)、帯状物40の捻じれ等が原因で2つの屈曲点が選択できない場合がある。図9Cのように、第1画像Lおよび第2画像Rで輪郭Cの屈曲点56が1つ選択できたときは次のように処理する。演算部23は、屈曲点56を境にして輪郭Cを第1領域58と第2領域59に分割する。屈曲点56は帯状物40先端の1つの角部の対応点であるから、屈曲点56を手掛かりにして第1領域および第2領域の3次元座標を算出する。
 第1領域58および第2領域59の3次元座標に基づいて、いずれかの領域内にあるもう1つの角部を選択する。第1画像Lおよび第2画像R上に屈曲点として現れない場合でも、3次元座標に基づけば角部は認識できる。例えば図10を参照して、第2領域59内にもう1つの角部47が発見されたときは、屈曲点56および第1領域58は、帯状物40の一方の角部46および当該角部46を端点とする一方の側端辺48に一致する。第2領域59からは、他方の角部47を端点とする他方の側端辺49を選択することができる。そして、第2領域59の3次元座標および他方の角部47の3次元座標から、他方の側端辺49の3次元座標を求めることができる。
 以上により帯状物40の2つの側端辺48、49が選択できた。第1基準点および第2基準点の選定以降は、前述した方法と同様に実施できる。
 第1画像Lおよび第2画像Rで輪郭Cに屈曲点を1つも選択できない場合は、輪郭C全体の3次元座標を算出し、その3次元座標に基づいて輪郭C上に2つの角部を認識することにより、2つの側端辺を選択できる。第1基準点および第2基準点の選定以降は、前述した方法と同様に実施できる。
 本発明は、上記の実施形態に限定されるものではなく、その技術的思想の範囲内で種々の変形が可能である。
 例えば、上記実施形態では第1画像Lおよび第2画像R上で帯状物40の輪郭Cを抽出し、その輪郭Cのうちから第1側端辺44を選択したが、全体の輪郭を抽出することなく、ハフ変換等によって第1側端辺44を直接抽出してもよい。
 また、例えば、上記実施形態では、第1側端辺44および第2側端辺45の3次元座標を算出したが、場合によっては、第1側端辺の3次元座標のみを算出してもよい。例えば、ハンド32の把持面33が帯状物40の幅に比べて十分に大きい場合には、帯状物の第1側端辺44上に把持位置Gを設定することができる。
 また、例えば、上記実施形態では第1側端辺44の3次元座標を算出したが、第1画像Lおよび第2画像Rのそれぞれで帯状物40の先端辺41を抽出し、第1画像および第2画像に基づいて先端辺41の3次元座標を算出してもよい。それにより、先端辺41上に把持位置Gを設定することができる。この場合、把持方向は先端辺41に対して垂直な方向、つまり帯状物の長手方向として、手前位置を図1の帯状物先端部の下方に設定してもよい。
 また、例えば、先端辺の3次元座標に加えて1つの側端辺、例えば第1側端辺44、の3次元座標を算出すれば、先端辺41と第1側端辺44に挟まれた帯状物40の面内に把持位置Gを設定することができる。図11Aを参照して、第1側端辺44上の第1基準点P1と先端辺41上の第3基準点P3とを結んだ直線上に把持位置Gを設定してもよいし、図11Bを参照して、第1基準点P1から先端辺41と平行な方向に所定の距離dだけ離れた位置に把持位置Gを設定してもよい。さらに、上記実施形態と同様に、第1基準点P1と第3基準点P3を結んだ直線と、先端辺41の3次元座標または第1側端辺44の3次元座標から帯状物40の面方向の近似面を計算し、帯状物の面内方向に伸びる把持方向を求めることができる。把持方向は移動先である目標位置や移動先の形状、例えば移動先が治具の挿入口である場合、治具の挿入口の寸法や形状等によって設定することができる。
 10 帯状物ハンドリングシステム
 20 3次元計測装置
 21 第1カメラ
 22 第2カメラ
 23 演算部
 30 多関節ロボット
 31 アーム(ロボットアーム)
 32 ハンド(ロボットハンド)
 33 把持面
 34 リンク
 35 関節
 40 帯状物
 41 先端辺
 42 第1角部
 43 第2角部
 44 第1側端辺
 45 第2側端辺
 46、47 角部
 48、49 側端辺
 56 屈曲点
 58 輪郭Cの第1領域
 59 輪郭Cの第2領域
 60 帯状物の移動目標位置
 A 手前位置(作業手前位置)
 C 輪郭
 D 帯状物の先端から把持位置までの距離(把持距離)
 d 帯状物の第1側端辺から把持位置までの距離
 G 把持位置(作業位置)
 L 第1画像
 P1 第1基準点
 P2 第2基準点
 P3 第3基準点
 R 第2画像
 θ 把持角度(帯状物の幅方向と把持方法の成す角度)
 V 把持方向(作業方向)
 W 第1基準点と第2基準点を結ぶ直線(基準線)

Claims (39)

  1.  帯状物の少なくとも一端辺の3次元座標を取得する端辺座標取得工程と、
     前記一端辺の3次元座標に基づいて、前記帯状物の作業位置を決定する作業位置決定工程と、
    を有する帯状物の作業位置決定方法。
  2.  前記端辺座標取得工程が前記帯状物の第1側端辺の3次元座標を取得する工程であり、
     前記作業位置決定工程が、前記第1側端辺の3次元座標に基づいて、前記帯状物の前記作業位置を決定する工程である、
    請求項1に記載の帯状物の作業位置決定方法。
  3.  前記端辺座標取得工程が前記帯状物の第2側端辺の3次元座標をさらに取得する工程であり、
     前記作業位置決定工程が、前記第1側端辺および前記第2側端辺の3次元座標に基づいて、前記帯状物の前記作業位置を決定する工程である、
    請求項2に記載の帯状物の作業位置決定方法。
  4.  前記作業位置が前記第1側端辺上の第1基準点と前記第2側端辺上の第2基準点とを結んだ直線上に位置する、
    請求項3に記載の帯状物の作業位置決定方法。
  5.  前記第1基準点が前記第1側端辺上の第1角部から所定の距離にあり、
     前記第2基準点が前記第2側端辺上の第2角部から所定の距離にある、
    請求項4に記載の帯状物の作業位置決定方法。
  6.  前記端辺座標取得工程が前記帯状物の先端辺の3次元座標を取得する工程であり、
     前記作業位置決定工程が、前記先端辺の3次元座標に基づいて、前記帯状物の前記作業位置を決定する工程である、
    請求項1に記載の帯状物の作業位置決定方法。
  7.  前記端辺座標取得工程が前記帯状物の第1側端辺の3次元座標をさらに取得する工程であり、
     前記作業位置決定工程が、前記第1側端辺および前記先端辺の3次元座標に基づいて、前記帯状物の前記作業位置を決定する工程である、
    請求項6に記載の帯状物の作業位置決定方法。
  8.  前記作業位置が前記第1側端辺上の第1基準点と前記先端辺上の第3基準点とを結んだ直線上の位置または前記第1基準点から前記先端辺と平行な方向に所定の距離だけ離れた位置である、
    請求項7に記載の帯状物の作業位置決定方法。
  9.  前記第1側端辺の3次元座標に基づいて、前記帯状物の作業方向を決定する作業方向決定工程をさらに有する、
    請求項2に記載の帯状物の作業位置決定方法。
  10.  前記第1側端辺および前記第2側端辺の3次元座標に基づいて、前記帯状物の作業方向を決定する作業方向決定工程をさらに有する、
    請求項3に記載の帯状物の作業位置決定方法。
  11.  前記第1基準点と前記第2基準点とを結んだ直線に基づいて前記帯状物の作業方向を決定する作業方向決定工程をさらに有する、
    請求項4または5に記載の帯状物の作業位置決定方法。
  12.  前記先端辺の3次元座標に基づいて、前記帯状物の作業方向を決定する作業方向決定工程をさらに有する、
    請求項6に記載の状物の作業位置決定方法。
  13.  前記第1側端辺および前記先端辺の3次元座標に基づいて、前記帯状物の作業方向を決定する作業方向決定工程をさらに有する、
    請求項7に記載の帯状物の作業位置決定方法。
  14. 前記先端辺に平行な方向を前記帯状物の作業方向として決定する作業方向決定工程をさらに有する、
    請求項8に記載の帯状物の作業位置決定方法。
  15.  前記端辺座標取得工程は、変形の制限を受けない自由な状態である前記帯状物の3次元座標を取得する、
    請求項1~14のいずれか一項に記載の帯状物の作業位置決定方法。
  16.  請求項1~8のいずれか一項に記載された帯状物の作業位置決定方法における前記端辺座標取得工程および前記作業位置決定工程と、
     前記帯状物の前記作業位置に対してロボットハンドに作業させる作業工程とを有する、
    ロボット制御方法。
  17.  請求項9~14のいずれか一項に記載された帯状物の作業位置決定方法における前記端辺座標取得工程、前記作業位置決定工程および前記作業方向決定工程と、
     前記作業方向で前記帯状物の前記作業位置に対してロボットハンドに作業させる作業工程とを有する、
    ロボット制御方法。
  18.  前記作業工程の前に、前記作業位置から前記作業方向の逆向きに所定距離離れた位置に作業手前位置を設定する作業手前位置設定工程をさらに有する、
    請求項17に記載のロボット制御方法。
  19.  前記作業工程の前に、前記作業位置が前記ロボットハンドの可動域の内であるか外であるかを判定する工程をさらに有する、
    請求項16~18のいずれか一項に記載のロボット制御方法。
  20.  前記作業工程の前に、前記作業位置および前記作業手前位置が前記ロボットハンドの可動域の内であるか外であるかを判定する工程をさらに有する、
    請求項18に記載のロボット制御方法。
  21.  前記作業工程が前記作業位置を把持位置として前記ロボットハンドで前記帯状物を把持する把持工程である、
    請求項16~20のいずれか一項に記載のロボット制御方法。
  22.  前記作業工程が前記作業位置を把持位置、前記作業方向を把持方向として前記ロボットハンドで前記帯状物を把持する把持工程である、
    請求項17、18、20のいずれか一項に記載のロボット制御方法。
  23.  帯状物を計測する3次元計測装置と、
     前記3次元計測装置が計測した前記帯状物の少なくとも一端辺の3次元座標から前記帯状物の作業位置を算出して出力する演算部と、
    を有する帯状物の作業位置決定装置。
  24.  請求項23に記載の作業位置決定装置と、
     前記帯状物を把持するロボットハンドを備えるロボットとを有し、
     前記作業位置決定装置が出力した前記作業位置に基づき前記ロボットハンドで前記帯状物を把持する、帯状物ハンドリングシステム。
  25.  帯状物を異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、
     前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の第1側端辺を抽出する抽出工程と、
     前記第1画像から抽出した前記第1側端辺および前記第2画像から抽出した前記第1側端辺に基づいて前記第1側端辺の3次元座標を算出する3次元計算工程と、
    を有する帯状物の3次元計測方法。
  26.  前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の第2側端辺をさらに抽出し、
     前記3次元計算工程は、前記第1画像から抽出した前記第2側端辺および前記第2画像から抽出した前記第2側端辺に基づいて前記第2側端辺の3次元座標をさらに算出する、
    請求項25に記載の帯状物の3次元計測方法。
  27.  前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の第1角部および第2角部を認識して、前記第1角部および前記第2角部に基づいて前記第1側端辺および前記第2側端辺を抽出する、
    請求項26に記載の帯状物の3次元計測方法。
  28.  前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の輪郭を抽出して、該輪郭に基づいて前記第1側端辺および前記第2側端辺を抽出する、
    請求項26または27に記載の帯状物の3次元計測方法。
  29.  前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の輪郭を抽出して、該輪郭に基づいて前記第1角部および前記第2角部を認識する、
    請求項27に記載の帯状物の3次元計測方法。
  30.  前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて、
      前記帯状物の前記輪郭を抽出し、
      前記輪郭の2つの屈曲点を前記第1角部および前記第2角部として認識し、
      前記輪郭のうち、前記第1角部から前記第2角部と反対側に延びる部分を前記第1側端辺、前記第2角部から前記第1角部と反対側に延びる部分を前記第2側端辺として選択する、
    請求項29に記載の帯状物の3次元計測方法。
  31.  前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の第1角部を認識して、前記第1側端辺を抽出する、
    請求項25に記載の帯状物の3次元計測方法。
  32.  前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の輪郭を抽出して、該輪郭上に前記第1角部を認識する、
    請求項31に記載の帯状物の3次元計測方法。
  33.  前記抽出工程は、前記第1画像および前記第2画像のそれぞれにおいて、前記帯状物の前記輪郭を抽出し、前記輪郭上に前記第1角部を認識し、
     前記3次元計算工程は、前記第1画像および前記第2画像に基づいて前記輪郭の3次元座標上で前記第1角部以外の角部を第2角部として認識する工程を含む、
    請求項32に記載の帯状物の3次元計測方法。
  34.  帯状物を異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、
     前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の先端辺を抽出する抽出工程と、
     前記第1画像および前記第2画像に基づいて前記先端辺の3次元座標を算出する3次元計算工程と、
    を有する帯状物の3次元計測方法。
  35.  帯状物に対して作業位置を決定するための帯状物の3次元計測方法であって、
     帯状物を異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、
     前記第1画像および前記第2画像のそれぞれにおいて前記帯状物の第1側端辺または先端辺を抽出する抽出工程と、
     前記第1画像から抽出した前記第1側端辺および前記第2画像から抽出した前記第1側端辺から前記第1側端辺の3次元座標を算出する3次元計算工程または前記第1画像から抽出した前記先端辺および前記第2画像から抽出した前記先端辺から前記先端辺の3次元座標を算出する3次元計算工程と、
     前記第1側端辺または前記先端辺の3次元座標に基づいて前記作業位置の3次元座標を算出する作業位置計算工程と、
    を有する帯状物の3次元計測方法。
  36.  前記帯状物が変形の制限を受けない自由な状態で計測される、
    請求項25~35のいずれか一項に記載の帯状物の3次元計測方法。
  37.  異なる視点から帯状物を撮像する第1カメラおよび第2カメラと、
     前記第1カメラおよび前記第2カメラが撮像した第1画像および第2画像のそれぞれにおいて前記帯状物の第1側端辺を抽出し、前記第1画像から抽出した前記第1側端辺および前記第2画像から抽出した前記第1側端辺に基づいて該第1側端辺の3次元座標を算出する演算部と、
    を有する帯状物の3次元計測装置。
  38.  異なる視点から帯状物を撮像する第1カメラおよび第2カメラと、
     前記第1カメラおよび前記第2カメラが撮像した第1画像および第2画像のそれぞれにおいて前記帯状物の先端辺を抽出し、前記第1画像から抽出した前記先端辺および前記第2画像から抽出した前記先端辺に基づいて該先端辺の3次元座標を算出する演算部と、
    を有する帯状物の3次元計測装置。
  39.  帯状物に対して作業するロボットハンドとともに用いられる帯状物の3次元計測装置であって、
     異なる視点から前記帯状物を撮像する第1カメラおよび第2カメラと、
     前記第1カメラおよび前記第2カメラが撮像した第1画像および第2画像に基づいて前記帯状物の第1側端辺または先端辺の3次元座標を算出し、前記第1側端辺または前記先端辺の3次元座標に基づいて作業位置の3次元座標および作業方向を算出する演算部と、
    を有する帯状物の3次元計測装置。
PCT/JP2019/033831 2018-09-03 2019-08-29 帯状物の作業位置決定方法、ロボット制御方法、帯状物の作業位置決定装置、帯状物ハンドリングシステム、帯状物の3次元計測方法および帯状物の3次元計測装置 WO2020050121A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201980056885.8A CN112672859A (zh) 2018-09-03 2019-08-29 带状物的作业位置决定方法、机器人控制方法、带状物的作业位置决定装置、带状物处理系统、带状物的三维测量方法及带状物的三维测量装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018164904A JP7217109B2 (ja) 2018-09-03 2018-09-03 帯状物の作業位置決定方法、ロボット制御方法、帯状物の作業位置決定装置および帯状物ハンドリングシステム
JP2018-164904 2018-09-03
JP2018168289A JP7177639B2 (ja) 2018-09-07 2018-09-07 帯状物の3次元計測方法および帯状物の3次元計測装置
JP2018-168289 2018-09-07

Publications (1)

Publication Number Publication Date
WO2020050121A1 true WO2020050121A1 (ja) 2020-03-12

Family

ID=69723227

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/033831 WO2020050121A1 (ja) 2018-09-03 2019-08-29 帯状物の作業位置決定方法、ロボット制御方法、帯状物の作業位置決定装置、帯状物ハンドリングシステム、帯状物の3次元計測方法および帯状物の3次元計測装置

Country Status (2)

Country Link
CN (1) CN112672859A (ja)
WO (1) WO2020050121A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009107043A (ja) * 2007-10-29 2009-05-21 Canon Inc 把持装置および把持装置制御方法
JP2009279700A (ja) * 2008-05-21 2009-12-03 Purex:Kk ワークの把持方法および装置
JP2012200805A (ja) * 2011-03-24 2012-10-22 Canon Inc ロボット制御装置、ロボット制御方法、プログラム及び記録媒体
JP2018115883A (ja) * 2017-01-16 2018-07-26 倉敷紡績株式会社 布片把持装置用三次元計測装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007098567A (ja) * 2006-09-25 2007-04-19 Hitachi Ltd 自律制御型ロボットおよびその制御装置
CN105988433A (zh) * 2015-02-03 2016-10-05 合肥联鑫智能科技有限公司 一种全自动贴泡棉生产线
CN106094724A (zh) * 2016-07-01 2016-11-09 合肥研力电子科技有限公司 高精度贴泡棉机及其使用方法
CN106122203B (zh) * 2016-08-03 2018-08-03 深圳市伟鸿科科技有限公司 Ccd贴胶机

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009107043A (ja) * 2007-10-29 2009-05-21 Canon Inc 把持装置および把持装置制御方法
JP2009279700A (ja) * 2008-05-21 2009-12-03 Purex:Kk ワークの把持方法および装置
JP2012200805A (ja) * 2011-03-24 2012-10-22 Canon Inc ロボット制御装置、ロボット制御方法、プログラム及び記録媒体
JP2018115883A (ja) * 2017-01-16 2018-07-26 倉敷紡績株式会社 布片把持装置用三次元計測装置

Also Published As

Publication number Publication date
TW202020405A (zh) 2020-06-01
CN112672859A (zh) 2021-04-16

Similar Documents

Publication Publication Date Title
CN107618030B (zh) 基于视觉的机器人动态跟踪抓取方法及系统
JP5778311B1 (ja) ピッキング装置およびピッキング方法
US9089966B2 (en) Workpiece pick-up apparatus
US9089971B2 (en) Information processing apparatus, control method thereof and storage medium
CN105598987B (zh) 借助机器人确定关于对象的抓取空间
Liza Ahmad Shauri et al. Assembly manipulation of small objects by dual‐arm manipulator
JP7177639B2 (ja) 帯状物の3次元計測方法および帯状物の3次元計測装置
CN111745640A (zh) 物体检测方法、物体检测装置以及机器人系统
JP7217109B2 (ja) 帯状物の作業位置決定方法、ロボット制御方法、帯状物の作業位置決定装置および帯状物ハンドリングシステム
JP7106571B2 (ja) 線状物把持方法および制御装置
TWI760596B (zh) 線狀物之前端移動方法、控制裝置以及三維相機
WO2020050121A1 (ja) 帯状物の作業位置決定方法、ロボット制御方法、帯状物の作業位置決定装置、帯状物ハンドリングシステム、帯状物の3次元計測方法および帯状物の3次元計測装置
JP7222720B2 (ja) 先端部材位置推定方法、先端部材把持方法、先端部材接続方法、先端部材位置推定システム、および、先端部材把持システム
TWI839380B (zh) 帶狀物的作業位置決定方法、機器人控制方法、帶狀物的作業位置決定裝置、帶狀物處理系統、帶狀物的三維測量方法及帶狀物的三維測量裝置
US20220234208A1 (en) Image-Based Guidance for Robotic Wire Pickup
JP7140826B2 (ja) 把持制御装置
JP2021085751A (ja) 作業位置決定方法、ロボット制御方法、作業位置決定装置、およびロボット制御システム
JP7429630B2 (ja) 線状物把持方法
JP7175203B2 (ja) 先端部材位置算出方法、先端部材把持方法、先端部材接続方法、先端部材位置算出システム、および、先端部材把持システム
CN116197886A (zh) 图像数据处理方法、装置、电子设备和存储介质
CN116690568A (zh) 基于机器视觉的机械臂控制方法、装置、设备及存储介质
CN117769483A (zh) 机器人控制设备、机器人控制系统以及机器人控制方法
CN115837985A (zh) 一种基于机器视觉的无序抓取方法
JP2021089670A (ja) 束状物の認識方法、束状物の作業位置決定方法、ロボット制御方法、束状物の作業位置決定装置及び束状物作業システム
JP2021024068A (ja) 線状物の挿入方法、制御装置、三次元カメラ、線状物の孔挿入システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19857550

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19857550

Country of ref document: EP

Kind code of ref document: A1