WO2021001882A1 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
WO2021001882A1
WO2021001882A1 PCT/JP2019/026091 JP2019026091W WO2021001882A1 WO 2021001882 A1 WO2021001882 A1 WO 2021001882A1 JP 2019026091 W JP2019026091 W JP 2019026091W WO 2021001882 A1 WO2021001882 A1 WO 2021001882A1
Authority
WO
WIPO (PCT)
Prior art keywords
suction
gripping
target object
likelihood
information processing
Prior art date
Application number
PCT/JP2019/026091
Other languages
English (en)
French (fr)
Inventor
昂宏 長谷川
有貴 仁科
丸山 裕
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to PCT/JP2019/026091 priority Critical patent/WO2021001882A1/ja
Priority to JP2021529563A priority patent/JP7264247B2/ja
Publication of WO2021001882A1 publication Critical patent/WO2021001882A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Definitions

  • the present invention relates to an information processing device and an information processing method.
  • Patent Document 1 As a technique for recognizing a grippable position of an object from three-dimensional measurement data of the object, for example, there is a technique described in Patent Document 1.
  • a three-dimensional point set consisting of adjacent points is created from the three-dimensional point group, and each set is gripped based on a standard of a predetermined size, a standard of a predetermined area, and a standard of a predetermined length.
  • a possible set of 3D points is extracted.
  • Patent Document 2 As a technique for recognizing a grippable position of an object from three-dimensional measurement data of the object and the shape of the robot hand, for example, there is a technique described in Patent Document 2.
  • the features that can be grasped are extracted from the three-dimensional measurement data of the object according to the shape of the robot hand. Then, this feature is matched with the shape model of the robot hand, a matching score is given according to the degree of matching, and based on the matching score, priority is given as a gripping position candidate when gripping an object by the robot hand. The ranking is decided.
  • the suction type robot hand the surface above a certain area is extracted as a feature.
  • a standard such as a predetermined area is a standard for determining whether or not suction gripping is possible or superior or inferior, but three-dimensional measurement is performed without using an object model.
  • the user needs to adjust a threshold parameter for determining whether or not a predetermined criterion is satisfied.
  • such parameter adjustment requires knowledge and experience in gripping bulk objects, and it is necessary to adjust the parameters each time the object to be gripped changes, which also imposes a burden on the user.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique capable of reducing the burden on the user when recognizing a position where a target object can be sucked and gripped.
  • a parameter setting unit that sets parameters for evaluating an evaluation index that is an index for evaluating the suction gripping position with respect to the target object based on the size of the suction pad provided on the suction hand that sucks and grips the target object.
  • a plane area extraction unit that extracts a plane area based on the three-dimensional measurement data obtained by three-dimensionally measuring the target object, and Based on the evaluation result of the evaluation index for the extracted planar region, a suction gripping likelihood calculation unit that calculates the suction gripping likelihood indicating the ease of suction gripping, and a suction gripping likelihood calculation unit.
  • a suction gripping position / posture calculation unit that calculates the position / orientation of the suction hand with respect to the suction gripping position of the target object.
  • the information processing apparatus includes a gripping priority setting unit that sets a priority of the suction gripping position based on the suction gripping likelihood and the gripping position posture of the suction hand.
  • the parameters for evaluating the evaluation index often depend on the area of the plane region of the target object. Therefore, it is assumed that the area of such a plane region has a relationship similar to the size of the suction pad, and in the present invention, the parameter for evaluating the evaluation index used for calculating the suction grip likelihood is set as the target object. Is set based on the size of the suction pad provided on the suction hand for sucking and gripping. The size of the suction pad can be adjusted appropriately even by a user who has little knowledge or experience regarding gripping position recognition by actually measuring the size of the suction pad used for suction gripping or referring to the description in the specifications. Can be set.
  • the adsorption gripping likelihood is calculated by evaluating the evaluation index using the set parameters for the planar region extracted from the three-dimensional measurement data of the target object. Therefore, according to the present invention, it is possible to reduce the burden on the user when recognizing the position where the target object can be sucked and gripped.
  • the parameter based on the size of the suction pad may be a value determined based on the diameter of the suction pad.
  • the parameter based on the size of the suction pad may be a value determined based on the length of the short side of the rectangle circumscribing the suction pad.
  • the size of the suction pad is appropriate according to the length of the short side of the rectangle circumscribing the suction pad. You can set the parameters to be reflected in.
  • the evaluation index may include the distance from the center of gravity of the plane region.
  • the suction gripping position is to the center of gravity of the plane region, the less the bias due to the weight of the target object is, and the easier it is to grip the suction. Therefore, if the evaluation index includes the distance from the center of gravity of the plane region, the suction gripping can be performed. Ease of use can be evaluated appropriately.
  • the evaluation index may include a distance from a non-planar region other than the planar region.
  • the evaluation index determines the distance from the non-planar region. If it is included, the ease of suction gripping can be appropriately evaluated.
  • the evaluation index may include the area of the plane region.
  • the present invention A step of setting a parameter for evaluating an evaluation index, which is an index for evaluating a suction gripping position with respect to the target object, based on the size of a suction pad provided on the suction hand for sucking and gripping the target object.
  • the parameters for evaluating the evaluation index often depend on the area of the plane region of the target object. Therefore, it is assumed that the area of such a plane region has a relationship similar to the size of the suction pad, and in the present invention, the parameter for evaluating the evaluation index used for calculating the suction grip likelihood is set as the target object. Is set based on the size of the suction pad provided on the suction hand for sucking and gripping. The size of the suction pad can be adjusted appropriately even by a user who has little knowledge or experience regarding gripping position recognition by actually measuring the size of the suction pad used for suction gripping or referring to the description in the specifications. Can be set.
  • the adsorption gripping likelihood is calculated by evaluating the evaluation index using the set parameters for the planar region extracted from the three-dimensional measurement data of the target object. Therefore, according to the present invention, it is possible to reduce the burden on the user when recognizing the position where the target object can be sucked and gripped.
  • FIG. 1 is a diagram showing an example of the overall configuration of the gripping position recognition device.
  • FIG. 2 is a functional block diagram of the information processing device.
  • FIG. 3 is a flowchart showing an example of the grip recognition process.
  • FIG. 4 is a schematic diagram of the suction pad.
  • FIG. 5 is a diagram showing trays in which target objects are piled up in bulk.
  • FIG. 6 is a diagram showing an example of segment extraction.
  • FIG. 7 is a flowchart showing an example of the adsorption likelihood calculation process.
  • 8A and 8B are diagrams showing the distance of the suction gripping position from the center of gravity of the segment, and
  • FIG. 8C is a diagram showing an example of the suction gripping position.
  • FIG. 9A is a schematic diagram showing the relationship between pixels and segments
  • FIG. 9B is a schematic diagram showing a classification example of suction gripping positions according to the distance of the center of gravity of the segments.
  • 10A and 10B are diagrams showing the distance of the suction gripping position from the non-planar region
  • FIG. 10C is a diagram showing an example of the suction gripping position.
  • 11A, B and C are explanatory views of the advantage of classification by the distance from the non-planar region of the suction gripping position.
  • FIG. 12 is a diagram showing an example of classification of suction gripping positions according to the distance to the non-planar region.
  • 13A and 13B are schematic views showing the area of the segment, and FIG.
  • FIG. 13C is a diagram showing an example of the suction gripping position.
  • FIGS. A, B and C are diagrams showing an example of classification of suction gripping positions according to the area of the segment.
  • FIG. 15 is a diagram showing an example of calculating the adsorption gripping likelihood.
  • FIG. 16 is a diagram schematically showing the calculation of the gripping position / posture of the suction hand.
  • 17A and 17B are diagrams showing an example of calculating the priority of the gripping position candidate of the suction hand.
  • FIG. 18 is a diagram showing an example of priority order of gripping position candidates of the suction hand.
  • 19A, B and C are diagrams showing other forms of suction pads.
  • 20A and 20B are diagrams showing parameters for other forms of suction pads.
  • the present invention is applied to the information processing device 21 included in the gripping position recognition device 2 whose overall configuration is shown in FIG.
  • the sensor unit 20 measures a plurality of target objects 29 loosely stacked on the tray 28 in three dimensions
  • the information processing device 21 measures the three-dimensional measurement data of the plurality of target objects 29, and the target object 29
  • the suction gripping position is prioritized and output to the PLC 25 according to the suction gripping likelihood indicating the ease of suction gripping.
  • the PLC 25 controls the robot hand 27 based on this priority, and sucks and grips the target object 29 by the suction pad 26.
  • the suction grip likelihood when the target object 29 is sucked and gripped by the robot hand 27 equipped with the suction pad 26 as described above is comprehensively calculated from a plurality of suction grip indexes.
  • the suction gripping likelihood is an index indicating the ease of suction gripping of the target object, and is generally also referred to as suction gripping possibility.
  • the ease of suction and gripping of the target object means a high possibility that the target object can be appropriately gripped by the suction pad when the target object is sucked by the suction hand provided with the suction pad.
  • the suction pad can reliably suck and grip the target object in a mode necessary for the desired operation of the suction hand such as transporting it to another place.
  • the ease of suction and gripping of the target object means the low possibility of failure in suction and gripping of the target object.
  • the target object cannot be lifted because the suction pad does not properly suck the target object, or the target object is once sucked by the suction pad but interferes with other target objects or obstacles and falls off. It is also unlikely that the suction grip will fail due to the object being unbalanced and falling off.
  • the adjustment of the parameters for evaluation by the suction grip index often depends on the area of the plane region of the target object, and the area of the plane region of the target object is the size of the suction pad 26.
  • the optimum parameter is automatically set by setting the diameter, which is an example of the size of the suction pad 26, by the user's specification or the like.
  • a plurality of adsorption gripping indexes are evaluated using the parameters set in this way.
  • the suction grip likelihood is calculated based on a plurality of suction grip indexes.
  • the diameter of the suction pad 26 when it is circular as in the bellows type suction pad 261 (see FIG. 4) and the standard type suction pad 262 (see FIG. 19A), the diameter is set as shown in FIG. Can be adopted.
  • the diameter is set as shown in FIG. Can be adopted.
  • the size of the suction pad 26 is reflected according to the shape of the suction pad 26, and a value that can be easily acquired and set by the user by actual measurement or the like can be appropriately adopted for parameter setting.
  • the length of the short side of the rectangle circumscribing the oval which is the outer shape of the suction pad 263 can be adopted (see FIG. 20A).
  • the length of the short side of the rectangle circumscribing so as to surround the plurality of suction pads can be adopted (see FIG. 20B). Further, in these cases, a length other than the short side of the circumscribed rectangle may be adopted as a value reflecting the size of the suction pad 26, such as a long side or a diagonal line.
  • the gripping position recognition device 2 is installed on a production line for assembling and processing articles, and is obtained from data captured from the sensor unit 20 and data on the size of the suction pad 26 with respect to the object 29 loaded on the tray 28.
  • This is a system that recognizes the suction gripping position / posture by the robot hand 27.
  • Objects to be recognized hereinafter, also referred to as “target objects”
  • target objects Objects to be recognized
  • the robot hand 27 equipped with the suction pad 26 is referred to as a “suction hand”.
  • the gripping position recognition device 2 is roughly composed of a sensor unit 20 and an information processing device 21.
  • the sensor unit 20 and the information processing device 21 are connected by wire or wirelessly, and the output of the sensor unit 20 is taken into the information processing device 21.
  • the information processing device 21 is a device that performs various processes using the data captured from the sensor unit 20.
  • the processing of the information processing device 21 may include, for example, distance measurement (distance measurement), three-dimensional shape recognition, object recognition, scene recognition, and the like.
  • the recognition result of the gripping position recognition device 2 is output to, for example, a PLC (programmable logic controller) 25 or a display 22.
  • the recognition result is used, for example, for controlling the robot hand 27.
  • the sensor unit 20 has at least a camera for capturing an optical image of the target object 29.
  • the sensor unit 20 may include a configuration (sensor, lighting device, floodlight device, etc.) necessary for performing three-dimensional measurement of the target object 29.
  • a configuration sensor, lighting device, floodlight device, etc. necessary for performing three-dimensional measurement of the target object 29.
  • stereo matching also called stereo vision, stereo camera method, etc.
  • the sensor unit 20 is provided with a light projecting device that projects structured light because it has a random dot pattern on the target object 29.
  • a floodlight device and a camera for projecting pattern light are provided in the sensor unit 20.
  • any method such as an illuminance difference stereo method, a TOF (time of flight) method, and a phase shift method may be used as long as it can acquire three-dimensional information of the target object 29.
  • the information processing device 21 is composed of, for example, a computer including a CPU (processor), a RAM (memory), a non-volatile storage device (hard disk, SSD, etc.), an input device, an output device, and the like.
  • the CPU expands the program stored in the non-volatile storage device into the RAM and executes the program to realize various configurations described later.
  • the configuration of the information processing device 21 is not limited to this, and all or part of the configurations described later may be realized by a dedicated circuit such as FPGA or ASIC, or realized by cloud computing or distributed computing. You may.
  • FIG. 2 is a functional block diagram showing the configuration of the information processing device 21.
  • the information processing device 21 calculates the suction gripping likelihood indicating the ease of suction gripping of the target object from the three-dimensional measurement data of the target object by the sensor unit 20 and the data related to the size of the suction pad 26.
  • the priority of the gripping position of the target object is set based on the suction gripping likelihood.
  • the information processing device 21 has a parameter setting unit 211, a segment extraction unit 212, a suction grip likelihood calculation unit 213, a grip position / posture calculation unit 214, and a grip priority setting unit 215.
  • the segment extraction unit 212 corresponds to the "planar region extraction unit" of the present invention.
  • step S101 the three-dimensional measurement data of the target object based on the image three-dimensionally measured by the sensor unit 20 is acquired (step S101).
  • the three-dimensional measurement data is data composed of a plurality of points in which each point has three-dimensional information.
  • the format of the three-dimensional data may be any, for example, the data may be in a format in which each point has a three-dimensional coordinate value in the camera coordinate system, or a depth value (depth) at each point (each pixel) of the two-dimensional image.
  • Data (distance image) in a format associated with (distance information) may be used.
  • step S102 the parameter setting unit 211 calculates the parameters of the suction grip index.
  • the adsorption gripping index corresponds to the "evaluation index" in the present invention.
  • FIG. 4 shows an outline of the bellows type suction pad 261 included in the suction hand 27.
  • the diameter of the suction pad 261, that is, the diameter of the substantially circular suction portion 2611 at the tip of the suction pad 261 is ⁇ [mm].
  • the size of the suction pad 261 is reflected by the diameter.
  • the user may be allowed to input the measured value of the suction pad 261 used for suction, or the 3D CAD data of the suction pad 26 stored in the predetermined area 215 of the non-volatile storage device. And other model data may be used. Further, the diameter of the suction unit 2611 may be acquired from the three-dimensional measurement data obtained by imaging the suction pad 261 mounted on the suction hand 27 by the sensor unit 20. Then, the parameter setting unit 211 converts the diameter ⁇ [mm] of the suction unit 2611 into the size D [pixel] on the image using the camera parameters. The conversion from ⁇ [mm] to D [pixel] is performed by the following formula.
  • f is the focal length (camera parameter) and Z is the distance from the camera (optical center).
  • Z is set to the minimum distance value in the image in order to use the same threshold parameter for all segments.
  • the object plane region is calculated from the segment extraction unit 212 and the three-dimensional measurement data of the target object.
  • the normal maps around the X-axis and the Y-axis are calculated with respect to the X-axis and the Y-axis (parallel to the paper surface) in the camera coordinate system.
  • the variation of the normal map is calculated, and the region where the variation is small is extracted as a plane region (segment).
  • a case where confectionery packages 291 and the like, which are irregular target objects, are piled up in the tray 30 will be described as an example.
  • the sensor unit 20 three-dimensionally measures a plurality of target objects stacked in the tray 30 in this way. Then, a distance image is acquired as three-dimensional measurement data. A normal map is created from the distance image, and the variation around the X-axis and the Y-axis of the normal is calculated with respect to the X-axis and the Y-axis parallel to the paper surface.
  • the target objects are stacked in a manner as shown in FIG. 5, for example, the surface of the target object 291 in which the surface of the package is arranged upward (front of the paper) substantially parallel to the X-axis and the Y-axis.
  • the region Ar1 corresponding to is calculated as a region in which the variation around the X-axis and the Y-axis of the normal is small. Further, the region Ar2 corresponding to the side surface of the two target objects 292 and 293 intersecting the X-axis and the Y-axis at an angle close to orthogonal to each other and the side portions of the package are arranged upward (front of the paper) is formed. In the normal map, it is calculated as a region where the variation around the X-axis and the Y-axis of the normal is large. FIG.
  • FIG. 6 schematically shows a planar region (segment) extracted in this way, which is a region in which the variation of the normal map is small (for reference, the outer shape of the visible package is also shown).
  • the hatched areas R1 to R8 are planar areas.
  • the method for extracting the plane region is not limited to the method using the normal map as described above. For example, a method of grouping adjacent point clouds of a three-dimensional point cloud or a method of detecting an edge in a direction orthogonal to the X-axis and the Y-axis using a distance value as a threshold value can be adopted.
  • step S105 the processes from step S105 to step S112 are repeated for each segment (step S104, step S113).
  • step S105 the suction grip likelihood calculation unit 213 calculates the suction grip likelihood for each pixel in the segment from the plurality of suction grip indexes.
  • An example of the process of calculating the adsorption gripping likelihood will be described with reference to FIG. 7.
  • the suction gripping likelihood calculation unit 213 classifies the suction gripping indexes into A, B, and C in order of ease of gripping according to the distance to the center of gravity of the segment.
  • 8A and 8B are diagrams schematically showing the distance from the center of gravity of the segment.
  • the suction gripping position Sp11 is close to the center of gravity C11 of the segment Sg11.
  • the suction gripping position Sp12 is far from the center of gravity C11 of the segment Sg11. The closer the suction gripping position is to the center of gravity of the segment, the less the bias due to the weight of the target object is, and the easier it is to grip.
  • FIG. 8A the suction gripping position Sp11 is close to the center of gravity C11 of the segment Sg11.
  • the suction gripping position Sp12 is far from the center of gravity C11 of the segment Sg11. The closer the suction gripping position is to the center of gravity of the segment, the less the bias due to the weight of the target object is, and the easier it is to grip
  • the region Ar3 surrounded by the dotted circle of the confectionery package 291 bulked in the tray is close to the center of gravity of the segment, so that it is a position suitable for suction gripping, and the region Ar4 surrounded by the dotted circle. Is a position that is not suitable for suction gripping because it is far from the center of gravity of the segment.
  • FIGS. 9A and 9B Examples of classification according to the above method are shown in FIGS. 9A and 9B.
  • 9A and 9B are diagrams schematically showing the relationship between pixels and segments, and one square corresponds to one pixel.
  • the shaded pixels are regions extracted as the segment Sg21, and the position of the center of gravity C21 of the segment Sg21 is indicated by a cross. Further, the non-planar region Np21 is indicated by white pixels.
  • the inner circle Cr12A corresponds to the threshold parameter K c (A)
  • the outer circle Cr21B corresponds to the threshold parameter K c (B) about the center of gravity C21 of the segment Sg21.
  • the pixels included in the segment region Sg21A are classified as A because the distance from the center of gravity C21 is smaller than the threshold parameter K c (A) .
  • the pixels included in the segment region Sg21B are classified as B because the distance from the center of gravity C21 is equal to or greater than the threshold parameter K c (A) and smaller than K c (B) .
  • the pixels included in the segment region Sg21C are classified as C because the distance from the center of gravity C21 is equal to or greater than the threshold parameter K c (B) .
  • the adsorption gripping index can be classified into A, B, and C in order of ease of gripping according to the distance to the center of gravity of the segment.
  • the suction gripping likelihood calculation unit 213 classifies the suction gripping indexes into A, B, and C in order of ease of gripping according to the distance from the non-planar region.
  • 10A and 10B are diagrams schematically showing the distance from the non-planar region.
  • the suction gripping position Sp13 in the segment Sg12 is far from the non-planar region Np12.
  • the suction gripping position Sp14 is close to the non-planar region Np12. The farther the suction gripping position is from the non-planar region, the less the risk of gripping near the boundary of the object. For example, as shown in FIG.
  • the region Ar5 surrounded by the dotted circle of the confectionery package 291 stacked separately on the tray is a position suitable for suction gripping because the distance from the non-planar region is short
  • the region Ar6 surrounded by the dotted circle is a position that is not suitable for suction gripping because the distance from the non-planar region is short.
  • the difference between the suction gripping index based on the distance from the non-planar region and the suction gripping index based on the distance from the center of gravity of the segment will be described for the ring-shaped target object 293 having a hole in the center as shown in FIG. 11A.
  • the center of gravity C12 of the segment is located at the center of the hole.
  • the suction gripping index is based on the distance from the center of gravity of the segment, the suction gripping index becomes higher with respect to the region Ar5 of the hole opened in the center as shown in FIG. 11B.
  • the suction grip index is based on the distance from the non-planar region, the suction grip index is low in the hole region, the center of the thickness in the radial direction, and the ring-shaped region Ar6 on the target object is sucked.
  • the grip index becomes high.
  • the suction gripping index based on the distance from the non-planar region is effective.
  • FIG. 12 is also a diagram schematically showing the relationship between pixels and segments, and one square corresponds to one pixel.
  • D 3 [pixel] is shown.
  • Distance from non-planar region Np21 of pixels included in a segment Sg22A are classified into A is greater than the threshold parameter K p (A).
  • Distance from non-planar region Np21 of pixels included in a segment Sg22B is greater than the threshold parameter K p (B), because it is K p (A) hereinafter, are classified into B.
  • the distance from the non-planar regions Np21 of pixels included in a segment Sg22C is because it is below the threshold parameter K p (B), it is classified into C.
  • the adsorption gripping index can be classified into A, B, and C in order of ease of gripping according to the distance from the non-planar region.
  • step S203 the suction gripping likelihood calculation unit 213 classifies the suction gripping indexes into A, B, and C in order of ease of gripping according to the segment area.
  • 13A and 13B are diagrams schematically showing the area of the segment.
  • the area of the segment Sg13 is large, and in FIG. 13B, the area of the segment Sg14 is small.
  • the larger the area of the segment the more likely it is that the shape of the target object is simple and the easier it is to grip.
  • the area of the segment is large in the target object in bulk, it is unlikely that other target objects are overlapped on top of each other.
  • the area of the segment is small, the shape of the target object is likely to be complicated and difficult to grasp.
  • the region Ar5 surrounded by the dotted line of the confectionery package 291 bulked in the tray is a position suitable for suction gripping because the area of the segment is large.
  • the region Ar6 surrounded by the dotted line of the confectionery package 294 in which a plurality of packages are overlapped on top and only the end portion on the back surface is exposed is not suitable for suction gripping because the area of the segment is small. The position.
  • a method of classifying the adsorption gripping index into A, B, and C in order of ease of gripping according to the area of the segment will be specifically described.
  • the area of the segment be size
  • the threshold parameters of the index based on the area of the segment be th s (A) and th s (B) .
  • the adsorption gripping indexes are classified into A, B, and C according to the area of the segment.
  • FIGS. 14A, 14B, and 14C Examples of classification according to the above method are shown in FIGS. 14A, 14B, and 14C.
  • the segment Sg23A shown in FIG. 14A is classified as A because the area of the segment is larger than the threshold parameter th s (A) .
  • the segment Sg23 shown in FIG. 14B is classified as B because the area of the segment is larger than the threshold parameter th s (B ) and equal to or less than th s (A) .
  • the segment Sg23C shown in FIG. 14C is classified as C because the area of the segment is equal to or less than the threshold parameter th s (B) .
  • the adsorption gripping index can be classified into A, B, and C in order of ease of gripping according to the area of the segment.
  • the suction gripping likelihood is calculated by integrating the plurality of suction gripping indexes described in steps S201 to S203.
  • the suction gripping likelihood is calculated by integrating the three suction gripping indexes, but the number of suction gripping indexes is not limited to this.
  • the above-mentioned calculation method of the adsorption grip index is not limited to the above-mentioned method.
  • FIG. 15 shows an example of calculating the adsorption gripping likelihood.
  • the suction gripping likelihood is classified into seven stages of A, B1 to B3, and C1 to C3 in order from the one that is easy to grip to the one that is difficult to grip.
  • the adsorption grip likelihood is classified as A.
  • the adsorption gripping likelihood is classified as A.
  • the adsorption grip likelihood is classified as B1. For example, when the distance to the segment center of gravity and the distance from the non-planar region are both classified as A and the segment area is classified as B, the adsorption gripping likelihood is classified as B1. When the condition that the number of A is 1 and the number of B is 2 (the number of C is 0) of the suction grip index is satisfied, the suction grip likelihood is classified as B2. For example, when the distance to the segment center of gravity is A, the distance to the non-planar region and the segment area are B, the suction gripping likelihood is classified as B2.
  • the adsorption grip likelihood is classified into B3. For example, when the distance to the segment center of gravity, the distance from the non-planar region, and the segment area are all classified as B, the adsorption gripping likelihood is classified as B3.
  • the adsorption grip likelihood is classified as C1.
  • the suction gripping likelihood is classified as C1.
  • the suction grip likelihood is classified as C2.
  • the suction grip likelihood is classified as C2.
  • the suction grip likelihood is classified as C3.
  • the adsorption gripping likelihood is classified as C3.
  • step S106 the suction gripping likelihood calculation unit 213 rearranges each pixel in the segment by the suction gripping likelihood based on the suction gripping likelihood calculated in step S105.
  • the gripping position / posture calculation unit 214 may perform the rearrangement of each pixel in the segment according to the suction grip-likelihood, based on the suction-grasping likelihood calculated by the suction-grasping likelihood calculation unit 213.
  • steps S108 and S109 are repeated in order from the pixel having the highest suction grip likelihood (step S107, step S112).
  • the gripping position / posture calculation unit 214 calculates the gripping position / posture of the suction hand 27 for each pixel.
  • a translation vector can be obtained from the gripping position coordinates (x, y) of the suction pad 261 and the distance z between the target object 29 and the camera ⁇ sensor unit> 20, and the gripping position coordinates (
  • the rotation matrix can be calculated from the angles in the x and y directions of the normal vector Nv at x, y).
  • the position and orientation of the suction hand 27 at the suction gripping position are calculated from these translation vectors and the rotation matrix. Then, by using the angle of the normal vector Nv at the suction gripping position of the target object 29, the approach angle of the suction hand 27 along the direction perpendicular to the surface of the target object 29 is calculated.
  • step S109 it is determined whether or not the gripping position / posture of the suction hand 27 calculated in step S108 interferes with an obstacle or a three-dimensional point cloud. Since a known method can be adopted for the interference determination, detailed description thereof will be omitted.
  • step S109 If it is determined in step S109 that there is no interference, the process proceeds to step S111, and the gripping position posture is registered as a representative gripping position in the segment in a predetermined area of the non-volatile storage device. If it is determined in step S109 that there is interference, the processing of step S108 and step S109 is performed on the pixel having the next highest suction grip likelihood (step S107, step S110).
  • step S111 the processing of steps S108 and S109 is completed for the pixels in the segment to be processed, and the representative gripping position is registered.
  • step S104 When the processes from step S104 to step S112 are completed for the segment extracted in step S103, the process proceeds to step S113.
  • the gripping priority setting unit 215 calculates the gripping priority of the registered gripping position. That is, gripping position candidates are detected from each segment, and the priority is calculated among those gripping position candidates.
  • the distance value from the sensor unit to the segment is small by using an index such as the distance value Z from the sensor unit to the segment of the target object 29 ( FIG. 17A) has a higher priority, and the larger the distance value from the sensor unit to the segment (FIG. 17B), the lower the priority.
  • FIG. 18 in the case where the confectionery packages 29 shown in FIG.
  • prioritizing the gripping position is not limited to this.
  • prioritization may be performed according to the distance from the non-planar region, the distance from the center of gravity of the segment, the variation in the normal of the suction gripping position, the area of the segment, the approach angle of the suction hand to the target object, and the like.
  • the information on the gripping priority of the gripping position calculated by the gripping priority setting unit 215 is output to the PLC 25 together with the information on the gripping position and posture, and the robot hand 27 and the suction pad 26 are controlled accordingly to suck and grip the target object 29. Is done.
  • the user specifies the diameter of the suction pad to be used, and the threshold parameter in the suction grip likelihood calculation indicating the ease of suction grip is automatically calculated from the diameter of the suction pad. As a result, the burden of parameter adjustment by the user can be reduced.
  • the suction gripping index discretely classifies the ease of gripping into three stages of A, B, and C, but the calculation method of the suction gripping index is not limited to this, and changes continuously. It may be defined by the function to be used.
  • each adsorption grip index can be defined by the following continuous function.
  • the pad diameter is D [pixel] and the pad radius is R [pixel].
  • the distance from the non-planar region is disst p
  • K p the constant experimentally determined by the designer or evaluator in advance
  • the adsorption gripping index f p (dist p ) based on the distance from the non-planar region is calculated by the following formula. [Number 6]
  • the adsorption gripping index fs (size) based on the segment area is calculated by the following formula. [Number 7]
  • the function of the adsorption grip index is not limited to the above, and can be output by any function. If the output value of the function is not in the range of 0.0 to 1.0, the output value is normalized by post-processing. Etc. may be applied to correct the correction in the range of 0.0 to 1.0. Further, the influence of each adsorption gripping index may be suppressed by the nth root according to (n c , n p , n s ). For example, the adsorption gripping likelihood g may be calculated by the following formula.
  • the suction pad is a bellows type circular suction pad 261, but the type and number of the suction pads 261 are not limited to this.
  • a standard type suction pad 262 may be used.
  • an oval type suction pad 263 may be used, or as shown in FIG. 19C, a plurality of pad type suction pads 264 may be used, and the number of the plurality of pad type suction pads is not limited to four.
  • this oval type suction pad 263 as shown in FIG.
  • the length of the short side of the circumscribing rectangle Rt1 of the suction portion 2631 is regarded as the diameter ⁇ of the suction pad 263, and the parameter of the suction grip likelihood is automatically calculated. can do.
  • the length of the short side of the circumscribed rectangle Rt2 circumscribing so as to surround the suction portions 2641,2641,2641,2641 of the plurality of pad types is regarded as the diameter of the suction pad 264, and similarly, the suction gripping likelihood Parameters can be calculated automatically.
  • Suction pad 27 Suction hand 211: Parameter setting unit 212: Segment extraction unit 213: Suction grip likelihood calculation unit 214: Suction grip position posture calculation unit 215: Grip priority setting unit 261,262, 263, 264: Suction pad

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

吸着パッドの大きさに基づいて、評価指標を評価するためのパラメータを設定するパラメータ設定部と、対象物体の3次元計測データに基づき、平面領域を抽出する平面領域抽出部と、平面領域に対する評価指標の評価結果に基づき、吸着把持尤度を算出する吸着把持尤度算出部と、吸着ハンドの位置姿勢を算出する吸着把持位置姿勢算出部と、吸着把持位置の優先順位を設定する把持優先順位設定部とを備える情報処理装置。

Description

情報処理装置及び情報処理方法
 本発明は、情報処理装置及び情報処理方法に関する。
 従来、FA(Factory Automation)における検査やピッキングにおいて、画像から物体を認識(検出)する方法として、3DCADデータによる物体のモデルを用いて、物体の位置姿勢を認識してから、ロボットハンドによる把持位置の推定を行う技術が提案されている。物体がボルトやナットのような剛体である場合には物体の形状が定まっているため、3DCADデータによる物体のモデルによって、コンテナにばら積みされた物体の位置姿勢を認識した上で、ロボットハンドによる把持位置の推定を行う。
 一方で、このような物体のモデルを用いることなく、物体の3次元計測データとロボットハンドの形状から物体の把持可能な位置を認識する技術も提案されている。このような技術は、物体がボルトやナットのような剛体である場合にも有効であるが、可撓性を有するケーブルのような非剛体物体や、液体洗剤のパッケージのように不定形状の物体の場合のように、3DCADデータによる物体のモデルを用いることができない物体に対しても有効である。
 物体の3次元計測データから物体の把持可能な位置を認識する技術としては、例えば、特許文献1に記載された技術がある。ここでは、3次元点群から、隣接する点からなる3次元点集合を作成し、各集合で、所定の大きさの基準、所定の面積の基準及び所定の長さの基準に基づいて、把持可能な3次元点集合を抽出している。
 また、物体の3次元計測データとロボットハンドの形状から、物体の把持可能な位置を認識する技術として、例えば、特許文献2に記載された技術がある。ここでは、ロボットハンドの形状に応じて、物体の3次元計測データから、把持可能な特徴を抽出している。そして、この特徴とロボットハンドの形状モデルとのマッチングをとり、一致度に応じたマッチングスコアを付与し、マッチングスコアに基づいて、ロボットンハンドによって物体を把持する際の把持位置勢候補としての優先順位を決定している。吸着タイプのロボットハンドに対しては、一定領域以上の面を特徴として抽出している。
 しかし、上述のように、吸着タイプのロボットハンドに対して、所定の面積等の基準は、吸着把持の可否又は優劣を決定する基準であるが、物体のモデルを用いることなく、3元次元計測データとロボットハンドの形状から物体の把持可能な位置を認識する場合には、所定の基準を満たしているか否かを判断するための閾値パラメータをユーザが調整する必要がある。また、このようなパラメータ調整には、ばら積み物体の把持における知識や経験が必要であり、把持対象の物体が変わるごとにパラメータを調整する必要があり、これらもユーザの負担となる。
特開2017-090317号公報 特開2006-275608号公報
 本発明は、上記実情に鑑みてなされたものであり、対象物体の吸着把持可能な位置を認識する際のユーザの負担を軽減することが可能な技術を提供することを目的とする。
 上記の課題を解決するための本発明は、
 対象物体を吸着把持する吸着ハンドに設けられた吸着パッドの大きさに基づいて、前記対象物体に対する吸着把持位置を評価する指標である評価指標を評価するためのパラメータを設定するパラメータ設定部と、
 前記対象物体を3次元計測して得られた3次元計測データに基づき、平面領域を抽出する平面領域抽出部と、
 抽出された前記平面領域に対する前記評価指標の評価結果に基づき、吸着把持のしやすさを示す吸着把持尤度を算出する吸着把持尤度算出部と、
 前記対象物体における前記吸着把持位置に対する前記吸着ハンドの位置姿勢を算出する吸着把持位置姿勢算出部と、
 前記吸着把持尤度と前記吸着ハンドの把持位置姿勢に基づいて、前記吸着把持位置の優先順位を設定する把持優先順位設定部と
を備えたことを特徴とする情報処理装置である。
 評価指標を評価するためのパラメータは対象物体の平面領域の面積に依存することが多い。このため、このような平面領域の面積は吸着パッドの大きさと類似する関係にあると仮定し、本発明では、吸着把持尤度の算出に用いられる評価指標を評価するためのパラメータを、対象物体を吸着把持する吸着ハンドに設けられた吸着パッドの大きさに基づいて設定する。吸着パッドの大きさは、吸着把持に用いられる吸着パッドの大きさをユーザが実測したり、仕様書の記載を参照等したりすることにより、把持位置認識に関する知識や経験に乏しいユーザでも適切に設定することができる。対象物体の3次元計測データから抽出される平面領域に対して、設定されたパラメータを用いて評価指標を評価することにより、吸着把持尤度を算出する。従って、本発明によれば、対象物体の吸着把持可能な位置を認識する際のユーザの負担を軽減することができる。
 また、本発明においては、
 前記吸着パッドの大きさに基づくパラメータは、前記吸着パッドの直径に基づいて定められた値であるようにしてもよい。
 これによれば、吸着パッドが円形である場合に、吸着パッドの直径によって吸着パッドの大きさを適切に反映するパラメータを設定することができる。
 また、本発明においては、前記吸着パッドの大きさに基づくパラメータは、前記吸着パッドに外接する矩形の短辺の長さに基づいて定められる値であるようにしてもよい。
 これによれば、吸着パッドが円形以外の長円等の形状を有する場合や、複数の吸着パッドを有する場合に、吸着パッドに外接する矩形の短辺の長さによって吸着パッドの大きさを適切に反映するパラメータを設定することができる。
 また、本発明においては、前記評価指標は、前記平面領域の重心からの距離を含むようにしてもよい。
 吸着把持位置が平面領域の重心に近いほど、対象物体の重量による偏りが少なく吸着把持しやすいので、このように、評価指標が平面領域の重心からの距離を含むようにすれば、吸着把持のしやすさを適切に評価することができる。
 また、本発明においては、前記評価指標は、前記平面領域ではない非平面領域からの距離を含むようにしてもよい。
 対象物体が穴の開いたリング状である場合のように、平面領域の重心からの距離によって吸着把持のしやすさを適切に評価しづらい場合についても、評価指標が非平面領域からの距離を含むようにすれば、吸着把持のしやすさを適切に評価することができる。
 また、本発明においては、前記評価指標は、前記平面領域の面積を含むようにしてもよい。
 対象物体の平面領域の面積が大きいほど形状が単純である可能性が高いため、吸着把持がしやすい。また、複数の対象物体がばら積みされている場合には、平面領域の面積が大きいと他の対象物体物体が上に重なっている可能性が低いため、吸着把持がしやすい。従って、評価指標が平面領域の面積を含むようにすれば、吸着把持のしやすさを適切に評価することができる。
 また、本発明は、
 対象物体を吸着把持する吸着ハンドに設けられた吸着パッドの大きさに基づいて、前記対象物体に対する吸着把持位置を評価する指標である評価指標を評価するためのパラメータを設定するステップと、
 複数の対象物体を含むシーンを3次元計測して得られた3次元計測データに基づき、平面領域を抽出するステップと、
 抽出された前記平面領域に対する前記評価指標の評価結果に基づき、吸着把持のしやすさを示す吸着把持尤度を算出するステップと、
 前記対象物体における前記吸着把持位置に対する前記吸着ハンドの位置姿勢を算出するステップと、
 前記吸着把持尤度と前記吸着ハンドの把持位置姿勢に基づいて、前記吸着把持位置の優先順位を設定するステップと、
を含む情報処理方法である。
 評価指標を評価するためのパラメータは対象物体の平面領域の面積に依存することが多い。このため、このような平面領域の面積は吸着パッドの大きさと類似する関係にあると仮定し、本発明では、吸着把持尤度の算出に用いられる評価指標を評価するためのパラメータを、対象物体を吸着把持する吸着ハンドに設けられた吸着パッドの大きさに基づいて設定する。吸着パッドの大きさは、吸着把持に用いられる吸着パッドの大きさをユーザが実測したり、仕様書の記載を参照等したりすることにより、把持位置認識に関する知識や経験に乏しいユーザでも適切に設定することができる。対象物体の3次元計測データから抽出される平面領域に対して、設定されたパラメータを用いて評価指標を評価することにより、吸着把持尤度を算出する。従って、本発明によれば、対象物体の吸着把持可能な位置を認識する際のユーザの負担を軽減することができる。
 本発明によれば、対象物体の吸着把持可能な位置を認識する際のユーザの負担を軽減することが可能となる。
図1は把持位置認識装置の全体構成の一例を示す図である。 図2は情報処理装置の機能ブロック図である。 図3は把持認識処理の一例を示すフローチャートである。 図4は吸着パッドの概形図である。 図5は対象物体がばら積みされたトレイを示す図である。 図6はセグメントの抽出例を示す図である。 図7は吸着尤度算出処理の一例を示すフローチャートである。 図8A及びBは吸着把持位置のセグメントの重心との距離を示す図であり、図8Cは吸着把持位置の例を示す図である。 図9Aは画素とセグメントの関係を示す模式図であり、図9Bはセグメントの重心の距離による吸着把持位置の分類例を示す模式図である。 図10A及びBは吸着把持位置の非平面領域との距離を示す図であり、図10Cは吸着把持位置の例を示す図である。 図11A,B及びCは、吸着把持位置の非平面領域からの距離による分類の利点の説明図である。 図12は非平面領域までの距離による吸着把持位置の分類例を示す図である。 図13A及びBはセグメントの面積を示す模式図であり、図13Cは吸着把持位置の例を示す図である。 図A,B及びCは、セグメントの面積による吸着把持位置の分類例を示す図である。 図15は吸着把持尤度の算出例を示す図でる。 図16は吸着ハンドの把持位置姿勢算出を模式的に示す図である。 図17A及びBは吸着ハンドの把持位置候補の優先順位の算出例を示す図である。 図18は吸着ハンドの把持位置候補の優先順位の例を示す図である。 図19A,B及びCは他の形態の吸着パッドを示す図である。 図20A及びBは他の形態の吸着パッドに対するパラメータを示す図である。
〔適用例〕
 以下、本発明の適用例について、図面を参照しつつ説明する。
 本発明は、図1に全体構成を示す把持位置認識装置2に含まれる情報処理装置21に適用される。把持位置認識装置2では、センサユニット20によってトレイ28にばら積みされた複数の対象物体29を3次元計測し、情報処理装置21が複数の対象物体29の3次元計測データに基づき、対象物体29の吸着把持のしやすさを示す吸着把持尤度に従って、吸着把持位置を優先順位づけしてPLC25に出力する。PLC25は、この優先順位に基づいてロボットハンド27を制御し、吸着パッド26によって対象物体29を吸着把持する。
 情報処理装置21では、上述のように吸着パッド26を装着したロボットハンド27によって対象物体29を吸着把持する際の吸着把持尤度を複数の吸着把持指標から総合的に算出している。ここで、吸着把持尤度とは、対象物体の吸着把持のしやすさを示す指標であり、一般的には、吸着把持可能性ともいわれる。対象物体の吸着把持のしやすさとは、吸着パッドを備えた吸着ハンドによって対象物体を吸着する際に、吸着パッドによって対象物体を適切に把持できる可能性の高さを意味する。すなわち、他の場所に搬送する等の所望の吸着ハンドの動作に必要な態様で、吸着パッドが対象物体を確実に吸着把持できる可能性の高さである。逆に言えば、対象物体の吸着把持のしやすさとは、対象物体の吸着把持に失敗する可能性の低さを意味する。例えば、吸着パッドが対象物体を適切に吸着していないために対象物体を持ち上げることができなかったり、吸着パッドによって対象物体を一旦吸着したものの、他の対象物体や障害物と干渉して脱落させたり、対象物体のバランスをくずして脱落させたりして、吸着把持に失敗する可能性の低さである。
 本発明では、吸着把持指標によって評価するためのパラメータの調整が、対象物体の平面領域の面積に依存することが多いことに着目し、対象物体の平面領域の面積は、吸着パッド26の大きさと類似する関係にあると仮定した。このような仮定に基づき、吸着パッド26大きさの一例である直径を、ユーザの指定等によって設定させることにより、最適なパラメータを自動的に設定する。そして、このように設定されたパラメータを用いて複数の吸着把持指標について評価を行う。さらに、複数の吸着把持指標に基づいて吸着把持尤度を算出する。これにより、ユーザのパラメータ調整による負担を軽減し、対象物体のサイズに適した吸着把持尤度を算出し、吸着に最適な吸着把持位置を決定することができる。
 吸着パッド26の大きさとしては、蛇腹タイプの吸着パッド261(図4参照)やスタンダードタイプの吸着パッド262(図19A参照)ように円形である場合には、図4に示すように、直径を採用することができる。しかし、直径に限らず、吸着パッド26の形状に応じて、その大きさを反映するとともに、ユーザが実測等により容易に取得・設定できる値を、パラメータ設定のために適宜採用することができる。例えば、長円形の吸着パッド263である場合(図19B参照)には、吸着パッド263の外形である長円に外接する矩形の短辺の長さを採用することができ(図20A参照)、吸着パッド264が複数の吸着パッドを有する場合(図19C参照)には、複数の吸着パッドを囲むように外接する矩形の短辺の長さを採用することができる(図20B参照)。また、これらの場合に、外接矩形の短辺以外の長さを、吸着パッド26の大きさを反映する値として、長辺や対角線等の他の長さを採用してもよい。
 <実施形態>
 (把持位置認識装置の全体構成)
 図1を参照して、本発明の実施形態に係る把持位置認識装置について説明する。
 把持位置認識装置2は、物品の組み立てや加工などを行う生産ラインに設置され、センサユニット20から取り込まれたデータと、吸着パッド26の大きさに関するデータからトレイ28に積載された物体29に対してロボットハンド27による吸着把持位置・姿勢を認識するシステムである。トレイ28上には、認識対象の物体(以下、「対象物体」ともいう。)29がバラ積みされている。以下では、吸着パッド26を装着したロボットハンド27を「吸着ハンド」という。
 把持位置認識装置2は、概略、センサユニット20と情報処理装置21から構成される。センサユニット20と情報処理装置21のあいだは有線又は無線で接続されており、センサユニット20の出力は情報処理装置21に取り込まれる。情報処理装置21は、センサユニット20から取り込まれたデータを用いて各種の処理を行うデバイスである。情報処理装置21の処理としては、例えば、距離計測(測距)、3次元形状認識、物体認識、シーン認識などが含まれてもよい。把持位置認識装置2の認識結果は、例えばPLC(プログラマブルロジックコントローラ)25やディスプレイ22などに出力される。認識結果は、例えば、ロボットハンド27の制御に利用される。
 (センサユニット)
 センサユニット20は、対象物体29の光学像を撮影するためのカメラを少なくとも有する。さらに、センサユニット20は、対象物体29の3次元計測を行うために必要な構成(センサ、照明装置、投光装置など)を含んでもよい。例えば、ステレオマッチング(ステレオビジョン、ステレオカメラ方式などとも呼ばれる。)によって奥行き距離を計測する場合には、センサユニット20に複数台のカメラが設けられる。アクティブステレオの場合はさらに、対象物体29にランダムドットパターンなので構造化光を投射する投光装置がセンサユニット20に設けられる。空間コード化パターン投影方式により3次元計測を行う場合には、パターン光を投射する投光装置とカメラがセンサユニット20に設けられる。他にも、照度差ステレオ法、TOF(タイムオブフライト)法、位相シフト法など、対象物体29の3次元情報を取得可能な方法であればいかなる方式を用いてもよい。
 (情報処理装置)
 情報処理装置21は、例えば、CPU(プロセッサ)、RAM(メモリ)、不揮発性記憶装置(ハードディスク、SSDなど)、入力装置、出力装置などを備えるコンピュータにより構成される。この場合、CPUが、不揮発性記憶装置に格納されたプログラムをRAMに展開し、当該プログラムを実行することによって、後述する各種の構成が実現される。ただし、情報処理装置21の構成はこれに限られず、後述する構成のうちの全部又は一部を、FPGAやASICなどの専用回路で実現してもよいし、クラウドコンピューティングや分散コンピューティングにより実現してもよい。
 図2は、情報処理装置21の構成を示す機能ブロック図である。情報処理装置21は、センサユニット20による対象物体の3次元計測データと、吸着パッド26の大きさに関するデータ等から、対象物体の吸着把持のしやすさを表す吸着把持尤度を算出し、この吸着把持尤度に基づいて対象物体の把持位置の優先順位を設定する。情報処理装置21は、パラメータ設定部211、セグメント抽出部212、吸着把持尤度算出部213、把持位置姿勢算出部214、把持優先順位設定部215を有する。ここでは、セグメント抽出部212は、本発明の「平面領域抽出部」に対応する。
 (把持位置認識処理)
 図3のフローチャートを参照して、情報処理装置21による情報処理方法である把持位置認識処理の一例を説明する。
 ステップS101において、センサユニット20によって3次元計測された画像に基づく対象物体の3次元計測データを取得する(ステップS101)。3次元計測データは、各点が3次元情報をもつ複数の点から構成されるデータである。3次元データの形式はどのようなものでもよく、例えば、各点がカメラ座標系における3次元座標値をもつ形式のデータでもよいし、2次元画像の各点(各画素)にデプス値(奥行き距離の情報)が関連付けられた形式のデータ(距離画像)でもよい。
 ステップS102において、パラメータ設定部211が、吸着把持指標のパラメータを計算する。ここでは、吸着把持指標は、本発明における「評価指標」に対応する。図4は、吸着ハンド27が備える蛇腹タイプの吸着パッド261の概形を示す。吸着パッド261の直径、すなわち吸着パッド261先端の略円形の吸着部2611の直径はφ[mm]である。ここでは、吸着パッド261の大きさを、直径によって反映させる。このような吸着部2611の直径は、吸着に用いる吸着パッド261の実測値をユーザに入力させるようにしてもよいし、不揮発性記憶装置の所定領域215に格納された、吸着パッド26の3DCADデータ等のモデルのデータを使用してもよい。また、吸着部2611の直径は、センサユニット20によって吸着ハンド27に装着された吸着バッド261を撮像して得られた3次元計測データから取得するようにしてもよい。そして、パラメータ設定部211は、この吸着部2611の直径φ[mm]を、カメラパラメータを用いて画像上のサイズD[pixel]に変換する。φ[mm]からD[pixel]への変換は、以下の式によって行う。
[数1]
Figure JPOXMLDOC01-appb-I000001
ここで、fは焦点距離(カメラパラメータ)であり、Zはカメラ(光学中心)からの距離である。Zは画像の各画素により値が変化するが、全てのセグメントに対して同じ閾値パラメータを使用するために、Zを画像内の最小距離値に設定する。
 ステップS103において、セグメント抽出部212、対象物体の3次元計測データから、物体平面領域(セグメント)を算出する。ここでは、対象物体の距離画像から、カメラ座標系におけるX軸及びY軸(紙面に平行)に対して、X軸回りおよびY軸回りの法線マップを算出する。そして、法線マップのばらつきを計算し、ばらつきが小さい領域を平面領域(セグメント)として抽出する。図5に示すように、不定形の対象物体である菓子のパッケージ291等がトレイ30にばら積みされた場合を例に説明する。このようにトレイ30にばら積みされた複数の対象物体をセンサユニット20により3次元計測する。そして、3次元計測データとして、距離画像を取得する。距離画像から法線マップを作成し、紙面に平行なX軸及びY軸に対して、法線のX軸回り及びY軸回りのばらつきを算出する。図5に示すような態様で対象物体がばら積みされている場合には、例えば、X軸及びY軸にほぼ平行にパッケージの表面が上(紙面手前)向きに配置されている対象物体291の表面に対応する領域Ar1は、法線マップでは、法線のX軸回り及びY軸回りのばらつきが小さい領域として算出される。また、X軸及びY軸に直交に近い角度で交差して、パッケージの側部が上(紙面手前)向きに配置されてている二つの対象物体292,293の側面に対応する領域Ar2は、法線マップでは、法線のX軸回り及びY軸回りのばらつきが大きい領域として算出される。図6は、このように抽出された、法線マップのばらつきが小さい領域である平面領域(セグメント)を模式的に示す(参考のために、可視のパッケージの外形も併せて示している)。図6においてハッチングを付した領域R1~R8が平面領域である。
 なお、平面領域の抽出方法は、上述のような法線マップを用いた方法に限定されない。例えば、3次元点群の隣接点群をグルーピングする方法や、距離値を閾値としてX軸及びY軸に直交する方向のエッジを検出する方法を採用することもできる。
 次に、各セグメントに対して、ステップS105~ステップS112までの処理を繰り返す(ステップS104、ステップS113)。
 (吸着把持尤度算出処理)
 ステップS105において、吸着把持尤度算出部213が、複数の吸着把持指標から、セグメント内の各画素について吸着把持尤度を算出する。図7を参照して、吸着把持尤度算出の処理の一例を説明する。
 ステップS201において、吸着把持尤度算出部213は、セグメントの重心までの距離により、吸着把持指標を把持のしやすさ順にA,B,Cに分類する。図8A及び図8Bは、セグメントの重心からの距離を模式的に示した図である。図8Aでは、吸着把持位置Sp11がセグメントSg11の重心C11に近い。これに対して、図8Bでは、吸着把持位置Sp12がセグメントSg11の重心C11から遠い。吸着把持位置がセグメントの重心に近いほど、対象物体の重量による偏りが少ないために把持がしやすい。例えば、図8Cに示すように、トレイにばら積みされた菓子のパッケージ291の点線の円で囲った領域Ar3はセグメントの重心に近いので吸着把持にふさわしい位置であり、点線の円で囲った領域Ar4はセグメントの重心から遠いので吸着把持にふさわしくない位置である。
 セグメントの重心までの距離により吸着把持指標を把持のしやすさ順にA,B,Cに分類する方法を具体的に説明する。
 セグメント重心までの距離をdist、セグメント重心までの距離による指標の閾値パラメータをth (A)、th (B)とする。
 このとき、以下の式に従って、セグメント重心までの距離により、吸着把持指標をA,B,Cに分類する。
[数2]
Figure JPOXMLDOC01-appb-I000002
 なお、K (A),K (B)は定数であり、ユーザではなく、開発者又は評価者が予め実験的に決定する。この例では、K (A)=K (B)=1.0とする。
 上述の方法に従った分類例を、図9A及び図9Bに示す。図9A及び図9Bは、画素とセグメントの関係を模式的に示した図であり、一つのマス目が1画素に対応する。図9Aでは、網掛けで示した画素がセグメントSg21として抽出された領域であり、セグメントSg21の重心C21の位置を十字で示している。また、非平面領域Np21を白色の画素で示している。図9Bでは、図9Aに示したセグメントSg21に対して、D=3[pixel]とした場合の分類結果を示す。、セグメントSg21の重心C21を中心として、内側の円Cr12Aが閾値パラメータK (A)に対応し、外側の円Cr21Bが閾値パラメータK (B)に対応する。セグメントの領域Sg21Aに含まれる画素は重心C21からの距離が閾値パラメータK (A)より小さいので、Aに分類される。セグメントの領域Sg21Bに含まれる画素は重心C21からの距離が閾値パラメータK (A)以上であり、K (B)より小さいので、Bに分類される。セグメントの領域Sg21Cに含まれる画素は重心C21からの距離が閾値パラメータK (B)以上であるため、Cに分類される。このように、閾値パラメータを用いて、セグメントの重心までの距離により吸着把持指標を把持のしやすさ順にA,B,Cに分類することができる。
 ステップS202において、吸着把持尤度算出部213は、非平面領域からの距離により、吸着把持指標を把持のしやすさ順にA,B,Cに分類する。図10A及び図10Bは、非平面領域からの距離を模式的に示した図である。図10Aでは、セグメントSg12内の吸着把持位置Sp13が非平面領域Np12からの距離が遠い。これに対して、図10Bでは、吸着把持位置Sp14が非平面領域Np12からの距離が近い。吸着把持位置が非平面領域から遠いほど、物体の境界付近を把持するリスクが少なくなる。例えば、図10Cに示すように、トレイにばら積みされた菓子のパッケージ291の点線の円で囲った領域Ar5は非平面領域からの距離が近いので吸着把持にふさわしい位置であり、菓子のパッケージ292の点線の円で囲った領域Ar6は非平面領域からの距離が近いので吸着把持にふさわしくない位置である。非平面領域からの距離による吸着把持指標と、セグメントの重心から距離による吸着把持指標との違いを、図11Aのように中央に穴が開いたリング形状の対象物体293について説明する。このような対象物体293については、セグメントの重心C12が孔の中央に位置することになる。このため、セグメントの重心からの距離による吸着把持指標であれば、図11Bのように、中央に開いた穴の領域Ar5に対して吸着把持指標が高くなる。これに対して、非平面領域からの距離による吸着把持指標であれば、穴の領域は吸着把持指標が低くなり、径方向の厚みの中央であり、対象物体上のリング状の領域Ar6の吸着把持指標が高くなる。このように、穴の開いたリング状の対象物体については、非平面領域からの距離による吸着把持指標が有効である。
 非平面領域からの距離により吸着把持指標を把持のしやすさ順にA,B,Cに分類する方法を具体的に説明する。
 非平面領域からの距離をdist、非平面領域からの距離による指標の閾値パラメータをth (A)、th (B)とする。
 このとき、以下の式に従って、非平面領域からの距離により、吸着把持指標をA,B,Cに分類する。
[数3]
Figure JPOXMLDOC01-appb-I000003
 なお、K (A),K (B)は定数であり、ユーザではなく、開発者又は評価者が予め実験的に決定する。この例では、K (A)=1.5、K (B)=1.0とする。
 上述の方法に従った分類例を、図12に示す。セグメントの形状は、図9Aと同様である。図12も、画素とセグメントの関係を模式的に示した図であり、一つのマス目が1画素に対応する。ここでも、D=3[pixel]とした場合の分類結果を示す。セグメントSg22Aに含まれる画素の非平面領域Np21からの距離は閾値パラメータK (A)よりも大きいのでAに分類される。セグメントSg22Bに含まれる画素の非平面領域Np21からの距離は閾値パラメータK (B)より大きく、K (A)以下であるため、Bに分類される。そして、セグメントSg22Cに含まれる画素の非平面領域Np21からの距離は閾値パラメータK (B)以下であるため、Cに分類される。このように、閾値パラメータを用いて、非平面領域からの距離により吸着把持指標を把持のしやすさ順にA,B,Cに分類することができる。
 ステップS203において、吸着把持尤度算出部213は、セグメント面積により、吸着把持指標を把持のしやすさ順にA,B,Cに分類する。図13A及び図13Bは、セグメントの面積を模式的に示した図である。図13Aは、セグメントSg13の面積が大きく、図13Bは、セグメントSg14の面積が小さい。セグメントの面積が大きいほど対象物体の形状が単純である可能性が高く把持がしやすい。また、ばら積みの対象物体においてセグメントの面積が大きいと他の対象物体が上に重なっている可能性が低い。一方で、セグメントの面積が小さいと対象物体の形状が複雑である可能性が高く把持がしにくい。また、ばら積みの対象物体においてセグメントの面積が小さいと他の物体が上に重なっている可能性が高い。例えば、図13Cに示すように、トレイにばら積みされた菓子のパッケージ291の点線で囲った領域Ar5はセグメントの面積が大きいので吸着把持にふさわしい位置である。一方で、図13Cにおいて、複数のパッケージが上に重なっており、裏面の端部のみが露出している菓子のパッケージ294の点線で囲った領域Ar6はセグメントの面積が小さいので吸着把持にふさわしくない位置である。
 セグメントの面積により吸着把持指標を把持のしやすさ順にA,B,Cに分類する方法を具体的に説明する。
 セグメントの面積をsize、セグメントの面積による指標の閾値パラメータをth (A)、th (B)とする。
 このとき、以下の式に従って、セグメントの面積により、吸着把持指標をA,B,Cに分類する。
[数4]
Figure JPOXMLDOC01-appb-I000004
 なお、K (A),K (B)は定数であり、ユーザではなく、開発者又は評価者が予め実験的に決定する。この例では、K (A)=6.0、K (B)=3.0とする。
 上述の方法に従った分類例を、図14A、図14B、図14Cに示す。図14Aに示すセグメントSg23Aは、セグメントの面積が閾値パラメータth (A)より大きいので、Aに分類される。図14Bに示すセグメントSg23はセグメントの面積が閾値パラメータth (B)より大きく、th (A)以下であるため、Bに分類される。図14Cに示すセグメントSg23Cは、セグメントの面積が閾値パラメータth (B)以下であるため、Cに分類される。このように、閾値パラメータを用いて、セグメントの面積により吸着把持指標を把持のしやすさ順にA,B,Cに分類することができる。
 ステップS204では、ステップS201~S203で説明した複数の吸着把持指標を総合することにより吸着把持尤度を算出する。ここでは、3つの吸着把持指標を総合することにより吸着把持尤度を算出しているが、吸着把持指標の数はこれに限られない。また、上述した吸着把持指標の計算方法は上述の方法に限られるものではない。
 図15に、吸着把持尤度の算出例を示す。ここでは、吸着把持指標の分類結果に応じて、吸着把持尤度を把持しやすい方から把持しにくい方へと順に、A、B1~B3、C1~C3の7段階に分類している。
 すなわち、吸着把持指標のAの数が3(B及びCの数は0)という条件を満たす場合には、吸着把持尤度をAに分類する。例えば、セグメント重心までの距離、非平面領域からの距離、セグメント面積のいずれもがAに分類される場合に吸着把持尤度がAと分類される。
 吸着把持指標のAの数が2、Bの数が1(Cの数は0)という条件を満たす場合には、吸着把持尤度をB1に分類する。例えば、セグメント重心までの距離及び非平面領域からの距離がともにAに分類され、セグメント面積がBに分類される場合に、吸着把持尤度がB1に分類される。吸着把持指標のAの数が1、Bの数が2(Cの数は0)という条件を満たす場合には、吸着把持尤度をB2に分類する。例えば、セグメント重心までの距離がA、非平面領域までの距離及びセグメント面積がBの場合に、吸着把持尤度がB2に分類される。吸着把持指標のBの数が3(A及びCの数は0)という条件を満たす場合には、吸着把持尤度をB3に分類する。例えば、セグメント重心までの距離、非平面領域からの距離、セグメント面積のいずれもがBに分類される場合に吸着把持尤度がB3に分類される。
 吸着把持指標のCの数が1(A又はBの数が2)という条件を満たす場合には、吸着把持尤度をC1に分類する。例えば、セグメント重心までの距離がB、非平面領域までの距離がA、セグメント面積がCの場合に、吸着把持尤度がC1に分類される。吸着把持指標のCの数が2(A又はBの数が1)の条件を満たす場合には、吸着把持尤度をC2に分類する。例えば、セグメント重心までの距離がA、非平面領域までの距離及びセグメント面積がともにCの場合に、吸着把持尤度がC2に分類される。吸着把持指標のCの数が3(A及びBの数は0)という条件を満たす場合には、吸着把持尤度をC3に分類する。例えば、セグメント重心までの距離、非平面領域からの距離、セグメント面積のいずれもがCに分類される場合に吸着把持尤度がC3に分類される。
 図3のフローチャートに戻って、把持位置認識処理の説明を続ける。
 ステップS106において、吸着把持尤度算出部213は、ステップS105で算出された吸着把持尤度に基づいて、セグメント内の各画素を吸着把持尤度により並べ替える。セグメント内の各画素の吸着把持尤度による並べ替えは、吸着把持尤度算出部213において算出された吸着把持尤度に基づいて、把持位置姿勢算出部214が行ってもよい。
 次に、セグメント内の各画素に対して、吸着把持尤度の高い画素から順に、ステップS108及びS109の処理を繰り返す(ステップS107、ステップS112)。
 ステップS108において、把持位置姿勢算出部214が、各画素に対する吸着ハンド27の把持位置姿勢を算出する。図16に模式的に示すように、吸着パッド261の把持位置座標(x,y)と対象物体29とカメラ〈センサユニット〉20の距離zから、並進ベクトルを得ることができ、把持位置座標(x,y)における法線ベクトルNvのx方向及びy方向の角度から回転行列を算出することができる。これらの並進ベクトルと回転行列によって、吸着把持位置における吸着ハンド27の位置姿勢を算出する。そして、対象物体29の吸着把持位置における法線ベクトルNvの角度を用いることによって、対象物体29の面に対して垂直な方向に沿った吸着ハンド27のアプローチ角度を算出する。
 ステップS109において、ステップS108で算出した吸着ハンド27の把持位置姿勢が、障害物や3次元点群と干渉しないかを判定する。干渉判定は公知の方法を採用することができるので詳細な説明を省略する。
 ステップS109において、干渉がないと判定された場合には、ステップS111に進み、不揮発性記憶装置の所定領域にセグメント内の代表把持位置として把持位置姿勢が登録される。
 ステップS109において、干渉があると判定された場合には、次に吸着把持尤度の高い画素について、ステップS108及びステップS109の処理を行う(ステップS107、ステップS110)。
 ステップS111において、処理対象となっているセグメント内の画素について、ステップS108及びステップS109の処理が完了し、代表把持位置が登録される。
 ステップS103において抽出されたセグメントに対して、ステップS104~ステップS112までの処理が完了したら、ステップS113に進む。
 ステップS113において、把持優先順位設定部215が登録された把持位置の把持優先順位を算出する。すなわち、各セグメントから把持位置候補を検出し、それらの把持位置候補の中で優先順位を算出する。ここでは、例えば、図17A及び図17Bに模式的に示すように、センサユニットから対象物体29のセグメントまでの距離値Zなどの指標を用いて、センサユニットからセグメントまでの距離値が小さいもの(図17A)ほど優先順位を高く、センサユニットからセグメントまでの距離値が大きいもの(図17B)ほど優先順位を低くする。図18に示すように、図5に示す菓子のパッケージ29がトレイにばら積みされた例については、把持位置候補P1、P2、P3、P4、P5、P6、P7、P8の順で優先順位が低くなるとして、各把持位置候補の優先順位が算出される。
 把持位置の優先順位づけの方法は、これに限られない。例えば、非平面領域からの距離、セグメント重心からの距離、吸着把持位置の法線のばらつき、セグメントの面積、吸着ハンドの対象物体に対するアプローチ角度等によって優先順位づけをしてもよい。
 把持優先順位設定部215において算出された把持位置の把持優先順位に関する情報は、把持位置姿勢の情報ともにPLC25に出力され、これに従ってロボットハンド27及び吸着パッド26が制御され、対象物体29の吸着把持が行われる。
 (本実施形態の利点)
 以上述べた構成及び処理では、使用する吸着パッドの直径をユーザが指定することにより、吸着パッドの直径から吸着把持のしやすさを示す吸着把持尤度算出における閾値パラメータを自動的に計算する。これにより、ユーザによるパラメータ調整の負担が軽減することができる。
 (変形例)
 上述の実施形態では、吸着把持指標が把持のしやすさを離散的にA,B,Cの3段階に分類していたが、吸着把持指標の算出方法はこれに限られず、連続的に変化する関数によって定義してもよい。例えば、各吸着把持指標を以下のような連続関数で定義することもできる。ここでも、パッド直径をD[pixel]、パッド半径をR[pixel]とする。
 セグメント重心までの距離をdist、設計者又は評価者が予め実験的に決定する定数をK(今回の例では、K=3.0とする)とする。
 このとき、セグメントの重心までの距離による吸着把持指標f(dist)は、以下の式により算出する。
[数5]
Figure JPOXMLDOC01-appb-I000005
 非平面領域からの距離をdist、設計者又は評価者が予め実験的に決定する定数をK(今回の例では、K=6.0とする)。
 このとき、非平面領域からの距離による吸着把持指標f(dist)は、以下の式により算出する。
[数6]
Figure JPOXMLDOC01-appb-I000006
 セグメントの面積をsizeとし、設計者又は評価者が予め実験的に決定する定数をK (α)、K (β)(今回の例では、K (α)=1.05、K (β)=3.0とする)。
 このとき、セグメント面積による吸着把持指標fs(size)は、以下の式により算出する。
[数7]
Figure JPOXMLDOC01-appb-I000007
 上述した各吸着把持指標の関数はシグモイド関数をベースにしており、0.0~1.0の範囲の数値が出力されるため、吸着把持尤度gを以下の式により算出する。
[数8]
Figure JPOXMLDOC01-appb-I000008
 吸着把持指標の関数は、上述のものに限られず、任意の関数で出力することができ、関数の出力値が0.0~1.0の範囲でない場合は、後処理で出力値の正規化等を適用して0.0~1.0の範囲に補正すればよい。
 さらに、(n,n,n)によるn乗根で各吸着把持指標の影響度の抑制を行ってもよい。例えば、吸着把持尤度gを以下の式により算出するようにしてもよい。
[数9]
Figure JPOXMLDOC01-appb-I000009
 ここで、各n乗根の数値は、n>0、n>0、n>0で設定し、影響度を抑制したい指標にはnを大きな値に設定する。
 また、上述の実施形態では、吸着パッドは、蛇腹タイプの円形の吸着パッド261について説明したが、吸着パッド261の種類や数はこれに限定されない。図19Aに示すように、スタンダードタイプの吸着パッド262でもよい。また、図19Bに示すように長円タイプの吸着パッド263でもよいし、図19Cに示すように複数パッドタイプの吸着パッド264でもよく、複数パッドタイプの吸着パッドの数も4つに限定されない。このよう長円タイプの吸着パッド263では、図20Aに示すように、吸着部2631の外接矩形Rt1の短辺の長さを吸着パッド263の直径φとみて、吸着把持尤度のパラメータを自動算出することができる。図20Bに示すように、複数パッドタイプの吸着部2641,2641,2641,2641を囲むように外接する外接矩形Rt2の短辺の長さを吸着パッド264の直径とみて、同様に吸着把持尤度のパラメータを自動算出することができる。
 上述の実施形態では、対象物体29の3DCADデータ等のモデルを用いない、いわゆるモデルレス把持位置認識について説明したが、対象物体29の3DCADデータ等のモデルの把持位置認識の場合にも、上述のパラメータ設定は適用することができる。
 なお、以下には本発明の構成要件と実施例の構成とを対比可能とするために、本発明の構成要件を図面の符号付きで記載しておく。
<発明1>
 対象物体(29)を吸着把持する吸着ハンド(27)に設けられた吸着パッド(26)の大きさに基づいて、前記対象物体(29)に対する吸着把持位置を評価する指標である評価指標を評価するためのパラメータを設定するパラメータ設定部(211)と、
 前記対象物体(29)を3次元計測して得られた3次元計測データに基づき、平面領域を抽出する平面領域抽出部(212)と、
 抽出された前記平面領域に対する前記評価指標の評価結果に基づき、吸着把持のしやすさを示す吸着把持尤度を算出する吸着把持尤度算出部(213)と、
 前記対象物体における前記吸着把持位置に対する前記吸着ハンドの位置姿勢を算出する吸着把持位置姿勢算出部(214)と、
 前記吸着把持尤度と前記吸着ハンド(27)の把持位置姿勢に基づいて、前記吸着把持位置の優先順位を設定する把持優先順位設定部(215)と
を備えたことを特徴とする情報処理装置(21)。
21:情報処理装置
26:吸着パッド
27:吸着ハンド
211:パラメータ設定部
212:セグメント抽出部
213:吸着把持尤度算出部
214:吸着把持位置姿勢算出部
215:把持優先順位設定部
261,262,263,264:吸着パッド
 

Claims (7)

  1.  対象物体を吸着把持する吸着ハンドに設けられた吸着パッドの大きさに基づいて、前記対象物体に対する吸着把持位置を評価する指標である評価指標を評価するためのパラメータを設定するパラメータ設定部と、
     前記対象物体を3次元計測して得られた3次元計測データに基づき、平面領域を抽出する平面領域抽出部と、
     抽出された前記平面領域に対する前記評価指標の評価結果に基づき、吸着把持のしやすさを示す吸着把持尤度を算出する吸着把持尤度算出部と、
     前記対象物体における前記吸着把持位置に対する前記吸着ハンドの位置姿勢を算出する吸着把持位置姿勢算出部と、
     前記吸着把持尤度と前記吸着ハンドの把持位置姿勢に基づいて、前記吸着把持位置の優先順位を設定する把持優先順位設定部と
    を備えたことを特徴とする情報処理装置。
  2.  前記吸着パッドの大きさに基づくパラメータは、前記吸着パッドの直径に基づいて定められた値であることを特徴とする請求項1に記載の情報処理装置。
  3.  前記吸着パッドの大きさに基づくパラメータは、前記吸着パッドに外接する矩形の短辺の長さに基づいて定められる値であることを特徴とする請求項1に記載の情報処理装置。
  4.  前記評価指標は、前記平面領域の重心からの距離を含むことを特徴とする請求項1ないし3のいずれか1項に記載の情報処理装置。
  5.  前記評価指標は、前記平面領域ではない非平面領域からの距離を含むことを特徴とする請求項1ないし4のいずれか1項に記載の情報処理装置。
  6.  前記評価指標は、前記平面領域の面積を含むことを特徴とする請求項1ないし5のいずれか1項に記載の情報処理装置。
  7.  対象物体を吸着把持する吸着ハンドに設けられた吸着パッドの大きさに基づいて、前記対象物体に対する吸着把持位置を評価する指標である評価指標を評価するためのパラメータを設定するステップと、
     複数の対象物体を含むシーンを3次元計測して得られた3次元計測データに基づき、平面領域を抽出するステップと、
     抽出された前記平面領域に対する前記評価指標の評価結果に基づき、吸着把持のしやすさを示す吸着把持尤度を算出するステップと、
     前記対象物体における前記吸着把持位置に対する前記吸着ハンドの位置姿勢を算出するステップと、
     前記吸着把持尤度と前記吸着ハンドの把持位置姿勢に基づいて、前記吸着把持位置の優先順位を設定するステップと、
    を含む情報処理方法。
PCT/JP2019/026091 2019-07-01 2019-07-01 情報処理装置及び情報処理方法 WO2021001882A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/026091 WO2021001882A1 (ja) 2019-07-01 2019-07-01 情報処理装置及び情報処理方法
JP2021529563A JP7264247B2 (ja) 2019-07-01 2019-07-01 情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/026091 WO2021001882A1 (ja) 2019-07-01 2019-07-01 情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
WO2021001882A1 true WO2021001882A1 (ja) 2021-01-07

Family

ID=74100526

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/026091 WO2021001882A1 (ja) 2019-07-01 2019-07-01 情報処理装置及び情報処理方法

Country Status (2)

Country Link
JP (1) JP7264247B2 (ja)
WO (1) WO2021001882A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022049486A (ja) * 2020-09-16 2022-03-29 株式会社東芝 ハンドリング装置及びプログラム
JP2023131162A (ja) * 2022-03-08 2023-09-21 株式会社Mujin 物体取り扱いを伴うロボットシステムのためのシステム及び方法
CN117162576A (zh) * 2023-09-08 2023-12-05 昆山汇欣德智能科技有限公司 一种冲压机械手取放料调节方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012066819A1 (ja) * 2010-11-17 2012-05-24 三菱電機株式会社 ワーク取り出し装置
JP2013215833A (ja) * 2012-04-06 2013-10-24 Central Uni Co Ltd ピッキング装置
JP2015009314A (ja) * 2013-06-28 2015-01-19 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2015100866A (ja) * 2013-11-22 2015-06-04 三菱電機株式会社 ロボットシミュレーション装置、プログラム、記録媒体及び方法
JP2016132521A (ja) * 2015-01-16 2016-07-25 株式会社東芝 荷役装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012066819A1 (ja) * 2010-11-17 2012-05-24 三菱電機株式会社 ワーク取り出し装置
JP2013215833A (ja) * 2012-04-06 2013-10-24 Central Uni Co Ltd ピッキング装置
JP2015009314A (ja) * 2013-06-28 2015-01-19 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2015100866A (ja) * 2013-11-22 2015-06-04 三菱電機株式会社 ロボットシミュレーション装置、プログラム、記録媒体及び方法
JP2016132521A (ja) * 2015-01-16 2016-07-25 株式会社東芝 荷役装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KELLEY, R. B. ET AL.: "Three Vision Algorithms for Acquiring Workpieces from Bins", PROCEEDINGS OF THE IEEE, vol. 71, no. 7, 1983, pages 803 - 820, XP001379890 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022049486A (ja) * 2020-09-16 2022-03-29 株式会社東芝 ハンドリング装置及びプログラム
JP7395451B2 (ja) 2020-09-16 2023-12-11 株式会社東芝 ハンドリング装置、処理装置、コントローラ及びプログラム
JP2023131162A (ja) * 2022-03-08 2023-09-21 株式会社Mujin 物体取り扱いを伴うロボットシステムのためのシステム及び方法
JP7408107B2 (ja) 2022-03-08 2024-01-05 株式会社Mujin 物体取り扱いを伴うロボットシステムのためのシステム及び方法
CN117162576A (zh) * 2023-09-08 2023-12-05 昆山汇欣德智能科技有限公司 一种冲压机械手取放料调节方法

Also Published As

Publication number Publication date
JPWO2021001882A1 (ja) 2021-01-07
JP7264247B2 (ja) 2023-04-25

Similar Documents

Publication Publication Date Title
US11636605B2 (en) Robotic system with automated package registration mechanism and minimum viable region detection
JP7433609B2 (ja) 物体識別のための方法および計算システム
JP6749034B1 (ja) エッジ及び多次元コーナーに基づく検出後の精緻化
WO2021001882A1 (ja) 情報処理装置及び情報処理方法
US11667036B2 (en) Workpiece picking device and workpiece picking method
US20150127162A1 (en) Apparatus and method for picking up article randomly piled using robot
JP6632208B2 (ja) 情報処理装置、情報処理方法、プログラム
CN113191174B (zh) 物品定位方法和装置、机器人及计算机可读存储介质
JP6758903B2 (ja) 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法
US11213958B2 (en) Transferring system and method for transferring an object
CN116494253B (zh) 目标物体抓取位姿获取方法及机器人抓取系统
JP5544464B2 (ja) 対象物の3次元位置・姿勢認識装置及びその方法
JP7201189B2 (ja) 物体サイズ検出のためのロボットシステム
JP2024015358A (ja) 物体取り扱いを伴うロボットシステムのためのシステム及び方法
JP7310895B2 (ja) 情報処理装置及び情報処理方法
CN113313803B (zh) 垛型分析方法、装置、计算设备及计算机存储介质
CN113284129A (zh) 基于3d包围盒的压箱检测方法及装置
WO2022130618A1 (ja) 位置・姿勢推定装置、位置・姿勢推定方法、及びプログラム
CN116551672A (zh) 用于具有物体处置能力的机器人系统的系统和方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19936336

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021529563

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19936336

Country of ref document: EP

Kind code of ref document: A1