WO2009148089A1 - ハンドリング装置、制御装置、制御方法およびプログラム - Google Patents
ハンドリング装置、制御装置、制御方法およびプログラム Download PDFInfo
- Publication number
- WO2009148089A1 WO2009148089A1 PCT/JP2009/060172 JP2009060172W WO2009148089A1 WO 2009148089 A1 WO2009148089 A1 WO 2009148089A1 JP 2009060172 W JP2009060172 W JP 2009060172W WO 2009148089 A1 WO2009148089 A1 WO 2009148089A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- work
- data
- workpiece
- robot
- tracking
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0093—Programme-controlled manipulators co-operating with conveyor means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39102—Manipulator cooperating with conveyor
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10T—TECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
- Y10T29/00—Metal working
- Y10T29/49—Method of mechanical manufacture
- Y10T29/49764—Method of mechanical manufacture with testing or indicating
- Y10T29/49769—Using optical instrument [excludes mere human eyeballing]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10T—TECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
- Y10T29/00—Metal working
- Y10T29/53—Means to assemble or disassemble
- Y10T29/53039—Means to assemble or disassemble with control means energized in response to activator stimulated by condition sensor
Definitions
- the present invention relates to a handling device, a control device, a control method, and a program for efficiently processing a work conveyed by a belt conveyor.
- a visual sensor is arranged upstream of the belt conveyor, an article (hereinafter referred to as a workpiece) conveyed by the belt conveyor is detected, and the robot performs an operation on the workpiece using the output data of the visual sensor.
- Controlling handling devices are known.
- the visual sensor images each work being conveyed by the belt conveyor, creates data corresponding to each work, and transmits the data to the robot controller.
- the robot controller creates a database of received data, and performs a process based on the data read from the above-described database for a work that has reached the work position of the robot by transporting the belt conveyor.
- Patent Document 1 stores data transmitted from a visual sensor in sequence, constructs a database, and controls robot operations in accordance with the contents stored in the database. Therefore, when the visual sensor continuously captures images a plurality of times, each captured image includes a portion where the same workpiece is duplicated. Since the overlapping part of the work data is also stored in the database, there is a case where the robot performs a useless operation.
- a plurality of workpieces conveyed by the belt conveyor are not necessarily processed in order from the conveyance downstream side, and the operation of the robot may be complicated and the workpieces placed on the conveyance downstream may not be processed. is there.
- the handling apparatus includes a conveyance unit that conveys a workpiece, a robot that performs a predetermined operation on the workpiece, an image of the workpiece being conveyed, and workpiece data indicating each workpiece in the captured image. And generating a tracking data by collecting the work data for each image, storing the tracking data in a database, and performing the predetermined work on the work transported to the position of the robot. Control means for controlling the robot using the database, and the control means calculates the tracking data stored in the database and performs actual processing of the workpieces conveyed by the conveyance means. And the robot is operated in accordance with the actual conveyance state of each workpiece.
- control means reads the work data stored in the database, performs a predetermined calculation, and rearranges the order in which the robot performs work on a plurality of works.
- control unit controls the work to start from the work on the downstream side of the transfer unit.
- the control unit stores a tracking data in which the work data transmitted from the visual sensor is collected for each image captured by the visual sensor as a database, and the tracking data is stored in the tracking data.
- a calculation unit that obtains a scalar quantity of the mapping vector of each workpiece from each contained work data, and rearranges the order in which the robot performs the work based on the scalar quantity of the mapping vector of each workpiece, and is arranged by the calculation unit
- a drive control unit that controls the robot so as to perform work on the workpieces according to the changed order.
- the calculation unit sets a vector from an arbitrary reference point to each workpiece as a vector P, and a reference vector indicating a transfer direction of the transfer means from the arbitrary reference point as a vector C ⁇ . Then, the scalar quantity of the mapping vector of each workpiece is obtained by calculating the inner product of the vector P and the vector C ⁇ .
- control means performs a predetermined calculation on the work data read from the database for each tracking data to detect duplicate work data, and the robot based on the duplicate work data Cancel the control of the operation.
- the control unit stores each tracking data generated for each image as a database, and the distance between each workpiece from each workpiece data included in the tracking data.
- a calculation unit that determines whether or not the overlapping workpiece data is based on a distance between the workpieces, and controls the robot to perform work on the workpieces according to a determination result of the calculation unit And a drive control unit.
- the operation data corresponding to the workpiece having the distance does not overlap. judge.
- the visual sensor images a plurality of work data respectively corresponding to each of the workpieces transmitted from the storage unit and the visual sensor that images the plurality of workpieces conveyed by the conveying unit.
- Tracking data is collectively generated for each image, each tracking data for each image is stored in the storage unit, and each tracking data is read from the storage unit according to the transport operation of the transport unit,
- a calculation unit that performs a predetermined calculation on each piece of work data included in the data and recognizes an actual state of each of the workpieces conveyed by the transfer unit;
- Drive control means for operating the robot in accordance with the actual conveyance state of the workpiece and performing work on each workpiece.
- the calculation means detects the work data included in the plurality of tracking data by performing calculation on each work data
- the drive control means includes: The overlapping work data detected by the computing means is canceled, and the robot is controlled to perform work on each work corresponding to each non-overlapping work data.
- control device of the present invention obtains an order of performing work on each work corresponding to each work data being transported by the transport means, by the computing means performing computation on each work data,
- the drive control means controls the robot so as to perform work on the workpieces according to the order rearranged by the calculation means.
- the control method of the present invention is a first step of generating tracking data in which a plurality of workpiece data respectively corresponding to each of the workpieces is collected for each image obtained by imaging a plurality of workpieces being conveyed by the conveyance means. And a second step of storing each tracking data for each image in a database, and performing a predetermined calculation on each work data included in each tracking data of the database according to the transporting operation of the transporting means. A third step of recognizing the actual state of each work being transported by the transporting means, and a second step of operating the robot in accordance with the actual transport state of each work and causing each work to perform work. 4 steps.
- the work data that is included in the plurality of tracking data is detected by the calculation, and in the fourth step, the detected data is detected.
- the robot is controlled so that the overlapping work data is canceled and the work corresponding to the non-overlapping work data is performed.
- the order of performing the work on each workpiece conveyed by the conveying means is rearranged by the calculation, and in the fourth step, the rearrangement is performed.
- the robot is controlled so as to perform work on the workpieces according to the order in which they are performed.
- the program according to the present invention includes a first procedure for inputting work data generated by the visual sensor from a visual sensor that captures a plurality of workpieces conveyed by the conveying means, and the inputted work data as the visual sensor.
- the tracking data is collected for each image captured by the camera and stored in the database, and the tracking data is read from the database in accordance with the transport operation of the transport means, and is included in the read tracking data.
- a fourth procedure in which the robot is operated in accordance with the transfer state and the work is performed on each workpiece. To be executed by the data.
- the handling device of the present invention it is possible to efficiently perform work on a workpiece to be conveyed while suppressing useless movement of the robot.
- control device of the present invention it is possible to cause the robot to efficiently perform work using the work data input from the visual sensor.
- control method of the present invention it is possible to efficiently perform work on a workpiece to be conveyed while suppressing useless movement of the robot.
- FIG. 1 is an explanatory diagram showing a schematic configuration of a handling device according to a first embodiment of the present invention.
- the illustrated handling apparatus 1 includes a belt conveyor 2, a visual sensor 3, a robot 4, a robot controller 5, and a conveyor encoder 6.
- the belt conveyor 2 is a conveying means that conveys a workpiece 10 such as an in-process article in the direction of a conveyor vector A indicated by an arrow in the drawing.
- the visual sensor 3 is arranged so as to image a plurality of workpieces 10 mounted on the belt conveyance surface 2a of the belt conveyor 2 at a position on the conveyance upstream side of the belt conveyor 2.
- the visual sensor 3 is connected via a LAN so as to output work data S3a as output data and a trigger signal S3b indicating imaging timing to a robot controller 5 described later.
- the robot 4 includes a holding unit 4a that grips the workpieces 10 conveyed by the belt conveyor 2, for example, one by one, and an arm unit 4b that supports the holding unit 4a so as to be movable within a predetermined range.
- the robot controller 5 is control means connected to control the operation of the robot 4. Further, the robot controller 5 is connected so as to input an output signal S6 of a conveyor encoder 6 to be described later, and work data S3a and a trigger signal S3b transmitted from the visual sensor 3 via the communication line described above. .
- the conveyor encoder 6 is a movement amount detection means for detecting the conveyance distance of the belt conveyor 2, that is, detecting the movement amount of the work 10 placed on the belt conveyance surface 2a.
- An output signal S6 from the conveyor encoder 6, that is, an output signal S6 indicating the movement of the conveyor is output to the robot controller 5.
- FIG. 1 illustrates a configuration including one robot 4 and one robot controller 5 that controls the robot 4, the configuration includes a plurality of robots 4 and robot controllers 5. May be. Specifically, for example, a router is provided which receives the work data S3a and the trigger signal S3b transmitted from the visual sensor 3 to the communication line. A plurality of robot controllers 5 are connected to this router. With this configuration, each robot controller 5 can input the work data S3a and the trigger signal S3b used for its processing operation from the router to control each robot 4.
- FIG. 2 is a block diagram illustrating configurations of a visual sensor, a robot, and a robot controller that form the handling device according to the first embodiment.
- the visual sensor 3 includes a camera 11 and an image processing unit 12.
- the camera 11 is composed of a CCD camera, for example.
- the camera 11 is disposed so as to capture an image of the belt conveyance surface 2a on which the workpiece 10 is placed.
- the tracking range S illustrated in FIG. 1 is provided so as to be a single imaging range.
- the image processing unit 12 is configured to process the image data output from the camera 11 and generate work data S3a described later.
- the visual sensor 3 includes a communication unit (not shown) that transmits the trigger signal S3b indicating the imaging timing of the camera 11 and the above-described work data S3a to the communication line.
- the robot controller 5 includes an input unit 13, a display unit 14, a calculation unit 15, a storage unit 16, and a drive control unit 17.
- the input unit 13 is configured to allow a user to perform a setting operation or the like, and is connected to input the setting content to the calculation unit 15.
- the display unit 14 is connected to the calculation unit 15 so as to display the above-described operation / setting contents and the operation status of the robot 4.
- the calculation unit 15 includes a data management unit 15a, a tracking manager 15b, and a work manager 15c.
- the data management unit 15 a is configured to perform an operation process of storing each data in the storage unit 16 and an operation of reading data from the storage unit 16.
- the tracking manager 15b is configured to monitor the position indicated by each tracking data D1, in other words, the tracking range S.
- the work manager 15c is configured to select a work 10 that causes the robot 4 to perform work from a plurality of works 10 existing in the tracking range S.
- the storage unit 16 stores tracking data D1 under the control of the calculation unit 15, and a database is constructed by storing a plurality of tracking data D1.
- the tracking data D1 is the number of workpieces 10 extracted from the image data obtained by the visual sensor 3 by one imaging, the workpiece data S3a of each extracted workpiece 10, and the movement indicated by the output signal S6 of the conveyor encoder 6. It is composed by quantity.
- the drive control unit 17 is configured to generate a control signal for driving each unit of the robot 4 to be described later and operate the robot 4.
- the robot 4 includes a holding motor 18 that drives the holding unit 4a and an arm motor 19 that drives the arm unit 4b that supports the holding unit 4a.
- FIG. 3 is a flowchart showing the operation of the handling apparatus according to the first embodiment.
- the visual sensor 3 captures an image in a certain imaging range, for example, an image in the tracking range S, from the imaging origin 20a at the upstream end of the belt conveying surface 2a or in the vicinity thereof on the upstream side of the conveyor belt 2.
- the camera 11 in FIG. 2 images the tracking range S of the belt conveyance surface 2a at its own imaging timing (step S1).
- the image processing unit 12 extracts the shape of the workpiece 10 included in the image in the tracking range S, and compares the shape with the shape data for each type stored in the image processing unit 12 itself. Identify 10 varieties.
- the image processing unit 12 detects a coordinate value of an arbitrary part of the workpiece 10 from the image in the tracking range S, and generates workpiece data S3a of the workpiece 10 (step S2).
- This coordinate value is a value expressed in a coordinate system used in each process performed by the camera 11 or the visual sensor 3 itself.
- the visual sensor 3 may generate the work data S3a by including a coordinate value indicating the posture of the work.
- the visual sensor 3 sequentially transmits the generated work data S3a to the robot controller 5 (step S3). At this time, the visual sensor 3 transmits the work data S3a of all the works 10 included in one image and data indicating the number of the work data S3a in correspondence with one trigger signal S3b.
- FIG. 4 is an explanatory diagram showing the operation of the handling device according to the first embodiment. This figure shows an operation in which the data management unit 15 a of the robot controller 5 stores each work data S 3 a sent from the visual sensor 3 in the storage unit 16.
- the data management unit 15a When the communication unit or the like receives a plurality of work data S3a transmitted from the visual sensor 3 for each trigger signal S3b, the data management unit 15a combines the work data S3a into one and generates tracking data D1. . Further, in the process of step S4 in FIG. 3, the data management unit 15a generates the tracking data D1 by taking into account the movement amount of the belt conveyor 2 indicated by the output signal S6 input from the conveyor encoder 6, Is stored in the storage unit 16 to construct a database.
- tracking data D1 generated from the [i-1] -th image captured by the visual sensor 3 is shown as tracking data Trk [i-1].
- tracking data D1 generated from an image picked up by the visual sensor 3 at the [i] th is shown as tracking data Trk [i].
- FIG. 4 shows tracking data D1 generated from the [i + 1] -th image captured by the visual sensor 3 as tracking data Trk [i + 1].
- the tracking data Trk [i] shown in FIG. 4 represents data when, for example, ten workpieces 10 are detected from the tracking range S imaged by the visual sensor 3 at the [i] th, and the workpiece data Wrk [ 0] to Wrk [9].
- the data management unit 15a corresponds to the trigger signal S3b.
- An area for storing the tracking data Trk [i] is secured in the storage unit 16.
- the data management unit 15a stores the output signal S6 input from the conveyor encoder 6 here, that is, data indicating the movement amount of the belt conveyor 2 in the storage unit 16 as a component of the tracking data Trk [i]. . Furthermore, the data management unit 15a sequentially stores the work data Wrk [0] to [9] sent from the visual sensor 3 in the area of the tracking data Trk [i] secured in the storage unit 16 described above. Store.
- FIG. 4 shows two workpieces 10 in the [i] -th tracking range S, and omits all the workpieces 10 placed in the [i] -th tracking range. ing. Further, the above [i ⁇ 1], [i], [i + 1] and the like indicating the order of imaging by the visual sensor 3 are integer values added to the tracking data D1 as tracking numbers.
- the work data S3a that the visual sensor 3 sequentially transmits to the robot controller 5 is configured as work data Wrk [0] to [9] shown in FIG. 4, for example.
- the work data Wrk [0] to [9] are X coordinate data, Y coordinate data of the coordinate system used by the visual sensor 3 in its own motion processing, and C coordinate data representing rotation on the XY plane. Have.
- the work data Wrk [0] to [9] is constituted by adding a plurality of additional data, for example, additional data (1) to (3).
- the additional data (1) to (3) represent conditions and the like related to various operation processes, and are data indicating, for example, the types determined by the visual sensor 3 as described above. These additional data (1) to (3) are set in the visual sensor 3 as desired by the user.
- the image processing unit 12 of the visual sensor 3 performs processing for each image captured by the camera 11 as described above.
- the camera 11 sequentially captures the conveying surface 2a of the belt conveyor 2, for example, when the images 11 are aligned and imaged so that there is no overlapping portion in each image, the image appears on the edge of one image. In some cases, the entire workpiece 10 does not fit in the image.
- the image processing unit 12 cannot accurately recognize the workpiece 10 whose whole shape is not reflected in one image, and cannot generate the workpiece data S3a or generate abnormal data. there's a possibility that. Therefore, when the visual sensor 3 images the conveyance surface 2a of the belt conveyor 2, the image is captured so that the end portions of the images overlap each other, and the work 10 is prevented from being partially missing and reflected. The work data S3a corresponding to the work 10 is reliably generated.
- FIG. 5 is an explanatory diagram showing the operation of the handling device according to the first embodiment.
- the tracking data D1 in FIG. 5 is illustrated with a track number indicating the imaging order, similar to the tracking data D1 shown in FIG.
- the robot controller 5 stores each work data S3a received from the visual sensor 3 in the database as tracking data D1, there is actually a portion overlapping each tracking data D1, as shown in FIG. That is, in the process of step S4 described above, the data management unit 15a of the robot controller 5 stores each tracking data D1 including the above-described overlapping portion in the storage unit 16.
- Each workpiece 10 imaged by the visual sensor 3 on the upstream side of the conveyance of the belt conveyor 2 is conveyed to a position where the robot 4 is disposed in a predetermined time.
- the robot controller 5 controls the operation of the robot 4 using a database stored in the storage unit 16, and performs a handling operation on the workpiece 10 conveyed to the position of the robot 4.
- the handling operation of the robot 4 is performed in a workpiece detection area provided between the workpiece detection area start point 20b and the workpiece detection area end point 20c shown in FIG.
- the tracking manager 15b of the robot controller 5 monitors data indicating the amount of movement of the belt conveyor 2 included in each tracking data D1, and detects the position of each workpiece 10 being conveyed. Specifically, the tracking manager 15b extracts data indicating the movement amount of each tracking data D1 stored in the database.
- the tracking manager 15b recognizes which tracking data D1 corresponds to the tracking range S that is moving in the work detection area, using the extracted data indicating the movement amount.
- the tracking manager 15b reads the recognized tracking data D1 from the storage unit 16 using the data management unit 15a.
- the tracking data D1 sequentially read by the tracking manager 15b includes the duplicate work data S3a as described above.
- the calculation unit 15 of the robot controller 5 appropriately performs a processing operation for detecting an overlapping portion from each tracking data D1 sequentially read from the database by the tracking manager 15b.
- FIG. 6 is an explanatory diagram illustrating overlapping portions of tracking data processed by the arithmetic unit of the handling device according to the first embodiment.
- the tracking data D1 sequentially read from the storage unit 16 by the calculation unit 15 is, for example, tracking data Trk [i-1] and subsequent tracking data Trk [i].
- an overlapping portion d0 exists in the adjacent portion of the tracking data Trk [i-1] and the tracking data Trk [i] in FIG.
- Two pieces of work data S3a exist in the overlapping portion d0, and these pieces of work data S3a correspond to the work 10a and the work 10b, respectively.
- the tracking data Trk [i-1] includes the workpiece data S3a of the workpieces 10a, 10b, and 10c, and the tracking data Trk [i] includes the workpieces 10a, 10b, and 10d. Each work data S3a is included.
- the calculation unit 15 performs processing for detecting the workpieces 10a and 10b existing in the overlapping portion d0 of the tracking data Trk [i] and the tracking data Trk [i-1].
- the calculation unit 15 sequentially reads the tracking data Trk [i] and the tracking data Trk [i-1] from the database as described above. Moreover, the calculating part 15 calculates
- FIG. 7 is a flowchart showing the operation of the arithmetic unit of the handling device according to the first embodiment.
- the calculation unit 15 selects one piece of arbitrary work data S3a from the tracking data Trk [i] read from the database as described above, for example, the work data S3a of the lower left work 10a in FIG. S11).
- one piece of arbitrary work data S3a for example, the lower right work 10a in FIG. 6 is selected from the tracking data Trk [i-1] read out from the database first (step S12). .
- the calculation unit 15 calculates the distance between the workpieces indicated by the work data S3a (step S13).
- the coordinate value of the work data S3a selected in the step S11 is (x2, y2)
- the coordinate value of the work data S3a selected in the step S12 is (x1, y1).
- the calculation unit 15 compares the distance ⁇ obtained by the calculation of the expression (1) with a preset overlap determination specified value ⁇ max to determine whether the distance ⁇ is equal to or less than the overlap determination specified value ⁇ max (Ste S14). When the calculation unit 15 determines in the step S14 that the distance ⁇ is equal to or smaller than the overlap determination specified value ⁇ max, the calculation unit 15 cancels the work on the workpiece by the work manager 15c (step S15).
- the coordinate values (x2, y2) and coordinate values (x1, y1) handled here are values expressed using, for example, an absolute origin provided in the vicinity of the belt conveyor 2, and are input from the conveyor encoder 6. This is a coordinate value generated by the calculation unit 15 in consideration of the movement amount indicated by the output signal S6.
- the coordinate value handled by the calculation unit 15 is, for example, a value in the world coordinate system used for the control of the robot 4, and the distance ⁇ between the workpieces obtained as described above is a relative value. By using the relative value, the calculation unit 15 can appropriately compare the distances ⁇ between the works even if the visual sensor 3 generates the work data S3a using any coordinate system. .
- step S14 when the calculation unit 15 obtains a comparison result that the distance ⁇ is equal to or less than the overlap determination specified value ⁇ max, the calculation unit 15 determines as follows.
- the workpiece 10a having the coordinate value (x2, y2) included in the tracking data Trk [i] and the workpiece 10a having the coordinate value (x1, y1) included in the tracking data Trk [i-1] are the same. It is determined that
- the calculation unit 15 cancels the processing of the workpiece 10a corresponding to the workpiece data S3a having the coordinate value (x2, y2), that is, the workpiece data S3a corresponding to the workpiece 10a of the tracking data Trk [i]. To do. In other words, the calculation unit 15 controls the work manager 15c so that the work manager 15c does not perform processing corresponding to the work 10a of the tracking data Trk [i].
- the calculation unit 15 determines that the distance ⁇ is larger than the overlap determination specified value ⁇ max in the step S14, the calculation unit 15 operates the work manager 15c so as to perform the work on the workpiece 10a of the tracking data Trk [i]. (Step S16).
- the arithmetic unit 15 performs the following processing after processing the step S15 or the step S16. For example, with respect to the work 10a of the tracking data Trk [i], it is determined whether or not the work data S3a of all the works 10a to 10c included in the tracking data Trk [i-1] has been used for the above calculation. (Step S17).
- step S17 When it is determined in the step S17 that all the work data S3a is not used for the calculation, the calculation unit 15 performs the following processing operation.
- the next work data in the tracking data Trk [i-1] is selected (step S18), the process returns to step S13, and the subsequent processes are performed in the same manner as described above.
- step S17 When it is determined in the step S17 that all the work data S3a has been used for the calculation, the calculation unit 15 determines whether or not all the work data of the tracking data Trk [i] has been used for the above-described calculation (step S19). ). When it is determined in the step S19 that all work data is not used in the calculation, the calculation unit 15 performs the following processing operation. The next work data in the tracking data Trk [i] is selected (step S20), the process returns to step S12, and the subsequent processes are performed in the same manner as described above.
- the calculation unit 15 detects the work data that overlaps the tracking data [i-1] and the tracking data [i]. The processing operation is terminated.
- the computing unit 15 performs the operation of detecting the overlapping work data described so far for each tracking data read out from the database sequentially.
- the calculation unit 15 causes the work manager 15c to perform processing except for the work data that is detected to be duplicated in the process of step S6 in FIG.
- the robot 4 since the calculation unit 15 of the robot controller 5 excludes the work data that is included in each tracking data read from the database, the robot 4 It is possible to suppress unnecessary operations. In addition, overlapping work data can be detected regardless of the coordinate system used when the visual sensor 3 generates the work data S3a.
- the handling device according to the second embodiment of the present invention is configured in the same manner as the handling device 1 shown in FIGS.
- the duplicate description of each part comprised similarly to the handling apparatus 1 demonstrated in 1st Embodiment is abbreviate
- the same reference numerals are used for the same or corresponding parts as those described in the first embodiment.
- FIG. 8 is a flowchart showing the operation of the handling device according to the second embodiment of the present invention.
- the same reference numerals are used for steps that perform the same processing as the steps shown in FIG.
- step S1 the camera 11 of the visual sensor 3 images the workpiece 10 placed on the belt conveyance surface 2a on the upstream side of conveyance of the belt conveyor 2 as described above.
- step S ⁇ b> 2 the image processing unit 12 of the visual sensor 3 extracts a part of each work 10 from the image captured by the camera 11, and generates work data S ⁇ b> 3 a for each work 10.
- step S3 the communication unit of the visual sensor 3 (not shown) transmits the work data S3a in correspondence with the trigger signal S3b indicating the imaging timing of the camera 11.
- step S4 the robot controller 5 receives the work data S3a transmitted in the step S3, and the data management unit 15a stores the work data S3a. Store in unit 16. At this time, each work data S3a sent corresponding to one trigger signal S3b is stored together as one tracking data D1, and stored so that a database is constructed.
- step S25 the tracking manager 15c of the robot controller 5 monitors the output signal of the conveyor encoder 6. Further, the data management unit 15a reads the tracking data D1 including the workpiece 10 moving in the workpiece detection area shown in FIG. 1 from the storage unit 16 according to the monitoring result of the tracking manager 15b. The work manager 15c performs an operation using each work data constituting the tracking data D1 read from the storage unit 16 by the data management unit 15a, and rearranges the order in which the robot 4 performs the handling work according to the operation result. .
- step S26 the drive controller 17 of the robot controller 5 controls the operation of the robot 4 so as to hold the workpieces 10 according to the order rearranged in step S25.
- the handling apparatus 1 according to the second embodiment generally operates in this way.
- the visual sensor 3 captures an image in a certain imaging range, for example, an image in the tracking range S, from the imaging origin 20a at the upstream end of the belt conveying surface 2a or in the vicinity thereof on the upstream side of the conveyor belt 2. Specifically, the camera 11 in FIG. 2 images the tracking range S of the belt conveyance surface 2a at its own imaging timing (step S1).
- the image processing unit 12 extracts the shape of the workpiece 10 included in the image in the tracking range S, and compares the shape with the shape data for each type stored in the image processing unit 12 itself. Identify 10 varieties. Further, the image processing unit 12 detects a coordinate value of an arbitrary part of the workpiece 10 from the image in the tracking range S, and generates workpiece data S3a of the workpiece 10 (step S2). This coordinate value is a value expressed in a coordinate system used in each process performed by the camera 11 or the visual sensor 3 itself. The visual sensor 3 may generate the work data S3a by including a coordinate value indicating the posture of the work.
- the visual sensor 3 sequentially transmits the generated work data S3a to the robot controller 5 (step S3).
- the data management unit 15a of the robot controller 5 collects each received work data S3a as tracking data and stores it in the database (step S4). This processing operation is performed as described with reference to FIG. 4 in the first embodiment.
- the data management unit 15a collects these work data S3a into one and collects the tracking data D1. Is generated. Further, the data management unit 15a generates the tracking data D1 taking into account the data indicating the amount of movement of the belt conveyor 2 input from the conveyor encoder 6, and stores the tracking data D1 in the storage unit 16 to construct the database. .
- the tracking data Trk [i] shown in FIG. 4 represents data obtained when, for example, ten workpieces 10 are detected from the tracking range S imaged by the visual sensor 3 at the [i] -th position. Wrk [0] to Wrk [9] are configured.
- the data management unit 15a when generating the tracking data Trk [i], when the trigger signal S3b sent from the visual sensor 3 is received, the data management unit 15a corresponds to the trigger signal S3b. An area for storing the tracking data Trk [i] is secured in the storage unit 16. Further, the data management unit 15a stores the signal input from the conveyor encoder 6 here, that is, data indicating the movement amount of the belt conveyor 2 in the storage unit 16 as a component of the tracking data Trk [i]. Furthermore, the data management unit 15a stores / stores the work data Wrk [0] to [9] sequentially sent from the visual sensor 3 in the area of the tracking data Trk [i] secured in the storage unit 16 described above. To do.
- FIG. 4 shows two workpieces 10 in the [i] -th tracking range S, and omits all the workpieces 10 placed in the [i] -th tracking range. ing. Further, the above [i ⁇ 1], [i], [i + 1] and the like indicating the order of imaging by the visual sensor 3 are tracking numbers appended to each tracking data D1.
- the work data S3a that the visual sensor 3 sequentially transmits to the robot controller 5 is configured as work data Wrk [0] to [9] shown in FIG. 4, for example.
- the work data Wrk [0] to [9] are X coordinate data, Y coordinate data of the coordinate system used by the visual sensor 3 in its own motion processing, and C coordinate data representing rotation on the XY plane.
- the work data Wrk [0] to [9] is constituted by adding a plurality of additional data, for example, additional data (1) to (3).
- the additional data (1) to (3) represent conditions and the like related to various operation processes, and are data indicating, for example, the types determined by the visual sensor 3 as described above. These additional data (1) to (3) are set in the visual sensor 3 as desired by the user.
- Each workpiece 10 imaged by the visual sensor 3 on the upstream side of the conveyance of the belt conveyor 2 is conveyed to a position where the robot 4 is disposed in a predetermined time.
- the robot controller 5 controls the operation of the robot 4 using a database stored in the storage unit 16, and performs a handling operation on the workpiece 10 conveyed to the position of the robot 4.
- the handling operation of the robot 4 is performed in a workpiece detection area provided between the workpiece detection area start point 20b and the workpiece detection area end point 20c shown in FIG.
- the tracking manager 15b of the robot controller 5 monitors data indicating the amount of movement included in each tracking data D1, and detects the position of each workpiece 10 being conveyed. Specifically, the tracking manager 15b extracts data indicating the movement amount of each tracking data D1 stored in the database. Furthermore, the tracking manager 15b recognizes which tracking data D1 corresponds to the tracking range S that is moving in the work detection area, using the data indicating the extracted movement amount. The tracking manager 15b reads the recognized tracking data D1 from the storage unit 16 using the data management unit 15a.
- the work manager 15c inputs the tracking data D1 read from the storage unit 16, that is, the tracking data D1 recognized by the tracking manager 15b.
- the work manager 15c selects what is to be processed from a plurality of work data included in the input tracking data D1. In other words, one to be held by the robot 4 is selected from a plurality of workpieces 10 that have reached the workpiece detection area.
- FIG. 9 is an explanatory diagram showing the operation of the handling device according to the second embodiment.
- This figure shows a state B in which the order of the workpiece data stored in the database is associated with each workpiece 10 placed on the belt conveyance surface 2a, and the order in which the robot 4 holds the belt and the belt conveyance surface 2a.
- a state C is shown in which each workpiece 10 placed thereon is associated.
- the state B is an example of the order in which the work data S3a transmitted from the visual sensor 3 is sequentially stored in the database, and is not limited to the order shown.
- the work manager 15c rearranges the order in which the robot 4 holds each work 10 in the process of step S25 in FIG. Specifically, in one tracking range S, work data corresponding to each work 10 is rearranged so that the robot 4 sequentially holds the work 10 on the downstream side of the conveyance.
- FIG. 10 is an explanatory diagram illustrating a calculation process performed by the robot controller of the handling device according to the second embodiment.
- O shown in the figure is an arbitrary reference point.
- the vector C ⁇ is a unit vector determined by, for example, a user, and indicates the same direction as the conveyor vector A representing the conveying operation of the belt conveyor 2.
- the reference point O is set upstream of the tracking range S that is moving in the workpiece detection area, for example.
- the reference point O illustrated in FIG. 10 is provided at the center portion in the width direction of the belt conveyance surface 2a.
- the vector Pn from the reference point O to the workpiece 10 Becomes (Px-Ox, Py-Oy).
- the mapping vector Pn C of the workpiece 10 is expressed as the following equation (2).
- the scalar quantity of the mapping vector Pn C of the workpiece 10 can be obtained by the inner product of the vector P and the vector C ⁇ .
- the work manager 15c of the calculation unit 15 obtains the scalar quantity of the mapping vector Pn C for all the work data included in one tracking data D1 in this way.
- the robot 4 By representing the position of each workpiece 10 by the scalar quantity of the mapping vector Pn C , even if the coordinate system of the workpiece data S3a sent from the visual sensor 3 is not aligned with the conveying direction of the belt conveyor 2, the robot 4 It can be used to control the operation. Further, no matter how the coordinate origin of the image captured by the visual sensor 3 is arranged, it can be used for controlling the operation of the robot 4.
- the scalar quantity of the mapping vector Pn C of each work data obtained as described above is represented by the following data string (6). Line up like
- scalar quantity of the mapping vector Pn C a work 10 which is located in the transport downstream side becomes a large value.
- the computing unit 15 rearranges each scalar quantity using, for example, a selective sorting method.
- the work manager 15c of the calculation unit 15 compares the scalar quantities in the data string (6) and rearranges them in descending order.
- the work manager 15c selects work data in order corresponding to each scalar quantity arranged in the data string (6).
- Work Manager 15c is thus the work data sequentially with a scalar quantity of large mapping vector Pn C, it is selected as a work data used for controlling the operation of the robot 4.
- step S26 in FIG. 8 the drive control unit 17 controls the operation of the robot 4 using the work data sequentially selected by the work manager 15c, for example, as shown in the state C in FIG. Handling work is performed in order from the workpiece 10 to be performed.
- the work manager 15c rearranges the data string (6) according to the scalar quantity of the mapping vector Pn C , and processes each piece of work data corresponding to the rearranged data string (6).
- the order in which the robot 4 holds the workpieces 10 can be changed.
- the calculation unit 15 rearranges the order of the work data used for controlling the operation of the robot 4, it is conveyed to the belt conveyor 2 and the work detection area is Work can be efficiently performed on the moving workpiece 10.
- the work order is rearranged and the work is performed from the work 10 located on the downstream side of the conveyance, it is possible to prevent the work 10 being conveyed from being missed. Further, useless operations of the robot 4 can be suppressed.
- the handling device according to the third embodiment of the present invention is configured in the same manner as the handling device described in the first and second embodiments. A duplicate description of the same configuration as that of the apparatus described in the first and second embodiments is omitted.
- the handling device according to the third embodiment operates in substantially the same manner as the device described in the second embodiment. Here, redundant description of the same operation as that of the device described in the second embodiment is omitted, and the operation that is characteristic of the handling device according to the third embodiment will be described.
- FIG. 11 is an explanatory diagram showing the operation of the handling device according to the third embodiment of the present invention.
- This figure shows a state B in which the order of the workpiece data stored in the database is associated with each workpiece 10 placed on the belt conveyance surface 2a, and the order in which the robot 4 holds the belt and the belt conveyance surface 2a.
- a state D in which each workpiece 10 placed thereon is associated is shown.
- said state B is an example of the order which stored the work data transmitted from the visual sensor 3 in a database sequentially like the state B shown in FIG. 9, and is not limited to the order shown in figure.
- the work manager 15c of the handling device 1 rearranges the order in which the robot 4 holds the workpieces 10 as in the state D in the step S25 of FIG. 8 described in the second embodiment. .
- work data corresponding to each work 10 is rearranged so that the robot 4 sequentially holds the work 10 on the downstream side of the conveyance.
- the work 10 placed on the most downstream side of the conveyance is obtained by the calculation described in the second embodiment.
- the workpiece 10 placed at the position closest to the workpiece 10 is detected by comparing the coordinate values of the workpiece data, for example. In this way, the workpieces 10 placed in the vicinity are sequentially detected, and the workpiece data are rearranged according to the detected order.
- the work manager 15c rearranges the work data and sequentially outputs the work data to the drive control unit 17, whereby the robot 4 performs the work on each work 10 in the order shown in the state D of FIG.
- the handling device 1 of the third embodiment described above since the calculation unit 15 of the robot controller 5 rearranges the order of the work data used for controlling the operation of the robot 4, it is conveyed by the belt conveyor 2. Thus, the work 10 moving in the work detection area can be efficiently operated. In addition, the work order is rearranged, the work is started from the work 10 located on the downstream side of the conveyance, and the work is sequentially performed on the work 10 in the vicinity. Can be suppressed. Further, useless operations of the robot 4 can be suppressed.
- the handling device, the control device, and the control method according to the present invention are suitable for a manufacturing device or the like that performs predetermined processing by a robot or the like on each workpiece conveyed by a belt conveyor.
Abstract
Description
そのため、視覚センサが連続して複数回の撮像を行ったとき、撮像した各画像に同一ワークが重複して写っている部分が含まれている。この重複部分のワークデータも、データベースに格納されていることからロボットに無駄な動作が生じる場合がある。
また、ベルトコンベアによって搬送されている複数のワークを搬送下流側から順に処理するとは限らず、ロボットの動作が煩雑になって搬送下流に載置されているワークを処理することができなくなる場合がある。
<第1の実施形態>
図1は、本発明の第1の実施形態によるハンドリング装置の概略構成を示す説明図である。図示したハンドリング装置1は、ベルトコンベア2、視覚センサ3、ロボット4、ロボットコントローラ5、および、コンベアエンコーダ6によって構成されている。
視覚センサ3は、ベルトコンベア2の搬送上流側の位置において、当該ベルトコンベア2のベルト搬送面2aに搭載された複数のワーク10を撮像するように配設されている。
また、視覚センサ3は、出力データであるワークデータS3a、および、撮像タイミングを示すトリガ信号S3bを、後述するロボットコントローラ5へ出力するように、LANを介して接続されている。
また、ロボットコントローラ5は、後述するコンベアエンコーダ6の出力信号S6、および、視覚センサ3から送信されたワークデータS3aならびにトリガ信号S3bを前述の通信線等を介して入力するように接続されている。
詳しくは、視覚センサ3から通信線へ送信されたワークデータS3a及びトリガ信号S3bを受信する、例えばルータを備える。このルータに複数のロボットコントローラ5を接続する。
このように構成して、各ロボットコントローラ5が、自らの処理動作に用いるワークデータS3aならびにトリガ信号S3bを、上記のルータから入力して各々ロボット4を制御することも可能である。
視覚センサ3は、カメラ11および画像処理部12を備えている。カメラ11は、例えばCCDカメラ等からなる。
カメラ11は、ワーク10が載置されているベルト搬送面2aを撮像するように配設され、例えば図1に示したトラッキング範囲Sが1回の撮像範囲となるように設けられている。
また、視覚センサ3は、カメラ11の撮像タイミングを示すトリガ信号S3b、および前述のワークデータS3aを通信線へ送信する、図示を省略した通信部等を備えている。
入力部13は、ユーザに設定操作等を行わせるように構成され、当該設定内容を演算部15へ入力するように接続されている。表示部14は、前述の操作/設定内容、またロボット4の動作状況等を表示するように、演算部15へ接続されている。
データ管理部15aは、記憶部16に各データを記憶させる動作処理や、記憶部16からデータを読み出す動作を行うように構成されている。
ワークマネージャ15cは、トラッキング範囲Sに存在する複数のワーク10の中からロボット4に作業を行わせるワーク10を選択するように構成されている。
トラッキングデータD1は、視覚センサ3が1回の撮像で得た画像データから抽出されたワーク10の個数、抽出された各ワーク10のワークデータS3a、および、コンベアエンコーダ6の出力信号S6が示す移動量によって構成されている。
ロボット4は、保持部4aを駆動する保持用モータ18、保持部4aを支えているアーム部4bを駆動するアーム用モータ19を備えている。
視覚センサ3は、ベルトコンベア2の搬送上流側において、ベルト搬送面2aの上流端、もしくはその近傍の撮像原点20aから一定の撮像範囲の画像、例えばトラッキング範囲Sの画像を撮像する。
詳しくは、図2のカメラ11が、自らの撮像タイミングでベルト搬送面2aのトラッキング範囲Sを撮像する(ステップS1)。
この座標値は、カメラ11もしくは視覚センサ3が自ら行う各処理において使用される座標系において表現された値である。なお、視覚センサ3は、ワークデータS3aにワークの姿勢を示す座標値を含めて生成してもよい。
このとき、視覚センサ3は、1つのトリガ信号S3bに対応させて、1つの画像に含まれていた全てのワーク10のワークデータS3a、ならびにワークデータS3aの個数を示すデータを送信する。
また、データ管理部15aは、図3のステップS4の工程において、コンベアエンコーダ6から入力した出力信号S6が示す、ベルトコンベア2の移動量を加味して、上記のトラッキングデータD1を生成し、これを記憶部16へ格納してデータベースを構築する。
また図4には、視覚センサ3が[i]番目に撮像した画像から生成されたトラッキングデータD1を、トラッキングデータTrk[i]として示している。
また図4には、視覚センサ3が[i+1]番目に撮像した画像から生成されたトラッキングデータD1を、トラッキングデータTrk[i+1]として示している。
またさらに、データ管理部15aは、順次、視覚センサ3から送られてくるワークデータWrk[0]~[9]を、前述の記憶部16に確保したトラッキングデータTrk[i]の領域に記憶/格納する。
また、視覚センサ3が撮像した順番を示す上記の[i-1]、[i]、[i+1]等は、トラッキング番号として各トラッキングデータD1に付加される整数値である。
ワークデータWrk[0]~[9]は、視覚センサ3が自らの動作処理において使用している座標系のX座標データ、Y座標データ、及びX-Y平面上における回転を表すC座標データを有する。
付加データ(1)~(3)は、様々な動作処理に関連する条件等を表し、例えば、前述のように視覚センサ3が判別した品種などを示すデータである。この付加データ(1)~(3)は、ユーザの所望により視覚センサ3に設定される。
カメラ11が、ベルトコンベア2の搬送面2aを順次撮像するとき、例えば、各画像に重複する部分が生じないように、各画像の端部を揃えて撮像すると、1つの画像の端部に写り込んだワーク10は、全体形状が画像中に収まっていない場合がある。
そのため、視覚センサ3は、ベルトコンベア2の搬送面2aを撮像するとき、各画像の端部が重複するように撮像して、ワーク10が部分的に欠落して写り込むことを抑制し、各ワーク10に対応するワークデータS3aを確実に生成するようにしている。
即ち、前述のステップS4の工程において、ロボットコントローラ5のデータ管理部15aは、前述の重複する部分を含んだ各トラッキングデータD1を記憶部16に格納している。
ロボットコントローラ5は、記憶部16に蓄積されているデータベースを用いてロボット4の動作を制御し、当該ロボット4の位置に搬送されたワーク10にハンドリング作業を行う。
ロボット4のハンドリング作業は、図1に示したワーク検出エリア開始点20bとワーク検出エリア終了点20cとの間に設けられたワーク検出エリアにおいて行われる。
具体的には、トラッキングマネージャ15bは、データベースに格納されている各トラッキングデータD1の移動量を示すデータを抽出する。
トラッキングマネージャ15bは、上記の認識したトラッキングデータD1を、データ管理部15aを用いて記憶部16から読み出す。
ロボットコントローラ5の演算部15は、図3のステップS5の工程において、適宜、トラッキングマネージャ15bが順次データベースから読み出した各トラッキングデータD1から、重複部分を検出する処理動作を行う。
図6において、演算部15が、記憶部16から順次読み出したトラッキングデータD1を、例えば、トラッキングデータTrk[i-1]、また、これに続くトラッキングデータTrk[i]とする。
重複部分d0には、2つのワークデータS3aが存在し、これらのワークデータS3aはワーク10a、および、ワーク10bに各々対応している。
このとき、演算部15は、トラッキングデータTrk[i]と、トラッキングデータTrk[i-1]の重複部分d0に存在するワーク10a,10bを検出する処理を行う。
また、演算部15は、これらのトラッキングデータD1に含まれているワークデータS3aの各座標値を使用して、各ワーク間の相対的な距離を求める。
具体的には、例えば、トラッキングデータTrk[i]のワーク10aと、トラッキングデータTrk[i-1]の各ワーク10a,10b,10cとの間の距離を求める。
演算部15は、前述のようにデータベースから読み出したトラッキングデータTrk[i]の中から、任意のワークデータS3aを1つ、例えば図6において左下側のワーク10aのワークデータS3aを選択する(ステップS11)。
次に、データベースから先に読み出されているトラッキングデータTrk[i-1]の中から、任意のワークデータS3aを1つ、例えば図6において右下側のワーク10aを選択する(ステップS12)。
例えば、ステップS11の工程で選択したワークデータS3aの座標値を(x2,y2)とし、ステップS12の工程で選択したワークデータS3aの座標値を(x1,y1)とする。
これらのワークデータS3aに対応する各ワークの間の距離Δは、次の(1)式によって求めることができる。
Δ=((x2-x1)2+(y2-y1)2)1/2 …(1)
演算部15は、ステップS14の工程において、距離Δが重複判定規定値Δmax以下であると判定したときには、ワークマネージャ15cによるワークへの作業をキャンセルする(ステップS15)。
演算部15が扱う座標値は、例えば、ロボット4の制御に用いるワールド座標系などの値で、前述のように求めた各ワーク間の距離Δは、相対値である。
演算部15は、相対値を用いることにより、視覚センサ3が、いかなる座標系を用いてワークデータS3aを生成していても、各々のワーク間の距離Δを適切に比較することが可能になる。
トラッキングデータTrk[i]に含まれている座標値(x2,y2)を有するワーク10aと、トラッキングデータTrk[i-1]に含まれている座標値(x1,y1)を有するワーク10aは同一である、と判定する。
換言すると、演算部15は、ワークマネージャ15cが、トラッキングデータTrk[i]のワーク10aに対応する処理を行わないように、当該ワークマネージャ15cを制御する。
例えば、トラッキングデータTrk[i]のワーク10aに対して、トラッキングデータTrk[i-1]に含まれている、全てのワーク10a~10cのワークデータS3aを前述の演算に用いたか否かを判定する(ステップS17)。
トラッキングデータTrk[i-1]の中の、次のワークデータを選択し(ステップS18)、ステップS13の工程に戻り、以降の各工程を前述の説明と同様に行う。
演算部15は、ステップS19の工程において、全てのワークデータを演算に用いていないと判定したときには、次のような処理動作を行う。
トラッキングデータTrk[i]の中の、次のワークデータを選択し(ステップS20)、ステップS12の工程に戻り、以降の各工程を前述の説明と同様に行う。
演算部15は、図3のステップS6の工程において、重複していることを検出したワークデータを除いてワークマネージャ15cに処理を行わせ、ロボット4に作業を行わせる。
また、視覚センサ3がワークデータS3aを生成するときに用いている座標系によらず、重複しているワークデータを検出することができる。
本発明の第2の実施形態によるハンドリング装置は、図1および図2に示したハンドリング装置1と同様に構成されている。ここでは、第1の実施形態で説明したハンドリング装置1と同様に構成される各部の重複説明を省略する。また、以下の説明では、第1の実施形態で説明した各部と同一あるいは相当する部分に同じ符号を使用して説明する。
ステップS1では、視覚センサ3のカメラ11が、前述のようにベルトコンベア2の搬送上流側において、ベルト搬送面2aに載置されているワーク10を撮像する。
ステップS3では、前述の図示を省略した視覚センサ3の通信部が、カメラ11の撮像タイミングを示すトリガ信号S3bに対応させて上記のワークデータS3aを送信する。
このとき、一つのトリガ信号S3bに対応させて送られてきた各ワークデータS3aを、一つのトラッキングデータD1としてまとめて記憶し、データベースが構築されるように格納する。
また、データ管理部15aは、トラッキングマネージャ15bの監視結果に応じて、図1に示したワーク検出エリアを移動しているワーク10を含んでいるトラッキングデータD1を記憶部16から読み出す。
ワークマネージャ15cは、データ管理部15aが記憶部16から読み出した前述のトラッキングデータD1を成す各ワークデータを用いて演算を行い、この演算結果に応じてロボット4がハンドリング作業を行う順番を並べ替える。
第2の実施形態によるハンドリング装置1は、概ね、このように動作する。
視覚センサ3は、ベルトコンベア2の搬送上流側において、ベルト搬送面2aの上流端、もしくはその近傍の撮像原点20aから一定の撮像範囲の画像、例えばトラッキング範囲Sの画像を撮像する。
詳しくは、図2のカメラ11が、自らの撮像タイミングでベルト搬送面2aのトラッキング範囲Sを撮像する(ステップS1)。
また、画像処理部12は、トラッキング範囲Sの画像の中からワーク10の任意の部分の座標値を検出し、当該ワーク10のワークデータS3aを生成する(ステップS2)。
この座標値は、カメラ11もしくは視覚センサ3が自ら行う各処理において使用される座標系において表現された値である。
なお、視覚センサ3は、ワークデータS3aにワークの姿勢を示す座標値を含めて生成してもよい。
ロボットコントローラ5のデータ管理部15aは、受信した各ワークデータS3aをトラッキングデータにまとめてデータベースに格納する(ステップS4)。この処理動作は、第1の実施形態において図4を用いて説明したように行われる。
また、データ管理部15aは、コンベアエンコーダ6から入力したベルトコンベア2の移動量を示すデータを加味して、上記のトラッキングデータD1を生成し、これを記憶部16へ格納してデータベースを構築する。
また、データ管理部15aは、ここでコンベアエンコーダ6から入力した信号、即ちベルトコンベア2の移動量を示すデータを、前述のトラッキングデータTrk[i]の構成要素として記憶部16に格納する。
またさらに、データ管理部15aは、順次視覚センサ3から送られてくるワークデータWrk[0]~[9]を、前述の記憶部16に確保したトラッキングデータTrk[i]の領域に記憶/格納する。
また、視覚センサ3が撮像した順番を示す上記の[i-1]、[i]、[i+1]等は、各トラッキングデータD1に付記されるトラッキング番号である。
ワークデータWrk[0]~[9]は、視覚センサ3が自らの動作処理において使用している座標系のX座標データ、Y座標データ、及びX-Y平面上における回転を表すC座標データを有する。
また、ワークデータWrk[0]~[9]は、複数の付加データ、例えば付加データ(1)~(3)を加えて構成されている。付加データ(1)~(3)は、様々な動作処理に関連する条件等を表し、例えば、前述のように視覚センサ3が判別した品種などを示すデータである。この付加データ(1)~(3)は、ユーザの所望により視覚センサ3に設定される。
ロボットコントローラ5は、記憶部16に蓄積されているデータベースを用いてロボット4の動作を制御し、当該ロボット4の位置に搬送されたワーク10にハンドリング作業を行う。
ロボット4のハンドリング作業は、図1に示したワーク検出エリア開始点20bとワーク検出エリア終了点20cとの間に設けられたワーク検出エリアにおいて行われる。
具体的には、トラッキングマネージャ15bは、データベースに格納されている各トラッキングデータD1の移動量を示すデータを抽出する。
またさらにトラッキングマネージャ15bは、上記の抽出した移動量を示すデータを用いて、ワーク検出エリア内を移動中のトラッキング範囲Sが、どのトラッキングデータD1に対応しているかを認識する。
トラッキングマネージャ15bは、上記の認識したトラッキングデータD1を、データ管理部15aを用いて記憶部16から読み出す。
ワークマネージャ15cは、入力したトラッキングデータD1に含まれている複数のワークデータの中から処理を行うものを選択する。
換言すると、ワーク検出エリアに到達している複数のワーク10の中からロボット4に保持させるものを選択する。
この図は、データベースに格納されている各ワークデータの順番とベルト搬送面2aに載置されている各ワーク10を対応させた状態B、および、ロボット4に保持させる順番とベルト搬送面2aに載置されている各ワーク10とを対応させた状態Cを表している。
なお、上記の状態Bは、視覚センサ3から送信されたワークデータS3aを順次データベースに格納した順番の一例であり、図示した順番に限定されない。
具体的には、1つのトラッキング範囲Sにおいて、搬送下流側のワーク10から順番にロボット4が保持するように、各ワーク10に対応するワークデータの並べ替えを行う。
図示したOは、任意の基準点である。また、ベクトルCνは、例えばユーザ等によって定められた単位ベクトルであり、ベルトコンベア2の搬送動作を表すコンベアベクトルAと同一方向を示す。
基準点Oは、例えばワーク検出エリアの中を移動しているトラッキング範囲Sよりも搬送上流側に設定される。図10に例示した基準点Oは、ベルト搬送面2aの幅方向の中央部分に設けられている。
ベクトルPnとベクトルCνの成す角度をθとしたとき、ワーク10の写像ベクトルPnCは次の(2)式のように表される。
演算部15の例えばワークマネージャ15cは、このようにして一つのトラッキングデータD1に含まれている全てのワークデータに対して写像ベクトルPnCのスカラ量を求める。
また、視覚センサ3が撮像した画像の座標原点がどのように配置されていても、ロボット4の動作の制御に用いることが可能になる。
演算部15は、例えば選択ソート法を用いて各スカラ量の並べ替えを行う。演算部15の例えばワークマネージャ15cは、データ列(6)の中の各スカラ量を比較し、値の大きな順に並べ替える。
ワークマネージャ15cは、データ列(6)の中に並べられている各スカラ量に対応させて、順にワークデータを選択する。
ワークマネージャ15cは、このように、大きな写像ベクトルPnCのスカラ量を有するワークデータから順に、ロボット4の動作の制御に用いるワークデータとして選択する。
また、作業を行う順番を並べ替えて搬送下流側に位置するワーク10から作業を行うようにしたので、搬送中のワーク10に作業をし損ねることを抑制することができる。
また、ロボット4の無駄な動作を抑えることができる。
本発明の第3の実施形態によるハンドリング装置は、前述の第1および第2の実施形態で説明したハンドリング装置と同様に構成されている。第1および第2の実施形態で説明した装置と同様な構成について重複説明を省略する。
また、第3の実施形態によるハンドリング装置は、第2の実施形態で説明した装置と概ね同様に動作する。ここでは、第2の実施形態で説明した装置と同様な動作について重複説明を省略し、第3の実施形態によるハンドリング装置の特徴となる動作を説明する。
この図は、データベースに格納されている各ワークデータの順番とベルト搬送面2aに載置されている各ワーク10を対応させた状態B、および、ロボット4に保持させる順番とベルト搬送面2aに載置されている各ワーク10とを対応させた状態Dを表している。
なお、上記の状態Bは、図9に示した状態Bと同様に、視覚センサ3から送信されたワークデータを順次データベースに格納した順番の一例であり、図示した順番に限定されない。
具体的には、1つのトラッキング範囲Sにおいて、搬送下流側のワーク10から順番にロボット4が保持するように、各ワーク10に対応するワークデータの並べ替えを行う。
例えば、最も搬送下流側に載置されているワーク10を、前述の第2の実施形態で説明した演算によって求める。
次に、このワーク10から最も近い位置に載置されているワーク10を、例えば各ワークデータの座標値を比較して検知する。このようにして、近傍に載置されているワーク10を順に検知し、検知した順番に応じてワークデータを並べ替える。
また、作業を行う順番を並べ替えて搬送下流側に位置するワーク10から作業を開始し、順次近傍のワーク10に作業を行うようにしたので、搬送中のワーク10に作業をし損ねることを抑制することができる。
また、ロボット4の無駄な動作を抑えることができる。
Claims (15)
- ワークを搬送する搬送手段と、
前記ワークに対して所定の作業を行うロボットと、
前記搬送されているワークを撮像し、該撮像した画像中の各ワークを示すワークデータを生成する視覚センサと、
前記ワークデータを前記画像毎にまとめてトラッキングデータを生成し、該トラッキングデータをデータベースに蓄積させ、前記ロボットの位置に搬送されたワークに前記所定の作業を行うように前記データベースを用いて前記ロボットを制御する制御手段と、
を有し、
前記制御手段は、
前記データベースに蓄積されたトラッキングデータを演算処理して、前記搬送手段によって搬送されている前記各ワークの実際の状態を認識し、前記各ワークの実際の搬送状態に適応させて前記ロボットを稼働させる、
ハンドリング装置。 - 前記制御手段は、
前記データベースに格納されている前記ワークデータを読み出して所定の演算を行い、複数のワークに対して前記ロボットが作業を行う順番を並べ替える、
請求項1に記載のハンドリング装置。 - 前記制御手段は、
前記搬送手段の搬送下流側のワークから作業を開始するように制御する、請求項2に記載のハンドリング装置。 - 前記制御手段は、
前記視覚センサから送信されたワークデータを前記視覚センサが撮像した画像毎にまとめたトラッキングデータをデータベースとして記憶する記憶部と、
前記トラッキングデータに含まれている各ワークデータから各ワークの写像ベクトルのスカラ量を求め、前記各ワークの写像ベクトルのスカラ量に基づいて前記ロボットが作業を行う順番を並べ替える演算部と、
前記演算部によって並べ替えられた順番に応じて前記各ワークに作業を行うように前記ロボットを制御する駆動制御部と、
を有する、
請求項3に記載のハンドリング装置。 - 前記演算部は、
任意の基準点から各々のワークまでのベクトルをベクトルPとし、
前記任意の基準点から前記搬送手段の搬送方向を示す基準ベクトルをベクトルCνとしたとき、
前記ベクトルPと前記ベクトルCνとの内積を求める演算により、前記各々のワークの写像ベクトルのスカラ量を求める、
請求項4に記載のハンドリング装置。 - 前記制御手段は、
前記データベースから前記トラッキングデータ毎に読み出したワークデータに所定の演算を行って重複するワークデータを検出し、前記重複するワークデータに基づく前記ロボットの動作の制御をキャンセルする、
請求項1に記載のハンドリング装置。 - 前記制御手段は、
前記画像毎に生成した各トラッキングデータをデータベースとして記憶する記憶部と、
前記トラッキングデータに含まれている各ワークデータから各ワーク間の距離を求め、前記各ワーク間の距離に基づいて前記重複するワークデータであるか否かを判定する演算部と、
前記演算部の判定結果に応じて前記各ワークに作業を行うように前記ロボットを制御する駆動制御部と、
を有する、
請求項6に記載のハンドリング装置。 - 前記演算部は、
前記各ワークデータから求めたワーク間の距離が所定の値よりも小さいときには、該距離を有するワークに対応するワークデータは重複していないと判定する、
請求項7に記載のハンドリング装置。 - 記憶手段と、
搬送手段によって搬送されている複数のワークを撮像する視覚センサから送信された、前記各ワークに各々対応する複数のワークデータを、前記視覚センサが撮像した画像毎にまとめてトラッキングデータを生成し、前記画像毎の各トラッキングデータを前記記憶手段へ記憶させ、
前記記憶手段から、前記搬送手段の搬送動作に応じて前記各トラッキングデータを読み出し、当該各トラッキングデータに含まれている各ワークデータに所定の演算を行って、前記搬送手段によって搬送されている前記各ワークの実際の状態を認識する演算手段と、
前記演算手段の演算結果に応じて前記各ワークの実際の搬送状態に適応させてロボットを稼働させ、前記各ワークに作業を行なわせる駆動制御手段と、
を有する、
制御装置。 - 前記演算手段は、
前記各ワークデータに演算を行うことにより、前記複数のトラッキングデータに重複して含まれているワークデータを検出し、
前記駆動制御手段は、
前記演算手段によって検出された前記重複するワークデータをキャンセルして、重複していない各ワークデータに対応する各ワークに作業を行うように前記ロボットを制御する、
請求項9に記載の制御装置。 - 前記演算手段は、
前記各ワークデータに演算を行うことにより、前記搬送手段によって搬送されている前記各ワークデータに対応する各ワークに作業を行う順番を求め、
前記駆動制御手段は、前記演算手段によって並べ替えられた順番に応じて前記各ワークに作業を行うように前記ロボットを制御する、
請求項9に記載の制御装置。 - 搬送手段によって搬送されている複数のワークを視覚センサが撮像した画像毎に、前記各ワークに各々対応する複数のワークデータをまとめたトラッキングデータを生成する第1の工程と、
前記画像毎の各トラッキングデータをデータベースに格納する第2の工程と、
前記搬送手段の搬送動作に応じて前記データベースの各トラッキングデータに含まれている各ワークデータに所定の演算を行って、前記搬送手段によって搬送されている前記各ワークの実際の状態を認識する第3の工程と、
前記各ワークの実際の搬送状態に適応させてロボットを稼働させ前記各ワークに作業を行なわせる第4の工程と、
を有する、
制御方法。 - 前記第3の工程は、
前記演算により、前記複数のトラッキングデータに重複して含まれているワークデータを検出し、
前記第4の工程は、
前記検出された重複するワークデータをキャンセルして、重複していないワークデータに対応する各ワークに作業を行うように前記ロボットを制御する、
請求項12に記載の制御方法。 - 前記第3の工程は、
前記演算により、前記搬送手段によって搬送されている各ワークに作業を行う順番を並べ替え、
前記第4の工程は、
前記並べ替えられた順番に応じて前記各ワークに作業を行うように前記ロボットを制御する、
請求項12に記載の制御方法。 - 搬送手段によって搬送されている複数のワークを撮像する視覚センサから、前記視覚センサが生成したワークデータを入力する第1の手順と、
前記入力したワークデータを、前記視覚センサが撮像した画像毎にまとめてトラッキングデータを生成し、データベースへ格納する第2の手順と、
前記搬送手段の搬送動作に応じて前記データベースから前記トラッキングデータを読み出し、前記読み出したトラッキングデータに含まれている各ワークデータに所定の演算を行って、前記搬送手段によって搬送されている前記各ワークの実際の状態を認識する第3の手順と、
前記演算の結果に応じて前記各ワークの実際の搬送状態に適応させてロボットを稼働させ前記各ワークに作業を行なわせる第4の手順と、
をコンピュータに実行させる、
プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1019223.5A GB2471819B (en) | 2008-06-05 | 2009-06-03 | Handling system,control device,control method,and program |
US12/995,960 US8805585B2 (en) | 2008-06-05 | 2009-06-03 | Handling apparatus, control device, control method, and program |
DE112009001414T DE112009001414T5 (de) | 2008-06-05 | 2009-06-03 | Bearbeitungssystem, Steuerungseinrichtung, Steuerungsverfahren und Programm |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008-148468 | 2008-06-05 | ||
JP2008148468A JP5198155B2 (ja) | 2008-06-05 | 2008-06-05 | ハンドリング装置、ワークハンドリング方法および信号処理装置 |
JP2008158038A JP5198161B2 (ja) | 2008-06-17 | 2008-06-17 | ハンドリング装置およびワークハンドリング方法 |
JP2008-158038 | 2008-06-17 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2009148089A1 true WO2009148089A1 (ja) | 2009-12-10 |
Family
ID=41398162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2009/060172 WO2009148089A1 (ja) | 2008-06-05 | 2009-06-03 | ハンドリング装置、制御装置、制御方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US8805585B2 (ja) |
DE (1) | DE112009001414T5 (ja) |
GB (2) | GB2492257B (ja) |
WO (1) | WO2009148089A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012124139A1 (ja) * | 2011-03-15 | 2012-09-20 | オムロン株式会社 | 画像処理装置および画像処理プログラム |
US20140015957A1 (en) * | 2011-03-15 | 2014-01-16 | Omron Corporation | Image processing device and image processing program |
WO2014158900A1 (en) | 2013-03-14 | 2014-10-02 | Indiana University Research And Technology Corporation | Insulin-incretin conjugates |
WO2016049190A1 (en) | 2014-09-24 | 2016-03-31 | Indiana University Research And Technology Corporation | Incretin-insulin conjugates |
WO2018213151A1 (en) | 2017-05-18 | 2018-11-22 | Merck Sharp & Dohme Corp. | Pharmaceutical formulation comprising incretin-insulin conjugates |
CN109911549A (zh) * | 2019-01-25 | 2019-06-21 | 东华大学 | 一种易损物品的机器人动态跟踪抓取系统及方法 |
CN111805533A (zh) * | 2020-05-27 | 2020-10-23 | 扬州哈工科创机器人研究院有限公司 | 用于工件下料的装置、基于视觉定位的工件下料的方法 |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5803155B2 (ja) * | 2011-03-04 | 2015-11-04 | セイコーエプソン株式会社 | ロボット位置検出装置及びロボットシステム |
JP2012187651A (ja) * | 2011-03-09 | 2012-10-04 | Omron Corp | 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置 |
JP5464176B2 (ja) * | 2011-06-20 | 2014-04-09 | 株式会社安川電機 | ピッキングシステム |
JP5830644B2 (ja) * | 2011-12-06 | 2015-12-09 | パナソニックIpマネジメント株式会社 | 下受けピン配置判定装置および下受けピン配置判定方法 |
US8989904B2 (en) * | 2012-02-27 | 2015-03-24 | Fanuc Robotics America Corporation | Robotic process logger |
US20130293388A1 (en) * | 2012-04-10 | 2013-11-07 | Daryl Ingalsbe | Cellular tank monitoring technology |
ITCN20120009A1 (it) * | 2012-09-07 | 2014-03-08 | Elcat S R L | Modulo di rotazione variabile da 0° a 360° di generi alimentari da nastri trasportatori |
JP2014055037A (ja) * | 2012-09-11 | 2014-03-27 | International Business Maschines Corporation | 積載操作方法、システム及びコンピュータ・プログラム。 |
DE102014114272B4 (de) | 2013-10-04 | 2019-03-07 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Verfahren zum Steuern einer durch Bilderfassung gelenkten Roboteranordnung |
US9586320B2 (en) * | 2013-10-04 | 2017-03-07 | GM Global Technology Operations LLC | System and method for controlling a vision guided robot assembly |
WO2017033353A1 (ja) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | 遠隔操作ロボットシステム |
JP5892531B1 (ja) * | 2015-11-16 | 2016-03-23 | プレンプロジェクト・ホールディングス有限会社 | リンク列マッピング装置、リンク列マッピング方法、及びプログラム |
CN105775726B (zh) * | 2016-04-13 | 2017-12-22 | 英华达(南京)科技有限公司 | 拾取和放置装置及其应用方法 |
JP6527108B2 (ja) * | 2016-05-19 | 2019-06-05 | ファナック株式会社 | 物品搬送装置 |
CN109257929B (zh) * | 2016-05-20 | 2022-04-26 | Abb瑞士股份有限公司 | 改进的工业物体处置机器人 |
US9440799B1 (en) * | 2016-06-01 | 2016-09-13 | Finetek Co., Ltd. | Conveying apparatus |
JP6737018B2 (ja) * | 2016-07-08 | 2020-08-05 | オムロン株式会社 | 光学計測装置 |
JP6692247B2 (ja) * | 2016-08-04 | 2020-05-13 | 株式会社東芝 | 物品保持装置および物品保持方法 |
JP2018024044A (ja) * | 2016-08-09 | 2018-02-15 | オムロン株式会社 | 情報処理システム、情報処理装置、ワークの位置特定方法、およびワークの位置特定プログラム |
JP6514171B2 (ja) * | 2016-09-27 | 2019-05-15 | ファナック株式会社 | 最適な物品把持経路を学習する機械学習装置、及び機械学習方法 |
JP6553568B2 (ja) * | 2016-09-28 | 2019-07-31 | ファナック株式会社 | 複数個の物品をひとつずつ最適な経路で取り出す搬送装置 |
JP6450727B2 (ja) | 2016-10-28 | 2019-01-09 | ファナック株式会社 | ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体 |
JP7047249B2 (ja) * | 2017-01-10 | 2022-04-05 | オムロン株式会社 | 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム |
KR101920395B1 (ko) * | 2017-01-23 | 2018-11-20 | 주식회사 가치소프트 | 자동 물품 싱귤레이터 및 그 방법 |
JP6490132B2 (ja) | 2017-03-31 | 2019-03-27 | ファナック株式会社 | ロボットの制御装置、機械学習装置及び機械学習方法 |
JP6610609B2 (ja) * | 2017-04-27 | 2019-11-27 | トヨタ自動車株式会社 | 音声対話ロボットおよび音声対話システム |
JP6478234B2 (ja) | 2017-06-26 | 2019-03-06 | ファナック株式会社 | ロボットシステム |
JP6549655B2 (ja) * | 2017-08-03 | 2019-07-24 | ファナック株式会社 | 物品搬送装置 |
CN107572243A (zh) * | 2017-09-14 | 2018-01-12 | 上海发那科机器人有限公司 | 一种自动下料系统 |
KR102600893B1 (ko) * | 2018-04-13 | 2023-11-10 | 삼성디스플레이 주식회사 | 패널 이송 장치 및 패널 이송 방법 |
JP6763914B2 (ja) | 2018-06-08 | 2020-09-30 | ファナック株式会社 | ロボットシステムおよびロボットシステムの制御方法 |
JP6918756B2 (ja) | 2018-08-31 | 2021-08-11 | ファナック株式会社 | 検出システム |
JP7022036B2 (ja) | 2018-08-31 | 2022-02-17 | ファナック株式会社 | 物品取出システム |
DE102020113278A1 (de) | 2020-05-15 | 2021-11-18 | Gerhard Schubert Gesellschaft mit beschränkter Haftung | Verfahren zur Steuerung des Betriebs eines Industrieroboters |
CN116773546B (zh) * | 2023-06-20 | 2024-03-22 | 上海感图网络科技有限公司 | 一种镀铜板叠料缺陷检测方法、装置及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0748018A (ja) * | 1993-08-03 | 1995-02-21 | Omori Mach Co Ltd | 物品移載装置用物品検出装置 |
JP2005111607A (ja) * | 2003-10-07 | 2005-04-28 | Fanuc Ltd | ロボット物流トラッキング装置 |
JP2007015055A (ja) * | 2005-07-07 | 2007-01-25 | Toshiba Mach Co Ltd | ハンドリング装置、作業装置及びプログラム |
JP2009028818A (ja) * | 2007-07-25 | 2009-02-12 | Panasonic Electric Works Co Ltd | ロボットシステム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5040056A (en) | 1990-01-29 | 1991-08-13 | Technistar Corporation | Automated system for locating and transferring objects on a conveyor belt |
US5207331A (en) | 1991-08-28 | 1993-05-04 | Westinghouse Electric Corp. | Automatic system and method for sorting and stacking reusable cartons |
JP3172287B2 (ja) * | 1992-11-09 | 2001-06-04 | マツダ株式会社 | 塗膜欠陥検出装置 |
US6035243A (en) * | 1993-10-22 | 2000-03-07 | Xerox Corporation | System for handling defects produced during the automated assembly of palletized elements |
JPH0957670A (ja) | 1995-08-23 | 1997-03-04 | Fujitsu Ltd | ロボット軌道制御装置及び耐久性試験装置 |
JPH0972717A (ja) | 1995-09-04 | 1997-03-18 | Fanuc Ltd | 画像の取得・処理方法 |
JP3629133B2 (ja) | 1997-01-31 | 2005-03-16 | 本田技研工業株式会社 | 脚式移動ロボットの制御装置 |
DE19854011A1 (de) * | 1998-11-12 | 2000-05-25 | Knoll Alois | Einrichtung und Verfahren zum Vermessen von Mechanismen und ihrer Stellung |
JP2000219317A (ja) | 1999-01-29 | 2000-08-08 | Hitachi Zosen Corp | 荷役仕分け装置 |
DE20216636U1 (de) * | 2002-10-28 | 2004-03-11 | Kuka Schweissanlagen Gmbh | Bearbeitungsanlage |
SE0301910L (sv) * | 2003-06-26 | 2004-12-27 | Abb Ab | Datorstyrd arbetsplats med robotar |
WO2007035943A2 (en) | 2005-09-23 | 2007-03-29 | Braintech Canada, Inc. | System and method of visual tracking |
US8315736B2 (en) * | 2008-04-25 | 2012-11-20 | Fanuc Robotics America, Inc. | Method and apparatus for picking/packing applications |
US8473100B2 (en) * | 2008-04-25 | 2013-06-25 | Fanuc Robotics America, Inc. | System and method for dynamically switching conveyors for robots |
JP4621789B2 (ja) * | 2009-06-02 | 2011-01-26 | ファナック株式会社 | 物品搬送ロボットシステム |
-
2009
- 2009-06-03 WO PCT/JP2009/060172 patent/WO2009148089A1/ja active Application Filing
- 2009-06-03 GB GB1213595.0A patent/GB2492257B/en active Active
- 2009-06-03 GB GB1019223.5A patent/GB2471819B/en active Active
- 2009-06-03 US US12/995,960 patent/US8805585B2/en active Active
- 2009-06-03 DE DE112009001414T patent/DE112009001414T5/de not_active Ceased
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0748018A (ja) * | 1993-08-03 | 1995-02-21 | Omori Mach Co Ltd | 物品移載装置用物品検出装置 |
JP2005111607A (ja) * | 2003-10-07 | 2005-04-28 | Fanuc Ltd | ロボット物流トラッキング装置 |
JP2007015055A (ja) * | 2005-07-07 | 2007-01-25 | Toshiba Mach Co Ltd | ハンドリング装置、作業装置及びプログラム |
JP2009028818A (ja) * | 2007-07-25 | 2009-02-12 | Panasonic Electric Works Co Ltd | ロボットシステム |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9998683B2 (en) | 2011-03-15 | 2018-06-12 | Omron Corporation | Image processing device and image processing program |
JP2012194641A (ja) * | 2011-03-15 | 2012-10-11 | Omron Corp | 画像処理装置および画像処理プログラム |
CN103339466A (zh) * | 2011-03-15 | 2013-10-02 | 欧姆龙株式会社 | 图像处理装置及图像处理程序 |
US20140015957A1 (en) * | 2011-03-15 | 2014-01-16 | Omron Corporation | Image processing device and image processing program |
US20140015956A1 (en) * | 2011-03-15 | 2014-01-16 | Omron Corporation | Image processing device and image processing program |
WO2012124139A1 (ja) * | 2011-03-15 | 2012-09-20 | オムロン株式会社 | 画像処理装置および画像処理プログラム |
WO2014158900A1 (en) | 2013-03-14 | 2014-10-02 | Indiana University Research And Technology Corporation | Insulin-incretin conjugates |
WO2016049190A1 (en) | 2014-09-24 | 2016-03-31 | Indiana University Research And Technology Corporation | Incretin-insulin conjugates |
WO2018213151A1 (en) | 2017-05-18 | 2018-11-22 | Merck Sharp & Dohme Corp. | Pharmaceutical formulation comprising incretin-insulin conjugates |
US11590237B2 (en) | 2017-05-18 | 2023-02-28 | Merck Sharp & Dohme Llc | Pharmaceutical formulation comprising incretin-insulin conjugates |
CN109911549A (zh) * | 2019-01-25 | 2019-06-21 | 东华大学 | 一种易损物品的机器人动态跟踪抓取系统及方法 |
CN111805533A (zh) * | 2020-05-27 | 2020-10-23 | 扬州哈工科创机器人研究院有限公司 | 用于工件下料的装置、基于视觉定位的工件下料的方法 |
CN111805533B (zh) * | 2020-05-27 | 2022-05-03 | 扬州哈工科创机器人研究院有限公司 | 用于工件下料的装置、基于视觉定位的工件下料的方法 |
Also Published As
Publication number | Publication date |
---|---|
GB2492257B (en) | 2013-02-13 |
US8805585B2 (en) | 2014-08-12 |
GB2471819B (en) | 2012-11-28 |
DE112009001414T5 (de) | 2011-04-21 |
GB2471819A (en) | 2011-01-12 |
GB201019223D0 (en) | 2010-12-29 |
GB2492257A (en) | 2012-12-26 |
GB201213595D0 (en) | 2012-09-12 |
US20110082586A1 (en) | 2011-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2009148089A1 (ja) | ハンドリング装置、制御装置、制御方法およびプログラム | |
JP5198155B2 (ja) | ハンドリング装置、ワークハンドリング方法および信号処理装置 | |
US9604365B2 (en) | Device and method of transferring articles by using robot | |
US11084168B2 (en) | Article stacking apparatus and machine learning apparatus | |
JP6687591B2 (ja) | 物品搬送装置、ロボットシステムおよび物品搬送方法 | |
JP4174342B2 (ja) | ワーク搬送装置 | |
JP5930037B2 (ja) | ロボットシステムおよび物品移送方法 | |
JP6496333B2 (ja) | 少なくとも1つのセンサを用いた物品搬送装置 | |
US20070179671A1 (en) | Tracking and handling device | |
WO2014013609A1 (ja) | ロボットシステムおよび物品移送方法 | |
JP2006035397A (ja) | 搬送ロボットシステム | |
KR20130085438A (ko) | 화상 처리 장치 및 화상 처리 시스템 | |
JP2008087074A (ja) | ワーク取り出し装置 | |
JP5198161B2 (ja) | ハンドリング装置およびワークハンドリング方法 | |
JP6549655B2 (ja) | 物品搬送装置 | |
JP2016147330A (ja) | 物体認識に基づく制御装置 | |
JP2005262369A (ja) | ロボットシステム | |
JP5446887B2 (ja) | 制御装置、ロボット、ロボットシステム及びロボットの追従方法 | |
JP7436170B2 (ja) | ロボットシステム | |
WO2021065880A1 (ja) | ロボット制御システム、ロボット制御方法およびプログラム | |
JP2007033328A (ja) | 画像処理方法および該画像処理方法を用いたピッキング動作補正方法 | |
JP7213010B2 (ja) | ロボットシステム及び搬送されているワークに対して作業を行う方法 | |
JP2011140085A (ja) | 制御装置、ロボット、ロボットシステム及びロボットの追従制御方法 | |
JP7328017B2 (ja) | ロボットシステム及び制御装置 | |
JP2024002367A (ja) | 運搬システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 09758356 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 1019223 Country of ref document: GB Kind code of ref document: A Free format text: PCT FILING DATE = 20090603 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 1019223.5 Country of ref document: GB |
|
WWE | Wipo information: entry into national phase |
Ref document number: 12995960 Country of ref document: US |
|
RET | De translation (de og part 6b) |
Ref document number: 112009001414 Country of ref document: DE Date of ref document: 20110421 Kind code of ref document: P |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 09758356 Country of ref document: EP Kind code of ref document: A1 |