WO2009148089A1 - ハンドリング装置、制御装置、制御方法およびプログラム - Google Patents

ハンドリング装置、制御装置、制御方法およびプログラム Download PDF

Info

Publication number
WO2009148089A1
WO2009148089A1 PCT/JP2009/060172 JP2009060172W WO2009148089A1 WO 2009148089 A1 WO2009148089 A1 WO 2009148089A1 JP 2009060172 W JP2009060172 W JP 2009060172W WO 2009148089 A1 WO2009148089 A1 WO 2009148089A1
Authority
WO
WIPO (PCT)
Prior art keywords
work
data
workpiece
robot
tracking
Prior art date
Application number
PCT/JP2009/060172
Other languages
English (en)
French (fr)
Inventor
泰宣 西原
Original Assignee
東芝機械株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2008148468A external-priority patent/JP5198155B2/ja
Priority claimed from JP2008158038A external-priority patent/JP5198161B2/ja
Application filed by 東芝機械株式会社 filed Critical 東芝機械株式会社
Priority to GB1019223.5A priority Critical patent/GB2471819B/en
Priority to US12/995,960 priority patent/US8805585B2/en
Priority to DE112009001414T priority patent/DE112009001414T5/de
Publication of WO2009148089A1 publication Critical patent/WO2009148089A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39102Manipulator cooperating with conveyor
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/49Method of mechanical manufacture
    • Y10T29/49764Method of mechanical manufacture with testing or indicating
    • Y10T29/49769Using optical instrument [excludes mere human eyeballing]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/53Means to assemble or disassemble
    • Y10T29/53039Means to assemble or disassemble with control means energized in response to activator stimulated by condition sensor

Definitions

  • the present invention relates to a handling device, a control device, a control method, and a program for efficiently processing a work conveyed by a belt conveyor.
  • a visual sensor is arranged upstream of the belt conveyor, an article (hereinafter referred to as a workpiece) conveyed by the belt conveyor is detected, and the robot performs an operation on the workpiece using the output data of the visual sensor.
  • Controlling handling devices are known.
  • the visual sensor images each work being conveyed by the belt conveyor, creates data corresponding to each work, and transmits the data to the robot controller.
  • the robot controller creates a database of received data, and performs a process based on the data read from the above-described database for a work that has reached the work position of the robot by transporting the belt conveyor.
  • Patent Document 1 stores data transmitted from a visual sensor in sequence, constructs a database, and controls robot operations in accordance with the contents stored in the database. Therefore, when the visual sensor continuously captures images a plurality of times, each captured image includes a portion where the same workpiece is duplicated. Since the overlapping part of the work data is also stored in the database, there is a case where the robot performs a useless operation.
  • a plurality of workpieces conveyed by the belt conveyor are not necessarily processed in order from the conveyance downstream side, and the operation of the robot may be complicated and the workpieces placed on the conveyance downstream may not be processed. is there.
  • the handling apparatus includes a conveyance unit that conveys a workpiece, a robot that performs a predetermined operation on the workpiece, an image of the workpiece being conveyed, and workpiece data indicating each workpiece in the captured image. And generating a tracking data by collecting the work data for each image, storing the tracking data in a database, and performing the predetermined work on the work transported to the position of the robot. Control means for controlling the robot using the database, and the control means calculates the tracking data stored in the database and performs actual processing of the workpieces conveyed by the conveyance means. And the robot is operated in accordance with the actual conveyance state of each workpiece.
  • control means reads the work data stored in the database, performs a predetermined calculation, and rearranges the order in which the robot performs work on a plurality of works.
  • control unit controls the work to start from the work on the downstream side of the transfer unit.
  • the control unit stores a tracking data in which the work data transmitted from the visual sensor is collected for each image captured by the visual sensor as a database, and the tracking data is stored in the tracking data.
  • a calculation unit that obtains a scalar quantity of the mapping vector of each workpiece from each contained work data, and rearranges the order in which the robot performs the work based on the scalar quantity of the mapping vector of each workpiece, and is arranged by the calculation unit
  • a drive control unit that controls the robot so as to perform work on the workpieces according to the changed order.
  • the calculation unit sets a vector from an arbitrary reference point to each workpiece as a vector P, and a reference vector indicating a transfer direction of the transfer means from the arbitrary reference point as a vector C ⁇ . Then, the scalar quantity of the mapping vector of each workpiece is obtained by calculating the inner product of the vector P and the vector C ⁇ .
  • control means performs a predetermined calculation on the work data read from the database for each tracking data to detect duplicate work data, and the robot based on the duplicate work data Cancel the control of the operation.
  • the control unit stores each tracking data generated for each image as a database, and the distance between each workpiece from each workpiece data included in the tracking data.
  • a calculation unit that determines whether or not the overlapping workpiece data is based on a distance between the workpieces, and controls the robot to perform work on the workpieces according to a determination result of the calculation unit And a drive control unit.
  • the operation data corresponding to the workpiece having the distance does not overlap. judge.
  • the visual sensor images a plurality of work data respectively corresponding to each of the workpieces transmitted from the storage unit and the visual sensor that images the plurality of workpieces conveyed by the conveying unit.
  • Tracking data is collectively generated for each image, each tracking data for each image is stored in the storage unit, and each tracking data is read from the storage unit according to the transport operation of the transport unit,
  • a calculation unit that performs a predetermined calculation on each piece of work data included in the data and recognizes an actual state of each of the workpieces conveyed by the transfer unit;
  • Drive control means for operating the robot in accordance with the actual conveyance state of the workpiece and performing work on each workpiece.
  • the calculation means detects the work data included in the plurality of tracking data by performing calculation on each work data
  • the drive control means includes: The overlapping work data detected by the computing means is canceled, and the robot is controlled to perform work on each work corresponding to each non-overlapping work data.
  • control device of the present invention obtains an order of performing work on each work corresponding to each work data being transported by the transport means, by the computing means performing computation on each work data,
  • the drive control means controls the robot so as to perform work on the workpieces according to the order rearranged by the calculation means.
  • the control method of the present invention is a first step of generating tracking data in which a plurality of workpiece data respectively corresponding to each of the workpieces is collected for each image obtained by imaging a plurality of workpieces being conveyed by the conveyance means. And a second step of storing each tracking data for each image in a database, and performing a predetermined calculation on each work data included in each tracking data of the database according to the transporting operation of the transporting means. A third step of recognizing the actual state of each work being transported by the transporting means, and a second step of operating the robot in accordance with the actual transport state of each work and causing each work to perform work. 4 steps.
  • the work data that is included in the plurality of tracking data is detected by the calculation, and in the fourth step, the detected data is detected.
  • the robot is controlled so that the overlapping work data is canceled and the work corresponding to the non-overlapping work data is performed.
  • the order of performing the work on each workpiece conveyed by the conveying means is rearranged by the calculation, and in the fourth step, the rearrangement is performed.
  • the robot is controlled so as to perform work on the workpieces according to the order in which they are performed.
  • the program according to the present invention includes a first procedure for inputting work data generated by the visual sensor from a visual sensor that captures a plurality of workpieces conveyed by the conveying means, and the inputted work data as the visual sensor.
  • the tracking data is collected for each image captured by the camera and stored in the database, and the tracking data is read from the database in accordance with the transport operation of the transport means, and is included in the read tracking data.
  • a fourth procedure in which the robot is operated in accordance with the transfer state and the work is performed on each workpiece. To be executed by the data.
  • the handling device of the present invention it is possible to efficiently perform work on a workpiece to be conveyed while suppressing useless movement of the robot.
  • control device of the present invention it is possible to cause the robot to efficiently perform work using the work data input from the visual sensor.
  • control method of the present invention it is possible to efficiently perform work on a workpiece to be conveyed while suppressing useless movement of the robot.
  • FIG. 1 is an explanatory diagram showing a schematic configuration of a handling device according to a first embodiment of the present invention.
  • the illustrated handling apparatus 1 includes a belt conveyor 2, a visual sensor 3, a robot 4, a robot controller 5, and a conveyor encoder 6.
  • the belt conveyor 2 is a conveying means that conveys a workpiece 10 such as an in-process article in the direction of a conveyor vector A indicated by an arrow in the drawing.
  • the visual sensor 3 is arranged so as to image a plurality of workpieces 10 mounted on the belt conveyance surface 2a of the belt conveyor 2 at a position on the conveyance upstream side of the belt conveyor 2.
  • the visual sensor 3 is connected via a LAN so as to output work data S3a as output data and a trigger signal S3b indicating imaging timing to a robot controller 5 described later.
  • the robot 4 includes a holding unit 4a that grips the workpieces 10 conveyed by the belt conveyor 2, for example, one by one, and an arm unit 4b that supports the holding unit 4a so as to be movable within a predetermined range.
  • the robot controller 5 is control means connected to control the operation of the robot 4. Further, the robot controller 5 is connected so as to input an output signal S6 of a conveyor encoder 6 to be described later, and work data S3a and a trigger signal S3b transmitted from the visual sensor 3 via the communication line described above. .
  • the conveyor encoder 6 is a movement amount detection means for detecting the conveyance distance of the belt conveyor 2, that is, detecting the movement amount of the work 10 placed on the belt conveyance surface 2a.
  • An output signal S6 from the conveyor encoder 6, that is, an output signal S6 indicating the movement of the conveyor is output to the robot controller 5.
  • FIG. 1 illustrates a configuration including one robot 4 and one robot controller 5 that controls the robot 4, the configuration includes a plurality of robots 4 and robot controllers 5. May be. Specifically, for example, a router is provided which receives the work data S3a and the trigger signal S3b transmitted from the visual sensor 3 to the communication line. A plurality of robot controllers 5 are connected to this router. With this configuration, each robot controller 5 can input the work data S3a and the trigger signal S3b used for its processing operation from the router to control each robot 4.
  • FIG. 2 is a block diagram illustrating configurations of a visual sensor, a robot, and a robot controller that form the handling device according to the first embodiment.
  • the visual sensor 3 includes a camera 11 and an image processing unit 12.
  • the camera 11 is composed of a CCD camera, for example.
  • the camera 11 is disposed so as to capture an image of the belt conveyance surface 2a on which the workpiece 10 is placed.
  • the tracking range S illustrated in FIG. 1 is provided so as to be a single imaging range.
  • the image processing unit 12 is configured to process the image data output from the camera 11 and generate work data S3a described later.
  • the visual sensor 3 includes a communication unit (not shown) that transmits the trigger signal S3b indicating the imaging timing of the camera 11 and the above-described work data S3a to the communication line.
  • the robot controller 5 includes an input unit 13, a display unit 14, a calculation unit 15, a storage unit 16, and a drive control unit 17.
  • the input unit 13 is configured to allow a user to perform a setting operation or the like, and is connected to input the setting content to the calculation unit 15.
  • the display unit 14 is connected to the calculation unit 15 so as to display the above-described operation / setting contents and the operation status of the robot 4.
  • the calculation unit 15 includes a data management unit 15a, a tracking manager 15b, and a work manager 15c.
  • the data management unit 15 a is configured to perform an operation process of storing each data in the storage unit 16 and an operation of reading data from the storage unit 16.
  • the tracking manager 15b is configured to monitor the position indicated by each tracking data D1, in other words, the tracking range S.
  • the work manager 15c is configured to select a work 10 that causes the robot 4 to perform work from a plurality of works 10 existing in the tracking range S.
  • the storage unit 16 stores tracking data D1 under the control of the calculation unit 15, and a database is constructed by storing a plurality of tracking data D1.
  • the tracking data D1 is the number of workpieces 10 extracted from the image data obtained by the visual sensor 3 by one imaging, the workpiece data S3a of each extracted workpiece 10, and the movement indicated by the output signal S6 of the conveyor encoder 6. It is composed by quantity.
  • the drive control unit 17 is configured to generate a control signal for driving each unit of the robot 4 to be described later and operate the robot 4.
  • the robot 4 includes a holding motor 18 that drives the holding unit 4a and an arm motor 19 that drives the arm unit 4b that supports the holding unit 4a.
  • FIG. 3 is a flowchart showing the operation of the handling apparatus according to the first embodiment.
  • the visual sensor 3 captures an image in a certain imaging range, for example, an image in the tracking range S, from the imaging origin 20a at the upstream end of the belt conveying surface 2a or in the vicinity thereof on the upstream side of the conveyor belt 2.
  • the camera 11 in FIG. 2 images the tracking range S of the belt conveyance surface 2a at its own imaging timing (step S1).
  • the image processing unit 12 extracts the shape of the workpiece 10 included in the image in the tracking range S, and compares the shape with the shape data for each type stored in the image processing unit 12 itself. Identify 10 varieties.
  • the image processing unit 12 detects a coordinate value of an arbitrary part of the workpiece 10 from the image in the tracking range S, and generates workpiece data S3a of the workpiece 10 (step S2).
  • This coordinate value is a value expressed in a coordinate system used in each process performed by the camera 11 or the visual sensor 3 itself.
  • the visual sensor 3 may generate the work data S3a by including a coordinate value indicating the posture of the work.
  • the visual sensor 3 sequentially transmits the generated work data S3a to the robot controller 5 (step S3). At this time, the visual sensor 3 transmits the work data S3a of all the works 10 included in one image and data indicating the number of the work data S3a in correspondence with one trigger signal S3b.
  • FIG. 4 is an explanatory diagram showing the operation of the handling device according to the first embodiment. This figure shows an operation in which the data management unit 15 a of the robot controller 5 stores each work data S 3 a sent from the visual sensor 3 in the storage unit 16.
  • the data management unit 15a When the communication unit or the like receives a plurality of work data S3a transmitted from the visual sensor 3 for each trigger signal S3b, the data management unit 15a combines the work data S3a into one and generates tracking data D1. . Further, in the process of step S4 in FIG. 3, the data management unit 15a generates the tracking data D1 by taking into account the movement amount of the belt conveyor 2 indicated by the output signal S6 input from the conveyor encoder 6, Is stored in the storage unit 16 to construct a database.
  • tracking data D1 generated from the [i-1] -th image captured by the visual sensor 3 is shown as tracking data Trk [i-1].
  • tracking data D1 generated from an image picked up by the visual sensor 3 at the [i] th is shown as tracking data Trk [i].
  • FIG. 4 shows tracking data D1 generated from the [i + 1] -th image captured by the visual sensor 3 as tracking data Trk [i + 1].
  • the tracking data Trk [i] shown in FIG. 4 represents data when, for example, ten workpieces 10 are detected from the tracking range S imaged by the visual sensor 3 at the [i] th, and the workpiece data Wrk [ 0] to Wrk [9].
  • the data management unit 15a corresponds to the trigger signal S3b.
  • An area for storing the tracking data Trk [i] is secured in the storage unit 16.
  • the data management unit 15a stores the output signal S6 input from the conveyor encoder 6 here, that is, data indicating the movement amount of the belt conveyor 2 in the storage unit 16 as a component of the tracking data Trk [i]. . Furthermore, the data management unit 15a sequentially stores the work data Wrk [0] to [9] sent from the visual sensor 3 in the area of the tracking data Trk [i] secured in the storage unit 16 described above. Store.
  • FIG. 4 shows two workpieces 10 in the [i] -th tracking range S, and omits all the workpieces 10 placed in the [i] -th tracking range. ing. Further, the above [i ⁇ 1], [i], [i + 1] and the like indicating the order of imaging by the visual sensor 3 are integer values added to the tracking data D1 as tracking numbers.
  • the work data S3a that the visual sensor 3 sequentially transmits to the robot controller 5 is configured as work data Wrk [0] to [9] shown in FIG. 4, for example.
  • the work data Wrk [0] to [9] are X coordinate data, Y coordinate data of the coordinate system used by the visual sensor 3 in its own motion processing, and C coordinate data representing rotation on the XY plane. Have.
  • the work data Wrk [0] to [9] is constituted by adding a plurality of additional data, for example, additional data (1) to (3).
  • the additional data (1) to (3) represent conditions and the like related to various operation processes, and are data indicating, for example, the types determined by the visual sensor 3 as described above. These additional data (1) to (3) are set in the visual sensor 3 as desired by the user.
  • the image processing unit 12 of the visual sensor 3 performs processing for each image captured by the camera 11 as described above.
  • the camera 11 sequentially captures the conveying surface 2a of the belt conveyor 2, for example, when the images 11 are aligned and imaged so that there is no overlapping portion in each image, the image appears on the edge of one image. In some cases, the entire workpiece 10 does not fit in the image.
  • the image processing unit 12 cannot accurately recognize the workpiece 10 whose whole shape is not reflected in one image, and cannot generate the workpiece data S3a or generate abnormal data. there's a possibility that. Therefore, when the visual sensor 3 images the conveyance surface 2a of the belt conveyor 2, the image is captured so that the end portions of the images overlap each other, and the work 10 is prevented from being partially missing and reflected. The work data S3a corresponding to the work 10 is reliably generated.
  • FIG. 5 is an explanatory diagram showing the operation of the handling device according to the first embodiment.
  • the tracking data D1 in FIG. 5 is illustrated with a track number indicating the imaging order, similar to the tracking data D1 shown in FIG.
  • the robot controller 5 stores each work data S3a received from the visual sensor 3 in the database as tracking data D1, there is actually a portion overlapping each tracking data D1, as shown in FIG. That is, in the process of step S4 described above, the data management unit 15a of the robot controller 5 stores each tracking data D1 including the above-described overlapping portion in the storage unit 16.
  • Each workpiece 10 imaged by the visual sensor 3 on the upstream side of the conveyance of the belt conveyor 2 is conveyed to a position where the robot 4 is disposed in a predetermined time.
  • the robot controller 5 controls the operation of the robot 4 using a database stored in the storage unit 16, and performs a handling operation on the workpiece 10 conveyed to the position of the robot 4.
  • the handling operation of the robot 4 is performed in a workpiece detection area provided between the workpiece detection area start point 20b and the workpiece detection area end point 20c shown in FIG.
  • the tracking manager 15b of the robot controller 5 monitors data indicating the amount of movement of the belt conveyor 2 included in each tracking data D1, and detects the position of each workpiece 10 being conveyed. Specifically, the tracking manager 15b extracts data indicating the movement amount of each tracking data D1 stored in the database.
  • the tracking manager 15b recognizes which tracking data D1 corresponds to the tracking range S that is moving in the work detection area, using the extracted data indicating the movement amount.
  • the tracking manager 15b reads the recognized tracking data D1 from the storage unit 16 using the data management unit 15a.
  • the tracking data D1 sequentially read by the tracking manager 15b includes the duplicate work data S3a as described above.
  • the calculation unit 15 of the robot controller 5 appropriately performs a processing operation for detecting an overlapping portion from each tracking data D1 sequentially read from the database by the tracking manager 15b.
  • FIG. 6 is an explanatory diagram illustrating overlapping portions of tracking data processed by the arithmetic unit of the handling device according to the first embodiment.
  • the tracking data D1 sequentially read from the storage unit 16 by the calculation unit 15 is, for example, tracking data Trk [i-1] and subsequent tracking data Trk [i].
  • an overlapping portion d0 exists in the adjacent portion of the tracking data Trk [i-1] and the tracking data Trk [i] in FIG.
  • Two pieces of work data S3a exist in the overlapping portion d0, and these pieces of work data S3a correspond to the work 10a and the work 10b, respectively.
  • the tracking data Trk [i-1] includes the workpiece data S3a of the workpieces 10a, 10b, and 10c, and the tracking data Trk [i] includes the workpieces 10a, 10b, and 10d. Each work data S3a is included.
  • the calculation unit 15 performs processing for detecting the workpieces 10a and 10b existing in the overlapping portion d0 of the tracking data Trk [i] and the tracking data Trk [i-1].
  • the calculation unit 15 sequentially reads the tracking data Trk [i] and the tracking data Trk [i-1] from the database as described above. Moreover, the calculating part 15 calculates
  • FIG. 7 is a flowchart showing the operation of the arithmetic unit of the handling device according to the first embodiment.
  • the calculation unit 15 selects one piece of arbitrary work data S3a from the tracking data Trk [i] read from the database as described above, for example, the work data S3a of the lower left work 10a in FIG. S11).
  • one piece of arbitrary work data S3a for example, the lower right work 10a in FIG. 6 is selected from the tracking data Trk [i-1] read out from the database first (step S12). .
  • the calculation unit 15 calculates the distance between the workpieces indicated by the work data S3a (step S13).
  • the coordinate value of the work data S3a selected in the step S11 is (x2, y2)
  • the coordinate value of the work data S3a selected in the step S12 is (x1, y1).
  • the calculation unit 15 compares the distance ⁇ obtained by the calculation of the expression (1) with a preset overlap determination specified value ⁇ max to determine whether the distance ⁇ is equal to or less than the overlap determination specified value ⁇ max (Ste S14). When the calculation unit 15 determines in the step S14 that the distance ⁇ is equal to or smaller than the overlap determination specified value ⁇ max, the calculation unit 15 cancels the work on the workpiece by the work manager 15c (step S15).
  • the coordinate values (x2, y2) and coordinate values (x1, y1) handled here are values expressed using, for example, an absolute origin provided in the vicinity of the belt conveyor 2, and are input from the conveyor encoder 6. This is a coordinate value generated by the calculation unit 15 in consideration of the movement amount indicated by the output signal S6.
  • the coordinate value handled by the calculation unit 15 is, for example, a value in the world coordinate system used for the control of the robot 4, and the distance ⁇ between the workpieces obtained as described above is a relative value. By using the relative value, the calculation unit 15 can appropriately compare the distances ⁇ between the works even if the visual sensor 3 generates the work data S3a using any coordinate system. .
  • step S14 when the calculation unit 15 obtains a comparison result that the distance ⁇ is equal to or less than the overlap determination specified value ⁇ max, the calculation unit 15 determines as follows.
  • the workpiece 10a having the coordinate value (x2, y2) included in the tracking data Trk [i] and the workpiece 10a having the coordinate value (x1, y1) included in the tracking data Trk [i-1] are the same. It is determined that
  • the calculation unit 15 cancels the processing of the workpiece 10a corresponding to the workpiece data S3a having the coordinate value (x2, y2), that is, the workpiece data S3a corresponding to the workpiece 10a of the tracking data Trk [i]. To do. In other words, the calculation unit 15 controls the work manager 15c so that the work manager 15c does not perform processing corresponding to the work 10a of the tracking data Trk [i].
  • the calculation unit 15 determines that the distance ⁇ is larger than the overlap determination specified value ⁇ max in the step S14, the calculation unit 15 operates the work manager 15c so as to perform the work on the workpiece 10a of the tracking data Trk [i]. (Step S16).
  • the arithmetic unit 15 performs the following processing after processing the step S15 or the step S16. For example, with respect to the work 10a of the tracking data Trk [i], it is determined whether or not the work data S3a of all the works 10a to 10c included in the tracking data Trk [i-1] has been used for the above calculation. (Step S17).
  • step S17 When it is determined in the step S17 that all the work data S3a is not used for the calculation, the calculation unit 15 performs the following processing operation.
  • the next work data in the tracking data Trk [i-1] is selected (step S18), the process returns to step S13, and the subsequent processes are performed in the same manner as described above.
  • step S17 When it is determined in the step S17 that all the work data S3a has been used for the calculation, the calculation unit 15 determines whether or not all the work data of the tracking data Trk [i] has been used for the above-described calculation (step S19). ). When it is determined in the step S19 that all work data is not used in the calculation, the calculation unit 15 performs the following processing operation. The next work data in the tracking data Trk [i] is selected (step S20), the process returns to step S12, and the subsequent processes are performed in the same manner as described above.
  • the calculation unit 15 detects the work data that overlaps the tracking data [i-1] and the tracking data [i]. The processing operation is terminated.
  • the computing unit 15 performs the operation of detecting the overlapping work data described so far for each tracking data read out from the database sequentially.
  • the calculation unit 15 causes the work manager 15c to perform processing except for the work data that is detected to be duplicated in the process of step S6 in FIG.
  • the robot 4 since the calculation unit 15 of the robot controller 5 excludes the work data that is included in each tracking data read from the database, the robot 4 It is possible to suppress unnecessary operations. In addition, overlapping work data can be detected regardless of the coordinate system used when the visual sensor 3 generates the work data S3a.
  • the handling device according to the second embodiment of the present invention is configured in the same manner as the handling device 1 shown in FIGS.
  • the duplicate description of each part comprised similarly to the handling apparatus 1 demonstrated in 1st Embodiment is abbreviate
  • the same reference numerals are used for the same or corresponding parts as those described in the first embodiment.
  • FIG. 8 is a flowchart showing the operation of the handling device according to the second embodiment of the present invention.
  • the same reference numerals are used for steps that perform the same processing as the steps shown in FIG.
  • step S1 the camera 11 of the visual sensor 3 images the workpiece 10 placed on the belt conveyance surface 2a on the upstream side of conveyance of the belt conveyor 2 as described above.
  • step S ⁇ b> 2 the image processing unit 12 of the visual sensor 3 extracts a part of each work 10 from the image captured by the camera 11, and generates work data S ⁇ b> 3 a for each work 10.
  • step S3 the communication unit of the visual sensor 3 (not shown) transmits the work data S3a in correspondence with the trigger signal S3b indicating the imaging timing of the camera 11.
  • step S4 the robot controller 5 receives the work data S3a transmitted in the step S3, and the data management unit 15a stores the work data S3a. Store in unit 16. At this time, each work data S3a sent corresponding to one trigger signal S3b is stored together as one tracking data D1, and stored so that a database is constructed.
  • step S25 the tracking manager 15c of the robot controller 5 monitors the output signal of the conveyor encoder 6. Further, the data management unit 15a reads the tracking data D1 including the workpiece 10 moving in the workpiece detection area shown in FIG. 1 from the storage unit 16 according to the monitoring result of the tracking manager 15b. The work manager 15c performs an operation using each work data constituting the tracking data D1 read from the storage unit 16 by the data management unit 15a, and rearranges the order in which the robot 4 performs the handling work according to the operation result. .
  • step S26 the drive controller 17 of the robot controller 5 controls the operation of the robot 4 so as to hold the workpieces 10 according to the order rearranged in step S25.
  • the handling apparatus 1 according to the second embodiment generally operates in this way.
  • the visual sensor 3 captures an image in a certain imaging range, for example, an image in the tracking range S, from the imaging origin 20a at the upstream end of the belt conveying surface 2a or in the vicinity thereof on the upstream side of the conveyor belt 2. Specifically, the camera 11 in FIG. 2 images the tracking range S of the belt conveyance surface 2a at its own imaging timing (step S1).
  • the image processing unit 12 extracts the shape of the workpiece 10 included in the image in the tracking range S, and compares the shape with the shape data for each type stored in the image processing unit 12 itself. Identify 10 varieties. Further, the image processing unit 12 detects a coordinate value of an arbitrary part of the workpiece 10 from the image in the tracking range S, and generates workpiece data S3a of the workpiece 10 (step S2). This coordinate value is a value expressed in a coordinate system used in each process performed by the camera 11 or the visual sensor 3 itself. The visual sensor 3 may generate the work data S3a by including a coordinate value indicating the posture of the work.
  • the visual sensor 3 sequentially transmits the generated work data S3a to the robot controller 5 (step S3).
  • the data management unit 15a of the robot controller 5 collects each received work data S3a as tracking data and stores it in the database (step S4). This processing operation is performed as described with reference to FIG. 4 in the first embodiment.
  • the data management unit 15a collects these work data S3a into one and collects the tracking data D1. Is generated. Further, the data management unit 15a generates the tracking data D1 taking into account the data indicating the amount of movement of the belt conveyor 2 input from the conveyor encoder 6, and stores the tracking data D1 in the storage unit 16 to construct the database. .
  • the tracking data Trk [i] shown in FIG. 4 represents data obtained when, for example, ten workpieces 10 are detected from the tracking range S imaged by the visual sensor 3 at the [i] -th position. Wrk [0] to Wrk [9] are configured.
  • the data management unit 15a when generating the tracking data Trk [i], when the trigger signal S3b sent from the visual sensor 3 is received, the data management unit 15a corresponds to the trigger signal S3b. An area for storing the tracking data Trk [i] is secured in the storage unit 16. Further, the data management unit 15a stores the signal input from the conveyor encoder 6 here, that is, data indicating the movement amount of the belt conveyor 2 in the storage unit 16 as a component of the tracking data Trk [i]. Furthermore, the data management unit 15a stores / stores the work data Wrk [0] to [9] sequentially sent from the visual sensor 3 in the area of the tracking data Trk [i] secured in the storage unit 16 described above. To do.
  • FIG. 4 shows two workpieces 10 in the [i] -th tracking range S, and omits all the workpieces 10 placed in the [i] -th tracking range. ing. Further, the above [i ⁇ 1], [i], [i + 1] and the like indicating the order of imaging by the visual sensor 3 are tracking numbers appended to each tracking data D1.
  • the work data S3a that the visual sensor 3 sequentially transmits to the robot controller 5 is configured as work data Wrk [0] to [9] shown in FIG. 4, for example.
  • the work data Wrk [0] to [9] are X coordinate data, Y coordinate data of the coordinate system used by the visual sensor 3 in its own motion processing, and C coordinate data representing rotation on the XY plane.
  • the work data Wrk [0] to [9] is constituted by adding a plurality of additional data, for example, additional data (1) to (3).
  • the additional data (1) to (3) represent conditions and the like related to various operation processes, and are data indicating, for example, the types determined by the visual sensor 3 as described above. These additional data (1) to (3) are set in the visual sensor 3 as desired by the user.
  • Each workpiece 10 imaged by the visual sensor 3 on the upstream side of the conveyance of the belt conveyor 2 is conveyed to a position where the robot 4 is disposed in a predetermined time.
  • the robot controller 5 controls the operation of the robot 4 using a database stored in the storage unit 16, and performs a handling operation on the workpiece 10 conveyed to the position of the robot 4.
  • the handling operation of the robot 4 is performed in a workpiece detection area provided between the workpiece detection area start point 20b and the workpiece detection area end point 20c shown in FIG.
  • the tracking manager 15b of the robot controller 5 monitors data indicating the amount of movement included in each tracking data D1, and detects the position of each workpiece 10 being conveyed. Specifically, the tracking manager 15b extracts data indicating the movement amount of each tracking data D1 stored in the database. Furthermore, the tracking manager 15b recognizes which tracking data D1 corresponds to the tracking range S that is moving in the work detection area, using the data indicating the extracted movement amount. The tracking manager 15b reads the recognized tracking data D1 from the storage unit 16 using the data management unit 15a.
  • the work manager 15c inputs the tracking data D1 read from the storage unit 16, that is, the tracking data D1 recognized by the tracking manager 15b.
  • the work manager 15c selects what is to be processed from a plurality of work data included in the input tracking data D1. In other words, one to be held by the robot 4 is selected from a plurality of workpieces 10 that have reached the workpiece detection area.
  • FIG. 9 is an explanatory diagram showing the operation of the handling device according to the second embodiment.
  • This figure shows a state B in which the order of the workpiece data stored in the database is associated with each workpiece 10 placed on the belt conveyance surface 2a, and the order in which the robot 4 holds the belt and the belt conveyance surface 2a.
  • a state C is shown in which each workpiece 10 placed thereon is associated.
  • the state B is an example of the order in which the work data S3a transmitted from the visual sensor 3 is sequentially stored in the database, and is not limited to the order shown.
  • the work manager 15c rearranges the order in which the robot 4 holds each work 10 in the process of step S25 in FIG. Specifically, in one tracking range S, work data corresponding to each work 10 is rearranged so that the robot 4 sequentially holds the work 10 on the downstream side of the conveyance.
  • FIG. 10 is an explanatory diagram illustrating a calculation process performed by the robot controller of the handling device according to the second embodiment.
  • O shown in the figure is an arbitrary reference point.
  • the vector C ⁇ is a unit vector determined by, for example, a user, and indicates the same direction as the conveyor vector A representing the conveying operation of the belt conveyor 2.
  • the reference point O is set upstream of the tracking range S that is moving in the workpiece detection area, for example.
  • the reference point O illustrated in FIG. 10 is provided at the center portion in the width direction of the belt conveyance surface 2a.
  • the vector Pn from the reference point O to the workpiece 10 Becomes (Px-Ox, Py-Oy).
  • the mapping vector Pn C of the workpiece 10 is expressed as the following equation (2).
  • the scalar quantity of the mapping vector Pn C of the workpiece 10 can be obtained by the inner product of the vector P and the vector C ⁇ .
  • the work manager 15c of the calculation unit 15 obtains the scalar quantity of the mapping vector Pn C for all the work data included in one tracking data D1 in this way.
  • the robot 4 By representing the position of each workpiece 10 by the scalar quantity of the mapping vector Pn C , even if the coordinate system of the workpiece data S3a sent from the visual sensor 3 is not aligned with the conveying direction of the belt conveyor 2, the robot 4 It can be used to control the operation. Further, no matter how the coordinate origin of the image captured by the visual sensor 3 is arranged, it can be used for controlling the operation of the robot 4.
  • the scalar quantity of the mapping vector Pn C of each work data obtained as described above is represented by the following data string (6). Line up like
  • scalar quantity of the mapping vector Pn C a work 10 which is located in the transport downstream side becomes a large value.
  • the computing unit 15 rearranges each scalar quantity using, for example, a selective sorting method.
  • the work manager 15c of the calculation unit 15 compares the scalar quantities in the data string (6) and rearranges them in descending order.
  • the work manager 15c selects work data in order corresponding to each scalar quantity arranged in the data string (6).
  • Work Manager 15c is thus the work data sequentially with a scalar quantity of large mapping vector Pn C, it is selected as a work data used for controlling the operation of the robot 4.
  • step S26 in FIG. 8 the drive control unit 17 controls the operation of the robot 4 using the work data sequentially selected by the work manager 15c, for example, as shown in the state C in FIG. Handling work is performed in order from the workpiece 10 to be performed.
  • the work manager 15c rearranges the data string (6) according to the scalar quantity of the mapping vector Pn C , and processes each piece of work data corresponding to the rearranged data string (6).
  • the order in which the robot 4 holds the workpieces 10 can be changed.
  • the calculation unit 15 rearranges the order of the work data used for controlling the operation of the robot 4, it is conveyed to the belt conveyor 2 and the work detection area is Work can be efficiently performed on the moving workpiece 10.
  • the work order is rearranged and the work is performed from the work 10 located on the downstream side of the conveyance, it is possible to prevent the work 10 being conveyed from being missed. Further, useless operations of the robot 4 can be suppressed.
  • the handling device according to the third embodiment of the present invention is configured in the same manner as the handling device described in the first and second embodiments. A duplicate description of the same configuration as that of the apparatus described in the first and second embodiments is omitted.
  • the handling device according to the third embodiment operates in substantially the same manner as the device described in the second embodiment. Here, redundant description of the same operation as that of the device described in the second embodiment is omitted, and the operation that is characteristic of the handling device according to the third embodiment will be described.
  • FIG. 11 is an explanatory diagram showing the operation of the handling device according to the third embodiment of the present invention.
  • This figure shows a state B in which the order of the workpiece data stored in the database is associated with each workpiece 10 placed on the belt conveyance surface 2a, and the order in which the robot 4 holds the belt and the belt conveyance surface 2a.
  • a state D in which each workpiece 10 placed thereon is associated is shown.
  • said state B is an example of the order which stored the work data transmitted from the visual sensor 3 in a database sequentially like the state B shown in FIG. 9, and is not limited to the order shown in figure.
  • the work manager 15c of the handling device 1 rearranges the order in which the robot 4 holds the workpieces 10 as in the state D in the step S25 of FIG. 8 described in the second embodiment. .
  • work data corresponding to each work 10 is rearranged so that the robot 4 sequentially holds the work 10 on the downstream side of the conveyance.
  • the work 10 placed on the most downstream side of the conveyance is obtained by the calculation described in the second embodiment.
  • the workpiece 10 placed at the position closest to the workpiece 10 is detected by comparing the coordinate values of the workpiece data, for example. In this way, the workpieces 10 placed in the vicinity are sequentially detected, and the workpiece data are rearranged according to the detected order.
  • the work manager 15c rearranges the work data and sequentially outputs the work data to the drive control unit 17, whereby the robot 4 performs the work on each work 10 in the order shown in the state D of FIG.
  • the handling device 1 of the third embodiment described above since the calculation unit 15 of the robot controller 5 rearranges the order of the work data used for controlling the operation of the robot 4, it is conveyed by the belt conveyor 2. Thus, the work 10 moving in the work detection area can be efficiently operated. In addition, the work order is rearranged, the work is started from the work 10 located on the downstream side of the conveyance, and the work is sequentially performed on the work 10 in the vicinity. Can be suppressed. Further, useless operations of the robot 4 can be suppressed.
  • the handling device, the control device, and the control method according to the present invention are suitable for a manufacturing device or the like that performs predetermined processing by a robot or the like on each workpiece conveyed by a belt conveyor.

Abstract

 ワーク(10)を搬送するベルトコンベア(2)と、ワーク(10)に対して所定の作業を行うロボット(4)と、搬送されているワーク(10)を撮像し、該撮像した画像中の各ワーク(10)を示すワークデータを生成する視覚センサ(3)と、ワークデータを画像毎にまとめてトラッキングデータを生成し、該トラッキングデータをデータベースに蓄積させ、ロボット(4)の位置に搬送されたワーク(10)に所定の作業を行うように、データベースを用いてロボット(4)を制御するロボットコントローラ(5)とを有する。ロボットコントローラ(5)は、データベースから読み出したワークデータに所定の演算を行い、重複するワークデータを検出し、重複するワークデータに基づくロボット(4)の動作の制御をキャンセルする。また、ロボット(4)が各ワーク(10)に対して作業を行う順番を並べ替える。

Description

ハンドリング装置、制御装置、制御方法およびプログラム
 ベルトコンベアにより搬送されるワークを効率よく処理するハンドリング装置、制御装置、制御方法およびプログラムに関する。
 視覚センサをベルトコンベアの上流に配置して、当該ベルトコンベアによって搬送されている物品(以下、ワークと記載する)を検出し、当該視覚センサの出力データを用いて、ロボットがワークに行う動作を制御するハンドリング装置が知られている。例えば、特許文献1に示されたハンドリング装置は、視覚センサがベルトコンベアによって搬送されている各ワークを撮像し、各々のワークに対応させたデータを作成してロボットコントローラへ送信する。ロボットコントローラは、受信データのデータベースを作成し、ベルトコンベアの搬送によってロボットの作業位置へ到達したワークに対し、前述のデータベースから読み出したデータに基づく処理を行っている。
特開2007-15055号公報
 特許文献1に記載された装置は、視覚センサから送信されたデータを順次記憶してデータベースを構築し、データベースに格納されている内容に順応してロボットの動作の制御を行っている。
 そのため、視覚センサが連続して複数回の撮像を行ったとき、撮像した各画像に同一ワークが重複して写っている部分が含まれている。この重複部分のワークデータも、データベースに格納されていることからロボットに無駄な動作が生じる場合がある。
 また、ベルトコンベアによって搬送されている複数のワークを搬送下流側から順に処理するとは限らず、ロボットの動作が煩雑になって搬送下流に載置されているワークを処理することができなくなる場合がある。
 したがって、重複して検出された部分を識別し、ベルトコンベアによって搬送されている各ワークを効率のよい順番で処理することができることが望まれている。
 本発明のハンドリング装置は、ワークを搬送する搬送手段と、前記ワークに対して所定の作業を行うロボットと、前記搬送されているワークを撮像し、該撮像した画像中の各ワークを示すワークデータを生成する視覚センサと、前記ワークデータを前記画像毎にまとめてトラッキングデータを生成し、該トラッキングデータをデータベースに蓄積させ、前記ロボットの位置に搬送されたワークに前記所定の作業を行うように前記データベースを用いて前記ロボットを制御する制御手段と、を有し、前記制御手段は、前記データベースに蓄積されたトラッキングデータを演算処理して、前記搬送手段によって搬送されている前記各ワークの実際の状態を認識し、前記各ワークの実際の搬送状態に適応させて前記ロボットを稼働させる。
 また、本発明のハンドリング装置は、前記制御手段が、前記データベースに格納されている前記ワークデータを読み出して所定の演算を行い、複数のワークに対して前記ロボットが作業を行う順番を並べ替える。
 また、本発明のハンドリング装置は、前記制御手段が、前記搬送手段の搬送下流側のワークから作業を開始するように制御する。
 また、本発明のハンドリング装置は、前記制御手段が、前記視覚センサから送信されたワークデータを前記視覚センサが撮像した画像毎にまとめたトラッキングデータをデータベースとして記憶する記憶部と、前記トラッキングデータに含まれている各ワークデータから各ワークの写像ベクトルのスカラ量を求め、前記各ワークの写像ベクトルのスカラ量に基づいて前記ロボットが作業を行う順番を並べ替える演算部と、前記演算部によって並べ替えられた順番に応じて前記各ワークに作業を行うように前記ロボットを制御する駆動制御部と、を有する。
 また、本発明のハンドリング装置は、前記演算部が、任意の基準点から各々のワークまでのベクトルをベクトルPとし、前記任意の基準点から前記搬送手段の搬送方向を示す基準ベクトルをベクトルCνとしたとき、前記ベクトルPと前記ベクトルCνとの内積を求める演算により、前記各々のワークの写像ベクトルのスカラ量を求める。
 また、本発明のハンドリング装置は、前記制御手段が、前記データベースから前記トラッキングデータ毎に読み出したワークデータに所定の演算を行って重複するワークデータを検出し、前記重複するワークデータに基づく前記ロボットの動作の制御をキャンセルする。
 また、本発明のハンドリング装置は、前記制御手段が、前記画像毎に生成した各トラッキングデータをデータベースとして記憶する記憶部と、前記トラッキングデータに含まれている各ワークデータから各ワーク間の距離を求め、前記各ワーク間の距離に基づいて前記重複するワークデータであるか否かを判定する演算部と、前記演算部の判定結果に応じて前記各ワークに作業を行うように前記ロボットを制御する駆動制御部と、を有する。
 また、本発明のハンドリング装置は、前記演算部が、前記各ワークデータから求めたワーク間の距離が所定の値よりも小さいときには、該距離を有するワークに対応するワークデータは重複していないと判定する。
 本発明の制御装置は、記憶手段と、搬送手段によって搬送されている複数のワークを撮像する視覚センサから送信された、前記各ワークに各々対応する複数のワークデータを、前記視覚センサが撮像した画像毎にまとめてトラッキングデータを生成し、前記画像毎の各トラッキングデータを前記記憶手段へ記憶させ、前記記憶手段から、前記搬送手段の搬送動作に応じて前記各トラッキングデータを読み出し、当該各トラッキングデータに含まれている各ワークデータに所定の演算を行って、前記搬送手段によって搬送されている前記各ワークの実際の状態を認識する演算手段と、前記演算手段の演算結果に応じて前記各ワークの実際の搬送状態に適応させてロボットを稼働させ、前記各ワークに作業を行なわせる駆動制御手段と、を有する。
 また、本発明の制御装置は、前記演算手段が、前記各ワークデータに演算を行うことにより、前記複数のトラッキングデータに重複して含まれているワークデータを検出し、前記駆動制御手段が、前記演算手段によって検出された前記重複するワークデータをキャンセルして、重複していない各ワークデータに対応する各ワークに作業を行うように前記ロボットを制御する。
 また、本発明の制御装置は、前記演算手段が、前記各ワークデータに演算を行うことにより、前記搬送手段によって搬送されている前記各ワークデータに対応する各ワークに作業を行う順番を求め、前記駆動制御手段が、前記演算手段によって並べ替えられた順番に応じて前記各ワークに作業を行うように前記ロボットを制御する。
 本発明の制御方法は、搬送手段によって搬送されている複数のワークを視覚センサが撮像した画像毎に、前記各ワークに各々対応する複数のワークデータをまとめたトラッキングデータを生成する第1の工程と、前記画像毎の各トラッキングデータをデータベースに格納する第2の工程と、前記搬送手段の搬送動作に応じて前記データベースの各トラッキングデータに含まれている各ワークデータに所定の演算を行って、前記搬送手段によって搬送されている前記各ワークの実際の状態を認識する第3の工程と、前記各ワークの実際の搬送状態に適応させてロボットを稼働させ前記各ワークに作業を行なわせる第4の工程と、を有する。
 また、本発明の制御方法は、前記第3の工程では、前記演算により、前記複数のトラッキングデータに重複して含まれているワークデータを検出し、前記第4の工程では、前記検出された重複するワークデータをキャンセルして、重複していないワークデータに対応する各ワークに作業を行うように前記ロボットを制御する。
 また、本発明の制御方法は、前記第3の工程では、前記演算により、前記搬送手段によって搬送されている各ワークに作業を行う順番を並べ替え、前記第4の工程では、前記並べ替えられた順番に応じて前記各ワークに作業を行うように前記ロボットを制御する。
 本発明のプログラムは、搬送手段によって搬送されている複数のワークを撮像する視覚センサから、前記視覚センサが生成したワークデータを入力する第1の手順と、前記入力したワークデータを、前記視覚センサが撮像した画像毎にまとめてトラッキングデータを生成し、データベースへ格納する第2の手順と、前記搬送手段の搬送動作に応じて前記データベースから前記トラッキングデータを読み出し、前記読み出したトラッキングデータに含まれている各ワークデータに所定の演算を行って、前記搬送手段によって搬送されている前記各ワークの実際の状態を認識する第3の手順と、前記演算の結果に応じて前記各ワークの実際の搬送状態に適応させてロボットを稼働させ前記各ワークに作業を行なわせる第4の手順と、をコンピュータに実行させる。
 本発明のハンドリング装置によれば、ロボットの無駄な動作を抑制して搬送されるワークに効率よく作業を行うことができる。
 また、本発明の制御装置によれば、視覚センサから入力したワークデータを用いてロボットに作業を効率よく行なわせることができる。
 また、本発明の制御方法によれば、ロボットの無駄な動作を抑制して搬送されるワークに効率よく作業を行うことができる。
 また、本発明のプログラムによれば、ロボットの無駄な動作を抑制して搬送されるワークに効率よく作業を行うことができる。
本発明の第1の実施形態によるハンドリング装置の概略構成を示す説明図である。 第1の実施形態によるハンドリング装置を成す視覚センサ、ロボット、および、ロボットコントローラの構成を示すブロック図である。 第1の実施形態によるハンドリング装置の動作を示すフローチャートである。 第1の実施形態によるハンドリング装置の動作を示す説明図である。 第1の実施形態によるハンドリング装置の動作を示す説明図である。 第1の実施形態によるハンドリング装置の演算部が処理するトラッキングデータの重複部分を示す説明図である。 第1の実施形態によるハンドリング装置の演算部の動作を示すフローチャートである。 本発明の第2の実施形態によるハンドリング装置の動作を示すフローチャートである。 第2の実施形態によるハンドリング装置の動作を示す説明図である。 第2の実施形態によるハンドリング装置のロボットコントローラが行う演算処理を示す説明図である。 本発明の第3の実施形態によるハンドリング装置の動作を示す説明図である。
 以下、この発明の実施の一形態を説明する。
<第1の実施形態>
 図1は、本発明の第1の実施形態によるハンドリング装置の概略構成を示す説明図である。図示したハンドリング装置1は、ベルトコンベア2、視覚センサ3、ロボット4、ロボットコントローラ5、および、コンベアエンコーダ6によって構成されている。
 ベルトコンベア2は、例えば仕掛り物品などのワーク10を図中矢印で示したコンベアベクトルAの方向に搬送する搬送手段である。
 視覚センサ3は、ベルトコンベア2の搬送上流側の位置において、当該ベルトコンベア2のベルト搬送面2aに搭載された複数のワーク10を撮像するように配設されている。
 また、視覚センサ3は、出力データであるワークデータS3a、および、撮像タイミングを示すトリガ信号S3bを、後述するロボットコントローラ5へ出力するように、LANを介して接続されている。
 ロボット4は、ベルトコンベア2によって搬送されているワーク10を、例えば1個ずつ掴む保持部4a、および、保持部4aを所定の範囲内で移動可能に支持するアーム部4bを備えている。
 ロボットコントローラ5は、ロボット4の動作を制御するように接続された制御手段である。
 また、ロボットコントローラ5は、後述するコンベアエンコーダ6の出力信号S6、および、視覚センサ3から送信されたワークデータS3aならびにトリガ信号S3bを前述の通信線等を介して入力するように接続されている。
 コンベアエンコーダ6は、ベルトコンベア2の搬送距離を検出する、即ちベルト搬送面2aに載置されているワーク10の移動量を検出する移動量検出手段である。コンベアエンコーダ6の出力信号S6、即ち、コンベア移動用を示す出力信号S6は、ロボットコントローラ5へ出力される。
 なお、図1にはロボット4を1台、および、当該ロボット4を制御するロボットコントローラ5を1台備えた構成を例示しているが、複数のロボット4およびロボットコントローラ5を有するように構成してもよい。
 詳しくは、視覚センサ3から通信線へ送信されたワークデータS3a及びトリガ信号S3bを受信する、例えばルータを備える。このルータに複数のロボットコントローラ5を接続する。
 このように構成して、各ロボットコントローラ5が、自らの処理動作に用いるワークデータS3aならびにトリガ信号S3bを、上記のルータから入力して各々ロボット4を制御することも可能である。
 図2は、第1の実施形態によるハンドリング装置を成す視覚センサ、ロボット、および、ロボットコントローラの構成を示すブロック図である。
 視覚センサ3は、カメラ11および画像処理部12を備えている。カメラ11は、例えばCCDカメラ等からなる。
 カメラ11は、ワーク10が載置されているベルト搬送面2aを撮像するように配設され、例えば図1に示したトラッキング範囲Sが1回の撮像範囲となるように設けられている。
 画像処理部12は、カメラ11から出力された画像データを処理して、後述するワークデータS3aを生成するように構成されている。
 また、視覚センサ3は、カメラ11の撮像タイミングを示すトリガ信号S3b、および前述のワークデータS3aを通信線へ送信する、図示を省略した通信部等を備えている。
 ロボットコントローラ5は、入力部13、表示部14、演算部15、記憶部16、および、駆動制御部17を備えている。
 入力部13は、ユーザに設定操作等を行わせるように構成され、当該設定内容を演算部15へ入力するように接続されている。表示部14は、前述の操作/設定内容、またロボット4の動作状況等を表示するように、演算部15へ接続されている。
 演算部15は、データ管理部15a、トラッキングマネージャ15b、および、ワークマネージャ15cを備えている。
 データ管理部15aは、記憶部16に各データを記憶させる動作処理や、記憶部16からデータを読み出す動作を行うように構成されている。
 トラッキングマネージャ15bは、各トラッキングデータD1が示す位置、換言するとトラッキング範囲Sを監視するように構成されている。
 ワークマネージャ15cは、トラッキング範囲Sに存在する複数のワーク10の中からロボット4に作業を行わせるワーク10を選択するように構成されている。
 記憶部16は、演算部15の制御によってトラッキングデータD1を記憶し、複数のトラッキングデータD1を記憶することによってデータベースが構築されている。
 トラッキングデータD1は、視覚センサ3が1回の撮像で得た画像データから抽出されたワーク10の個数、抽出された各ワーク10のワークデータS3a、および、コンベアエンコーダ6の出力信号S6が示す移動量によって構成されている。
 駆動制御部17は、後述するロボット4の各部を駆動させる制御信号を生成し、当該ロボット4を稼働させるように接続構成されている。
 ロボット4は、保持部4aを駆動する保持用モータ18、保持部4aを支えているアーム部4bを駆動するアーム用モータ19を備えている。
 図3は、第1の実施形態によるハンドリング装置の動作を示すフローチャートである。
 視覚センサ3は、ベルトコンベア2の搬送上流側において、ベルト搬送面2aの上流端、もしくはその近傍の撮像原点20aから一定の撮像範囲の画像、例えばトラッキング範囲Sの画像を撮像する。
 詳しくは、図2のカメラ11が、自らの撮像タイミングでベルト搬送面2aのトラッキング範囲Sを撮像する(ステップS1)。
 画像処理部12は、トラッキング範囲Sの画像に含まれているワーク10の形状を抽出し、この形状を画像処理部12が自ら記憶している品種毎の形状データ等と比較して、当該ワーク10の品種を特定する。
 また、画像処理部12は、トラッキング範囲Sの画像の中からワーク10の任意の部分の座標値を検出し、当該ワーク10のワークデータS3aを生成する(ステップS2)。
 この座標値は、カメラ11もしくは視覚センサ3が自ら行う各処理において使用される座標系において表現された値である。なお、視覚センサ3は、ワークデータS3aにワークの姿勢を示す座標値を含めて生成してもよい。
 視覚センサ3は、前述のように、生成したワークデータS3aを順次ロボットコントローラ5へ送信する(ステップS3)。
 このとき、視覚センサ3は、1つのトリガ信号S3bに対応させて、1つの画像に含まれていた全てのワーク10のワークデータS3a、ならびにワークデータS3aの個数を示すデータを送信する。
 図4は、第1の実施形態によるハンドリング装置の動作を示す説明図である。この図は、ロボットコントローラ5のデータ管理部15aが、視覚センサ3から送られた各ワークデータS3aを記憶部16に格納する動作を表している。
 データ管理部15aは、前述の通信部等が視覚センサ3からトリガ信号S3b毎に送信された複数のワークデータS3aを受信すると、これらのワークデータS3aを一つにまとめてトラッキングデータD1を生成する。
 また、データ管理部15aは、図3のステップS4の工程において、コンベアエンコーダ6から入力した出力信号S6が示す、ベルトコンベア2の移動量を加味して、上記のトラッキングデータD1を生成し、これを記憶部16へ格納してデータベースを構築する。
 図4には、視覚センサ3が[i-1]番目に撮像した画像から生成されたトラッキングデータD1を、トラッキングデータTrk[i-1]として示している。
 また図4には、視覚センサ3が[i]番目に撮像した画像から生成されたトラッキングデータD1を、トラッキングデータTrk[i]として示している。
 また図4には、視覚センサ3が[i+1]番目に撮像した画像から生成されたトラッキングデータD1を、トラッキングデータTrk[i+1]として示している。
 図4に示したトラッキングデータTrk[i]は、視覚センサ3が[i]番目に撮像したトラッキング範囲Sから、例えば10個のワーク10を検出したときのものを表しており、ワークデータWrk[0]~Wrk[9]によって構成されている。
 データ管理部15aは、例えば、上記のトラッキングデータTrk[i]を生成するとき、視覚センサ3から[i]番目に送られたトリガ信号S3bが受信されると、このトリガ信号S3bに対応させたトラッキングデータTrk[i]を格納する領域を記憶部16に確保する。
 また、データ管理部15aは、ここでコンベアエンコーダ6から入力した出力信号S6、即ちベルトコンベア2の移動量を示すデータを、前述のトラッキングデータTrk[i]の構成要素として記憶部16に格納する。
 またさらに、データ管理部15aは、順次、視覚センサ3から送られてくるワークデータWrk[0]~[9]を、前述の記憶部16に確保したトラッキングデータTrk[i]の領域に記憶/格納する。
 なお、図4では分かり易くするため、[i]番目のトラッキング範囲Sに二つのワーク10を図示し、当該[i]番目のトラッキング範囲に載置されている全てのワーク10の図示を省略している。
 また、視覚センサ3が撮像した順番を示す上記の[i-1]、[i]、[i+1]等は、トラッキング番号として各トラッキングデータD1に付加される整数値である。
 視覚センサ3が順次ロボットコントローラ5へ送信しているワークデータS3aは、例えば図4に示したワークデータWrk[0]~[9]のように構成されている。
 ワークデータWrk[0]~[9]は、視覚センサ3が自らの動作処理において使用している座標系のX座標データ、Y座標データ、及びX-Y平面上における回転を表すC座標データを有する。
 また、ワークデータWrk[0]~[9]は、複数の付加データ、例えば付加データ(1)~(3)を加えて構成されている。
 付加データ(1)~(3)は、様々な動作処理に関連する条件等を表し、例えば、前述のように視覚センサ3が判別した品種などを示すデータである。この付加データ(1)~(3)は、ユーザの所望により視覚センサ3に設定される。
 視覚センサ3の画像処理部12は、前述のようにカメラ11が撮像した画像毎に処理を行っている。
 カメラ11が、ベルトコンベア2の搬送面2aを順次撮像するとき、例えば、各画像に重複する部分が生じないように、各画像の端部を揃えて撮像すると、1つの画像の端部に写り込んだワーク10は、全体形状が画像中に収まっていない場合がある。
 このようなとき、画像処理部12は、1つの画像に全体形状が写っていないワーク10を正確に認識することができず、ワークデータS3aを生成することができない、あるいは、異常なデータを生成する可能性がある。
 そのため、視覚センサ3は、ベルトコンベア2の搬送面2aを撮像するとき、各画像の端部が重複するように撮像して、ワーク10が部分的に欠落して写り込むことを抑制し、各ワーク10に対応するワークデータS3aを確実に生成するようにしている。
 図5は、第1の実施形態によるハンドリング装置の動作を示す説明図である。図5のトラッキングデータD1は、図4に示した各トラッキングデータD1と同様に、撮像順番を示すトラック番号を付けて図示している。
 ロボットコントローラ5が、視覚センサ3から受信した各ワークデータS3aをトラッキングデータD1としてデータベースに格納したとき、実際には、図5に示したように、各トラッキングデータD1に重複する部分が存在する。
 即ち、前述のステップS4の工程において、ロボットコントローラ5のデータ管理部15aは、前述の重複する部分を含んだ各トラッキングデータD1を記憶部16に格納している。
 ベルトコンベア2の搬送上流側において視覚センサ3に撮像された各ワーク10は、所定の時間を要してロボット4の配設されている位置へ搬送される。
 ロボットコントローラ5は、記憶部16に蓄積されているデータベースを用いてロボット4の動作を制御し、当該ロボット4の位置に搬送されたワーク10にハンドリング作業を行う。
 ロボット4のハンドリング作業は、図1に示したワーク検出エリア開始点20bとワーク検出エリア終了点20cとの間に設けられたワーク検出エリアにおいて行われる。
 ロボットコントローラ5のトラッキングマネージャ15bは、各トラッキングデータD1に含まれているベルトコンベア2の移動量を示すデータを監視し、搬送中の各ワーク10の位置を検知する。
 具体的には、トラッキングマネージャ15bは、データベースに格納されている各トラッキングデータD1の移動量を示すデータを抽出する。
 またさらに、トラッキングマネージャ15bは、上記の抽出した移動量を示すデータを用いて、ワーク検出エリア内を移動中のトラッキング範囲Sが、どのトラッキングデータD1に対応しているかを認識する。
 トラッキングマネージャ15bは、上記の認識したトラッキングデータD1を、データ管理部15aを用いて記憶部16から読み出す。
 トラッキングマネージャ15bが順次読み出したトラッキングデータD1には、前述のように重複したワークデータS3aが含まれている。
 ロボットコントローラ5の演算部15は、図3のステップS5の工程において、適宜、トラッキングマネージャ15bが順次データベースから読み出した各トラッキングデータD1から、重複部分を検出する処理動作を行う。
 図6は、第1の実施形態によるハンドリング装置の演算部が処理するトラッキングデータの重複部分を示す説明図である。
 図6において、演算部15が、記憶部16から順次読み出したトラッキングデータD1を、例えば、トラッキングデータTrk[i-1]、また、これに続くトラッキングデータTrk[i]とする。
 また、図6のトラッキングデータTrk[i-1]とトラッキングデータTrk[i]の隣接する部分には、重複部分d0が存在する。
 重複部分d0には、2つのワークデータS3aが存在し、これらのワークデータS3aはワーク10a、および、ワーク10bに各々対応している。
 図6に例示したトラッキングデータD1では、トラッキングデータTrk[i-1]にワーク10a,10b,10cの各ワークデータS3aが含まれ、また、トラッキングデータTrk[i]にワーク10a,10b,10dの各ワークデータS3aが含まれている。
 このとき、演算部15は、トラッキングデータTrk[i]と、トラッキングデータTrk[i-1]の重複部分d0に存在するワーク10a,10bを検出する処理を行う。
 図3のステップS5の工程において、演算部15は、前述のようにデータベースからトラッキングデータTrk[i]、および、トラッキングデータTrk[i-1]を順次読み出す。
 また、演算部15は、これらのトラッキングデータD1に含まれているワークデータS3aの各座標値を使用して、各ワーク間の相対的な距離を求める。
 具体的には、例えば、トラッキングデータTrk[i]のワーク10aと、トラッキングデータTrk[i-1]の各ワーク10a,10b,10cとの間の距離を求める。
 図7は、第1の実施形態によるハンドリング装置の演算部の動作を示すフローチャートである。
 演算部15は、前述のようにデータベースから読み出したトラッキングデータTrk[i]の中から、任意のワークデータS3aを1つ、例えば図6において左下側のワーク10aのワークデータS3aを選択する(ステップS11)。
 次に、データベースから先に読み出されているトラッキングデータTrk[i-1]の中から、任意のワークデータS3aを1つ、例えば図6において右下側のワーク10aを選択する(ステップS12)。
 演算部15は、ステップS11の工程で選択したワークデータS3aと、ステップS12の工程で選択したワークデータS3aを用いて、これらのワークデータS3aが示すワーク間の距離を演算によって求める(ステップS13)。
 例えば、ステップS11の工程で選択したワークデータS3aの座標値を(x2,y2)とし、ステップS12の工程で選択したワークデータS3aの座標値を(x1,y1)とする。
 これらのワークデータS3aに対応する各ワークの間の距離Δは、次の(1)式によって求めることができる。
Δ=((x2-x1)+(y2-y1)1/2 …(1)
 演算部15は、(1)式の演算によって求めた距離Δを、予め設定されている重複判定規定値Δmaxと比較し、距離Δが重複判定規定値Δmax以下であるか否かを判定する(ステップS14)。
 演算部15は、ステップS14の工程において、距離Δが重複判定規定値Δmax以下であると判定したときには、ワークマネージャ15cによるワークへの作業をキャンセルする(ステップS15)。
 なお、ここで取り扱う座標値(x2,y2)、座標値(x1,y1)は、例えば、ベルトコンベア2の近傍に設けられた絶対原点を用いて表された値であり、コンベアエンコーダ6から入力した出力信号S6が示す移動量を加味して、演算部15が生成した座標値である。
 演算部15が扱う座標値は、例えば、ロボット4の制御に用いるワールド座標系などの値で、前述のように求めた各ワーク間の距離Δは、相対値である。
 演算部15は、相対値を用いることにより、視覚センサ3が、いかなる座標系を用いてワークデータS3aを生成していても、各々のワーク間の距離Δを適切に比較することが可能になる。
 前述のステップS14の工程において、演算部15は、距離Δが重複判定規定値Δmax以下であるという比較結果を得たときには、次のように判定する。
 トラッキングデータTrk[i]に含まれている座標値(x2,y2)を有するワーク10aと、トラッキングデータTrk[i-1]に含まれている座標値(x1,y1)を有するワーク10aは同一である、と判定する。
 演算部15は、このように判定したとき、座標値が(x2,y2)のワークデータS3aに対応するワーク10a、即ちトラッキングデータTrk[i]のワーク10aに対応するワークデータS3aの処理をキャンセルする。
 換言すると、演算部15は、ワークマネージャ15cが、トラッキングデータTrk[i]のワーク10aに対応する処理を行わないように、当該ワークマネージャ15cを制御する。
 演算部15は、ステップS14の工程において、距離Δが重複判定規定値Δmaxよりも大きいと判定したときには、当該トラッキングデータTrk[i]のワーク10aへの作業を行うように、ワークマネージャ15cを動作させる(ステップS16)。
 演算部15は、ステップS15の工程、あるいはステップS16の工程を処理した後、次のような処理を行う。
 例えば、トラッキングデータTrk[i]のワーク10aに対して、トラッキングデータTrk[i-1]に含まれている、全てのワーク10a~10cのワークデータS3aを前述の演算に用いたか否かを判定する(ステップS17)。
 演算部15は、ステップS17の工程において、全てのワークデータS3aを演算に用いていないと判定したときには、次のような処理動作を行う。
 トラッキングデータTrk[i-1]の中の、次のワークデータを選択し(ステップS18)、ステップS13の工程に戻り、以降の各工程を前述の説明と同様に行う。
 演算部15は、ステップS17の工程において、全てのワークデータS3aを演算に用いたと判定したときには、トラッキングデータTrk[i]のワークデータを全て前述の演算に用いたか否かを判定する(ステップS19)。
 演算部15は、ステップS19の工程において、全てのワークデータを演算に用いていないと判定したときには、次のような処理動作を行う。
 トラッキングデータTrk[i]の中の、次のワークデータを選択し(ステップS20)、ステップS12の工程に戻り、以降の各工程を前述の説明と同様に行う。
 演算部15は、ステップS19の工程において、全てのワークデータを演算に使用したと判定したときには、当該トラッキングデータ[i-1]と、トラッキングデータ[i]に重複しているワークデータを検出する処理動作を終了する。
 演算部15は、ここまで説明した重複しているワークデータの検出動作を、順次データベースから読み出した各トラッキングデータについて行う。
 演算部15は、図3のステップS6の工程において、重複していることを検出したワークデータを除いてワークマネージャ15cに処理を行わせ、ロボット4に作業を行わせる。
 このように、演算部15が重複しているワークデータを除くことにより、ロボット4は作業を行ったワーク10に対して、再び作業を行うことがなくなり、ロボット4の無駄な動作が省略される。
 以上の第1の実施形態のハンドリング装置1によれば、ロボットコントローラ5の演算部15が、データベースから読み出した各トラッキングデータに重複して含まれているワークデータを除くようにしたので、ロボット4の無駄な動作を抑えることができる。
 また、視覚センサ3がワークデータS3aを生成するときに用いている座標系によらず、重複しているワークデータを検出することができる。
<第2の実施形態>
 本発明の第2の実施形態によるハンドリング装置は、図1および図2に示したハンドリング装置1と同様に構成されている。ここでは、第1の実施形態で説明したハンドリング装置1と同様に構成される各部の重複説明を省略する。また、以下の説明では、第1の実施形態で説明した各部と同一あるいは相当する部分に同じ符号を使用して説明する。
 図8は、本発明の第2の実施形態によるハンドリング装置の動作を示すフローチャートである。このフローチャートは、図3に示したステップと同様な処理を行うステップに同じ符号を使用している。
 ステップS1では、視覚センサ3のカメラ11が、前述のようにベルトコンベア2の搬送上流側において、ベルト搬送面2aに載置されているワーク10を撮像する。
 ステップS2では、視覚センサ3の画像処理部12がカメラ11によって撮像された画像から各ワーク10の部分を抽出して、当該各ワーク10のワークデータS3aを生成する。
 ステップS3では、前述の図示を省略した視覚センサ3の通信部が、カメラ11の撮像タイミングを示すトリガ信号S3bに対応させて上記のワークデータS3aを送信する。
 ステップS4では、ロボットコントローラ5が、詳しくは図示を省略したロボットコントローラ5の受信部が、ステップS3の工程において送信されたワークデータS3aを受信し、データ管理部15aが上記のワークデータS3aを記憶部16に記憶させる。
 このとき、一つのトリガ信号S3bに対応させて送られてきた各ワークデータS3aを、一つのトラッキングデータD1としてまとめて記憶し、データベースが構築されるように格納する。
 ステップS25では、ロボットコントローラ5のトラッキングマネージャ15cが、コンベアエンコーダ6の出力信号を監視する。
 また、データ管理部15aは、トラッキングマネージャ15bの監視結果に応じて、図1に示したワーク検出エリアを移動しているワーク10を含んでいるトラッキングデータD1を記憶部16から読み出す。
 ワークマネージャ15cは、データ管理部15aが記憶部16から読み出した前述のトラッキングデータD1を成す各ワークデータを用いて演算を行い、この演算結果に応じてロボット4がハンドリング作業を行う順番を並べ替える。
 ステップS26では、ロボットコントローラ5の駆動制御部17が、ステップS25において並べ替えた順番に応じて各ワーク10を保持するように、ロボット4の動作を制御する。
 第2の実施形態によるハンドリング装置1は、概ね、このように動作する。
 次に各部の詳細動作を説明する。
 視覚センサ3は、ベルトコンベア2の搬送上流側において、ベルト搬送面2aの上流端、もしくはその近傍の撮像原点20aから一定の撮像範囲の画像、例えばトラッキング範囲Sの画像を撮像する。
 詳しくは、図2のカメラ11が、自らの撮像タイミングでベルト搬送面2aのトラッキング範囲Sを撮像する(ステップS1)。
 画像処理部12は、トラッキング範囲Sの画像に含まれているワーク10の形状を抽出し、この形状を画像処理部12が自ら記憶している品種毎の形状データ等と比較して、当該ワーク10の品種を特定する。
 また、画像処理部12は、トラッキング範囲Sの画像の中からワーク10の任意の部分の座標値を検出し、当該ワーク10のワークデータS3aを生成する(ステップS2)。
 この座標値は、カメラ11もしくは視覚センサ3が自ら行う各処理において使用される座標系において表現された値である。
 なお、視覚センサ3は、ワークデータS3aにワークの姿勢を示す座標値を含めて生成してもよい。
 視覚センサ3は、前述のように、生成したワークデータS3aを順次ロボットコントローラ5へ送信する(ステップS3)。
 ロボットコントローラ5のデータ管理部15aは、受信した各ワークデータS3aをトラッキングデータにまとめてデータベースに格納する(ステップS4)。この処理動作は、第1の実施形態において図4を用いて説明したように行われる。
 データ管理部15aは、前述のように、通信部等が視覚センサ3からトリガ信号S3b毎に送信された複数のワークデータS3aを受信すると、これらのワークデータS3aを一つにまとめてトラッキングデータD1を生成する。
 また、データ管理部15aは、コンベアエンコーダ6から入力したベルトコンベア2の移動量を示すデータを加味して、上記のトラッキングデータD1を生成し、これを記憶部16へ格納してデータベースを構築する。
 なお、図4に示したトラッキングデータTrk[i]は、視覚センサ3が[i]番目に撮像したトラッキング範囲Sから、例えば10個のワーク10を検出したときのものを表しており、ワークデータWrk[0]~Wrk[9]によって構成されている。
 データ管理部15aは、例えば、上記のトラッキングデータTrk[i]を生成するとき、視覚センサ3から[i]番目に送られたトリガ信号S3bが受信されると、このトリガ信号S3bに対応させたトラッキングデータTrk[i]を格納する領域を記憶部16に確保する。
 また、データ管理部15aは、ここでコンベアエンコーダ6から入力した信号、即ちベルトコンベア2の移動量を示すデータを、前述のトラッキングデータTrk[i]の構成要素として記憶部16に格納する。
 またさらに、データ管理部15aは、順次視覚センサ3から送られてくるワークデータWrk[0]~[9]を、前述の記憶部16に確保したトラッキングデータTrk[i]の領域に記憶/格納する。
 なお、図4では分かり易くするため、[i]番目のトラッキング範囲Sに二つのワーク10を図示し、当該[i]番目のトラッキング範囲に載置されている全てのワーク10の図示を省略している。
 また、視覚センサ3が撮像した順番を示す上記の[i-1]、[i]、[i+1]等は、各トラッキングデータD1に付記されるトラッキング番号である。
 視覚センサ3が順次ロボットコントローラ5へ送信しているワークデータS3aは、例えば図4に示したワークデータWrk[0]~[9]のように構成されている。
 ワークデータWrk[0]~[9]は、視覚センサ3が自らの動作処理において使用している座標系のX座標データ、Y座標データ、及びX-Y平面上における回転を表すC座標データを有する。
 また、ワークデータWrk[0]~[9]は、複数の付加データ、例えば付加データ(1)~(3)を加えて構成されている。付加データ(1)~(3)は、様々な動作処理に関連する条件等を表し、例えば、前述のように視覚センサ3が判別した品種などを示すデータである。この付加データ(1)~(3)は、ユーザの所望により視覚センサ3に設定される。
 ベルトコンベア2の搬送上流側において視覚センサ3に撮像された各ワーク10は、所定の時間を要してロボット4の配設されている位置へ搬送される。
 ロボットコントローラ5は、記憶部16に蓄積されているデータベースを用いてロボット4の動作を制御し、当該ロボット4の位置に搬送されたワーク10にハンドリング作業を行う。
 ロボット4のハンドリング作業は、図1に示したワーク検出エリア開始点20bとワーク検出エリア終了点20cとの間に設けられたワーク検出エリアにおいて行われる。
 ロボットコントローラ5のトラッキングマネージャ15bは、各トラッキングデータD1に含まれている移動量を示すデータを監視し、搬送中の各ワーク10の位置を検知する。
 具体的には、トラッキングマネージャ15bは、データベースに格納されている各トラッキングデータD1の移動量を示すデータを抽出する。
 またさらにトラッキングマネージャ15bは、上記の抽出した移動量を示すデータを用いて、ワーク検出エリア内を移動中のトラッキング範囲Sが、どのトラッキングデータD1に対応しているかを認識する。
 トラッキングマネージャ15bは、上記の認識したトラッキングデータD1を、データ管理部15aを用いて記憶部16から読み出す。
 ワークマネージャ15cは、前述の記憶部16から読み出したトラッキングデータD1、即ち、トラッキングマネージャ15bが認識したトラッキングデータD1を入力する。
 ワークマネージャ15cは、入力したトラッキングデータD1に含まれている複数のワークデータの中から処理を行うものを選択する。
 換言すると、ワーク検出エリアに到達している複数のワーク10の中からロボット4に保持させるものを選択する。
 図9は、第2の実施形態によるハンドリング装置の動作を示す説明図である。
 この図は、データベースに格納されている各ワークデータの順番とベルト搬送面2aに載置されている各ワーク10を対応させた状態B、および、ロボット4に保持させる順番とベルト搬送面2aに載置されている各ワーク10とを対応させた状態Cを表している。
 なお、上記の状態Bは、視覚センサ3から送信されたワークデータS3aを順次データベースに格納した順番の一例であり、図示した順番に限定されない。
 ワークマネージャ15cは、図8のステップS25の工程において、ロボット4に各ワーク10を保持させる順番を状態Cのように並べ替える。
 具体的には、1つのトラッキング範囲Sにおいて、搬送下流側のワーク10から順番にロボット4が保持するように、各ワーク10に対応するワークデータの並べ替えを行う。
 図10は、第2の実施形態によるハンドリング装置のロボットコントローラが行う演算処理を示す説明図である。
 図示したOは、任意の基準点である。また、ベクトルCνは、例えばユーザ等によって定められた単位ベクトルであり、ベルトコンベア2の搬送動作を表すコンベアベクトルAと同一方向を示す。
 基準点Oは、例えばワーク検出エリアの中を移動しているトラッキング範囲Sよりも搬送上流側に設定される。図10に例示した基準点Oは、ベルト搬送面2aの幅方向の中央部分に設けられている。
 例えば、ベルト搬送面2aの面上において、ワーク10の位置Pの座標を(Px,Py)、基準点Oの座標を(Ox,Oy)としたとき、基準点Oからワーク10までのベクトルPnは(Px-Ox,Py-Oy)となる。
 ベクトルPnとベクトルCνの成す角度をθとしたとき、ワーク10の写像ベクトルPnは次の(2)式のように表される。
Figure JPOXMLDOC01-appb-M000001
 ここで、ベクトルPnとベクトルCνの内積は(3)式のように表される。
Figure JPOXMLDOC01-appb-M000002
 ベクトルCνは、前述のように単位ベクトルなのでスカラ量は“1”である。そのため、前述の内積は、次の(4)式のようになる。
Figure JPOXMLDOC01-appb-M000003
 前述の(2)式と(4)式から、写像ベクトルPnのスカラ量は、次の(5)式のように表される。
Figure JPOXMLDOC01-appb-M000004
 このように、ワーク10の写像ベクトルPnのスカラ量を、ベクトルPとベクトルCνとの内積によって求めることができる。
 演算部15の例えばワークマネージャ15cは、このようにして一つのトラッキングデータD1に含まれている全てのワークデータに対して写像ベクトルPnのスカラ量を求める。
 各ワーク10の位置を、写像ベクトルPnのスカラ量によって表すことにより、視覚センサ3から送られたワークデータS3aの座標系がベルトコンベア2の搬送方向に整合していない場合でも、ロボット4の動作の制御に用いることができる。
 また、視覚センサ3が撮像した画像の座標原点がどのように配置されていても、ロボット4の動作の制御に用いることが可能になる。
 例えば、一つのトラッキングデータD1に含まれているワークデータの数量を10個としたとき、前述のようにして求めた各ワークデータの写像ベクトルPnのスカラ量を、次のデータ列(6)のように並べる。
Figure JPOXMLDOC01-appb-M000005
 前述のように原点Oを搬送上流側に設定したときには、写像ベクトルPnのスカラ量は、搬送下流側に位置するワーク10が大きな値になる。
 演算部15は、例えば選択ソート法を用いて各スカラ量の並べ替えを行う。演算部15の例えばワークマネージャ15cは、データ列(6)の中の各スカラ量を比較し、値の大きな順に並べ替える。
 ワークマネージャ15cは、データ列(6)の中に並べられている各スカラ量に対応させて、順にワークデータを選択する。
 ワークマネージャ15cは、このように、大きな写像ベクトルPnのスカラ量を有するワークデータから順に、ロボット4の動作の制御に用いるワークデータとして選択する。
 図8のステップS26の工程において、駆動制御部17は、ワークマネージャ15cが順次選択したワークデータを用いてロボット4の動作を制御し、例えば図9の状態Cに示したように搬送下流に位置するワーク10から順番にハンドリング作業を行わせる。
 前述のように、ワークマネージャ15cが、写像ベクトルPnのスカラ量に応じてデータ列(6)の中を並べ替え、並べ替えたデータ列(6)に対応させて各ワークデータを処理する順番を変更することにより、ロボット4が各ワーク10を保持する順番を変更することができる。
 以上の第2の実施形態のハンドリング装置によれば、演算部15が、ロボット4の動作の制御に用いるワークデータの順番を並べ替えるようにしたので、ベルトコンベア2に搬送され、ワーク検出エリアを移動中のワーク10に効率よく作業を行うことができる。
 また、作業を行う順番を並べ替えて搬送下流側に位置するワーク10から作業を行うようにしたので、搬送中のワーク10に作業をし損ねることを抑制することができる。
 また、ロボット4の無駄な動作を抑えることができる。
<第3の実施形態>
 本発明の第3の実施形態によるハンドリング装置は、前述の第1および第2の実施形態で説明したハンドリング装置と同様に構成されている。第1および第2の実施形態で説明した装置と同様な構成について重複説明を省略する。
 また、第3の実施形態によるハンドリング装置は、第2の実施形態で説明した装置と概ね同様に動作する。ここでは、第2の実施形態で説明した装置と同様な動作について重複説明を省略し、第3の実施形態によるハンドリング装置の特徴となる動作を説明する。
 図11は、本発明の第3の実施形態によるハンドリング装置の動作を示す説明図である。
 この図は、データベースに格納されている各ワークデータの順番とベルト搬送面2aに載置されている各ワーク10を対応させた状態B、および、ロボット4に保持させる順番とベルト搬送面2aに載置されている各ワーク10とを対応させた状態Dを表している。
 なお、上記の状態Bは、図9に示した状態Bと同様に、視覚センサ3から送信されたワークデータを順次データベースに格納した順番の一例であり、図示した順番に限定されない。
 第3の実施形態によるハンドリング装置1のワークマネージャ15cは、第2の実施形態で説明した図8のステップS25の工程において、ロボット4に各ワーク10を保持させる順番を状態Dのように並べ替える。
 具体的には、1つのトラッキング範囲Sにおいて、搬送下流側のワーク10から順番にロボット4が保持するように、各ワーク10に対応するワークデータの並べ替えを行う。
 例えば、最も搬送下流側に載置されているワーク10を、前述の第2の実施形態で説明した演算によって求める。
 次に、このワーク10から最も近い位置に載置されているワーク10を、例えば各ワークデータの座標値を比較して検知する。このようにして、近傍に載置されているワーク10を順に検知し、検知した順番に応じてワークデータを並べ替える。
 上記のように、ワークマネージャ15cがワークデータを並べ替えて、順に駆動制御部17へ出力することにより、ロボット4は、図11の状態Dに示した順番で、各ワーク10に作業を行う。
 以上の第3の実施形態のハンドリング装置1によれば、ロボットコントローラ5の演算部15が、ロボット4の動作の制御に用いるワークデータの順番を並べ替えるようにしたので、ベルトコンベア2によって搬送されてワーク検出エリアを移動中のワーク10に効率よく作業を行うことができる。
 また、作業を行う順番を並べ替えて搬送下流側に位置するワーク10から作業を開始し、順次近傍のワーク10に作業を行うようにしたので、搬送中のワーク10に作業をし損ねることを抑制することができる。
 また、ロボット4の無駄な動作を抑えることができる。
 以上のように、本発明に係るハンドリング装置、制御装置および制御方法は、ベルトコンベアにより搬送される各ワークに対して、所定の処理をロボット等によって行う製造装置などに適している。
 1…ハンドリング装置、2…ベルトコンベア、3…視覚センサ、4…ロボット、4a…保持部、4b…アーム部、5…ロボットコントローラ、10,10a,10b,10c,10d…ワーク、11…カメラ、12…画像処理部、13…入力部、14…表示部、15…演算部、15a…データ管理部、15b…トラッキングマネージャ、15c…ワークマネージャ、16…記憶部、17…駆動制御部、18…保持用モータ、19…アーム用モータ。

Claims (15)

  1.  ワークを搬送する搬送手段と、
     前記ワークに対して所定の作業を行うロボットと、
     前記搬送されているワークを撮像し、該撮像した画像中の各ワークを示すワークデータを生成する視覚センサと、
     前記ワークデータを前記画像毎にまとめてトラッキングデータを生成し、該トラッキングデータをデータベースに蓄積させ、前記ロボットの位置に搬送されたワークに前記所定の作業を行うように前記データベースを用いて前記ロボットを制御する制御手段と、
     を有し、
     前記制御手段は、
      前記データベースに蓄積されたトラッキングデータを演算処理して、前記搬送手段によって搬送されている前記各ワークの実際の状態を認識し、前記各ワークの実際の搬送状態に適応させて前記ロボットを稼働させる、
     ハンドリング装置。
  2.  前記制御手段は、
      前記データベースに格納されている前記ワークデータを読み出して所定の演算を行い、複数のワークに対して前記ロボットが作業を行う順番を並べ替える、
     請求項1に記載のハンドリング装置。
  3.  前記制御手段は、
     前記搬送手段の搬送下流側のワークから作業を開始するように制御する、請求項2に記載のハンドリング装置。
  4.  前記制御手段は、
      前記視覚センサから送信されたワークデータを前記視覚センサが撮像した画像毎にまとめたトラッキングデータをデータベースとして記憶する記憶部と、
      前記トラッキングデータに含まれている各ワークデータから各ワークの写像ベクトルのスカラ量を求め、前記各ワークの写像ベクトルのスカラ量に基づいて前記ロボットが作業を行う順番を並べ替える演算部と、
      前記演算部によって並べ替えられた順番に応じて前記各ワークに作業を行うように前記ロボットを制御する駆動制御部と、
     を有する、
     請求項3に記載のハンドリング装置。
  5.  前記演算部は、
      任意の基準点から各々のワークまでのベクトルをベクトルPとし、
      前記任意の基準点から前記搬送手段の搬送方向を示す基準ベクトルをベクトルCνとしたとき、
      前記ベクトルPと前記ベクトルCνとの内積を求める演算により、前記各々のワークの写像ベクトルのスカラ量を求める、
     請求項4に記載のハンドリング装置。
  6.  前記制御手段は、
      前記データベースから前記トラッキングデータ毎に読み出したワークデータに所定の演算を行って重複するワークデータを検出し、前記重複するワークデータに基づく前記ロボットの動作の制御をキャンセルする、
     請求項1に記載のハンドリング装置。
  7.  前記制御手段は、
      前記画像毎に生成した各トラッキングデータをデータベースとして記憶する記憶部と、
      前記トラッキングデータに含まれている各ワークデータから各ワーク間の距離を求め、前記各ワーク間の距離に基づいて前記重複するワークデータであるか否かを判定する演算部と、
      前記演算部の判定結果に応じて前記各ワークに作業を行うように前記ロボットを制御する駆動制御部と、
     を有する、
     請求項6に記載のハンドリング装置。
  8.  前記演算部は、
     前記各ワークデータから求めたワーク間の距離が所定の値よりも小さいときには、該距離を有するワークに対応するワークデータは重複していないと判定する、
     請求項7に記載のハンドリング装置。
  9.  記憶手段と、
     搬送手段によって搬送されている複数のワークを撮像する視覚センサから送信された、前記各ワークに各々対応する複数のワークデータを、前記視覚センサが撮像した画像毎にまとめてトラッキングデータを生成し、前記画像毎の各トラッキングデータを前記記憶手段へ記憶させ、
     前記記憶手段から、前記搬送手段の搬送動作に応じて前記各トラッキングデータを読み出し、当該各トラッキングデータに含まれている各ワークデータに所定の演算を行って、前記搬送手段によって搬送されている前記各ワークの実際の状態を認識する演算手段と、
     前記演算手段の演算結果に応じて前記各ワークの実際の搬送状態に適応させてロボットを稼働させ、前記各ワークに作業を行なわせる駆動制御手段と、
     を有する、
     制御装置。
  10.  前記演算手段は、
      前記各ワークデータに演算を行うことにより、前記複数のトラッキングデータに重複して含まれているワークデータを検出し、
     前記駆動制御手段は、
      前記演算手段によって検出された前記重複するワークデータをキャンセルして、重複していない各ワークデータに対応する各ワークに作業を行うように前記ロボットを制御する、
     請求項9に記載の制御装置。
  11.  前記演算手段は、
      前記各ワークデータに演算を行うことにより、前記搬送手段によって搬送されている前記各ワークデータに対応する各ワークに作業を行う順番を求め、
     前記駆動制御手段は、前記演算手段によって並べ替えられた順番に応じて前記各ワークに作業を行うように前記ロボットを制御する、
     請求項9に記載の制御装置。
  12.  搬送手段によって搬送されている複数のワークを視覚センサが撮像した画像毎に、前記各ワークに各々対応する複数のワークデータをまとめたトラッキングデータを生成する第1の工程と、
     前記画像毎の各トラッキングデータをデータベースに格納する第2の工程と、
     前記搬送手段の搬送動作に応じて前記データベースの各トラッキングデータに含まれている各ワークデータに所定の演算を行って、前記搬送手段によって搬送されている前記各ワークの実際の状態を認識する第3の工程と、
     前記各ワークの実際の搬送状態に適応させてロボットを稼働させ前記各ワークに作業を行なわせる第4の工程と、
     を有する、
     制御方法。
  13.  前記第3の工程は、
      前記演算により、前記複数のトラッキングデータに重複して含まれているワークデータを検出し、
     前記第4の工程は、
      前記検出された重複するワークデータをキャンセルして、重複していないワークデータに対応する各ワークに作業を行うように前記ロボットを制御する、
     請求項12に記載の制御方法。
  14.  前記第3の工程は、
      前記演算により、前記搬送手段によって搬送されている各ワークに作業を行う順番を並べ替え、
     前記第4の工程は、
      前記並べ替えられた順番に応じて前記各ワークに作業を行うように前記ロボットを制御する、
     請求項12に記載の制御方法。
  15.  搬送手段によって搬送されている複数のワークを撮像する視覚センサから、前記視覚センサが生成したワークデータを入力する第1の手順と、
     前記入力したワークデータを、前記視覚センサが撮像した画像毎にまとめてトラッキングデータを生成し、データベースへ格納する第2の手順と、
     前記搬送手段の搬送動作に応じて前記データベースから前記トラッキングデータを読み出し、前記読み出したトラッキングデータに含まれている各ワークデータに所定の演算を行って、前記搬送手段によって搬送されている前記各ワークの実際の状態を認識する第3の手順と、
     前記演算の結果に応じて前記各ワークの実際の搬送状態に適応させてロボットを稼働させ前記各ワークに作業を行なわせる第4の手順と、
     をコンピュータに実行させる、
     プログラム。
PCT/JP2009/060172 2008-06-05 2009-06-03 ハンドリング装置、制御装置、制御方法およびプログラム WO2009148089A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
GB1019223.5A GB2471819B (en) 2008-06-05 2009-06-03 Handling system,control device,control method,and program
US12/995,960 US8805585B2 (en) 2008-06-05 2009-06-03 Handling apparatus, control device, control method, and program
DE112009001414T DE112009001414T5 (de) 2008-06-05 2009-06-03 Bearbeitungssystem, Steuerungseinrichtung, Steuerungsverfahren und Programm

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008-148468 2008-06-05
JP2008148468A JP5198155B2 (ja) 2008-06-05 2008-06-05 ハンドリング装置、ワークハンドリング方法および信号処理装置
JP2008158038A JP5198161B2 (ja) 2008-06-17 2008-06-17 ハンドリング装置およびワークハンドリング方法
JP2008-158038 2008-06-17

Publications (1)

Publication Number Publication Date
WO2009148089A1 true WO2009148089A1 (ja) 2009-12-10

Family

ID=41398162

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/060172 WO2009148089A1 (ja) 2008-06-05 2009-06-03 ハンドリング装置、制御装置、制御方法およびプログラム

Country Status (4)

Country Link
US (1) US8805585B2 (ja)
DE (1) DE112009001414T5 (ja)
GB (2) GB2492257B (ja)
WO (1) WO2009148089A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012124139A1 (ja) * 2011-03-15 2012-09-20 オムロン株式会社 画像処理装置および画像処理プログラム
US20140015957A1 (en) * 2011-03-15 2014-01-16 Omron Corporation Image processing device and image processing program
WO2014158900A1 (en) 2013-03-14 2014-10-02 Indiana University Research And Technology Corporation Insulin-incretin conjugates
WO2016049190A1 (en) 2014-09-24 2016-03-31 Indiana University Research And Technology Corporation Incretin-insulin conjugates
WO2018213151A1 (en) 2017-05-18 2018-11-22 Merck Sharp & Dohme Corp. Pharmaceutical formulation comprising incretin-insulin conjugates
CN109911549A (zh) * 2019-01-25 2019-06-21 东华大学 一种易损物品的机器人动态跟踪抓取系统及方法
CN111805533A (zh) * 2020-05-27 2020-10-23 扬州哈工科创机器人研究院有限公司 用于工件下料的装置、基于视觉定位的工件下料的方法

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5803155B2 (ja) * 2011-03-04 2015-11-04 セイコーエプソン株式会社 ロボット位置検出装置及びロボットシステム
JP2012187651A (ja) * 2011-03-09 2012-10-04 Omron Corp 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置
JP5464176B2 (ja) * 2011-06-20 2014-04-09 株式会社安川電機 ピッキングシステム
JP5830644B2 (ja) * 2011-12-06 2015-12-09 パナソニックIpマネジメント株式会社 下受けピン配置判定装置および下受けピン配置判定方法
US8989904B2 (en) * 2012-02-27 2015-03-24 Fanuc Robotics America Corporation Robotic process logger
US20130293388A1 (en) * 2012-04-10 2013-11-07 Daryl Ingalsbe Cellular tank monitoring technology
ITCN20120009A1 (it) * 2012-09-07 2014-03-08 Elcat S R L Modulo di rotazione variabile da 0° a 360° di generi alimentari da nastri trasportatori
JP2014055037A (ja) * 2012-09-11 2014-03-27 International Business Maschines Corporation 積載操作方法、システム及びコンピュータ・プログラム。
DE102014114272B4 (de) 2013-10-04 2019-03-07 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Steuern einer durch Bilderfassung gelenkten Roboteranordnung
US9586320B2 (en) * 2013-10-04 2017-03-07 GM Global Technology Operations LLC System and method for controlling a vision guided robot assembly
WO2017033353A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 遠隔操作ロボットシステム
JP5892531B1 (ja) * 2015-11-16 2016-03-23 プレンプロジェクト・ホールディングス有限会社 リンク列マッピング装置、リンク列マッピング方法、及びプログラム
CN105775726B (zh) * 2016-04-13 2017-12-22 英华达(南京)科技有限公司 拾取和放置装置及其应用方法
JP6527108B2 (ja) * 2016-05-19 2019-06-05 ファナック株式会社 物品搬送装置
CN109257929B (zh) * 2016-05-20 2022-04-26 Abb瑞士股份有限公司 改进的工业物体处置机器人
US9440799B1 (en) * 2016-06-01 2016-09-13 Finetek Co., Ltd. Conveying apparatus
JP6737018B2 (ja) * 2016-07-08 2020-08-05 オムロン株式会社 光学計測装置
JP6692247B2 (ja) * 2016-08-04 2020-05-13 株式会社東芝 物品保持装置および物品保持方法
JP2018024044A (ja) * 2016-08-09 2018-02-15 オムロン株式会社 情報処理システム、情報処理装置、ワークの位置特定方法、およびワークの位置特定プログラム
JP6514171B2 (ja) * 2016-09-27 2019-05-15 ファナック株式会社 最適な物品把持経路を学習する機械学習装置、及び機械学習方法
JP6553568B2 (ja) * 2016-09-28 2019-07-31 ファナック株式会社 複数個の物品をひとつずつ最適な経路で取り出す搬送装置
JP6450727B2 (ja) 2016-10-28 2019-01-09 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体
JP7047249B2 (ja) * 2017-01-10 2022-04-05 オムロン株式会社 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム
KR101920395B1 (ko) * 2017-01-23 2018-11-20 주식회사 가치소프트 자동 물품 싱귤레이터 및 그 방법
JP6490132B2 (ja) 2017-03-31 2019-03-27 ファナック株式会社 ロボットの制御装置、機械学習装置及び機械学習方法
JP6610609B2 (ja) * 2017-04-27 2019-11-27 トヨタ自動車株式会社 音声対話ロボットおよび音声対話システム
JP6478234B2 (ja) 2017-06-26 2019-03-06 ファナック株式会社 ロボットシステム
JP6549655B2 (ja) * 2017-08-03 2019-07-24 ファナック株式会社 物品搬送装置
CN107572243A (zh) * 2017-09-14 2018-01-12 上海发那科机器人有限公司 一种自动下料系统
KR102600893B1 (ko) * 2018-04-13 2023-11-10 삼성디스플레이 주식회사 패널 이송 장치 및 패널 이송 방법
JP6763914B2 (ja) 2018-06-08 2020-09-30 ファナック株式会社 ロボットシステムおよびロボットシステムの制御方法
JP6918756B2 (ja) 2018-08-31 2021-08-11 ファナック株式会社 検出システム
JP7022036B2 (ja) 2018-08-31 2022-02-17 ファナック株式会社 物品取出システム
DE102020113278A1 (de) 2020-05-15 2021-11-18 Gerhard Schubert Gesellschaft mit beschränkter Haftung Verfahren zur Steuerung des Betriebs eines Industrieroboters
CN116773546B (zh) * 2023-06-20 2024-03-22 上海感图网络科技有限公司 一种镀铜板叠料缺陷检测方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0748018A (ja) * 1993-08-03 1995-02-21 Omori Mach Co Ltd 物品移載装置用物品検出装置
JP2005111607A (ja) * 2003-10-07 2005-04-28 Fanuc Ltd ロボット物流トラッキング装置
JP2007015055A (ja) * 2005-07-07 2007-01-25 Toshiba Mach Co Ltd ハンドリング装置、作業装置及びプログラム
JP2009028818A (ja) * 2007-07-25 2009-02-12 Panasonic Electric Works Co Ltd ロボットシステム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5040056A (en) 1990-01-29 1991-08-13 Technistar Corporation Automated system for locating and transferring objects on a conveyor belt
US5207331A (en) 1991-08-28 1993-05-04 Westinghouse Electric Corp. Automatic system and method for sorting and stacking reusable cartons
JP3172287B2 (ja) * 1992-11-09 2001-06-04 マツダ株式会社 塗膜欠陥検出装置
US6035243A (en) * 1993-10-22 2000-03-07 Xerox Corporation System for handling defects produced during the automated assembly of palletized elements
JPH0957670A (ja) 1995-08-23 1997-03-04 Fujitsu Ltd ロボット軌道制御装置及び耐久性試験装置
JPH0972717A (ja) 1995-09-04 1997-03-18 Fanuc Ltd 画像の取得・処理方法
JP3629133B2 (ja) 1997-01-31 2005-03-16 本田技研工業株式会社 脚式移動ロボットの制御装置
DE19854011A1 (de) * 1998-11-12 2000-05-25 Knoll Alois Einrichtung und Verfahren zum Vermessen von Mechanismen und ihrer Stellung
JP2000219317A (ja) 1999-01-29 2000-08-08 Hitachi Zosen Corp 荷役仕分け装置
DE20216636U1 (de) * 2002-10-28 2004-03-11 Kuka Schweissanlagen Gmbh Bearbeitungsanlage
SE0301910L (sv) * 2003-06-26 2004-12-27 Abb Ab Datorstyrd arbetsplats med robotar
WO2007035943A2 (en) 2005-09-23 2007-03-29 Braintech Canada, Inc. System and method of visual tracking
US8315736B2 (en) * 2008-04-25 2012-11-20 Fanuc Robotics America, Inc. Method and apparatus for picking/packing applications
US8473100B2 (en) * 2008-04-25 2013-06-25 Fanuc Robotics America, Inc. System and method for dynamically switching conveyors for robots
JP4621789B2 (ja) * 2009-06-02 2011-01-26 ファナック株式会社 物品搬送ロボットシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0748018A (ja) * 1993-08-03 1995-02-21 Omori Mach Co Ltd 物品移載装置用物品検出装置
JP2005111607A (ja) * 2003-10-07 2005-04-28 Fanuc Ltd ロボット物流トラッキング装置
JP2007015055A (ja) * 2005-07-07 2007-01-25 Toshiba Mach Co Ltd ハンドリング装置、作業装置及びプログラム
JP2009028818A (ja) * 2007-07-25 2009-02-12 Panasonic Electric Works Co Ltd ロボットシステム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9998683B2 (en) 2011-03-15 2018-06-12 Omron Corporation Image processing device and image processing program
JP2012194641A (ja) * 2011-03-15 2012-10-11 Omron Corp 画像処理装置および画像処理プログラム
CN103339466A (zh) * 2011-03-15 2013-10-02 欧姆龙株式会社 图像处理装置及图像处理程序
US20140015957A1 (en) * 2011-03-15 2014-01-16 Omron Corporation Image processing device and image processing program
US20140015956A1 (en) * 2011-03-15 2014-01-16 Omron Corporation Image processing device and image processing program
WO2012124139A1 (ja) * 2011-03-15 2012-09-20 オムロン株式会社 画像処理装置および画像処理プログラム
WO2014158900A1 (en) 2013-03-14 2014-10-02 Indiana University Research And Technology Corporation Insulin-incretin conjugates
WO2016049190A1 (en) 2014-09-24 2016-03-31 Indiana University Research And Technology Corporation Incretin-insulin conjugates
WO2018213151A1 (en) 2017-05-18 2018-11-22 Merck Sharp & Dohme Corp. Pharmaceutical formulation comprising incretin-insulin conjugates
US11590237B2 (en) 2017-05-18 2023-02-28 Merck Sharp & Dohme Llc Pharmaceutical formulation comprising incretin-insulin conjugates
CN109911549A (zh) * 2019-01-25 2019-06-21 东华大学 一种易损物品的机器人动态跟踪抓取系统及方法
CN111805533A (zh) * 2020-05-27 2020-10-23 扬州哈工科创机器人研究院有限公司 用于工件下料的装置、基于视觉定位的工件下料的方法
CN111805533B (zh) * 2020-05-27 2022-05-03 扬州哈工科创机器人研究院有限公司 用于工件下料的装置、基于视觉定位的工件下料的方法

Also Published As

Publication number Publication date
GB2492257B (en) 2013-02-13
US8805585B2 (en) 2014-08-12
GB2471819B (en) 2012-11-28
DE112009001414T5 (de) 2011-04-21
GB2471819A (en) 2011-01-12
GB201019223D0 (en) 2010-12-29
GB2492257A (en) 2012-12-26
GB201213595D0 (en) 2012-09-12
US20110082586A1 (en) 2011-04-07

Similar Documents

Publication Publication Date Title
WO2009148089A1 (ja) ハンドリング装置、制御装置、制御方法およびプログラム
JP5198155B2 (ja) ハンドリング装置、ワークハンドリング方法および信号処理装置
US9604365B2 (en) Device and method of transferring articles by using robot
US11084168B2 (en) Article stacking apparatus and machine learning apparatus
JP6687591B2 (ja) 物品搬送装置、ロボットシステムおよび物品搬送方法
JP4174342B2 (ja) ワーク搬送装置
JP5930037B2 (ja) ロボットシステムおよび物品移送方法
JP6496333B2 (ja) 少なくとも1つのセンサを用いた物品搬送装置
US20070179671A1 (en) Tracking and handling device
WO2014013609A1 (ja) ロボットシステムおよび物品移送方法
JP2006035397A (ja) 搬送ロボットシステム
KR20130085438A (ko) 화상 처리 장치 및 화상 처리 시스템
JP2008087074A (ja) ワーク取り出し装置
JP5198161B2 (ja) ハンドリング装置およびワークハンドリング方法
JP6549655B2 (ja) 物品搬送装置
JP2016147330A (ja) 物体認識に基づく制御装置
JP2005262369A (ja) ロボットシステム
JP5446887B2 (ja) 制御装置、ロボット、ロボットシステム及びロボットの追従方法
JP7436170B2 (ja) ロボットシステム
WO2021065880A1 (ja) ロボット制御システム、ロボット制御方法およびプログラム
JP2007033328A (ja) 画像処理方法および該画像処理方法を用いたピッキング動作補正方法
JP7213010B2 (ja) ロボットシステム及び搬送されているワークに対して作業を行う方法
JP2011140085A (ja) 制御装置、ロボット、ロボットシステム及びロボットの追従制御方法
JP7328017B2 (ja) ロボットシステム及び制御装置
JP2024002367A (ja) 運搬システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09758356

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 1019223

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20090603

WWE Wipo information: entry into national phase

Ref document number: 1019223.5

Country of ref document: GB

WWE Wipo information: entry into national phase

Ref document number: 12995960

Country of ref document: US

RET De translation (de og part 6b)

Ref document number: 112009001414

Country of ref document: DE

Date of ref document: 20110421

Kind code of ref document: P

122 Ep: pct application non-entry in european phase

Ref document number: 09758356

Country of ref document: EP

Kind code of ref document: A1