WO2010034044A2 - Method and system for receiving and/or processing objects - Google Patents

Method and system for receiving and/or processing objects Download PDF

Info

Publication number
WO2010034044A2
WO2010034044A2 PCT/AT2009/000360 AT2009000360W WO2010034044A2 WO 2010034044 A2 WO2010034044 A2 WO 2010034044A2 AT 2009000360 W AT2009000360 W AT 2009000360W WO 2010034044 A2 WO2010034044 A2 WO 2010034044A2
Authority
WO
WIPO (PCT)
Prior art keywords
objects
recognition
image acquisition
image
handling device
Prior art date
Application number
PCT/AT2009/000360
Other languages
German (de)
French (fr)
Other versions
WO2010034044A3 (en
Inventor
Roland Heiml
Original Assignee
Stiwa Holding Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=41449940&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2010034044(A2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Stiwa Holding Gmbh filed Critical Stiwa Holding Gmbh
Publication of WO2010034044A2 publication Critical patent/WO2010034044A2/en
Publication of WO2010034044A3 publication Critical patent/WO2010034044A3/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/905Control arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/91Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers
    • B65G47/917Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers control arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/02Devices for feeding articles or materials to conveyors
    • B65G47/04Devices for feeding articles or materials to conveyors for feeding articles
    • B65G47/12Devices for feeding articles or materials to conveyors for feeding articles from disorderly-arranged article piles or from loose assemblages of articles
    • B65G47/14Devices for feeding articles or materials to conveyors for feeding articles from disorderly-arranged article piles or from loose assemblages of articles arranging or orientating the articles by mechanical or pneumatic means during feeding
    • B65G47/1407Devices for feeding articles or materials to conveyors for feeding articles from disorderly-arranged article piles or from loose assemblages of articles arranging or orientating the articles by mechanical or pneumatic means during feeding the articles being fed from a container, e.g. a bowl
    • B65G47/1442Devices for feeding articles or materials to conveyors for feeding articles from disorderly-arranged article piles or from loose assemblages of articles arranging or orientating the articles by mechanical or pneumatic means during feeding the articles being fed from a container, e.g. a bowl by means of movement of the bottom or a part of the wall of the container
    • B65G47/1471Movement in one direction, substantially outwards
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39106Conveyor, pick up article, object from conveyor, bring to test unit, place it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40554Object recognition to track object on conveyor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Definitions

  • the invention relates to a method for the sequential recording and / or processing of individual objects from a moving object conveyed by a conveyor device according to the preamble of claims 1, 13 and 21, further comprising a system for feeding and handling and / or processing of objects according to the preamble of Claim 25.
  • the basic sequence comprises the optical detection of a scene in the sphere of influence of the handling device, subsequent image processing, in particular object recognition with an analysis of the scene and an action based on the result of the analysis Non-action of the handling device.
  • An important field of application of the method according to the invention or of the system according to the invention consists in gripping moving objects and subsequent feeding to a specific processing point or transfer point within a production, transport or packaging installation.
  • partial processes for separating, sorting, orienting, aligning, checking, etc. may be required before the actual feed operation.
  • mechanically acting devices are still often used for these subtasks of the feeding technique, but they usually have to be specially adapted to the type and properties of the objects, which is why such solutions are only slightly flexible and always involve a modification of the objects to be manipulated a great deal of effort for setting up, rebuilding, test runs and so on.
  • CAD-based or represented by CAD data object models the object recognition system or the image processing system can be taught virtually at the touch of a button.
  • the image information supplied to the system is then compared with the object models, and based on this comparison information or statements about the real existing objects are derived, which are used to control and regulate the handling or processing operations.
  • DE 103 51 669 A1 discloses, for example, a method for controlling a handling device, such as a multi-axis industrial robot, wherein first an expected image of an object in a workspace of the handling device is compared with a real image of the object, then a positional deviation of the handling device is determined and then movements are performed to minimize the positional deviation.
  • This method uses an apparatus for controlling a manipulator such as a multi-axis industrial robot, comprising imaging means for providing a real image of an object in response to a real position of the manipulator, determining means for determining an expected image of the object in response to a predetermined position of the manipulator Handling device and a comparison device for the real and the expected image for determining a positional deviation of the handling device, wherein an output signal of the comparison device for minimizing the position deviation is available.
  • imaging means for providing a real image of an object in response to a real position of the manipulator
  • determining means for determining an expected image of the object in response to a predetermined position of the manipulator Handling device
  • a comparison device for the real and the expected image for determining a positional deviation of the handling device, wherein an output signal of the comparison device for minimizing the position deviation is available.
  • an imaging device in the form of a camera is aimed at objects moving by means of a conveyor belt and thereby generates image information which is fed to a determination device.
  • the expected image of an object is generated, for example, from CAD data of an object, whereby a comparison possibility is given without the need to take real images of an object.
  • the imaging device in the form of a camera can be arranged both on the handling device, such as at the end of the kinematic chain of the robot or even independently of the handling device about above the conveyor belt.
  • the method disclosed in the DE-Al makes it possible to accelerate the robot programming and forms a possibility of automatic position adjustment of a handling device. On questions of increasing the performance of such a system, ie the number of units per unit time - A - editable or manageable objects, this document offers no concrete approaches or suggestions.
  • WO 2007/046763 A1 Another system based on the linking of a robot with an image processing system is known from WO 2007/046763 A1.
  • the area in which the objects to be recorded are located is smeared and measured with a line laser scanner, and the converted surface points of the object set are then converted into a virtual three-dimensional surface.
  • This three-dimensional surface is filled with virtual objects that through
  • CAD data can be represented, whereby the individual objects can be identified and their spatial position and orientation can be determined. Before picking up individual objects, it is checked whether the robot or the handling device can pick up the selected objects without collisions, whereby collisions with the virtual surface of the object set as well as collisions with the container or the conveyor are taken into consideration.
  • the scanner For detecting the surface of the line laser scanner is preferably moved in a linear movement over the container the conveyor; Alternatively, the scanner can also be arranged on the robot arm and the relative movement between the scanner and the amount of object can be effected by the robot arm. By comparing the virtual image of the real object set surface with the virtual objects, the method can also be used to detect faulty objects. While WO-A1 discloses picking up objects from a conveyor belt, it does not disclose a method of picking up objects from a moving conveyor belt.
  • the object of the invention is to provide a method for the sequential recording or processing of individual objects by means of a handling device which allows, in particular continuously, to identify and record moving objects and in which the achievable performance when handling or editing objects is high in relation to the hardware requirements for such a system.
  • the object of the invention is achieved by a method having the characterizing features of patent claim 1.
  • an image information stream continuously generated by the image acquisition method into object quantity information, in particular object point coordinates and movement information, comprehensive recognition sections of the object set and identifying and selecting the objects that can be recorded or processed by the handling device by the object recognition system for individual recognition sections, a virtual image of the continuously recorded real object quantity surface portioned into subsets so to speak, which can be processed with the known from the prior art methods for image processing or object recognition and relatively low demands on the hardware performance of the system. Since the image information stream can be subdivided into recognition sections in a variety of ways, the method can be adapted to a wide variety of requirements or applications.
  • the image data continuously generated by the image capture system are buffered in a storage device and are, preferably without data loss, for the purpose of
  • Image data preparation subdivision into recognition sections and subsequent object recognition from the storage device readable.
  • the memory device can, in particular similar to what is known as a ring buffer, provide a limited number of memory registers for the individual recorded image data, wherein the memory capacity is limited by the memory size or the number of memory modules contained in the memory device to the optical resolution of the image acquisition system, the temporal resolution and the computing speed of the Image data processing is adapted so that the storage limit can only cause loss of data of the object quantity which originate from objects which are already outside the spatial and / or temporal range of the handling device, ie objects which are in any case in the course of the movement of the object quantity can no longer be reached by the handling device.
  • the storage device is further arranged such that the writing of image data by the image acquisition system and the reading and possibly deleting of image data for the object recognition system results in no data loss or a disturbance of the data integrity. For this purpose read and write processes take place atomically.
  • the division of the image information stream into detection sections takes place in such a way that a defined amount of image data memory content and thus also a specific section of the real, moving object surface surface can be assigned to each recognition section. From the acquired image data or data packets, points of the object quantity surface associated with space coordinates and path information are calculated, and contiguous points of the object quantity surface form a recognition section. The division into recognition sections with the image data contained therein or the points already calculated therefrom thus also corresponds to a division into object quantity surface sections.
  • the division of the detection sections is carried out in the object recognition system, which may be understood as a higher-level system, which also includes the image acquisition system with the camera or can be understood as a system arranged downstream of the image acquisition system via an interface. Since the image acquisition system and the object recognition system are directly linked, a rigid demarcation between these two systems is not required within the scope of the invention.
  • the object recognition system in turn is part of a superordinate control device with which the overall arrangement can be controlled, regulated and monitored.
  • the recognition of the objects can include both the recognition of the object type and the detection of position and orientation of the objects on the conveyor.
  • the object set comprises only one object type, while for other applications, also several objects of different object types in constant or variable frequency fractions can assemble the object set.
  • the object recognition and the handling or processing of objects based thereon takes place during, in particular, continuous, movement of the object quantity, whereby, of course, operating states can occur in which the conveying process is planned or interrupted unplanned.
  • the object recognition can take into account stoppages or changes in the speed of the conveying process, since movement information of the conveying device can be detected and included.
  • the image acquisition in particular the storage and / or transmission of constant image information for further processing by the object recognition system at standstill of the conveyor, so if no path pulses are transmitted to the control device, temporarily interrupt.
  • the delivery rate of the conveyor device is adjustable, it is advantageous if the number per unit of time with the object quantity of transported objects is at least approximately adjusted to the input power of the handling device, in particular slightly higher than this can be set. In certain application cases of the method, it can also be advantageous if, depending on predefinable and contained in the object recognition system decision criteria for certain detection sections no identification and selection of receivable objects. The feeding performance or processing performance of the system is not affected, but positively influenced on the contrary.
  • each surface point of the moving object set detected by the image acquisition system can be assigned to at least one recognition section and thereby also be fed to object recognition. This avoids that at the boundaries between adjacent or successive detection sections image information and thereby information about the amount of objects are lost.
  • the size and / or the extent of the recognition sections can advantageously be variably adapted by the image acquisition system or by the object recognition system, whereby the recognition sections can be adapted in particular to the size of the objects to be identified and recorded or to be processed.
  • a small recognition section can be predetermined for small object dimensions, and a larger recognition section for larger object dimensions, which avoids that a recognition section that is selected too small does not contain all detectable surface data of an object, and thereby the object recognition would of course be made more difficult.
  • the recognition sections each correspond to a specific amount of image data to which the object recognition is applied.
  • a size of the recognition sections corresponds to at least one maximum dimension of an object to be identified, since in this case a match, ie a comparison of a recognition section with known target geometries based on the fullest possible object information and very reliable results of the object recognition are obtained.
  • the size and / or the extent of the overlapping sections can be variably adapted by the object recognition system; for example, in the case of an object with a circular outline of known dimensions, a reliable statement about the position can already be made in the case of an only partially detected contour, while For example, in the case of an object with a rectangular outline, no reliable statement about the position or alignment can be made if, for example, only a part of a corner of the object is contained in a recognition section.
  • the larger the overlapping portion between two adjacent recognition portions the higher the likelihood that objects including image information in two recognition portions will be correctly identified in the object recognition.
  • an overlapping section is selected such that it is assigned a subsection of the object-quantity surface that is larger than a maximum dimension of the objects, it is ensured that all image information that can be detected by a single object is completely contained in at least one recognition section. Objects that are completely contained in an overlapping section can thereby be identified in two different detection sections, and therefore measures may also be required to ensure that an object completely contained in an overlap section is not considered to be two objects identical objects located at the same position can be performed by suppressing the duplicate identification before or in the selection of the appropriate objects.
  • the image acquisition applied to the set of objects is based on the use of light, the term light in this connection being understood to mean any electromagnetic radiation which can be used for non-contact detection of the surface and the term light should not be restricted to the light visible to humans.
  • the image acquisition method is selected in particular from a group comprising 2-D image acquisition, 3-D image acquisition, stereo camera acquisition, structured light acquisition, Laser scanner detection method, laser runtime detection method, line laser scanning, and the like, wherein a 3-D image acquisition method advantageously provides depth-valued object-set surface point coordinates that enables additional and improved methods of object recognition.
  • the image acquisition method used is a light-section method in which a light source, such as a line laser, emits light in one or more illumination planes onto the moving object set and a camera directed toward the illuminated object set is provided for receiving the light reflected from the object set, the detection direction of the Camera to the lighting level includes an angle.
  • a light source such as a line laser
  • the surface of the object set is detected by this method in the form of vertical cutting lines, the height of which can be detected by the lateral arrangement of the camera or can be calculated therefrom by means of trigonometric relationships, wherein the juxtaposition of the vertical cutting lines is effected by the movement of the object quantity by means of the conveying device is.
  • this motion of the object set can also be superimposed on a movement of the illumination plane, as is the case when using a laser scanner, for example.
  • a further advantageous method for 3-D image acquisition of the object set consists in the use of runtime-based laser measuring systems, such as a pivoting movements performing 3D laser scanner or by means of a so-called time-of-flight camera (TOF).
  • TOF time-of-flight cameras can, in addition to a gray level image, also record the respective depth information for individual pixels and transmit them to the image processing or object recognition.
  • a ranking of at least two, in particular more identified and repudiated, ones or editable objects is created, based on the temporal sequence of the handling or processing is determined by the handling device.
  • a wide variety of criteria can be used for the ranking of the objects, with a particularly suitable criterion representing the quality of recognition respectively assigned to the identified objects.
  • the recognition quality corresponds approximately to the degree of correspondence of an object quantity surface calculated from the image information or an identified object extracted therefrom with a virtual object in the form of CAD model data.
  • Deviations between optically detected surfaces and virtual target surfaces may, of course, occur due to optical aberrations of the imaging system, image noise, computational inaccuracies, or other causes, and therefore, an object recognition system must allow for certain tolerances between the computed object surface area and the virtual sol surface. The smaller the deviations between objects identified within the measured object quantity surface and the stored virtual object models, the higher is the probability that this is actually such an object.
  • sequence of the objects to be photographed or objects can further be identified on one of them
  • a further possibility of ranking can be based on a residual dwell time assigned to the identified objects in the gripping area of the handling device, wherein objects in which the residual dwell time is close to the lower limit still possible for the handling device are primarily recorded or processed. The ranking of objects can also be done using a combination of the aforementioned criteria.
  • the control device Prior to the ranking and subsequent selection of a tangible object, the control device carries out a check for a possible collision between the handling device and the object quantity and / or the conveying device in order to exclude non-tangible objects from the further calculations as early as possible and thereby save computational effort.
  • the identification and associated position detection of the objects takes place in the object recognition system in an advantageous manner by comparing object quantity information originating from the image acquisition with CAD model data of objects to be recorded or processed. For this purpose, in the object-quantity surface calculated from the image information, search is made for sub-areas that match or at least approximately agree with surface sections of the virtual object models.
  • Various calculation algorithms can be used for this sub-method of object recognition, which is also referred to as "matching", but which will not be discussed in more detail here.
  • a point cloud calculated from the acquired image information may serve as a basis for the "matching process" by fitting a virtual object model represented by dots into the optically detected object set surface by shifting and / or rotating until the sum of the distance squares is a minimum
  • the object recognition system can also compare the image information with the CAD model data of several different object types, in particular in parallel evaluation processes , whereby the time required for the positive recognition of an object can be drastically reduced, if the object set does not consist of only one object type.
  • These parallel recognition processes can in particular be performed on several different processing units in the form of processors be assigned when using dual-core or quad-core processors.
  • the admissibility of the method according to the invention can be increased by comparing the position of the object determined by means of a spatially fixed camera with a position of the object determined by means of a camera connected to the handling device before deviation or processing of an object.
  • two independent image acquisition methods or also object recognition methods are applied to each object and this redundancy causes increased reliability in the execution of the method.
  • the image acquisition by the camera connected to the handling device can take place temporally after the image acquisition by the spatially fixed camera, whereby the second image acquisition can also be used for checking whether an identified object between the first image acquisition and the second image acquisition in its position and / or orientation with respect to the rest of the set of objects has changed, so has carried out an individual movement, which is superimposed on the scheduled and predictable movement by the conveyor.
  • This may be the case, for example, when objects which are in an unstable or unstable position are changed in their position and / or orientation by vibrations or other influences between the first and second image acquisition, that is to say they shift or tilt.
  • This method offers a high level of reliability in the use of the handling device, since it can be used to detect and thus react to unplanned or unpredictable changes in the object scene.
  • This additional image acquisition or additional object recognition carried out to check the object position can take place with much less computational effort and in a shorter invoice time, if only a few recognized
  • Object points from the first object recognition can be checked by means of the second object recognition.
  • the number of objects moved per unit of time by the conveying device is variable, in particular continuously adjustable.
  • the throughput of objects moved by the conveyor can thus be adjusted so that it at least approximately corresponds to the throughput of the combination of object recognition system and handling device, and not an excessively large number of objects can not be recorded or processed and in a cycle again must be returned or the handling device has to wait for objects so to speak, because a too small number is promoted.
  • the performance of the method can be increased by simultaneously performing the identification and selection of the objects by the object recognition system in several recognition sections, for example by assigning different recognition sections to different, simultaneously operating computing units, such as processors.
  • the object of the invention is further achieved by a method having the features of claim 13, according to which an output of the object recognition system is returned to the conveyor or one of these upstream charging and depending on the output of the degree of order of the moving of the conveyor object amount by influencing the conveyor or a This upstream charging device is influenced.
  • the computational effort required for the object recognition is greatly influenced by the degree of order of the object quantity
  • the computational effort and any waiting time for the handling device caused thereby can be reduced by raising the degree of order of the object set in the area of the conveyor and thereby the recognition of the individual objects can be done in less time with less computational effort, whereby the throughput of the entire system can be increased.
  • the degree of order of the object set can be formed in particular by the number of objects promoted per unit of time and / or the degree of separation of the objects within the object set and / or the degree of geometric alignment of the objects with respect to the conveying device. Since an increased number of objects conveyed per unit of time can quickly bring the required computing power to its limits or can lead to overloading of the object recognition system, a reduction of the object throughput can nevertheless bring about increased performance in the recording or processing of objects by the handling device , Likewise, the object recognition can be carried out more easily if the objects are at a distance from one another, ie they are conveyed separately by the conveying device, since calculation algorithms in connection with overlaps of objects can be omitted and the object recognition speed can thereby be increased.
  • the degree of alignment of the objects with respect to the conveyor device can also have a strong influence on the object recognition performance since objects which are present on the conveyor device in a few predefined orientations have a significant influence on the object recognition performance. Lich lower computational effort can be detected as completely unoriented objects or workpieces.
  • a degree of order prevailing in front of the conveying device is not unnecessarily lowered in front of the conveying device, for example by magazined objects approximately be introduced into a bulk container of a feeder.
  • the required computing power for object recognition or measures for increasing the degree of order are also reduced. mechanically acting baffles, alignment stations or separating devices.
  • Faster object recognition can also be effected by arranging the objects on a slide moved by the conveyor or formed by the conveyor itself, on which they have a higher degree of order than in an unordered position on a flat, smooth surface conveyor belt.
  • the slide can advantageously have regular, in particular grid-like, arranged holding means or compartment-like receiving means for the objects. Due to the regular, in particular grid-like arrangement of the individual objects, the object recognition can be significantly accelerated, since in this way, as described above, can be omitted about complex calculation algorithms for the detection of overlapping objects.
  • the conveying device itself acts as a slide to increase the degree of order, consists in using an endlessly circulating conveyor belt for moving the set of objects, the surface of which has means for stabilizing the object.
  • Jektlage and object position with respect to the conveyor belt has, ie, for example, compartmentalized subdivisions, which are formed by protruding from the conveyor belt surface elevations or on the conveyor belt surface depressions, such as webs, knobs, grooves, cup-shaped recesses, etc. This allows objects to approximately circle - Have cylindrical or spherical shape stabilized during their movement.
  • the holding means may be chosen, in particular from a group comprising at least magnetic elements, vacuum elements, adhesively acting adhesive elements, electrostatic elements, spring clamping elements and so on.
  • the various holding means are suitably selected depending on the object properties;
  • magnetic elements can be used as holding means, for example for ferromagnetic objects or workpieces.
  • the holding means may further be formed so that a plurality of objects are held by a holding means at the same time, but preferably in a defined orientation, for example, approximately in a stacked form.
  • the holding means are flush with the top of the slide or spatially protrude to the top thereof.
  • the object of the invention is further solved by a method having the features of claim 21, according to which the object set is subjected at least a second time to an image acquisition method and an object recognition method and determined in an object identified and selected on the basis of the first object recognition Object features identified by the second image acquisition, in particular object point coordinates, are checked for agreement with object features from the first object recognition.
  • the invention further relates to a system for feeding and handling objects with the features of claim 25, according to which the system is designed to carry out one of the above-described methods.
  • the described methods or the equipment suitable for their execution can be used, in particular, within a production, transport or packaging installation.
  • Figure 1 is a diagram of a system according to the invention for handling and / or editing of objects.
  • FIG. 2 shows a system according to the invention for handling objects with a sketched method sequence according to the invention
  • FIG. 3 shows a system for handling objects with a sketch of a variant of the method according to the invention with two object detection methods performed at a time offset;
  • FIG. 5 shows an example of an object set arranged on a slide
  • FIG. 6 is a plan view of a slide with an average order of object quantity
  • FIG. 7 shows a plan view of a further embodiment of a slide with an object set with a high degree of order
  • FIG. 8 shows a system for handling objects with a return of a result or an output variable of the object recognition to the conveyor device.
  • Fig. 1 shows parts of a system 1 for processing, manufacturing, transporting or packaging of objects 2, which are conveyed by means of a conveyor 3, here in the form of a conveyor belt 4 in the working space of a handling device 5 and the objects 2 a step in
  • the handling device 5 is formed by a robot 6, the articulated gripping arms and at the end thereof an end effector 7 acting on the objects 2 in the form of gripping tongs or shown in Fig. 1, a vacuum gripper 8 has.
  • the control of the system 1 is carried out by a direction indicated by dashed lines control device 9, which is designed in particular as a programmable logic controller or as Sawleitsys- system.
  • the control device 9 in this case comprises input units for detecting sensor signals or signals from input devices, at least one processing unit comprising a computing unit and a memory system and output units for signal output and for controlling the components of the system 1.
  • the further objects 11 can in particular also be packaging means to which the objects 2 are assigned.
  • the system 1 can also serve as a packaging system with which a wide variety of objects 2 can be packed flexibly without costly programming work.
  • the objects 2 on the conveyor 3 together form an object set 12 which is moved by the conveying device 3 in the conveying direction 13 into the working space or a gripping area of the handling device 5.
  • the installation 1 comprises a sensor system 14 - indicated by dotted lines in FIG. 1 - as well as an object drawing - System 15, which together allow the localization and recognition of aufhehmbaren objects 2 from the set of objects 12.
  • Sensor system 14 and object recognition system 15 are part of the control device 9 and can be designed as independent systems, but also as spatially associated unit.
  • the sensor system 14 comprises an image acquisition system 16 with a camera 17, which is directed at the moving object amount 12 on the conveying device 3 and continuously performs image recordings of the moving object amount 12.
  • the image acquisition rate of the camera 17 preferably moves in a range of 20 to 15,000 images per second, wherein the image acquisition rate is particularly adapted to the speed of movement of the object amount 12.
  • the images of the object set 12 acquired by the camera 17 are stored in the image acquisition system 16 and provided to the object recognition system 15 for evaluation.
  • a light source 18 is further provided, with which the amount of object 12 is illuminated in the receiving area of the camera 17.
  • the light source 18 ensures that the image is captured even with changing ambient light conditions with consistent quality.
  • the image acquisition system 16 can be designed in particular for detecting the amount of object 12 by means of a so-called light-section method in which the light source 18 emits light in an illumination plane 19 on the moving object set 12 and with the camera 17, the resulting intersection between the illumination plane 19 and the surface of the Object amount 12 is recorded.
  • the detection direction 20 of the camera 17 is inclined by an angle 21 to the illumination plane 19 and thereby the surface of the object set 12 is detected in the form of vertical cutting lines.
  • the camera 17 for recording the scene formed by the moving object set 12 is preferably formed by a CCD camera with a resolution of at least 1024x512 pixels.
  • the angle 21 between see illumination plane 19 and detection direction 20 of the camera 17 is preferably between 5 ° and 75 ° degrees.
  • the installation 1 or its control device 9 can comprise a distance measuring system 23, whereby the image information of the moving object set 12 recorded by the camera 17 with path and / or Speed information about the object set 12 can be linked.
  • the displacement measuring system 23 comprises a displacement sensor 24 - here in the form of a rotary encoder 25 arranged on the conveying device 3 - with which the movement of the delivery quantity 12 is detected.
  • the movement of the object set 12 or of the objects 2 contained therein after the time of image acquisition could in principle also be predicted on the basis of the image information and the motion velocity calculated therefrom, but the additional displacement measuring system 23 results in a much higher accuracy in the localization or prediction of the position the male or objects to be recorded 2, by the drive of the
  • Conveyor 3 originating speed fluctuations of the moving object amount 12 can be included.
  • this additional link with path or speed data is absolutely necessary, since a speed change of the conveyor 3 can not be determined with certainty on the basis of the vertical cutting lines alone.
  • the displacement sensor 24 can also be integrated in a drive system 26 for the conveyor device 3, possibly the path or movement information of the conveyor device 3 can also be read out directly from the component control of the drive system 26.
  • the linking of the image information with the path or movement information of the path measuring system 23 is indicated in FIG. 1 by a node 27.
  • the information collected by the sensor system 14 about the amount of object 12 moved by the conveyor device 3 is evaluated in the object recognition system 15 using object recognition algorithms, wherein the image information stream provided by the image acquisition system 15 is subdivided into recognition sections 28 that can be assigned to the concrete sections of the object set 12.
  • the object set information contained in the recognition sections 28 comprises in particular object point coordinates, as well as movement information, wherein the object point coordinates represent parts of the optically detected surface of the object set 12.
  • the detection sections 28 are shown as rectangular sections within the object recognition system 15. On the individual detection sections 28 of the object recognition system 15 each an object detection method for identifying and selecting the recordable with the handling device 5 and / or editable objects 2 is applied.
  • the object quantity information contained in the respective recognition sections 28 is analyzed in the object recognition system 15 in such a way as to search for models of the objects 2 to be recorded or processed in the object set surface represented by object point coordinates, in accordance with models supplied to the object recognition system 15, and subsequently the identified objects 2, which should be picked up or processed by the handling device 5, are selected.
  • the objects 2 identified or selected by the object recognition system 15 or the information representing them are converted by the control device 9 into executable instructions for the components of the system 1. This is illustrated by way of example in FIG. 1 such that object information originating from the object recognition system 15 is relayed to individual component controls 29, 30 and 31 for the conveyor device 3, the handling device 5 and the second conveyor device 10, and this takes the necessary actions to record and / or edit the Execute objects 2.
  • the modeling of the objects 2 to be included in the object recognition system 15 is represented in FIG. 1 by a model memory 32 which contains, for example, object information in the form of CAD data of a CAD system 33.
  • the CAD model data 34 which are frequently present anyway in the case of objects 2, can thus be stored in the model memory 32 of the object recognition system 15 and used directly for the identification, localization and selection of the objects 2 to be recorded.
  • the camera 17 and the light source 18 can be embodied as a spatially associated camera unit 35 which contains all the necessary components in a compact housing.
  • FIG. 2 shows, on the basis of a likewise greatly simplified scheme of the system 1, the method according to the invention for picking up and / or processing moving objects 2 from a conveyor device 3 by means of a handling device 5.
  • FIG. 2 shows the sensor system 14 as blocks represented by dashed lines , which is formed here by the image acquisition system 16, with which the image acquisition method is performed and further the object recognition system 15, with which the object recognition process for identifying and selection with the handling device 5 recordable and / or editable objects 2 is performed.
  • the moving on the conveyor 3 object set 12 comprises a variable number of objects 2, which may be identical, ie belong to an object type or which may also be different, so may belong to several types of objects.
  • optically detectable object quantity information is detected as image information stream 36 by the image acquisition system 16 and temporarily stored in an image storage arrangement 37 for further processing by the object recognition system 15.
  • the memory structure of the image memory 37 is indicated in FIG. 2 by way of example as a ring buffer 38, in which the individual data packets 39 of the image information stream 36 are stored.
  • FIG. 2 shows a small number of data packets 39, with a system 1 that is actually executed processing a much larger number of image data, of course.
  • the amount of object 12 moved by the conveying device 3 past the camera 17 of the image acquisition system 16 results in a continuous image information stream 36 in the form of Data packets 39 which are stored in the image memory arrangement 37.
  • An associated group of data packets 39 is read from the image memory arrangement 37 for carrying out the object recognition method, and an object recognition method is applied to this subset of the image information by the object recognition system 15.
  • These groups of data packets 39 correspond to the recognition sections 28 already described with reference to FIG. 1 and contain the object quantity information acquired by the image acquisition system 16, in particular in the form of object point coordinates and optionally also movement information.
  • these object point coordinates and movement information represent information about the optically detectable surface of the object set 12, which is formed from an initially unknown arrangement of objects 2 on the conveyor device 3.
  • These not yet analyzed object set information, if these object points define, is often referred to as a point cloud.
  • a first recognition section 28 is marked with a 'in the image storage arrangement 37 and comprises a specific number of data packets 39;
  • a second detection section 28 is labeled with b 'and this also includes a defined number of data packets 39.
  • the detection sections a' and b ' are in sequence from the object recognition system 15 from the Rick arrivedan- order 37 - here in the form of a ring buffer 38 - read out and applied to each of the object recognition method.
  • the calculation algorithms used for object recognition are carried out by means of a computing unit 40, such as a processor, and are thereby identified in the individual recognition sections 28-here by way of example from the recognition sections a "and b" now incorporated in the object recognition system 15, therein the identification here is in particular directed to the object type, the object position and the object orientation.
  • a computing unit 40 such as a processor
  • An additional result of the object recognition method may be a quality evaluation characteristic number of the object recognition, which indicates how well an identified object 2 matches a desired object model stored in the model memory 32.
  • a collision check is further carried out, with which it is determined whether an identified object 2 in the determined orientation and position can be absorbed by the end effector 7 of the handling device 5 collision-free.
  • This collision check may be performed by the object recognition system 15, but may be implemented in part and may be performed by the component controller 30 of the handler 5.
  • the detection sections 28 in the image memory arrangement 37 correspond to specific detection sections 28 of the object set 12 moved by the conveying device 3, which are designated here by a and b.
  • the recognition sections 28, as here the recognition sections a and b, can be referred to as
  • Subsets of the sets of objects 12 overlap on the conveyor 3 and together form an overlap section 41, wherein object amount information from the overlapping portion 41 both as an object 2 in the recognition section a, and as object 2 of the recognition section b, the object recognition process undergo.
  • the image information of the overlapping section 41 is temporarily stored by the image acquisition system 16 in the course of the continuous acquisition of the image information stream 36 as data packets 39 in the image storage arrangement 37 and are here marked 41 '.
  • the extent 42 of an overlap section 41 results as a difference between the size 43 of the recognition section a and a distance 44 between a front edge 45 of the first recognition section a and a front edge 46 of the second recognition section b.
  • two objects al and a2 are located on the conveying device 3 in the recognition section a, as well as the object a2 and further objects 2 in the recognition section b.
  • the object a2 is located entirely in the overlapping section 41. This is possible if its Maximum dimension 47 is smaller than the extent 42 of the overlap portion 41.
  • the image data caused by the object a2 captured in the image acquisition system only once and cached in the image storage device 37, by the division
  • the image information stream 36 in detection sections 28 of the object recognition system 15 in both the first recognition section a "and in the second recognition section b" subjected to the object recognition process is not limited to the arrangement of the objects 2 in the object set 12 shown by way of example in FIG.
  • the object recognition system 15 or the object recognition method carried out therewith further comprises a test method for recognizing objects 2 which are located in an overlapping section 41 and thereby identified and located several times as multiple identifiers and the following component controller 30 of the handling device 5 as a single one to forward to be picked or editable object a2.
  • the size 43 of the supplementary sections 28 and / or the extent of the overlapping sections 41 can be variably programmable, for example by reading out per detector section 28 adaptable numbers of data packets 39 ,
  • the extent 42 of the overlapping sections 41 can be chosen such that it is greater than a maximum dimension 47 of the objects 2 to be recorded and / or processed. If several object types are contained in the object set 12 at the same time, the maximum dimension 47 of the largest can in particular be included Object type for determining the extent 42 of the overlapping sections 41 are used.
  • FIG. 3 shows a further embodiment of a system 1 for exporting the method according to the invention for picking up and / or processing objects 2, which is executed on an object set 12 moved by a conveyor device 3.
  • the object quantity 12 moved in the conveying direction 13 is optically detected in a first detection area 48 by means of the camera 17, and the image information stream 36 generated thereby already described with reference to FIGS. 1 and 2
  • the image information stream 36 is thereby from the image acquisition system 16 and the object recognition system 15 in Detection sections 28 divided and applied to this the algorithms for object recognition.
  • a second detection area 49 which lies in the gripping area 50 of the handling device 5
  • a second image detection and a second object detection are carried out by means of a second camera 51 on the moving object set 12.
  • the system 1 comprises a second camera 51, a second image acquisition system 52 and a second object recognition system 53.
  • the second image acquisition method and object recognition method applied at a time interval to the first image acquisition and object detection become the objects 2 of the moving object set 12 in the region of the gripping region 50 the handling device 5 detected at least one more times. Thereby, a state of the object set 12 closer in time to receiving and / or processing of the objects 2 by the handling device 5 is detected, and this second image detection and object recognition can be used, the results of the first image detection and object detection based on the first Image information stream 36 of the first camera 17 to check for possible changes of the individual objects 2 within the object set 12.
  • This second image capture and subsequent object recognition can be used in particular to be subjected to the first image acquisition and object recognition located, identified and selected objects 2 shortly before the actual action of the end effector 7 of the handling device 5 once again a review of the expected position.
  • This second image detection and object recognition can be carried out with considerably less effort, since such a positional check of previously known objects 2-namely, objects 2 known from the first image detection and object recognition-can be restricted to a few points on the surface of an object 2.
  • the second object detection can be carried out with a significantly lower computation effort, and the resulting short computation time makes it possible to perform this second image acquisition shortly before the actual recording and / or processing of an object 2.
  • the second object detection method used by the object recognition system 53 can use the results of the first object recognition method by means of the first object recognition system 15, which is indicated in FIG. 3 by an arrow 54 between the first object recognition system 15 and the second object recognition system 53, which in turn can save computing power or perform a completely separate object detection, without the results of the first object recognition method to use.
  • the image acquisition systems 16, 52 and the object recognition systems 15, 53 are part of the Control device 9, and do not have to be structurally separate units as shown, but may well be implemented in a common unit.
  • FIG. 3 shows a comparator unit 55 for the comparison of the results of the first object recognition and the second object recognition, which can likewise be part of the object recognition system 15 or 53 and this comparison between the objects 2 identified using the second image acquisition method and that by means of the first image acquisition method performed objects 2 performs.
  • the command for picking up and / or editing this object 2 can be given to the component controller 30 of the handling device 5. As further indicated in FIG.
  • a second camera 51 not to be stationary in order to carry out the second image capturing method and object recognition method, but optically to capture or grasp the gripping region 50 of the handling device 5 by a second camera 51 'on the handling device 5 . can be monitored. Even with this arrangement of the camera 51 ', it is possible to check the objects 2 identified and selected on the basis of the first image acquisition method and the first object recognition shortly before recording and / or editing to their predicted, correct position.
  • Camera 51, 51 'supplied image information stream also divided into detection sections and these detection sections are placed so that they at least approximately match or correspond to the detection sections 28 in the first image detection method and object recognition method.
  • FIG. 4 shows a greatly simplified section of a conveying device 3 with an object set 12 moved thereon in conveying direction 13, which consists of different object types and in which the objects 2 are moved in an unordered position by the conveying device 3.
  • a recognition section 28 is selected in the course of image acquisition and object recognition, it is possible for objects 2 of different types of objects and objects 2 to be contained in this recognition section 28 in any desired orientation.
  • the requirements for the object recognition system 15 are very high, since the object quantity surface detected by means of the image acquisition has to be compared with different object types or has to be searched in this object quantity surface for matches with different object types by means of the algorithms.
  • the segmentation of the image data within a recognition section 28, ie the division of the image data into parts regions 2 which are highly likely to contain individual objects 2, is much more complicated than in the case of isolated objects 2 in the case of such a disordered object set 12.
  • FIG. 5 shows a likewise greatly simplified section of a conveying device 3 with an object set 12 moved thereon in the conveying direction 13, wherein here the objects 2 are arranged with a higher degree of order than in the object set 12 in FIG. 4.
  • the objects 2 are here within the Object set 12 isolated, so have a distance to each other, which in the embodiment of FIG. 5, for example by a slide 56, which carries a portion of the object set 12 so a limited number of objects 2 and is moved by the conveyor 3, is effected.
  • the object carrier 56 can conceive subdivision means 57 which bring about or facilitate the separation of the objects 2 on the object carrier 56 or maintain it.
  • Such subdivision means 57 may be realized, for example, by a bin division 58, as shown in FIG. 5.
  • Such a compartments 58 may be designed so that exactly one object 2 is contained in the slide 56 in each receptacle.
  • the slide 56 for increasing the degree of order can also be formed by the conveyor 3 itself, such as by the object 12 moving conveyor belt itself elements such as subjects, webs, knobs, recesses, bars, etc. and the objects 2 on the one hand to a certain extent one Be subjected to separation and also in their be stabilized position relative to the conveyor belt.
  • a stabilized movement of difficult-to-convey objects 2, such as cylindrical or spherical objects is possible by a conveyor belt with knob-like elevations or trough-shaped depressions.
  • the system components required to perform the image capture process and the object recognition process have lower hardware requirements, or this object detection facilitation can be used for a shorter time period Having to provide the object recognition, that is, about the throughput of the promoted objects 2 per unit time can be increased or the time interval between image acquisition on the one hand and recording and / or editing of the objects 2 on the other hand can be reduced, whereby overall the performance and / or the reliability of such a system 1 can be increased.
  • FIG. 6 shows a detail of a plan view of a conveying device 3, on which an object quantity 12 is moved by means of a specimen slide 56 in the conveying direction 13.
  • the object set 12 consists in this embodiment of two different types of objects - here with a triangular and circular base - the individual objects 2 with distance to each other, so sporadically arranged on the slide 56, however, their orientation about the perpendicular to the surface of the conveyor vertical axis is arbitrary.
  • the separation of the objects 2 on the slide 56 can be ensured by regularly, in particular grid-like arranged holding means 59, each of which can hold an object 2 in an at least approximately separated from adjacent objects 2 position.
  • a slide 56 for the sensor system 14, in particular the image capture system 16 and the object recognition system 15, can have recognizable localization markings 60 which simplify the localization and recognition of the slide and consequently also the objects 2 arranged thereon like a grid allows.
  • FIG. 7 shows a plan view of a slide 56 moved by a conveying device 3, with which the quantity of object 12 is moved in the conveying direction 13.
  • the individual objects 2 of the object set 12 are only one Object type and at the top of the slide all arranged with the same orientation.
  • the object set 12 thus has a very high degree of order, which can further simplify the image acquisition to be carried out by the system 1 and subsequent object recognition.
  • the fixation of the objects 2 on the slide 56 is effected in this embodiment by holding means 59 in the form of support strips 61 which have at the top of each other spaced apart magnetic elements 62, with which ferromagnetic objects 2 can be fixed in position on the support bars 61.
  • the shape of the support strips 61 allows good accessibility of the objects 2 for an end effector 7 of the handling device 5, for example for picking up by means of a forceps gripper, since the support bars 61 raised relative to the base body of the object carrier 56 facilitate gripping of objects 2.
  • magnetic elements 62 it is also possible to provide vacuum suction elements, adhesively acting adhesive elements, electrostatic elements, clamping elements or similarly acting holding means 59.
  • FIG. 8 shows a further embodiment of the system 1, which may be independent of itself, with the same reference numerals or component designations being used again for the same parts as in the preceding FIGS. 1 to 7.
  • reference numerals or component designations being used again for the same parts as in the preceding FIGS. 1 to 7.
  • the system 1 similar to FIG. 1, it comprises a conveying device 3, here again in the form of a conveyor belt 4, with which an object set 12 composed of objects 2 is conveyed in the conveying direction 13 into the gripping region 50 of a handling device 5, for instance in the form of a conveyor Robot 6 is moved.
  • a conveying device 3 here again in the form of a conveyor belt 4, with which an object set 12 composed of objects 2 is conveyed in the conveying direction 13 into the gripping region 50 of a handling device 5, for instance in the form of a conveyor Robot 6 is moved.
  • the image information stream 36 generated by the camera 17, which contains the optically detected information about the moving object set 12 is subdivided into recognition sections 28 for performing the object recognition method in the object recognition system 15, to which the algorithms for Object recognition can be applied.
  • the object quantity information contained in the individual recognition sections 28 in the form of object point coordinates are again compared in this exemplary embodiment with CAD model data 34 contained in a model memory 32, and thereby locatable, identified and selected receivable objects 2.
  • Objects 2 not picked up by the handling device 5 are transferred in the system 1 to a return device 63, with which these objects 2 can be moved back to the beginning of the conveyor device 3, whereby an object cycle is formed.
  • the return conveyor 63 does not end directly on the conveyor 3 but on a feeder 64, with which a feed of the conveyor 3 can be done with objects 2, such as these from a parts stock 65, a number of male and / or or processing objects 2, tillscha separated subsets and passes to the conveyor device 3.
  • This charging device 64 is shown here by way of example as a climbing conveyor 66, which comprises a part bunker 67 and a high conveyor 68.
  • the high conveyor 68 is, for example, with an endless revolving
  • Traction means equipped, which separates by means of drivers from the parts supply 65 subsets of objects 2 and passes after an obliquely increasing high transport by means of the high conveyor 68 to the conveyor belt 4 of the conveyor 3. Since the return device 63 and the loading device 64 also serve to move the objects 2, they can also be regarded as part of the conveying device 3.
  • the method according to the invention can also be characterized in that a method generated by the object recognition system 15
  • Output quantity 69 is transmitted to the conveying device 3 or to the associated component control 29 and the degree of order of the object amount 12 moved by the conveying device 3 is influenced by influencing and / or adjusting the conveying device 3.
  • the output variable 69 may be an index of the utilization of the computing power of the control device 9 or a signal indicating an overload or a poor utilization of the computing power.
  • the result of the object recognition process which is dependent on the flow rate 12, in particular on its degree of order and thereby also on the settings of the conveying device 3, is fed back by the object recognition system 15 to the conveying device 3 or its component control 29, whereby a control loop is formed.
  • This feedback of the output quantity 69 can, in particular, bring about that of the conveying device 3 into the detection range of the sensor system 14 and consequently into the gripping area 50 the amount of separation of the objects 2 within the flow rate 12 is increased or lowered by changing conveyance speeds or a feed amount, and thereby to the control unit 9, in particular the object recognition system 15 achievable Performance can be optimally adjusted and thereby the overall performance of the system 1 is increased.
  • control signals 70 output by the component controller 29 to the subcomponents of the conveyor device 3 in this case, the loading device 64, the conveyor belt 4 and the return device 63, can be used as a control loop directly from the output variable 69, ie from the result of the object recognition method be made dependent.
  • Means to increase the degree of order of the amount of object 12 in the area of the conveying device 3 may consist, in particular, in the application of measures known from the prior art, such as singulating devices, alignment stations, baffle sections and the like, the effect of which can be adjusted to the degree of order and based on the output 69 can be influenced.
  • FIGS. 7 and 8 form the subject of independent solutions according to the invention.
  • the relevant objects and solutions according to the invention can be found in the detailed descriptions of these figures.

Abstract

The invention relates to a method for sequentially receiving and/or processing individual objects (2) from an object quantity (12) moved, in particular continuously, by a conveyor apparatus (3) using a handling apparatus (5), particularly an industrial robot (6), comprising an imaging method carried out on the moved object quantity (12) and an object detection method for localizing, identifying and selecting at least one object (2) which can be received and/or processed by the handling apparatus (5) using the image information of the object detection system (15) processing the imaging method, and receiving and/or processing a selected object (2) with the handling apparatus (5). An image information flow (36) continuously generated by the imaging method is divided into detection sections (28) of the object quantity (12) containing object quantity information, particularly object point coordinates and movement information, and the objects (2) which can be received and/or processed by the handling apparatus (5) are identified and selected by the object detection system (15) for individual detection sections (28).

Description

Verfahren und Anlage zum Aufnehmen und/oder Bearbeiten von Objekten Method and system for recording and / or editing objects
Die Erfindung betrifft ein Verfahren zum sequentiellen Aufnehmen und/oder Bearbeiten von einzelnen Objekten aus einer durch eine Fördervorrichtung bewegten Objektmenge gemäß dem Oberbegriff der Ansprüche 1, 13 und 21 , weiters eine Anlage zum Zuführen und Handhaben und/oder Bearbeiten von Objekten gemäß dem Oberbegriff des Anspruchs 25.The invention relates to a method for the sequential recording and / or processing of individual objects from a moving object conveyed by a conveyor device according to the preamble of claims 1, 13 and 21, further comprising a system for feeding and handling and / or processing of objects according to the preamble of Claim 25.
Die Handhabung oder Bearbeitung von Objekten, bspw. Werkstücken mit Hilfe von programmierbaren Handhabungsvorrichtungen, wie etwa Industrierobotern wird seit langem bei der Herstellung von Produkten angewendet. Durch ständigen Kostendruck und technische Weiterentwicklungen gibt es jedoch laufend Bestrebungen, Maßnahmen zur flexiblen Automatisierung der Handhabung und Bearbeitung von Objekten auf weitere Einsatzbereiche auszudehnen.The handling or machining of objects, for example workpieces by means of programmable handling devices, such as industrial robots, has long been used in the manufacture of products. However, due to constant cost pressure and technical advancements, there are ongoing efforts to extend measures for the flexible automation of the handling and processing of objects to other areas of application.
Ein wichtiger Lösungsansatz in diesem Bereich ist die Ausstattung bzw. Verknüpfung von Handhabungsvorrichtungen mit optischen Sensoren in Form von Kameras und die Anwendung von Verfahren zur Bilderfassung, Bilderkennung, Objekterkennung und sonstigen Verfahren, die dem Gebiet maschinelles Sehen oder „Computer- Vision" zuzurechnen sind.An important approach in this area is the provision of camera-mounted optical camera handling devices and the use of image capture, image recognition, object recognition and other methods related to machine vision or "computer vision".
Durch die Ausstattung bzw. Verknüpfung einer Handhabungsvorrichtung mit Sensoren kann zusätzlich oder alternativ zu festprogrammierten Arbeitsabläufen auch ein situationsbezoge- ner Einsatz der Handhabungsvorrichtung erfolgen, wodurch die gewünschte Flexibilität erreicht wird. Der grundsätzliche Ablauf umfasst bei Verwendung von optischen Sensoren in Form von Kameras dabei die optische Erfassung einer Szene im Einflussbereich der Handha- bungsvorrichtung, eine daran anschließende Bildverarbeitung, insbesondere Objekterkennung mit einer Analyse der Szene sowie basierend auf dem Ergebnis der Analyse eine Aktion bzw. eine Nichtaktion der Handhabungsvorrichtung.By equipping or linking a handling device with sensors, a situation-related use of the handling device can take place in addition to or as an alternative to fixed-programmed workflows, whereby the desired flexibility is achieved. When using optical sensors in the form of cameras, the basic sequence comprises the optical detection of a scene in the sphere of influence of the handling device, subsequent image processing, in particular object recognition with an analysis of the scene and an action based on the result of the analysis Non-action of the handling device.
Für Zwecke der Handhabung oder Bearbeitung von Objekten ist es dazu insbesondere erfor- derlich, deren Art, deren Position, deren Ausrichtung oder Orientierung, sowie Qualitätsmerkmale oder sonstige optisch erfassbare Attribute und Merkmale zu erfassen und zu verarbeiten, um daraus die von der Handhabungsvorrichtung vorzunehmenden Aktionen festzulegen. Die Erfassung und Verarbeitung der damit verbundenen umfangreichen Informationen erfolgt ausnahmslos in Recheneinheiten und Speichereinheiten umfassenden Steuer- und Regelvorrichtungen, die baulich, räumlich und logisch auf verschiedenste Weise aufgebaut sein können.For purposes of handling or processing of objects, it is particularly necessary to record and process their type, their position, their orientation or orientation, as well as quality features or other optically detectable attributes and features, in order to determine the actions to be taken by the handling device set. The collection and processing of the associated extensive information takes place without exception in computing units and memory units comprehensive control and regulating devices that can be structurally, spatially and logically constructed in a variety of ways.
Ein wichtiges Anwendungsgebiet des erfindungsgemäßen Verfahrens bzw. der erfindungsgemäßen Anlage besteht im Ergreifen von bewegten Objekten und anschließenden Zuführen zu einem bestimmten Bearbeitungspunkt oder Übergabepunkt innerhalb einer Fertigungs-, Transport- oder Verpackungsanlage. Je nach dem Ordnungsgrad der bewegten Objektmenge bzw. der darin enthaltenen Objekte können vor dem eigentlichen Zufuhrvorgang noch Teil- Vorgänge zum Vereinzeln, Sortieren, Orientieren, Ausrichten, Prüfen usw. erforderlich sein. Für diese Teilaufgaben der Zuführtechnik werden in vielen Fällen nach wie vor häufig mechanisch wirkende Vorrichtungen eingesetzt, die jedoch zumeist speziell an die Art und die Eigenschaften der Objekte angepasst sein müssen, weshalb derartige Lösungen nur wenig flexibel sind und eine Abänderung der zu manipulierenden Objekte immer mit großem Auf- wand für Rüsten, Umbau, Probeläufe und so weiter verbunden ist.An important field of application of the method according to the invention or of the system according to the invention consists in gripping moving objects and subsequent feeding to a specific processing point or transfer point within a production, transport or packaging installation. Depending on the degree of order of the moving object set or the objects contained therein, partial processes for separating, sorting, orienting, aligning, checking, etc. may be required before the actual feed operation. In many cases, mechanically acting devices are still often used for these subtasks of the feeding technique, but they usually have to be specially adapted to the type and properties of the objects, which is why such solutions are only slightly flexible and always involve a modification of the objects to be manipulated a great deal of effort for setting up, rebuilding, test runs and so on.
Ein klassisches Beispiel für eine derartige relativ „unflexible" Bewerkstelligung der Teilaufgaben der Zuführtechnik besteht in der Verwendung von Vibrationsfδrderern, in deren Förderweg sogenannte Schikanen zur Vereinzelung, Sortierung, Ausrichtung, Prüfung usw. an- geordnet sind. Die im Zuge einer Automatisierung geforderte hohe Zuverlässigkeit einer derartigen Zuführlösung ist dabei im hohen Grade von der Erfahrung und dem Geschick der mit der Fertigung oder Einstellung derartiger Schikanen betrauten Mitarbeiter abhängig. Ein großes Problem beim Einsatz derartiger Lösungen besteht auch darin, dass die erforderliche Feineinstellung in Probeläufen erst nach Vorliegen einer ausreichenden Anzahl von fertigen Probeobjekten möglich ist, d. h. diese Zuführvoπϊchtungen erst zu einem späten Zeitpunkt in der Produktentwicklungsphase hergestellt und vorbereitet werden können und etwa ein Serienanlauf dadurch empfindlich verzögert werden kann. Analog dazu ist bei einer Abänderung der zu manipulierenden Teile, etwa einer geringfügigen Änderung der Geometrie in vielen Fällen eine neuerliche Feineinstellung, mit den zuvor beschriebenen Nachteilen erforderlich.A classic example of such a relatively "inflexible" accomplishment of the subtasks of the feeding technique is the use of vibrating conveyors, in the conveying path of which so-called baffles for sorting, sorting, alignment, checking, etc. are arranged Such a feeding solution depends to a great extent on the experience and skill of the employees entrusted with the production or setting of such baffles A major problem with the use of such solutions is that the required fine adjustment in trial runs only after a sufficient number of It is therefore possible to produce and prepare these feeding objects at a later stage in the product development phase, and to thereby delay a series startup, for example Changing the parts to be manipulated, such as a slight change in geometry in many cases, a re-fine adjustment, with the disadvantages described above required.
Die vorteilhafte Flexibilität einer Handhabungsvorrichtung, die mit Fähigkeiten zum maschinellen Sehen ausgestattet ist, besteht nun darin, dass die dabei eingesetzte Bildverarbeitung, insbesondere Objekterkennung auf im Objekterkennungssystem enthaltenen Modellen der zu bearbeitenden bzw. handzuhabenden Objekte basiert und diese bspw. bei CAD-basierten bzw. durch CAD-Daten repräsentierten Objektmodellen dem Objekterkennungssystem bzw. dem Bildverarbeitungssystem quasi auf Knopfdruck eingelernt werden können. Mittels verschiedenster Verfahren werden dann die dem System zugeführten Bildinformationen mit den Ob- jektmodellen verglichen und anhand dieses Vergleichs Informationen bzw. Aussagen über die reell vorhandenen Objekte abgeleitet, die zur Steuerung und Regelung der Handhabungs- oder Bearbeitungsvorgänge herangezogen werden.The advantageous flexibility of a handling device, which is equipped with capabilities for machine vision, is now that the image processing used, in particular object recognition on models contained in the object recognition system to based on editing or hand-to-handle objects and these example. In CAD-based or represented by CAD data object models the object recognition system or the image processing system can be taught virtually at the touch of a button. By means of various methods, the image information supplied to the system is then compared with the object models, and based on this comparison information or statements about the real existing objects are derived, which are used to control and regulate the handling or processing operations.
DE 103 51 669 Al offenbart bspw. ein Verfahren zum Steuern eines Handhabungsgeräts, wie eines Mehrachs-Industrieroboters, wobei zunächst ein erwartetes Bilds eines Objekts in einem Arbeitsbereich des Handhabungsgerätes mit einem realen Bild des Objekts verglichen wird, anschließend eine Stellungsabweichung des Handhabungsgerätes bestimmt wird und dann Bewegungen zur Minimierung der Stellungsabweichung durchgeführt werden. Dieses Verfahren benutzt eine Vorrichtung zum Steuern eines Handhabungsgerät wie eines Mehrachs- Industrieroboters, mit einer Bildgebungseinrichtung zum Bereitstellen eines realen Bildes eines Objekts in Abhängigkeit von einer realen Stellung des Handhabungsgeräts, einer Bestimmungseinrichtung zum Bestimmen eines erwarteten Bildes des Objekts in Abhängigkeit von einer vorgegebenen Stellung des Handhabungsgeräts und einer Vergleichseinrichtung für das reale und das erwartete Bild zum Ermitteln einer Stellungsabweichung des Handhabungs- geräts, wobei ein Ausgangssignal der Vergleichseinrichtung zum Minimieren der Stellungsabweichung nutzbar ist.DE 103 51 669 A1 discloses, for example, a method for controlling a handling device, such as a multi-axis industrial robot, wherein first an expected image of an object in a workspace of the handling device is compared with a real image of the object, then a positional deviation of the handling device is determined and then movements are performed to minimize the positional deviation. This method uses an apparatus for controlling a manipulator such as a multi-axis industrial robot, comprising imaging means for providing a real image of an object in response to a real position of the manipulator, determining means for determining an expected image of the object in response to a predetermined position of the manipulator Handling device and a comparison device for the real and the expected image for determining a positional deviation of the handling device, wherein an output signal of the comparison device for minimizing the position deviation is available.
In einem Ausführungsbeispiel ist eine Bildgebungseinrichtung in Form einer Kamera auf mittels eines Förderbands bewegte Objekte gerichtet und werden dadurch Bildinformationen er- zeugt, die einer Bestimmungseinrichtung zugeführt werden. Das erwartete Bild eines Objekts wird dazu unter anderem bspw. aus CAD-Daten eines Objekts generiert, wodurch eine Vergleichsmöglichkeit gegeben ist, ohne dass reale Bilder eines Objekts aufgenommen werden müssten. Die Bildgebungseinrichtung in Form einer Kamera kann dabei sowohl am Handhabungsgerät, etwa am Ende der kinematischen Kette des Roboters oder aber auch unabhängig vom Handhabungsgerät etwa oberhalb des Förderbands angeordnet sein. Das in der DE-Al offenbarte Verfahren ermöglicht es, die Roboterprogrammierung zu beschleunigen und bildet eine Möglichkeit der automatischen Positionsanpassung eines Handhabungsgeräts. Zu Fragen der Erhöhung der Leistung eines derartigen Systems, also der Anzahl der je Zeiteinheit bear- - A - beitbaren oder handhabbaren Objekte bietet dieses Dokument keine konkreten Ansätze oder Anregungen.In one embodiment, an imaging device in the form of a camera is aimed at objects moving by means of a conveyor belt and thereby generates image information which is fed to a determination device. Among other things, the expected image of an object is generated, for example, from CAD data of an object, whereby a comparison possibility is given without the need to take real images of an object. The imaging device in the form of a camera can be arranged both on the handling device, such as at the end of the kinematic chain of the robot or even independently of the handling device about above the conveyor belt. The method disclosed in the DE-Al makes it possible to accelerate the robot programming and forms a possibility of automatic position adjustment of a handling device. On questions of increasing the performance of such a system, ie the number of units per unit time - A - editable or manageable objects, this document offers no concrete approaches or suggestions.
Ein weiteres System basierend auf der Verknüpfung eines Roboters mit einem Bildverarbei- tungssystem ist aus der WO 2007/046763 Al bekannt. Diese beschreibt ein Verfahren und eine Anordnung zum Lokalisieren und Aufnehmen von Objekten etwa aus einem Behälter oder von einem Förderband. Der Bereich, in dem sich die aufzunehmenden Objekte befinden, wird mit einem Linien-Laserscanner bestrichen und vermessen, anschließend die erfassten Oberflächenpunkte der Objektmenge in eine virtuelle dreidimensionale Oberfläche umge- rechnet. Diese dreidimensionale Oberfläche wird mit virtuellen Objekten, die etwa durchAnother system based on the linking of a robot with an image processing system is known from WO 2007/046763 A1. This describes a method and an arrangement for locating and picking up objects, for example from a container or from a conveyor belt. The area in which the objects to be recorded are located is smeared and measured with a line laser scanner, and the converted surface points of the object set are then converted into a virtual three-dimensional surface. This three-dimensional surface is filled with virtual objects that through
CAD-Daten repräsentiert sein können, verglichen, wodurch die einzelnen Objekte identifiziert und deren räumliche Lage und Orientierung ermittelt werden können. Vor dem Aufnehmen von einzelnen Objekten wird überprüft, ob der Roboter bzw. das Handhabungsgerät die ausgewählten Objekte auch ohne Kollisionen aufnehmen kann, wobei Kollisionen mit der virtu- eilen Oberfläche der Objektmenge als auch Kollisionen mit dem Behälter bzw. dem Förderer in Betracht gezogen werden.CAD data can be represented, whereby the individual objects can be identified and their spatial position and orientation can be determined. Before picking up individual objects, it is checked whether the robot or the handling device can pick up the selected objects without collisions, whereby collisions with the virtual surface of the object set as well as collisions with the container or the conveyor are taken into consideration.
Zur Erfassung der Oberfläche wird der Linien-Laserscanner vorzugsweise in einer linearen Bewegung über den Behälter den Förderer bewegt; alternativ dazu kann der Scanner auch am Roboterarm angeordnet sein und die Relativbewegung zwischen Scanner und Objektmenge durch den Roboterarm bewirkt werden. Durch den Vergleich des virtuellen Abbildes der realen Objektmengenoberfläche mit den virtuellen Objekten kann das Verfahren auch zur Feststellung von fehlerhaften Objekten genutzt werden. Die WO-Al offenbart zwar das Aufnehmen von Objekten von einem Förderband, offenbart jedoch kein Verfahren zum Aufnehmen von Objekten von einem bewegten Förderband.For detecting the surface of the line laser scanner is preferably moved in a linear movement over the container the conveyor; Alternatively, the scanner can also be arranged on the robot arm and the relative movement between the scanner and the amount of object can be effected by the robot arm. By comparing the virtual image of the real object set surface with the virtual objects, the method can also be used to detect faulty objects. While WO-A1 discloses picking up objects from a conveyor belt, it does not disclose a method of picking up objects from a moving conveyor belt.
Die Aufgabe der Erfindung besteht darin, ein Verfahren zum sequentiellen Aufnehmen oder Bearbeiten von einzelnen Objekten mittels einer Handhabungsvorrichtung bereitzustellen, das erlaubt, insbesondere kontinuierlich, bewegte Objekte zu identifizieren und aufzunehmen bzw. zu bearbeiten und bei dem die erzielbare Leistung beim Handhaben oder Bearbeiten von Objekten hoch ist im Verhältnis zu den Hardwareanforderungen an eine derartige Anlage. Die Aufgabe der Erfindung wird durch ein Verfahren mit den kennzeichnenden Merkmalen des Patentanspruchs 1 gelöst.The object of the invention is to provide a method for the sequential recording or processing of individual objects by means of a handling device which allows, in particular continuously, to identify and record moving objects and in which the achievable performance when handling or editing objects is high in relation to the hardware requirements for such a system. The object of the invention is achieved by a method having the characterizing features of patent claim 1.
Dadurch, dass ein vom Bilderfassungsverfahren fortlaufend generierter Bildinformations- ström in Objektmengeninformationen, insbesondere Objektpunktkoordinaten und Bewegungsinformationen, umfassende Erkennungsabschnitte der Objektmenge unterteilt wird und die Identifizierung und Auswahl der mit der Handhabungsvorrichtung aufnehmbaren oder bearbeitbaren Objekte vom Objekterkennungssystem für einzelne Erkennungsabschnitte erfolgt, wird ein virtuelles Abbild der kontinuierlich erfassten realen Objektmengenoberfläche gewissermaßen in Teilmengen portioniert, die mit den aus dem Stand der Technik bekannten Verfahren zur Bildverarbeitung bzw. Objekterkennung verarbeitet werden können und relativ geringe Anforderungen an die Hardwareleistungsfähigkeit der Anlage stellen. Da der Bildinformationsstrom auf vielfältige Weise in Erkennungsabschnitte unterteilt werden kann, kann das Verfahren an verschiedenste Anforderungen bzw. Anwendungsfälle angepasst werden.By dividing an image information stream continuously generated by the image acquisition method into object quantity information, in particular object point coordinates and movement information, comprehensive recognition sections of the object set and identifying and selecting the objects that can be recorded or processed by the handling device by the object recognition system for individual recognition sections, a virtual image of the continuously recorded real object quantity surface portioned into subsets so to speak, which can be processed with the known from the prior art methods for image processing or object recognition and relatively low demands on the hardware performance of the system. Since the image information stream can be subdivided into recognition sections in a variety of ways, the method can be adapted to a wide variety of requirements or applications.
Da trotz fortschreitender Leistungssteigerung bei der Rechengeschwindigkeit von zur Bildverarbeitung eingesetzten Systemen die Rechenleistung aufgrund der enormen Datenmenge noch immer regelmäßig an ihre Grenzen stößt und dadurch die Handhabungsvorrichtung gewissermaßen auf die Berechnungsergebnisse der Bildverarbeitung bzw. der Objekterkennung warten muss, besteht durch die Aufteilung des Bildinformationsstroms in Erkennungsabschnitte die Möglichkeit, die auf die einzelnen Erkennungsabschnitte anzuwendenden Bilderkennungsverfahren parallel auf mehrere Rechenprozesse einer oder mehrerer Recheneinheiten aufzuteilen, die diese vom Umfang relativ „kleinen" Rechenaufgaben in kurzer Zeit bewerkstelligen können, wodurch die Leistung der Handhabungsvorrichtung insgesamt ansteigt. Al- ternativ dazu lässt die Aufteilung des Bildinformationsstroms in Erkennungsabschnitte die Möglichkeit offen, die jeweils darin enthaltenen Bildinformationen vollständig auszuwerten oder aber auch die in einzelnen Objekterkennungsabschnitten enthaltenen Bildinformationen nur teilweise oder gar nicht auszuwerten. Dies kann etwa auf diese Weise erfolgen, dass falls in einem Erkennungsabschnitt nach einem vorwählbaren Zeitabschnitt eines planmäßig zur Verfügung stehenden Berechnungszeitraumes kein geeignetes Objekt identifiziert werden kann oder bereits eine vordefinierte Anzahl von Objekten identifiziert werden konnte, die weitere Bildverarbeitung für diesen Erkennungsabschnitt abgebrochen wird und die dadurch frei werdende Rechenleistung sofort für die Bildverarbeitung bzw. Objekterkennung in einem anderem Erkennungsabschnitt eingesetzt wird.Since, despite progressive performance increase in the computing speed of systems used for image processing, the computing power due to the enormous amount of data still regularly reaches its limits and thus the handling device has to wait in a sense to the calculation results of image processing or object recognition, there is the division of the image information stream in recognition sections the possibility of dividing the image recognition methods to be applied to the individual recognition sections in parallel to a plurality of arithmetic processes of one or more arithmetic units which can accomplish these relatively "small" arithmetic tasks in a short time, thereby increasing the overall performance of the handling device the Bildinformationsstroms in recognition sections open the possibility to fully evaluate the image information contained therein or even the only partially or not at all in image recognition sections contained in individual object recognition sections. This can be done in such a way that if in a recognition section after a preselectable period of a scheduled calculation period no suitable object can be identified or already a predefined number of objects could be identified, the further image processing for this recognition section is aborted and the thereby freed computing power is used immediately for image processing or object recognition in another recognition section.
Die vom Bilderfassungssystem laufend generierten Bilddaten werden in einer Speichervor- richtung zwischengespeichert und sind, vorzugsweise ohne Datenverlust, zum Zwecke derThe image data continuously generated by the image capture system are buffered in a storage device and are, preferably without data loss, for the purpose of
Bilddatenaufbereitung, Unterteilung in Erkennungsabschnitte und nachfolgende Objekterkennung aus der Speichervorrichtung auslesbar.Image data preparation, subdivision into recognition sections and subsequent object recognition from the storage device readable.
Die Speichervorrichtung kann dabei insbesondere ähnlich einem sogenannten Ringbuffer eine begrenzte Anzahl von Speicherregistern für die einzelnen erfassten Bilddaten bereitstellen, wobei die Speicherkapazität durch die Speichergröße oder die Anzahl der in der Speichervorrichtung enthaltenen Speichermodule an die optische Auflösung des Bilderfassungssystems, die zeitliche Auflösung und die Rechengeschwindigkeit der Bilddatenverarbeitung so ange- passt ist, dass durch die Speicherbegrenzung etwa nur Daten der Objektmenge verloren gehen können, die von Objekten stammen, die sich bereits außerhalb der räumlichen und/oder zeitlichen Reichweite der Handhabungsvorrichtung befinden, also von Objekten, die bei Fortschreiten der Objektmengenbewegung ohnehin nicht mehr von der Handhabungsvorrichtung erreicht werden können. Die Speichervorrichtung ist weiters so eingerichtet, dass das Schreiben von Bilddaten durch das Bilderfassungssystem und das Auslesen und evtl. Löschen von Bilddaten für das Objekterkennungssystem zu keinen Datenverlusten oder einer Störung der Datenintegrität führt. Dazu finden Lese- und Schreibvorgänge atomar statt.In this case, the memory device can, in particular similar to what is known as a ring buffer, provide a limited number of memory registers for the individual recorded image data, wherein the memory capacity is limited by the memory size or the number of memory modules contained in the memory device to the optical resolution of the image acquisition system, the temporal resolution and the computing speed of the Image data processing is adapted so that the storage limit can only cause loss of data of the object quantity which originate from objects which are already outside the spatial and / or temporal range of the handling device, ie objects which are in any case in the course of the movement of the object quantity can no longer be reached by the handling device. The storage device is further arranged such that the writing of image data by the image acquisition system and the reading and possibly deleting of image data for the object recognition system results in no data loss or a disturbance of the data integrity. For this purpose read and write processes take place atomically.
Die Aufteilung des Bildinformationsstroms in Erkennungsabschnitte erfolgt dabei so, dass jedem Erkennungsabschnitt eine definierte Menge von Bilddatenspeicherinhalt und damit auch ein bestimmter Abschnitt der realen, bewegten Objektmengenoberfläche zuordenbar sind. Aus den erfassten Bilddaten bzw. Datenpaketen werden mit Raumkoordinaten und Weginformationen verknüpfte Punkte der Objektmengenoberfläche berechnet, und bilden zusammenhängende Punkte der Objektmengenoberfläche einen Erkennungsabschnitt. Die Aufteilung in Erkennungsabschnitte mit den darin enthaltenen Bilddaten bzw. schon daraus berech- neten identifizierten Punkten entspricht dadurch auch einer Aufteilung in Objektmengenober- flächenabschnitte. Die Aufteilung der Erkennungsabschnitte wird im Objekterkennungssystem durchgeführt, wobei dieses als übergeordnetes System zu verstehen sein kann, das auch das Bilderfassungssystem mit der Kamera umfasst oder auch als ein über eine Schnittstelle dem Bilderfassungssystem nachgeordnetes System aufgefasst werden kann. Da Bilderfassungssystem und Ob- jekterkennungssystem unmittelbar verknüpft sind, ist im Rahmen der Erfindung eine starre Grenzziehung zwischen diesen beiden Systemen nicht erforderlich.The division of the image information stream into detection sections takes place in such a way that a defined amount of image data memory content and thus also a specific section of the real, moving object surface surface can be assigned to each recognition section. From the acquired image data or data packets, points of the object quantity surface associated with space coordinates and path information are calculated, and contiguous points of the object quantity surface form a recognition section. The division into recognition sections with the image data contained therein or the points already calculated therefrom thus also corresponds to a division into object quantity surface sections. The division of the detection sections is carried out in the object recognition system, which may be understood as a higher-level system, which also includes the image acquisition system with the camera or can be understood as a system arranged downstream of the image acquisition system via an interface. Since the image acquisition system and the object recognition system are directly linked, a rigid demarcation between these two systems is not required within the scope of the invention.
Das Objekterkennungssystem wiederum ist Teil einer übergeordneten Steuervorrichtung, mit der die Gesamtanordnung gesteuert, geregelt und überwacht werden kann.The object recognition system in turn is part of a superordinate control device with which the overall arrangement can be controlled, regulated and monitored.
Die Erkennung der Objekte kann dabei sowohl die Erkennung der Objekttype als auch die Erkennung von Lage und Orientierung der Objekte an der Fördervorrichtung umfassen. Im einfachsten Fall umfasst die Objektmenge lediglich eine Objekttype, während für andere Anwendungen auch mehrere Objekte verschiedener Objekttypen in gleichbleibenden oder vari- ablen Häufigkeitsanteilen die Objektmenge zusammensetzen können.The recognition of the objects can include both the recognition of the object type and the detection of position and orientation of the objects on the conveyor. In the simplest case, the object set comprises only one object type, while for other applications, also several objects of different object types in constant or variable frequency fractions can assemble the object set.
Die Objekterkennung und die darauf basierende Handhabung oder Bearbeitung von Objekten erfolgt dabei bei, insbesondere kontinuierlicher, Bewegung der Objektmenge, wobei natürlich Betriebszustände eintreten können, bei denen der Fördervorgang geplant oder ungeplant un- terbrochen wird. Die Objekterkennung kann Stillstände oder Geschwindigkeitsveränderungen des Fördervorgangs berücksichtigen, da Bewegungsinformationen der Fördervorrichtung er- fasst und eingerechnet werden können. Beispielsweise kann die Bilderfassung, insbesondere das Abspeichern und/oder Übertragen von gleichbleibenden Bildinformationen für die Weiterverarbeitung durch das Objekterkennungssystem bei Stillstand der Fördervorrichtung, also wenn keine Wegimpulse an die Steuervorrichtung übertragen werden, vorübergehend unterbrechen.The object recognition and the handling or processing of objects based thereon takes place during, in particular, continuous, movement of the object quantity, whereby, of course, operating states can occur in which the conveying process is planned or interrupted unplanned. The object recognition can take into account stoppages or changes in the speed of the conveying process, since movement information of the conveying device can be detected and included. For example, the image acquisition, in particular the storage and / or transmission of constant image information for further processing by the object recognition system at standstill of the conveyor, so if no path pulses are transmitted to the control device, temporarily interrupt.
Wenn die Förderleistung der Fördervorrichtung verstellbar ist, ist es vorteilhaft, wenn die Anzahl pro Zeiteinheit mit der Objektmenge transportierter Objekte zumindest annähernd der Aufnahmeleistung der Handhabungsvorrichtung entsprechend eingestellt wird, insbesondere geringfügig höher als diese eingestellt werden kann. Bei bestimmten Anwendungsfallen des Verfahrens kann es auch von Vorteil sein, wenn abhängig von vorgebbaren und im Objekterkennungssystem enthaltenen Entscheidungskriterien bei bestimmten Erkennungsabschnitten keine Identifizierung und Auswahl von aufnehmbaren Objekten erfolgt. Die Zuführleistung bzw. Bearbeitungsleistung des Systems wird dadurch nicht beeinträchtigt, sondern im Gegenteil positiv beeinflusst.If the delivery rate of the conveyor device is adjustable, it is advantageous if the number per unit of time with the object quantity of transported objects is at least approximately adjusted to the input power of the handling device, in particular slightly higher than this can be set. In certain application cases of the method, it can also be advantageous if, depending on predefinable and contained in the object recognition system decision criteria for certain detection sections no identification and selection of receivable objects. The feeding performance or processing performance of the system is not affected, but positively influenced on the contrary.
Wenn aufeinanderfolgende bzw. benachbarte Erkennungsabschnitte vom Objekterkennungssystem so begrenzt werden, dass sie einen gemeinsamen Überlappungsabschnitt aufweisen, ist sichergestellt, dass jeder vom Bilderfassungssystem erfasste Oberflächenpunkt der bewegten Objektmenge zumindest einem Erkennungsabschnitt zugeordnet werden kann und dadurch auch einer Objekterkennung zugeführt werden kann. Dadurch ist vermieden, dass an den Grenzen zwischen benachbarten bzw. aufeinanderfolgenden Erkennungsabschnitten Bildinformationen und dadurch auch Informationen über die Objektmenge verloren gehen.If successive or adjacent detection sections are delimited by the object recognition system in such a way that they have a common overlapping section, it is ensured that each surface point of the moving object set detected by the image acquisition system can be assigned to at least one recognition section and thereby also be fed to object recognition. This avoids that at the boundaries between adjacent or successive detection sections image information and thereby information about the amount of objects are lost.
Die Größe und/oder die Ausdehnung der Erkennungsabschnitte können dabei vorteilhaft vom Bilderfassungssystem oder vom Objekterkennungssystem variabel anpassbar sein, wodurch die Erkennungsabschnitte insbesondere an die Größe der zu identifizierenden und aufzunehmenden bzw. zu bearbeitenden Objekte angepasst werden können. So kann etwa bei kleinen Objektabmessungen ein kleiner Erkennungsabschnitt vorgegeben werden und bei größeren Objektabmessungen ein großer Erkennungsabschnitt, wodurch vermieden ist, dass ein zu klein gewählter Erkennungsabschnitt nicht alle erfassbaren Oberflächendaten eines Objekts enthält, und dadurch die Objekterkennung natürlich erschwert wäre. Die Erkennungsabschnitte entsprechen dabei jeweils einer bestimmten Menge an Bilddaten, auf die die Objekterkennung angewendet wird.The size and / or the extent of the recognition sections can advantageously be variably adapted by the image acquisition system or by the object recognition system, whereby the recognition sections can be adapted in particular to the size of the objects to be identified and recorded or to be processed. For example, a small recognition section can be predetermined for small object dimensions, and a larger recognition section for larger object dimensions, which avoids that a recognition section that is selected too small does not contain all detectable surface data of an object, and thereby the object recognition would of course be made more difficult. The recognition sections each correspond to a specific amount of image data to which the object recognition is applied.
Obwohl eine mit einer Kamera aus einer Richtung oder mit mehreren Kameras aus verschiedenen Richtungen durchgeführte Bilderfassung der Objektmenge nur den für das verwendete Bilderfassungssystem sichtbaren Teil der Objektmengenoberfläche erfassen kann, also jeweils nur ein Teil der Oberfläche eines Objekts erfasst werden kann und die Objekterkennung auch trotz dieser unvollständigen Oberflächeninformationen eine Zuordnung zu virtuell vorhandenen Objekten ermöglichen können muss, ist es von Vorteil, wenn eine Größe der Erkennungsabschnitte zumindest einer Maximalabmessung eines zu identifizierenden Objekts entspricht, da in diesem Fall ein Matchen, also ein Vergleich eines Erkennungsabschnittes mit bekannten Soll-Geometrien auf möglichst vollständigen Objektinformationen basiert und sehr zuverlässige Ergebnisse der Objekterkennung erhalten werden.Although a captured with a camera from one direction or with multiple cameras from different directions image capture of the object set can detect only visible to the imaging system used part of the object set surface, so only a part of the surface of an object can be detected and the object recognition despite this Incomplete surface information must be able to enable assignment to virtually existing objects, it is advantageous if a size of the recognition sections corresponds to at least one maximum dimension of an object to be identified, since in this case a match, ie a comparison of a recognition section with known target geometries based on the fullest possible object information and very reliable results of the object recognition are obtained.
Insbesondere kann dabei auch die Größe und/oder die Ausdehnung der Überlappungsab- schnitte vom Objekterkennungssystem variabel anpassbar sein, bspw. kann bei einem Objekt mit kreisförmigen Umriss bekannter Dimension bereits bei einem nur teilweise erfassten Um- riss eine sichere Aussage über die Position getroffen, während etwa bei einem Objekt mit rechteckigem Umriss keine gesicherte Aussage über die Position bzw. Ausrichtung getroffen werden kann, wenn etwa nur ein Teil einer Ecke des Objekts in einem Erkennungsabschnitt enthalten ist. Je größer der Überlappungsabschnitt zwischen zwei benachbarten Erkennungsabschnitten ist, umso höher wird die Wahrscheinlichkeit, dass auch Objekte, von denen Bildinformationen in zwei Erkennungsabschnitten enthalten sind, bei der Objekterkennung richtig identifiziert werden.In particular, the size and / or the extent of the overlapping sections can be variably adapted by the object recognition system; for example, in the case of an object with a circular outline of known dimensions, a reliable statement about the position can already be made in the case of an only partially detected contour, while For example, in the case of an object with a rectangular outline, no reliable statement about the position or alignment can be made if, for example, only a part of a corner of the object is contained in a recognition section. The larger the overlapping portion between two adjacent recognition portions, the higher the likelihood that objects including image information in two recognition portions will be correctly identified in the object recognition.
Wenn ein Überlappungsabschnitt so gewählt ist, dass diesem ein Teilabschnitt der Objektmengenoberfläche zugeordnet wird, der größer ist als eine Maximalabmessung der Objekte, ist sichergestellt, dass alle von einem einzelnen Objekt erfassbaren Bildinformationen vollständig in zumindest einem Erkennungsabschnitt enthalten sind. Objekte, die vollständig in einem Überlappungsabschnitt enthalten sind, können dadurch in zwei verschiedenen Erken- nungsabschnitten identifiziert werden, weshalb auch Maßnahmen erforderlich sein können, die sicherstellen, dass ein vollständig in einem Überlappungsabschnitt enthaltenes Objekt nicht als zwei Objekte angesehen werden, wobei dies bei zwei identischen an derselben Position lokalisierten Objekten durch Unterdrücken der doppelten Identifizierung vor oder bei der Auswahl der geeigneten Objekte durchgeführt werden kann.If an overlapping section is selected such that it is assigned a subsection of the object-quantity surface that is larger than a maximum dimension of the objects, it is ensured that all image information that can be detected by a single object is completely contained in at least one recognition section. Objects that are completely contained in an overlapping section can thereby be identified in two different detection sections, and therefore measures may also be required to ensure that an object completely contained in an overlap section is not considered to be two objects identical objects located at the same position can be performed by suppressing the duplicate identification before or in the selection of the appropriate objects.
Die auf die Objektmenge angewendete Bilderfassung basiert auf der Verwendung von Licht, wobei unter dem Begriff Licht in diesem Zusammenhang jede für eine berührungslose Erfassung der Oberfläche verwendbare elektromagnetische Strahlung verstanden werden kann und der Begriff Licht nicht auf das für Menschen sichtbare Licht eingeschränkt verstanden sein sollte.The image acquisition applied to the set of objects is based on the use of light, the term light in this connection being understood to mean any electromagnetic radiation which can be used for non-contact detection of the surface and the term light should not be restricted to the light visible to humans.
Das Bilderfassungsverfahren ist dabei insbesondere ausgewählt aus einer Gruppe umfassend 2-D-Bilderfassung, 3 -D-Bilderfassung, Stereo-Kamera-Erfassung, Strukturlicht- Erfassung, Laser- Scanner-Erfassungsverfahren, Laser-Laufzeitermittlungserfahren, Linien-Laser- Abtastung und dgl., wobei ein 3 -D-Bilderfassungsverfahren vorteilhafterweise mit Tiefenwerten versehene Objektmengen-Oberflächen-Punktkoordinaten bereitstellt, die zusätzliche und verbesserte Methoden der Objekterkennung ermöglicht.The image acquisition method is selected in particular from a group comprising 2-D image acquisition, 3-D image acquisition, stereo camera acquisition, structured light acquisition, Laser scanner detection method, laser runtime detection method, line laser scanning, and the like, wherein a 3-D image acquisition method advantageously provides depth-valued object-set surface point coordinates that enables additional and improved methods of object recognition.
Vorzugsweise wird als Bilderfassungsverfahren ein Lichtschnittverfahren benutzt, bei dem eine Lichtquelle, etwa ein Linienlaser Licht in einer oder mehreren Beleuchtungsebenen auf die bewegte Objektmenge aussendet und eine auf die beleuchtete Objektmenge gerichtete Kamera zur Aufnahme des von der Objektmenge reflektierten Lichts vorgesehen ist, wobei die Erfassungsrichtung der Kamera zur Beleuchtungsebene einen Winkel einschließt. DiePreferably, the image acquisition method used is a light-section method in which a light source, such as a line laser, emits light in one or more illumination planes onto the moving object set and a camera directed toward the illuminated object set is provided for receiving the light reflected from the object set, the detection direction of the Camera to the lighting level includes an angle. The
Oberfläche der Objektmenge wird mit diesem Verfahren in Form von Höhenschnittlinien er- fasst, deren Höhe durch die seitliche Anordnung der Kamera erfasst werden kann bzw. daraus mittels trigonometrischen Beziehungen errechnet werden kann, wobei die Aneinanderreihung der Höhenschnittlinien durch die Bewegung der Objektmenge mittels der Fördervorrichtung bewirkt ist. Zusätzlich kann dieser Bewegung der Objektmenge auch eine Bewegung der Beleuchtungsebene überlagert sein, wie es etwa bei Verwendung eines Laserscanners der Fall ist.The surface of the object set is detected by this method in the form of vertical cutting lines, the height of which can be detected by the lateral arrangement of the camera or can be calculated therefrom by means of trigonometric relationships, wherein the juxtaposition of the vertical cutting lines is effected by the movement of the object quantity by means of the conveying device is. In addition, this motion of the object set can also be superimposed on a movement of the illumination plane, as is the case when using a laser scanner, for example.
Ein weiteres vorteilhaftes Verfahren zur 3-D Bilderfassung der Objektmenge besteht in der Verwendung von laufzeitbasierenden Laser-Messsystemen, wie etwa ein Schwenkbewegungen ausführender 3 D-Laserscanner oder mittels einer sogenannten Time-of-flight-Kamera (TOF). Derartige TOF - Laufzeitkameras können zusätzlich zu einem Grauwertbild auch die jeweilige Tiefeninformation zu einzelnen Pixeln erfassen und an die Bildverarbeitung bzw. Objekterkennung übergeben.A further advantageous method for 3-D image acquisition of the object set consists in the use of runtime-based laser measuring systems, such as a pivoting movements performing 3D laser scanner or by means of a so-called time-of-flight camera (TOF). Such TOF time-of-flight cameras can, in addition to a gray level image, also record the respective depth information for individual pixels and transmit them to the image processing or object recognition.
Da es leicht möglich ist, dass in einem Erkennungsabschnitt mehr als ein Objekt identifiziert wird, das gehandhabt bzw. bearbeitet werden kann, ist es von Vorteil, wenn anhand eines einzelnen Erkennungsabschnitts oder anhand mehrerer Erkennungsabschnitte eine Reihung von zumindest zwei, insbesondere mehreren identifizierten und aufhehmbaren bzw. bearbeitbaren Objekten erstellt wird, anhand der die zeitliche Abfolge der Handhabung bzw. Bearbeitung durch die Handhabungsvorrichtung festgelegt wird. Für die Reihung der Objekte können dabei verschiedenste Kriterien herangezogen werden, wobei ein besonders geeignetes Kriterium eine die den identifizierten Objekten jeweils zugeordnete Erkennungsgüte darstellt. Die Erkennungsgüte entspricht dabei etwa dem Grad der Übereinstimmung einer aus der Bildinformation berechneten Objektmengenoberfläche bzw. einem daraus extrahierten, identifizierten Objekt mit einem virtuellen Objekt in Form von CAD-Modell-Daten. Abweichungen zwischen optisch erfassten Oberflächen und virtuellen Soll-Oberflächen können natürlich aufgrund von optischen Abbildungsfehlern des Bilderfassungssystem, Bildrauschen, Berechnungsungenauigkeiten oder sonstigen Gründen auftreten, weshalb ein Objekterkennungssystem gewisse Toleranzen zwischen der berechneten Objekt- mengenoberfläche und den virtuellen Solloberflächen zulassen muss. Je geringer die Abweichungen zwischen innerhalb der gemessenen Objektmengenoberfläche identifizierten Objekten und den hinterlegten, virtuellen Objektmodellen sind, umso höher ist die Wahrscheinlichkeit, dass es sich auch tatsächlich um ein derartiges Objekt handelt.Since it is easily possible for more than one object to be handled or processed in a recognition section, it is advantageous if, using a single recognition section or multiple recognition sections, a ranking of at least two, in particular more identified and repudiated, ones or editable objects is created, based on the temporal sequence of the handling or processing is determined by the handling device. A wide variety of criteria can be used for the ranking of the objects, with a particularly suitable criterion representing the quality of recognition respectively assigned to the identified objects. The recognition quality corresponds approximately to the degree of correspondence of an object quantity surface calculated from the image information or an identified object extracted therefrom with a virtual object in the form of CAD model data. Deviations between optically detected surfaces and virtual target surfaces may, of course, occur due to optical aberrations of the imaging system, image noise, computational inaccuracies, or other causes, and therefore, an object recognition system must allow for certain tolerances between the computed object surface area and the virtual sol surface. The smaller the deviations between objects identified within the measured object quantity surface and the stored virtual object models, the higher is the probability that this is actually such an object.
Die Reihung der aufzunehmenden oder Objekte kann weiters auf einer den identifiziertenThe sequence of the objects to be photographed or objects can further be identified on one of them
Objekten jeweils zugeordneten Greifwahrscheinlichkeit basieren, bei der etwa die Sicherheit gegen unbeabsichtigtes Lösen von Greiforganen der Handhabungsvorrichtung einbezogen wird. Diese kann etwa durch die Anzahl von an einem konkreten Objekt wirksamen Vakuumsaugelementen oder eine rechnerisch mögliche Kontaktfläche zwischen einem konkreten Objekt und Greifzangen der Handhabungsvorrichtung bestimmt sein. Eine weitere Möglichkeit der Reihung kann auf einer den identifizierten Objekten zugeordneten Restverweildauer im Greifbereich der Handhabungsvorrichtung basieren, wobei Objekte, bei denen die Restverweildauer nahe der für die Handhabungsvorrichtung noch möglichen unteren Grenze liegt, vorrangig aufgenommen bzw. bearbeitet werden. Die Reihung der Objekte kann weiters auch anhand einer Kombination der vorgenannten Kriterien erfolgen.Objects each associated gripping probability based, in which about the security against unintentional release of gripping members of the handling device is included. This can be determined, for example, by the number of vacuum suction elements acting on a specific object or a mathematically possible contact surface between a specific object and gripping tongs of the handling device. A further possibility of ranking can be based on a residual dwell time assigned to the identified objects in the gripping area of the handling device, wherein objects in which the residual dwell time is close to the lower limit still possible for the handling device are primarily recorded or processed. The ranking of objects can also be done using a combination of the aforementioned criteria.
Vor der Reihung und nachfolgenden Auswahl eines greifbaren Objekts wird von der Steuervorrichtung eine Überprüfung auf eine mögliche Kollision zwischen der Handhabungsvorrichtung und der Objektmenge und/oder der Fördervorrichtung durchgeführt, um nicht greif- bare Objekte frühestmöglich aus den weiteren Berechnungen auszuscheiden und dadurch Rechenaufwand einzusparen. Die Identifizierung und eine damit verknüpfte Lageerkennung der Objekte erfolgt im Objekterkennungssystem auf vorteilhafte Weise durch Vergleich von aus der Bilderfassung stammenden Objektmengeninformationen mit CAD-Modell-Daten von aufzunehmenden bzw. zu bearbeiteten Objekten. Dazu wird in der aus der Bildinformation berechneten Objektmengen- Oberfläche nach Teilflächen gesucht, die mit Oberflächenabschnitten der virtuellen Objektmodelle übereinstimmen oder zumindest annähernd übereinstimmen. Für dieses auch als „Matching" bezeichnete Teilverfahren der Objekterkennung können verschiedene Rechenalgorithmen eingesetzt werden, auf welche jedoch an dieser Stelle nicht näher eingegangen wird.Prior to the ranking and subsequent selection of a tangible object, the control device carries out a check for a possible collision between the handling device and the object quantity and / or the conveying device in order to exclude non-tangible objects from the further calculations as early as possible and thereby save computational effort. The identification and associated position detection of the objects takes place in the object recognition system in an advantageous manner by comparing object quantity information originating from the image acquisition with CAD model data of objects to be recorded or processed. For this purpose, in the object-quantity surface calculated from the image information, search is made for sub-areas that match or at least approximately agree with surface sections of the virtual object models. Various calculation algorithms can be used for this sub-method of object recognition, which is also referred to as "matching", but which will not be discussed in more detail here.
Beispielsweise kann eine aus der erfassten Bildinformation berechnete Punktewolke als Basis für das „Matching- Verfahren" dienen, indem ein durch Punkte repräsentiertes virtuelles Objektmodell durch Verschieben und/oder Drehen so in die optisch erfasste Objektmengenoberfläche eingepasst wird, bis die Summe der Abstandsquadrate ein Minimum ist. Dies ist näm- lieh dann der Fall, wenn das virtuelle Objektmodell mit der Objektmengenoberfläche zur Deckung gebracht werden kann. Dabei kann das Objekterkennungssystem den Vergleich der Bildinformationen auch mit den CAD-Modell-Daten von mehreren unterschiedlichen Objektarten, insbesondere in zeitlich parallel ablaufenden Auswertevorgängen, durchführen, wodurch der Zeitbedarf für die positive Erkennung eines Objekts drastisch reduziert werden kann, wenn die Objektmenge nicht nur aus einer Objekttype besteht. Diese parallel ablaufenden Erkennungsprozesse können insbesondere mehreren verschiedenen Recheneinheiten in Form von Prozessoren zugeordnet werden, etwa bei Verwendung von Dual-Core oder Quad- Core Prozessoren.For example, a point cloud calculated from the acquired image information may serve as a basis for the "matching process" by fitting a virtual object model represented by dots into the optically detected object set surface by shifting and / or rotating until the sum of the distance squares is a minimum This is the case when the virtual object model can be brought into line with the object set surface, where the object recognition system can also compare the image information with the CAD model data of several different object types, in particular in parallel evaluation processes , whereby the time required for the positive recognition of an object can be drastically reduced, if the object set does not consist of only one object type.These parallel recognition processes can in particular be performed on several different processing units in the form of processors be assigned when using dual-core or quad-core processors.
Die Zulässigkeit des erfindungsgemäßen Verfahrens kann erhöht werden, indem vor dem Aufnehmen bzw. Bearbeiten eines Objekts die mittels einer raumfesten Kamera ermittelte Position des Objekts mit einer anhand mit der Handhabungsvorrichtung verbundenen Kamera ermittelten Position des Objekts auf Abweichung verglichen wird. Dadurch werden zwei voneinander unabhängige Bilderfassungsverfahren bzw. auch Objekterkennungsverfahren auf jedes Objekt angewendet und durch diese Redundanz eine erhöhte Zuverlässigkeit bei der Ausführung des Verfahrens bewirkt. Bei dieser Verfahrensvariante kann insbesondere die Bilderfassung durch die mit der Handhabungsvorrichtung verbundene Kamera zeitlich nach der Bilderfassung durch die raumfeste Kamera erfolgen, wodurch die zweite Bilderfassung gleichzeitig auch zur Überprüfung verwendet werden kann, ob sich ein identifiziertes Objekt zwischen der ersten Bilderfassung und der zweiten Bilderfassung in seiner Position und/oder Ausrichtung bzgl. dem Rest der Objektmenge verändert hat, also eine individuelle Bewegung ausgeführt hat, die der planmäßigen und vorausberechenbaren Bewegung durch die Fördervorrichtung überlagert ist. Dies kann etwa der Fall sein, wenn Objekte, die sich in einer instabilen oder labilen Lage befinden durch Vibrationen oder sonstige Einflüsse zwischen erster und zweiter Bilderfassung in ihrer Position und/oder Ausrichtung verändert werden, also etwa verrutschen oder kippen. Dieses Verfahren bietet eine hohe Zuverlässigkeit beim Einsatz der Handhabungsvorrichtung, da dadurch ungeplante oder nicht vorhersagbare Änderungen der Objektszene festgestellt und damit auch darauf reagiert werden kann. Diese zur Überprüfung der Objektlage durchgeführte zusätzliche Bilderfassung bzw. zusätzliche Objekterkennung kann mit wesentlich geringerem Rechenaufwand und in kürzerer Rechnungszeit erfolgen, wenn nur einige wenige erkannteThe admissibility of the method according to the invention can be increased by comparing the position of the object determined by means of a spatially fixed camera with a position of the object determined by means of a camera connected to the handling device before deviation or processing of an object. As a result, two independent image acquisition methods or also object recognition methods are applied to each object and this redundancy causes increased reliability in the execution of the method. In this variant of the method, in particular the image acquisition by the camera connected to the handling device can take place temporally after the image acquisition by the spatially fixed camera, whereby the second image acquisition can also be used for checking whether an identified object between the first image acquisition and the second image acquisition in its position and / or orientation with respect to the rest of the set of objects has changed, so has carried out an individual movement, which is superimposed on the scheduled and predictable movement by the conveyor. This may be the case, for example, when objects which are in an unstable or unstable position are changed in their position and / or orientation by vibrations or other influences between the first and second image acquisition, that is to say they shift or tilt. This method offers a high level of reliability in the use of the handling device, since it can be used to detect and thus react to unplanned or unpredictable changes in the object scene. This additional image acquisition or additional object recognition carried out to check the object position can take place with much less computational effort and in a shorter invoice time, if only a few recognized
Objektpunkte aus der ersten Objekterkennung mittels der zweiten Objekterkennung überprüft werden.Object points from the first object recognition can be checked by means of the second object recognition.
Da die für die Identifizierung und Auswahl von Objekten erforderliche Rechenzeit auch von der Art und Komplexität der Objekte abhängig ist, ist es von Vorteil, wenn die pro Zeiteinheit durch die Fördervorrichtung bewegte Anzahl an Objekten variabel, insbesondere stufenlos einstellbar ist. Der Durchsatz an von der Fördereinrichtung bewegten Objekten kann dadurch so eingestellt werden, dass dieser zumindest annähernd der Durchsatzleistung der Kombination aus Objekterkennungssystem und Handhabungsvorrichtung entspricht, und nicht eine ü- bermäßig große Zahl an Objekten nicht aufgenommen bzw. nicht bearbeitet werden kann und in einem Kreislauf wieder zurückgeführt werden muss oder die Handhabungsvorrichtung auf Objekte gewissermaßen warten muss, weil eine zu geringe Anzahl angefördert wird.Since the computing time required for the identification and selection of objects also depends on the type and complexity of the objects, it is advantageous if the number of objects moved per unit of time by the conveying device is variable, in particular continuously adjustable. The throughput of objects moved by the conveyor can thus be adjusted so that it at least approximately corresponds to the throughput of the combination of object recognition system and handling device, and not an excessively large number of objects can not be recorded or processed and in a cycle again must be returned or the handling device has to wait for objects so to speak, because a too small number is promoted.
Wie bereits zuvor erwähnt, kann die Leistung des Verfahrens angehoben werden, indem die Identifizierung und Auswahl der Objekte vom Objekterkennungssystem in mehreren Erkennungsabschnitten simultan durchgeführt wird, bspw. indem unterschiedliche Erkennungsabschnitte verschiedenen, gleichzeitig arbeitenden Recheneinheiten, etwa Prozessoren, zugeordnet werden. Die Aufgabe der Erfindung wird weiters durch ein Verfahren mit dem Merkmalen Anspruchs 13 gelöst, wonach eine Ausgangsgröße des Objekterkennungssystems an die Fördervorrichtung oder eine dieser vorgeordneten Beschickvorrichtung rückgeführt wird und abhängig von der Ausgangsgröße der Ordnungsgrad der von der Fördervorrichtung bewegten Objektmenge durch Beeinflussung der Fördervorrichtung oder einer dieser vorgeordneten Beschickvorrichtung beeinflusst wird.As already mentioned above, the performance of the method can be increased by simultaneously performing the identification and selection of the objects by the object recognition system in several recognition sections, for example by assigning different recognition sections to different, simultaneously operating computing units, such as processors. The object of the invention is further achieved by a method having the features of claim 13, according to which an output of the object recognition system is returned to the conveyor or one of these upstream charging and depending on the output of the degree of order of the moving of the conveyor object amount by influencing the conveyor or a This upstream charging device is influenced.
Dieses Verfahren kann insbesondere auch um die Verfahrensmaßnahmen nach einem der Patentansprüche 1 bis 12 ergänzt werden, wodurch die vorteilhaften Effekte kombiniert werden können.This method can be supplemented in particular by the method measures according to one of the claims 1 to 12, whereby the advantageous effects can be combined.
Da der für die Objekterkennung erforderliche Rechenaufwand in hohem Maße durch den Ordnungsgrad der Objektmenge beeinflusst wird, können der Berechnungsaufwand und etwaige dadurch verursachte Wartezeiten für die Handhabungsvorrichtung reduziert werden, indem der Ordnungsgrad der Objektmenge im Bereich der Fördervorrichtung angehoben wird und dadurch die Erkennung der einzelnen Objekte in kürzerer Zeit mit geringerem Rechenaufwand erfolgen kann, wodurch die Durchsatzleistung der Gesamtanlage erhöht werden kann.Since the computational effort required for the object recognition is greatly influenced by the degree of order of the object quantity, the computational effort and any waiting time for the handling device caused thereby can be reduced by raising the degree of order of the object set in the area of the conveyor and thereby the recognition of the individual objects can be done in less time with less computational effort, whereby the throughput of the entire system can be increased.
Der Ordnungsgrad der Objektmenge kann dabei insbesondere durch die Anzahl der pro Zeit- einheit geförderten Objekte und/oder den Vereinzelungsgrad der Objekte innerhalb der Objektmenge und/oder den Grad der geometrischen Ausrichtung der Objekte bzgl. der Fördervorrichtung gebildet sein. Da eine erhöhte Anzahl von pro Zeiteinheit geförderten Objekten die erforderliche Rechenleistung schnell an ihre Grenzen führen kann bzw. zu einer Überlastung des Objekterkennungssystems führen kann, kann eine Reduktion des Objektdurchsatzes trotzdem eine erhöhte Leistung bei der Aufnahme bzw. beim Bearbeiten von Objekten durch die Handhabungsvorrichtung bewirken. Ebenso kann die Objekterkennung leichter erfolgen, wenn die Objekte zueinander einen Abstand aufweisen, also von der Fördervorrichtung vereinzelt gefördert werden, da hier Berechnungsalgorithmen im Zusammenhang mit Überlappungen von Objekten entfallen können und die Objekterkennungsgeschwindigkeit dadurch gesteigert werden kann. Letztendlich kann auch der Grad der Ausrichtung der Objekte bzgl. der Fördervorrichtung starken Einfluss auf die Objekterkennungsleistung haben, da Objekte, die in wenigen vordefinierten Orientierungen auf der Fördervorrichtung vorliegen mit wesent- lich geringerem Berechnungsaufwand erkannt werden können, als vollständig unorientierte Objekte oder Werkstücke.The degree of order of the object set can be formed in particular by the number of objects promoted per unit of time and / or the degree of separation of the objects within the object set and / or the degree of geometric alignment of the objects with respect to the conveying device. Since an increased number of objects conveyed per unit of time can quickly bring the required computing power to its limits or can lead to overloading of the object recognition system, a reduction of the object throughput can nevertheless bring about increased performance in the recording or processing of objects by the handling device , Likewise, the object recognition can be carried out more easily if the objects are at a distance from one another, ie they are conveyed separately by the conveying device, since calculation algorithms in connection with overlaps of objects can be omitted and the object recognition speed can thereby be increased. Finally, the degree of alignment of the objects with respect to the conveyor device can also have a strong influence on the object recognition performance since objects which are present on the conveyor device in a few predefined orientations have a significant influence on the object recognition performance. Lich lower computational effort can be detected as completely unoriented objects or workpieces.
Im Gegenzug dazu kann es bei Objekten mit verhältnismäßig einfacher Geometrie und bei hohen vorhandenen Rechenleistungen von Vorteil sein, wenn die Objekte der Objektmenge der Fördervorrichtung in ungeordneter Lage zugeführt werden, wodurch Maßnahmen zur Erhaltung oder zur Erhöhung des Ordnungsgrads der Objekte der Objektmenge entfallen können.In return, it may be advantageous for objects with relatively simple geometry and high computing power available when the objects of the object amount of the conveyor are supplied in a disordered position, which measures to maintain or increase the degree of order of the objects of the object amount can be omitted.
Für Objektmengen, die vor der Fördervorrichtung bereits einen gewissen Ordnungsgrad aufweisen ist es vorteilhaft, wenn diese der Fördervorrichtung in zumindest teilweise geordneter Lage zugeführt werden d.h., dass ein vor der Fördervorrichtung vorhandener Ordnungsgrad nicht unnötig vor der Fördervorrichtung gesenkt wird, bspw. indem magazinierte Objekte etwa in einen Schüttbehälter einer Beschickvorrichtung eingebracht werden. Dadurch reduzie- ren sich ebenfalls die erforderlichen Rechenleistungen für die Objekterkennung bzw. Maßnahmen zur Anhebung des Ordnungsgrads wie z.B. mechanisch wirkende Schikanen, Ausrichtstationen oder Vereinzelungsvorrichtungen.For object quantities which already have a certain degree of order in front of the conveying device, it is advantageous if they are fed to the conveying device in at least partially ordered position, ie a degree of order prevailing in front of the conveying device is not unnecessarily lowered in front of the conveying device, for example by magazined objects approximately be introduced into a bulk container of a feeder. As a result, the required computing power for object recognition or measures for increasing the degree of order, such as, for example, are also reduced. mechanically acting baffles, alignment stations or separating devices.
Eine schnellere Objekterkennung kann ebenfalls dadurch bewirkt werden, dass die Objekte an einem von der Fördervorrichtung bewegten oder durch die Fördervorrichtung selbst gebildeten Objektträger angeordnet sind, auf dem sie einen höheren Ordnungsgrad als etwa in ungeordneter Lage auf einem Förderband mit glatter, ebener Oberfläche aufweisen.Faster object recognition can also be effected by arranging the objects on a slide moved by the conveyor or formed by the conveyor itself, on which they have a higher degree of order than in an unordered position on a flat, smooth surface conveyor belt.
Dazu kann der Objektträger vorteilhaft regelmäßig, insbesondere rasterartig, angeordnete HaI- temittel oder fachartige Aufnahmemittel für die Objekte aufweisen. Durch die regelmäßige, insbesondere rasterartige Anordnung der einzelnen Objekte kann die Objekterkennung deutlich beschleunigt werden, da auf diese Weise wie bereits zuvor beschrieben, etwa aufwendige Berechnungsalgorithmen für die Erkennung von sich überlappenden Objekten entfallen können.For this purpose, the slide can advantageously have regular, in particular grid-like, arranged holding means or compartment-like receiving means for the objects. Due to the regular, in particular grid-like arrangement of the individual objects, the object recognition can be significantly accelerated, since in this way, as described above, can be omitted about complex calculation algorithms for the detection of overlapping objects.
Eine Möglichkeit, dass die Fördervorrichtung selbst als Objektträger zur Erhöhung des Ordnungsgrades wirkt, besteht beispielsweise darin, zur Bewegung der Objektmenge ein endlos umlaufendes Förderband zu verwenden, dessen Oberfläche Mittel zur Stabilisierung der Ob- jektlage und Objektposition bezüglich des Förderbands aufweist, also z.B. fachartige Unterteilungen, die durch von der Förderbandoberfläche aufragende Erhöhungen oder auf der Förderbandoberfläche angeordnete Vertiefungen gebildet werden, etwa in Form von Stegen, Noppen, Nuten, schalenförmigen Ausnehmungen usw.. Dadurch können Objekte die etwa kreis- zylindrische oder kugelige Form aufweisen während ihrer Bewegung stabilisiert werden.One possibility, for example, that the conveying device itself acts as a slide to increase the degree of order, consists in using an endlessly circulating conveyor belt for moving the set of objects, the surface of which has means for stabilizing the object. Jektlage and object position with respect to the conveyor belt has, ie, for example, compartmentalized subdivisions, which are formed by protruding from the conveyor belt surface elevations or on the conveyor belt surface depressions, such as webs, knobs, grooves, cup-shaped recesses, etc. This allows objects to approximately circle - Have cylindrical or spherical shape stabilized during their movement.
Die Haltemittel können dabei, insbesondere aus einer Gruppe umfassend zumindest Magnetelemente, Vakuumelemente, adhäsiv wirkende Haftelemente, Elektrostatikelemente, Federklemmelemente und so weiter gewählt sein. Die verschiedenen Haltemittel werden dabei ab- hängig von den Objekteigenschaften passend ausgewählt; so kommen Magnetelemente als Haltemittel bspw. für ferromagnetische Objekte bzw. Werkstücke in Frage.The holding means may be chosen, in particular from a group comprising at least magnetic elements, vacuum elements, adhesively acting adhesive elements, electrostatic elements, spring clamping elements and so on. The various holding means are suitably selected depending on the object properties; For example, magnetic elements can be used as holding means, for example for ferromagnetic objects or workpieces.
Die Haltemittel können weiters so ausgebildet sein, dass von einem Haltemittel gleichzeitig mehrere Objekte gehalten werden, vorzugsweise jedoch in definierter Ausrichtung, bspw. etwa in gestapelter Form.The holding means may further be formed so that a plurality of objects are held by a holding means at the same time, but preferably in a defined orientation, for example, approximately in a stacked form.
Um das Aufnehmen von Objekten von einem Objektträger zu erleichtern, etwa bei einer Handhabungsvorrichtung mit einem Zangen- oder Sauggreifer, ist es vorteilhaft, wenn die Haltemittel mit der Oberseite des Objektträgers bündig angeordnet sind oder gegenüber an dessen Oberseite örtlich vorragen.In order to facilitate the picking up of objects from a slide, such as in a handling device with a forceps or suction gripper, it is advantageous if the holding means are flush with the top of the slide or spatially protrude to the top thereof.
Die Aufgabe der Erfindung wird weiters gelöst durch ein Verfahren mit den Merkmalen des Patentanspruchs 21, wonach die Objektmenge in einem zeitlichen Abstand zumindest ein zweites Mal einem Bilderfassungsverfahren und einem Objekterkennungs verfahren unterwor- fen wird und bei einem anhand der ersten Objekterkennung identifizierten und ausgewählten Objekt bestimmte anhand der zweiten Bilderfassung festgestellte Objektmerkmale, insbesondere Objektpunktkoordinaten, auf Übereinstimmung mit Objektmerkmalen aus der ersten Objekterkennung überprüft werden.The object of the invention is further solved by a method having the features of claim 21, according to which the object set is subjected at least a second time to an image acquisition method and an object recognition method and determined in an object identified and selected on the basis of the first object recognition Object features identified by the second image acquisition, in particular object point coordinates, are checked for agreement with object features from the first object recognition.
Dieses Verfahren kann insbesondere auch um die Verfahrensmaßnahmen nach einem der Patentansprüche 1 bis 19 ergänzt werden, wodurch die vorteilhaften Effekte kombiniert werden können. Die Zuverlässigkeit des Verfahrens zum Aufnehmen und Bearbeiten von Objekten durch eine Handhabungsvorrichtung wird dadurch wesentlich erhöht, da die Redundanz der Objekterkennung zuverlässigere Daten ergibt.This method can in particular also be supplemented by the method measures according to one of the claims 1 to 19, whereby the advantageous effects can be combined. The reliability of the method of picking up and manipulating objects by a handling device is thereby substantially increased since the redundancy of the object recognition yields more reliable data.
Insbesondere bei Objekten, die aufgrund ihrer Eigenschaften eine relativ instabile Lage bzgl. der Fördervorrichtung aufweisen, die also etwa durch Vibrationen ihre Position und/oder Ausrichtung verändern können oder die durch die Handhabung oder durch die Bearbeitung benachbarter Objekte leicht beeinflusst werden können, ist es ein großer Vorteil, wenn unmittelbar oder zeitnah vor dem eigentlichen Aufnahme- oder Bearbeitungsvorgang eine nochmalige Kontrolle der Position und Ausrichtung erfolgt.In particular, in the case of objects which, owing to their properties, have a relatively unstable position with regard to the conveying device, ie which can change their position and / or orientation as a result of vibrations, or which can easily be influenced by the handling or by the processing of adjacent objects, it is great advantage if immediately or promptly before the actual recording or editing process a repeated check of the position and orientation takes place.
Die Erfindung bezieht sich weiters auf eine Anlage zum Zuführen und Handhaben von Objekten mit den Merkmalen des Patentanspruchs 25, wonach die Anlage zur Ausführung eines der vorbeschriebenen Verfahren ausgebildet ist.The invention further relates to a system for feeding and handling objects with the features of claim 25, according to which the system is designed to carry out one of the above-described methods.
Die beschriebenen Verfahren bzw. die zu deren Ausführung geeignete Anlage können insbesondere innerhalb einer Fertigungs-, Transport- oder Verpackungsanlage zum Einsatz kommen.The described methods or the equipment suitable for their execution can be used, in particular, within a production, transport or packaging installation.
Die erfindungsgemäßen Verfahren sowie eine zu deren Ausführung geeignete Anlage werden im nachfolgenden anhand der in den Zeichnungen dargestellten Ausführungsbeispiele näher erläutert.The methods according to the invention and a system suitable for their execution are explained in more detail below with reference to the exemplary embodiments illustrated in the drawings.
Es zeigen jeweils in stark schematisch vereinfachter Darstellung:Each shows in a highly schematically simplified representation:
Fig. 1 ein Schema einer erfindungsgemäßen Anlage zum Handhaben und/oder Bearbeiten von Objekten;Figure 1 is a diagram of a system according to the invention for handling and / or editing of objects.
Fig. 2 eine erfindungsgemäße Anlage zum Handhaben von Objekten mit einem skizzier- ten erfindungsgemäßen Verfahrensablauf; Fig. 3 eine Anlage zum Handhaben von Objekten mit einer Skizze zu einer Variante des erfindungsgemäßen Verfahrens mit zwei zeitlich versetzt durchgeführten Objekterkennungsverfahren;FIG. 2 shows a system according to the invention for handling objects with a sketched method sequence according to the invention; FIG. 3 shows a system for handling objects with a sketch of a variant of the method according to the invention with two object detection methods performed at a time offset;
Fig. 4 ein Beispiel für eine Objektmenge mit niedrigen Ordnungsgrad;4 shows an example of an object set with a low degree of order;
Fig. 5 ein Beispiel für eine an einem Objektträger angeordnete Objektmenge;5 shows an example of an object set arranged on a slide;
Fig. 6 eine Draufsicht auf einen Objektträger mit einer Objektmenge mittleren Ord- nungsgrades;FIG. 6 is a plan view of a slide with an average order of object quantity; FIG.
Fig. 7 eine Draufsicht auf eine weitere Ausführungsform eines Objektträgers mit einer Objektmenge mit hohen Ordnungsgrad;7 shows a plan view of a further embodiment of a slide with an object set with a high degree of order;
Fig. 8 eine Anlage zum Handhaben von Objekten mit einer Rückführung eines Ergebnisses oder einer Ausgangsgröße der Objekterkennung an die Fördervorrichtung.8 shows a system for handling objects with a return of a result or an output variable of the object recognition to the conveyor device.
Einführend sei festgehalten, dass in den unterschiedlich beschriebenen Ausführungsformen gleiche Teile mit gleichen Bezugszeichen bzw. gleichen Bauteilbezeichnungen versehen wer- den, wobei die in der gesamten Beschreibung enthaltenen Offenbarungen sinngemäß auf gleiche Teile mit gleichen Bezugszeichen bzw. gleichen Bauteilbezeichnungen übertragen werden können. Auch sind die in der Beschreibung gewählten Lageangaben, wie z.B. oben, unten, seitlich usw. auf die unmittelbar beschriebene sowie dargestellte Figur bezogen und sind bei einer Lageänderung sinngemäß auf die neue Lage zu übertragen. Weiters können auch Einzelmerkmale oder Merkmalskombinationen aus den gezeigten und beschriebenen unterschiedlichen Ausführungsbeispielen für sich eigenständige, erfinderische oder erfindungsgemäße Lösungen darstellen.By way of introduction, it should be noted that in the differently described embodiments, the same parts are provided with the same reference numerals or the same component designations, wherein the disclosures contained in the entire description can be mutatis mutandis to the same parts with the same reference numerals or component names. Also, the location information chosen in the description, such as top, bottom, side, etc. related to the immediately described and illustrated figure and are to be transferred to the new situation mutatis mutandis when a change in position. Furthermore, individual features or combinations of features from the different exemplary embodiments shown and described can also represent independent, inventive or inventive solutions.
Sämtliche Angaben zu Wertebereichen in gegenständlicher Beschreibung sind so zu verste- hen, dass diese beliebige und alle Teilbereiche daraus mitumfassen, z.B. ist die Angabe 1 bis 10 so zu verstehen, dass sämtliche Teilbereiche, ausgehend von der unteren Grenze 1 und der oberen Grenze 10 mitumfasst sind, d.h. sämtliche Teilbereich beginnen mit einer unteren Grenze von 1 oder größer und enden bei einer oberen Grenze von 10 oder weniger, z.B. 1 bis 1,7, oder 3,2 bis 8,1 oder 5,5 bis 10.All information on ranges of values in objective description should be understood to include these arbitrary and all sub-ranges thereof, eg the indication 1 to 10 is to be understood as including all sub-ranges, starting from the lower limit 1 and the upper limit 10 are, ie all subareas start with a lower one Limit of 1 or greater and end at an upper limit of 10 or less, eg 1 to 1.7, or 3.2 to 8.1 or 5.5 to 10.
Fig. 1 zeigt Teile einer Anlage 1 zum Bearbeiten, Fertigen, Transportieren oder Verpacken von Objekten 2, die mittels einer Fördereinrichtung 3, hier in Form eines Förderbandes 4 in den Arbeitsraum einer Handhabungsvorrichtung 5 befördert werden und die an den Objekten 2 einen Arbeitsschritt der in Folge der Einfachheit halber „Handhabung" genannt wird, ausführt. Die Handhabungsvorrichtung 5 ist im dargestellten Ausführungsbeispiel durch einen Roboter 6 gebildet, der gelenkig verbundene Greifarme und an deren Ende einen auf die Ob- jekte 2 einwirkenden Endeffektor 7 in Form einer Greifzange oder, wie in Fig. 1 dargestellt, einen Vakuumgreifer 8 aufweist.Fig. 1 shows parts of a system 1 for processing, manufacturing, transporting or packaging of objects 2, which are conveyed by means of a conveyor 3, here in the form of a conveyor belt 4 in the working space of a handling device 5 and the objects 2 a step in In the exemplary embodiment shown, the handling device 5 is formed by a robot 6, the articulated gripping arms and at the end thereof an end effector 7 acting on the objects 2 in the form of gripping tongs or shown in Fig. 1, a vacuum gripper 8 has.
Die Steuerung der Anlage 1 erfolgt durch eine mit strichlierten Linien angedeutete Steuervorrichtung 9, die insbesondere als speicherprogrammierbare Steuerung oder als Prozessleitsys- tem ausgeführt ist. Die Steuervorrichtung 9 umfasst dabei Eingabeeinheiten zur Erfassung von Sensorsignalen oder Signalen von Eingabegeräten, zumindest eine Verarbeitungseinheit umfassend eine Recheneinheit und ein Speichersystem sowie Ausgabeeinheiten zur Signalausgabe und zur Ansteuerung der Komponenten der Anlage 1. Im dargestellten Ausführungsbeispiel besteht die Handhabung der Objekte 2 in einem Aufnehmen von der Fördereinrich- tung 3 durch die Handhabungsvorrichtung 5 und ein transferieren an eine zweite Fördervorrichtung 10, an der die Objekte 2 von der Handhabungsvorrichtung 5 beispielhaft mit weiteren Objekten 11 zusammengesetzt werden und von der zweiten Fördervorrichtung 10 abtransportiert werden. Die weiteren Objekte 11 können insbesondere auch Verpackungsmittel sein, denen die Objekte 2 zugeordnet werden. Die Anlage 1 kann in diesem Fall auch als Verpa- ckungsanlage dienen, mit denen verschiedenste Objekte 2 flexibel ohne aufwendige Programmierungsarbeiten verpackt werden können.The control of the system 1 is carried out by a direction indicated by dashed lines control device 9, which is designed in particular as a programmable logic controller or as Prozessleitsys- system. The control device 9 in this case comprises input units for detecting sensor signals or signals from input devices, at least one processing unit comprising a computing unit and a memory system and output units for signal output and for controlling the components of the system 1. In the illustrated embodiment, the handling of the objects 2 in a recording of the conveying device 3 by the handling device 5 and a transfer to a second conveying device 10, on which the objects 2 are assembled by the handling device 5 by way of example with further objects 11 and transported away from the second conveying device 10. The further objects 11 can in particular also be packaging means to which the objects 2 are assigned. In this case, the system 1 can also serve as a packaging system with which a wide variety of objects 2 can be packed flexibly without costly programming work.
Die Objekte 2 auf der Fördereinrichtung 3 bilden zusammen eine Objektmenge 12, die durch die Fördervorrichtung 3 in Förderrichtung 13 in den Arbeitsraum bzw. einen Greifbereich der Handhabungsvorrichtung 5 bewegt wird. Damit die Handhabungsvorrichtung 5 einzelne Objekte 2 der bewegten Objektmenge 12 aufnehmen bzw. bearbeiten kann, obwohl deren Position auf der Fördervorrichtung 3 variabel und nicht vordefiniert ist, umfasst die Anlage 1 ein Sensorsystem 14 - in Fig. 1 in strichpunktierten Linien angedeutet - sowie ein Objekterken- nungssystem 15, die zusammen das Lokalisieren und Erkennen von aufhehmbaren Objekten 2 aus der Objektmenge 12 ermöglichen. Sensorsystem 14 und Objekterkennungssystem 15 sind Bestandteil der Steuervorrichtung 9 und können als eigenständige Systeme, jedoch auch als räumlich zusammengehörige Einheit ausgeführt sein.The objects 2 on the conveyor 3 together form an object set 12 which is moved by the conveying device 3 in the conveying direction 13 into the working space or a gripping area of the handling device 5. In order for the handling device 5 to be able to receive or process individual objects 2 of the moving object set 12, although their position on the conveying device 3 is variable and not predefined, the installation 1 comprises a sensor system 14 - indicated by dotted lines in FIG. 1 - as well as an object drawing - System 15, which together allow the localization and recognition of aufhehmbaren objects 2 from the set of objects 12. Sensor system 14 and object recognition system 15 are part of the control device 9 and can be designed as independent systems, but also as spatially associated unit.
Das Sensorsystem 14 umfasst ein Bilderfassungssystem 16 mit einer Kamera 17, die auf die bewegte Objektmenge 12 auf der Fördervorrichtung 3 gerichtet ist und kontinuierlich Bildaufnahmen der bewegten Objektmenge 12 durchführt. Die Bilderfassungsrate der Kamera 17 bewegt sich dabei vorzugsweise in einem Bereich von 20 bis 15.000 Bildern pro Sekunde, wobei die Bilderfassungsrate insbesondere an die Bewegungsgeschwindigkeit der Objektmenge 12 angepasst ist.The sensor system 14 comprises an image acquisition system 16 with a camera 17, which is directed at the moving object amount 12 on the conveying device 3 and continuously performs image recordings of the moving object amount 12. The image acquisition rate of the camera 17 preferably moves in a range of 20 to 15,000 images per second, wherein the image acquisition rate is particularly adapted to the speed of movement of the object amount 12.
Die von der Kamera 17 erfassten Bilder der Objektmenge 12 werden im Bilderfassungssystem 16 abgespeichert und dem Objekterkennungssystem 15 zur Auswertung bereitgestellt. Zum Zweck der Bilderfassung ist weiters eine Lichtquelle 18 vorgesehen, mit der die Objektmenge 12 im Aufnahmebereich der Kamera 17 beleuchtet wird. Die Lichtquelle 18 garantiert, dass die Bilderfassung auch bei wechselnden Umgebungslichtbedingungen mit gleich bleibender Qualität erfolgt. Das Bilderfassungssystem 16 kann insbesondere zur Erfassung der Objektmenge 12 mittels eines so genannten Lichtschnittverfahrens ausgebildet sein, bei dem die Lichtquelle 18 Licht in einer Beleuchtungsebene 19 auf die bewegte Objektmenge 12 aussendet und mit der Kamera 17 die sich ergebende Schnittlinie zwischen Beleuchtungsebene 19 und der Oberfläche der Objektmenge 12 aufgenommen wird. Die Erfassungsrichtung 20 der Kamera 17 ist dazu um einen Winkel 21 gegen die Beleuchtungsebene 19 geneigt und wird dadurch die Oberfläche der Objektmenge 12 in Form von Höhenschnittlinien erfasst.The images of the object set 12 acquired by the camera 17 are stored in the image acquisition system 16 and provided to the object recognition system 15 for evaluation. For the purpose of image acquisition, a light source 18 is further provided, with which the amount of object 12 is illuminated in the receiving area of the camera 17. The light source 18 ensures that the image is captured even with changing ambient light conditions with consistent quality. The image acquisition system 16 can be designed in particular for detecting the amount of object 12 by means of a so-called light-section method in which the light source 18 emits light in an illumination plane 19 on the moving object set 12 and with the camera 17, the resulting intersection between the illumination plane 19 and the surface of the Object amount 12 is recorded. The detection direction 20 of the camera 17 is inclined by an angle 21 to the illumination plane 19 and thereby the surface of the object set 12 is detected in the form of vertical cutting lines.
Aus der Bewegung der Objektmenge 12 und durch die Bilderfassungsrate der Kamera 17 ergibt sich eine Abfolge von Höhenschnittlinien, die ein Abbild der Oberfläche der Objektmenge 12 darstellen und diese repräsentieren können. Als Lichtquelle 18 ist für dieses Lichtschnittverfahren insbesondere ein Linienlaser 22 von Vorteil, der eine scharf begrenzte Be- leuchtungsebene 19 mit hoher Leuchtintensität liefern kann. Die Kamera 17 zur Aufnahme der durch die bewegte Objektmenge 12 gebildeten Szene ist vorzugsweise durch eine CCD - Kamera mit einer Auflösung von zumindest 1024x512 Pixel gebildet. Der Winkel 21 zwi- sehen Beleuchtungsebene 19 und Erfassungsrichtung 20 der Kamera 17 beträgt vorzugsweise zwischen 5° und 75° Winkelgraden.From the movement of the object set 12 and the image acquisition rate of the camera 17 results in a sequence of vertical cutting lines, which represent an image of the surface of the object set 12 and can represent them. As light source 18, in particular a line laser 22 is advantageous for this light-section method, which can deliver a sharply delimited illumination plane 19 with high luminous intensity. The camera 17 for recording the scene formed by the moving object set 12 is preferably formed by a CCD camera with a resolution of at least 1024x512 pixels. The angle 21 between see illumination plane 19 and detection direction 20 of the camera 17 is preferably between 5 ° and 75 ° degrees.
Zusätzlich zu den mittels des Bilderfassungssystems 16 erfassten Informationen über die be- wegte Objektmenge 12 kann die Anlage 1 bzw. deren Steuervorrichtung 9 ein Wegmesssys- tem 23 umfassen, wodurch die mittels der Kamera 17 aufgenommene Bildinformation der bewegten Objektmenge 12 mit Weg- und/oder Geschwindigkeitsinformationen über die Objektmenge 12 verknüpft werden kann. Das Wegmesssystem 23 umfasst dazu einen Wegsensor 24 - hier in Form eines an der Fördervorrichtung 3 angeordneten Drehgebers 25 - mit dem die Bewegung der Fördermenge 12 erfasst wird. Durch diese Verwendung eines eigenen Wegmesssystems 23 kann der im Zeitraum zwischen dem Zeitpunkt der Bilderfassung und dem vorausberechneten Zeitpunkt der Aufnahme eines Objekts 2 mittels der Handhabungsvorrichtung 5 zurückgelegte Weg und damit auch die exakte Position eines Objekts 2 berechnet bzw. vorhergesagt werden.In addition to the information about the moving object set 12 acquired by means of the image acquisition system 16, the installation 1 or its control device 9 can comprise a distance measuring system 23, whereby the image information of the moving object set 12 recorded by the camera 17 with path and / or Speed information about the object set 12 can be linked. The displacement measuring system 23 comprises a displacement sensor 24 - here in the form of a rotary encoder 25 arranged on the conveying device 3 - with which the movement of the delivery quantity 12 is detected. As a result of this use of a separate position-measuring system 23, the path covered in the time interval between the time of image acquisition and the predicted time of the recording of an object 2 by means of the handling device 5, and thus also the exact position of an object 2, can be calculated or predicted.
Die Bewegung der Objektmenge 12 bzw. der darin enthaltenen Objekte 2 nach dem Zeitpunkt der Bilderfassung ließe sich prinzipiell auch aufgrund der Bildinformationen und daraus berechneter Bewegungsgeschwindigkeit vorhersagen, durch das zusätzliche Wegmesssystem 23 ergibt sich jedoch eine ungleich höhere Genauigkeit bei der Lokalisierung bzw. Vorhersage der Position der aufzunehmenden bzw. zu bearbeitenden Objekte 2, indem vom Antrieb derThe movement of the object set 12 or of the objects 2 contained therein after the time of image acquisition could in principle also be predicted on the basis of the image information and the motion velocity calculated therefrom, but the additional displacement measuring system 23 results in a much higher accuracy in the localization or prediction of the position the male or objects to be recorded 2, by the drive of the
Fördervorrichtung 3 herrührende Geschwindigkeitsschwankungen der bewegten Objektmenge 12 miteingerechnet werden können. Bei der Verwendung eines Lichtschnittverfahrens ist diese zusätzliche Verknüpfung mit Weg- bzw. Geschwindigkeitsdaten zwingend erforderlich, da eine Geschwindigkeitsveränderung der Fördervorrichtung 3 anhand der Höhenschnittlinien alleine nicht mit Sicherheit festgestellt werden kann.Conveyor 3 originating speed fluctuations of the moving object amount 12 can be included. When using a light-slit method, this additional link with path or speed data is absolutely necessary, since a speed change of the conveyor 3 can not be determined with certainty on the basis of the vertical cutting lines alone.
Der Wegsensor 24 kann auch in einem Antriebssystem 26 für die Fördervorrichtung 3 integriert sein, evtl. kann die Weg- bzw. Bewegungsinformation der Fördervorrichtung 3 auch direkt aus der Komponentensteuerung des Antriebsystems 26 ausgelesen werden.The displacement sensor 24 can also be integrated in a drive system 26 for the conveyor device 3, possibly the path or movement information of the conveyor device 3 can also be read out directly from the component control of the drive system 26.
Die Verknüpfung der Bildinformationen mit den Weg- bzw. Bewegungsinformationen des Wegmesssystems 23 ist in Fig. 1 durch einen Knotenpunkt 27 angedeutet. Die vom Sensorsystem 14 erfassten Informationen über die von der Fördervorrichtung 3 bewegte Objektmenge 12 werden im Objekterkennungssystem 15 unter Anwendung von Objekterkennungsalgorithmen ausgewertet, wobei der vom Bilderfassungssystem 15 bereitgestellte Bildinformationsstrom in Erkennungsabschnitte 28 unterteilt wird, die den konkreten Abschnitten der Objektmenge 12 zuordenbar sind.The linking of the image information with the path or movement information of the path measuring system 23 is indicated in FIG. 1 by a node 27. The information collected by the sensor system 14 about the amount of object 12 moved by the conveyor device 3 is evaluated in the object recognition system 15 using object recognition algorithms, wherein the image information stream provided by the image acquisition system 15 is subdivided into recognition sections 28 that can be assigned to the concrete sections of the object set 12.
Die in den Erkennungsabschnitten 28 enthaltenen Objektmengeninformationen umfassen insbesondere Objektpunktkoordinaten, sowie Bewegungsinformationen, wobei die Objektpunktkoordinaten Teile der optisch erfassten Oberfläche der Objektmenge 12 darstellen. In Fig. 1 sind die Erkennungsabschnitte 28 als rechteckige Teilabschnitte innerhalb des Objekterkennungssystems 15 dargestellt. Auf die einzelnen Erkennungsabschnitte 28 wird vom Objekterkennungssystem 15 jeweils ein Objekterkennungs verfahren zur Identifizierung und Auswahl der mit der Handhabungsvorrichtung 5 aufnehmbaren und/oder bearbeitbaren Objekte 2 angewendet.The object set information contained in the recognition sections 28 comprises in particular object point coordinates, as well as movement information, wherein the object point coordinates represent parts of the optically detected surface of the object set 12. In Fig. 1, the detection sections 28 are shown as rectangular sections within the object recognition system 15. On the individual detection sections 28 of the object recognition system 15 each an object detection method for identifying and selecting the recordable with the handling device 5 and / or editable objects 2 is applied.
Die in den jeweiligen Erkennungsabschnitten 28 enthaltenen Objektmengeninformationen werden im Objekterkennungssystem 15 in der Weise analysiert, dass etwa in der durch Objektpunktkoordinaten repräsentierten Objektmengenoberfläche nach Übereinstimmungen mit dem Objekterkennungssystem 15 zugeführten Modellen der aufzunehmenden bzw. zu bear- beitenden Objekten 2 gesucht wird und anschließend die identifizierten Objekte 2, die von der Handhabungsvorrichtung 5 aufgenommen oder bearbeitet werden sollten, ausgewählt werden.The object quantity information contained in the respective recognition sections 28 is analyzed in the object recognition system 15 in such a way as to search for models of the objects 2 to be recorded or processed in the object set surface represented by object point coordinates, in accordance with models supplied to the object recognition system 15, and subsequently the identified objects 2, which should be picked up or processed by the handling device 5, are selected.
Auf die Kriterien dieses Auswahlverfahrens wird in Folge noch näher eingegangen.The criteria of this selection procedure will be discussed in more detail below.
Die vom Objekterkennungssystem 15 identifizierten und ausgewählten Objekte 2 bzw. die diese repräsentierenden Informationen werden in Folge von der Steuervorrichtung 9 in ausführbare Befehle für die Komponenten der Anlage 1 umgewandelt. Dies ist in Fig. 1 beispielhaft derart dargestellt, dass vom Objekterkennungssystem 15 ausgehende Objektinformationen einzelnen Komponentensteuerungen 29, 30 und 31 für die Fördervorrichtung 3, die Handhabungsvorrichtung 5 und die zweite Fördervorrichtung 10 weitergeleitet werden und diese die erforderlichen Aktionen zum Aufnehmen und/oder Bearbeiten der Objekte 2 ausführen. Die im Objekterkennungssystem 15 enthaltene Modellierung der aufzunehmenden Objekte 2 ist in Fig. 1 durch einen Modellspeicher 32 dargestellt, der etwa Objektinformationen in Form von CAD - Daten eines CAD - Systems 33 enthält. Die bei Objekten 2 häufig ohnedies vorliegenden CAD-Modell-Daten 34 können somit im Modellspeicher 32 des Objekterkennungs- Systems 15 hinterlegt werden und unmittelbar für die Identifizierung, Lokalisierung und Auswahl der aufzunehmenden Objekte 2 verwendet werden.The objects 2 identified or selected by the object recognition system 15 or the information representing them are converted by the control device 9 into executable instructions for the components of the system 1. This is illustrated by way of example in FIG. 1 such that object information originating from the object recognition system 15 is relayed to individual component controls 29, 30 and 31 for the conveyor device 3, the handling device 5 and the second conveyor device 10, and this takes the necessary actions to record and / or edit the Execute objects 2. The modeling of the objects 2 to be included in the object recognition system 15 is represented in FIG. 1 by a model memory 32 which contains, for example, object information in the form of CAD data of a CAD system 33. The CAD model data 34, which are frequently present anyway in the case of objects 2, can thus be stored in the model memory 32 of the object recognition system 15 and used directly for the identification, localization and selection of the objects 2 to be recorded.
Wie in Fig. 1 weiters durch strichlierte Linien angedeutet, können die Kamera 17 sowie die Lichtquelle 18 als räumlich zusammengehörige Kameraeinheit 35 ausgeführt sein, die in ei- nem kompakten Gehäuse alle erforderlichen Komponenten enthält.As further indicated by dashed lines in FIG. 1, the camera 17 and the light source 18 can be embodied as a spatially associated camera unit 35 which contains all the necessary components in a compact housing.
Fig. 2 zeigt anhand eines ebenfalls stark vereinfachten Schemas der Anlage 1 das erfiήdungs- gemäße Verfahren zum Aufnehmen und/oder Bearbeiten von bewegten Objekten 2 von einer Fördervorrichtung 3 mittels einer Handhabungsvorrichtung 5. Fig. 2 zeigt als strichliert dar- gestellte Blöcke das Sensorsystem 14, das hier durch das Bilderfassungssystem 16 gebildet ist, mit dem das Bilderfassungsverfahren ausgeführt wird und weiters das Objekterkennungssystem 15, mit dem das Objekterkennungs verfahren zur Identifizierung und Auswahl mit der Handhabungsvorrichtung 5 aufnehmbaren und/oder bearbeitbaren Objekte 2 ausgeführt wird.FIG. 2 shows, on the basis of a likewise greatly simplified scheme of the system 1, the method according to the invention for picking up and / or processing moving objects 2 from a conveyor device 3 by means of a handling device 5. FIG. 2 shows the sensor system 14 as blocks represented by dashed lines , which is formed here by the image acquisition system 16, with which the image acquisition method is performed and further the object recognition system 15, with which the object recognition process for identifying and selection with the handling device 5 recordable and / or editable objects 2 is performed.
Die auf der Fördervorrichtung 3 bewegte Objektmenge 12 umfasst eine variable Anzahl von Objekten 2, die identisch sein können, also einer Objekttype angehören oder die auch unterschiedlich sein können, also mehreren Objekttypen angehören können. Mit der Kamera 17 des Bilderfassungssystems 16, die auf die bewegte Objektmenge 12 gerichtet ist, werden optisch erfassbare Objektmengeninformationen als Bildinformationsstrom 36 vom Bilderfassungssys- tem 16 erfasst und für die weitere Bearbeitung durch das Objekterkennungssystem 15 in einer Bildspeicheranordnung 37 zwischengespeichert. Die Speicherstruktur des Bilderspeichers 37 ist in Fig. 2 beispielhaft als Ringbuffer 38 angedeutet, in dem die einzelnen Datenpakete 39 des Bildinformationsstroms 36 abgelegt werden. Die Fig. 2 zeigt der Einfachheit halber eine geringe Anzahl von Datenpaketen 39, wobei eine tatsächlich ausgeführte Anlage 1 selbstver- ständlich eine ungleich größere Anzahl an Bilddaten verarbeitet.The moving on the conveyor 3 object set 12 comprises a variable number of objects 2, which may be identical, ie belong to an object type or which may also be different, so may belong to several types of objects. With the camera 17 of the image acquisition system 16, which is directed onto the moving object set 12, optically detectable object quantity information is detected as image information stream 36 by the image acquisition system 16 and temporarily stored in an image storage arrangement 37 for further processing by the object recognition system 15. The memory structure of the image memory 37 is indicated in FIG. 2 by way of example as a ring buffer 38, in which the individual data packets 39 of the image information stream 36 are stored. For reasons of simplicity, FIG. 2 shows a small number of data packets 39, with a system 1 that is actually executed processing a much larger number of image data, of course.
Die von der Fördervorrichtung 3 an der Kamera 17 des Bilderfassungssystems 16 vorbeibewegte Objektmenge 12 ergibt einen kontinuierlichen Bildinformationsstrom 36 in Form von Datenpaketen 39, die in der Bildspeicheranordnung 37 abgespeichert werden. Aus der Bildspeicheranordnung 37 wird zur Durchführung des Objekterkennungsverfahrens eine zusammengehörige Gruppe von Datenpaketen 39 ausgelesen und wird auf diese Teilmenge der Bildinformation vom Objekterkennungssystem 15 ein Objekterkennungs verfahren angewen- det. Diese Gruppen von Datenpaketen 39 entsprechen den bereits anhand von Fig. 1 beschriebenen Erkennungsabschnitten 28 und enthalten die vom Bilderfassungssystem 16 erfassten Objektmengeninformationen, insbesondere in Form von Objektpunktkoordinaten und gegebenenfalls auch Bewegungsinformationen. Vor der Ausführung des Objekterkennungs Verfahrens stellen diese Objektpunktkoordinaten und Bewegungsinformationen Informationen über die optisch erfassbare Oberfläche der Objektmenge 12 dar, die aus einer vorerst unbekannten Anordnung von Objekten 2 auf der Fördervorrichtung 3 gebildet ist. Diese noch nicht analysierten Objektmengeninformationen werden, falls diese Objektpunkte definieren, häufig auch als Punktewolke bezeichnet.The amount of object 12 moved by the conveying device 3 past the camera 17 of the image acquisition system 16 results in a continuous image information stream 36 in the form of Data packets 39 which are stored in the image memory arrangement 37. An associated group of data packets 39 is read from the image memory arrangement 37 for carrying out the object recognition method, and an object recognition method is applied to this subset of the image information by the object recognition system 15. These groups of data packets 39 correspond to the recognition sections 28 already described with reference to FIG. 1 and contain the object quantity information acquired by the image acquisition system 16, in particular in the form of object point coordinates and optionally also movement information. Prior to the execution of the object recognition method, these object point coordinates and movement information represent information about the optically detectable surface of the object set 12, which is formed from an initially unknown arrangement of objects 2 on the conveyor device 3. These not yet analyzed object set information, if these object points define, is often referred to as a point cloud.
In Fig. 2 ist in der Bildspeicheranordnung 37 ein erster Erkennungsabschnitt 28 mit a' gekennzeichnet und umfasst dieser eine konkrete Anzahl an Datenpaketen 39; ebenso ist in der Bildspeicheranordnung 37 ein zweiter Erkennungsabschnitt 28 mit b' gekennzeichnet und umfasst dieser ebenfalls eine definierte Anzahl von Datenpaketen 39. Die Erkennungsabschnitte a' und b' werden in Folge vom Objekterkennungssystem 15 aus der Bildspeicheran- Ordnung 37 — hier in Form eines Ringpuffers 38 - ausgelesen und darauf jeweils das Objekterkennungsverfahren angewendet. Die zur Objekterkennung eingesetzten Berechnungsalgo- rithmen werden mittels einer Recheneinheit 40, etwa eines Prozessors, durchgeführt und werden damit in den einzelnen Erkennungsabschnitten 28 - hier beispielhaft aus den nunmehr in das Objekterkennungssystem 15 übernommenen Erkennungsabschnitten a" und b" darin enthaltene Objekte 2 identifiziert, wobei die Identifizierung hier insbesondere gerichtet ist auf den Objekttyp, die Objektposition und die Objektorientierung.In FIG. 2, a first recognition section 28 is marked with a 'in the image storage arrangement 37 and comprises a specific number of data packets 39; Similarly, in the image memory arrangement 37, a second detection section 28 is labeled with b 'and this also includes a defined number of data packets 39. The detection sections a' and b 'are in sequence from the object recognition system 15 from the Bildspeicheran- order 37 - here in the form of a ring buffer 38 - read out and applied to each of the object recognition method. The calculation algorithms used for object recognition are carried out by means of a computing unit 40, such as a processor, and are thereby identified in the individual recognition sections 28-here by way of example from the recognition sections a "and b" now incorporated in the object recognition system 15, therein the identification here is in particular directed to the object type, the object position and the object orientation.
Ein zusätzliches Ergebnis des Objekt erkennungsverfahrens kann eine Gütebewertungskennzahl der Objekterkennung sein, die angibt, wie gut ein identifiziertes Objekt 2 mit einem im Modellspeicher 32 hinterlegten Soll-Objekt-Modell übereinstimmt.An additional result of the object recognition method may be a quality evaluation characteristic number of the object recognition, which indicates how well an identified object 2 matches a desired object model stored in the model memory 32.
An den identifizierten Objekten 2 wird weiters eine Kollisionsprüfung durchgeführt, mit der festgestellt wird, ob ein identifiziertes Objekt 2 bei der ermittelten Orientierung und Position vom Endeffektor 7 der Handhabungsvorrichtung 5 kollisionsfrei aufgenommen werden kann. Dabei sind benachbarte Objekte 2 sowie weitere bekannte Hindernisse, insbesondere die För- dervorrichtung 3, zu berücksichtigen. Diese Kollisionsprüfung kann vom Objekterkennungssystem 15 durchgeführt werden, ist jedoch evtl. zum Teil in der Komponentensteuerung 30 der Handhabungsvorrichtung 5 implementiert und kann von dieser durchgeführt werden.At the identified objects 2, a collision check is further carried out, with which it is determined whether an identified object 2 in the determined orientation and position can be absorbed by the end effector 7 of the handling device 5 collision-free. In this case, adjacent objects 2 as well as other known obstacles, in particular the conveying device 3, must be considered. This collision check may be performed by the object recognition system 15, but may be implemented in part and may be performed by the component controller 30 of the handler 5.
Wie in Fig. 2 ersichtlich, entsprechen den Erkennungsabschnitten 28 in der Bildspeicheranordnung 37 konkrete Erkennungsabschnitte 28 der von der Fördervorrichtung 3 bewegten Objektmenge 12, die hier mit a und b bezeichnet sind. Wie in Fig. 2 weiters dargestellt, kön- nen sich die Erkennungsabschnitte 28, etwa wie hier die Erkennungsabschnitte a und b alsAs can be seen in FIG. 2, the detection sections 28 in the image memory arrangement 37 correspond to specific detection sections 28 of the object set 12 moved by the conveying device 3, which are designated here by a and b. As shown further in FIG. 2, the recognition sections 28, as here the recognition sections a and b, can be referred to as
Teilmengen der Objektmengen 12 auf der Fördervorrichtung 3 überschneiden und zusammen einen Überlappungsabschnitt 41 bilden, wobei Objektmengeninformationen aus dem Überlappungsabschnitt 41 sowohl als Objekt 2 im Erkennungsabschnitts a, als auch als Objekt 2 des Erkennungsabschnitts b, dem Objekterkennungs verfahren unterzogen werden. Die Bildin- formationen des Überlappungsabschnitts 41 werden vom Bilderfassungssystem 16 im Zuge der kontinuierlichen Erfassung des Bildinformationsstroms 36 als Datenpakete 39 in der Bildspeicheranordnung 37 zwischengespeichert und sind hier an dieser mit 41' gekennzeichnet.Subsets of the sets of objects 12 overlap on the conveyor 3 and together form an overlap section 41, wherein object amount information from the overlapping portion 41 both as an object 2 in the recognition section a, and as object 2 of the recognition section b, the object recognition process undergo. The image information of the overlapping section 41 is temporarily stored by the image acquisition system 16 in the course of the continuous acquisition of the image information stream 36 as data packets 39 in the image storage arrangement 37 and are here marked 41 '.
Die Ausdehnung 42 eines Überlappungsabschnitts 41 ergibt sich als Differenz aus der Größe 43 des Erkennungsabschnitts a verringert um einen Abstand 44 zwischen einer Vorderkante 45 des ersten Erkennungsabschnitts a und einer Vorderkante 46 des zweiten Erkennungsabschnitts b. Im Beispiel gemäß Fig. 2 befinden sich auf der Fördervorrichtung 3 im Erkennungsabschnitt a zwei Objekte al und a2, sowie im Erkennungsabschnitt b das Objekt a2 und weitere Objekte 2. Das Objekt a2 befindet sich zur Gänze im Überlappungsabschnitt 41. Dies ist möglich, wenn seine Maximalabmessung 47 kleiner ist als die Ausdehnung 42 des Überlappungsabschnitts 41. Bei der dargestellten Konstellation der Objekte 2 der Objektmenge 12 sowie der Erkennungsabschnitte a und b werden die vom Objekt a2 bewirkten Bilddaten im Bilderfassungssystem nur einmal erfasst und in der Bildspeicheranordnung 37 zwischengespeichert, durch die Aufteilung des Bildinformationsstroms 36 in Erkennungsabschnitte 28 jedoch vom Objekterkennungssystem 15 sowohl im ersten Erkennungsabschnitt a" als auch im zweiten Erkennungsabschnitt b" dem Objekterkennungs verfahren unterworfen. Die in Fig. 2 beispielhaft dargestellte Anordnung der Objekte 2 in der Objektmenge 12 bewirkt, dass das Objekt al vom Objekterkennungssystem 15 als Objekt al " erkannt wird und dass das Objekt a2, das sich zur Gänze im Überlappungsabschnitt 41 befindet, sowohl aus dem Erkennungsabschnitt a" als Objekt a2" erkannt wird, als auch aus dem Erkennungsab- schnitt b" als Objekt bl " erkannt wird. Da es sich bei den vom Objekterkennungssystem 15 erkannten Objekten a2" und bl" in der Realität lediglich um ein einziges Objekt a2 handelt, umfasst das Objekterkennungssystem 15 bzw. das damit ausgeführte Objekterkennungsverfahren weiters eine Prüfverfahren um Objekte 2, die sich in einem Überlappungsabschnitt 41 befinden und dadurch mehrfach identifiziert und lokalisiert werden, als Mehrfachidentifikati- on zu erkennen und der nachfolgenden Komponentensteuerung 30 der Handhabungsvorrichtung 5 als lediglich ein einziges aufzunehmbares bzw. zu bearbeitbares Objekt a2 weiterzuleiten.The extent 42 of an overlap section 41 results as a difference between the size 43 of the recognition section a and a distance 44 between a front edge 45 of the first recognition section a and a front edge 46 of the second recognition section b. In the example according to FIG. 2, two objects al and a2 are located on the conveying device 3 in the recognition section a, as well as the object a2 and further objects 2 in the recognition section b. The object a2 is located entirely in the overlapping section 41. This is possible if its Maximum dimension 47 is smaller than the extent 42 of the overlap portion 41. In the illustrated constellation of the objects 2 of the object set 12 and the detection sections a and b, the image data caused by the object a2 captured in the image acquisition system only once and cached in the image storage device 37, by the division However, the image information stream 36 in detection sections 28 of the object recognition system 15 in both the first recognition section a "and in the second recognition section b" subjected to the object recognition process. The arrangement of the objects 2 in the object set 12 shown by way of example in FIG. 2 causes the object al to be recognized by the object recognition system 15 as an object al "and the object a2, which is located entirely in the overlapping section 41, both from the recognition section a is recognized as object a2 "as well as being recognized as object bl" from the recognition section b ", since in reality the objects a2" and bl "recognized by the object recognition system 15 are only a single object a2, The object recognition system 15 or the object recognition method carried out therewith further comprises a test method for recognizing objects 2 which are located in an overlapping section 41 and thereby identified and located several times as multiple identifiers and the following component controller 30 of the handling device 5 as a single one to forward to be picked or editable object a2.
Da die Anlage 1 zum Aufnehmen und/oder Bearbeiten von Objekten 2 verschiedenster Größe geeignet sein soll, kann die Größe 43 der Ergänzungsabschnitte 28 und/oder die Ausdehnung der Überlappungsabschnitte 41 variabel programmierbar sein, etwa indem pro Erkennungsabschnitt 28 anpassbare Anzahlen von Datenpaketen 39 ausgelesen werden. Dadurch kann insbesondere die Ausdehnung 42 der Überlappungsabschnitte 41 so gewählt werden, dass diese größer ist als eine Maximalabmessung 47 der aufzunehmenden und/oder zu bearbeitenden Objekte 2. Falls mehrere Objekttypen gleichzeitig in der Objektmenge 12 enthalten sind, kann dazu insbesondere die Maximalabmessung 47 des größten Objekttyps zur Festlegung der Ausdehnung 42 der Überlappungsabschnitte 41 herangezogen werden.Since the system 1 should be suitable for receiving and / or processing objects 2 of very different sizes, the size 43 of the supplementary sections 28 and / or the extent of the overlapping sections 41 can be variably programmable, for example by reading out per detector section 28 adaptable numbers of data packets 39 , As a result, in particular the extent 42 of the overlapping sections 41 can be chosen such that it is greater than a maximum dimension 47 of the objects 2 to be recorded and / or processed. If several object types are contained in the object set 12 at the same time, the maximum dimension 47 of the largest can in particular be included Object type for determining the extent 42 of the overlapping sections 41 are used.
Fig. 3 zeigt eine weitere Ausführungsform einer Anlage 1 zum Ausfuhren des erfmdungsge- mäßen Verfahrens zum Aufnehmen und/oder Bearbeiten von Objekten 2, das an einer von einer Fördervorrichtung 3 bewegten Objektmenge 12 ausgeführt wird.3 shows a further embodiment of a system 1 for exporting the method according to the invention for picking up and / or processing objects 2, which is executed on an object set 12 moved by a conveyor device 3.
Bei dieser Verfahrensvariante wird in einem ersten Erfassungsbereich 48 die in Förderrich- tung 13 bewegte Objektmenge 12 mittels der Kamera 17 optisch erfasst und anhand des dabei erzeugten Bildinformationsstroms 36 das bereits anhand von Fig. 1 und Fig. 2 beschriebeneIn this variant of the method, the object quantity 12 moved in the conveying direction 13 is optically detected in a first detection area 48 by means of the camera 17, and the image information stream 36 generated thereby already described with reference to FIGS. 1 and 2
Verfahren zur Lokalisierung, Identifizierung und Auswahl eines mit der Handhabungsvorrichtung 5 aufhehmbaren und/oder bearbeitbaren Objekts 2 ausgeführt. Der Bildinformationsstrom 36 wird dabei vom Bilderfassungssystem 16 und dem Objekterkennungssystem 15 in Erkennungsabschnitte 28 unterteilt und auf diese die Algorithmen zur Objekterkennung angewendet. Zusätzlich wird bei dieser Verfahrensvariante in einem zweiten Erfassungsbereich 49, der im Greifbereich 50 der Handhabungsvorrichtung 5 liegt, mittels einer zweiten Kamera 51 an der bewegten Objektmenge 12 eine zweite Bilderfassung sowie eine zweite Objekter- kennung ausgeführt. Die Anlage 1 umfasst dazu eine zweite Kamera 51 , ein zweites Bilderfassungssystem 52 sowie ein zweites Objekterkennungssystem 53. Durch das in einem zeitlichen Abstand zur ersten Bilderfassung und Objekterfassung angewendete zweite Bilderfassungsverfahren und Objekterkennungs verfahren werden die Objekte 2 der bewegten Objektmenge 12 im Bereich des Greifbereichs 50 der Handhabungsvorrichtung 5 zumindest ein wei- teres mal erfasst. Dadurch wird ein Zustand der Objektmenge 12 erfasst, der zeitlich näher beim Aufnehmen und/oder Bearbeiten der Objekte 2 durch die Handhabungsvorrichtung 5 gelegen ist und kann diese zweite Bilderfassung und Objekterkennung dazu benutzt werden, die Ergebnisse der ersten Bilderfassung und Objekterfassung, basierend auf dem ersten Bildinformationsstrom 36 der ersten Kamera 17, auf mögliche Veränderungen der einzelnen Ob- jekte 2 innerhalb der Objektmenge 12 zu überprüfen. Diese zweite Bilderfassung und anschließende Objekt erkennung kann insbesondere dazu benutzt werden, die anhand der ersten Bilderfassung und Objekterkennung lokalisierten, identifizierten und ausgewählte Objekte 2 kurz vor dem eigentlichen Einwirken des Endeffektors 7 der Handhabungsvorrichtung 5 noch einmal einer Überprüfung der erwarteten Position unterzogen werden. Diese zweite Bilderfas- sung und Objekt erkennung kann mit wesentlich geringerem Aufwand durchgeführt werden, da eine derartige Lageüberprüfung von vorbekannten Objekten 2 - nämlich aus der ersten Bilderfassung und Objekterkennung vorbekannten Objekten 2 - auf wenige Punkte der Oberfläche eines Objekts 2 beschränkt werden kann. Die zweite Objekterkennung kann dadurch mit einem wesentlich geringerem Rechenaufwand durchgeführt werden und die dadurch be- dingte kurze Berechnungszeit erlaubt es, diese zweite Bilderfassung zeitlich kurz vor dem eigentlichen Aufnehmen und/oder Bearbeiten eines Objekts 2 durchzufuhren. Das zweite vom Objekterkennungssystem 53 angewendete Objekterkennungs verfahren kann dabei die Ergebnisse des ersten Objekterkennungsverfahrens mittels des ersten Objekterkennungssystems 15 benutzen, was in Fig. 3 durch einen Pfeil 54 zwischen dem ersten Objekterkennungssystem 15 und dem zweiten Objekterkennungssystem 53 angedeutet ist, wodurch wiederum Rechenleistung eingespart werden kann oder eine vollständig eigenständige Objekt erkennung durchführen, ohne die Ergebnisse des ersten Objekterkennungsverfahrens heranzuziehen. Die Bilderfassungssysteme 16, 52 sowie die Objekterkennungssysteme 15, 53 sind Bestandteil der Steuerungseinrichtung 9, und müssen nicht wie dargestellt baulich getrennte Einheiten sein, sondern können durchaus in einer gemeinsamen Einheit implementiert sein.Method for locating, identifying and selecting an object 2 which can be raised and / or processed by the handling device 5. The image information stream 36 is thereby from the image acquisition system 16 and the object recognition system 15 in Detection sections 28 divided and applied to this the algorithms for object recognition. In addition, in this process variant, in a second detection area 49, which lies in the gripping area 50 of the handling device 5, a second image detection and a second object detection are carried out by means of a second camera 51 on the moving object set 12. For this purpose, the system 1 comprises a second camera 51, a second image acquisition system 52 and a second object recognition system 53. The second image acquisition method and object recognition method applied at a time interval to the first image acquisition and object detection become the objects 2 of the moving object set 12 in the region of the gripping region 50 the handling device 5 detected at least one more times. Thereby, a state of the object set 12 closer in time to receiving and / or processing of the objects 2 by the handling device 5 is detected, and this second image detection and object recognition can be used, the results of the first image detection and object detection based on the first Image information stream 36 of the first camera 17 to check for possible changes of the individual objects 2 within the object set 12. This second image capture and subsequent object recognition can be used in particular to be subjected to the first image acquisition and object recognition located, identified and selected objects 2 shortly before the actual action of the end effector 7 of the handling device 5 once again a review of the expected position. This second image detection and object recognition can be carried out with considerably less effort, since such a positional check of previously known objects 2-namely, objects 2 known from the first image detection and object recognition-can be restricted to a few points on the surface of an object 2. As a result, the second object detection can be carried out with a significantly lower computation effort, and the resulting short computation time makes it possible to perform this second image acquisition shortly before the actual recording and / or processing of an object 2. The second object detection method used by the object recognition system 53 can use the results of the first object recognition method by means of the first object recognition system 15, which is indicated in FIG. 3 by an arrow 54 between the first object recognition system 15 and the second object recognition system 53, which in turn can save computing power or perform a completely separate object detection, without the results of the first object recognition method to use. The image acquisition systems 16, 52 and the object recognition systems 15, 53 are part of the Control device 9, and do not have to be structurally separate units as shown, but may well be implemented in a common unit.
Fig. 3 zeigt für den Vergleich der Ergebnisse der ersten Objekterkennung und der zweiten Objekterkennung eine Vergleichereinheit 55, die ebenfalls Teil des Objekt erkennungssystems 15 bzw. 53 sein kann und diesen Vergleich zwischen den anhand des zweiten Bilderfassungsverfahrens identifizierten Objekten 2 und den mittels des ersten Bilderfassungsverfahrens ermittelten Objekten 2 durchführt. Für den Fall, dass die zweite Objekterkennung die für den Greifbereich 50 vorausberechnete Position eines Objekts 2 bestätigt, kann an die Komponen- tensteuerung 30 der Handhabungsvorrichtung 5 der Befehl zum Aufnehmen und/oder Bearbeiten dieses Objekts 2 gegeben werden. Wie in Fig. 3 weiters angedeutet, ist es auch möglich, dass zur Durchführung des zweiten Bilderfassungsverfahrens und Objekterkennungsverfahrens eine zweite Kamera 51 nicht ortsfest angeordnet ist, sondern durch eine zweite Kamera 51 ' an der Handhabungsvorrichtung 5 der Greifbereich 50 der Handhabungsvorrichtung 5 optisch erfasst bzw. überwacht werden kann. Auch bei dieser Anordnung der Kamera 51 ' ist es möglich, die anhand des ersten Bilderfassungsverfahrens und der ersten Objekterkennung identifizierten und ausgewählten Objekte 2 kurz vor dem Aufnehmen und/oder Bearbeiten auf ihre vorausberechnete, richtige Lage hin zu überprüfen.FIG. 3 shows a comparator unit 55 for the comparison of the results of the first object recognition and the second object recognition, which can likewise be part of the object recognition system 15 or 53 and this comparison between the objects 2 identified using the second image acquisition method and that by means of the first image acquisition method performed objects 2 performs. In the event that the second object recognition confirms the position of an object 2 precalculated for the gripping area 50, the command for picking up and / or editing this object 2 can be given to the component controller 30 of the handling device 5. As further indicated in FIG. 3, it is also possible for a second camera 51 not to be stationary in order to carry out the second image capturing method and object recognition method, but optically to capture or grasp the gripping region 50 of the handling device 5 by a second camera 51 'on the handling device 5 . can be monitored. Even with this arrangement of the camera 51 ', it is possible to check the objects 2 identified and selected on the basis of the first image acquisition method and the first object recognition shortly before recording and / or editing to their predicted, correct position.
Wenn Objekte 2 bei der Bewegung auf der Fördervorrichtung 3 der Gefahr unterliegen, Lageveränderungen auszuführen, können durch diese doppelte Bilderfassung und Objekterkennung den Ablauf störende Veränderungen der Positionen der Objekte 2 erkannt werden und ein nicht erfolgreicher bzw. eventuell sogar Beschädigungen hervorrufender GreifVorgang und/oder Bearbeitungsvorgang vermieden werden. Bei dieser Ausfuhrung des Verfahrens ist es weiters von Vorteil, wenn das zweite Objekt erkennungsverfahren den von der zweitenIf objects 2 are subject to the movement of position changes during movement on the conveyor device 3, the sequence of disturbing changes in the positions of the objects 2 can be detected by this double image acquisition and object recognition and a unsuccessful or possibly even causing damage gripping operation and / or processing operation be avoided. In this execution of the method, it is also advantageous if the second object detection method of the second
Kamera 51, 51 ' gelieferten Bildinformationsstrom ebenfalls in Erkennungsabschnitte unterteilt und diese Erkennungsabschnitte so gelegt werden, dass diese zumindest annähernd mit den Erkennungsabschnitten 28 im ersten Bilderfassungsverfahren und Objekterkennungs verfahren übereinstimmen oder korrespondieren.Camera 51, 51 'supplied image information stream also divided into detection sections and these detection sections are placed so that they at least approximately match or correspond to the detection sections 28 in the first image detection method and object recognition method.
Fig. 4 zeigt einen stark vereinfachten Ausschnitt einer Fördervorrichtung 3 mit einer darauf in Fördeπϊchtung 13 bewegten Objektmenge 12, die aus unterschiedlichen Objekttypen besteht und in der die Objekte 2 in ungeordneter Lage von der Fördervorrichtung 3 bewegt werden. Wenn nun bei einer derartigen Objektmenge 12 mit niedrigem Ordnungsgrad im Zuge der Bilderfassung und Objekterkennung ein Erkennungsabschnitt 28 ausgewählt wird, ist es möglich, dass in diesem Erkennungsabschnitt 28 Objekte 2 verschiedener Objekttypen sowie die Objekte 2 in beliebiger Orientierung enthalten sind. In diesem Fall sind die Anforderungen an das Objekterkennungssystem 15 sehr hoch, da die mittels der Bilderfassung erfasste Objektmengenoberfläche mit verschiedenen Objekttypen verglichen werden muss bzw. in dieser Objektmengenoberfläche nach Übereinstimmungen mit verschiedenen Objekttypen mittels der Algorithmen gesucht werden muss. Die im Zuge der Objekterkennung erforderliche Segmentierung der Bilddaten innerhalb eines Erkennungsabschnitts 28, also der Aufteilung der Bilddaten in mit hoher Wahrscheinlichkeit einzelne Objekte 2 enthaltende Teilbereiche, ist bei einer derartig ungeordneten Objektmenge 12 ungleich komplizierter als etwa bei vereinzelten Objekten 2.4 shows a greatly simplified section of a conveying device 3 with an object set 12 moved thereon in conveying direction 13, which consists of different object types and in which the objects 2 are moved in an unordered position by the conveying device 3. If, in the case of such an object set 12 with a low degree of order, a recognition section 28 is selected in the course of image acquisition and object recognition, it is possible for objects 2 of different types of objects and objects 2 to be contained in this recognition section 28 in any desired orientation. In this case, the requirements for the object recognition system 15 are very high, since the object quantity surface detected by means of the image acquisition has to be compared with different object types or has to be searched in this object quantity surface for matches with different object types by means of the algorithms. The segmentation of the image data within a recognition section 28, ie the division of the image data into parts regions 2 which are highly likely to contain individual objects 2, is much more complicated than in the case of isolated objects 2 in the case of such a disordered object set 12.
Fig. 5 zeigt einen ebenfalls stark vereinfachten Ausschnitt aus einer Fördervorrichtung 3 mit einer darauf in Förderrichtung 13 bewegten Objektmenge 12, wobei hier die Objekte 2 mit höherem Ordnungsgrad angeordnet sind als in der Objektmenge 12 in Fig. 4. Die Objekte 2 sind hier innerhalb der Objektmenge 12 vereinzelt, besitzen also zueinander einen Abstand, der im Ausführungsbeispiel gemäß Fig. 5 beispielsweise durch einen Objektträger 56, der einen Teil der Objektmenge 12 also eine begrenzte Anzahl an Objekten 2 trägt und von der Fördervorrichtung 3 bewegt wird, bewirkt wird. Der Objektträger 56 kann dabei Unterteilungsmittel 57 auffassen, die die Vereinzelung der Objekte 2 auf dem Objektträger 56 bewirken oder erleichtern sowie beibehalten. Derartige Unterteilungsmittel 57 können etwa durch eine Facheinteilung 58, wie sie in Fig. 5 dargestellt ist, verwirklicht sein. Eine derartige Facheinteilung 58 kann so ausgeführt sein, dass am Objektträger 56 in jedem Aufnahmefach genau ein Objekt 2 enthalten ist. Die aus den in den Aufnahmefächern enthaltenen Objekten 2 zusammengesetzte Objektmenge 12, die unter Benutzung eines Objektträgers 56 von der För- dervoπϊchtung 3 bewegt wird, besitzt einen ungleich höheren Ordnungsgrad als in der ungeordneten Lage der Objekte 2 gemäß Fig. 4, wodurch die Objekterkennung mit einfacheren Algorithmen und mit wesentlich geringerem Rechenaufwand durchgeführt werden kann. Der Objektträger 56 zur Erhöhung des Ordnungsgrades kann auch durch die Fördervorrichtung 3 selbst gebildet sein, etwa indem das die Objektmenge 12 bewegende Förderband selbst Elemente wie Fächer, Stege, Noppen, Ausnehmungen, Leisten usw. aufweist und die Objekte 2 dadurch einerseits in gewissem Maße einer Vereinzelung unterzogen werden und auch in ih- rer Lage bezüglich des Förderbandes stabilisiert werden. So ist etwa durch ein Förderband mit noppenartigen Erhöhungen oder muldenförmigen Vertiefungen ein stabilisiertes Bewegen auch von schwierig zu fördernden Objekten 2, wie etwa zylindrischen oder kugelförmigen Gegenständen möglich.FIG. 5 shows a likewise greatly simplified section of a conveying device 3 with an object set 12 moved thereon in the conveying direction 13, wherein here the objects 2 are arranged with a higher degree of order than in the object set 12 in FIG. 4. The objects 2 are here within the Object set 12 isolated, so have a distance to each other, which in the embodiment of FIG. 5, for example by a slide 56, which carries a portion of the object set 12 so a limited number of objects 2 and is moved by the conveyor 3, is effected. In this case, the object carrier 56 can conceive subdivision means 57 which bring about or facilitate the separation of the objects 2 on the object carrier 56 or maintain it. Such subdivision means 57 may be realized, for example, by a bin division 58, as shown in FIG. 5. Such a compartments 58 may be designed so that exactly one object 2 is contained in the slide 56 in each receptacle. The object set 12 composed of the objects 2 contained in the receiving compartments, which is moved by means of a slide 56 from the conveyor 3, has a much higher degree of order than in the disordered position of the objects 2 according to FIG. 4, whereby the object recognition simpler algorithms and can be performed with significantly lower computational effort. The slide 56 for increasing the degree of order can also be formed by the conveyor 3 itself, such as by the object 12 moving conveyor belt itself elements such as subjects, webs, knobs, recesses, bars, etc. and the objects 2 on the one hand to a certain extent one Be subjected to separation and also in their be stabilized position relative to the conveyor belt. Thus, for example, a stabilized movement of difficult-to-convey objects 2, such as cylindrical or spherical objects is possible by a conveyor belt with knob-like elevations or trough-shaped depressions.
Durch diese Erhöhung des Ordnungsgrades wie etwa in Fig. 5 durch Vereinzelung der Objekte 2 innerhalb der Objektmenge 12 werden an die für die Durchführung des Bilderfassungsverfahrens und des Objekterkennungsverfahrens erforderlichen Systemkomponenten geringere Hardwareanforderungen gestellt oder kann diese Erleichterung der Objekterkennung dazu verwendet werden, einen kürzeren Zeitraum für die Objekterkennung vorsehen zu müssen, das heißt, dass etwa die Durchsatzleistung der geförderten Objekte 2 pro Zeiteinheit erhöht werden kann oder auch der zeitliche Abstand zwischen Bilderfassung einerseits und Aufnehmen und/oder Bearbeiten der Objekte 2 andererseits reduziert werden kann, wodurch insgesamt die Leistung und/oder die Zuverlässigkeit einer derartigen Anlage 1 erhöht werden kann.By increasing the degree of order, such as in FIG. 5, by separating the objects 2 within the object set 12, the system components required to perform the image capture process and the object recognition process have lower hardware requirements, or this object detection facilitation can be used for a shorter time period Having to provide the object recognition, that is, about the throughput of the promoted objects 2 per unit time can be increased or the time interval between image acquisition on the one hand and recording and / or editing of the objects 2 on the other hand can be reduced, whereby overall the performance and / or the reliability of such a system 1 can be increased.
Fig. 6 zeigt ausschnittsweise eine Draufsicht auf eine Fördervorrichtung 3, auf der eine Objektmenge 12 mittels eines Objektträgers 56 in Förderrichtung 13 bewegt wird. Die Objektmenge 12 besteht in diesem Ausführungsbeispiel aus zwei unterschiedlichen Objekttypen - hier mit dreieckiger und kreisförmiger Grundfläche - wobei die einzelnen Objekte 2 mit Ab- stand zueinander, also vereinzelt auf dem Objektträger 56 angeordnet sind, ihre Orientierung um die zur Oberfläche der Fördervorrichtung rechtwinkelige Hochachse jedoch beliebig ist. Die Vereinzelung der Objekte 2 auf dem Objektträger 56 kann dabei durch regelmäßig, insbesondere rasterartig angeordnete Haltemittel 59 gewährleistet sein, die jeweils ein Objekt 2 in einer zumindest annähernd gegenüber benachbarten Objekten 2 vereinzelten Position halten können. Wie Fig. 6 weiters zeigt, kann ein Objektträger 56 für das Sensorsystem 14, insbesondere das Bilderfassungssystem 16 und das Objekterkennungssystem 15 erkennbare Lokalisierungsmarkierungen 60 aufweisen, die eine Vereinfachung der Lokalisierung und Erkennung des Objektträgers und damit in Folge auch der der darauf rasterartig angeordneten Objekte 2 ermöglicht.6 shows a detail of a plan view of a conveying device 3, on which an object quantity 12 is moved by means of a specimen slide 56 in the conveying direction 13. The object set 12 consists in this embodiment of two different types of objects - here with a triangular and circular base - the individual objects 2 with distance to each other, so sporadically arranged on the slide 56, however, their orientation about the perpendicular to the surface of the conveyor vertical axis is arbitrary. The separation of the objects 2 on the slide 56 can be ensured by regularly, in particular grid-like arranged holding means 59, each of which can hold an object 2 in an at least approximately separated from adjacent objects 2 position. As FIG. 6 furthermore shows, a slide 56 for the sensor system 14, in particular the image capture system 16 and the object recognition system 15, can have recognizable localization markings 60 which simplify the localization and recognition of the slide and consequently also the objects 2 arranged thereon like a grid allows.
Fig. 7 zeigt ähnlich wie Fig. 6 eine Draufsicht auf einen von einer Fördervorrichtung 3 bewegten Objektträger 56, mit dem die Objektmenge 12 in Förderrichtung 13 bewegt wird. Bei diesem Ausführungsbeispiel sind die einzelnen Objekte 2 der Objektmenge 12 nur von einer Objekttype und an der Oberseite des Objektträgers alle mit derselben Orientierung angeordnet. Die Objektmenge 12 besitzt damit einen sehr hohen Ordnungsgrad, der die von der Anlage 1 auszuführende Bilderfassung und daran anschließende Objekterkennung noch weiter vereinfachen kann. Die Fixierung der Objekte 2 auf dem Objektträger 56 erfolgt in diesem Ausführungsbeispiel durch Haltemittel 59 in Form von Tragleisten 61, die an der Oberseite zueinander beabstandete Magnetelemente 62 aufweisen, mit denen ferromagnetische Objekte 2 in ihrer Position auf den Tragleisten 61 fixiert werden können. Die Form der Tragleisten 61 erlaubt eine gute Zugänglichkeit der Objekte 2 für einen Endeffektor 7 der Handhabungsvorrichtung 5, beispielsweise für das Aufnehmen mittels eines Zangengreifers, da durch die ge- genüber dem Grundkörper des Objektträgers 56 erhabenen Tragleisten 61 das Ergreifen von Objekten 2 erleichtert. Anstelle von Magnetelementen 62 können selbstverständlich auch Vakuumsaugelemente, adhäsiv wirkende Haftelemente, Elektrostatikelemente, Klemmelemente oder ähnlich wirkende Haltemittel 59 vorgesehen sein.Similar to FIG. 6, FIG. 7 shows a plan view of a slide 56 moved by a conveying device 3, with which the quantity of object 12 is moved in the conveying direction 13. In this embodiment, the individual objects 2 of the object set 12 are only one Object type and at the top of the slide all arranged with the same orientation. The object set 12 thus has a very high degree of order, which can further simplify the image acquisition to be carried out by the system 1 and subsequent object recognition. The fixation of the objects 2 on the slide 56 is effected in this embodiment by holding means 59 in the form of support strips 61 which have at the top of each other spaced apart magnetic elements 62, with which ferromagnetic objects 2 can be fixed in position on the support bars 61. The shape of the support strips 61 allows good accessibility of the objects 2 for an end effector 7 of the handling device 5, for example for picking up by means of a forceps gripper, since the support bars 61 raised relative to the base body of the object carrier 56 facilitate gripping of objects 2. Of course, instead of magnetic elements 62, it is also possible to provide vacuum suction elements, adhesively acting adhesive elements, electrostatic elements, clamping elements or similarly acting holding means 59.
In der Fig. 8 ist eine weitere und gegebenenfalls für sich eigenständige Ausführungsform der Anlage 1 gezeigt, wobei wiederum für gleiche Teile gleiche Bezugszeichen bzw. Bauteilbezeichnungen wie in den vorangegangenen Fig. 1 bis 7 verwendet werden. Um unnötige Wiederholungen zu vermeiden, wird auf die detaillierte Beschreibung in den vorangegangenen Fig. 1 bis 7 hingewiesen bzw. Bezug genommen.FIG. 8 shows a further embodiment of the system 1, which may be independent of itself, with the same reference numerals or component designations being used again for the same parts as in the preceding FIGS. 1 to 7. In order to avoid unnecessary repetition, reference is made to the detailed description in the preceding Figs. 1 to 7 or reference.
Bei dieser Ausführung der Anlage 1 umfasst diese ähnlich wie in Fig. 1 eine Fördervorrichtung 3, hier wieder in Form eines Förderbandes 4, mit der eine aus Objekten 2 zusammengesetzte Objektmenge 12 in Förderrichtung 13 in den Greifbereich 50 einer Handhabungsvorrichtung 5, etwa in Form eines Roboters 6 bewegt wird. Wie bereits anhand von Fig. 2 be- schrieben, wird der von der Kamera 17 generierte Bildinformationsstrom 36, der die optisch erfasste Information über die bewegte Objektmenge 12 enthält, zur Durchführung des Objekterkennungsverfahrens im Objekterkennungssystem 15 in Erkennungsabschnitte 28 unterteilt, auf die die Algorithmen zur Objekterkennung angewendet werden. Die in den einzelnen Erkennungsabschnitten 28 enthaltenen Objektmengeninformationen in Form von Objektpunkt- koordinaten werden auch in diesem Ausführungsbeispiel wieder mit in einem Modellspeicher 32 enthaltenen CAD - Modell - Daten 34 verglichen und dadurch aufnehmbare Objekte 2 lokalisiert, identifiziert und ausgewählt. Von der Handhabungsvorrichtung 5 nicht aufgenommene Objekte 2 werden in der Anlage 1 an eine Rückfördervorrichtung 63 übergeben, mit der diese Objekte 2 wieder an den Beginn der Fördervorrichtung 3 zurückbewegt werden können, wodurch ein Objektkreislauf gebildet ist.In this embodiment of the system 1, similar to FIG. 1, it comprises a conveying device 3, here again in the form of a conveyor belt 4, with which an object set 12 composed of objects 2 is conveyed in the conveying direction 13 into the gripping region 50 of a handling device 5, for instance in the form of a conveyor Robot 6 is moved. As already described with reference to FIG. 2, the image information stream 36 generated by the camera 17, which contains the optically detected information about the moving object set 12, is subdivided into recognition sections 28 for performing the object recognition method in the object recognition system 15, to which the algorithms for Object recognition can be applied. The object quantity information contained in the individual recognition sections 28 in the form of object point coordinates are again compared in this exemplary embodiment with CAD model data 34 contained in a model memory 32, and thereby locatable, identified and selected receivable objects 2. Objects 2 not picked up by the handling device 5 are transferred in the system 1 to a return device 63, with which these objects 2 can be moved back to the beginning of the conveyor device 3, whereby an object cycle is formed.
Im Ausftihrungsbeispiel gemäß Fig. 8 endet die Rückfördervorrichtung 63 nicht direkt an der Fördervorrichtung 3 sondern an einer Beschickvorrichtung 64, mit der eine Beschickung der Fördervorrichtung 3 mit Objekten 2 erfolgen kann, etwa indem diese aus einem Teilevorrat 65, der eine Anzahl von aufzunehmenden und/oder bearbeitenden Objekten 2 umfasst, Teilmengen abgescheidet und an die Fördervorrichtung 3 übergibt. Diese Beschickvorrichtung 64 ist hier beispielhaft als Steigförderer 66 dargestellt, der einen Teilebunker 67 und einen Hoch- förderer 68 umfasst. Der Hochförderer 68 ist beispielsweise mit einem endlosumlaufendenIn the Ausftihrungsbeispiel according to FIG. 8, the return conveyor 63 does not end directly on the conveyor 3 but on a feeder 64, with which a feed of the conveyor 3 can be done with objects 2, such as these from a parts stock 65, a number of male and / or or processing objects 2, abgescha separated subsets and passes to the conveyor device 3. This charging device 64 is shown here by way of example as a climbing conveyor 66, which comprises a part bunker 67 and a high conveyor 68. The high conveyor 68 is, for example, with an endless revolving
Zugmittel ausgestattet, das mittels Mitnehmern vom Teilevorrat 65 Teilmengen an Objekten 2 abtrennt und nach einem schräg ansteigenden Hochtransport mittels des Hochförderers 68 an das Förderband 4 der Fördervorrichtung 3 übergibt. Da die Rückfördervorrichtung 63 sowie die Beschickvorrichtung 64 ebenfalls der Bewegung der Objekte 2 dienen, können diese auch als Bestandteil der Fördervorrichtung 3 angesehen werden.Traction means equipped, which separates by means of drivers from the parts supply 65 subsets of objects 2 and passes after an obliquely increasing high transport by means of the high conveyor 68 to the conveyor belt 4 of the conveyor 3. Since the return device 63 and the loading device 64 also serve to move the objects 2, they can also be regarded as part of the conveying device 3.
Da wie bereits anhand der Fig. 4 bis 7 beschrieben, der Ordnungsgrad der Objekte 2 innerhalb der bewegten Objektmenge 12 die Leistungsanforderungen an das Objekterkennungssystem 15 beeinflusst bzw. stark damit zusammenhängt, kann das erfindungsgemäße Verfahren auch dadurch gekennzeichnet sein, dass eine vom Objekterkennungssystem 15 generierte Ausgangsgröße 69 an die Fördervorrichtung 3 bzw. an die dieser zugeordnete Komponentensteuerung 29 übermittelt wird und der Ordnungsgrad der von der Fördervorrichtung 3 bewegten Objektmenge 12 durch Beeinflussung und/oder Verstellung der Fördervorrichtung 3 beeinflusst wird. Die Ausgangsgröße 69 kann dabei etwa eine Kennzahl der Ausnutzung der Re- chenleistung der Steuervorrichtung 9 sein oder ein Signal, das eine Überlastung oder eine schlechte Ausnutzung der Rechenleistung anzeigt.Since, as already described with reference to FIGS. 4 to 7, the degree of order of the objects 2 within the moving object set 12 influences or strongly correlates with the performance requirements of the object recognition system 15, the method according to the invention can also be characterized in that a method generated by the object recognition system 15 Output quantity 69 is transmitted to the conveying device 3 or to the associated component control 29 and the degree of order of the object amount 12 moved by the conveying device 3 is influenced by influencing and / or adjusting the conveying device 3. The output variable 69 may be an index of the utilization of the computing power of the control device 9 or a signal indicating an overload or a poor utilization of the computing power.
Das Ergebnis des Objekterkennungsverfahrens, das von der Fördermenge 12, insbesondere von deren Ordnungsgrad und dadurch auch von den Einstellungen der Fördervorrichtung 3 abhängig ist, wird vom Objekterkennungssystem 15 an die Fördervorrichtung 3 bzw. deren Komponentensteuerung 29 zurückgeführt, wodurch ein Regelkreis gebildet ist. Diese Rückführung der Ausgangsgröße 69 kann insbesondere bewirken, dass die von der Fördervorrichtung 3 in den Erfassungsbereich des Sensorsystems 14 und in Folge in den Greifbereich 50 der Handhabungsvorrichtung 5 bewegte Objektmenge 12 in ihrem Ordnungsgrad verändert wird, indem etwa durch Veränderung von Fördergeschwindigkeiten oder einer Beschickmenge der Vereinzelungsgrad der Objekte 2 innerhalb der Fördermenge 12 erhöht oder gesenkt wird und dadurch an die von der Steuerungseinrichtung 9, insbesondere dem Objekterken- nungssystem 15 erzielbare Leistung optimal angepasst werden kann und dadurch die Gesamtleistung der Anlage 1 erhöht wird. Die in Fig. 8 von der Komponentensteuerung 29 an die Teilkomponenten der Fördervorrichtung 3 - in diesem Fall die Beschickvorrichtung 64, das Förderband 4 sowie die Rückfördervorrichtung 63 abgegebenen Steuersignale 70 können aufgrund dieser Ausbildung als Regelkreis von der Ausgangsgröße 69, also vom Ergebnis des Objekterkennungsverfahrens direkt abhängig gemacht werden.The result of the object recognition process, which is dependent on the flow rate 12, in particular on its degree of order and thereby also on the settings of the conveying device 3, is fed back by the object recognition system 15 to the conveying device 3 or its component control 29, whereby a control loop is formed. This feedback of the output quantity 69 can, in particular, bring about that of the conveying device 3 into the detection range of the sensor system 14 and consequently into the gripping area 50 the amount of separation of the objects 2 within the flow rate 12 is increased or lowered by changing conveyance speeds or a feed amount, and thereby to the control unit 9, in particular the object recognition system 15 achievable Performance can be optimally adjusted and thereby the overall performance of the system 1 is increased. The control signals 70 output by the component controller 29 to the subcomponents of the conveyor device 3 in this case, the loading device 64, the conveyor belt 4 and the return device 63, can be used as a control loop directly from the output variable 69, ie from the result of the object recognition method be made dependent.
Mittel um den Ordnungsgrad der Objektmenge 12 im Bereich der Fördervorrichtung 3 zu erhöhen können insbesondere in der Anwendung von aus dem Stand der Technik bekannten Maßnahmen dazu, wie etwa Vereinzelungseinrichtungen, Ausrichtstationen, Schikanenab- schnitten und dgl. bestehen, deren Wirkung auf den Ordnungsgrad einstellbar ist und basierend auf der Ausgangsgröße 69 beeinflusst werden können.Means to increase the degree of order of the amount of object 12 in the area of the conveying device 3 may consist, in particular, in the application of measures known from the prior art, such as singulating devices, alignment stations, baffle sections and the like, the effect of which can be adjusted to the degree of order and based on the output 69 can be influenced.
Die Ausführungsbeispiele zeigen mögliche Ausführungsvarianten des Verfahrens zum Aufnehmen und/oder Bearbeiten von Objekten 2 und einer zu dessen Anwendung geeigneten Anlage 1 wobei an dieser Stelle bemerkt sei, dass die Erfindung nicht auf die speziell dargestellten Ausführungsvarianten desselben eingeschränkt ist, sondern vielmehr auch diverse Kombinationen der einzelnen Ausführungsvarianten untereinander möglich sind und diese Variationsmöglichkeit aufgrund der Lehre zum technischen Handeln durch gegenständliche Erfindung im Können des auf diesem technischen Gebiet tätigen Fachmannes liegt. Es sind also auch sämtliche denkbaren Ausführungsvarianten, die durch Kombinationen einzelnerThe embodiments show possible embodiments of the method for recording and / or editing of objects 2 and a suitable for its application Appendix 1 wherein it should be noted at this point that the invention is not limited to the specifically illustrated embodiments thereof, but rather also various combinations of individual variants are mutually possible and this variation possibility due to the doctrine of technical action by objective invention in the skill of those working in this technical field is the expert. So there are all conceivable variants, by combinations of individual
Details der dargestellten und beschriebenen Ausführungsvariante möglich sind, vom Schutzumfang mit umfasst.Details of the illustrated and described embodiment are possible, includes the scope of protection.
Der Ordnung halber sei abschließend daraufhingewiesen, dass zum besseren Verständnis des Aufbaus der Anlage 1 diese bzw. deren Bestandteile teilweise unmaßstäblich und/oder vergrößert und/oder verkleinert dargestellt wurden. Die den eigenständigen erfinderischen Lösungen zugrundeliegende Aufgabe kann der Beschreibung entnommen werden.For the sake of order, it should finally be pointed out that, for a better understanding of the structure of the system 1, these or their components have been shown partly out of scale and / or enlarged and / or reduced in size. The task underlying the independent inventive solutions can be taken from the description.
Vor allem können die einzelnen in den Fig. 1; 2; 3; 4; 5; 6; 7 und 8 gezeigten Ausführungen den Gegenstand von eigenständigen, erfindungsgemäßen Lösungen bilden. Die diesbezüglichen, erfindungsgemäßen Aufgaben und Lösungen sind den Detailbeschreibungen dieser Figuren zu entnehmen. Above all, the individual in Figs. 1; 2; 3; 4; 5; 6; FIGS. 7 and 8 form the subject of independent solutions according to the invention. The relevant objects and solutions according to the invention can be found in the detailed descriptions of these figures.
B e z u g s z e i c h e n a u f s t e l l u n gS u b e c u s e c tio n a tio n s
1 Anlage 40 Recheneinheit1 system 40 arithmetic unit
2 Objekt2 object
3 Fördervorrichtung3 conveyor
41 Überlappungsabschnitt41 Overlap section
4 Förderband4 conveyor belt
42 Ausdehnung42 extension
5 Handhabungsvorrichtung5 handling device
43 Größe43 size
44 Abstand44 distance
6 Roboter6 robots
45 Vorderkante45 leading edge
7 Endeffektor7 end effector
8 Vakuumgreifer8 vacuum grippers
46 Vorderkante46 leading edge
9 Steuervorrichtung9 control device
47 Maximalabmessung47 maximum dimension
10 Fördervorrichtung10 conveyor
48 Erfassungsbereich48 detection area
49 Erfassungsbereich49 coverage area
11 Objekt11 object
50 Greifbereich50 gripping area
12 Objektmenge12 object set
13 Förderrichtung13 conveying direction
51 Kamera51 camera
14 Sensorsystem14 sensor system
52 Bilderfassungssystem52 image capture system
15 Objekterkennungssystem 53 Objekterkennungssystem15 Object recognition system 53 Object recognition system
54 Pfeil54 arrow
16 Bilderfassungssystem16 image capture system
55 Vergleichereinheit55 Comparator unit
17 Kamera17 camera
18 Lichtquelle18 light source
56 Objektträger56 slides
19 Beleuchtungsebene19 lighting level
57 Unterteilungsmittel57 subdivision means
20 Erfassungsrichtung20 detection direction
58 Facheinteilung58 Division
59 Haltemittel59 holding means
21 Winkel21 angles
60 Lokalisierungsmarkierung60 localization mark
22 Linienlaser22 line lasers
23 Wegmesssystem23 position measuring system
61 Tragleiste61 carrying strip
24 Wegsensor24 displacement sensor
62 Magnetelement62 magnetic element
25 Drehgeber25 encoders
63 Rückfördervorrichtung63 return conveyor
64 Beschickvorrichtung64 loader
26 Antriebssystem26 drive system
65 Teilevorrat65 parts stock
27 Knotenpunkt27 node
28 Erkennungsabschnitt28 recognition section
66 Steigförderer66 ascending conveyor
29 Komponentensteuerung29 component control
67 Teilebunker67 part bunker
30 Komponentensteuerung30 component control
68 Hochförderer68 high conveyors
69 Ausgangsgröße69 output size
31 Komponentensteuerung31 component control
70 Steuersignal70 control signal
32 Modellspeicher32 model memories
33 CAD - System33 CAD system
34 CAD - Modell - Daten34 CAD model data
35 Kameraeinheit35 camera unit
36 Bildinformationsstrom36 picture information stream
37 Bildspeicheranordnung37 image memory arrangement
38 Ringpuffer38 ring buffers
39 Datenpaket 39 data packet

Claims

P a t e n t a n s p r ü c h e Patent claims
1. Verfahren zum sequentiellen Aufnehmen und/oder Bearbeiten von einzelnen Objekten (2) aus einer durch eine Fördervorrichtung (3), insbesondere kontinuierlich, beweg- ten Objektmenge (12) mittels einer Handhabungsvorrichtung (5), insbesondere eines Industrieroboters (6), umfassend ein an der bewegten Objektmenge (12) ausgeführtes Bilderfassungsverfahren und ein Objekterkennungs verfahren zur Lokalisierung, Identifizierung und Auswahl zumindest eines mit der Handhabungsvorrichtung (5) aufnehmbaren und/oder bear- beitbaren Objekts (2) mittels des Bildinformation des Bilderfassungsverfahrens verarbeiten- den Objekterkennungssystems (15), und Aufnehmen und/oder Bearbeiten eines ausgewählten Objekts (2) mit der Handhabungsvorrichtung (5), dadurch gekennzeichnet, dass ein vom BiI- derfassungsverfahren fortlaufend generierter Bildinformationsstrom (36) in Objektmengeninformationen, insbesondere Objektpunktkoordinaten und Bewegungsinformationen, enthaltende Erkennungsabschnitte (28) der Objektmenge (12) unterteilt wird und die Identifizierung und Auswahl der mit der Handhabungsvorrichtung (5) aufnehmbaren und/oder bearbeitbaren Objekte (2) vom Objekterkennungssystem (15) für einzelne Erkennungsabschnitte (28) erfolgt.1. A method for the sequential recording and / or processing of individual objects (2) from a by a conveyor device (3), in particular continuously, moving object amount (12) by means of a handling device (5), in particular an industrial robot (6) comprising an image acquisition method carried out on the moving object set (12) and an object recognition method for locating, identifying and selecting at least one object (2) which can be recorded and / or processed by the handling device (5) by means of the object recognition system (15) processing the image information of the image acquisition method ), and recording and / or processing of a selected object (2) with the handling device (5), characterized in that an image information stream (36) continuously generated by the image acquisition method includes recognition sections (28) containing object information, in particular object point coordinates and movement information If Is (12) is divided and the identification and selection of the handling device (5) recordable and / or editable objects (2) from the object recognition system (15) for individual detection sections (28).
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass aufeinanderfolgende bzw. benachbarte Erkennungsabschnitte (28) vom Objekterkennungssystem (15) so begrenzt werden, dass sie einen gemeinsamen Überlappungsabschnitt (41) aufweisen.2. The method according to claim 1, characterized in that successive or adjacent detection sections (28) of the object recognition system (15) are limited so that they have a common overlap portion (41).
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Größe (43) der Erkennungsabschnitte (28) vom Objekterkennungssystem (15) variabel anpassbar sind.3. The method according to claim 1 or 2, characterized in that the size (43) of the detection sections (28) of the object recognition system (15) are variably adjustable.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass ein Überlappungsabschnitt (41) eine Ausdehnung (42) aufweist, die eine Maximalabmessung (47) der Objekte (2) übersteigt.4. The method according to claim 2 or 3, characterized in that an overlap section (41) has an extension (42) which exceeds a maximum dimension (47) of the objects (2).
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das5. The method according to any one of claims 1 to 4, characterized in that the
Bilderfassungsverfahren ein Lichtschnittverfahren benutzt, bei dem eine Lichtquelle (18) Licht in einer Beleuchtungsebene (19) auf die bewegte Objektmenge (12) aussendet, und eine Kamera (17) vorgesehen ist, deren Erfassungsrichtung (20) zur Beleuchtungsebene (19) einen Winkel (21) einschließt.Image acquisition method uses a light section method in which a light source (18) emits light in a lighting plane (19) on the moving object set (12), and a Camera (17) is provided, the detection direction (20) to the illumination plane (19) includes an angle (21).
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass an- hand eines einzelnen Erkennungsabschnitts (28) oder anhand mehrerer Erkennungsabschnitte (28) eine Reihung von zumindest zwei, insbesondere mehreren identifizierten und aufnehmbaren Objekten (2) erstellt wird, anhand derer die zeitliche Abfolge der Handhabung bzw. Bearbeitung von Objekten (2) durch die Handhabungsvoπϊchtung (5) festgelegt wird.6. Method according to one of claims 1 to 5, characterized in that a series of at least two, in particular a plurality of identified and receivable objects (2) is created on the basis of a single recognition section (28) or on the basis of several recognition sections (28) of which the temporal sequence of the handling or processing of objects (2) by the Handhabungsvoπϊchtung (5) is set.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Reihung auf einer den identifizierten Objekten (2) jeweils zugeordneten Erkennungsgüte basiert.7. Method according to claim 6, characterized in that the ranking is based on a recognition quality respectively assigned to the identified objects (2).
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Identifizierung und eine damit verknüpfte Lageerkennung durch Vergleich von aus Bildin- formationen ermittelten Objektmengeninformationen mit dem Objekterkennungssystem (15) zugeführten CAD-Modell-Daten (34) von aufzunehmenden und/oder zu bearbeitenden Objekten (2) erfolgt.8. Method according to claim 1, characterized in that the identification and an associated position detection by comparison of object quantity information determined from image information with the object recognition system (15) supplied CAD model data (34) of male and / or or to be processed objects (2).
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass vor dem Aufnehmen eines Objekts (2) die mittels einer raumfesten Kamera (17) ermittelte Position des Objekts (2) mit einer anhand einer mit der Handhabungsvorrichtung (5) verbundene- nen Kamera (51') ermittelten Position des Objekts (2) auf Abweichung verglichen wird.9. Method according to one of claims 1 to 8, characterized in that, before picking up an object (2), the position of the object (2) determined by means of a spatially fixed camera (17) is correlated with a position determined by means of a handling device (5). NEN camera (51 ') determined position of the object (2) is compared to deviation.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die Bilderfassung durch die mit der Handhabungsvorrichtung (5) verbundenene Kamera (51 ') zeitlich nach der10. The method according to claim 9, characterized in that the image acquisition by the with the handling device (5) connected to the camera (51 ') after the time
Bilderfassung durch die raumfeste Kamera (17) erfolgt, insbesondere zeitlich nahe dem Zeitpunkt des Aufnehmens eines Objekts (2).Image acquisition by the spatially fixed camera (17) takes place, in particular temporally close to the time of receiving an object (2).
11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die pro Zeiteinheit durch die Fördervorrichtung (3) bewegte Anzahl an Objekten (2) variabel, insbesondere stufenlos, einstellbar ist. 11. The method according to any one of claims 1 to 10, characterized in that the per unit time by the conveyor device (3) moving number of objects (2) variable, in particular continuously, is adjustable.
12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die12. The method according to any one of claims 1 to 11, characterized in that the
Identifizierung und Auswahl der Objekte (2) vom Objekterkennungssystem (15) in mehreren Erkennungsabschnitten (28) simultan durchgeführt wird.Identification and selection of the objects (2) from the object recognition system (15) in a plurality of recognition sections (28) is carried out simultaneously.
13. Verfahren zum sequentiellen Handhaben und/oder Bearbeiten von einzelnen13. Method for sequentially handling and / or editing individual
Objekten (2) aus einer durch eine Fördervorrichtung (3), insbesondere kontinuierlich, bewegten Objektmenge (12) mittels einer Handhabungsvorrichtung (5), insbesondere eines Industrieroboters (6), umfassend ein an der bewegten Objektmenge (12) ausgeführtes Bilderfassungsverfahren und ein Objekterkennungs verfahren zur Identifizierung und Auswahl eines mit der Handhabungsvorrichtung (5) aufhehmbaren und/oder bearbeitbaren Objekts (2) mittels des Bildinformation des Bilderfassungsverfahrens verarbeitenden Objekterkennungssystems (15), und Aufnehmen und/oder Bearbeiten eines ausgewählten Objekts (2) mit der Handhabungsvorrichtung (5), dadurch gekennzeichnet, dass eine vom Objekterkennungssystem (15) generierte Ausgangsgröße (69) an die Fördervorrichtung (3) rückgeführt wird, und der Ordnungsgrad der von der Fördervorrichtung (3) bewegten Objektmenge (12) durch Beeinflussung und/oder Verstellung der Fördervorrichtung (3) beeinflusst wird.Objects (2) from a by a conveyor device (3), in particular continuously, moving object set (12) by means of a handling device (5), in particular an industrial robot (6), comprising an on the moving object set (12) executed image acquisition method and an object detection method for identifying and selecting an object (2) which can be raised and / or processed by the handling device (5) by means of the object recognition system (15) processing the image information of the image acquisition method, and recording and / or processing a selected object (2) with the handling device (5), characterized in that an output variable (69) generated by the object recognition system (15) is returned to the conveying device (3), and the degree of order of the object quantity (12) moved by the conveying device (3) is influenced and / or adjusted by the conveying device (3). being affected.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass das Verfahren nach einem der Ansprüche 1 bis 12 ausgeführt wird.14. The method according to claim 13, characterized in that the method is carried out according to one of claims 1 to 12.
15. Verfahren nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass der Ordnungsgrad der Objektmenge (12) durch die Anzahl der pro Zeiteinheit geförderten Objekte (2) und/oder dem Vereinzelungsgrad der Objekte (2) innerhalb der Objektmenge (12) und/oder dem Grad der Ausrichtung der Objekte (2) bezüglich der Fördervorrichtung (3) gebildet ist.15. The method according to claim 13 or 14, characterized in that the degree of order of the object set (12) by the number of per unit time promoted objects (2) and / or the degree of separation of the objects (2) within the object set (12) and / or the degree of alignment of the objects (2) with respect to the conveying device (3) is formed.
16. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass die Objekte (2) der Objektmenge (12) der Fördervorrichtung (3) in ungeordneter Lage zugeführt werden.16. The method according to any one of claims 1 to 15, characterized in that the objects (2) of the object amount (12) of the conveying device (3) are fed in a disordered position.
17. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass die17. The method according to any one of claims 1 to 15, characterized in that the
Objekte (2) der Objektmenge (12) an die Fördervorrichtung (3) in zumindest teilweise geordneter Lage zugeführt werden. Objects (2) of the object amount (12) to the conveyor device (3) are supplied in at least partially ordered position.
18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass die18. The method according to any one of claims 1 to 17, characterized in that the
Objekte (2) an der Fördervorrichtung (3) an einem von dieser bewegten Objektträger (56) angeordnet sind.Objects (2) on the conveyor device (3) are arranged on a moving of this slide (56).
19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass einzelne Objekte (2) am Objektträger (56) an regelmäßig, insbesondere rasterartig, angeordneten Haltemitteln (59) angeordnet sind.19. The method according to claim 18, characterized in that individual objects (2) on the slide (56) on regularly, in particular grid-like, arranged holding means (59) are arranged.
20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass die Haltemittel (59) aus einer Gruppe umfassend zumindest Magnetelemente (62), Vakuumelemente, adhäsiv wirkende Haftelemente, Elektrostatikelemente, Klemmelemente gewählt sind.20. The method according to claim 19, characterized in that the holding means (59) are selected from a group comprising at least magnetic elements (62), vacuum elements, adhesively acting adhesive elements, electrostatic elements, clamping elements.
21. Verfahren zum sequentiellen Aufnehmen und/oder Bearbeiten von einzelnen Objekten (2) aus einer durch eine Fördervorrichtung (3), insbesondere kontinuierlich, beweg- ten Objektmenge (12) mittels einer Handhabungsvorrichtung (5), insbesondere eines Industrieroboters (6), umfassend ein an der bewegten Objektmenge (12) ausgeführtes Bilderfassungsverfahren und ein Objekterkennungsverfahren zur Identifizierung und Auswahl zumindest eines mit der Handhabungsvorrichtung (5) aufnehmbaren und/oder bearbeitbaren Objekts (2) mittels eines Bildinformation des Bilderfassungsverfahrens verarbeitenden Objekterken- nungssystems (15), und Aufnehmen und/oder Bearbeiten eines ausgewählten Objekts (2) mit der Handhabungsvorrichtung (5), dadurch gekennzeichnet, dass die Objektmenge (12) in einem zeitlichen Abstand ein weiteres Mal einem Bilderfassungsverfahren und einem Objekterkennungsverfahren unterworfen wird und bei einem anhand der ersten Objekterkennung identifizierten und ausgewählten Objekt (2) bestimmte anhand der zweiten Bilderfassung festge- stellte Objektmerkmale, insbesondere Objektpunktkoordinaten, auf Übereinstimmung mit Objektmerkmalen aus der ersten Objekterkennung überprüft werden.21. A method for the sequential recording and / or processing of individual objects (2) from a by a conveyor device (3), in particular continuously, moving object amount (12) by means of a handling device (5), in particular an industrial robot (6) comprising an image acquisition method performed on the moving object set (12) and an object recognition method for identifying and selecting at least one object (2) that can be picked up and / or processed by the handling device (5) by means of image recognition system (15) processing image information of the image acquisition method; / or processing of a selected object (2) with the handling device (5), characterized in that the object set (12) is again subjected to an image acquisition method and an object recognition method at a time interval and to an object identified and selected based on the first object recognition(2) certain object features determined on the basis of the second image capture, in particular object point coordinates, are checked for agreement with object features from the first object recognition.
22. Verfahren nach Anspruch 21, dadurch gekennzeichnet, dass das Verfahren nach einem der Ansprüche 1 bis 20 ausgeführt wird.22. The method according to claim 21, characterized in that the method is carried out according to one of claims 1 to 20.
23. Verfahren nach Anspruch 22, dadurch gekennzeichnet, dass die zweite Bilderfassung und Objekterkennung unmittelbar vor dem Aufnehmen oder Bearbeiten eines Objekts (2) erfolgt. 23. The method according to claim 22, characterized in that the second image acquisition and object recognition takes place immediately before the recording or editing of an object (2).
24. Verfahren nach einem der Ansprüche 1 bis 23, dadurch gekennzeichnet, dass die24. The method according to any one of claims 1 to 23, characterized in that the
Bilderfassung ein 3-D-Erfassungsverfahren aus einer Gruppe umfassend Stereo-Kamera- Erfassung, Strukturlicht-Erfassung, Laser-Laufzeitmessung ausgewählt ist.Image capture is a 3-D acquisition method selected from a group comprising stereo camera capture, pattern light capture, laser runtime measurement.
25. Anlage ( 1 ) zum Zufuhren und Handhaben und/oder Bearbeiten von Objekten25. Appendix (1) for supplying and handling and / or editing objects
(2), umfassend eine Fördervorrichtung (3) zum Bewegen einer Objektmenge (12) mit zuzuführenden und/oder zu bearbeitenden Objekten (2), eine Handhabungsvorrichtung (5), insbesondere einen Industrieroboter (6), zum sequentiellen Aufnehmen von einzelnen Objekten (2) aus der bewegten Objektmenge (12), ein Bilderfassungssystem (16) zur Erzeugung eines au- tomatisiert verarbeitbaren Bildinformationsstroms (36), ein Objekterkennungssystem (15) zur Identifizierung und Auswahl von aufhehmbaren Objekten (2) basierend auf dem Bildinformationsstrom (36), eine programmierbare Steuervorrichtung (9) zur Steuerung der Handhabungsvorrichtung (5), dadurch gekennzeichnet, dass die Anlage (1) zur Ausführung des Verfahrens gemäß einem der vorhergehenden Ansprüche geeignet ausgebildet ist. (2), comprising a conveying device (3) for moving an object set (12) with objects (2) to be supplied and / or processed, a handling device (5), in particular an industrial robot (6), for sequentially picking up individual objects (2 from the moving object set (12), an image acquisition system (16) for generating an automatically processable image information stream (36), an object recognition system (15) for identifying and selecting recoverable objects (2) based on the image information stream (36) Programmable control device (9) for controlling the handling device (5), characterized in that the system (1) is suitably designed for carrying out the method according to one of the preceding claims.
PCT/AT2009/000360 2008-09-26 2009-09-18 Method and system for receiving and/or processing objects WO2010034044A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ATA1501/2008 2008-09-26
AT0150108A AT507339B1 (en) 2008-09-26 2008-09-26 METHOD AND APPARATUS FOR RECORDING AND / OR PROCESSING OBJECTS

Publications (2)

Publication Number Publication Date
WO2010034044A2 true WO2010034044A2 (en) 2010-04-01
WO2010034044A3 WO2010034044A3 (en) 2010-05-27

Family

ID=41449940

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/AT2009/000360 WO2010034044A2 (en) 2008-09-26 2009-09-18 Method and system for receiving and/or processing objects

Country Status (2)

Country Link
AT (1) AT507339B1 (en)
WO (1) WO2010034044A2 (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011124583A1 (en) * 2010-04-07 2011-10-13 Siemens Aktiengesellschaft Method and device for the controlled transport of multiple objects
EP2395477A1 (en) * 2010-06-11 2011-12-14 STIWA Holding GmbH Establishing and determining a pose feature of a material item in a conveying device
CH705016A1 (en) * 2011-05-30 2012-11-30 Feller Ag Supplying device for supplying parts in e.g. assembly automation cell, has control unit operating container so long as buffer and another container so long as supply container and reversing conveying direction of conveying belt
EP2780849A4 (en) * 2011-11-18 2015-10-21 Nike Innovate Cv Automated identification of shoe parts
EP2780847A4 (en) * 2011-11-18 2015-11-11 Nike Innovate Cv Automated identification and assembly of shoe parts
DE102015102740B4 (en) * 2014-02-28 2016-10-27 Fanuc Corporation Apparatus and method for arranging objects by robot and article transfer system
WO2017044747A1 (en) * 2015-09-11 2017-03-16 Berkshire Grey Inc. Robotic systems and methods for identifying and processing a variety of objects
US9939803B2 (en) 2011-11-18 2018-04-10 Nike, Inc. Automated manufacturing of shoe parts
US9937532B2 (en) 2015-12-18 2018-04-10 Berkshire Grey Inc. Perception systems and methods for identifying and processing a variety of objects
US10265872B2 (en) 2015-09-09 2019-04-23 Berkshire Grey, Inc. Systems and methods for providing dynamic communicative lighting in a robotic environment
US10343284B2 (en) 2015-08-26 2019-07-09 Berkshire Grey, Inc. Systems and methods for providing contact detection in an articulated arm
US10350755B2 (en) 2016-02-08 2019-07-16 Berkshire Grey, Inc. Systems and methods for providing processing of a variety of objects employing motion planning
US10393512B2 (en) 2011-11-18 2019-08-27 Nike, Inc. Automated 3-D modeling of shoe parts
US10552551B2 (en) 2011-11-18 2020-02-04 Nike, Inc. Generation of tool paths for shore assembly
WO2020068545A1 (en) * 2018-09-26 2020-04-02 Dexterity, Inc. Robotic kitting system
US10618745B2 (en) 2016-12-09 2020-04-14 Berkshire Grey, Inc. Systems and methods for processing objects provided in vehicles
US10625432B2 (en) 2015-11-13 2020-04-21 Berkshire Grey, Inc. Processing systems and methods for providing processing of a variety of objects
US10639787B2 (en) 2017-03-06 2020-05-05 Berkshire Grey, Inc. Systems and methods for efficiently moving a variety of objects
US10646991B2 (en) 2017-03-24 2020-05-12 Berkshire Grey, Inc. Systems and methods for processing objects, including automated processing
US10647002B2 (en) 2015-09-01 2020-05-12 Berkshire Grey, Inc. Systems and methods for providing dynamic robotic control systems
US10793375B2 (en) 2016-11-08 2020-10-06 Berkshire Grey, Inc. Systems and methods for processing objects
US10792706B2 (en) 2017-04-24 2020-10-06 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing using object movement redistribution
US10875057B2 (en) 2016-12-06 2020-12-29 Berkshire Grey, Inc. Systems and methods for providing for the processing of objects in vehicles
US10913615B2 (en) 2016-11-28 2021-02-09 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing
CN112756936A (en) * 2020-12-29 2021-05-07 曙光信息产业股份有限公司 Feeding system of server assembly work station, server assembly system and feeding method
CN113165129A (en) * 2018-09-26 2021-07-23 聪慧公司 Complete set of goods picker
US11370128B2 (en) 2015-09-01 2022-06-28 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic robotic control systems
BE1028905B1 (en) * 2020-12-15 2022-07-19 Montech Bvba METHOD AND DEVICE FOR THE AUTOMATED PACKAGING OF OBJECTS
WO2022184734A1 (en) * 2021-03-01 2022-09-09 Rsg Verwaltungs Gmbh Method for separating and transferring preliminary products, and apparatus
AT524802A1 (en) * 2021-03-05 2022-09-15 Engel Austria Gmbh Procedure for filing semi-finished products
US11866269B2 (en) 2021-10-06 2024-01-09 Berkshire Grey Operating Company, Inc. Dynamic processing of objects provided in elevated vehicles with evacuation systems and methods for receiving objects
US11938618B2 (en) 2020-07-22 2024-03-26 Berkshire Grey Operating Company, Inc. Systems and methods for object processing using a passively folding vacuum gripper
US11964386B2 (en) 2020-07-22 2024-04-23 Berkshire Grey Operating Company, Inc. Systems and methods for object processing using a vacuum gripper that provides object retention by shroud inversion

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012203134A1 (en) * 2012-02-29 2013-08-29 Deutsches Zentrum für Luft- und Raumfahrt e.V. Method for receiving contour portion by manipulator, involves determining orientation of the contour portions based on CAD data of the contour portions to receive the contour portions
US9233469B2 (en) 2014-02-13 2016-01-12 GM Global Technology Operations LLC Robotic system with 3D box location functionality
JP6506356B2 (en) * 2017-07-26 2019-04-24 ファナック株式会社 Article conveyance system and conveyance system control device
JP6646026B2 (en) * 2017-10-16 2020-02-14 ファナック株式会社 Work system, work execution method for article, and robot
JP6687591B2 (en) 2017-12-26 2020-04-22 ファナック株式会社 Article transport device, robot system, and article transport method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0204516A2 (en) * 1985-06-04 1986-12-10 Adept Technology, Inc. Vision system for distinguishing touching parts
US5040056A (en) * 1990-01-29 1991-08-13 Technistar Corporation Automated system for locating and transferring objects on a conveyor belt
US5148591A (en) * 1981-05-11 1992-09-22 Sensor Adaptive Machines, Inc. Vision target based assembly
JPH0748018A (en) * 1993-08-03 1995-02-21 Omori Mach Co Ltd Article detector for article transfer device
JPH08323669A (en) * 1995-03-28 1996-12-10 Matsushita Electric Works Ltd Part supply method and device therefor
US6032343A (en) * 1997-02-24 2000-03-07 Ethicon, Inc. Automated swage wind and packaging machine
WO2001033204A1 (en) * 1999-10-29 2001-05-10 Cognex Corporation System and method for counting parts in multiple fields of view using machine vision
JP2002113679A (en) * 2000-10-06 2002-04-16 Seiko Instruments Inc Tracking method, system, and device
EP1584944A1 (en) * 2004-04-08 2005-10-12 FESTO AG & Co Imaging device and process for detecting moving objects
DE102006031178A1 (en) * 2005-07-07 2007-01-11 Toshiba Kikai K.K. Gripper guide system, processing system and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5148591A (en) * 1981-05-11 1992-09-22 Sensor Adaptive Machines, Inc. Vision target based assembly
EP0204516A2 (en) * 1985-06-04 1986-12-10 Adept Technology, Inc. Vision system for distinguishing touching parts
US5040056A (en) * 1990-01-29 1991-08-13 Technistar Corporation Automated system for locating and transferring objects on a conveyor belt
JPH0748018A (en) * 1993-08-03 1995-02-21 Omori Mach Co Ltd Article detector for article transfer device
JPH08323669A (en) * 1995-03-28 1996-12-10 Matsushita Electric Works Ltd Part supply method and device therefor
US6032343A (en) * 1997-02-24 2000-03-07 Ethicon, Inc. Automated swage wind and packaging machine
WO2001033204A1 (en) * 1999-10-29 2001-05-10 Cognex Corporation System and method for counting parts in multiple fields of view using machine vision
JP2002113679A (en) * 2000-10-06 2002-04-16 Seiko Instruments Inc Tracking method, system, and device
EP1584944A1 (en) * 2004-04-08 2005-10-12 FESTO AG & Co Imaging device and process for detecting moving objects
DE102006031178A1 (en) * 2005-07-07 2007-01-11 Toshiba Kikai K.K. Gripper guide system, processing system and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
RYGOL M ET AL: "Multiprocessor 3D vision system for pick and place" IMAGE AND VISION COMPUTING, ELSEVIER, GUILDFORD, GB, Bd. 9, Nr. 1, 1. Februar 1991 (1991-02-01) , Seiten 33-38, XP026655981 ISSN: 0262-8856 [gefunden am 1991-02-01] *

Cited By (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011124583A1 (en) * 2010-04-07 2011-10-13 Siemens Aktiengesellschaft Method and device for the controlled transport of multiple objects
EP2395477A1 (en) * 2010-06-11 2011-12-14 STIWA Holding GmbH Establishing and determining a pose feature of a material item in a conveying device
CH705016A1 (en) * 2011-05-30 2012-11-30 Feller Ag Supplying device for supplying parts in e.g. assembly automation cell, has control unit operating container so long as buffer and another container so long as supply container and reversing conveying direction of conveying belt
US10671048B2 (en) 2011-11-18 2020-06-02 Nike, Inc. Automated manufacturing of shoe parts
US10667581B2 (en) 2011-11-18 2020-06-02 Nike, Inc. Automated identification and assembly of shoe parts
CN105686224A (en) * 2011-11-18 2016-06-22 耐克创新有限合伙公司 Automated identification of shoe parts
US9451810B2 (en) 2011-11-18 2016-09-27 Nike, Inc. Automated identification of shoe parts
US11763045B2 (en) 2011-11-18 2023-09-19 Nike, Inc. Generation of tool paths for shoe assembly
US20160316859A1 (en) * 2011-11-18 2016-11-03 Nike, Inc. Automated identification of shoe parts
EP4062790A1 (en) * 2011-11-18 2022-09-28 NIKE Innovate C.V. Automated identification of shoe parts
US10194716B2 (en) 2011-11-18 2019-02-05 Nike, Inc. Automated identification and assembly of shoe parts
US9939803B2 (en) 2011-11-18 2018-04-10 Nike, Inc. Automated manufacturing of shoe parts
US11422526B2 (en) 2011-11-18 2022-08-23 Nike, Inc. Automated manufacturing of shoe parts
EP2780847A4 (en) * 2011-11-18 2015-11-11 Nike Innovate Cv Automated identification and assembly of shoe parts
EP3358486A1 (en) * 2011-11-18 2018-08-08 NIKE Innovate C.V. Automated identification and assembly of shoe parts
EP3361403A1 (en) * 2011-11-18 2018-08-15 NIKE Innovate C.V. Automated identification of shoe parts
US11641911B2 (en) 2011-11-18 2023-05-09 Nike, Inc. Automated identification and assembly of shoe parts
US11879719B2 (en) 2011-11-18 2024-01-23 Nike, Inc. Automated 3-D modeling of shoe parts
US11266207B2 (en) 2011-11-18 2022-03-08 Nike, Inc. Automated identification and assembly of shoe parts
US11317681B2 (en) 2011-11-18 2022-05-03 Nike, Inc. Automated identification of shoe parts
US10393512B2 (en) 2011-11-18 2019-08-27 Nike, Inc. Automated 3-D modeling of shoe parts
US10552551B2 (en) 2011-11-18 2020-02-04 Nike, Inc. Generation of tool paths for shore assembly
US11346654B2 (en) 2011-11-18 2022-05-31 Nike, Inc. Automated 3-D modeling of shoe parts
US11341291B2 (en) 2011-11-18 2022-05-24 Nike, Inc. Generation of tool paths for shoe assembly
EP2780849A4 (en) * 2011-11-18 2015-10-21 Nike Innovate Cv Automated identification of shoe parts
US9643796B2 (en) 2014-02-28 2017-05-09 Fanuc Corporation Device and method of arraying articles by using robot, and article transfer system
DE102015102740B4 (en) * 2014-02-28 2016-10-27 Fanuc Corporation Apparatus and method for arranging objects by robot and article transfer system
US10913159B2 (en) 2015-08-26 2021-02-09 Berkshire Grey, Inc. Systems and methods for providing contact detection in an articulated arm
US10343284B2 (en) 2015-08-26 2019-07-09 Berkshire Grey, Inc. Systems and methods for providing contact detection in an articulated arm
US10618177B2 (en) 2015-08-26 2020-04-14 Berkshire Grey, Inc. Systems and methods for providing contact detection in an articulated arm
US11597095B2 (en) 2015-08-26 2023-03-07 Berkshire Grey Operating Company, Inc. Systems and methods for providing contact detection in an articulated arm
US11370122B2 (en) 2015-08-26 2022-06-28 Berkshire Grey Operating Company, Inc. Systems and methods for providing contact detection in an articulated arm
US10875185B2 (en) 2015-08-26 2020-12-29 Berkshire Grey, Inc. Systems and methods for providing contact detection in an articulated arm
US11813734B2 (en) 2015-08-26 2023-11-14 Berkshire Grey Operating Company, Inc. Systems and methods for providing contact detection in an articulated arm
US10647002B2 (en) 2015-09-01 2020-05-12 Berkshire Grey, Inc. Systems and methods for providing dynamic robotic control systems
US11370128B2 (en) 2015-09-01 2022-06-28 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic robotic control systems
US10265872B2 (en) 2015-09-09 2019-04-23 Berkshire Grey, Inc. Systems and methods for providing dynamic communicative lighting in a robotic environment
US11117271B2 (en) 2015-09-09 2021-09-14 Berkshire Grey, Inc. Systems and methods for providing dynamic communicative lighting in a robotic environment
US10632631B2 (en) 2015-09-09 2020-04-28 Berkshire Grey, Inc. Systems and methods for providing dynamic communicative lighting in a robotic environment
US11813741B2 (en) 2015-09-09 2023-11-14 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic communicative lighting in a robotic environment
CN113635319A (en) * 2015-09-11 2021-11-12 伯克希尔格雷股份有限公司 Robot system and method for identifying and processing various objects
US10621402B2 (en) 2015-09-11 2020-04-14 Berkshire Grey, Inc. Robotic systems and methods for identifying and processing a variety of objects
WO2017044747A1 (en) * 2015-09-11 2017-03-16 Berkshire Grey Inc. Robotic systems and methods for identifying and processing a variety of objects
US11494575B2 (en) 2015-09-11 2022-11-08 Berkshire Grey Operating Company, Inc. Systems and methods for identifying and processing a variety of objects
US10007827B2 (en) 2015-09-11 2018-06-26 Berkshire Grey, Inc. Systems and methods for identifying and processing a variety of objects
US10625432B2 (en) 2015-11-13 2020-04-21 Berkshire Grey, Inc. Processing systems and methods for providing processing of a variety of objects
US11420329B2 (en) 2015-11-13 2022-08-23 Berkshire Grey Operating Company, Inc. Processing systems and methods for providing processing of a variety of objects
US9937532B2 (en) 2015-12-18 2018-04-10 Berkshire Grey Inc. Perception systems and methods for identifying and processing a variety of objects
US11351575B2 (en) 2015-12-18 2022-06-07 Berkshire Grey Operating Company, Inc. Perception systems and methods for identifying and processing a variety of objects
US10737299B2 (en) 2015-12-18 2020-08-11 Berkshire Grey, Inc. Perception systems and methods for identifying and processing a variety of objects
US10730077B2 (en) 2015-12-18 2020-08-04 Berkshire Grey, Inc. Perception systems and methods for identifying and processing a variety of objects
US11213949B2 (en) 2016-02-08 2022-01-04 Berkshire Grey, Inc. Systems and methods for providing processing of a variety of objects employing motion planning
US11724394B2 (en) 2016-02-08 2023-08-15 Berkshire Grey Operating Company, Inc. Systems and methods for providing processing of a variety of objects employing motion planning
US10350755B2 (en) 2016-02-08 2019-07-16 Berkshire Grey, Inc. Systems and methods for providing processing of a variety of objects employing motion planning
US11123866B2 (en) 2016-02-08 2021-09-21 Berkshire Grey, Inc. Systems and methods for providing processing of a variety of objects employing motion planning
US10793375B2 (en) 2016-11-08 2020-10-06 Berkshire Grey, Inc. Systems and methods for processing objects
US11780684B2 (en) 2016-11-08 2023-10-10 Berkshire Grey Operating Company, Inc. Systems and methods for processing objects
US10913615B2 (en) 2016-11-28 2021-02-09 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing
US11820605B2 (en) 2016-11-28 2023-11-21 Berkshire Grey Operating Company, Inc. Systems and methods for providing singulation of objects for processing
US10913614B2 (en) 2016-11-28 2021-02-09 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing
EP4299490A3 (en) * 2016-11-28 2024-03-20 Berkshire Grey Operating Company, Inc. System for providing singulation of objects for processing
US11492210B2 (en) 2016-11-28 2022-11-08 Berkshire Grey Operating Company, Inc. Systems and methods for providing singulation of objects for processing
US11400493B2 (en) 2016-12-06 2022-08-02 Berkshire Grey Operating Company, Inc. Systems and methods for providing for the processing of objects in vehicles
US11471917B2 (en) 2016-12-06 2022-10-18 Berkshire Grey Operating Company, Inc. Systems and methods for providing for the processing of objects in vehicles
US10875057B2 (en) 2016-12-06 2020-12-29 Berkshire Grey, Inc. Systems and methods for providing for the processing of objects in vehicles
US11945003B2 (en) 2016-12-06 2024-04-02 Berkshire Grey Operating Company, Inc. Systems and methods for providing for the processing of objects in vehicles
US10618745B2 (en) 2016-12-09 2020-04-14 Berkshire Grey, Inc. Systems and methods for processing objects provided in vehicles
US11034529B2 (en) 2016-12-09 2021-06-15 Berkshire Grey, Inc. Systems and methods for processing objects provided in vehicles
US11884495B2 (en) 2016-12-09 2024-01-30 Berkshire Grey Operating Company, Inc. Systems and methods for processing objects provided in vehicles
US10639787B2 (en) 2017-03-06 2020-05-05 Berkshire Grey, Inc. Systems and methods for efficiently moving a variety of objects
US11839974B2 (en) 2017-03-06 2023-12-12 Berkshire Grey Operating Company, Inc. Systems and methods for efficiently moving a variety of objects
US11203115B2 (en) 2017-03-06 2021-12-21 Berkshire Grey, Inc. Systems and methods for efficiently moving a variety of objects
US10646991B2 (en) 2017-03-24 2020-05-12 Berkshire Grey, Inc. Systems and methods for processing objects, including automated processing
US11472022B2 (en) 2017-03-24 2022-10-18 Berkshire Grey Operating Company, Inc. Systems and methods for processing objects, including automated processing
US11826787B2 (en) 2017-04-24 2023-11-28 Berkshire Grey Operating Company, Inc. Systems and methods for providing singulation of objects for processing using object movement redistribution
US10792706B2 (en) 2017-04-24 2020-10-06 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing using object movement redistribution
KR20210053330A (en) * 2018-09-26 2021-05-11 덱스테러티, 인크. Robot Kiting System
KR102623160B1 (en) * 2018-09-26 2024-01-12 덱스테러티, 인크. Robot kit system
CN112930302A (en) * 2018-09-26 2021-06-08 聪慧公司 Robot full-set goods picking system
US11731792B2 (en) 2018-09-26 2023-08-22 Dexterity, Inc. Kitting machine
WO2020068545A1 (en) * 2018-09-26 2020-04-02 Dexterity, Inc. Robotic kitting system
CN113165129A (en) * 2018-09-26 2021-07-23 聪慧公司 Complete set of goods picker
AU2019347602B2 (en) * 2018-09-26 2023-03-02 Dexterity, Inc. Robotic kitting system
CN113165129B (en) * 2018-09-26 2023-09-26 聪慧公司 Complete goods picking machine
US11938618B2 (en) 2020-07-22 2024-03-26 Berkshire Grey Operating Company, Inc. Systems and methods for object processing using a passively folding vacuum gripper
US11945103B2 (en) 2020-07-22 2024-04-02 Berkshire Grey Operating Company, Inc. Systems and methods for object processing using a passively collapsing vacuum gripper
US11964386B2 (en) 2020-07-22 2024-04-23 Berkshire Grey Operating Company, Inc. Systems and methods for object processing using a vacuum gripper that provides object retention by shroud inversion
BE1028905B1 (en) * 2020-12-15 2022-07-19 Montech Bvba METHOD AND DEVICE FOR THE AUTOMATED PACKAGING OF OBJECTS
CN112756936A (en) * 2020-12-29 2021-05-07 曙光信息产业股份有限公司 Feeding system of server assembly work station, server assembly system and feeding method
WO2022184734A1 (en) * 2021-03-01 2022-09-09 Rsg Verwaltungs Gmbh Method for separating and transferring preliminary products, and apparatus
AT524802B1 (en) * 2021-03-05 2023-04-15 Engel Austria Gmbh Procedure for filing semi-finished products
AT524802A1 (en) * 2021-03-05 2022-09-15 Engel Austria Gmbh Procedure for filing semi-finished products
US11866269B2 (en) 2021-10-06 2024-01-09 Berkshire Grey Operating Company, Inc. Dynamic processing of objects provided in elevated vehicles with evacuation systems and methods for receiving objects

Also Published As

Publication number Publication date
AT507339B1 (en) 2011-06-15
WO2010034044A3 (en) 2010-05-27
AT507339A1 (en) 2010-04-15

Similar Documents

Publication Publication Date Title
AT507339B1 (en) METHOD AND APPARATUS FOR RECORDING AND / OR PROCESSING OBJECTS
DE102015015638B4 (en) Apparatus and method for transferring articles using a robot
DE102015102740B4 (en) Apparatus and method for arranging objects by robot and article transfer system
DE102014102943B4 (en) Robot system with functionality for determining the location of a 3D box
DE102016000995B4 (en) Conveyor robot system with three-dimensional sensor
DE112012002677T9 (en) Feeding device for components
DE102016114337B4 (en) SYSTEM AND METHOD FOR CONNECTING COORDINATE SPACES MACHINES LIKE ASSEMBLY FIXED IN AN ENVIRONMENT
DE102018101375B4 (en) Article handling device using at least one sensor
DE102013109220B4 (en) Robotic device and method for removing bulk goods from a warehouse
DE102019003334B4 (en) Robotic system and control method for a robotic system for removing workpieces from bulk material
DE102009034529B4 (en) Automatic guidance and detection system and method for this
WO2014202471A1 (en) Device and method for securing a machine that operates in an automated manner
DE102015117241A1 (en) Control of a conveyor system
DE102004018016A1 (en) Method for monitoring a surveillance area
DE102018123363A1 (en) Collision avoidance method and laser processing machine
WO2016023672A1 (en) Device and method for camera-based contour control
DE102021103726B4 (en) Measurement parameter optimization method and device and computer control program
EP3587044A1 (en) Method for gripping objects in a search area, control unit and positioning system
WO2018108782A1 (en) Method and device for detecting faults during object transport
DE102018101162B4 (en) Measuring system and method for extrinsic calibration
EP3615908B1 (en) Control device for a test apparatus, test arrangement with the control device, method for controlling the test arrangement and computer program
DE102019122861B4 (en) Item pickup system
DE102018109329A1 (en) Multi-unit actuated kinematics, preferably robots, particularly preferably articulated robots
DE202012104268U1 (en) Device for automated separation of non-magazine profiles
DE102019106068B3 (en) SYSTEM FOR ELIMINATING OVERLAYS OF RANDOM WORKPIECES

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09744904

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09744904

Country of ref document: EP

Kind code of ref document: A2