EP3122479B1 - Conveyor system, device for sorting bulk material using such a con conveyor system, and method for transporting - Google Patents

Conveyor system, device for sorting bulk material using such a con conveyor system, and method for transporting Download PDF

Info

Publication number
EP3122479B1
EP3122479B1 EP15705786.0A EP15705786A EP3122479B1 EP 3122479 B1 EP3122479 B1 EP 3122479B1 EP 15705786 A EP15705786 A EP 15705786A EP 3122479 B1 EP3122479 B1 EP 3122479B1
Authority
EP
European Patent Office
Prior art keywords
objects
determined
conveying system
location
different
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
EP15705786.0A
Other languages
German (de)
French (fr)
Other versions
EP3122479A1 (en
Inventor
Robin Gruna
Kai-Uwe Vieth
Henning Schulte
Thomas Längle
Uwe Hanebeck
Marcus Baum
Benjamin NOACK
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of EP3122479A1 publication Critical patent/EP3122479A1/en
Application granted granted Critical
Publication of EP3122479B1 publication Critical patent/EP3122479B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • B07C5/361Processing or control devices therefor, e.g. escort memory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3425Sorting according to other particular properties according to optical properties, e.g. colour of granular material, e.g. ore particles, grain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/04Sorting according to size
    • B07C5/10Sorting according to size measured by light-responsive means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C2501/00Sorting according to a characteristic or feature of the articles or material to be sorted
    • B07C2501/0018Sorting the articles during free fall

Definitions

  • Automatic bulk material sorting enables the use of digital image acquisition and image processing to separate high-throughput solids into distinct fractions (such as good and bad fractions) using optically detectable features.
  • belt sorting systems which use line-shaped imaging sensors (eg line scan cameras) for image acquisition.
  • the image acquisition by the line sensor takes place on the conveyor belt or in front of a problem-adapted background and synchronous to the tape movement.
  • the material discharge of a fraction is usually carried out by a pneumatic blow-out unit or by a mechanical ejection device (cf., for example, H. Demmer "Optical Sorting Systems", BHM No. 12, Springer, 2003).
  • material transport can also take place via free fall or in a controlled air flow.
  • the observation time of an object to be rejected which is referred to below as t 0
  • the blow-out unit is therefore spatially separated from the line of sight of the line scan camera.
  • the blow-off time hereinafter referred to as t b or, as estimated, as t b
  • x b (t b ) and, respectively estimated as x b (t b )
  • the object of the present invention to provide a conveyor system for transporting a material stream comprising a large number of individual objects (and a plant for bulk material sorting based thereon) and a corresponding transport method with which a high-precision prediction of the spatial position is also possible Uncooperative bulk material objects and thus an optimized automatic bulk sorting is also possible for such objects.
  • the positions can also be determined at different times. In general, however, the same points in time at which their respective location positions are determined are selected for all objects (the time points are, for example, the time of recording of camera images of an optical detection unit of the system specified).
  • the defined points in time, for each of which the location of the respective object is calculated may be different.
  • the respective whereabouts can also be calculable or predictable for all detected objects for one and the same later point in time. According to the invention, a prediction is thus made possible in order to estimate the spatial position of each detected object at a point in time - as seen from the time of the last spatial position determination of this object - in the future.
  • the individual objects can be subjected to image processing methods known per se to the person skilled in the art (for example, a captured camera image of the objects can undergo image preprocessing, such as edge detection and segmentation is subsequently performed) in (generally digital) image recordings of the image generated during the optical detection Material stream or the objects are localized therein, identified and distinguished from each other to determine the spatial positions of a defined object at different times and thus to track the path of this object (object tracking).
  • a movement path for the object can be determined for each object from the spatial positions of this object determined at different times. For example, on the basis of this movement path, the future location can then be estimated or calculated (if appropriate, on the basis of a movement model determined or selected with the movement path or the individual object positions at different times for the object being viewed).
  • the individual objects in the material flow can be identified, and based on the position of an object determined several times at different times, its location can be determined highly accurately at a point in time in the near future (ie shortly after leaving the conveyor belt at the level of the blow-out unit, for example).
  • the conveyor system according to the invention may have a conveyor unit, which may be a conveyor belt.
  • the invention in conveyor systems based on the free fall or a controlled airflow are used.
  • the determination of such movement paths is also referred to below as "object tracking".
  • the determination of the movement paths is preferably computer-aided in a computer system of the conveyor system, that is microprocessor-based.
  • a motion model selected for an object can serve to model future object movements of this object.
  • the movement models can be stored in a database in the memory of the computer system of the conveyor system.
  • Such a motion model can comprise equations of motion whose parameters can be determined by regression methods (for example least-squares fit method, least-squares-fit) or by a Kalman filter extended by a parameter identification on the basis of the determined positional positions or the particular motion path of the respective object , It is possible to select the movement model only after the presence of all recorded and determined during the optical detection position positions of an object.
  • the movement model can be selected or changed in real time during the recording of the individual images for successive determination of the individual location positions (ie, while the individual image recordings are still being performed, it is possible to switch to another movement model for the object being viewed if, for example, a fit method shows that this other motion model more accurately reflects the motion history of the object).
  • the classification need not be based on or using the spatial positions determined during the optical detection (in particular: from the successive camera shots) (even if the information can advantageously be included in the classification via the specific location positions, see also below).
  • the classification of an object identified on the basis of its location positions at different points in time or movement path can also take place, for example, purely on the basis of geometric features (eg outline or shape) of this object, the geometric features being determined via suitable image processing methods (eg image preprocessing such as edge detection with subsequent segmentation) the images obtained in the optical detection can be determined.
  • the classification can take place in exactly two classes, a class of good objects and a class of bad objects (which are to be removed).
  • the classification can thus take place on the basis of the optical recording of recorded images of the objects, in that these images are evaluated with suitable image processing methods and thus, for example, object shape, object position and / or object orientation is determined at different times.
  • the pose or spatial position of an object is understood as the combination of its spatial position (or the position of its center of gravity) and its orientation. This may be a two-dimensional position (for example relative to the plane of a conveyor belt of the conveyor system - the coordinate perpendicular to it is then ignored) but also a three-dimensional position, ie the spatial position and orientation of the three-dimensional object in space.
  • the particular two-dimensional spatial position is preferably the position in the plane of a moving conveyor belt, but relative to the immovable elements of the conveyor system.
  • a position determination can be made in the immobile world coordinate system in which not only the immovable elements of the conveyor system rest Also, for example, the optical detection device (camera).
  • this orientation information thus determined may be used to calculate the whereabouts at the defined time (s) after the latest of the different times.
  • the specific orientations can also be included in the determination of the movement paths.
  • the determination of the movement model (s) and / or the classification of the objects can also take place with the additional use of the determined orientation information.
  • the surface sensor (s) may in particular be a camera (s).
  • a camera Preferably CCD cameras can be used, also the use of CMOS sensors is possible.
  • the shape of this / these objects (s) can be determined via image processing measures (eg image preprocessing such as edge detection with subsequent segmentation and subsequent object tracking algorithm).
  • image processing measures eg image preprocessing such as edge detection with subsequent segmentation and subsequent object tracking algorithm.
  • the three-dimensional Image of an object can be identified by suitable algorithms (see eg R. Szeliski, Computer Vision: Algorithms and Applications, 1st Edition, Springer, 2010 ; or A. Blake, M. Isard "Active Contours", Springer, 1998 ) are generated from the forms of a single object identified, for example, by object tracking in the individual images.
  • the plant for bulk material sorting shown comprises a conveyor system with a conveyor unit 2 designed as a conveyor belt, an area camera (CCD camera) 3 positioned above the unit 2 and at the discharge end thereof (and the discharge end) and areal illuminants 5 for illuminating the field of view of the area camera.
  • the image acquisition by the surface sensor (camera) 3 takes place here on the conveyor belt 2 or in front of a problem-adapted background 7 and takes place synchronously to the belt movement.
  • the system also includes a sorting unit, of which only the Blow-out unit 4 is shown. Shown is also a computer system 6, with which all the calculations of the system or the conveyor system described below are performed.
  • the individual objects O1, O2, O3 ... in the material flow M are thus transported by means of the conveyor belt 2 through the detection range of the camera 3 and there recorded and evaluated in terms of their object positions by image evaluation algorithms in the computer system 6. Subsequently, the blow-out unit 4 separates into the bad fraction (poor objects SO1 and SO2) and into the good fraction (good objects GO1, GO2, GO3 ..).
  • an area sensor (area camera) 3 is thus used.
  • the image is obtained on the bulk material or material flow M (or the individual objects O1, ... thereof) by the camera 3 on the conveyor belt 2 and / or in front of a problem-adapted background 7.
  • the image acquisition rate is adapted to the speed of the conveyor belt 2 or synchronized by a position encoder (not shown).
  • the acquisition of an image sequence (instead of a snapshot) of the bulk material stream at different times (in quick succession) is aimed at by means of several surface scans or surface images of the material stream M through the area camera 3 as follows (cf. FIGS. 2 to 4 ).
  • FIG. 2 the field of view 3 'of the camera 3 is shown on the conveyor belt 2 with the bulk material or the objects O thereof in plan view ( FIG. 1 outlines this field of view 3 'of the camera 3 in side view).
  • the discharge takes place through the blow-out unit 4 (whose blow-out area 4 'in FIG FIG. 2 shown in supervision).
  • the material transport could also take place in free fall or in a controlled air flow (not shown here) if the units 3 to 7 are repositioned accordingly.
  • the data acquisition can thus be based on one (or more) imaging surface sensors such as the area camera 3.
  • imaging surface sensors such as the area camera 3.
  • This allows a position determination and also a measurement physical properties of the individual particles or objects O1,... of the bulk material M at the several different times, as shown in FIG FIG. 2 outlined.
  • Imaging sensors outside the visible wavelength range and imaging hyperspectral sensors can also be used as imaging surface sensors.
  • the position determination can also be carried out by one (or more) 3D sensor (s) which can / provide position measurements of the individual objects in space instead of in the plane of the conveyor belt 2.
  • FIGS. 2 to 4 predictive multi-object tracking can be used.
  • each movement paths by juxtaposition of the individual detected and determined object positions x.
  • This is in FIG. 2 with the movement path 1 for a single object O for its movement between the times t -5 and t 0 , between which this object has been detected in the detection area 3 'of the camera 3 by frame capturing.
  • the observed motion path 1 is x (t 0 ), x (t -1 ), x (t -2 ), x (t -3 ), ... of an object O1, O2, ...
  • the location can be estimated with high accuracy.
  • the exhaust unit 4 can purposely remove it from the material stream M at the blow-off time t b on the basis of the highly precisely determined blow-out position of this object (if it is a bad object).
  • the applied predictive multi-object tracking method additionally provides an uncertainty indication of the estimated variables in the form of a variance (blow-out time) or covariance matrix (blow-out position).
  • FIG. 3 and 4 show the inventively usable procedure for predictive multi-object tracking more accurate.
  • this procedure can be subdivided into two phases, a tracking phase and a prediction phase (where the prediction phase takes place after the tracking phase in terms of time).
  • FIG. 4 illustrates that the tracking phase is composed of filter and prediction steps and that the prediction phase is limited to prediction steps.
  • the first phase (tracking phase) is assigned to the field of view 3 'of the area camera 3. While a certain object from the set of objects O1, O2,... In the material flow M passes through this area 3 ', it can be recorded in the individual times t -5 , t -4 , t -3 ,..
  • Camera images are identified and it can be maintained in a positional positioning.
  • FIG. 4 shows this approach of predictive multi-object tracking schematically.
  • recursive estimation methods can be used for tracking the objects in the tracking phase ( FIG. 4a ).
  • non-recursive estimation methods can also be used for the tracking.
  • the recursive methods eg Kalman filter methods
  • the recursive methods are composed of a sequence of filter and prediction steps. Once an object is captured in the camera data for the first time, prediction and filtering steps follow. The current position estimate is updated by the prediction until the next image acquisition (eg by a linear movement prediction). In the subsequent filter step, the available position estimates are updated or corrected on the basis of the measured camera data (ie based on the recorded image data).
  • a Kalman filter can be used. It is also possible for a plurality of prediction or filter steps to follow one another.
  • parameters of equations of motion can be estimated in the tracking phase, wherein the equations of motion can describe a movement model for the movement of a single object.
  • the future movement path of the object under consideration be estimated with high accuracy and thus also its whereabouts to the later, potential (if it is a bad object) Ausblaszeittician t b .
  • parameters of the equations of motion that can be estimated on the basis of the image sequences are acceleration values in all spatial directions, rotational axes and directions. These parameters can be captured by tracking in the image sequences and define a motion model for each particle, which also includes, for example, rotational and lateral movements.
  • the prediction phase (during which the observed object has just left the imaging area of the camera 3, outside the area 3 'and in the area 3 "between this area 3' on the one hand and the blow-out area 4 'on the other hand, and thus can no longer be detected by the camera 3), the determined equations of motion can be used to for the currently considered object (ie at corresponding Computer power for each detected object in the material flow M) to predict an estimate or calculation of the subsequent spatial position (or the pose).
  • This second phase of the object tracking can consist of one or more prediction steps which are based on the motion models previously determined in the tracking phase (eg estimated rotational movements).
  • the result of this prediction phase is an estimate of the whereabouts at a later point in time (such as, for example, the discharge time t b and the whereabouts at this point in time, ie the discharge position x b (t b )).
  • Tracing the objects thus takes place in two phases.
  • the tracking phase consists of sequences of filtering and prediction steps. Filtering steps refer to the processing of camera images to improve the current position estimates, and prediction steps continue the position estimates until the next camera image, ie, next filter step.
  • the prediction phase following the tracking phase consists only of prediction steps since no filter step can be performed due to missing camera data.
  • the tracking phase can be performed in different ways: Either non-recursively, whereby the current object positions or object positions are determined from each image (no movement models have to be used.) All object positions acquired over time can be collected to form trajectories for the individual objects Recursive processing is also possible, so that only the current position estimation of an object has to be provided, using the motion models (prediction steps) to predict the movement of the object between camera measurements and thus correlating different filter steps the prediction of the results of the previous filtering step as prior knowledge In the case, a weighting occurs between the predicted positions and the positions determined from the current camera image. It is also possible to work recursively with an adaptation of the movement models: Here, a simultaneous estimation of object positions or positions and model parameters takes place. By observing image sequences, for example, acceleration values can be determined as model parameters. The movement models are thus identified during the tracking phase. It can be a fixed model for all objects or individual movement models.
  • the reference numeral 1 designates the extrapolation of the movement path 1 of an object determined in the tracking phase over the detection period of this object by the camera 3, ie the predicted trajectory of the object after leaving the detection range of the camera 3', ie in particular also at the time of the flyby the blow-out unit 4 (or by the detection area 4 'thereof).
  • the prediction phase can directly use the model information previously determined in the tracking phase and consists of pure prediction steps since camera data are no longer available and therefore no filter steps can be performed any more.
  • the prediction phase can be subdivided further, for example into a phase in which the objects are still on the conveyor belt and a flight phase after leaving the conveyor belt.
  • two different movement models can be used in both phases (for example a two-dimensional movement model on the conveyor belt and a three-dimensional movement model in the subsequent flight phase).
  • One way to render the camera image data for object tracking is to transform the data into a set of object locations by image preprocessing and segmentation techniques.
  • Applicable image preprocessing methods and segmentation methods include, for example, inhomogeneous point operations for the removal of illumination inhomogeneities and area-oriented segmentation methods as described in the literature ( B. Jähne, digital image processing and image acquisition, 7th, newly edited edition 2012, Springer, 2012 ; or J. Beyerer, FP Leon, and C. Frese “Automatic Visual Inspection: Fundamentals, Methods and Practice of Image Acquisition and Image Evaluation ", 2013th ed. Springer, 2012 ) are described.
  • the assignment of measurements to prior estimates can be made, for example, explicitly by a nearest neighbor search or implicitly by association-free methods, adapted to the available computing capacities in the computer system 6.
  • Corresponding methods are for example in RPS Mahler's "Statistical Multisource Multitarget Information Fusion", Boston, Mass .: Artech House, 2007 , described.
  • Kalman filter methods or other methods for (non-linear) filtering and state estimation can be used, as described, for example, in US Pat F. Sawo, V. Klumpp, UD Hanebeck, "Simultaneous State and Parameter Estimation of Distributed Physical Systems based on Sliced Gaussian Mixture Filters", Proceedings of the 11th International Conference on Information Fusion (2008 Fusion), 2008 , are described.
  • FIG. 5 sketched construction to be used in the FIG. 1 shown is very similar, so that only the differences are described here.
  • FIG. 5 Instead of a single area camera 3, several individual line scan cameras arranged along the conveyor belt 2 and above it are used (line orientation perpendicular to the transport direction x and the direction of deflection z of the cameras 3a to 3c onto the plane of the conveyor belt xy, ie in the y direction).
  • the z-direction here corresponds to the direction of the camera 3 ( FIG. 1 ) or the plurality of cameras 3a to 3c ( FIG. 5 ).
  • a plurality of line scan cameras (or even multiple area cameras with one or more regions-of-interest, ROIs) spatially distributed along the conveyor belt 2 relative to one another, including the illuminations 5 assigned to each of the cameras, can thus also be used.
  • the line scan cameras or the surface cameras can be mounted both above the conveyor belt 2 and above the trajectory of the bulk material in front of a problem-adapted background 7 (this applies in the example shown for the last camera 3c seen in the transport direction x of the belt 2).
  • the resulting image acquisition is in FIG. 6 sketched, as opposed to FIG. 5 (Which shows only three line scan cameras 3 a to 3 c) here for a total of six different line scan cameras arranged one behind the other along the transport direction x (whose detection ranges are designated by 3 a 'to 3 f').
  • the position of one and the same object can be determined at several times when traversing the line-scan camera fields 3a 'to 3f', whereby a movement path 1 can be obtained as described above.
  • the present invention has a number of significant advantages.
  • the method for multi-object tracking enables improved optical characterization and feature extraction from the image data of the individual objects O of the observed bulk material flow M. Since the non-cooperative objects generally present themselves in different three-dimensional layers of the camera due to their additional proper motion, image features of different object views can become one cumulative object feature over the individual observation times.
  • the three-dimensional shape of an object can also be estimated and used as a feature for the sorting. The extrapolation of the three-dimensional shape of an object from the recorded image data can be described as described in the literature (see, for example, US Pat SJD Prince "Computer vision models, learning, and inference", New York, Cambridge University Press, 2012 ) z. B. based on the visual envelope of each object in different poses (shape-from-silhouettes method) done.
  • the extended object features can also be used for improved motion modeling in the context of predictive tracking, for example, the three-dimensional shape for the prediction of the trajectory is taken into account.
  • the identified model that characterizes the motion path 1 of a particular object may itself be used as a feature for a classification or sorting decision.
  • the movement path 1 determined on the basis of the individual camera shots as well as the future movement path 1 'estimated on the basis of the movement path 1, are influenced by the geometric properties and the weight of the object and accordingly offer an inference possibility on the affiliation to a bulk fraction.
  • Another technical advantage for the bulk material sorting is provided by the evaluation of the additional uncertainty descriptions for the estimated discharge time and the discharge position. This allows an adapted control of the pneumatic blow-out unit for each object to be ejected. If the estimated sizes are subject to a great deal of uncertainty, a larger blow-out window can be selected to ensure the discharge of a bad object. Conversely, the size of the blow-off window, and thus the number of nozzles driven, can be reduced in estimates with little uncertainty. As a result, the consumption of compressed air can be reduced during the sorting process, whereby costs and energy can be saved.
  • the multiple position determination of objects of the bulk material flow at different times as well as the evaluation of a sequence of images instead of a snapshot image (this may also involve a multiple measurement, calculation and cumulation of object features at different times as well as a use of identified motion models as a feature for an object classification) generally achieved a significantly improved separation in the automatic sorting of any bulk materials.
  • the mechanical outlay for material calming can be considerably reduced.
  • the present invention can be used for the sorting of complex shaped bulk materials, which must be checked from several different views, using only a single area camera in a fixed position.

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

Die automatische Schüttgutsortierung ermöglicht es, mithilfe digitaler Bildgewinnung und Bildverarbeitung Schüttgüter mit hohem Durchsatz anhand optisch erfassbarer Merkmale in verschiedene Fraktionen (beispielsweise Gut- und Schlechtfraktion) zu separieren. Beispielsweise sind Bandsortiersysteme bekannt, die zeilenförmige bildgebende Sensoren (z.B. Zeilenkameras) für die Bildgewinnung einsetzen. Die Bildgewinnung durch den Zeilensensor erfolgt dabei auf dem Förderband oder vor einem problemangepassten Hintergrund und synchron zur Bandbewegung. Die Materialausschleusung einer Fraktion (also der Schlechtfraktion bzw. der Schlechtobjekte) erfolgt in der Regel durch eine pneumatische Ausblaseinheit oder durch eine mechanische Auswurfvorrichtung (vgl. z.B. H. Demmer "Optische Sortieranlagen", BHM Heft 12, Springer, 2003). Alternativ zu einem Förderband kann der Materialtransport auch über den freien Fall oder in einem kontrollierten Luftstrom erfolgen.Automatic bulk material sorting enables the use of digital image acquisition and image processing to separate high-throughput solids into distinct fractions (such as good and bad fractions) using optically detectable features. For example, belt sorting systems are known which use line-shaped imaging sensors (eg line scan cameras) for image acquisition. The image acquisition by the line sensor takes place on the conveyor belt or in front of a problem-adapted background and synchronous to the tape movement. The material discharge of a fraction (ie the poor fraction or the bad objects) is usually carried out by a pneumatic blow-out unit or by a mechanical ejection device (cf., for example, H. Demmer "Optical Sorting Systems", BHM No. 12, Springer, 2003). As an alternative to a conveyor belt, material transport can also take place via free fall or in a controlled air flow.

Aufgrund baulicher Beschränkungen sowie der benötigten Rechenzeit für die Bildauswertung in einem Rechner kann der Beobachtungszeitpunkt eines auszuschleusenden Objekts, der nachfolgend als t0 bezeichnet wird, nicht mit dem Ausschleus- bzw. Ausblaszeitpunkt übereinstimmen. Die Ausblaseinheit ist daher räumlich von der Sichtlinie der Zeilenkamera getrennt. Für eine korrekte Ausschleusung eines Schlechtobjekts müssen daher der Ausblaszeitpunkt (der nachfolgend als tb bzw., da geschätzt, als t̂b, bezeichnet wird) und auch die Position des auszuschleusenden Objekts (die nachfolgend als x b(tb) bzw., da geschätzt, als b(t̂b) bezeichnet ist) geschätzt werden. Der Fettdruck "x" kennzeichnet hierbei, dass es sich in der Regel um eine mehrdimensionale Ortsposition handelt, wobei nachfolgend hierfür alternativ auch die Bezeichnung x verwendet wird. Bei den im Stand der Technik durchgeführten Abschätzungen wird jedoch vorausgesetzt, dass das auszublasende Objekt keine Eigenbewegung relativ zum Band aufweist und sich somit mit dem Geschwindigkeitsvektor v band des Förderbandes bewegt. Der Ausschleusungszeitpunkt tb und der Ausschleusungsort x b(tb) werden dann durch eine lineare Vorhersage auf Basis des Geschwindigkeitsvektors des Förderbandes v band und der gemessenen Objektposition x(t0) zum Beobachtungszeitpunkt t0 geschätzt.Due to structural limitations as well as the required computing time for the image evaluation in a computer, the observation time of an object to be rejected, which is referred to below as t 0 , do not coincide with the discharge or Ausblasus. The blow-out unit is therefore spatially separated from the line of sight of the line scan camera. For a correct discharge of a bad object, therefore, the blow-off time (hereinafter referred to as t b or, as estimated, as t b ) and also the position of the object to be ejected (hereinafter referred to as x b (t b ) and, respectively) estimated as x b (t b )). The bold " x " here indicates that it is usually a multi-dimensional spatial position, below for this alternative also the name x is used. In the estimates made in the prior art, however, it is assumed that the object to be bled has no proper movement relative to the belt and thus moves with the speed vector v band of the conveyor belt. The discharge timing t b and the discharge location x b (t b ) are then estimated by a linear prediction based on the speed vector of the conveyor belt v band and the measured object position x (t 0 ) at the observation time t 0 .

Viele Schüttgüter erweisen sich jedoch aufgrund ihrer Geometrie und ihres Gewichts als unkooperativ und zeigen relativ zum Transportband eine zusätzliche Eigenbewegung (beispielsweise Erbsen, Pfeffer, rundliche Granulate). Zudem kann es aufgrund eines unterschiedlichen Luftwiderstands (auch das Gewicht bzw. die Dichte kann hier eine Rolle spielen) der einzelnen Objekte zu einer Beeinflussung der Flugbahn kommen. Dadurch wird die konstante lineare Bewegungsannahme des Schüttgutes gemäß v band verletzt und die Objektposition x b(tb) zum geschätzten Ausblaszeitpunkt tb falsch vorhergesagt. Als Folge davon findet keine Ausschleusung der detektierten Schlechtobjekte bzw. der Schlechtfraktion statt und zudem wird möglicherweise fälschlicherweise Gutmaterial ausgeschleust. Für unkooperative Schüttgüter ist daher oft keine optische Sortierung mit den nach dem Stand der Technik bekannten optischen Sortiersystemen auf Zeilensensorbasis möglich.However, many bulk materials prove to be uncooperative due to their geometry and weight and show an additional proper motion relative to the conveyor belt (eg peas, pepper, roundish granules). In addition, it may come due to a different air resistance (the weight or the density may play a role) of the individual objects to influence the trajectory. As a result, the constant linear movement assumption of the bulk material is violated in accordance with v band and the object position x b (t b ) is incorrectly predicted at the estimated blow-out time t b . As a result, there is no discharge of the detected bad objects or the bad fraction, and moreover, good material may be erroneously rejected. Thus, for non-cooperative bulk materials, optical sorting with the prior art linear sorting optical sorting systems is often impossible.

Um dieses Problem zu umgehen, sind aus dem Stand der Technik ( DE 10 2004 008 642 A1 und DE 69734198 T2 ) spezielle Systeme für die Sortierung unkooperativer Materialien bekannt, die jedoch einen hohen Aufwand für eine mechanische Materialberuhigung betreiben (über mechanische Mittel wird eine Eigenbewegung des Schüttguts auf dem Transportband unterdrückt). Diese Systeme weisen jedoch einen hohen technischen Realisierungs- und Wartungsaufwand auf (beispielsweise die Verwendung speziell profilierter Transportbänder und Vibrationsrinnen). Weiterhin zeigt EP-A- 0 719 598 ein Fördersystem bzw. - verfahren, welches die Geschwindigkeit der zu sortierenden Objekte durch Ortsbestimmung an zwei Punkten berücksichtigt. Ausgehend vom Stand der Technik ist es daher die Aufgabe der vorliegenden Erfindung ein Fördersystem zum Transport eines eine Vielzahl einzelner Objekte umfassenden Materialstroms (sowie eine darauf basierende Anlage zur Schüttgutsortierung) und ein entsprechendes Transportverfahren zur Verfügung zu stellen, mit denen eine hochgenaue Vorhersage der Ortsposition auch unkooperativer Schüttgutobjekte und somit eine optimierte automatische Schüttgutsortierung auch für solche Objekte ermöglicht ist.To circumvent this problem, are known from the prior art ( DE 10 2004 008 642 A1 and DE 69734198 T2 ) special systems for the sorting of uncooperative materials known, however, a lot of effort for operate a mechanical material calming (by mechanical means a proper movement of the bulk material is suppressed on the conveyor belt). However, these systems have a high technical implementation and maintenance (for example, the use of specially profiled conveyor belts and vibrating troughs). Further shows EP-A-0 719 598 a conveyor system or method, which takes into account the speed of the objects to be sorted by locating at two points. Based on the prior art, it is therefore the object of the present invention to provide a conveyor system for transporting a material stream comprising a large number of individual objects (and a plant for bulk material sorting based thereon) and a corresponding transport method with which a high-precision prediction of the spatial position is also possible Uncooperative bulk material objects and thus an optimized automatic bulk sorting is also possible for such objects.

Diese Aufgabe wird durch ein Fördersystem gemäß Anspruch 1, durch eine Anlage zur Schüttgutsortierung gemäß Anspruch 13 sowie durch ein Transportverfahren gemäß Anspruch 15 gelöst. Vorteilhafte Ausgestaltungsvarianten lassen sich dabei jeweils den abhängigen Patentansprüchen entnehmen.This object is achieved by a conveyor system according to claim 1, by a plant for bulk sorting according to claim 13 and by a transport method according to claim 15. Advantageous embodiments can be found in each case the dependent claims.

Nachstehend wird die Erfindung zunächst allgemein, dann anhand von Ausführungsbeispielen im Detail beschrieben. Die einzelnen in den Ausführungsbeispielen in Kombination miteinander gezeigten Merkmale der Erfindung müssen dabei nicht genau in den gezeigten Kombinationen realisiert werden. Insbesondere können einzelne der gezeigten Merkmale der Ausführungsbeispiele auch weggelassen werden oder gemäß der Struktur der abhängigen Ansprüche mit weiteren Merkmalen der Erfindung auch auf andere Art und Weise kombiniert werden. Bereits einzelne der gezeigten Merkmale können für sich eine Verbesserung des Standes der Technik darstellen.In the following, the invention will be described first in general terms, then with reference to exemplary embodiments. The individual features of the invention shown in combination with each other in the embodiments need not be realized exactly in the combinations shown. In particular, individual features of the embodiments shown may also be omitted or, according to the structure of the dependent claims, combined with other features of the invention in other ways. Already some of the features shown may represent an improvement of the prior art.

Ein erfindungsgemäßes Fördersystem ist in Anspruch 1 beschrieben.An inventive conveyor system is described in claim 1.

Für unterschiedliche Objekte können deren Positionen auch zu unterschiedlichen Zeitpunkten bestimmt werden. In der Regel werden aber für alle Objekte dieselben Zeitpunkte, an denen jeweils deren Ortspositionen bestimmt werden, gewählt (die Zeitpunkte werden beispielsweise über den Zeitpunkt der Aufnahme von Kamerabildern einer optischen Erfassungseinheit des Systems festgelegt). Für unterschiedliche Objekte können die definierten Zeitpunkte, für die jeweils der Aufenthaltsort des jeweiligen Objekts (anhand der diesem Objekt zugehörigen, bereits bestimmten Ortspositionen) berechnet wird, unterschiedlich sein. Der jeweilige Aufenthaltsort kann aber auch für alle erfassten Objekte für ein und denselben späteren Zeitpunkt berechenbar bzw. vorhersagbar sein. Erfindungsgemäß wird somit eine Vorhersage ermöglicht, um die Ortsposition eines jeden erfassten Objekts zu einem - gesehen vom Zeitpunkt der letzten Ortspositionsbestimmung dieses Objekts - in der Zukunft liegenden Zeitpunkt hochgenau abzuschätzen.For different objects, their positions can also be determined at different times. In general, however, the same points in time at which their respective location positions are determined are selected for all objects (the time points are, for example, the time of recording of camera images of an optical detection unit of the system specified). For different objects, the defined points in time, for each of which the location of the respective object is calculated (based on the location positions already associated with this object), may be different. However, the respective whereabouts can also be calculable or predictable for all detected objects for one and the same later point in time. According to the invention, a prediction is thus made possible in order to estimate the spatial position of each detected object at a point in time - as seen from the time of the last spatial position determination of this object - in the future.

Die einzelnen Objekte können dabei auf Basis dem Fachmann an sich bekannter Bildverarbeitungsverfahren (so kann ein aufgenommenes Kamerabild der Objekte einer Bildvorverarbeitung wie beispielsweise einer Kantendetektion unterzogen werden und anschließend eine Segmentierung durchgeführt werden) in bei der optischen Erfassung erzeugten (in der Regel digitalen) Bildaufnahmen des Materialstroms bzw. der Objekte darin lokalisiert, identifiziert und voneinander unterschieden werden, um die Ortspositionen eines definierten Objekts zu den verschiedenen Zeitpunkten zu bestimmen und um damit den Weg dieses Objekts zu verfolgen (Objektverfolgung). Auf Basis der Identifikation und der Unterscheidung der einzelnen Objekte in einer optisch erfassten Bildserie kann für jedes Objekt aus den zu unterschiedlichen Zeitpunkten bestimmten Ortspositionen dieses Objekts ein Bewegungspfad für das Objekt bestimmt werden. Beispielsweise anhand dieses Bewegungspfades kann dann der zukünftige Aufenthaltsort abgeschätzt bzw. berechnet werden (ggfs. auf Basis eines mit dem Bewegungspfad bzw. den einzelnen Objektpositionen zu unterschiedlichen Zeitpunkten bestimmten oder ausgewählten Bewegungsmodells für das gerade betrachtete Objekt).The individual objects can be subjected to image processing methods known per se to the person skilled in the art (for example, a captured camera image of the objects can undergo image preprocessing, such as edge detection and segmentation is subsequently performed) in (generally digital) image recordings of the image generated during the optical detection Material stream or the objects are localized therein, identified and distinguished from each other to determine the spatial positions of a defined object at different times and thus to track the path of this object (object tracking). On the basis of the identification and the distinction of the individual objects in an optically recorded image series, a movement path for the object can be determined for each object from the spatial positions of this object determined at different times. For example, on the basis of this movement path, the future location can then be estimated or calculated (if appropriate, on the basis of a movement model determined or selected with the movement path or the individual object positions at different times for the object being viewed).

Somit sind erfindungsgemäß die einzelnen Objekte im Materialstrom identifizierbar und anhand der mehrfach zu unterschiedlichen Zeitpunkten bestimmten Position eines Objekts kann dessen Aufenthaltsort zu einem in naher Zukunft liegenden Zeitpunkt (also z.B. kurz nach Verlassen des Förderbandes auf Höhe der Ausblaseinheit) hochgenau bestimmt werden. Zum Transport des Materialstroms kann das erfindungsgemäße Fördersystem eine Fördereinheit aufweisen, bei der es sich um ein Förderband handeln kann. Ebenso kann die Erfindung jedoch bei Fördersystemen, die auf Basis des freien Falls oder eines kontrollierten Luftstroms arbeiten, eingesetzt werden.Thus, according to the invention, the individual objects in the material flow can be identified, and based on the position of an object determined several times at different times, its location can be determined highly accurately at a point in time in the near future (ie shortly after leaving the conveyor belt at the level of the blow-out unit, for example). To transport the material flow, the conveyor system according to the invention may have a conveyor unit, which may be a conveyor belt. Likewise, however, the invention in conveyor systems based on the free fall or a controlled airflow are used.

Erste vorteilhafterweise realisierbare Merkmale der Erfindung zeigt Anspruch 2.First advantageously realizable features of the invention is claimed in claim 2.

Das Bestimmen solcher Bewegungspfade wird im Rahmen der Erfindung nachfolgend auch als Objektverfolgung (bzw. Englisch: "tracking") bezeichnet. Das Bestimmen der Bewegungspfade erfolgt bevorzugt rechnergestützt in einem Rechnersystem des Fördersystems, also mikroprozessorbasiert.In the context of the invention, the determination of such movement paths is also referred to below as "object tracking". The determination of the movement paths is preferably computer-aided in a computer system of the conveyor system, that is microprocessor-based.

Weitere vorteilhafterweise realisierbare Merkmale beschreibt Anspruch 3.Further advantageously realizable features describes claim 3.

Ein für ein Objekt ausgewähltes Bewegungsmodell kann dabei der Modellierung zukünftiger Objektbewegungen dieses Objekts dienen. Die Bewegungsmodelle können in einer Datenbank im Speicher des Rechnersystems des Fördersystems abgelegt werden. Ein solches Bewegungsmodell kann Bewegungsgleichungen umfassen, deren Parameter durch Regressions-Verfahren (beispielsweise Methode der kleinsten Quadrate, least-squares-fit) oder durch ein um eine Parameteridentifikation erweitertes Kalman-Filter anhand der bestimmten Ortspositionen bzw. des bestimmten Bewegungspfads des jeweiligen Objekts bestimmbar sind. Dabei ist es möglich, das Bewegungsmodell erst nach Vorliegen aller während der optischen Erfassung aufgenommenen und bestimmten Ortspositionen eines Objekts auszuwählen. Alternativ dazu kann das Bewegungsmodell in Echtzeit noch während der Aufnahme der einzelnen Bilder zur aufeinanderfolgenden Bestimmung der einzelnen Ortspositionen ausgewählt bzw. gewechselt werden (d.h. während die einzelnen Bildaufnahmen noch durchgeführt werden, kann ggfs. ein Überwechseln auf ein anderes Bewegungsmodell für das gerade betrachtete Objekt erfolgen, wenn z.B. ein Fit-Verfahren zeigt, dass dieses andere Bewegungsmodell den Bewegungsverlauf des Objekts genauer wiedergibt).A motion model selected for an object can serve to model future object movements of this object. The movement models can be stored in a database in the memory of the computer system of the conveyor system. Such a motion model can comprise equations of motion whose parameters can be determined by regression methods (for example least-squares fit method, least-squares-fit) or by a Kalman filter extended by a parameter identification on the basis of the determined positional positions or the particular motion path of the respective object , It is possible to select the movement model only after the presence of all recorded and determined during the optical detection position positions of an object. Alternatively, the movement model can be selected or changed in real time during the recording of the individual images for successive determination of the individual location positions (ie, while the individual image recordings are still being performed, it is possible to switch to another movement model for the object being viewed if, for example, a fit method shows that this other motion model more accurately reflects the motion history of the object).

Weitere vorteilhafterweise realisierbare Merkmale beschreibt Anspruch 4.Further advantageously realizable features describes claim 4.

Die Klassifizierung muss dabei nicht auf Basis oder unter Verwendung der bei der optischen Erfassung (insbesondere: aus den aufeinanderfolgenden Kameraaufnehmen) bestimmten Ortspositionen erfolgen (auch wenn die Information über die bestimmten Ortspositionen vorteilhaft in die Klassifizierung einfließen kann, siehe auch nachfolgend). So kann die Klassifizierung eines anhand seiner Ortspositionen zu unterschiedlichen Zeitpunkten bzw. Bewegungspfades identifizierten Objekts auch beispielsweise rein anhand von geometrischen Merkmalen (z.B. Umriss oder Form) dieses Objekts erfolgen, wobei die geometrischen Merkmale über geeignete Bildverarbeitungsverfahren (z.B. Bildvorverarbeitung wie Kantendetektion mit nachfolgender Segmentierung) aus den bei der optischen Erfassung gewonnenen Bildern bestimmt werden können.In this case, the classification need not be based on or using the spatial positions determined during the optical detection (in particular: from the successive camera shots) (even if the information can advantageously be included in the classification via the specific location positions, see also below). Thus, the classification of an object identified on the basis of its location positions at different points in time or movement path can also take place, for example, purely on the basis of geometric features (eg outline or shape) of this object, the geometric features being determined via suitable image processing methods (eg image preprocessing such as edge detection with subsequent segmentation) the images obtained in the optical detection can be determined.

Die Klassifizierung kann insbesondere in genau zwei Klassen, eine Klasse von Gutobjekten und eine Klasse von Schlechtobjekten (die auszuschleusen sind), erfolgen. Die Klassifizierung kann somit anhand bei der optischen Erfassung aufgenommener Bilder der Objekte geschehen, indem diese Bilder mit geeigneten Bildverarbeitungsmethoden ausgewertet werden und so zum Beispiel Objektform, Objektposition und/oder Objektorientierung zu unterschiedlichen Zeitpunkten bestimmt wird.In particular, the classification can take place in exactly two classes, a class of good objects and a class of bad objects (which are to be removed). The classification can thus take place on the basis of the optical recording of recorded images of the objects, in that these images are evaluated with suitable image processing methods and thus, for example, object shape, object position and / or object orientation is determined at different times.

Nachfolgend wird unter der Pose bzw. der räumlichen Lage eines Objekts die Kombination aus seiner Ortsposition (bzw. der Position seines Schwerpunktes) und seiner Orientierung verstanden. Dabei kann es sich um eine zweidimensionale Lage handeln (z.B. relativ zur Ebene eines Förderbandes des Fördersystems - die Koordinate senkrecht dazu wird dann nicht beachtet), aber auch um eine dreidimensionale Lage, also um die Ortsposition und die Orientierung des dreidimensionalen Objekts im Raum.In the following, the pose or spatial position of an object is understood as the combination of its spatial position (or the position of its center of gravity) and its orientation. This may be a two-dimensional position (for example relative to the plane of a conveyor belt of the conveyor system - the coordinate perpendicular to it is then ignored) but also a three-dimensional position, ie the spatial position and orientation of the three-dimensional object in space.

Weitere vorteilhafterweise erfindungsgemäß realisierbare Merkmale lassen sich den Ansprüchen 5 und 6 entnehmen.Further advantageously realizable features according to the invention can be found in claims 5 and 6.

Bei der bestimmten zweidimensionalen Ortsposition handelt es sich vorzugsweise um die Position in der Ebene eines beweglichen Förderbandes, jedoch relativ zu den unbeweglichen Elementen des Fördersystems: Es kann somit eine Positionsbestimmung im unbeweglichen Weltkoordinatensystem erfolgen, in dem nicht nur die unbeweglichen Elemente des Fördersystems ruhen, sondern auch z.B. die optische Erfassungsvorrichtung (Kamera).The particular two-dimensional spatial position is preferably the position in the plane of a moving conveyor belt, but relative to the immovable elements of the conveyor system. Thus, a position determination can be made in the immobile world coordinate system in which not only the immovable elements of the conveyor system rest Also, for example, the optical detection device (camera).

Weitere vorteilhafterweise realisierbare Merkmale sind im Anspruch 7 beschrieben.Further advantageously realizable features are described in claim 7.

Es ist somit möglich, für die einzelnen zu erfassenden Objekte jeweils nicht nur die Ortsposition, sondern zusätzlich auch ihre Orientierung im Raum (und/oder ihre Form), insgesamt also ihre Pose, zu den mehreren unterschiedlichen Zeitpunkten zu bestimmen. Auch diese so bestimmten Orientierungsinformationen können zum Berechnen der Aufenthaltsorte zu dem/den definierten Zeitpunkt(en) nach dem jeweils spätesten der unterschiedlichen Zeitpunkte eingesetzt werden.It is thus possible to determine not only the spatial position but also their orientation in space (and / or their shape), in total their pose, at the several different points in time for the individual objects to be detected. Also, this orientation information thus determined may be used to calculate the whereabouts at the defined time (s) after the latest of the different times.

Dabei muss nicht zusätzlich zum Bestimmen dieser Aufenthaltsorte auch ein Bestimmen der Orientierung der Objekte zu dem/den definierten Zeitpunkten) nach dem jeweils spätesten der unterschiedlichen Zeitpunkte erfolgen. Gemäß Anspruch 8 ist dies aber möglich.In addition to determining these locations, it is not necessary to determine the orientation of the objects at the defined time or points) after the latest of the different points in time. According to claim 8, this is possible.

Auch in die Bestimmung der Bewegungspfade können die bestimmten Orientierungen (zusätzlich zu den bestimmten Ortspositionen) mit einfließen. Auch das Bestimmen des/der Bewegungsmodells/e und/oder das Klassifizieren der Objekte kann/können unter zusätzlicher Verwendung der bestimmten Orientierungsinformationen erfolgen.The specific orientations (in addition to the specific location positions) can also be included in the determination of the movement paths. The determination of the movement model (s) and / or the classification of the objects can also take place with the additional use of the determined orientation information.

Weitere vorteilhafterweise realisierbare Merkmale sind im Anspruch 9 beschrieben.Further advantageously realizable features are described in claim 9.

Der/Die Flächensensor(en) kann/können insbesondere (eine) Kamera(s) sein. Vorzugsweise können CCD-Kameras eingesetzt werden, auch die Verwendung von CMOS-Sensoren ist möglich.The surface sensor (s) may in particular be a camera (s). Preferably CCD cameras can be used, also the use of CMOS sensors is possible.

Weitere vorteilhafterweise realisierbare Merkmale sind im Anspruch 8 beschrieben.Further advantageously realizable features are described in claim 8.

In den einzelnen aufgenommenen Abbildern kann jeweils die Form dieses/dieser Objekte(s) über Bildverarbeitungsmaßnahmen (z.B. Bildvorverarbeitung wie z.B. Kantendetektion mit anschließender Segmentierung und anschließendem Objektverfolgungsalgorithmus) bestimmt werden. Das dreidimensionale Abbild eines Objekts kann durch geeignete Algorithmen (siehe z.B. R. Szeliski, Computer Vision: Algorithms and Applications, 1st Edition, Springer, 2010 ; oder A. Blake, M. Isard "Active Contours", Springer, 1998 ) aus den beispielsweise per Objektverfolgung in den einzelnen Abbildern identifizierten Formen eines einzelnen Objekts generiert werden.In the individual recorded images, in each case the shape of this / these objects (s) can be determined via image processing measures (eg image preprocessing such as edge detection with subsequent segmentation and subsequent object tracking algorithm). The three-dimensional Image of an object can be identified by suitable algorithms (see eg R. Szeliski, Computer Vision: Algorithms and Applications, 1st Edition, Springer, 2010 ; or A. Blake, M. Isard "Active Contours", Springer, 1998 ) are generated from the forms of a single object identified, for example, by object tracking in the individual images.

Weitere vorteilhafterweise realisierbare Merkmale des erfindungsgemäßen Fördersystems lassen sich den Ansprüchen 11 und 12 entnehmen. Vorteilhafterweise realisierbare Merkmale der erfindungsgemäßen Anlage zur Schüttgutsortierung finden sich im Anspruch 14.Further advantageously realizable features of the conveyor system according to the invention can be found in claims 11 and 12. Advantageously realizable features of the plant according to the invention for bulk material sorting can be found in claim 14.

Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen beschrieben. Dabei zeigen:

  • Figur 1 einen grundlegenden Beispielaufbau einer erfindungsgemäßen Anlage zur Schüttgutsortierung unter Einsatz eines erfindungsgemäßen Fördersystems.
  • Figuren 2 bis 4 die Arbeitsweise der in Figur 1 gezeigten Anlage zur Berechnung des zukünftigen Aufenthaltsortes von Objekten des Materialstroms.
  • Figur 5 den prinzipiellen Aufbau einer weiteren Anlage zur Schüttgutsortierung gemäß der Erfindung.
  • Figur 6 die Arbeitsweise dieser Anlage.
The invention will be described below with reference to exemplary embodiments. Showing:
  • FIG. 1 a basic example structure of a plant according to the invention for bulk sorting using a conveyor system according to the invention.
  • FIGS. 2 to 4 the way of working of in FIG. 1 shown installation for calculating the future location of objects of the material flow.
  • FIG. 5 the basic structure of another plant for bulk sorting according to the invention.
  • FIG. 6 the operation of this system.

Die in Figur 1 gezeigte Anlage zur Schüttgutsortierung umfasst ein Fördersystem mit einer hier als Förderband ausgebildeten Fördereinheit 2, einer oberhalb der Einheit 2 und am Abwurfende derselben positionierten (und das Abwurfende erfassenden) Flächenkamera (CCD-Kamera) 3 und flächigen Leuchtmitteln 5 zur Beleuchtung des Sichtfeldes der Flächenkamera. Die Bildgewinnung durch den Flächensensor (Kamera) 3 erfolgt hierbei auf dem Förderband 2 oder vor einem problemangepassten Hintergrund 7 und erfolgt synchron zur Bandbewegung.In the FIG. 1 The plant for bulk material sorting shown comprises a conveyor system with a conveyor unit 2 designed as a conveyor belt, an area camera (CCD camera) 3 positioned above the unit 2 and at the discharge end thereof (and the discharge end) and areal illuminants 5 for illuminating the field of view of the area camera. The image acquisition by the surface sensor (camera) 3 takes place here on the conveyor belt 2 or in front of a problem-adapted background 7 and takes place synchronously to the belt movement.

Die Anlage umfasst darüber hinaus eine Sortiereinheit, von der hier nur die Ausblaseinheit 4 dargestellt ist. Gezeigt ist zudem ein Rechnersystem 6, mit dem alle nachfolgend beschriebenen Berechnungen der Anlage bzw. des Fördersystems durchgeführt werden.The system also includes a sorting unit, of which only the Blow-out unit 4 is shown. Shown is also a computer system 6, with which all the calculations of the system or the conveyor system described below are performed.

Die einzelnen Objekte O1, O2, O3 ... im Materialstrom M werden somit vermittels des Förderbandes 2 durch den Erfassungsbereich der Kamera 3 transportiert und dort hinsichtlich ihrer Objektpositionen durch Bildauswertungsalgorithmen im Rechnersystem 6 erfasst und bewertet. Anschließend erfolgt durch die Ausblaseinheit 4 eine Separierung in die Schlecht-Fraktion (SchlechtObjekte SO1 und SO2) und in die Gut-Fraktion (Gut-Objekte GO1, GO2, GO3 ..).The individual objects O1, O2, O3 ... in the material flow M are thus transported by means of the conveyor belt 2 through the detection range of the camera 3 and there recorded and evaluated in terms of their object positions by image evaluation algorithms in the computer system 6. Subsequently, the blow-out unit 4 separates into the bad fraction (poor objects SO1 and SO2) and into the good fraction (good objects GO1, GO2, GO3 ..).

Erfindungsgemäß kommt somit ein Flächensensor (Flächenkamera) 3 zum Einsatz. Die Bildgewinnung am Schüttgut bzw. Materialstrom M (bzw. den einzelnen Objekten O1, ... desselben) erfolgt durch die Kamera 3 auf dem Förderband 2 und/oder vor einem problemangepassten Hintergrund 7. Die Bildaufnahmerate ist an die Geschwindigkeit des Förderbandes 2 angepasst oder durch einen Weggeber (nicht gezeigt) synchronisiert.According to the invention, an area sensor (area camera) 3 is thus used. The image is obtained on the bulk material or material flow M (or the individual objects O1, ... thereof) by the camera 3 on the conveyor belt 2 and / or in front of a problem-adapted background 7. The image acquisition rate is adapted to the speed of the conveyor belt 2 or synchronized by a position encoder (not shown).

Erfindungsgemäß wird auf die Gewinnung einer Bildfolge (statt einer Momentaufnahme) des Schüttgutstroms zu unterschiedlichen Zeiten (kurz hintereinander) abgezielt mittels mehrerer Flächenabtastungen bzw. Flächenaufnahmen des Materialstroms M durch die Flächenkamera 3 wie folgt (vgl. Figuren 2 bis 4).According to the invention, the acquisition of an image sequence (instead of a snapshot) of the bulk material stream at different times (in quick succession) is aimed at by means of several surface scans or surface images of the material stream M through the area camera 3 as follows (cf. FIGS. 2 to 4 ).

In Figur 2 ist das Sichtfeld 3' der Kamera 3 auf das Förderband 2 mit dem Schüttgut bzw. den Objekten O desselben in Aufsicht dargestellt (Figur 1 skizziert dieses Sichtfeld 3' der Kamera 3 in Seitenansicht). Das Ausschleusen erfolgt durch die Ausblaseinheit 4 (deren Ausblasbereich 4' in Figur 2 in Aufsicht dargestellt ist). Alternativ zum Förderband 2 könnte der Materialtransport auch im freien Fall oder in einem kontrollierten Luftstrom erfolgen (hier nicht gezeigt) wenn die Einheiten 3 bis 7 entsprechend umpositioniert werden.In FIG. 2 the field of view 3 'of the camera 3 is shown on the conveyor belt 2 with the bulk material or the objects O thereof in plan view ( FIG. 1 outlines this field of view 3 'of the camera 3 in side view). The discharge takes place through the blow-out unit 4 (whose blow-out area 4 'in FIG FIG. 2 shown in supervision). As an alternative to the conveyor belt 2, the material transport could also take place in free fall or in a controlled air flow (not shown here) if the units 3 to 7 are repositioned accordingly.

Im Rahmen der Erfindung kann die Datengewinnung somit auf Basis einer (oder auch mehrerer) bildgebender Flächensensoren wie der Flächenkamera 3 erfolgen. Dies ermöglicht eine Positionsbestimmung und auch eine Messung physikalischer Eigenschaften der Einzelpartikel bzw. Objekte O1, ... des Schüttguts M zu den mehreren unterschiedlichen Zeitpunkten, wie es in Figur 2 skizziert ist. Als bildgebende Flächensensoren können auch bildgebende Sensoren außerhalb des sichtbaren Wellenlängenbereichs und bildgebende Hyperspektralsensoren eingesetzt werden. Zudem kann die Positionsbestimmung auch durch einen (oder mehrere) 3D-Sensor(en) erfolgen, der/die Positionsmessungen der Einzelobjekte im Raum statt in der Ebene des Förderbandes 2 liefern kann/können.In the context of the invention, the data acquisition can thus be based on one (or more) imaging surface sensors such as the area camera 3. This allows a position determination and also a measurement physical properties of the individual particles or objects O1,... of the bulk material M at the several different times, as shown in FIG FIG. 2 outlined. Imaging sensors outside the visible wavelength range and imaging hyperspectral sensors can also be used as imaging surface sensors. In addition, the position determination can also be carried out by one (or more) 3D sensor (s) which can / provide position measurements of the individual objects in space instead of in the plane of the conveyor belt 2.

Wie die Figuren 2 bis 4 zeigen, kann in der vorliegenden Erfindung eine prädiktive Multiobjektverfolgung zum Einsatz kommen. Durch eine in Bezug auf v band geeignet hohe Taktung der Kamera (also der Anzahl aufgenommener Kamerabilder pro Zeiteinheit) bzw. der Bildgewinnung können die Objektpositionen x(t)=(x(t),y(t)) im kartesischen Koordinatensystem x, y, z (mit der xy-Ebene als Ebene, in der sich das Förderband 2 bewegt) zu mehreren verschiedenen Zeitpunkten t gemessen werden. Die Messung der Objektpositionen x(t-5), x(t-4), x(t-3), ... erfolgt zu den verschiedenen, aufeinanderfolgenden (in der Regel in konstanten Zeitabständen aufeinanderfolgenden) Zeitpunkten t-5, t-4, t-3, ..., wobei t0 den letzten Zeitpunkt der Beobachtung des den eingezeichneten Bewegungspfad 1 aufweisenden Objekts kennzeichnet, bevor dieses Objekt das Sichtfeld 3' der Kamera 3 verlässt. Aus diesen verschiedenen gemessenen Ortspositionen zu den verschiedenen Zeitpunkten ergeben sich für die einzelnen optisch erfassten Objekte (geeignete Erkennungsalgorithmen der Bildverarbeitung ermöglichen die Verfolgung der einzelnen Objekte (vgl. hier z.B. A. Yilmaz, O. Javed, and M. Shah, "Object tracking: A survey," ACM computing surveys (CSUR), vol. 38, no. 4, p. 13, 2006 oder B. Jähne, Digitale Bildverarbeitung und Bildgewinnung, 7., neu bearbeitete Auflage 2012, Springer, 2012 ) jeweils Bewegungspfade durch Aneinanderreihung der einzelnen erfassten und bestimmten Objektpositionen x. Dies ist in Figur 2 mit dem Bewegungspfad 1 für ein einzelnes Objekt O für dessen Bewegung zwischen den Zeitpunkten t-5 und t0, zwischen denen dieses Objekt im Erfassungsbereich 3' der Kamera 3 durch Einzelbildaufnahmen erfasst worden ist, gezeigt. Somit steht statt einer einzelnen Messung x(t0) des Orts eines Objekts O1, O2, ... der beobachtete Bewegungspfad 1 mit x(t0), x(t-1), x(t-2), x(t-3), ... eines Objekts O1, O2, ... für die Schätzung bzw. Berechnung des Aufenthaltsortes dieses Objekts zu einem (oder auch mehreren) definierten Zeitpunkt(en) nach dem spätesten Zeitpunkt t0, zu dem für dieses Objekt in der Serie der aufgenommenen Kamerabilder die Ortsposition bestimmt worden ist, zur Verfügung. Somit kann insbesondere für einen späteren Zeitpunkt tb, zu dem sich dieses Objekt im Ausblasbereich 4' der Ausblaseinheit 4 befindet, der Aufenthaltsort hochgenau abgeschätzt werden. Mit der aus dem Bewegungspfad 1 berechneten bzw. abgeschätzten Ausblasposition x b(tb) kann die Ausblaseinheit 4 zum Ausblaszeitpunkt tb aufgrund der hochgenau bestimmten Ausblasposition dieses Objekt (sofern es sich um ein Schlecht-Objekt handelt) zielgerichtet aus dem Materialstrom M entfernen.As the FIGS. 2 to 4 In the present invention, predictive multi-object tracking can be used. By means of a clocking of the camera which is suitable with respect to v band (ie the number of recorded camera images per unit time) or the image acquisition, the object positions x (t) = (x (t), y (t)) in the Cartesian coordinate system x, y , z (with the xy plane as the plane in which the conveyor belt 2 moves) at several different times t are measured. The measurement of the object positions x (t- 5 ), x (t -4 ), x (t -3 ),... Takes place at the different, consecutive (usually consecutive at constant time intervals) times t -5 , t - 4 , t -3 ,..., Where t 0 marks the last time of observation of the object having the marked movement path 1 before this object leaves the field of view 3 'of the camera 3. From these different measured spatial positions at the different time points, the individual optically captured objects result (suitable detection algorithms for image processing enable the tracking of the individual objects (cf. A. Yilmaz, O. Javed, and M. Shah, "Object tracking: A survey," ACM computing surveys (CSUR), vol. 38, no. 4, p. 13, 2006 or B. Jähne, digital image processing and image acquisition, 7th, newly edited edition 2012, Springer, 2012 ) each movement paths by juxtaposition of the individual detected and determined object positions x. This is in FIG. 2 with the movement path 1 for a single object O for its movement between the times t -5 and t 0 , between which this object has been detected in the detection area 3 'of the camera 3 by frame capturing. Thus, instead of a single measurement x (t 0 ) of the location of an object O1, O2,..., The observed motion path 1 is x (t 0 ), x (t -1 ), x (t -2 ), x (t -3 ), ... of an object O1, O2, ... for the estimation or calculation of the location of this object at one (or even several) defined time (s) the latest time t 0 at which the spatial position has been determined for this object in the series of recorded camera images. Thus, in particular for a later time t b , to which this object is located in the blow-out area 4 'of the blow-out unit 4, the location can be estimated with high accuracy. With the exhaust position x b (t b ) calculated or estimated from the movement path 1, the exhaust unit 4 can purposely remove it from the material stream M at the blow-off time t b on the basis of the highly precisely determined blow-out position of this object (if it is a bad object).

Zudem liefert das eingesetzte prädiktive Multiobjektverfolgungsverfahren zusätzlich eine Unsicherheitsangabe zu den geschätzte Größen in Form einer Varianz (Ausblaszeitpunkt) bzw. Kovarianzmatrix (Ausblasposition).In addition, the applied predictive multi-object tracking method additionally provides an uncertainty indication of the estimated variables in the form of a variance (blow-out time) or covariance matrix (blow-out position).

Figuren 3 und 4 zeigen das erfindungsgemäß einsetzbare Vorgehen zur prädiktiven Multiobjektverfolgung genauer. Zeitlich kann dieses Vorgehen in zwei Phasen, eine Verfolgungs- bzw. Trackingphase und eine Prädiktionsphase, unterteilt werden (wobei die Prädiktionsphase zeitlich gesehen nach der Trackingphase erfolgt). Figur 4 verdeutlicht, dass die Trackingphase sich aus Filter- und Prädiktionsschritten zusammensetzt und die Prädiktionsphase sich auf Prädiktionsschritte beschränkt. Wie in Figur 3 verdeutlicht, ist die erste Phase (Trackingphase) dem Sichtfeld 3' der Flächenkamera 3 zugeordnet. Während ein bestimmtes Objekt aus der Menge der Objekte O1, O2, ... im Materialstrom M diesen Bereich 3' durchläuft, kann es in den einzelnen, zu den Zeitpunkten t-5, t-4, t-3, ... aufgenommenen Kamerabildern identifiziert werden und es kann schritthaltend eine Ortspositionsbestimmung erfolgen. Zusätzlich zur Bestimmung der Ortsposition kann dabei auch eine Bestimmung der Orientierung des Objekts in den Kamerabildern erfolgen, so dass im ersten erfindungsgemäßen Schritt jeweils nicht nur die Ortsposition sondern auch die Orientierung der Objekte zu mehreren unterschiedlichen Zeitpunkten (also die Objektpose) bestimmt wird, wonach dann in dem zweiten erfindungsgemäßen Schritt anhand der zu den unterschiedlichen Zeitpunkten bestimmten Ortsposen für die einzelnen Objekte jeweils der Aufenthaltsort zu mindestens einem definierten Zeitpunkt (dem Ausblaszeitpunkt) nach der Aufnahme des letzten Kamerabildes berechnet werden kann. Figures 3 and 4 show the inventively usable procedure for predictive multi-object tracking more accurate. In terms of time, this procedure can be subdivided into two phases, a tracking phase and a prediction phase (where the prediction phase takes place after the tracking phase in terms of time). FIG. 4 illustrates that the tracking phase is composed of filter and prediction steps and that the prediction phase is limited to prediction steps. As in FIG. 3 illustrates, the first phase (tracking phase) is assigned to the field of view 3 'of the area camera 3. While a certain object from the set of objects O1, O2,... In the material flow M passes through this area 3 ', it can be recorded in the individual times t -5 , t -4 , t -3 ,.. Camera images are identified and it can be maintained in a positional positioning. In addition to determining the spatial position, it is also possible to determine the orientation of the object in the camera images so that not only the spatial position but also the orientation of the objects at several different points in time (ie the object pose) is determined in the first step of the invention in the second step according to the invention, the location at least one defined time (the blow-out time) after the acquisition of the last camera image can be calculated on the basis of the location positions for the individual objects determined at the different times.

Figur 4 zeigt dieses Vorgehen der prädiktiven Multiobjektverfolgung schematisch. Für das Verfolgen (Tracking) der Objekte in der Trackingphase (Figur 4a) können rekursive Schätzverfahren eingesetzt werden. Alternativ können für das Tracking jedoch auch nicht-rekursive Schätzmethoden eingesetzt werden. Die rekursiven Verfahren (z.B. Kalman-Filtermethoden) setzen sich aus einer Abfolge von Filter- und Prädiktionsschritten zusammen. Sobald ein Objekt in den Kameradaten zum ersten Mal erfasst wird, schließen sich Prädiktions- und Filterschritte an. Durch die Prädiktion wird die aktuelle Positionsschätzung bis zur nächsten Bildaufnahme (z.B. durch eine lineare Bewegungsvorsage) fortgeschrieben. Im anschließenden Filterschritt wird die verfügbare Positionsschätzungen anhand der gemessenen Kameradaten (also auf Basis der aufgenommenen Bilddaten) aktualisiert bzw. korrigiert. Hierzu kann ein Kalman-Filter genutzt werden. Es können auch mehrere Prädiktions- bzw. Filterschritte aufeinander folgen. FIG. 4 shows this approach of predictive multi-object tracking schematically. For tracking the objects in the tracking phase ( FIG. 4a ) recursive estimation methods can be used. Alternatively, however, non-recursive estimation methods can also be used for the tracking. The recursive methods (eg Kalman filter methods) are composed of a sequence of filter and prediction steps. Once an object is captured in the camera data for the first time, prediction and filtering steps follow. The current position estimate is updated by the prediction until the next image acquisition (eg by a linear movement prediction). In the subsequent filter step, the available position estimates are updated or corrected on the basis of the measured camera data (ie based on the recorded image data). For this purpose, a Kalman filter can be used. It is also possible for a plurality of prediction or filter steps to follow one another.

Zugleich können in der Trackingphase Parameter von Bewegungsgleichungen geschätzt werden, wobei die Bewegungsgleichungen ein Bewegungsmodell für die Bewegung eines einzelnen Objektes beschreiben können. Auf diese Weise kann anhand der aufgenommenen, also optisch erfassten Informationen (also des Bewegungspfads der einzelnen aufgenommenen Ortspositionen bzw., sofern auch die Lage erfasst wird, des Bewegungs- und Orientierungsänderungspfades, der sich aus den zu den mehreren unterschiedlichen Zeitpunkten aufgenommenen Objektposen ergibt) der zukünftige Bewegungspfad des betrachteten Objekts hochgenau abgeschätzt werden und somit auch dessen Aufenthaltsort zum späteren, potentiellen (sofern es sich um ein Schlecht-Objekt handelt) Ausblaszeitpunkt tb. Beispiele von Parametern der Bewegungsgleichungen, die auf Grundlage der Bildfolgen geschätzt werden können, sind Beschleunigungswerte in allen Raumrichtungen, Rotationsachsen und -richtungen. Diese Parameter können durch das Tracking in den Bildfolgen erfasst werden und legen ein Bewegungsmodell für jedes Partikel fest, das z.B. auch Rotations- und Querbewegungen umfasst.At the same time, parameters of equations of motion can be estimated in the tracking phase, wherein the equations of motion can describe a movement model for the movement of a single object. In this way, on the basis of the recorded, ie optically acquired, information (ie the movement path of the individual recorded location positions or, if the position is detected, of the movement and orientation change path resulting from the object poses recorded at the several different times) the future movement path of the object under consideration be estimated with high accuracy and thus also its whereabouts to the later, potential (if it is a bad object) Ausblaszeitpunkt t b . Examples of parameters of the equations of motion that can be estimated on the basis of the image sequences are acceleration values in all spatial directions, rotational axes and directions. These parameters can be captured by tracking in the image sequences and define a motion model for each particle, which also includes, for example, rotational and lateral movements.

In der der Trackingphase (in der sich das betrachtete Objekt im Bilderfassungsbereich der Kamera 3, also im Bereich 3' befindet) nachfolgenden Prädiktionsphase (während der sich das betrachtete Objekt, nachdem es den Abbildungsbereich der Kamera 3 gerade verlassen hat, außerhalb des Bereichs 3' und im Bereich 3" zwischen diesem Bereich 3' einerseits und dem Ausblasbereich 4' andererseits fortbewegt und somit nicht mehr von der Kamera 3 erfasst werden kann), können die bestimmten Bewegungsgleichungen herangezogen werden, um für das gerade betrachtete Objekt (also bei entsprechender Rechnerleistung für jedes erfasste Objekt im Materialstrom M) eine Schätzung bzw. Berechnung der nachfolgenden Ortsposition (bzw. auch der Pose) vorherzusagen.In the tracking phase (in which the object under consideration is located in the image capturing area of the camera 3, that is to say in the area 3 '), the prediction phase (during which the observed object has just left the imaging area of the camera 3, outside the area 3 'and in the area 3 "between this area 3' on the one hand and the blow-out area 4 'on the other hand, and thus can no longer be detected by the camera 3), the determined equations of motion can be used to for the currently considered object (ie at corresponding Computer power for each detected object in the material flow M) to predict an estimate or calculation of the subsequent spatial position (or the pose).

Nachdem das zu verfolgende Objekt das Sichtfeld 3' der Kamera 3 verlassen hat, schließt sich somit die Prädiktionsphase an. Diese zweite Phase der Objektverfolgung kann aus einem oder mehreren Prädiktionsschritten bestehen, die auf den zuvor in der Trackingphase ermittelten Bewegungsmodellen (z.B. geschätzten Rotationsbewegungen) beruhen. Das Ergebnis dieser Prädiktionsphase ist eine Schätzung des Aufenthaltsortes zu einem späteren Zeitpunkt (wie beispielsweise des Ausblaszeitpunktes tb und des Aufenthaltsortes zu diesem Zeitpunkt, also der Ausblasposition x b(tb)). Das Verfolgen der Objekte erfolgt also in zwei Phasen. Die Trackingphase setzt sich aus Folgen von Filter- und Prädiktionsschritten zusammen. Filterschritte beziehen sich auf das Verarbeiten von Kamerabildern zur Verbesserung der aktuellen Positionsschätzungen und Prädiktionsschritte schreiben die Positionsschätzungen bis zum nächsten Kamerabild, also nächsten Filterschritt, fort. Die an die Trackingphase anschließende Prädiktionsphase besteht nur aus Prädiktionsschritten, da aufgrund fehlender Kameradaten kein Filterschritt mehr durchgeführt werden kann.After the object to be tracked has left the field of view 3 'of the camera 3, the prediction phase thus follows. This second phase of the object tracking can consist of one or more prediction steps which are based on the motion models previously determined in the tracking phase (eg estimated rotational movements). The result of this prediction phase is an estimate of the whereabouts at a later point in time (such as, for example, the discharge time t b and the whereabouts at this point in time, ie the discharge position x b (t b )). Tracing the objects thus takes place in two phases. The tracking phase consists of sequences of filtering and prediction steps. Filtering steps refer to the processing of camera images to improve the current position estimates, and prediction steps continue the position estimates until the next camera image, ie, next filter step. The prediction phase following the tracking phase consists only of prediction steps since no filter step can be performed due to missing camera data.

Die Trackingphase kann auf verschiedene Weisen durchgeführt werden: Entweder nicht-rekursiv, wobei aus jedem Bild die aktuellen Objektpositionen oder Objektlagen ermittelt werden (hierbei müssen keine Bewegungsmodelle benutzt werden. Alle über die Zeit gewonnenen Objektpositionen können gesammelt werden, um daraus Trajektorien für die einzelnen Objekte zu bestimmen. Auch eine rekursive Verarbeitung ist möglich, so dass nur die aktuelle Positionsschätzung eines Objekts vorgehalten werden muss. Hierbei werden die Bewegungsmodelle genutzt (Prädiktionsschritte), um die Objektbewegung zwischen Kameramessungen vorherzusagen und somit verschiedene Filterschritte in Beziehung zu setzen. In einem Filterschritt dient die Prädiktion der Ergebnisse des vorangegangenen Filterschritts als Vorwissen. In diesem Fall findet eine Gewichtung zwischen den prädizierten und den aus dem aktuellen Kamerabild ermittelten Positionen statt. Auch ist es möglich, rekursiv mit einer Adaption der Bewegungsmodelle zu arbeiten: Hierbei erfolgt eine simultane Schätzung von Objektpositionen bzw. -lagen und Modellparametern. Durch die Betrachtung von Bildfolgen können z.B. Beschleunigungswerte als Modellparameter bestimmt werden. Die Bewegungsmodelle werden somit während der Trackingphase erst identifiziert. Dabei kann es sich um ein festes Modell für alle Objekte oder um individuelle Bewegungsmodelle handeln.The tracking phase can be performed in different ways: Either non-recursively, whereby the current object positions or object positions are determined from each image (no movement models have to be used.) All object positions acquired over time can be collected to form trajectories for the individual objects Recursive processing is also possible, so that only the current position estimation of an object has to be provided, using the motion models (prediction steps) to predict the movement of the object between camera measurements and thus correlating different filter steps the prediction of the results of the previous filtering step as prior knowledge In the case, a weighting occurs between the predicted positions and the positions determined from the current camera image. It is also possible to work recursively with an adaptation of the movement models: Here, a simultaneous estimation of object positions or positions and model parameters takes place. By observing image sequences, for example, acceleration values can be determined as model parameters. The movement models are thus identified during the tracking phase. It can be a fixed model for all objects or individual movement models.

Das Bezugszeichen 1' bezeichnet die Extrapolation des in der Trackingphase bestimmten Bewegungspfades 1 eines Objektes über den Erfassungszeitraum dieses Objekts durch die Kamera 3 hinaus, also die vorhergesagte Bewegungsbahn des Objektes nach Verlassen des Erfassungsbereiches der Kamera 3', also insbesondere auch zum Zeitpunkt des Vorbeifluges an der Ausblaseinheit 4 (bzw. durch den Erfassungsbereich 4' derselben).The reference numeral 1 'designates the extrapolation of the movement path 1 of an object determined in the tracking phase over the detection period of this object by the camera 3, ie the predicted trajectory of the object after leaving the detection range of the camera 3', ie in particular also at the time of the flyby the blow-out unit 4 (or by the detection area 4 'thereof).

Die Prädiktionsphase kann die zuvor in der Trackingphase ermittelten Modellinformationen direkt nutzen und besteht aus reinen Prädiktionsschritten, da Kameradaten nicht mehr zur Verfügung stehen und somit keine Filterschritte mehr erfolgen können. Die Prädiktionsphase kann weiter unterteilt werden, beispielsweise in eine Phase, in der die Objekte sich noch auf dem Förderband befinden, und eine Flugphase nach Verlassen des Bandes. Für die Prädiktion der Bewegungen können in beiden Phasen zwei verschiedene Bewegungsmodelle genutzt werden (beispielweise ein zweidimensionales Bewegungsmodell auf dem Förderband und ein dreidimensionales Bewegungsmodell in der sich anschließenden Flugphase).The prediction phase can directly use the model information previously determined in the tracking phase and consists of pure prediction steps since camera data are no longer available and therefore no filter steps can be performed any more. The prediction phase can be subdivided further, for example into a phase in which the objects are still on the conveyor belt and a flight phase after leaving the conveyor belt. For the prediction of the movements, two different movement models can be used in both phases (for example a two-dimensional movement model on the conveyor belt and a three-dimensional movement model in the subsequent flight phase).

Eine Möglichkeit, um die Kamerabilddaten für die Objektverfolgung (Tracking) aufzubereiten besteht darin, die Daten durch Bildvorverarbeitungsverfahren und Segmentierungsverfahren in eine Menge von Objektpositionen zu überführen. Einsetzbare Bildvorverarbeitungsverfahren und Segmentierungsverfahren sind beispielsweise inhomogene Punktoperationen zur Entfernung von Beleuchtungsinhomogenitäten und bereichsorientierte Segmentierungsverfahren wie sie in der Literatur ( B. Jähne, Digitale Bildverarbeitung und Bildgewinnung, 7., neu bearbeitete Auflage 2012, Springer, 2012 ; oder J. Beyerer, F. P. Leon, and C. Frese "Automatische Sichtprüfung: Grundlagen, Methoden und Praxis der Bildgewinnung und Bildauswertung", 2013th ed. Springer, 2012 ) beschrieben sind.One way to render the camera image data for object tracking is to transform the data into a set of object locations by image preprocessing and segmentation techniques. Applicable image preprocessing methods and segmentation methods include, for example, inhomogeneous point operations for the removal of illumination inhomogeneities and area-oriented segmentation methods as described in the literature ( B. Jähne, digital image processing and image acquisition, 7th, newly edited edition 2012, Springer, 2012 ; or J. Beyerer, FP Leon, and C. Frese "Automatic Visual Inspection: Fundamentals, Methods and Practice of Image Acquisition and Image Evaluation ", 2013th ed. Springer, 2012 ) are described.

Die Zuordnung von Messungen zu prioren Schätzungen kann angepasst an die zur Verfügung stehenden Rechenkapazitäten im Rechnersystem 6 beispielsweise explizit durch eine Nächster-Nachbar-Suche oder auch implizit durch assoziationsfreie Methoden erfolgen. Entsprechende Verfahren sind z.B. in R. P. S. Mahler "Statistical Multisource-Multitarget Information Fusion", Boston, Mass.: Artech House, 2007 , beschrieben.The assignment of measurements to prior estimates can be made, for example, explicitly by a nearest neighbor search or implicitly by association-free methods, adapted to the available computing capacities in the computer system 6. Corresponding methods are for example in RPS Mahler's "Statistical Multisource Multitarget Information Fusion", Boston, Mass .: Artech House, 2007 , described.

Zur simultanen Schätzung von Objektpositionen und Modellparametern können beispielsweise Kalman-Filtermethoden oder andere Verfahren zur (nicht linearen) Filterung und Zustandsschätzung verwendet werden, wie sie beispielsweise in F. Sawo, V. Klumpp, U. D. Hanebeck, "Simultaneous State and Parameter Estimation of Distributed-Parameter Physical Systems based on Sliced Gaussian Mixture Filter", Proceedings of the 11th International Conference on Information Fusion (Fusion 2008), 2008 , beschrieben sind.For the simultaneous estimation of object positions and model parameters, for example, Kalman filter methods or other methods for (non-linear) filtering and state estimation can be used, as described, for example, in US Pat F. Sawo, V. Klumpp, UD Hanebeck, "Simultaneous State and Parameter Estimation of Distributed Physical Systems based on Sliced Gaussian Mixture Filters", Proceedings of the 11th International Conference on Information Fusion (2008 Fusion), 2008 , are described.

Die Ermittlung von Bewegungsmodellparametern hat hierbei zwei Funktionen:

  1. 1. Zunächst werden diese Parameter sowohl in der Tracking- als auch in der Prädiktionsphase zur Berechnung des/der Prädiktionsschritte(s) herangezogen, um eine präzise Vorhersage von Ausblaszeitpunkt und -position zu ermöglichen (beispielsweise kann während der Trackingphase die vom Modell vorhergesagte Position eines Objekts mit der tatsächlich in dieser Phase gemessenen Objektposition verglichen werden und die Parameter des Modells können ggfs. angepasst werden).
  2. 2. Darüber hinaus erweitern die Modellparameter den Merkmalsraum, auf dessen Grundlage die Klassifikation und die anschließende Ansteuerung der Ausblaseinheit erfolgen können. Insbesondere können Schüttgüter hierdurch zusätzlich zu den optisch erkennbaren Merkmalen anhand von Unterschieden im Bewegungsverhalten klassifiziert und entsprechend sortiert werden.
The determination of motion model parameters has two functions:
  1. 1. First, these parameters are used in both the tracking and prediction phases to calculate the prediction step (s) to allow accurate prediction of blowout timing and position (for example, the position predicted by the model during the tracking phase) Object can be compared with the actually measured in this phase object position and the parameters of the model can be adjusted if necessary).
  2. 2. In addition, the model parameters extend the feature space on the basis of which the classification and the subsequent control of the blow-out unit can take place. In particular, bulk materials can be classified in addition to the visually recognizable features based on differences in the movement behavior and sorted accordingly.

Alternativ zum in Figur 1 gezeigten Aufbau kann beispielsweise auch der in Figur 5 skizzierte Aufbau verwendet werden, der dem in Figur 1 gezeigten sehr ähnlich ist, so dass hier nur die Unterschiede beschrieben werden. In Figur 5 werden statt einer einzelnen Flächenkamera 3 mehrere einzelne, entlang des Förderbandes 2 und oberhalb desselben angeordnete Zeilenkameras verwendet (Zeilenausrichtung senkrecht zur Transportrichtung x und zur Lotrichtung z der Kameras 3a bis 3c auf die Ebene des Förderbandes xy, also in y-Richtung). Die z-Richtung entspricht hier der Aufnahmerichtung der Kamera 3 (Figur 1) bzw. der mehreren Kameras 3a bis 3c (Figur 5). Wie Figur 5 zeigt, können somit auch mehrere, räumlich entlang des Förderbandes 2 zueinander mit vorzugsweise konstanten Abständen versetzte Zeilenkameras (oder auch mehrere Flächenkameras mit einer oder mehrerer Regions-Of-Interest, ROIs) einschließlich der den Kameras jeweils zugeordneten Beleuchtungen 5 eingesetzt werden. Die Zeilenkameras oder die Flächenkameras können dabei sowohl über dem Transportband 2 als auch über der Flugbahn des Schüttgutes vor einem problemangepassten Hintergrund 7 (dies gilt im gezeigten Beispiel für die in Transportrichtung x des Bandes 2 gesehen letzte Kamera 3c) angebracht werden. Die dadurch erzielte Bildgewinnung ist in Figur 6 skizziert, im Gegensatz zu Figur 5 (die nur drei Zeilenkameras 3a bis 3c zeigt) hier für insgesamt sechs unterschiedliche, entlang der Transportrichtung x hintereinander angeordnete Zeilenkameras (deren Erfassungsbereiche mit 3a' bis 3f' bezeichnet sind).Alternative to in FIG. 1 For example, the structure shown in FIG FIG. 5 sketched construction to be used in the FIG. 1 shown is very similar, so that only the differences are described here. In FIG. 5 Instead of a single area camera 3, several individual line scan cameras arranged along the conveyor belt 2 and above it are used (line orientation perpendicular to the transport direction x and the direction of deflection z of the cameras 3a to 3c onto the plane of the conveyor belt xy, ie in the y direction). The z-direction here corresponds to the direction of the camera 3 ( FIG. 1 ) or the plurality of cameras 3a to 3c ( FIG. 5 ). As FIG. 5 Thus, a plurality of line scan cameras (or even multiple area cameras with one or more regions-of-interest, ROIs) spatially distributed along the conveyor belt 2 relative to one another, including the illuminations 5 assigned to each of the cameras, can thus also be used. The line scan cameras or the surface cameras can be mounted both above the conveyor belt 2 and above the trajectory of the bulk material in front of a problem-adapted background 7 (this applies in the example shown for the last camera 3c seen in the transport direction x of the belt 2). The resulting image acquisition is in FIG. 6 sketched, as opposed to FIG. 5 (Which shows only three line scan cameras 3 a to 3 c) here for a total of six different line scan cameras arranged one behind the other along the transport direction x (whose detection ranges are designated by 3 a 'to 3 f').

Durch die Nutzung mehrerer Zeilenkameras 3a bis 3c (Figur 5) bzw. 3a bis 3f (Figur 6) und Verfahren zur Multiobjektverfolgung kann die Position ein und desselben Objektes zu mehreren Zeitpunkten beim Durchqueren der Zeilenkamerasichtfelder 3a' bis 3f' bestimmt werden, wodurch in wie zuvor beschriebener Art und Weise ein Bewegungspfad 1 gewonnen werden kann.By using several line scan cameras 3a to 3c ( FIG. 5 ) or 3a to 3f ( FIG. 6 ) and multi-object tracking methods, the position of one and the same object can be determined at several times when traversing the line-scan camera fields 3a 'to 3f', whereby a movement path 1 can be obtained as described above.

Gegenüber dem Stand der Technik weist die vorliegende Erfindung eine Reihe wesentlicher Vorteile auf.Compared to the prior art, the present invention has a number of significant advantages.

Durch die Bestimmung des Bewegungspfades 1 eines jeden Objektes O1, O2, ... ist eine deutlich verbesserte Vorhersage bzw. Schätzung (Berechnung) des Ausblaszeitpunktes tb und der Ausblasposition x b(tb) möglich, auch wenn die konstante lineare Bewegungsannahme des Schüttgutes durch die Geschwindigkeit v band nicht erfüllt wird. Dadurch kann der mechanische Aufwand für die Materialberuhigung unkooperativer Schüttgüter erheblich reduziert werden.By determining the movement path 1 of each object O1, O2, ... a significantly improved prediction or estimation (calculation) of the Ausblaszeitpunkt t b and the blow-off x b (t b ) is possible, even if the constant linear motion assumption of the bulk material by the speed v band is not met. This allows the mechanical effort for the Material settling of uncooperative bulk materials are significantly reduced.

Für extrem unkooperative Materialien wie beispielsweise kugelförmiges Schüttgut wird es durch die vorliegende Erfindung in vielen Fällen sogar überhaupt erst möglich, eine optische Sortierung der beschriebenen Art durchzuführen.For extremely uncooperative materials, such as spherical bulk material, it is in many cases even possible at all to carry out an optical sorting of the type described by the present invention.

Vor dem Hintergrund, dass Endkunden, insbesondere im Lebensmittelbereich, eine Vielzahl unterschiedlicher Schüttgutprodukte M auf ein und derselben Sortieranlage sortieren lassen, kann ein breites Produktspektrum verarbeitet werden, ohne dass durch Fördergurtwechsel (beispielsweise Einsatz von Fördergurten mit unterschiedlich stark strukturierter Oberfläche) oder andere mechanische Veränderungen eine Anpassung an unkooperatives Schüttgutmaterial erfolgen muss.Against the background that end customers, especially in the food industry, can sort a large number of different bulk material products M on one and the same sorting system, a broad product spectrum can be processed without having to change conveyor belts (for example use of conveyor belts with differently textured surfaces) or other mechanical changes an adaptation to uncooperative bulk material must be made.

Zudem ermöglicht das Verfahren zur Multiobjektverfolgung eine verbesserte optische Charakterisierung und Merkmalsgewinnung aus den Bilddaten der einzelnen Objekte O des beobachteten Schüttgutstroms M. Da sich die unkooperativen Objekte aufgrund ihrer zusätzlichen Eigenbewegung in der Regel in unterschiedlichen dreidimensionalen Lagen der Kamera präsentieren, können Bildmerkmale verschiedener Objektansichten zu einem erweiterten Objektmerkmal über die einzelnen Beobachtungszeitpunkte kumuliert werden. Beispielsweise kann dadurch auch die dreidimensionale Form eines Objektes geschätzt und als Merkmal für die Sortierung verwendet werden. Die Extrapolation der dreidimensionalen Form eines Objektes aus den aufgenommenen Bilddaten kann dabei wie in der Literatur beschrieben (siehe z.B. S. J. D. Prince "Computer vision models, learning, and inference", New York, Cambridge University Press, 2012 ) z. B. anhand der visuellen Hülle der einzelnen Objekte in unterschiedlichen Posen (Shape-from-Silhouettes-Verfahren) erfolgen.In addition, the method for multi-object tracking enables improved optical characterization and feature extraction from the image data of the individual objects O of the observed bulk material flow M. Since the non-cooperative objects generally present themselves in different three-dimensional layers of the camera due to their additional proper motion, image features of different object views can become one cumulative object feature over the individual observation times. For example, the three-dimensional shape of an object can also be estimated and used as a feature for the sorting. The extrapolation of the three-dimensional shape of an object from the recorded image data can be described as described in the literature (see, for example, US Pat SJD Prince "Computer vision models, learning, and inference", New York, Cambridge University Press, 2012 ) z. B. based on the visual envelope of each object in different poses (shape-from-silhouettes method) done.

Dadurch wird eine verbesserte Unterscheidung von Objekten mit orientierungsabhängiger Erscheinung erreicht. In manchen Fällen kann dadurch auf eine weitere Kamera für eine Zweiseitenprüfung verzichtet werden. Die erweiterten Objektmerkmale können zudem auch für eine verbesserte Bewegungsmodellierung im Rahmen des prädiktiven Trackings eingesetzt werden, indem beispielsweise die dreidimensionale Form für die Vorhersage der Flugbahn berücksichtigt wird.This achieves an improved discrimination of objects with orientation-dependent appearance. In some cases, this can be dispensed with another camera for a two-sided examination. The extended object features can also be used for improved motion modeling in the context of predictive tracking, for example, the three-dimensional shape for the prediction of the trajectory is taken into account.

Darüber hinaus kann das identifizierte Modell, das den Bewegungspfad 1 eines bestimmten Objektes charakterisiert, selbst als Merkmal für eine Klassifikations- oder Sortierentscheidung verwendet werden. Der anhand der einzelnen Kameraaufnahmen bestimmte Bewegungspfad 1 sowie auch der nach Verlassen des Abtastbereiches 3', also der auf Basis des Bewegungspfads 1 geschätzte zukünftige Bewegungspfad 1', werden von den geometrischen Eigenschaften sowie dem Gewicht des Objektes beeinflusst und bieten demnach eine Rückschlussmöglichkeit auf die Zugehörigkeit zu einer Schüttgutfraktion.Moreover, the identified model that characterizes the motion path 1 of a particular object may itself be used as a feature for a classification or sorting decision. The movement path 1 determined on the basis of the individual camera shots as well as the future movement path 1 'estimated on the basis of the movement path 1, are influenced by the geometric properties and the weight of the object and accordingly offer an inference possibility on the affiliation to a bulk fraction.

Einen weiteren technischen Vorteil für die Schüttgutsortierung liefert die Auswertung der zusätzlichen Unsicherheitsbeschreibungen für den geschätzten Ausblaszeitpunkt und die Ausblasposition. Diese ermöglicht eine angepasste Ansteuerung der pneumatischen Ausblaseinheit für jedes auszuschleusende Objekt. Sind die geschätzten Größen mit einer großen Unsicherheit behaftet, kann ein größeres Ausblasfenster gewählt werden, um die Ausschleusung eines Schlechtobjekts zu gewährleisten. Umgekehrt kann die Größe des Ausblasfenster und somit die Anzahl der angesteuerten Düsen bei Schätzungen mit geringer Unsicherheit verkleinert werden. Dadurch kann beim Sortierprozess der Verbrauch von Druckluft reduziert werden, wodurch Kosten und Energie eingespart werden können.Another technical advantage for the bulk material sorting is provided by the evaluation of the additional uncertainty descriptions for the estimated discharge time and the discharge position. This allows an adapted control of the pneumatic blow-out unit for each object to be ejected. If the estimated sizes are subject to a great deal of uncertainty, a larger blow-out window can be selected to ensure the discharge of a bad object. Conversely, the size of the blow-off window, and thus the number of nozzles driven, can be reduced in estimates with little uncertainty. As a result, the consumption of compressed air can be reduced during the sorting process, whereby costs and energy can be saved.

Durch die mehrfache Positionsbestimmung von Objekten des Schüttgutstroms zu verschiedenen Zeitpunkten sowie die Auswertung einer Bildfolge statt einer Momentbildaufnahme (dies kann auch eine mehrfache Messung, Berechnung und Kumulation von Objektmerkmalen zu verschiedenen Zeitpunkten sowie eine Nutzung von identifizierten Bewegungsmodellen als Merkmal für eine Objektklassifikation betreffen) wird im allgemeinen eine deutlich verbesserte Trennung bei der automatischen Sortierung beliebiger Schüttgüter erzielt. Zudem kann im Vergleich zum Stand der Technik für die Sortierung unkooperativer Materialien der mechanische Aufwand für eine Materialberuhigung erheblich reduziert werden.The multiple position determination of objects of the bulk material flow at different times as well as the evaluation of a sequence of images instead of a snapshot image (this may also involve a multiple measurement, calculation and cumulation of object features at different times as well as a use of identified motion models as a feature for an object classification) generally achieved a significantly improved separation in the automatic sorting of any bulk materials. In addition, in comparison to the prior art for the sorting of uncooperative materials, the mechanical outlay for material calming can be considerably reduced.

Darüber hinaus kann die vorliegende Erfindung für die Sortierung komplex geformter Schüttgüter eingesetzt werden, die aus mehreren verschiedenen Ansichten geprüft werden müssen, wobei nur eine einzelne Flächenkamera an fester Position zum Einsatz kommt.Moreover, the present invention can be used for the sorting of complex shaped bulk materials, which must be checked from several different views, using only a single area camera in a fixed position.

Durch die Nutzung eines identifizierten Bewegungsmodells als Unterscheidungsmerkmal können zusätzlich Schüttgüter mit gleichem Aussehen, aber objektspezifischem Bewegungsverhalten (z.B. durch unterschiedliche Massen oder Oberflächenstrukturen) klassifiziert und automatisch sortiert werden.By using an identified movement model as a distinguishing feature, bulk goods with the same appearance, but object-specific movement behavior (for example, by different masses or surface structures) can additionally be classified and automatically sorted.

Claims (15)

  1. Conveying system for transporting a material flow (M) comprising a large number of individual objects (O1, O2, ...),
    characterised in that
    with the conveying system, by means of optical detection of individual objects (O1, O2, ...) in the material flow (M), for these objects (O1, O2, ...), respectively, the location position (x(t),y(t)) thereof at several different, fixed times (t-4, t-3, ...) can be determined and
    by means of the location positions (x(t),y(t)) determined at the different, fixed times (t-4, t-3, ...) for these objects (O1, O2, ...), the location (xb(tb),yb(tb)) thereof at at least one defined time (tb) after the respective latest of the different, fixed times (t-4, t-3, ...) can respectively be calculated.
  2. Conveying system according to the preceding claim,
    characterised in that
    movement paths (1) composed of a plurality of location positions (x(t),y(t)) of the respective object at different times (t-4, t-3, ...) can be determined for the individual objects (O1, O2, ...),
    preferably the movement paths (1) of different objects (O1, O2, ...) being able to be determined via recursive or non-recursive estimating methods and/or being able to be differentiated from each other.
  3. Conveying system according to the preceding claim,
    characterised in that
    a movement model can be determined respectively for the objects (O1, O2, ...) by means of the respective movement paths (1) thereof, in particular can be selected from a prescribed quantity of movement models, and/or parameters for such a movement model can be determined.
  4. Conveying system according to one of the preceding claims,
    characterised in that
    the individual objects (O1, O2, ...) can be classified on the basis of the optical detection.
  5. Conveying system according to the preceding claim,
    characterised in that
    the classification of an object (O1, O2, ...) can be implemented by taking into account the location positions (x(t),y(t)) determined for this object at the different, fixed times (t-4, t-3, ...), the movement path determined for this object and/or the movement model determined for this object.
  6. Conveying system according to one of the preceding claims,
    characterised in that
    two-dimensional location positions (x(t),y(t)), in particular two-dimensional location positions relative to the conveying system, can be determined for the objects (O1, O2, ...), or
    in that three-dimensional location positions in space can be determined for the objects (O1, O2, ...).
  7. Conveying system according to one of the preceding claims, characterised in that
    with the conveying system, by means of optical detection of the individual objects (O1, O2, ...) in the material flow (M), for these objects (O1, O2, ...) respectively in addition to the location position (x(t),y(t)) thereof, also the orientation thereof at several different times (t-4, t-3, ...) can be determined and in that, by means of the location positions (x(t),y(t)) determined at the different times (t-4, t-3, ...) and orientations for these objects (O1, O2, ...), respectively the location (xb(tb),yb(tb)) thereof at the at least one defined time (tb) after the respectively latest of the different times (t-4, t-3, ...) can be calculated.
  8. Conveying system according to the preceding claim,
    characterised in that
    by means of the location positions (x(t),y(t)) determined at the different times (t-4, t-3, ...) and orientations for these objects (O1, O2, ...), respectively in addition to the location (xb(tb),yb(tb)) thereof also the orientation thereof at the at least one defined time (tb) after the respectively latest of the different times (t-4, t-3, ...) can be calculated.
  9. Conveying system according to one of the preceding claims,
    characterised in that
    the optical detection is effected by means of one or more optical detection unit(s), which comprises/comprise or is/are preferably one or more surface sensor(s) (3) and/or a plurality of line sensors at a spacing from each other,
    and/or
    in that, during the optical detection, a sequence of two-dimensional images can be recorded, from which the location positions of the objects at the different times can be determined.
  10. Conveying system according to one of the preceding claims,
    characterised in that
    within the scope of the optical detection of one or more of the objects (O1, O2, ...) at several different times (t-4, t-3, ...), images, in particular camera images, of this/these object/s can be produced, in that respectively the shape(s) of this/these object/s in the produced images can be determined and in that respectively a three-dimensional image of this/these objects/s can be calculated from the determined shapes.
  11. Conveying system according to the preceding claim,
    characterised in that
    calculation of the location(s) of the object/s at the defined time(s) is effected taking into account the calculated three-dimensional image/s.
  12. Conveying system according to one of the two preceding claims with reference back to claim 4,
    characterised in that
    the classification of the object/s is effected using the calculated three-dimensional image/s.
  13. Plant for bulk material sorting comprising a conveying system according to one of the claims 1 to 12,
    characterised by
    a sorting unit (4) with which the objects (O1, O2, ...) can be sorted on the basis of the calculated locations (xb(tb),yb(tb)) at the defined time(s) (tb).
  14. Plant according to the preceding claim with reference back to claim 4,
    characterised in that
    the objects can be sorted on the basis of the classification thereof, preferably the classification being effected into good objects (GO1, GO2, ...) and into bad objects (SO1, SO2) and preferably the sorting unit (4) having an ejection unit, in particular a blow-out unit, which is configured to remove bad objects from the material flow (M) using the calculated locations (xb(tb),yb(tb)) at the defined time(s) (tb).
  15. Method for transporting a material flow (M) comprising a large number of individual objects (O1, O2, ...),
    characterised in that
    in the method, by means of optical detection of individual objects (O1, O2, ...) in the material flow (M), the location position (x(t),y(t)) of these objects (O1, O2, ...) is respectively determined at several different, fixed times (t-4, t-3, ...) and,
    by means of the location positions (x(t),y(t)) determined at the different, fixed times (t-4, t-3, ...) for these objects (O1, O2, ...), the location (xb(tb),yb(tb)) thereof at at least one defined time (tb) after the respective latest of the different, fixed times (t-4, t-3, ...) is respectively calculated,
    the method being implemented preferably using a conveying system or a plant according to one of the claims 1 to 14.
EP15705786.0A 2014-02-28 2015-02-09 Conveyor system, device for sorting bulk material using such a con conveyor system, and method for transporting Active EP3122479B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102014203638 2014-02-28
DE102014207157.7A DE102014207157A1 (en) 2014-02-28 2014-04-15 Conveying system, plant for bulk material sorting with such a conveyor system and transport method
PCT/EP2015/052587 WO2015128174A1 (en) 2014-02-28 2015-02-09 Conveying system, plant for sorting bulk goods having a conveying system of this type, and transport method

Publications (2)

Publication Number Publication Date
EP3122479A1 EP3122479A1 (en) 2017-02-01
EP3122479B1 true EP3122479B1 (en) 2018-04-11

Family

ID=53801452

Family Applications (1)

Application Number Title Priority Date Filing Date
EP15705786.0A Active EP3122479B1 (en) 2014-02-28 2015-02-09 Conveyor system, device for sorting bulk material using such a con conveyor system, and method for transporting

Country Status (4)

Country Link
US (1) US9833815B2 (en)
EP (1) EP3122479B1 (en)
DE (1) DE102014207157A1 (en)
WO (1) WO2015128174A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021200894B3 (en) 2021-02-01 2022-04-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Optical examination of objects in a material flow such as bulk goods

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170104905A1 (en) * 2015-09-18 2017-04-13 Aspire Pharmaceutical Inc. Real Time Imaging and Wireless Transmission System and Method for Material Handling Equipment
DE102016210482A1 (en) * 2016-06-14 2017-12-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optical sorting system and corresponding sorting method
JP6732561B2 (en) * 2016-06-23 2020-07-29 ワイエムシステムズ株式会社 Bean sorting device and bean sorting method
DE102017220792A1 (en) 2017-11-21 2019-05-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and apparatus for sorting particles of a material stream
DE102017220837A1 (en) * 2017-11-22 2019-05-23 Thyssenkrupp Ag Sorting device with tracking material
DE102018200895A1 (en) 2018-01-19 2019-07-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and device for determining at least one mechanical property of at least one object
WO2019222128A1 (en) * 2018-05-16 2019-11-21 Siemens Postal, Parcel & Airport Logistics Llc Detection and removal of unstable parcel mail from an automated processing stream
EP3899877B1 (en) * 2018-12-20 2024-06-05 Sick Ag Sensor device for detecting a target object influenced by a process or formed during the process
US10934101B1 (en) 2019-08-14 2021-03-02 Intelligrated Headquarters, Llc Systems, methods, and apparatuses, for singulating items in a material handling environment
JP7306158B2 (en) * 2019-08-27 2023-07-11 株式会社サタケ Optical granular material sorter
US10954081B1 (en) 2019-10-25 2021-03-23 Dexterity, Inc. Coordinating multiple robots to meet workflow and avoid conflict
US11883854B2 (en) * 2020-03-05 2024-01-30 Satake Corporation Optical sorter
CN111703448A (en) * 2020-07-30 2020-09-25 宝鸡中车时代工程机械有限公司 Automatic change railway fastener bulk cargo car
DE102021113125A1 (en) 2021-05-20 2022-11-24 Schuler Pressen Gmbh Procedure for monitoring the positions of semi-finished products
CN113787025A (en) * 2021-08-11 2021-12-14 浙江光珀智能科技有限公司 High-speed sorting equipment
CN114082674B (en) * 2021-10-22 2023-10-10 江苏大学 Small particle agricultural product color selection method combining surface sweeping line sweeping photoelectric characteristics
JP2023167533A (en) * 2022-05-12 2023-11-24 キヤノン株式会社 identification device
DE102022118414A1 (en) 2022-07-22 2024-01-25 Karlsruher Institut für Technologie, Körperschaft des öffentlichen Rechts Sorting system for sorting objects in a material stream according to object classes and method for sorting objects conveyed in a material stream according to object classes

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3079932B2 (en) 1994-12-28 2000-08-21 株式会社佐竹製作所 Grain color sorter
US6003681A (en) 1996-06-03 1999-12-21 Src Vision, Inc. Off-belt stabilizing system for light-weight articles
US6380503B1 (en) * 2000-03-03 2002-04-30 Daniel G. Mills Apparatus and method using collimated laser beams and linear arrays of detectors for sizing and sorting articles
DE102004008642A1 (en) 2004-02-19 2005-09-08 Hauni Primary Gmbh Method and device for removing foreign substances from tobacco to be processed

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021200894B3 (en) 2021-02-01 2022-04-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Optical examination of objects in a material flow such as bulk goods
WO2022162230A1 (en) 2021-02-01 2022-08-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optically inspecting objects in a material stream such as bulk material for example

Also Published As

Publication number Publication date
EP3122479A1 (en) 2017-02-01
WO2015128174A1 (en) 2015-09-03
DE102014207157A1 (en) 2015-09-03
US9833815B2 (en) 2017-12-05
US20160354809A1 (en) 2016-12-08

Similar Documents

Publication Publication Date Title
EP3122479B1 (en) Conveyor system, device for sorting bulk material using such a con conveyor system, and method for transporting
DE102014209137B4 (en) Method and device for calibrating a camera system of a motor vehicle
DE112016000909T5 (en) Monitoring device and monitoring method
AT507339B1 (en) METHOD AND APPARATUS FOR RECORDING AND / OR PROCESSING OBJECTS
DE102015219544A1 (en) System and method for tracking optical codes
EP3740327B1 (en) Method and divice for identifying a mechanical property of an object
DE102009028604A1 (en) Device snake recognition device, method and computer program
EP3044760A1 (en) Method for analyzing the distribution of objects in free waiting lines
WO2008083869A1 (en) Method, apparatus and computer program for the self-calibration of a surveillance camera
CN102542289A (en) Pedestrian volume statistical method based on plurality of Gaussian counting models
DE102017006566B3 (en) Apparatus and method for optically monitoring surfaces of a body
DE102019101170A1 (en) Article transfer system and robot system
CN106548131A (en) A kind of workmen's safety helmet real-time detection method based on pedestrian detection
DE102007025320A1 (en) Object analysis method for e.g. flow sample, involves bringing about rotational movement between object and image detection device so that images of objects are provided for processing and analysis of objects
DE102006036346A1 (en) Method for automated 3-D object recognition and orientation
DE60310087T2 (en) QUALITY ASSESSMENT OF SCHÜTTGUT
CN106203476A (en) A kind of pig's head tail wheel exterior feature recognition methods based on arest neighbors classification with fuzzy algorithmic approach
EP3468727B1 (en) Sorting device and corresponding sorting method
DE102009028742A1 (en) Method and control device for determining a movement information of an object
DE102009007842A1 (en) Method and device for operating a video-based driver assistance system in a vehicle
EP2359308B1 (en) Device for creating and/or processing an object signature, monitoring device, method and computer program
DE102011100146A1 (en) Imaging device for contactless three-dimensional measurement of geometric shape of e.g. flat glass, image sensor whose optical axis is inclined to direction of movement of moving object to form two-dimensional image of object
DE202014101714U1 (en) Code reading system for reading codes
DE102020214002B3 (en) Device and method for determining a position of a detection unit and method for storing extraction information in a database
DE102008057176B4 (en) Automated 3D reconstruction method and monitoring device

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20160915

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

RIN1 Information on inventor provided before grant (corrected)

Inventor name: LAENGLE, THOMAS

Inventor name: BAUM, MARCUS

Inventor name: SCHULTE, HENNING

Inventor name: VIETH, KAI-UWE

Inventor name: NOACK, BENJAMIN

Inventor name: GRUNA, ROBIN

Inventor name: HANEBECK, UWE

DAX Request for extension of the european patent (deleted)
GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20180104

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE PATENT HAS BEEN GRANTED

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 987436

Country of ref document: AT

Kind code of ref document: T

Effective date: 20180415

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502015003831

Country of ref document: DE

REG Reference to a national code

Ref country code: NL

Ref legal event code: MP

Effective date: 20180411

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180711

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180711

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180712

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180813

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502015003831

Country of ref document: DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

26N No opposition filed

Effective date: 20190114

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20190209

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20190209

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20190209

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20190209

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180811

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20150209

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180411

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230524

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: AT

Payment date: 20240216

Year of fee payment: 10

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20240216

Year of fee payment: 10

Ref country code: CH

Payment date: 20240301

Year of fee payment: 10

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: IT

Payment date: 20240229

Year of fee payment: 10

Ref country code: FR

Payment date: 20240221

Year of fee payment: 10

Ref country code: BE

Payment date: 20240219

Year of fee payment: 10