DE10113306A1 - Detection and classification of objects on a conveyor belt, etc. to control further actions such as filling, emptying or picking up, uses two viewing systems so that re-calibration is not required if ambient conditions change - Google Patents
Detection and classification of objects on a conveyor belt, etc. to control further actions such as filling, emptying or picking up, uses two viewing systems so that re-calibration is not required if ambient conditions changeInfo
- Publication number
- DE10113306A1 DE10113306A1 DE2001113306 DE10113306A DE10113306A1 DE 10113306 A1 DE10113306 A1 DE 10113306A1 DE 2001113306 DE2001113306 DE 2001113306 DE 10113306 A DE10113306 A DE 10113306A DE 10113306 A1 DE10113306 A1 DE 10113306A1
- Authority
- DE
- Germany
- Prior art keywords
- values
- sensor device
- objects
- determined
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
Abstract
Description
Die Erfindung betrifft ein Verfahren zur Objekterkennung mit den Merkmalen des Oberbegriffs des Anspruchs 1 sowie eine Vorrichtung zur Durchführung eines solchen Verfahrens mit den Merkmalen des Anspruchs 7.The invention relates to a method for object detection with the features of the preamble of claim 1 and a Device for performing such a method with the Features of claim 7.
Derartige Verfahren werden beispielsweise eingesetzt um Ob jekte auf einem Förderband oder in einem Container nach Lage bzw. Position und/oder Typ zu erkennen, um in Abhängigkeit von dem mittels Objekterkennung ermittelten Ergebnis weitere Aktionen wie z. B. Füllen, Leeren, Greifen, weitere Verarbei tung der Objekte, usw. zu steuern.Such methods are used for example to Ob objects on a conveyor belt or in a container according to location or to recognize position and / or type, depending on from the result determined by means of object recognition Actions such as B. Filling, emptying, gripping, further processing control of objects, etc.
Die üblicherweise hierfür eingesetzten Bildverarbeitungssys teme müssen zur Erzielung optimaler Ergebnisse sorgfältig ka libriert werden. Aufgrund der sich ändernden Umgebungsbedin gungen, wie beispielsweise Beleuchtungsverhältnisse und ande ren Parametern wie Sicht, Schmutz, Temperatur usw., welche eine Bildverarbeitung oder auch die Geräte hierzu beeinflus sen können, müssen derartige Umgebungsbedingungen genau kon trolliert werden. Bei einer entsprechend großen Änderung, welche beispielsweise außerhalb vorbestimmter Toleranzen liegt, müssen herkömmliche Bildverarbeitungssysteme - in der Regel von Hand - neu kalibriert werden.The image processing systems usually used for this systems must be carefully considered in order to achieve optimal results be librated. Due to the changing environmental conditions conditions, such as lighting conditions and others parameters such as visibility, dirt, temperature etc., which image processing or the devices for this Such environmental conditions must be precisely con be trolled. With a correspondingly large change, which, for example, outside of predetermined tolerances conventional image processing systems - in the Usually by hand - be recalibrated.
Insbesondere bei Anwendungen und Umgebungen, in denen unab hängige Erkenntnisse über die tatsächlichen Bedingungen in dieser Umgebung nicht oder nur in geringer Weise vorhanden sind, ist die Neukalibrierung nachteiligerweise zeitaufwändig und verursacht einen zeitweiligen Stillstand der Verarbei tung, der sich zudem in höheren Kosten bei der Verarbeitung niederschlägt.Especially in applications and environments in which current knowledge of the actual conditions in this environment does not exist or only exists to a limited extent the recalibration is disadvantageously time consuming and causes the processing to come to a temporary standstill tion, which also results in higher processing costs reflected.
Der vorliegenden Erfindung liegt deshalb die Aufgabe zugrun de, ein Verfahren zur Objekterkennung zu schaffen, das die vorgenannten Nachteile überwindet und eine Zeitersparnis bei der Objekterkennung in Umgebungen mit weitestgehend unbekann ten Änderungen der Umgebungsbedingungen ermöglicht, sowie ei ne Vorrichtung zur Durchführung eines solchen Verfahrens.The present invention is therefore based on the object de to create a method for object recognition that the overcomes the aforementioned disadvantages and saves time object recognition in environments with largely unknown enables changes in the environmental conditions, and ei ne device for performing such a method.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch eine Vorrichtung mit den Merkmalen des Anspruchs 7 gelöst.This object is achieved by a method with the features of claim 1 and by a device solved with the features of claim 7.
Durch die Verwendung von von Umgebungsbedingungen unabhängig ermittelten ersten Werten einer ersten Sensoreinrichtung, z. B. einem System mit wenigstens einem Laserscanner, zur An passung bzw. Abstimmung der weiteren Sensoreinrichtung an die Umgebungsbedingungen bzw. deren Änderungen, kann die weitere Sensoreinrichtung die weiteren Werte in Abhängigkeit von den Umgebungsbedingungen ermitteln und ohne Unterbrechung der Ob jekterkennung bzw. der Verarbeitung korrekte Ergebnisse bzw. Aussagen über Typ und Lage der Objekte liefern.By using independent of environmental conditions determined first values of a first sensor device, z. B. a system with at least one laser scanner fit or coordination of the further sensor device to the Ambient conditions and their changes can be the other Sensor device the other values depending on the Determine environmental conditions and without interrupting the Ob object recognition or processing correct results or Provide statements about the type and location of the objects.
Die Anpassung der weiteren Sensoreinrichtung an die Umge bungsbedingungen erfolgt hierbei beispielsweise über eine Auswahl von vorbestimmten Parameterwerten, wie Position, Win kel, Anordnung der Sensoren, insbesondere Kameras, der weite ren Sensoreinrichtung und/oder Auswahl von vordefinierten Pa rameterwerten bei der Verarbeitung der Werte, beispielsweise durch Auswahl eines bestimmten von mehreren vordefinierten Klassifikationsverfahren, Wahl eines bestimmten von mehreren vordefinierten Werten für einen Parameter in einem Klassifi kationsverfahren, Wahl oder Bestimmung von Schwellwerten, usw.The adaptation of the further sensor device to the reverse Exercise conditions take place here, for example, via a Selection of predetermined parameter values such as position, win kel, arrangement of the sensors, especially cameras, the wide Ren sensor device and / or selection of predefined Pa parameter values when processing the values, for example by selecting a specific one from several predefined ones Classification procedure, choice of a particular one from several predefined values for a parameter in a classifi cation process, choice or determination of threshold values, etc.
Hierbei kann beispielsweise bereits aufgrund der ersten er mittelten Werte versucht werden eine Klassifikation des Ob jekts vorzunehmen und bei erfolgreicher Klassifikation, also Erkennen des Objekts (evtl. auch durch Auswahl eines von meh reren vorgegebenen Objekten), bereits mittels der ersten Sen soreinrichtung bzw. der hiermit ermittelten Werte, diese Wer te und/oder das Ergebnis zur Anpassung der weiteren Sensor einrichtung zu verwenden.Here, for example, it can already be based on the first mean values are tried a classification of the Ob and if the classification is successful, that is Recognize the object (possibly also by selecting one of meh other specified objects), already by means of the first sen soreinrichtung or the values determined herewith, this Who te and / or the result to adapt the further sensor device to use.
Hierdurch ist es möglich, die weitere Sensoreinrichtung auto matisch zu kalibrieren und diese Sensoreinrichtung auf even tuell geänderte Umgebungsbedingungen, insbesondere Beleuch tungsverhältnisse durch vorgenannte Auswahl von Parameterwer ten anzupassen, so dass auch mit der weiteren Sensoreinrich tung eine korrekte Klassifikation des Objekts erfolgen kann.This makes it possible for the additional sensor device to auto calibrate and calibrate this sensor device to even currently changed environmental conditions, especially lighting conditions through the aforementioned selection of parameter values to adapt so that also with the further sensor device correct classification of the object can take place.
Es ist aber auch denkbar, unabhängig von einer erfolgreichen Klassifikation mittels der ersten Sensoreinrichtung die Werte bzw. das Ergebnis der ersten Sensoreinrichtung mittels ent sprechender Toleranz und Ausschlussverfahren zur Anpassung der weiteren Sensoreinrichtung an die Umgebungsbedingungen zu verwenden.But it is also conceivable, regardless of a successful one Classification by means of the first sensor device or the result of the first sensor device by means of ent speaking tolerance and exclusion procedure for adjustment the further sensor device to the ambient conditions use.
In bevorzugter Ausgestaltung der Erfindung erfolgt eine An passung der weiteren Sensoreinrichtung nur bei einer korrek ten Klassifikation des Objektes mittels der ersten Sensorein richtung, so dass für die Erkennung weiterer Objekte die vor genommene Anpassung der weiteren Sensoreinrichtung solange unverändert bleibt, bis eine weitere korrekte Klassifikation mittels der ersten Sensoreinrichtung erfolgt. Hierbei können vorteilhafterweise bekannte einfache Verarbeitungsverfahren, insbesondere Bildverarbeitungsverfahren, zur Klassifikation eines Objektes verwendet werden und kompliziertere zeitauf wändige Berechnungsverfahren, wie Iterations- und Ausschluss verfahren zum Erkennen von Werten außerhalb üblicher Toleran zen, vermieden werden, so dass auf diesem Wege vorteilhafter weise eine hohe Verarbeitungsgeschwindigkeit gewährleistet werden kann.In a preferred embodiment of the invention, an on fit of the additional sensor device only if correct classification of the object using the first sensor direction, so that for the detection of further objects the front Adaptation of the further sensor device taken as long remains unchanged until another correct classification by means of the first sensor device. Here you can advantageously known simple processing methods, in particular image processing methods, for classification of an object can be used and more complicated time elaborate calculation methods, such as iteration and exclusion procedure for recognizing values outside the usual tolerance zen, are avoided, so that this way more advantageous as a high processing speed guaranteed can be.
Die Verarbeitung der Werte bis hin zur Klassifikation eines Objektes, beispielsweise durch Auswahl von mehreren vordefi nierten bekannten Objekten, kann hierbei in einer Auswerte einheit, beispielsweise ein Rechnersystem, erfolgen, so dass für mehrere Sensoreinrichtungen nur eine Auswerteeinheit vor handen sein muss, an welche die ermittelten Werte der Senso ren übermittelt werden und in der die entsprechende Verarbei tung, Klassifikation, Anpassung, der weiteren Verarbeitung und eventuell mittels einer Steuereinheit auch die räumliche Steuerung (Position im Raum, Beobachtungswinkel usw.) der weiteren Sensoreinrichtung vorgenommen werden kann.The processing of the values up to the classification of a Object, for example by selecting several predefined known objects, can be evaluated here unit, for example a computer system, so that only one evaluation unit for several sensor devices to which the senso values determined must be available be transmitted and in which the corresponding processing processing, classification, adaptation, further processing and possibly also the spatial by means of a control unit Control (position in space, observation angle, etc.) of the further sensor device can be made.
Es ist aber auch denkbar, dass die Verarbeitung mittels einer jeweils einer Sensoreinrichtung zugeordneten Auswerteeinheit, beispielsweise in der Sensoreinrichtung integriert, erfolgt und nach der Verarbeitung der Werte diese und/oder das Ergeb nis an die Auswerteinheit der weiteren Sensoreinrichtung übermittelt werden. Auf diese Weise ist auch eine gewisse De zentralisierung der Auswertungselektronik inklusive Pro grammsteuerung möglich, so dass kostengünstige übliche Ein zelsysteme (hergestellt in höherer Stückzahl), wie beispiels weise Laserscanner mit Auswerteeinheit, verwendet werden kön nen.But it is also conceivable that the processing by means of a evaluation unit each assigned to a sensor device, integrated in the sensor device, for example and after processing the values, these and / or the result to the evaluation unit of the further sensor device be transmitted. In this way there is also a certain de Centralization of the evaluation electronics including Pro Gram control possible, so that inexpensive common one cell systems (manufactured in large numbers), such as wise laser scanner with evaluation unit, can be used NEN.
Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.Further advantageous embodiments of the invention result itself from the subclaims.
Die Erfindung wird nachfolgend anhand eines in der Zeichnung dargestellten Figurenbeispiels näher erläutert.The invention is described below with reference to a drawing illustrated figure example explained in more detail.
Fig. 1 eine Vorderansicht auf einen Container mit Objekten und erfindungsgemäßen Sensoreinrichtungen und Fig. 1 is a front view of a container with objects and sensor devices according to the invention and
Fig. 2 eine Seitenansicht auf einen Container nach Fig. 1 ohne Objekte und Sensoreinrichtungen. FIG. 2 shows a side view of a container according to FIG. 1 without objects and sensor devices.
In Fig. 1 ist ein nach oben und vorne offener Container 1 dargestellt, welcher die Seitenwände 3 und 5, eine Rückwand 7 und einen Boden 9, beispielsweise in jeweils gitterförmiger Ausgestaltung, aufweist. In dem auf Rollen 11 fahrbaren Con tainer 1 befindet sich in etwa halber Höhe eine beispielswei se ebenfalls gitterförmig ausgebildete Trennwand 13, die über ein Scharnier 14 (Fig. 2) an der Rückwand 7 und entsprechende Befestigungen im waagerechten Zustand fixierbar und bei spielsweise nach oben in einen senkrechten Zustand wegklapp bar oder gänzlich herausnehmbar ausgebildet ist.In Fig. 1 is shown an upwardly and forwardly open container 1, which the side walls 3 and 5, a rear wall 7 and a bottom 9, for example, having in each grid-shaped configuration. In the Con tainer 1, which can be driven on rollers 11, there is, for example, about half the height of a partition wall 13 which is also embodied in a lattice shape and which can be fixed via a hinge 14 ( FIG. 2) to the rear wall 7 and corresponding fastenings in the horizontal state and, for example, upwards is folded away in a vertical state bar or completely removable.
Auf diese Weise können in einem Container 1 ähnlich wie einem Regal Objekte mit Trennung aufeinander gestapelt werden, so dass nicht alle übereinander angeordnete Objekte mit ihrem Gewicht auf das unterste Objekt 29, 30, 31 und den Regalboden einwirken.In this way, objects can be stacked on top of one another in a container 1, similar to a shelf, so that not all objects arranged one above the other act with their weight on the lowest object 29 , 30 , 31 and the shelf.
Wie in Fig. 1 dargestellt, können die Objekte 15 bis 31, bei denen es sich beispielsweise um geschlossene Briefpakete han delt, in ihrer Lage zu einem jeweils benachbarten Objekt un terschiedlich angeordnet sein, so dass sich zwischen den Ob jekten 15 bis 31 unterschiedlich große Abstände bzw. Zwi schenräume oder Spalten ergeben. So ist beispielsweise der Zwischenraum 18a zwischen den Objekten 18 und 19, wie aus Fig. 1 ersichtlich, größer als der Zwischenraum 17a zwischen den Objekten 17 und 18. Der Zwischenraum zwischen den Objek ten 15 und 16 ist durch ein fehlendes Objekt oder ein bereits herausgenommenes Objekt entsprechend groß ausgebildet.As shown in Fig. 1, the objects 15 to 31 , which are, for example, closed mail packages, can be arranged differently in their position relative to an adjacent object, so that objects 15 to 31 have different sizes between the objects Distances or interstices or columns result. For example, the space 18 a between the objects 18 and 19 , as can be seen in FIG. 1, is larger than the space 17 a between the objects 17 and 18 . The space between the objects 15 and 16 is made correspondingly large due to a missing object or an object already removed.
Selbstverständlich sind die Zwischenräume zischen hinterein ander angeordneten Objekten in einer Ebene und Richtung senk recht zur Zeichenebene ebenso unterschiedlich wie auch die seitlichen Zwischenräume der am Rand liegenden Objekte 15 bis 17, 19, 20, 22, 23, 25, 26, 28, 29 und 31 zu den Seitenwänden 3 und 5 sowie die jeweils an der Rückwand anliegenden Objekte zur Rückwand 7. Of course, the gaps between objects arranged one behind the other in a plane and direction perpendicular to the plane of the drawing are just as different as the lateral gaps of the objects 15 to 17 , 19 , 20 , 22 , 23 , 25 , 26 , 28 , 29 and 31 to the side walls 3 and 5 and the objects lying against the rear wall to the rear wall 7 .
Für ein maschinelles Entleeren, beispielsweise mittels eines in der Zeichnung nicht näher dargestellten steuerbaren Greif arms, ist es nun erforderlich die Lage eines Objektes 15 bis 31 im Raum zu erkennen und den Greifarm entsprechend zu steu ern.For machine emptying, for example by means of a controllable gripping arm, not shown in the drawing, it is now necessary to recognize the position of an object 15 to 31 in space and to control the gripping arm accordingly.
Da die Objekte 15 bis 31 sich nicht nur in ihrer Lage zuein ander, also unterschiedliche Zwischenräume zwischen jeweils benachbarten Seiten der Objekte bzw. einander gegenüber lie genden Seiten der Objekte, sondern auch in ihren Größenabmes sungen unterscheiden können, ist bei der Objekterkennung mög licherweise nicht nur das Erkennen eines einzigen möglichen Objektes mit festen Abmessungen sondern eine Klassifikation, also Auswahl aus einer Menge vordefinierter Objekte mit un terschiedlichen Abmessungen, nötig, um nicht nur die Lage der Objekte 15 bis 31 sondern auch den jeweiligen Typ eines Ob jekts 15 bis 31 korrekt festzustellen.Since the objects 15 to 31 not only differ in their position to each other, that is to say different gaps between adjacent sides of the objects or opposite sides of the objects, but also in terms of their dimensions, object detection may not be possible only the detection of a single possible object with fixed dimensions but a classification, i.e. selection from a number of predefined objects with different dimensions, necessary in order to correct not only the position of objects 15 to 31 but also the respective type of object 15 to 31 determine.
Hierzu befindet sich über dem Container 1 als erste Sensor einrichtung ein sogenannter Laserscanner 35, welcher um eine der Zeichenebene senkrecht angeordnete Achse D um einen Win kel α verschwenkt werden kann, so dass der Laserscanner den gesamten Innenbereich des Containers 1 scannen kann.For this purpose, a so-called laser scanner 35 is located above the container 1 as the first sensor device, which can be pivoted about an axis D perpendicular to the plane of the drawing by an angle α so that the laser scanner can scan the entire interior of the container 1 .
Erfindungsgemäß wird derselbe Bereich zusätzlich von wenigs tens einer weiteren Sensoreinrichtung, beispielsweise einer Videokamera 37 mit Beobachtungswinkel β, beobachtet.According to the invention, the same area is additionally observed by at least one further sensor device, for example a video camera 37 with an observation angle β.
Hierbei liefert der Laserscanner 35 nach seiner Bewegung um den Winkel α Werte über ein dreidimensionales Tiefenbild der jeweiligen Szene wobei aufgrund der physikalischen und tech nischen Eigenheit eines Laserscanners diese Werte von den Be leuchtungsverhältnissen unabhängig sind. Die Videokamera 37 liefert von der selben Szene dagegen Werte bzw. ein Bild, das von den Beleuchtungs- und Sichtverhältnissen abhängt. Here, the laser scanner 35 delivers values after its movement by the angle α over a three-dimensional depth image of the respective scene, these values being independent of the lighting conditions due to the physical and technical characteristics of a laser scanner. The video camera 37 , on the other hand, supplies values or an image of the same scene that depends on the lighting and visibility conditions.
Zur einfacheren Ermittlung und Verarbeitung von Werten aus der mit der Videokamera 37 beobachteten Szene können, wie bei bekannten Bildverarbeitungen, in die Szene eventuell zusätz lichen Hilfsmitteln, wie beispielsweise bestimmte Oberflä chenmuster wie Schachbrettmuster oder ähnliches, eingeführt werden.For easier determination and processing of values from the scene observed with the video camera 37 , as with known image processing, additional aids, such as certain surface patterns such as checkerboard patterns or the like, can be introduced into the scene.
Für das Entleeren des Containers 1 mittels eines steuerbaren Greifarms oder ähnlichem wird erfindungsgemäß sowohl die In formation des Laserscanners 35 als auch die Information der Videokamera 37 verwendet, wobei vorteilhafterweise die Infor mationen, welche mit dem Laserscanner 35 gewonnen werden, zur Anpassung der Art der Verarbeitung der Werte der Videokamera 37 und/oder zur Anpassung der räumlichen Anordnung der Video kamera 37, wie Änderung der Position, Änderung des Beobach tungswinkels β, usw. verwendet werden.For emptying the container 1 by means of a controllable gripping arm or the like, both the information of the laser scanner 35 and the information of the video camera 37 are used according to the invention, advantageously the information obtained with the laser scanner 35 for adapting the type of processing the values of the video camera 37 and / or for adapting the spatial arrangement of the video camera 37 , such as changing the position, changing the observation angle β, etc., are used.
In bevorzugter Ausgestaltung der Erfindung werden die mittels des Laserscanners 35 ermittelten Werte bezüglich der beobach teten Szene in einer Auswerteeinheit zu einem Ergebnis ausge wertet und eine Klassifikation d. h. Zuordnung der Werte eines potenziell beobachteten Objekts 15 bis 31 zu einem von mehre ren vorbekannten Objekten vorgenommen.In a preferred embodiment of the invention, the values determined by means of the laser scanner 35 with respect to the observed scene are evaluated in an evaluation unit to form a result and classification, ie assignment of the values of a potentially observed object 15 to 31 to one of several previously known objects.
Nach einer erfolgreichen Klassifikation, also korrektem Er kennen des Objektes 15 bis 31 werden das Objekt 15 bis 31 durch die weitere Sensoreinrichtung abgetastet, entsprechende Werte ermittelt und eine Anpassung der Verarbeitung und/oder der Anordnung der weiteren Sensoreinrichtung schrittweise so lange vorgenommen, bis auch die Auswertung der durch die wei tere Sensoreinrichtung ermittelten Werte dasselbe Ergebnis, also Klassifikation des Objektes 15 bis 31, liefert. Soll nur eine Anpassung der Verarbeitung erfolgen, kann das Objekt 15 bis 31 durch die weitere Sensoreinrichtung selbstverständlich auch vor oder während einem Scannen durch die erste Sensor einrichtung abgetastet werden. After a successful classification, i.e. correct knowledge of the objects 15 to 31 , the objects 15 to 31 are scanned by the further sensor device, corresponding values are determined and the processing and / or the arrangement of the further sensor device is adapted step by step until the same Evaluation of the values determined by the further sensor device delivers the same result, that is, classification of the object 15 to 31 . If the processing is only to be adapted, the object 15 to 31 can of course also be scanned by the further sensor device before or during a scanning by the first sensor device.
Hierbei können beispielsweise nach einer vordefinierten Ab folge mehrere übliche Klassifikationsverfahren durchlaufen werden und/oder nach einer vordefinierten Abfolge mehrere von vordefinierten Werten eines Berechnungsparameters innerhalb eines Klassifikationsverfahrens und/oder nach einer vordefi nierten Abfolge mehrere von vordefinierten Position und Beo bachtungswinkeln β der weiteren Sensoreinrichtung eingenommen werden. Hierdurch ist es möglich, die weitere Sensoreinrich tung an Änderungen der Umgebungsbedingungen, wie beispiels weise Beleuchtungsverhältnisse, anzupassen bzw. automatisch zu kalibrieren, ohne eine Neukalibrierung von Hand vorzuneh men.Here, for example, according to a predefined Ab follow several common classification procedures and / or several of a predefined values of a calculation parameter within a classification procedure and / or according to a predefined sequence of several predefined positions and Beo observation angles β of the further sensor device become. This makes it possible for the further sensor device to changes in environmental conditions, such as wise lighting conditions, adapt or automatically to calibrate without recalibrating by hand men.
Aufgrund seiner geringeren Empfindlichkeit liefert der Laser scanner 35 gelegentlich eine Fehlklassifikation. Stehen bei spielsweise zwei oder mehrere Objekte, wie in Fig. 1 darge stellt, Objekt 17 und 18, so nah zusammen, dass der Spalt 17a zwischen ihnen in Entfernungsdaten für den Laserscanner 35 nicht mehr erkennbar ist, werden demzufolge die Objekte 17 und 18 fälschlich als ein einziges Objekt erkannt, also fehl klassifiziert.Due to its lower sensitivity, the laser scanner 35 occasionally provides a misclassification. If, for example, two or more objects, as shown in FIG. 1, objects 17 and 18 are so close together that the gap 17 a between them is no longer recognizable in distance data for the laser scanner 35 , the objects 17 and 18 become accordingly incorrectly recognized as a single object, i.e. misclassified.
Bei einer nicht korrekten Klassifikation bzw. Fehlklassifika tion durch die erste Sensoreinrichtung bleiben die Anpas sungsparameter der weiteren Sensoreinrichtung unverändert, so dass aufgrund der in einem vorhergehenden Arbeitsgang vorge nommene Einstellung die empfindlicher arbeitende und besser erkennende weitere Sensoreinrichtung bereits hinsichtlich der Umgebungsbedingungen kalibriert wurde und eine korrekte Klas sifikation des Objektes 15 bis 31 ermöglicht.In the event of an incorrect classification or misclassification by the first sensor device, the adaptation parameters of the further sensor device remain unchanged, so that due to the setting made in a previous work step, the more sensitive and better recognizing further sensor device has already been calibrated with regard to the ambient conditions and is correct Classification of the object 15 to 31 allows.
Insbesondere bei kontinuierlichen und langsameren Änderungen der Umgebungsbedingungen, wie beispielsweise Änderungen der Beleuchtungsverhältnisse aufgrund Änderungen des Tageslichts, wird bei Anwendung des erfindungsgemäßen Verfahrens sowie der erfindungsgemäßen Vorrichtung eine besonders hohe Klassifika tionsrate ermöglicht, ohne dass die Objekterkennung bzw. der Arbeitsablauf für eine Neukalibrierung von Hand unterbrochen werden muss.Especially with continuous and slower changes environmental conditions, such as changes in Lighting conditions due to changes in daylight, is when using the method according to the invention and the Device according to the invention a particularly high class tion rate enables without the object detection or Manual recalibration workflow interrupted must become.
Claims (9)
- a) erste Werte eines Objektes (15 bis 31) unabhängig von Umgebungsbedingungen mittels einer ersten Sensorein richtung (35) ermittelt,
- b) weitere Werte des Objektes (15 bis 31) in Abhängigkeit von Umgebungsbedingungen mittels wenigstens einer wei teren Sensoreinrichtung (37) ermittelt werden,
- c) wobei die ersten ermittelten Werte verwendet werden, um die wenigstens eine weitere Sensoreinrichtung an die Umgebungsbedingungen anzupassen.
- a) first values of an object ( 15 to 31 ) are determined independently of ambient conditions by means of a first sensor device ( 35 ),
- b) further values of the object ( 15 to 31 ) are determined as a function of ambient conditions by means of at least one further sensor device ( 37 ),
- c) wherein the first determined values are used to adapt the at least one further sensor device to the ambient conditions.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2001113306 DE10113306A1 (en) | 2001-03-19 | 2001-03-19 | Detection and classification of objects on a conveyor belt, etc. to control further actions such as filling, emptying or picking up, uses two viewing systems so that re-calibration is not required if ambient conditions change |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2001113306 DE10113306A1 (en) | 2001-03-19 | 2001-03-19 | Detection and classification of objects on a conveyor belt, etc. to control further actions such as filling, emptying or picking up, uses two viewing systems so that re-calibration is not required if ambient conditions change |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10113306A1 true DE10113306A1 (en) | 2002-07-04 |
Family
ID=7678099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2001113306 Ceased DE10113306A1 (en) | 2001-03-19 | 2001-03-19 | Detection and classification of objects on a conveyor belt, etc. to control further actions such as filling, emptying or picking up, uses two viewing systems so that re-calibration is not required if ambient conditions change |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10113306A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015191762A1 (en) * | 2014-06-10 | 2015-12-17 | Amazon Technologies, Inc. | Item-detecting overhead sensor for inventory system |
US9580245B2 (en) | 2014-06-10 | 2017-02-28 | Amazon Technologies, Inc. | Item-detecting overhead sensor for inventory system |
US9824328B2 (en) | 2014-06-10 | 2017-11-21 | Amazon Technologies, Inc. | Arm-detecting overhead sensor for inventory system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4242189C1 (en) * | 1992-12-15 | 1994-03-31 | Leica Sensortechnik Gmbh | Method and device for taking a distance image |
-
2001
- 2001-03-19 DE DE2001113306 patent/DE10113306A1/en not_active Ceased
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4242189C1 (en) * | 1992-12-15 | 1994-03-31 | Leica Sensortechnik Gmbh | Method and device for taking a distance image |
Non-Patent Citations (1)
Title |
---|
KREIS, Th. u.a.: "Sensorsystem auf der Basis eines Laserscanners zur Kantenfindung in der Materialbearbeitung,Optoelektronik in der Technik,Springer Verlag Berlin Heidelberg New York Tokio 1984, S. 118-123 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015191762A1 (en) * | 2014-06-10 | 2015-12-17 | Amazon Technologies, Inc. | Item-detecting overhead sensor for inventory system |
US9580245B2 (en) | 2014-06-10 | 2017-02-28 | Amazon Technologies, Inc. | Item-detecting overhead sensor for inventory system |
US9824328B2 (en) | 2014-06-10 | 2017-11-21 | Amazon Technologies, Inc. | Arm-detecting overhead sensor for inventory system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE602005000598T2 (en) | Three-dimensional optical sensor | |
DE102014016033B4 (en) | Apparatus and method for picking up randomly distributed objects with a robot | |
DE69911725T2 (en) | Device for determining the degree of dirt on printed material | |
DE69628711T2 (en) | Method and device for correcting pixel values of a digital image | |
DE102016122678B4 (en) | Workpiece position / posture calculation system and handling system | |
WO2000063681A2 (en) | Image editing for preparing a texture analysis | |
DE112011103794T5 (en) | Pick-up device for workpieces | |
EP1816488B2 (en) | Opto-electronic device and method for its operation | |
DE102006057552A1 (en) | System and method for measuring the distance of a preceding vehicle | |
EP2619525B1 (en) | Method for optically scanning an edge in or on a surface region | |
WO2018039695A1 (en) | Bending machine comprising a work area image detecting device and method for representing a work area | |
DE102016200386A1 (en) | Method for controlling a manipulator system | |
DE19926120C2 (en) | Image recognition device | |
DE19951146A1 (en) | Noise reduction in signal from imaging apparatus e.g. for semiconductor device manufacture by replacing gray scale values for pixels lying outside region of acceptable values | |
DE10113306A1 (en) | Detection and classification of objects on a conveyor belt, etc. to control further actions such as filling, emptying or picking up, uses two viewing systems so that re-calibration is not required if ambient conditions change | |
WO2022029091A1 (en) | Method and flat bed machine tool for detecting a fitting position of a supporting bar | |
DE102009047324A1 (en) | Hand-held device for calibrating optical sensor e.g. fixed irradiating linear detection and ranging sensor, in vehicle at e.g. workshop, has multipixel detector, and faceplate mask arranged in optical path between sensor and detector | |
EP3663800B1 (en) | Method for detecting objects using a 3d camera | |
WO2003034327A1 (en) | Automatic determination of geometric models for optical partial recognitions | |
EP3770804A1 (en) | Industrial truck with object detection | |
DE19612465A1 (en) | Automatic configuration of test system for object identification | |
EP3783302A1 (en) | Object measuring system for a packaging machine for determining the dimensions of a base surface and a height of a packaging tray to be wrapped | |
DE102018122092A1 (en) | Method for determining at least one position parameter of an object in an environment of a motor vehicle, computer program product, driver assistance system and motor vehicle | |
DE102022004654B3 (en) | Method for evaluating a flap position and evaluation device | |
DE102022204362B3 (en) | Procedure for checking a time-of-flight camera for dirt detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OAV | Applicant agreed to the publication of the unexamined application as to paragraph 31 lit. 2 z1 | ||
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |