DE10113306A1 - Detection and classification of objects on a conveyor belt, etc. to control further actions such as filling, emptying or picking up, uses two viewing systems so that re-calibration is not required if ambient conditions change - Google Patents

Detection and classification of objects on a conveyor belt, etc. to control further actions such as filling, emptying or picking up, uses two viewing systems so that re-calibration is not required if ambient conditions change

Info

Publication number
DE10113306A1
DE10113306A1 DE2001113306 DE10113306A DE10113306A1 DE 10113306 A1 DE10113306 A1 DE 10113306A1 DE 2001113306 DE2001113306 DE 2001113306 DE 10113306 A DE10113306 A DE 10113306A DE 10113306 A1 DE10113306 A1 DE 10113306A1
Authority
DE
Germany
Prior art keywords
values
sensor device
objects
determined
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE2001113306
Other languages
German (de)
Inventor
Wendelin Feiten
Zheng Ren
Georg Von Wichert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE2001113306 priority Critical patent/DE10113306A1/en
Publication of DE10113306A1 publication Critical patent/DE10113306A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques

Abstract

Object recognition method in which a first value of an object (15-31) is determined independently of ambient conditions using sensor apparatus (35), then further values of the object are determined that depend on ambient conditions using a second sensor apparatus (37) with the first determined value used to match the values determined using second or further sensor apparatuses. The invention also relates to a corresponding device for carrying out the above method. The device comprises a first laser scanner (35) for determination of condition independent object measurement values and further video camera detection systems (37).

Description

Die Erfindung betrifft ein Verfahren zur Objekterkennung mit den Merkmalen des Oberbegriffs des Anspruchs 1 sowie eine Vorrichtung zur Durchführung eines solchen Verfahrens mit den Merkmalen des Anspruchs 7.The invention relates to a method for object detection with the features of the preamble of claim 1 and a Device for performing such a method with the Features of claim 7.

Derartige Verfahren werden beispielsweise eingesetzt um Ob­ jekte auf einem Förderband oder in einem Container nach Lage bzw. Position und/oder Typ zu erkennen, um in Abhängigkeit von dem mittels Objekterkennung ermittelten Ergebnis weitere Aktionen wie z. B. Füllen, Leeren, Greifen, weitere Verarbei­ tung der Objekte, usw. zu steuern.Such methods are used for example to Ob objects on a conveyor belt or in a container according to location or to recognize position and / or type, depending on from the result determined by means of object recognition Actions such as B. Filling, emptying, gripping, further processing control of objects, etc.

Die üblicherweise hierfür eingesetzten Bildverarbeitungssys­ teme müssen zur Erzielung optimaler Ergebnisse sorgfältig ka­ libriert werden. Aufgrund der sich ändernden Umgebungsbedin­ gungen, wie beispielsweise Beleuchtungsverhältnisse und ande­ ren Parametern wie Sicht, Schmutz, Temperatur usw., welche eine Bildverarbeitung oder auch die Geräte hierzu beeinflus­ sen können, müssen derartige Umgebungsbedingungen genau kon­ trolliert werden. Bei einer entsprechend großen Änderung, welche beispielsweise außerhalb vorbestimmter Toleranzen liegt, müssen herkömmliche Bildverarbeitungssysteme - in der Regel von Hand - neu kalibriert werden.The image processing systems usually used for this systems must be carefully considered in order to achieve optimal results be librated. Due to the changing environmental conditions conditions, such as lighting conditions and others parameters such as visibility, dirt, temperature etc., which image processing or the devices for this Such environmental conditions must be precisely con be trolled. With a correspondingly large change, which, for example, outside of predetermined tolerances conventional image processing systems - in the Usually by hand - be recalibrated.

Insbesondere bei Anwendungen und Umgebungen, in denen unab­ hängige Erkenntnisse über die tatsächlichen Bedingungen in dieser Umgebung nicht oder nur in geringer Weise vorhanden sind, ist die Neukalibrierung nachteiligerweise zeitaufwändig und verursacht einen zeitweiligen Stillstand der Verarbei­ tung, der sich zudem in höheren Kosten bei der Verarbeitung niederschlägt.Especially in applications and environments in which current knowledge of the actual conditions in this environment does not exist or only exists to a limited extent the recalibration is disadvantageously time consuming and causes the processing to come to a temporary standstill tion, which also results in higher processing costs reflected.

Der vorliegenden Erfindung liegt deshalb die Aufgabe zugrun­ de, ein Verfahren zur Objekterkennung zu schaffen, das die vorgenannten Nachteile überwindet und eine Zeitersparnis bei der Objekterkennung in Umgebungen mit weitestgehend unbekann­ ten Änderungen der Umgebungsbedingungen ermöglicht, sowie ei­ ne Vorrichtung zur Durchführung eines solchen Verfahrens.The present invention is therefore based on the object de to create a method for object recognition that the overcomes the aforementioned disadvantages and saves time object recognition in environments with largely unknown enables changes in the environmental conditions, and ei ne device for performing such a method.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch eine Vorrichtung mit den Merkmalen des Anspruchs 7 gelöst.This object is achieved by a method with the features of claim 1 and by a device solved with the features of claim 7.

Durch die Verwendung von von Umgebungsbedingungen unabhängig ermittelten ersten Werten einer ersten Sensoreinrichtung, z. B. einem System mit wenigstens einem Laserscanner, zur An­ passung bzw. Abstimmung der weiteren Sensoreinrichtung an die Umgebungsbedingungen bzw. deren Änderungen, kann die weitere Sensoreinrichtung die weiteren Werte in Abhängigkeit von den Umgebungsbedingungen ermitteln und ohne Unterbrechung der Ob­ jekterkennung bzw. der Verarbeitung korrekte Ergebnisse bzw. Aussagen über Typ und Lage der Objekte liefern.By using independent of environmental conditions determined first values of a first sensor device, z. B. a system with at least one laser scanner fit or coordination of the further sensor device to the Ambient conditions and their changes can be the other Sensor device the other values depending on the Determine environmental conditions and without interrupting the Ob object recognition or processing correct results or Provide statements about the type and location of the objects.

Die Anpassung der weiteren Sensoreinrichtung an die Umge­ bungsbedingungen erfolgt hierbei beispielsweise über eine Auswahl von vorbestimmten Parameterwerten, wie Position, Win­ kel, Anordnung der Sensoren, insbesondere Kameras, der weite­ ren Sensoreinrichtung und/oder Auswahl von vordefinierten Pa­ rameterwerten bei der Verarbeitung der Werte, beispielsweise durch Auswahl eines bestimmten von mehreren vordefinierten Klassifikationsverfahren, Wahl eines bestimmten von mehreren vordefinierten Werten für einen Parameter in einem Klassifi­ kationsverfahren, Wahl oder Bestimmung von Schwellwerten, usw.The adaptation of the further sensor device to the reverse Exercise conditions take place here, for example, via a Selection of predetermined parameter values such as position, win kel, arrangement of the sensors, especially cameras, the wide Ren sensor device and / or selection of predefined Pa parameter values when processing the values, for example by selecting a specific one from several predefined ones Classification procedure, choice of a particular one from several predefined values for a parameter in a classifi cation process, choice or determination of threshold values, etc.

Hierbei kann beispielsweise bereits aufgrund der ersten er­ mittelten Werte versucht werden eine Klassifikation des Ob­ jekts vorzunehmen und bei erfolgreicher Klassifikation, also Erkennen des Objekts (evtl. auch durch Auswahl eines von meh­ reren vorgegebenen Objekten), bereits mittels der ersten Sen­ soreinrichtung bzw. der hiermit ermittelten Werte, diese Wer­ te und/oder das Ergebnis zur Anpassung der weiteren Sensor­ einrichtung zu verwenden.Here, for example, it can already be based on the first mean values are tried a classification of the Ob and if the classification is successful, that is Recognize the object (possibly also by selecting one of meh  other specified objects), already by means of the first sen soreinrichtung or the values determined herewith, this Who te and / or the result to adapt the further sensor device to use.

Hierdurch ist es möglich, die weitere Sensoreinrichtung auto­ matisch zu kalibrieren und diese Sensoreinrichtung auf even­ tuell geänderte Umgebungsbedingungen, insbesondere Beleuch­ tungsverhältnisse durch vorgenannte Auswahl von Parameterwer­ ten anzupassen, so dass auch mit der weiteren Sensoreinrich­ tung eine korrekte Klassifikation des Objekts erfolgen kann.This makes it possible for the additional sensor device to auto calibrate and calibrate this sensor device to even currently changed environmental conditions, especially lighting conditions through the aforementioned selection of parameter values to adapt so that also with the further sensor device correct classification of the object can take place.

Es ist aber auch denkbar, unabhängig von einer erfolgreichen Klassifikation mittels der ersten Sensoreinrichtung die Werte bzw. das Ergebnis der ersten Sensoreinrichtung mittels ent­ sprechender Toleranz und Ausschlussverfahren zur Anpassung der weiteren Sensoreinrichtung an die Umgebungsbedingungen zu verwenden.But it is also conceivable, regardless of a successful one Classification by means of the first sensor device or the result of the first sensor device by means of ent speaking tolerance and exclusion procedure for adjustment the further sensor device to the ambient conditions use.

In bevorzugter Ausgestaltung der Erfindung erfolgt eine An­ passung der weiteren Sensoreinrichtung nur bei einer korrek­ ten Klassifikation des Objektes mittels der ersten Sensorein­ richtung, so dass für die Erkennung weiterer Objekte die vor­ genommene Anpassung der weiteren Sensoreinrichtung solange unverändert bleibt, bis eine weitere korrekte Klassifikation mittels der ersten Sensoreinrichtung erfolgt. Hierbei können vorteilhafterweise bekannte einfache Verarbeitungsverfahren, insbesondere Bildverarbeitungsverfahren, zur Klassifikation eines Objektes verwendet werden und kompliziertere zeitauf­ wändige Berechnungsverfahren, wie Iterations- und Ausschluss­ verfahren zum Erkennen von Werten außerhalb üblicher Toleran­ zen, vermieden werden, so dass auf diesem Wege vorteilhafter­ weise eine hohe Verarbeitungsgeschwindigkeit gewährleistet werden kann.In a preferred embodiment of the invention, an on fit of the additional sensor device only if correct classification of the object using the first sensor direction, so that for the detection of further objects the front Adaptation of the further sensor device taken as long remains unchanged until another correct classification by means of the first sensor device. Here you can advantageously known simple processing methods, in particular image processing methods, for classification of an object can be used and more complicated time elaborate calculation methods, such as iteration and exclusion procedure for recognizing values outside the usual tolerance zen, are avoided, so that this way more advantageous as a high processing speed guaranteed can be.

Die Verarbeitung der Werte bis hin zur Klassifikation eines Objektes, beispielsweise durch Auswahl von mehreren vordefi­ nierten bekannten Objekten, kann hierbei in einer Auswerte­ einheit, beispielsweise ein Rechnersystem, erfolgen, so dass für mehrere Sensoreinrichtungen nur eine Auswerteeinheit vor­ handen sein muss, an welche die ermittelten Werte der Senso­ ren übermittelt werden und in der die entsprechende Verarbei­ tung, Klassifikation, Anpassung, der weiteren Verarbeitung und eventuell mittels einer Steuereinheit auch die räumliche Steuerung (Position im Raum, Beobachtungswinkel usw.) der weiteren Sensoreinrichtung vorgenommen werden kann.The processing of the values up to the classification of a Object, for example by selecting several predefined  known objects, can be evaluated here unit, for example a computer system, so that only one evaluation unit for several sensor devices to which the senso values determined must be available be transmitted and in which the corresponding processing processing, classification, adaptation, further processing and possibly also the spatial by means of a control unit Control (position in space, observation angle, etc.) of the further sensor device can be made.

Es ist aber auch denkbar, dass die Verarbeitung mittels einer jeweils einer Sensoreinrichtung zugeordneten Auswerteeinheit, beispielsweise in der Sensoreinrichtung integriert, erfolgt und nach der Verarbeitung der Werte diese und/oder das Ergeb­ nis an die Auswerteinheit der weiteren Sensoreinrichtung übermittelt werden. Auf diese Weise ist auch eine gewisse De­ zentralisierung der Auswertungselektronik inklusive Pro­ grammsteuerung möglich, so dass kostengünstige übliche Ein­ zelsysteme (hergestellt in höherer Stückzahl), wie beispiels­ weise Laserscanner mit Auswerteeinheit, verwendet werden kön­ nen.But it is also conceivable that the processing by means of a evaluation unit each assigned to a sensor device, integrated in the sensor device, for example and after processing the values, these and / or the result to the evaluation unit of the further sensor device be transmitted. In this way there is also a certain de Centralization of the evaluation electronics including Pro Gram control possible, so that inexpensive common one cell systems (manufactured in large numbers), such as wise laser scanner with evaluation unit, can be used NEN.

Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.Further advantageous embodiments of the invention result itself from the subclaims.

Die Erfindung wird nachfolgend anhand eines in der Zeichnung dargestellten Figurenbeispiels näher erläutert.The invention is described below with reference to a drawing illustrated figure example explained in more detail.

In der Zeichnung zeigen:The drawing shows:

Fig. 1 eine Vorderansicht auf einen Container mit Objekten und erfindungsgemäßen Sensoreinrichtungen und Fig. 1 is a front view of a container with objects and sensor devices according to the invention and

Fig. 2 eine Seitenansicht auf einen Container nach Fig. 1 ohne Objekte und Sensoreinrichtungen. FIG. 2 shows a side view of a container according to FIG. 1 without objects and sensor devices.

In Fig. 1 ist ein nach oben und vorne offener Container 1 dargestellt, welcher die Seitenwände 3 und 5, eine Rückwand 7 und einen Boden 9, beispielsweise in jeweils gitterförmiger Ausgestaltung, aufweist. In dem auf Rollen 11 fahrbaren Con­ tainer 1 befindet sich in etwa halber Höhe eine beispielswei­ se ebenfalls gitterförmig ausgebildete Trennwand 13, die über ein Scharnier 14 (Fig. 2) an der Rückwand 7 und entsprechende Befestigungen im waagerechten Zustand fixierbar und bei­ spielsweise nach oben in einen senkrechten Zustand wegklapp­ bar oder gänzlich herausnehmbar ausgebildet ist.In Fig. 1 is shown an upwardly and forwardly open container 1, which the side walls 3 and 5, a rear wall 7 and a bottom 9, for example, having in each grid-shaped configuration. In the Con tainer 1, which can be driven on rollers 11, there is, for example, about half the height of a partition wall 13 which is also embodied in a lattice shape and which can be fixed via a hinge 14 ( FIG. 2) to the rear wall 7 and corresponding fastenings in the horizontal state and, for example, upwards is folded away in a vertical state bar or completely removable.

Auf diese Weise können in einem Container 1 ähnlich wie einem Regal Objekte mit Trennung aufeinander gestapelt werden, so dass nicht alle übereinander angeordnete Objekte mit ihrem Gewicht auf das unterste Objekt 29, 30, 31 und den Regalboden einwirken.In this way, objects can be stacked on top of one another in a container 1, similar to a shelf, so that not all objects arranged one above the other act with their weight on the lowest object 29 , 30 , 31 and the shelf.

Wie in Fig. 1 dargestellt, können die Objekte 15 bis 31, bei denen es sich beispielsweise um geschlossene Briefpakete han­ delt, in ihrer Lage zu einem jeweils benachbarten Objekt un­ terschiedlich angeordnet sein, so dass sich zwischen den Ob­ jekten 15 bis 31 unterschiedlich große Abstände bzw. Zwi­ schenräume oder Spalten ergeben. So ist beispielsweise der Zwischenraum 18a zwischen den Objekten 18 und 19, wie aus Fig. 1 ersichtlich, größer als der Zwischenraum 17a zwischen den Objekten 17 und 18. Der Zwischenraum zwischen den Objek­ ten 15 und 16 ist durch ein fehlendes Objekt oder ein bereits herausgenommenes Objekt entsprechend groß ausgebildet.As shown in Fig. 1, the objects 15 to 31 , which are, for example, closed mail packages, can be arranged differently in their position relative to an adjacent object, so that objects 15 to 31 have different sizes between the objects Distances or interstices or columns result. For example, the space 18 a between the objects 18 and 19 , as can be seen in FIG. 1, is larger than the space 17 a between the objects 17 and 18 . The space between the objects 15 and 16 is made correspondingly large due to a missing object or an object already removed.

Selbstverständlich sind die Zwischenräume zischen hinterein­ ander angeordneten Objekten in einer Ebene und Richtung senk­ recht zur Zeichenebene ebenso unterschiedlich wie auch die seitlichen Zwischenräume der am Rand liegenden Objekte 15 bis 17, 19, 20, 22, 23, 25, 26, 28, 29 und 31 zu den Seitenwänden 3 und 5 sowie die jeweils an der Rückwand anliegenden Objekte zur Rückwand 7. Of course, the gaps between objects arranged one behind the other in a plane and direction perpendicular to the plane of the drawing are just as different as the lateral gaps of the objects 15 to 17 , 19 , 20 , 22 , 23 , 25 , 26 , 28 , 29 and 31 to the side walls 3 and 5 and the objects lying against the rear wall to the rear wall 7 .

Für ein maschinelles Entleeren, beispielsweise mittels eines in der Zeichnung nicht näher dargestellten steuerbaren Greif­ arms, ist es nun erforderlich die Lage eines Objektes 15 bis 31 im Raum zu erkennen und den Greifarm entsprechend zu steu­ ern.For machine emptying, for example by means of a controllable gripping arm, not shown in the drawing, it is now necessary to recognize the position of an object 15 to 31 in space and to control the gripping arm accordingly.

Da die Objekte 15 bis 31 sich nicht nur in ihrer Lage zuein­ ander, also unterschiedliche Zwischenräume zwischen jeweils benachbarten Seiten der Objekte bzw. einander gegenüber lie­ genden Seiten der Objekte, sondern auch in ihren Größenabmes­ sungen unterscheiden können, ist bei der Objekterkennung mög­ licherweise nicht nur das Erkennen eines einzigen möglichen Objektes mit festen Abmessungen sondern eine Klassifikation, also Auswahl aus einer Menge vordefinierter Objekte mit un­ terschiedlichen Abmessungen, nötig, um nicht nur die Lage der Objekte 15 bis 31 sondern auch den jeweiligen Typ eines Ob­ jekts 15 bis 31 korrekt festzustellen.Since the objects 15 to 31 not only differ in their position to each other, that is to say different gaps between adjacent sides of the objects or opposite sides of the objects, but also in terms of their dimensions, object detection may not be possible only the detection of a single possible object with fixed dimensions but a classification, i.e. selection from a number of predefined objects with different dimensions, necessary in order to correct not only the position of objects 15 to 31 but also the respective type of object 15 to 31 determine.

Hierzu befindet sich über dem Container 1 als erste Sensor­ einrichtung ein sogenannter Laserscanner 35, welcher um eine der Zeichenebene senkrecht angeordnete Achse D um einen Win­ kel α verschwenkt werden kann, so dass der Laserscanner den gesamten Innenbereich des Containers 1 scannen kann.For this purpose, a so-called laser scanner 35 is located above the container 1 as the first sensor device, which can be pivoted about an axis D perpendicular to the plane of the drawing by an angle α so that the laser scanner can scan the entire interior of the container 1 .

Erfindungsgemäß wird derselbe Bereich zusätzlich von wenigs­ tens einer weiteren Sensoreinrichtung, beispielsweise einer Videokamera 37 mit Beobachtungswinkel β, beobachtet.According to the invention, the same area is additionally observed by at least one further sensor device, for example a video camera 37 with an observation angle β.

Hierbei liefert der Laserscanner 35 nach seiner Bewegung um den Winkel α Werte über ein dreidimensionales Tiefenbild der jeweiligen Szene wobei aufgrund der physikalischen und tech­ nischen Eigenheit eines Laserscanners diese Werte von den Be­ leuchtungsverhältnissen unabhängig sind. Die Videokamera 37 liefert von der selben Szene dagegen Werte bzw. ein Bild, das von den Beleuchtungs- und Sichtverhältnissen abhängt. Here, the laser scanner 35 delivers values after its movement by the angle α over a three-dimensional depth image of the respective scene, these values being independent of the lighting conditions due to the physical and technical characteristics of a laser scanner. The video camera 37 , on the other hand, supplies values or an image of the same scene that depends on the lighting and visibility conditions.

Zur einfacheren Ermittlung und Verarbeitung von Werten aus der mit der Videokamera 37 beobachteten Szene können, wie bei bekannten Bildverarbeitungen, in die Szene eventuell zusätz­ lichen Hilfsmitteln, wie beispielsweise bestimmte Oberflä­ chenmuster wie Schachbrettmuster oder ähnliches, eingeführt werden.For easier determination and processing of values from the scene observed with the video camera 37 , as with known image processing, additional aids, such as certain surface patterns such as checkerboard patterns or the like, can be introduced into the scene.

Für das Entleeren des Containers 1 mittels eines steuerbaren Greifarms oder ähnlichem wird erfindungsgemäß sowohl die In­ formation des Laserscanners 35 als auch die Information der Videokamera 37 verwendet, wobei vorteilhafterweise die Infor­ mationen, welche mit dem Laserscanner 35 gewonnen werden, zur Anpassung der Art der Verarbeitung der Werte der Videokamera 37 und/oder zur Anpassung der räumlichen Anordnung der Video­ kamera 37, wie Änderung der Position, Änderung des Beobach­ tungswinkels β, usw. verwendet werden.For emptying the container 1 by means of a controllable gripping arm or the like, both the information of the laser scanner 35 and the information of the video camera 37 are used according to the invention, advantageously the information obtained with the laser scanner 35 for adapting the type of processing the values of the video camera 37 and / or for adapting the spatial arrangement of the video camera 37 , such as changing the position, changing the observation angle β, etc., are used.

In bevorzugter Ausgestaltung der Erfindung werden die mittels des Laserscanners 35 ermittelten Werte bezüglich der beobach­ teten Szene in einer Auswerteeinheit zu einem Ergebnis ausge­ wertet und eine Klassifikation d. h. Zuordnung der Werte eines potenziell beobachteten Objekts 15 bis 31 zu einem von mehre­ ren vorbekannten Objekten vorgenommen.In a preferred embodiment of the invention, the values determined by means of the laser scanner 35 with respect to the observed scene are evaluated in an evaluation unit to form a result and classification, ie assignment of the values of a potentially observed object 15 to 31 to one of several previously known objects.

Nach einer erfolgreichen Klassifikation, also korrektem Er­ kennen des Objektes 15 bis 31 werden das Objekt 15 bis 31 durch die weitere Sensoreinrichtung abgetastet, entsprechende Werte ermittelt und eine Anpassung der Verarbeitung und/oder der Anordnung der weiteren Sensoreinrichtung schrittweise so­ lange vorgenommen, bis auch die Auswertung der durch die wei­ tere Sensoreinrichtung ermittelten Werte dasselbe Ergebnis, also Klassifikation des Objektes 15 bis 31, liefert. Soll nur eine Anpassung der Verarbeitung erfolgen, kann das Objekt 15 bis 31 durch die weitere Sensoreinrichtung selbstverständlich auch vor oder während einem Scannen durch die erste Sensor­ einrichtung abgetastet werden. After a successful classification, i.e. correct knowledge of the objects 15 to 31 , the objects 15 to 31 are scanned by the further sensor device, corresponding values are determined and the processing and / or the arrangement of the further sensor device is adapted step by step until the same Evaluation of the values determined by the further sensor device delivers the same result, that is, classification of the object 15 to 31 . If the processing is only to be adapted, the object 15 to 31 can of course also be scanned by the further sensor device before or during a scanning by the first sensor device.

Hierbei können beispielsweise nach einer vordefinierten Ab­ folge mehrere übliche Klassifikationsverfahren durchlaufen werden und/oder nach einer vordefinierten Abfolge mehrere von vordefinierten Werten eines Berechnungsparameters innerhalb eines Klassifikationsverfahrens und/oder nach einer vordefi­ nierten Abfolge mehrere von vordefinierten Position und Beo­ bachtungswinkeln β der weiteren Sensoreinrichtung eingenommen werden. Hierdurch ist es möglich, die weitere Sensoreinrich­ tung an Änderungen der Umgebungsbedingungen, wie beispiels­ weise Beleuchtungsverhältnisse, anzupassen bzw. automatisch zu kalibrieren, ohne eine Neukalibrierung von Hand vorzuneh­ men.Here, for example, according to a predefined Ab follow several common classification procedures and / or several of a predefined values of a calculation parameter within a classification procedure and / or according to a predefined sequence of several predefined positions and Beo observation angles β of the further sensor device become. This makes it possible for the further sensor device to changes in environmental conditions, such as wise lighting conditions, adapt or automatically to calibrate without recalibrating by hand men.

Aufgrund seiner geringeren Empfindlichkeit liefert der Laser­ scanner 35 gelegentlich eine Fehlklassifikation. Stehen bei­ spielsweise zwei oder mehrere Objekte, wie in Fig. 1 darge­ stellt, Objekt 17 und 18, so nah zusammen, dass der Spalt 17a zwischen ihnen in Entfernungsdaten für den Laserscanner 35 nicht mehr erkennbar ist, werden demzufolge die Objekte 17 und 18 fälschlich als ein einziges Objekt erkannt, also fehl­ klassifiziert.Due to its lower sensitivity, the laser scanner 35 occasionally provides a misclassification. If, for example, two or more objects, as shown in FIG. 1, objects 17 and 18 are so close together that the gap 17 a between them is no longer recognizable in distance data for the laser scanner 35 , the objects 17 and 18 become accordingly incorrectly recognized as a single object, i.e. misclassified.

Bei einer nicht korrekten Klassifikation bzw. Fehlklassifika­ tion durch die erste Sensoreinrichtung bleiben die Anpas­ sungsparameter der weiteren Sensoreinrichtung unverändert, so dass aufgrund der in einem vorhergehenden Arbeitsgang vorge­ nommene Einstellung die empfindlicher arbeitende und besser erkennende weitere Sensoreinrichtung bereits hinsichtlich der Umgebungsbedingungen kalibriert wurde und eine korrekte Klas­ sifikation des Objektes 15 bis 31 ermöglicht.In the event of an incorrect classification or misclassification by the first sensor device, the adaptation parameters of the further sensor device remain unchanged, so that due to the setting made in a previous work step, the more sensitive and better recognizing further sensor device has already been calibrated with regard to the ambient conditions and is correct Classification of the object 15 to 31 allows.

Insbesondere bei kontinuierlichen und langsameren Änderungen der Umgebungsbedingungen, wie beispielsweise Änderungen der Beleuchtungsverhältnisse aufgrund Änderungen des Tageslichts, wird bei Anwendung des erfindungsgemäßen Verfahrens sowie der erfindungsgemäßen Vorrichtung eine besonders hohe Klassifika­ tionsrate ermöglicht, ohne dass die Objekterkennung bzw. der Arbeitsablauf für eine Neukalibrierung von Hand unterbrochen werden muss.Especially with continuous and slower changes environmental conditions, such as changes in Lighting conditions due to changes in daylight, is when using the method according to the invention and the Device according to the invention a particularly high class tion rate enables without the object detection or  Manual recalibration workflow interrupted must become.

Claims (9)

1. Verfahren zur Objekterkennung bei dem
  • a) erste Werte eines Objektes (15 bis 31) unabhängig von Umgebungsbedingungen mittels einer ersten Sensorein­ richtung (35) ermittelt,
  • b) weitere Werte des Objektes (15 bis 31) in Abhängigkeit von Umgebungsbedingungen mittels wenigstens einer wei­ teren Sensoreinrichtung (37) ermittelt werden,
  • c) wobei die ersten ermittelten Werte verwendet werden, um die wenigstens eine weitere Sensoreinrichtung an die Umgebungsbedingungen anzupassen.
1. Method for object detection in the
  • a) first values of an object ( 15 to 31 ) are determined independently of ambient conditions by means of a first sensor device ( 35 ),
  • b) further values of the object ( 15 to 31 ) are determined as a function of ambient conditions by means of at least one further sensor device ( 37 ),
  • c) wherein the first determined values are used to adapt the at least one further sensor device to the ambient conditions.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet; dass die ersten Werte mittels wenigstens eines Laserscanners er­ mittelt werden.2. The method according to claim 1, characterized; that the first values by means of at least one laser scanner be averaged. 3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als erste Werte geometrische Abmessungen und Position im Raum des Objektes (15 bis 31) ermittelt werden.3. The method according to claim 1 or 2, characterized in that geometric dimensions and position in the space of the object ( 15 to 31 ) are determined as the first values. 4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die weiteren Werte mittels wenigstens eines Videokamerasys­ tems (37) und Bildverarbeitung ermittelt werden.4. The method according to any one of the preceding claims, characterized in that the further values are determined by means of at least one video camera system ( 37 ) and image processing. 5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mit den ersten Werten mittels einer Auswerteeinheit eine Klassifikation des Objektes (15 bis 31) vorgenommen wird.5. The method according to any one of the preceding claims, characterized in that the first values are used to classify the object ( 15 to 31 ) by means of an evaluation unit. 6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass bei einer erfolgreichen Klassifikation des Objektes (15 bis 31) Parameter für die Auswertung der weiteren Werte und/oder Parameter für die Position der weiteren Sensoreinrichtung so­ lange verändert werden, bis die Klassifikation des Objektes (15 bis 31) auch mittels der weiteren Sensoreinrichtung (37) und Auswerteeinheit erfolgt.6. The method according to claim 5, characterized in that, when the object ( 15 to 31 ) is successfully classified, parameters for evaluating the further values and / or parameters for the position of the further sensor device are changed until the classification of the object ( 15 to 31 ) also takes place by means of the further sensor device ( 37 ) and evaluation unit. 7. Vorrichtung zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche, mit einer ersten Sensoreinrich­ tung (35), die erste Werte eines Objektes (15 bis 31) unab­ hängig von Umgebungsbedingungen ermittelt und wenigstens ei­ ner weiteren Sensoreinrichtung (37), die weitere Werte des Objektes (15 bis 31) in Abhängigkeit von Umgebungsbedingungen ermittelt.7. Device for performing a method according to one of the preceding claims, with a first sensor device ( 35 ), the first values of an object ( 15 to 31 ) determined independently of ambient conditions and at least one further sensor device ( 37 ), the further values of the object ( 15 to 31 ) determined depending on environmental conditions. 8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass die erste Sensoreinrichtung (35) als wenigstens ein Laser­ scanner (35) ausgebildet ist.8. The device according to claim 7, characterized in that the first sensor device ( 35 ) is designed as at least one laser scanner ( 35 ). 9. Vorrichtung nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass die weitere Sensoreinrichtung (37) als wenigstens ein Videokamerasystem (37) ausgebildet ist.9. The device according to claim 7 or 8, characterized in that the further sensor device ( 37 ) is designed as at least one video camera system ( 37 ).
DE2001113306 2001-03-19 2001-03-19 Detection and classification of objects on a conveyor belt, etc. to control further actions such as filling, emptying or picking up, uses two viewing systems so that re-calibration is not required if ambient conditions change Ceased DE10113306A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2001113306 DE10113306A1 (en) 2001-03-19 2001-03-19 Detection and classification of objects on a conveyor belt, etc. to control further actions such as filling, emptying or picking up, uses two viewing systems so that re-calibration is not required if ambient conditions change

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2001113306 DE10113306A1 (en) 2001-03-19 2001-03-19 Detection and classification of objects on a conveyor belt, etc. to control further actions such as filling, emptying or picking up, uses two viewing systems so that re-calibration is not required if ambient conditions change

Publications (1)

Publication Number Publication Date
DE10113306A1 true DE10113306A1 (en) 2002-07-04

Family

ID=7678099

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2001113306 Ceased DE10113306A1 (en) 2001-03-19 2001-03-19 Detection and classification of objects on a conveyor belt, etc. to control further actions such as filling, emptying or picking up, uses two viewing systems so that re-calibration is not required if ambient conditions change

Country Status (1)

Country Link
DE (1) DE10113306A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015191762A1 (en) * 2014-06-10 2015-12-17 Amazon Technologies, Inc. Item-detecting overhead sensor for inventory system
US9580245B2 (en) 2014-06-10 2017-02-28 Amazon Technologies, Inc. Item-detecting overhead sensor for inventory system
US9824328B2 (en) 2014-06-10 2017-11-21 Amazon Technologies, Inc. Arm-detecting overhead sensor for inventory system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4242189C1 (en) * 1992-12-15 1994-03-31 Leica Sensortechnik Gmbh Method and device for taking a distance image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4242189C1 (en) * 1992-12-15 1994-03-31 Leica Sensortechnik Gmbh Method and device for taking a distance image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KREIS, Th. u.a.: "Sensorsystem auf der Basis eines Laserscanners zur Kantenfindung in der Materialbearbeitung,Optoelektronik in der Technik,Springer Verlag Berlin Heidelberg New York Tokio 1984, S. 118-123 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015191762A1 (en) * 2014-06-10 2015-12-17 Amazon Technologies, Inc. Item-detecting overhead sensor for inventory system
US9580245B2 (en) 2014-06-10 2017-02-28 Amazon Technologies, Inc. Item-detecting overhead sensor for inventory system
US9824328B2 (en) 2014-06-10 2017-11-21 Amazon Technologies, Inc. Arm-detecting overhead sensor for inventory system

Similar Documents

Publication Publication Date Title
DE602005000598T2 (en) Three-dimensional optical sensor
DE102014016033B4 (en) Apparatus and method for picking up randomly distributed objects with a robot
DE69911725T2 (en) Device for determining the degree of dirt on printed material
DE69628711T2 (en) Method and device for correcting pixel values of a digital image
DE102016122678B4 (en) Workpiece position / posture calculation system and handling system
WO2000063681A2 (en) Image editing for preparing a texture analysis
DE112011103794T5 (en) Pick-up device for workpieces
EP1816488B2 (en) Opto-electronic device and method for its operation
DE102006057552A1 (en) System and method for measuring the distance of a preceding vehicle
EP2619525B1 (en) Method for optically scanning an edge in or on a surface region
WO2018039695A1 (en) Bending machine comprising a work area image detecting device and method for representing a work area
DE102016200386A1 (en) Method for controlling a manipulator system
DE19926120C2 (en) Image recognition device
DE19951146A1 (en) Noise reduction in signal from imaging apparatus e.g. for semiconductor device manufacture by replacing gray scale values for pixels lying outside region of acceptable values
DE10113306A1 (en) Detection and classification of objects on a conveyor belt, etc. to control further actions such as filling, emptying or picking up, uses two viewing systems so that re-calibration is not required if ambient conditions change
WO2022029091A1 (en) Method and flat bed machine tool for detecting a fitting position of a supporting bar
DE102009047324A1 (en) Hand-held device for calibrating optical sensor e.g. fixed irradiating linear detection and ranging sensor, in vehicle at e.g. workshop, has multipixel detector, and faceplate mask arranged in optical path between sensor and detector
EP3663800B1 (en) Method for detecting objects using a 3d camera
WO2003034327A1 (en) Automatic determination of geometric models for optical partial recognitions
EP3770804A1 (en) Industrial truck with object detection
DE19612465A1 (en) Automatic configuration of test system for object identification
EP3783302A1 (en) Object measuring system for a packaging machine for determining the dimensions of a base surface and a height of a packaging tray to be wrapped
DE102018122092A1 (en) Method for determining at least one position parameter of an object in an environment of a motor vehicle, computer program product, driver assistance system and motor vehicle
DE102022004654B3 (en) Method for evaluating a flap position and evaluation device
DE102022204362B3 (en) Procedure for checking a time-of-flight camera for dirt detection

Legal Events

Date Code Title Description
OAV Applicant agreed to the publication of the unexamined application as to paragraph 31 lit. 2 z1
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection