EP0597178B1 - Verfahren und Vorrichtung zur Identifizierung von Gegenständen - Google Patents

Verfahren und Vorrichtung zur Identifizierung von Gegenständen Download PDF

Info

Publication number
EP0597178B1
EP0597178B1 EP93109258A EP93109258A EP0597178B1 EP 0597178 B1 EP0597178 B1 EP 0597178B1 EP 93109258 A EP93109258 A EP 93109258A EP 93109258 A EP93109258 A EP 93109258A EP 0597178 B1 EP0597178 B1 EP 0597178B1
Authority
EP
European Patent Office
Prior art keywords
objects
optical sensor
deformation
characteristic
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
EP93109258A
Other languages
English (en)
French (fr)
Other versions
EP0597178A3 (de
EP0597178A2 (de
Inventor
Klaus-Dieter Dr. Kuhnert
Joachim Dr. Beeck
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tzn Forschungs- und Entwicklungszentrum Unterluess GmbH
Original Assignee
Tzn Forschungs- und Entwicklungszentrum Unterluess GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tzn Forschungs- und Entwicklungszentrum Unterluess GmbH filed Critical Tzn Forschungs- und Entwicklungszentrum Unterluess GmbH
Publication of EP0597178A2 publication Critical patent/EP0597178A2/de
Publication of EP0597178A3 publication Critical patent/EP0597178A3/de
Application granted granted Critical
Publication of EP0597178B1 publication Critical patent/EP0597178B1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/04Sorting according to size
    • B07C5/10Sorting according to size measured by light-responsive means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3422Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras

Definitions

  • the invention relates to a method for identifying objects with the aid of an image processing system.
  • the invention further relates to devices for performing such a method.
  • DE 35200486 C2 discloses a method for sorting hollow plastic articles, in particular household waste, with the aid of an image recognition system in which the objects to be sorted are recorded with a camera, temporarily stored and analyzed for shape and color by comparison with corresponding stored patterns.
  • a method and a device for determining the quality of rice grains is known from US-A-5135114. Both the reflection and the absorption behavior of the individual rice grains are determined, the changes in the waveform of the measured values being used to classify the rice grains.
  • a method for classifying objects by shape is known from WO92 / 00149.
  • the characteristic geometric values measured for the respective object are compared with corresponding stored data.
  • EP-A-0258810 discloses a method for classifying spherical objects, such as fruit and vegetables, in which incident light measurements from at least four different sides are carried out with only one camera from the respective object to be classified. The shape, the dimensions and the surface structure of the respective object are then determined from the images determined with the camera.
  • the object of the present invention is to further develop a method and devices of the type mentioned at the outset in such a way that deformed and soiled objects can also be recognized in a short time (considerably less than 1 second).
  • the invention is therefore essentially based on the idea that the images taken are parameters that are characteristic of the deformation-invariant for the respective object type to analyze by geometry and transparency measurements and then to infer the object by comparison with corresponding stored values.
  • the deformation-invariant parameters are determined using a calibration process, which can be different for each type of object (e.g. from the approximately determined can volume of an aluminum can and the angle that the base has relative to the longitudinal axis of the can, to the diameter of the (round) base of the Can be closed, since the bases of aluminum cans practically do not deform).
  • the diameter of the can base and any additional information e.g. color and transparency then define the object to be sorted relatively well.
  • the object to be identified is detected from two (or more) directions that are as orthogonal as possible with different lighting, in order to ensure transparency and the various geometric data, such as length, width, angle between bottom and side wall, Obtain bottom diameter, articulation angle or volume.
  • 1 denotes an image processing system with which objects 2, which are conveyed, for example, on an assembly line 3, are recognized. After the objects 2 have been identified, they can then be sorted (for the sorting, see also the above-mentioned DE 35204866 C2).
  • the image processing system 1 essentially consists of an optical sensor 4, e.g. a color image line camera with downstream electronics 5, a light source 6 and a mirror 7. Light source 6 and mirror 7 are arranged such that the objects 2 to be identified are moved between them.
  • the electronics 5 contains, for example, an amplifier 8, which is followed by an analog / digital converter 9 and an evaluation device 10.
  • the evaluation device 10 which contains an image memory 11 and a processor 12, is connected to a display device 13.
  • the optical sensor 4 looks from above onto the object 2 illuminated with incident light (the corresponding light source has been omitted in FIG. 1 for the sake of a better overview), so that the light beams 14 scattered and reflected on the object 2 reach the sensor 4.
  • the object 2 is laterally illuminated with the light source 6, so that the corresponding light beams 15 passing through the object 2 are faded into the image field of the sensor 4 via the mirrors 7 as light beams 16.
  • the actual real-time detection is preceded by the calibration method. This serves to record the systematic influences of the deformation and fracture behavior on the shape, color and transparency of an object 2, whereby a representative sample of deformed objects 2 must be available for the calibration.
  • the objects 2 are sorted manually according to their degree of deformation and object type and then the variables also determined in real time operation (see below) are calculated.
  • the association between the degree of deformation or object type and the measured parameters is stored in the evaluation device 10.
  • the resulting assignment tables can be interpolated in order to be saved as a closed function to save memory.
  • the measured parameter values are used in the reversing functions in order to determine the degree of deformation and the object type.
  • the gray value edges are determined in the first step by suitable filtering in the evaluation device 10.
  • the outer contour and edges lying within the contour are then chained separately.
  • a hard-wired arithmetic unit of the evaluation device 10 can be used to accelerate this step.
  • the signals originating from the color camera 4 are transformed into an HSI representation and then the color edges are filtered out and concatenated. This reduces the video data in real time to its essential proportions (gray value and color edges).
  • the individual edge lists are then distributed via a first communication network to microcomputers contained in the evaluation device, each of which processes only a few such lists.
  • At least the following sizes are calculated for each edge in the image: color value, saturation, enclosed area, moments of the enclosed area, average curvature, length, rotational position, relative position to the outer contour.
  • edge-related sizes are calculated as required, or they are converted (by connecting the start and end points) into closed edges so that the area-related sizes can also be calculated.
  • the volume within the outer contour is approximately determined by multiplying the base depth by the height determined by the side view.
  • the transparency is determined from the transmitted light portion of the side lighting.
  • the ascertained variables are fed via a further communication network, which does not necessarily have to be physically different from the first, to a central evaluation processor 12 of the evaluation device 10, which calculates the reversing functions determined during the calibration and thus carries out the detection.
  • the incident light measurement is again carried out with the line camera 4.
  • a separate optical sensor (camera) 17 is provided instead of the mirror provided in FIG.
  • the sensor signals are supplied to electronics which essentially correspond to the electronics denoted by 5 in FIG. Only the analog input signals can be amplified separately and converted into corresponding digital values. The further processing of the signals by the evaluation device 10 is then identical to that described above.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

  • Die Erfindung betrifft ein Verfahren zur Identifizierung von Gegenständen mit Hilfe eines bildverarbeitenden Systems. Die Erfindung bezieht sich ferner auf Vorrichtungen zur Ausführung eines derartigen Verfahrens.
  • Aus der DE 35200486 C2 ist ein Verfahren zur Sortierung von Kunststoffhohlkörpern, insbesondere Hausmüll, mit Hilfe eines Bilderkennungssystems bekannt, bei dem die zu sortierenden Gegenstände mit einer Kamera aufgenommen, zwischengespeichert und nach Form und Farbe durch Vergleich mit entsprechenden gespeicherten Mustern analysiert werden.
  • Nachteilig bei diesem bekannten Verfahren ist vor allem, daß bei einem Vergleich der gespeicherten Muster und der zu identifizierenden Gegenstände letztere häufig fehlerkannt werden, wenn diese deformiert und/oder stark verschmutzt sind.
  • Aus der US-A-5135114 ist ein Verfahren und eine Vorrichtung zur Qualitätsbestimmung von Reiskörnern bekannt. Dabei wird sowohl das Reflektions- als auch das Absorptionsverhalten der einzelnen Reiskörner ermittelt, wobei zur Klassifizierung der Reiskörner die Änderungen in der Wellenform der gemessenen Werte herangezogen werden.
  • Aus der WO92/00149 ist ein Verfahren zur Klassifizierung von Objekten nach Formen bekannt. Dabei werden die für das jeweilige Objekt gemessenen charakteristischen geometrischen Werte mit entsprechenden gespeicherten Daten verglichen.
  • Schließlich ist aus der EP-A-0258810 ein Verfahren zur Klassifizierung von ballförmigen Gegenständen, wie Obst und Gemüse, bekannt, wobei von dem jeweiligen zu klassifizierenden Gegenstand mit nur einer Kamera Auflichtmessungen von mindestens vier unterschiedlichen Seiten durchgeführt werden. Aus den mit der Kamera ermittelten Bildern werden dann die Form, die Abmessungen und die Oberflächenstruktur des jeweiligen Gegenstandes bestimmt.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren sowie Vorrichtungen der eingangs erwähnten Art derart weiterzuentwickeln, daß auch deformierte und verschmutzte Gegenstände in kurzer Zeit (wesentlich kürzer als 1 Sekunde) erkannt werden.
  • Diese Aufgabe wird erfindungsgemäß durch die Merkmale des Anspruchs 1 bzw. durch die Merkmale der Ansprüche 4 und 5 gelöst.
  • Weitere, besonders vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Merkmalen der Unteransprüche.
  • Der Erfindung liegt also im wesentlichen der Gedanke zugrunde, die aufgenommenen Bilder auf für den jeweiligen Gegenstandstyp charakteristische deformationsinvariante Parameter durch Geometrie- und Transparenzmessungen zu analysieren und dann durch Vergleich mit entsprechenden gespeicherten Werten auf den Gegenstand zu schließen.
  • Die deformationsinvarianten Parameter werden über einen Eichprozeß, der für jeden Gegenstandstyp unterschiedlich sein kann, bestimmt (z.B. kann aus dem näherungsweise ermittelten Dosenvolumen einer Aluminiumdose und dem Winkel, den der Boden relativ zur Längsachse der Dose besitzt, auf den Durchmesser des (runden) Bodens der Dose geschlossen werden, da sich bei Alu-Dosen die Böden praktisch nicht deformieren). Der Durchmesser des Dosenbodens und eventuell ergänzender Informationen (z.B. Farbe und Transparenz) definieren dann relativ gut den zu sortierenden Gegenstand.
  • Für die erfindungsgemäße Vorrichtung ist wesentlich, daß der zu identifizierende Gegenstand aus zwei (oder mehr), möglichst orthogonalen Richtungen bei unterschiedlicher Beleuchtung, erfaßt wird, um Transparenz und die diversen Geometriedaten, wie Länge, Breite, Winkel zwischen Boden und Seitenwand, Bodendurchmesser, Knickwinkel oder Volumen zu erhalten.
  • Weitere Einzelheiten und Vorteile der Erfindung ergeben sich aus den nachfolgend mit Hilfe von Figuren beschriebenen Ausführungsbeispielen. Es zeigen:
  • Fig.1
    schematisch ein erstes Ausführungsbeispiel der Erfindung mit nur einem optischen Sensor; und
    Fig. 2
    ein weiteres Ausführungsbeispiel mit zwei optischen Sensoren.
  • In Fig.1 ist mit 1 ein bildverarbeitendes System bezeichnet, mit dem Gegenstände 2, die beispielsweise auf einem Fließband 3 befördert werden, erkannt werden. Nach der Identifizierung der Gegenstände 2 können diese dann sortiert werden (zur Durchführung der Sortierung vgl. auch die obengenannte DE 35204866 C2).
  • Das bildverarbeitende System 1 besteht im wesentlichen aus einem optischen Sensor 4, z.B. einer Farbbild-Zeilenkamera mit nachgeschalteter Elektronik 5, einer Lichtquelle 6 und einem Spiegel 7. Lichtquelle 6 und Spiegel 7 sind derart angeordnet, daß zwischen ihnen die zu identifizierenden Gegenstände 2 hindurchbewegt werden.
  • Die Elektronik 5 enthält beispielsweise einen Verstärker 8, dem ein Analog-/Digitalwandler 9 und eine Auswertevorrichtung 10 nachgeschaltet ist. Die Auswertevorrichtung 10, die einen Bildspeicher 11 und einen Prozessor 12 enthält, ist mit einer Anzeigenvorrichtung 13 verbunden.
  • Der optische Sensor 4 schaut von oben auf den mit Auflicht beleuchteten Gegenstand 2 (die entsprechende Lichtquelle wurde in Fig.1 aus Gründen einer besseren Übersicht weggelassen), so daß die an dem Gegenstand 2 gestreuten und reflektierten Lichtstrahlen 14 in den Sensor 4 gelangen. Gleichzeitig wird der Gegenstand 2 seitlich mit der Lichtquelle 6 angestrahlt, so daß die entsprechenden durch den Gegenstand 2 gelangenden Lichtstrahlen 15 über die Spiegel 7 als Lichtstrahlen 16 in das Bildfeld des Sensors 4 eingeblendet werden.
  • Im folgenden wird näher auf die Funktionsweise der erfindungsgemäßen Vorrichtung eingegangen:
  • Eichung
  • Der eigentlichen Echtzeiterkennung ist das Eichverfahren vorgeschaltet. Dieses dient der Erfassung der systematischen Einflüsse des Deformations- und Bruchverhaltens auf die Form, Farbe und Transparenz eines Gegenstandes 2, wobei eine repräsentative Stichprobe von deformierten Gegenständen 2 für die Eichung vorliegen muß.
  • Generell besitzen alle zu untersuchenden Gegenstände 2 ein spezifisches Deformations- und Bruchverhalten. D.h., Böden, Deckel und durch Versteifungsrippen oder Waben gestärkte Oberflächenteile deformieren sich wenig, wohingegen an Knickkanten oder schwach gewölbten gleichmäßigen Flächen zuerst und gehäuft Deformationen auftreten. Ebenso bestimmt die Elastizität des Materials den Verformungsverlauf. So entstehen bei verschiedenen Kunststoffen (z.B. Polypropylen bzw. Polyethylen) gerade bzw. kurvige Risse beim Bruch.
  • Die Gegenstände 2 werden manuell gemäß ihrem Deformationsgrad und Objekttyp sortiert und dann die auch im Echtzeitbetrieb ermittelten Größen (vergleiche unten) berechnet. Die Zuordnung zwischen Deformationsgrad bzw. Objekttyp und den gemessenen Parametern werden in der Auswertevorrichtung 10 gespeichert. Die entstehenden Zuordnungstabellen können interpoliert werden, um zur Speicherersparnis als geschlossene Funktion abgelegt zu werden. In der Echtzeitphase werden in die Umkehrfunktionen die gemessenen Parameterwerte eingesetzt, um den Deformationsgrad und den Objekttyp zu bestimmen.
  • Echtzeitauswertung
  • Alle Größen der Echtzeitauswertung werden sowohl für die Aufals auch für die Seitenansicht jeden Gegenstandes 2 berechnet. Beide Ansichten können mit der in Fig.1 dargestellten Sensoranordnung gleichzeitig gewonnen werden.
  • Nach der Bildaufnahme werden im ersten Schritt durch passende Filterung in der Auswertevorrichtung 10 die Grauwertkanten bestimmt. Die Außenkontur und innerhalb der Kontur liegende Kanten werden dann getrennt verkettet. Zur Beschleunigung dieses Schrittes kann ein festverdrahtetes Rechenwerk der Auswertevorrichtung 10 verwendet werden.
  • Mit einem weiteren Rechenwerk der Auswertevorrichtung 10 werden die von der Farbkamera 4 stammenden Signale in eine HSI Darstellung transformiert und dann die Farbkanten ausgefiltert und verkettet. Damit werden die Videodaten in Echtzeit auf ihre wesentlichen Anteile (Grauwert- und Farbkanten) reduziert.
  • Die einzelnen Kantenlisten werden dann über ein erstes Kommunikationsnetzwerk an in der Auswertevorrichtung enthaltene Mikrorechner verteilt, von denen jeder nur wenige solcher Listen bearbeitet.
  • Für jede Kante im Bild werden mindestens die folgenden Größen berechnet: Farbwert, Sättigung, eingeschlossene Fläche, Momente der eingeschlossenen Fläche, mittlere Krümmung, Länge, Drehlage, relative Lage zur Außenkontur. Bei offenen Kantenzügen werden je nach Bedarf nur die kantenbezogenen Größen berechnet oder sie werden (durch Verbindung von Anfangs- und Endpunkt) in geschlossene Kantenzüge überführt, um auch die flächenbezogenen Größen berechnen zu können.
  • Innerhalb der Außenkontur wird näherungsweise das Volumen bestimmt durch Multiplikation der Grundflächentiefe mit der durch die Seitenansicht ermittelten Höhe. Die Transparenz wird aus dem durchgelassenen Lichtanteil der Seitenbeleuchtung bestimmt.
  • Die ermittelten Größen werden über ein weiteres Kommunikationsnetzwerk, das nicht notwendigerweise physikalisch vom ersten verschieden sein muß, einem zentralen Auswerteprozessor 12 der Auswertevorrichtung 10 zugeleitet, der die bei der Eichung bestimmten Umkehrfunktionen berechnet und damit die Erkennung durchführt.
  • Anstatt die Durchlicht- und Auflichtmessung mit nur einem optischen Sensor 4 durchzuführen, kann auch eine Vorrichtung mit zwei getrennten Sensoren verwendet werden. Dieses ist in Fig.2 dargestellt, wobei der zu identifizierende Gegenstand 2 aus Gründen einer besseren Übersicht weggelassen ist:
  • Die Auflichtmessung erfolgt wiederum mit der Zeilenkamera 4. Für die Durchlichtmessung ist hingegen statt des in Fig.1 vorgesehenen Spiegels ein separater optischer Sensor (Kamera) 17 vorgesehen. Die Sensorsignale werden einer Elektronik zugeführt, die im wesentlichen der in Fig.1 mit 5 bezeichneten Elektronik entspricht. Lediglich die analogen Eingangssignale können separat verstärkt und in entsprechende digitale Werte umgewandelt werden. Die weitere Bearbeitung der Signale durch die Auswertevorrichtung 10 ist dann identisch wie oben beschrieben.
  • Bezugszeichenliste
  • 1
    bildverarbeitendes System
    2
    Gegenstand
    3
    Fließband
    4
    optischer Sensor, Kamera
    5
    Elektronik
    6
    Lichtquelle
    7
    Spiegel
    8
    Verstärker
    9
    Analog-/Digitalwandler
    10
    Auswertevorrichtung
    11
    Bildspeicher
    12
    Prozessor
    13
    Anzeigenvorrichtung
    14
    Lichtstrahlen
    15,16
    Lichtstrahlen
    17
    optischer Sensor, Kamera
    18
    Lichtquelle
    19
    Lichtstrahlen

Claims (6)

  1. Verfahren zur Identifizierung von Gegenständen (2) mit Hilfe eines bildverarbeitenden Systems (1), wobei
    a) von den Gegenständen (2) mit Hilfe mindestens eines bildgebenden optischen Sensors (4;17) jeweils mindestens eine Auflicht- und eine Durchlichtmessung aus unterschiedlichen Richtungen vorgenommen wird;
    b) die von dem bildgebenden optischen Sensor (4,17) erzeugten Sensorsignale digitalisiert und die digitalen Signalwerte an eine elektronische Auswertevorrichtung (10) mit Bildspeicher (11) und Prozessor (12) weitergeleitet werden;
    c) aus den entsprechenden Bildsignalwerten die Transparenz der Gegenstände (2) und charakteristischer geometrischer Daten, wie Länge, Breite, Volumen, Knickwinkel etc., ermittelt werden und
    d) aus diesen Werten für die Gegenstände (2) charakteristische deformationsinvariante Größen bestimmt und mit den aufgrund einer Eichmessung bestimmten und gespeicherten Werten verglichen werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß zur Ermittlung der deformationsinvarianten Größen zusätzlich zur Transparenz und den charakteristischen geometrischen Daten auch die Farbe der Gegenstände (2) herangezogen wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Messungen mit einem einzigen optischen Sensor (4) durchgeführt werden.
  4. Vorrichtung zur Identifizierung von Gegenständen (2) mit Hilfe eines bildverarbeitenden Systems (1), wobei die Vorrichtung
    a) eine Lichtquelle (6) zur Beleuchtung des zu identifizierenden Gegenstandes (2), einen optischen Sensor (4) und einen Spiegel (7) umfaßt, die derart zueinander angeordnet sind, daß der beleuchtete Gegenstand (2) einerseits mit dem optischen Sensor (4) in Auflicht betrachtbar ist und andererseits die durch den Gegenstand (2) hindurchgehenden Lichtstrahlen der Lichtquelle (6) durch den Spiegel (7) derart reflektiert werden, daß sie ebenfalls in den optischen Sensor (4) gelangen, so daß eine Auflicht- und eine Durchlichtmessung des Gegenstandes (2) aus unterschiedlichen Richtungen ermöglicht wird, wobei es sich bei dem optischen Sensor (4) um eine Farbbildkamera handelt und
    b) eine elektronische Auswertevorrichtung (10) mit mindestens einem Bildspeicher (11) und Prozessor (12) zur Ermittlung der für die Gegenstände (2) charakteristischen deformationsinvarianten Parameter aus der Transparenz und charakteristischen geometrischen Daten der Gegenstände, und zum Vergleichen der charakteristischen deformationsinvarianten Parameter mit gespeicherten Werten enthält, die dem bildgebenden optischen Sensor (4,17) nachgeschaltet ist.
  5. Vorrichtung zur Identifizierung von Gegenständen (2) mit Hilfe eines bildverarbeitenden Systems (1), wobei die Vorrichtung
    a) mindestens eine Lichtquelle (6) zur Beleuchtung des zu identifizierenden Gegenstandes (2) und zwei optische Sensoren (4,17) umfaßt, die derart zueinander angeordnet sind, daß der beleuchtete Gegenstand (2) einerseits mit dem ersten optischen Sensor (4) in Auflicht betrachtbar ist und andererseits die durch den Gegenstand (2) hindurchgehenden Lichtstrahlen der Lichtquelle (6) in den zweiten optischen Sensor (17) gelangen, so daß eine Auflicht- und eine Durchlichtmessung des Gegenstandes (2) aus unterschiedlichen Richtungen ermöglicht wird und
    b) eine elektronische Auswertevorrichtung (10) mit mindestens einem Bildspeicher (11) und einem Prozessor (12) zur Ermittlung der für die Gegenstände (2) charakteristischen deformationsinvarianten Parameter aus der Transparenz und charakteristischen geometrischen Daten der Gegenstände, und zum Vergleichen der charakteristischen deformationsinvarianten Parameter mit gespeicherten Werten enthält, der den bildgebenden optischen Sensoren (4,17) nachgeschaltet ist.
  6. Vorrichtung nach Anspruch 5, dadurch gekennzeichnet, daß der erste optische Sensor (4) eine Farbbildkamera ist.
EP93109258A 1992-11-12 1993-06-09 Verfahren und Vorrichtung zur Identifizierung von Gegenständen Expired - Lifetime EP0597178B1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE4238193 1992-11-12
DE4238193A DE4238193A1 (de) 1992-11-12 1992-11-12 Verfahren und Vorrichtung zur Identifizierung von Gegenständen

Publications (3)

Publication Number Publication Date
EP0597178A2 EP0597178A2 (de) 1994-05-18
EP0597178A3 EP0597178A3 (de) 1995-02-22
EP0597178B1 true EP0597178B1 (de) 1997-10-15

Family

ID=6472712

Family Applications (1)

Application Number Title Priority Date Filing Date
EP93109258A Expired - Lifetime EP0597178B1 (de) 1992-11-12 1993-06-09 Verfahren und Vorrichtung zur Identifizierung von Gegenständen

Country Status (3)

Country Link
EP (1) EP0597178B1 (de)
DE (2) DE4238193A1 (de)
ES (1) ES2108780T3 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2747211B1 (fr) * 1996-04-04 1998-04-30 Saint Gobain Cinematique Dispositif de lecture de reliefs sur un recipient transparent
FR2752178B1 (fr) * 1996-08-06 1998-10-09 Vauche P Sa Machine de tri de bouteilles plastiques et procede mis en oeuvre par la machine
DE19648119C1 (de) * 1996-11-21 1998-08-20 Inst Chemo Biosensorik Vorrichtung zur simultanen Erfassung von Lichtstrahlen, die von transparenten oder opaken Objekten ausgehen
DE102017219407A1 (de) * 2017-10-27 2019-05-02 Robert Bosch Gmbh Erfassungsvorrichtung

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9014122D0 (en) * 1990-06-25 1990-08-15 Gersan Ets Shape sorting
JPH0799326B2 (ja) * 1986-08-30 1995-10-25 株式会社マキ製作所 球塊状物品の外観検査方法と装置
KR960011097B1 (ko) * 1988-08-11 1996-08-20 가부시기가이샤 사다께세이사꾸쇼 미립품위 판별장치

Also Published As

Publication number Publication date
DE4238193A1 (de) 1994-05-19
DE59307541D1 (de) 1997-11-20
EP0597178A3 (de) 1995-02-22
EP0597178A2 (de) 1994-05-18
ES2108780T3 (es) 1998-01-01

Similar Documents

Publication Publication Date Title
EP1027235B1 (de) Verfahren zum detektieren von auf einer windschutzscheibe befindlichen objekten sowie vorrichtung
DE10081029B4 (de) Bildbearbeitung zur Vorbereitung einer Texturnalyse
EP2643103B1 (de) Verfahren und einrichtung zur einzelkornsortierung von objekten aus schüttgütern
DE3505331C2 (de) Verfahren und Gerät zur Vermessung des bei der Eindringhärteprüfung in einer Probe hinterlassenen Eindrucks
DE19751862C2 (de) Verfahren und Vorrichtung zum Identifizieren und Sortieren von bandgeförderten Objekten
EP0691534A1 (de) Verfahren zur Ermittlung der Sichtweite, insbesondere für die Bewegung eines Kraftfahrzeuges
EP0995108A1 (de) Verfahren zur automatischen erkennung von oberflächenfehlern an rohkarosserien und vorrichtung zur durchführung des verfahrens
EP1332334A1 (de) Messeinrichtung zur berührungslosen messung von reifen
DE19520190A1 (de) Vorrichtung zur Überwachung eines Klebstoffaufbringungszustandes
EP0692089A1 (de) Produktionsnahe farbkontrolle mit bildgebenden sensoren
EP2028605A1 (de) Detektionsverfahren für symmetrische Muster
EP1531342B1 (de) Verfahren zur Erkennung von Fussgängern
DE69921021T2 (de) Verfahren zum Unterscheiden von Produkteinheiten und Vorrichtung dazu
EP0833270A2 (de) Verfahren und Vorrichtung zur Erfassung von auf potentiell grossflächigen Gegenständen aufgebrachten, optisch erfassbaren Informationen
DE102018008442A1 (de) Verfahren zur Wetter- und/oder Sichtweitenerkennung
DE102018132805A1 (de) Verfahren für eine verbesserte Objekterfassung
DE19607258A1 (de) Verfahren und Vorrichtung zur Detektion und/oder zur Größen- und/oder Lagebestimmung eines Objekts
EP0597178B1 (de) Verfahren und Vorrichtung zur Identifizierung von Gegenständen
DE10148060A1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE10317078A1 (de) Verfahren und Vorrichtung zur Analyse reflektierender Oberflächen
DE102007014475A1 (de) Bestimmung von Oberflächeneigenschaften
DE4337125A1 (de) Optische Inspektion von Schüttstrom-Produkten
DE19549545C2 (de) Vorrichtung zur Kontrolle des Vorhandenseins von Klebstoffauftragestellen auf einem Gegenstand
EP0647480A1 (de) Verfahren zum Ausscheiden von Mehrwegflaschen aus dem Mehrwegumlauf
DE19527446A1 (de) Verfahren und Vorrichtung zur optischen Oberflächenprüfung von Werkstücken

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): DE ES FR GB IT

PUAL Search report despatched

Free format text: ORIGINAL CODE: 0009013

AK Designated contracting states

Kind code of ref document: A3

Designated state(s): DE ES FR GB IT

17P Request for examination filed

Effective date: 19950202

17Q First examination report despatched

Effective date: 19960705

GRAG Despatch of communication of intention to grant

Free format text: ORIGINAL CODE: EPIDOS AGRA

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

ITF It: translation for a ep patent filed

Owner name: CALVANI SALVI E VERONELLI S.R.L.

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): DE ES FR GB IT

GBT Gb: translation of ep patent filed (gb section 77(6)(a)/1977)

Effective date: 19971016

REF Corresponds to:

Ref document number: 59307541

Country of ref document: DE

Date of ref document: 19971120

ET Fr: translation filed
REG Reference to a national code

Ref country code: ES

Ref legal event code: FG2A

Ref document number: 2108780

Country of ref document: ES

Kind code of ref document: T3

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 19980514

Year of fee payment: 6

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 19980518

Year of fee payment: 6

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: ES

Payment date: 19980616

Year of fee payment: 6

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed
PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 19990609

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 19990610

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: THE PATENT HAS BEEN ANNULLED BY A DECISION OF A NATIONAL AUTHORITY

Effective date: 19990630

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 19990609

REG Reference to a national code

Ref country code: FR

Ref legal event code: ST

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20010611

Year of fee payment: 9

REG Reference to a national code

Ref country code: ES

Ref legal event code: FD2A

Effective date: 20010503

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20030101

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES;WARNING: LAPSES OF ITALIAN PATENTS WITH EFFECTIVE DATE BEFORE 2007 MAY HAVE OCCURRED AT ANY TIME BEFORE 2007. THE CORRECT EFFECTIVE DATE MAY BE DIFFERENT FROM THE ONE RECORDED.

Effective date: 20050609