EP0597178A2 - Verfahren und Vorrichtung zur Identifizierung von Gegenständen - Google Patents

Verfahren und Vorrichtung zur Identifizierung von Gegenständen Download PDF

Info

Publication number
EP0597178A2
EP0597178A2 EP93109258A EP93109258A EP0597178A2 EP 0597178 A2 EP0597178 A2 EP 0597178A2 EP 93109258 A EP93109258 A EP 93109258A EP 93109258 A EP93109258 A EP 93109258A EP 0597178 A2 EP0597178 A2 EP 0597178A2
Authority
EP
European Patent Office
Prior art keywords
optical sensor
objects
image
determined
deformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP93109258A
Other languages
English (en)
French (fr)
Other versions
EP0597178A3 (de
EP0597178B1 (de
Inventor
Klaus-Dieter Dr. Kuhnert
Joachim Dr. Beeck
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tzn Forschungs- und Entwicklungszentrum Unterluess GmbH
Original Assignee
Tzn Forschungs- und Entwicklungszentrum Unterluess GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tzn Forschungs- und Entwicklungszentrum Unterluess GmbH filed Critical Tzn Forschungs- und Entwicklungszentrum Unterluess GmbH
Publication of EP0597178A2 publication Critical patent/EP0597178A2/de
Publication of EP0597178A3 publication Critical patent/EP0597178A3/de
Application granted granted Critical
Publication of EP0597178B1 publication Critical patent/EP0597178B1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/04Sorting according to size
    • B07C5/10Sorting according to size measured by light-responsive means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3422Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras

Definitions

  • the invention relates to a method for identifying objects as defined in the preamble of claim 1.
  • the invention further relates to devices for performing such a method.
  • DE 35200486 C2 discloses a method for sorting hollow plastic articles, in particular household waste, with the aid of an image recognition system in which the objects to be sorted are recorded with a camera, temporarily stored and analyzed for shape and color by comparison with corresponding stored patterns.
  • the object of the present invention is to further develop a method and devices of the type mentioned at the outset in such a way that deformed and soiled objects can also be recognized in a short time (considerably less than 1 second).
  • Claims 4 to 6 disclose particularly advantageous devices for carrying out the method according to the invention.
  • the invention is therefore essentially based on the idea of analyzing the recorded images for deformation-invariant parameters characteristic of the respective object type by means of geometry and transparency measurements and then concluding the object by comparing it with corresponding stored values.
  • the deformation-invariant parameters are determined using a calibration process, which can be different for each type of object (e.g. from the approximately determined can volume of an aluminum can and the angle that the base has relative to the longitudinal axis of the can, to the diameter of the (round) base of the Can be closed, since the bases of aluminum cans practically do not deform).
  • the diameter of the can base and any additional information e.g. color and transparency then define the object to be sorted relatively well.
  • the object to be identified is detected from two (or more), possibly orthogonal directions with different lighting, to transparency and the various geometric data such as length, width, angle between the bottom and side wall, bottom diameter, articulation angle or To get volume.
  • 1 denotes an image processing system with which objects 2, which are conveyed, for example, on an assembly line 3, are recognized. After the objects 2 have been identified, they can then be sorted (for the sorting, see also the above-mentioned DE 35204866 C2).
  • the image processing system 1 essentially consists of an optical sensor 4, e.g. a color image line camera with downstream electronics 5, a light source 6 and a mirror 7. Light source 6 and mirror 7 are arranged such that the objects 2 to be identified are moved between them.
  • the electronics 5 contains, for example, an amplifier 8, which is followed by an analog / digital converter 9 and an evaluation device 10.
  • the evaluation device 10 which contains an image memory 11 and a processor 12, is connected to a display device 13.
  • the optical sensor 4 looks from above onto the object 2 illuminated with incident light (the corresponding light source has been omitted in FIG. 1 for the sake of a better overview), so that the light beams 14 scattered and reflected on the object 2 reach the sensor 4.
  • the object 2 is laterally illuminated with the light source 6, so that the corresponding light beams 15 passing through the object 2 are faded into the image field of the sensor 4 via the mirrors 7 as light beams 16.
  • the actual real-time detection is preceded by the calibration method. This serves to record the systematic influences of the deformation and fracture behavior on the shape, color and transparency of an object 2, whereby a representative sample of deformed objects 2 must be available for the calibration.
  • the objects 2 are sorted manually according to their degree of deformation and object type and then the variables also determined in real time operation (see below) are calculated.
  • the association between the degree of deformation or object type and the measured parameters is stored in the evaluation device 10.
  • the resulting assignment tables can be interpolated in order to be saved as a closed function to save memory.
  • the measured parameter values are used in the reversing functions in order to determine the degree of deformation and the object type.
  • the gray value edges are determined in the first step by suitable filtering in the evaluation device 10.
  • the outer contour and edges lying within the contour are then chained separately.
  • a hard-wired arithmetic unit of the evaluation device 10 can be used to accelerate this step.
  • the signals originating from the color camera 4 are transformed into an HSI representation and then the color edges are filtered out and concatenated. This reduces the video data in real time to its essential proportions (gray value and color edges).
  • the individual edge lists are then distributed via a first communication network to microcomputers contained in the evaluation device, each of which processes only a few such lists.
  • At least the following sizes are calculated for each edge in the image: color value, saturation, enclosed area, moments of the enclosed area, average curvature, length, rotational position, relative position to the outer contour.
  • edge-related sizes are calculated as required, or they are converted (by connecting the start and end points) into closed edges so that the area-related sizes can also be calculated.
  • the volume within the outer contour is approximately determined by multiplying the base depth by the height determined by the side view.
  • the transparency is determined from the transmitted light portion of the side lighting.
  • the ascertained variables are fed via a further communication network, which does not necessarily have to be physically different from the first, to a central evaluation processor 12 of the evaluation device 10, which calculates the reversing functions determined during the calibration and thus carries out the detection.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und Vorrichtungen zur Identifizierung von Gegenständen (2) mit Hilfe eines bildverarbeitenden Systems (1) mit mindestens einem optischen Sensor (4,17) und einer elektronischen Auswertevorrichtung (10) mit Bildspeicher (11) und Prozessor (12). Um auch deformierte und verschmutzte Gegenstände (2) in kurzer Zeit (wesentlich kürzer als 1 Sekunde) zu erkennen, schlägt die Erfindung vor, die mit dem optischen Sensor (4,17) aufgenommenen Bilder auf für den jeweiligen Gegenstandstyp charakteristische deformationsinvariante Parameter zu analysieren und dann durch Vergleich mit entsprechenden gespeicherten Werten auf den Gegenstand zu schließen. Die deformationsinvarianten Parameter werden vorher mit Hilfe eines Eichprozesses, der für jeden Gegenstandstyp unterschiedlich sein kann, bestimmt. Zur Ermittlung der verschiedenen Geometriedaten des zu identifizierenden Gegenstandes muß dieser aus zwei (oder mehr), möglichst orthogonalen Richtungen bei unterschiedlicher Beleuchtung erfaßt werden. <IMAGE>

Description

  • Die Erfindung betrifft ein Verfahren zur Identifizierung von Gegenständen, wie es im Oberbegriff des Anspruchs 1 näher definiert ist. Die Erfindung bezieht sich ferner auf Vorrichtungen zur Ausführung eines derartigen Verfahrens.
  • Aus der DE 35200486 C2 ist ein Verfahren zur Sortierung von Kunststoffhohlkörpern, insbesondere Hausmüll, mit Hilfe eines Bilderkennungssystems bekannt, bei dem die zu sortierenden Gegenstände mit einer Kamera aufgenommen, zwischengespeichert und nach Form und Farbe durch Vergleich mit entsprechenden gespeicherten Mustern analysiert werden.
  • Nachteilig bei diesem bekannten Verfahren ist vor allem, daß bei einem Vergleich der gespeicherten Muster und der zu identifizierenden Gegenstände letztere häufig fehlerkannt werden, wenn diese deformiert und/oder stark verschmutzt sind.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren sowie Vorrichtungen der eingangs erwähnten Art derart weiterzuentwickeln, daß auch deformierte und verschmutzte Gegenstände in kurzer Zeit (wesentlich kürzer als 1 Sekunde) erkannt werden.
  • Diese Aufgabe wird erfindungsgemäß durch die Merkmale des kennzeichnenden Teils des Anspruchs 1 gelöst.
  • Weitere besonders vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Merkmalen der Unteransprüche.
  • Die Ansprüche 4 bis 6 offenbaren besonders vorteilhafte Vorrichtungen zur Durchführung des erfindungsgemäßen Verfahrens.
  • Der Erfindung liegt also im wesentlichen der Gedanke zugrunde, die aufgenommenen Bilder auf für den jeweiligen Gegenstandstyp charakteristische deformationsinvariante Parameter durch Geometrie- und Transparenzmessungen zu analysieren und dann durch Vergleich mit entsprechenden gespeicherten Werten auf den Gegenstand zu schließen.
  • Die deformationsinvarianten Parameter werden über einen Eichprozeß, der für jeden Gegenstandstyp unterschiedlich sein kann, bestimmt (z.B. kann aus dem näherungsweise ermittelten Dosenvolumen einer Aluminiumdose und dem Winkel, den der Boden relativ zur Längsachse der Dose besitzt, auf den Durchmesser des (runden) Bodens der Dose geschlossen werden, da sich bei Alu-Dosen die Böden praktisch nicht deformieren). Der Durchmesser des Dosenbodens und eventuell ergänzender Informationen (z.B. Farbe und Transparenz) definieren dann relativ gut den zu sortierenden Gegenstand.
  • Für die erfindungsgemäße Vorrichtung ist wesentlich, daß der zu identifizierende Gegenstand aus zwei (oder mehr), möglichst orthogonalen Richtungen bei unterschiedlicher Beleuchtung erfaßt wird, um Transparenz und die diversen Geometriedaten, wie Länge, Breite, Winkel zwischen Boden und Seitenwand, Bodendurchmesser, Knickwinkel oder Volumen zu erhalten.
  • Weitere Einzelheiten und Vorteile der Erfindung ergeben sich aus den nachfolgend mit Hilfe von Figuren beschriebenen Ausführungsbeispielen. Es zeigen:
    • Fig.1 schematisch ein erstes Ausführungsbeispiel der Erfindung mit nur einem optischen Sensor; und
    • Fig. 2 ein weiteres Ausführungsbeispiel mit zwei optischen Sensoren.
  • In Fig.1 ist mit 1 ein bildverarbeitendes System bezeichnet, mit dem Gegenstände 2, die beispielsweise auf einem Fließband 3 befördert werden, erkannt werden. Nach der Identifizierung der Gegenstände 2 können diese dann sortiert werden (zur Durchführung der Sortierung vgl. auch die obengenannte DE 35204866 C2).
  • Das bildverarbeitende System 1 besteht im wesentlichen aus einem optischen Sensor 4, z.B. einer Farbbild-Zeilenkamera mit nachgeschalteter Elektronik 5, einer Lichtquelle 6 und einem Spiegel 7. Lichtquelle 6 und Spiegel 7 sind derart angeordnet, daß zwischen ihnen die zu identifizierenden Gegenstände 2 hindurchbewegt werden.
  • Die Elektronik 5 enthält beispielsweise einen Verstärker 8, dem ein Analog-/Digitalwandler 9 und eine Auswertevorrichtung 10 nachgeschaltet ist. Die Auswertevorrichtung 10, die einen Bildspeicher 11 und einen Prozessor 12 enthält, ist mit einer Anzeigenvorrichtung 13 verbunden.
  • Der optische Sensor 4 schaut von oben auf den mit Auflicht beleuchteten Gegenstand 2 (die entsprechende Lichtquelle wurde in Fig.1 aus Gründen einer besseren Übersicht weggelassen), so daß die an dem Gegenstand 2 gestreuten und reflektierten Lichtstrahlen 14 in den Sensor 4 gelangen. Gleichzeitig wird der Gegenstand 2 seitlich mit der Lichtquelle 6 angestrahlt, so daß die entsprechenden durch den Gegenstand 2 gelangenden Lichtstrahlen 15 über die Spiegel 7 als Lichtstrahlen 16 in das Bildfeld des Sensors 4 eingeblendet werden.
  • Im folgenden wird näher auf die Funktionsweise der erfindungsgemäßen Vorrichtung eingegangen:
  • Eichung
  • Der eigentlichen Echtzeiterkennung ist das Eichverfahren vorgeschaltet. Dieses dient der Erfassung der systematischen Einflüsse des Deformations- und Bruchverhaltens auf die Form, Farbe und Transparenz eines Gegenstandes 2, wobei eine repräsentative Stichprobe von deformierten Gegenständen 2 für die Eichung vorliegen muß.
  • Generell besitzen alle zu untersuchenden Gegenstände 2 ein spezifisches Deformations- und Bruchverhalten. D.h., Böden, Deckel und durch Versteifungsrippen oder Waben gestärkte Oberflächenteile deformieren sich wenig, wohingegen an Knickkanten oder schwach gewölbten gleichmäßigen Flächen zuerst und gehäuft Deformationen auftreten. Ebenso bestimmt die Elastizität des Materials den Verformungsverlauf. So entstehen bei verschiedenen Kunststoffen (z.B. Polypropylen bzw. Polyethylen) gerade bzw. kurvige Risse beim Bruch.
  • Die Gegenstände 2 werden manuell gemäß ihrem Deformationsgrad und Objekttyp sortiert und dann die auch im Echtzeitbetrieb ermittelten Größen (vergleiche unten) berechnet. Die Zuordnung zwischen Deformationsgrad bzw. Objekttyp und den gemessenen Parametern werden in der Auswertevorrichtung 10 gespeichert. Die entstehenden Zuordnungstabellen können interpoliert werden, um zur Speicherersparnis als geschlossene Funktion abgelegt zu werden. In der Echtzeitphase werden in die Umkehrfunktionen die gemessenen Parameterwerte eingesetzt, um den Deformationsgrad und den Objekttyp zu bestimmen.
  • Echtzeitauswertung
  • Alle Größen der Echtzeitauswertung werden sowohl für die Aufals auch für die Seitenansicht jeden Gegenstandes 2 berechnet. Beide Ansichten können mit der in Fig.1 dargestellten Sensoranordnung gleichzeitig gewonnen werden.
  • Nach der Bildaufnahme werden im ersten Schritt durch passende Filterung in der Auswertevorrichtung 10 die Grauwertkanten bestimmt. Die Außenkontur und innerhalb der Kontur liegende Kanten werden dann getrennt verkettet. Zur Beschleunigung dieses Schrittes kann ein festverdrahtetes Rechenwerk der Auswertevorrichtung 10 verwendet werden.
  • Mit einem weiteren Rechenwerk der Auswertevorrichtung 10 werden die von der Farbkamera 4 stammenden Signale in eine HSI Darstellung transformiert und dann die Farbkanten ausgefiltert und verkettet. Damit werden die Videodaten in Echtzeit auf ihre wesentlichen Anteile (Grauwert- und Farbkanten) reduziert.
  • Die einzelnen Kantenlisten werden dann über ein erstes Kommunikationsnetzwerk an in der Auswertevorrichtung enthaltene Mikrorechner verteilt, von denen jeder nur wenige solcher Listen bearbeitet.
  • Für jede Kante im Bild werden mindestens die folgenden Größen berechnet: Farbwert, Sättigung, eingeschlossene Fläche, Momente der eingeschlossenen Fläche, mittlere Krümmung, Länge, Drehlage, relative Lage zur Außenkontur. Bei offenen Kantenzügen werden je nach Bedarf nur die kantenbezogenen Größen berechnet oder sie werden (durch Verbindung von Anfangs- und Endpunkt) in geschlossene Kantenzüge überführt, um auch die flächenbezogenen Größen berechnen zu können.
  • Innerhalb der Außenkontur wird näherungsweise das Volumen bestimmt durch Multiplikation der Grundflächentiefe mit der durch die Seitenansicht ermittelten Höhe. Die Transparenz wird aus dem durchgelassenen Lichtanteil der Seitenbeleuchtung bestimmt.
  • Die ermittelten Größen werden über ein weiteres Kommunikationsnetzwerk, das nicht notwendigerweise physikalisch vom ersten verschieden sein muß, einem zentralen Auswerteprozessor 12 der Auswertevorrichtung 10 zugeleitet, der die bei der Eichung bestimmten Umkehrfunktionen berechnet und damit die Erkennung durchführt.
  • Anstatt die Durchlicht- und Auflichtmessung mit nur einem optischen Sensor 4 durchzuführen, kann auch eine Vorrichtung mit zwei getrennten Sensoren verwendet werden. Dieses ist in Fig.2 dargestellt, wobei der zu identifizierende Gegenstand 2 aus Gründen einer besseren Übersicht weggelassen ist:
    • Die Auflichtmessung erfolgt wiederum mit der Zeilenkamera 4. Für die Durchlichtmessung ist hingegen statt des in Fig.1 vorgesehenen Spiegels ein separater optischer Sensor (Kamera) 17 vorgesehen. Die Sensorsignale werden einer Elektronik zugeführt, die im wesentlichen der in Fig.1 mit 5 bezeichneten Elektronik entspricht. Lediglich die analogen Eingangssignale können separat verstärkt und in entsprechende digitale Werte umgewandelt werden. Die weitere Bearbeitung der Signale durch die Auswertevorrichtung 10 ist dann identisch wie oben beschrieben.
    Bezugszeichenliste
    • 1 bildverarbeitendes System
    • 2 Gegenstand
    • 3 Fließband
    • 4 optischer Sensor, Kamera
    • 5 Elektronik
    • 6 Lichtquelle
    • 7 Spiegel
    • 8 Verstärker
    • 9 Analog-/Digitalwandler
    • 10 Auswertevorrichtung
    • 11 Bildspeicher
    • 12 Prozessor
    • 13 Anzeigenvorrichtung
    • 14 Lichtstrahlen
    • 15,16 Lichtstrahlen
    • 17 optischer Sensor, Kamera
    • 18 Lichtquelle
    • 19 Lichtstrahlen

Claims (6)

1. Verfahren zur Identifizierung von Gegenständen (2) mit Hilfe eines bildverarbeitenden Systems (1), wobei die Gegenstände (2) durch mindestens einen bildgebenden optischen Sensor (4,17) erfaßt, die entsprechenden Sensorsignale digitalisiert und die digitalen Signalwerte an eine elektronische Auswertevorrichtung (10) mit Bildspeicher (11) und Prozessor (12) weitergeleitet werden, und wobei die gemessenen und weiterverarbeiteten Bildsignale mit entsprechenden gespeicherten Signalwerten verglichen werden, dadurch gekennzeichnet, daß von den Gegenständen (2) jeweils mindestens eine Auflicht- und eine Durchlichtmessung aus unterschiedlichen Richtungen vorgenommen wird, daß aus den entsprechenden Bildsignalwerten die Transparenz der Gegenstände (2) und charakteristische geometrische Daten, wie Länge, Breite, Volumen, Knickwinkel etc., ermittelt werden, und daß aus diesen Werten für die Gegenstände (2) charakteristische deformationsinvariante Größen bestimmt und mit den aufgrund einer Eichmessung bestimmten und gespeicherten Werten verglichen werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß zur Ermittlung der deformationsinvarianten Größen zusätzlich zur Transparenz und den charakteristischen geometrischen Daten auch die Farbe der Gegenstände (2) herangezogen wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Messungen mit einem einzigen optischen Sensor (2) durchgeführt werden.
4. Vorrichtung zur Durchführung des Verfahrens nach einem oder mehreren der Ansprüche 1 bis 3, gekennzeichnet durch die Merkmale:
a) das bildverarbeitende System (1) weist lediglich einen optischen Sensor (4) auf;
b) als optischer Sensor (4) ist eine Farbbildkamera vorgesehen, die den Gegenstand (2) in Auflicht betrachtet;
c) es ist eine Lichtquelle (6) und ein Spiegel (7) vorgesehen, zwischen denen sich der zu identifizierende Gegenstand (2) befindet;
d) der Spiegel (7) ist in Bezug auf den optischen Sensor (4) derart angeordnet, daß die durch den Gegenstand (2) hindurchgehenden Lichtstrahlen (15) der Lichtquelle (6) in das Bildfeld des optischen Sensors (4) eingeblendet werden.
5. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß zur Auflichtmessung ein erster optischer Sensor (4) und zur Durchlichtmessung ein zweiter optischer Sensor (17) vorgesehen ist, der etwa senkrecht zum ersten optischen Sensor (4) angeordnet ist, und daß sich der zu bestimmende Gegenstand (2) zwischen dem zweiten optischen Sensor (17) und der Lichtquelle (6) befindet.
6. Vorrichtung nach Anspruch 5, dadurch gekennzeichnet, daß der erste optische Sensor (4) eine Farbbildkamera ist.
EP93109258A 1992-11-12 1993-06-09 Verfahren und Vorrichtung zur Identifizierung von Gegenständen Expired - Lifetime EP0597178B1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE4238193 1992-11-12
DE4238193A DE4238193A1 (de) 1992-11-12 1992-11-12 Verfahren und Vorrichtung zur Identifizierung von Gegenständen

Publications (3)

Publication Number Publication Date
EP0597178A2 true EP0597178A2 (de) 1994-05-18
EP0597178A3 EP0597178A3 (de) 1995-02-22
EP0597178B1 EP0597178B1 (de) 1997-10-15

Family

ID=6472712

Family Applications (1)

Application Number Title Priority Date Filing Date
EP93109258A Expired - Lifetime EP0597178B1 (de) 1992-11-12 1993-06-09 Verfahren und Vorrichtung zur Identifizierung von Gegenständen

Country Status (3)

Country Link
EP (1) EP0597178B1 (de)
DE (2) DE4238193A1 (de)
ES (1) ES2108780T3 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2747211A1 (fr) * 1996-04-04 1997-10-10 Saint Gobain Cinematique Dispositif de lecture de reliefs sur un recipient transparent
FR2752178A1 (fr) * 1996-08-06 1998-02-13 Vauche P Sa Machine de tri de bouteilles plastiques et procede mis en oeuvre par la machine
WO2019081751A1 (de) * 2017-10-27 2019-05-02 Robert Bosch Gmbh Erfassungsvorrichtung und verfahren zu einer erfassung von multiplen objektdatensätzen zumindest eines objekts

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19648119C1 (de) * 1996-11-21 1998-08-20 Inst Chemo Biosensorik Vorrichtung zur simultanen Erfassung von Lichtstrahlen, die von transparenten oder opaken Objekten ausgehen

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0258810A2 (de) * 1986-08-30 1988-03-09 Kabushiki Kaisha Maki Seisakusho Verfahren und Vorrichtung zur genauen Untersuchung des Aussehens von Artikeln
WO1992000149A1 (en) * 1990-06-25 1992-01-09 Gersan Establishment Shape sorting
US5135114A (en) * 1988-08-11 1992-08-04 Satake Engineering Co., Ltd. Apparatus for evaluating the grade of rice grains

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0258810A2 (de) * 1986-08-30 1988-03-09 Kabushiki Kaisha Maki Seisakusho Verfahren und Vorrichtung zur genauen Untersuchung des Aussehens von Artikeln
US5135114A (en) * 1988-08-11 1992-08-04 Satake Engineering Co., Ltd. Apparatus for evaluating the grade of rice grains
WO1992000149A1 (en) * 1990-06-25 1992-01-09 Gersan Establishment Shape sorting

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2747211A1 (fr) * 1996-04-04 1997-10-10 Saint Gobain Cinematique Dispositif de lecture de reliefs sur un recipient transparent
WO1997037779A1 (fr) * 1996-04-04 1997-10-16 Saint-Gobain Cinematique Et Controle Dispositif de lecture de reliefs sur un recipient transparent
US6028302A (en) * 1996-04-04 2000-02-22 Saint-Gobain Cinematique Et Controle Transparent container relief indiciae scanning system
FR2752178A1 (fr) * 1996-08-06 1998-02-13 Vauche P Sa Machine de tri de bouteilles plastiques et procede mis en oeuvre par la machine
EP0824042A1 (de) * 1996-08-06 1998-02-18 P. Vauche S.A. Einrichtung zum Sortieren von Kunststoffflaschen und mit dieser durchgeführtes Verfahren
WO2019081751A1 (de) * 2017-10-27 2019-05-02 Robert Bosch Gmbh Erfassungsvorrichtung und verfahren zu einer erfassung von multiplen objektdatensätzen zumindest eines objekts
WO2019081737A1 (de) * 2017-10-27 2019-05-02 Robert Bosch Gmbh Erfassungsvorrichtung und verfahren zu einer erfassung von multiplen objektdatensätzen zumindest eines objekts
CN111511478A (zh) * 2017-10-27 2020-08-07 罗伯特·博世有限公司 用于检测至少一个对象的多重对象数据记录的检测设备和方法

Also Published As

Publication number Publication date
EP0597178A3 (de) 1995-02-22
EP0597178B1 (de) 1997-10-15
DE59307541D1 (de) 1997-11-20
ES2108780T3 (es) 1998-01-01
DE4238193A1 (de) 1994-05-19

Similar Documents

Publication Publication Date Title
DE3505331C2 (de) Verfahren und Gerät zur Vermessung des bei der Eindringhärteprüfung in einer Probe hinterlassenen Eindrucks
DE69811667T2 (de) Vorrichtung und verfahren zur erkennung und bestimmung der position eines tierteils
EP1030740B1 (de) Verfahren und vorrichtung zum identifizieren und sortieren von bandgeförderten objekten
DE10026586B4 (de) Objekterfassungssystem
DE69515646T2 (de) Verfahren und Vorrichtung zum Erfassen von Fehlern in Textilbahnen und dergleichen
DE3012559C2 (de)
DE60307967T2 (de) Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes
WO2000063681A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
WO1994023276A1 (de) Produktionsnahe farbkontrolle mit bildgebenden sensoren
EP1531342B1 (de) Verfahren zur Erkennung von Fussgängern
EP1298012B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
EP0597178A2 (de) Verfahren und Vorrichtung zur Identifizierung von Gegenständen
DE10063756A1 (de) Verfahren und Vorrichtung zum Kompensieren einer Dejustage einer Bilderzeugungsvorrichtung
DE3113440A1 (de) &#34;verfahren zur ueberpruefung von gleichartigen objekten auf fehler&#34;
DE3617774A1 (de) Datenverarbeitungsvorrichtung fuer serielle daten
DE4324800C2 (de) Vorrichtung zur Bestimmung von Fehlern von Oberflächen hoher Güte
DE102007014475A1 (de) Bestimmung von Oberflächeneigenschaften
EP0647480B1 (de) Verfahren zum Ausscheiden von Mehrwegflaschen aus dem Mehrwegumlauf
EP1111334A1 (de) Verfahren und Anordnung zum Lokalisieren von zylinderförmigen Objekten
DE102008049859B4 (de) Verfahren und Prüfsystem zur optischen Prüfung einer Kontur eines Prüfobjekts
EP3798570B1 (de) Verfahren zur kalibrierung eines optischen messsystems, optisches messsystem und kalibrierobjekt für ein optisches messsystem
DE19527446A1 (de) Verfahren und Vorrichtung zur optischen Oberflächenprüfung von Werkstücken
DE3341844C2 (de)
DE102018122092A1 (de) Verfahren zum Bestimmen zumindest eines Positionsparameters eines Objekts in einer Umgebung eines Kraftfahrzeugs, Computerprogrammprodukt, Fahrerassistenzsystem und Kraftfahrzeug
WO2023084116A1 (de) Verfahren und vorrichtung zur klassifizierung von objekten, die auf einer oberfläche liegend gefördert werden

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): DE ES FR GB IT

PUAL Search report despatched

Free format text: ORIGINAL CODE: 0009013

AK Designated contracting states

Kind code of ref document: A3

Designated state(s): DE ES FR GB IT

17P Request for examination filed

Effective date: 19950202

17Q First examination report despatched

Effective date: 19960705

GRAG Despatch of communication of intention to grant

Free format text: ORIGINAL CODE: EPIDOS AGRA

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

ITF It: translation for a ep patent filed
GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): DE ES FR GB IT

GBT Gb: translation of ep patent filed (gb section 77(6)(a)/1977)

Effective date: 19971016

REF Corresponds to:

Ref document number: 59307541

Country of ref document: DE

Date of ref document: 19971120

ET Fr: translation filed
REG Reference to a national code

Ref country code: ES

Ref legal event code: FG2A

Ref document number: 2108780

Country of ref document: ES

Kind code of ref document: T3

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 19980514

Year of fee payment: 6

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 19980518

Year of fee payment: 6

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: ES

Payment date: 19980616

Year of fee payment: 6

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed
PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 19990609

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 19990610

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: THE PATENT HAS BEEN ANNULLED BY A DECISION OF A NATIONAL AUTHORITY

Effective date: 19990630

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 19990609

REG Reference to a national code

Ref country code: FR

Ref legal event code: ST

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20010611

Year of fee payment: 9

REG Reference to a national code

Ref country code: ES

Ref legal event code: FD2A

Effective date: 20010503

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20030101

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES;WARNING: LAPSES OF ITALIAN PATENTS WITH EFFECTIVE DATE BEFORE 2007 MAY HAVE OCCURRED AT ANY TIME BEFORE 2007. THE CORRECT EFFECTIVE DATE MAY BE DIFFERENT FROM THE ONE RECORDED.

Effective date: 20050609