CH684579A5 - Verfahren zum Bestimmen der Orientierung von in einer Reihe angeordneten Gegenständen. - Google Patents
Verfahren zum Bestimmen der Orientierung von in einer Reihe angeordneten Gegenständen. Download PDFInfo
- Publication number
- CH684579A5 CH684579A5 CH2723/91A CH272391A CH684579A5 CH 684579 A5 CH684579 A5 CH 684579A5 CH 2723/91 A CH2723/91 A CH 2723/91A CH 272391 A CH272391 A CH 272391A CH 684579 A5 CH684579 A5 CH 684579A5
- Authority
- CH
- Switzerland
- Prior art keywords
- orientation
- data
- orientations
- information data
- windows
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Geophysics And Detection Of Objects (AREA)
Description
1
CH 684 579 A5
2
Beschreibung
Diese Erfindung bezieht sich auf ein Verfahren zum Bestimmen der Orientierung von in einer Reihe angeordneten Gegenständen auf einer Fördereinrichtung mit einer Einstell- und einer Arbeitsphase durch Erfassen von Gegenstandsorientierung mit einer Anordnung von optischen Sensoren, die so wirken, dass sie Informationsdaten bereitstellen, die sich auf ein Muster von Gegenstandskantenpunkten beziehen über aufeinanderfolgende, lineare Abtastungen des Gegenstandes, wodurch Informationsdaten bereitgestellt werden.
In Turchek et al, US-P 4 784 493 werden ein Gerät und ein Verfahren offengelegt zum Erkennen eines Gegenstandes und seiner Orientierung auf einer Fördereinrichtung. Um die Orientierung eines Arbeitsgegenstandes nL zu bestimmen, werden eine Anzahl möglicher Orientierungen zuerst aufgenommen als ein vorläufiges Verfahren in einem Speicher. Alle in dem Speicher gespeicherten Daten für jede Orientierung werden dann verglichen mit Daten, die von dem Arbeitsgegenstand abgetastet werden, wenn er sich entlang eines Förderpfades bewegt. Die Orientierung des Arbeitsgegenstandes wird bestimmt durch Angleichen der verglichenen Daten.
Die benötigte Zeit zum Durchführen derartiger Gegenstandsorientierungsbestimmungen beschränkt die Anzahl der Gegenstände, die in einer Zeiteinheit verarbeitet werden können. Eine derartige Beschränkung kann der limitierende Faktor einer Produktionslinie bzw. Fertigungsstrasse sein. Frühere Anstrengungen zum Reduzieren der Datenverarbeitungszeit haben menschliche Bedienungsbeteiligung beinhaltet durch manuelles Auswählen von Teilbereichen entlang der Gegenstandslänge, welche untersucht werden soll unter Verwendung einer Computertastatur, Maus oder dergleichen. Dies benötigt ein Ausbildungsniveau, welches nicht immer in der Arbeitswelt vorhanden ist und Wiederauswahlverfahren müssen unternommen werden jedesmal, wenn es einen Wechsel bei dem gerade verarbeiteten Gegenstand gibt.
Es ist ein Ziel dieser Erfindung, die Verarbeitungszeit zum Bestimmen von Gegenstandsorientierung zu verringern unter Verwendung nur eines Teiles des Gegenstandes zum Vergleich mit gespeicherten Daten, wobei der Teil automatisch ausgewählt wird, ohne eine ausgebildete Bedienperson zu benötigen.
Ein anderes Ziel ist das Bereitstellen eines neuen Verfahrens des Auswählens einiger weniger mit Zwischenraum angeordneter Fenster entlang der Länge des Gegenstandes, welche wirksam sind beim Durchführen der Orientierungsbestimmungen.
Um diese Ziele zu erreichen, ist die Erfindung wie im Anspruch 1 beschrieben definiert.
Wo die Gegenstände mehrere mögliche Orientierungen haben, kann das Einstellverfahren die gespeicherten Informationsorientierungsdaten für jede Orientierung mit jeder anderen möglichen Orientierung miteinbeziehen, so dass mehrere Fenster bestimmt werden, eines für jeden unterschiedlichen Vergleich. Im Falle von vier möglichen Orientierungen gibt es drei Fenster für jede der vier Orientierungen, was zu zwölf Fenstern führen kann, falls jedes Fenster bei einer unterschiedlichen longitudina-len Position entlang des Gegenstandes ist. Wenn ein Arbeitsgegenstand im Echtzeitverfahren untersucht werden soll, kann die Orientierung durch Untersuchen der Daten nur an den Fensterpositionen bestimmt, und durch eine gesamte Punktzahl, die die geringste ist, erkannt werden.
Weitere Vorteile, und Anwendungsmöglichkeiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung vom Ausführungsbeispielen in Verbindung mit der Zeichnung.
Fig. 1 ist eine Bildansicht eines Fördersystems mit einer Gegenstandsablenkvorrichtung;
Fig. 2 ist ein Flussdiagramm eines Verfahrens zum Erzeugen von Fenstern; und
Fig. 3 ist eine Bildansicht von vier möglichen Orientierungen des Gegenstandes, dessen Orientierung identifiziert werden soll.
Die vorliegende Erfindung wird beschrieben als ein Merkmal, das angepasst ist zur Verwendung mit dem Gegenstands- oder Teileerkennungs- und Orientierungssystem, welches in Turchek et al, US-P 4 784 493 offengelegt ist. Die allgemeine Umgebung der Reorientierungsvorrichtung ist in Fig. 1 schematisch gezeigt. Das Reorientierungssystem kann im allgemeinen einen von einem Rahmen gestützten kontinuierlichen Riemen 12 aufweisen, welcher um eine Antriebswalze 14 und eine Leerlaufwalze 16 mitgeführt wird. Arbeitsstücke, wie z.B. 18, 20 und 22 sind ähnliche Teile mit drei verschiedenen Orientierungen. Die einfachste Form einer Reorientierungsvorrichtung ist in dieser Figur gezeigt, wobei es sich um eine mit einem Schrittmotor angetriebene einachsige (y-Achse) Reorientierungsvorrichtung handelt mit einer unteren Kammer 26, die um 180° rotiert werden kann. Andere Orientierungsvorrichtungen einschliesslich Mehr-Positionen-Reorientierungsvorrichtungen sind im Stand der Technik bekannt und können mit der vorliegenden Erfindung vorteilhaft verwendet werden.
Neben dem kontinuierlichen Riemen 12 ist an einer seiner Kanten ein Zaun 28, der entlang der Länge des Riemens verläuft, jedoch mit mehreren Unterbrechungen darin. Auf der Ankunftsseite der Reorientierungseinrichtung 24 ist eine erste Unterbrechung in dem Zaun, die einen Erkennungssensor 30 beherbergt, welcher eine 16x1 Anordnung von vertikalen gestapelten faseroptischen Elementen sein kann, die an 16 individuelle Fototransistoren angeschlossen sind, wobei jeder einen fest verdrahteten Anschluss an eine Videosteuerungsvorrichtung oder einen Mikroprozessoreingangsan-schluss 32 hat. Eine Infrarotlichtquelle 34, welche aus zu unterschiedlichen Winkeln eingestellten Doppel-Infrarot LEDs besteht, befindet sich direkt auf der anderen Seite des Riemens gegenüber dem Erkennungssensor 30 und stellt die notwendige Beleuchtung bereit, um die Fototransistoren zu schalten, die jeder den 16 faseroptischen Fäden zugeordnet sind, abhängend davon, ob der einzelne Faden beleuchtet ist oder durch den Arbeitsgegenstand beschattet ist.
5
10
15
20
25
30
35
40
45
50
55
60
65
2
3
CH 684 579 A5
4
Wahlweise kann die lineare Anordnung von Sensoren eine Säule von CCD-Einheiten aufweisen, welche eine Bildelementdichte von ungefähr zwischen 1000 und 4000 Bildelementen pro 2,54 cm bereitstellen, und vorzugsweise 2000 Bildelemente pro 2,54 cm wodurch ein hoch-auflösender Sensor bereitgestellt wird. Die CCD-Einheiten werden bei einer Frequenz zwischen ungefähr 1 MHz und 40 MHz abgetastet, und vorzugsweile bei etwa 10 MHz, um ein Analogsignal zu erzeugen. Hardwareverdichtung von an den Mikroprozessor angelegten Daten gestattet verbesserte Bildauflösung, die erzielt werden soll, während die Forderungen an die Verarbeitungszeit und Speichergrösse reduziert werden. Die vorliegende Erfindung ist ebenfalls verwendbar mit den in diesen Anmeldungen offengelegten Systemen.
Die zweite Unterbrechung in dem Zaun 28 ist vorhanden, um einen ersten optischen Infrarot-Durchstrahlungsschalter bzw. eine Lichtschranke zu beherbergen, der aus einem Empfänger 36 und einer Lichtquelle 38 besteht.
Unmittelbar vor dem Eingangsanschluss der Orientierungseinrichtung 24 kann wahlweise bei einer dritten Unterbrechung in dem Zaun 28 eine zweite optische Infrarot-Durchstrahlungsschaltereinrichtung positioniert sein mit einem Empfänger 40 und einer Lichtquelle 42.
Der Erkennungssensor kommuniziert über eine Führungsleitung 48 mit einer Videosteuerungsvorrichtung 44, welche ihrerseits in Kommunikation mit einer Orientierungssteuerungsvorrichtung 46 ist.
Die Videosteuerungsvorrichtung 44 ist fest verdrahtet mit den Arbeitsgegenstandssensoren 30, während die Orientierungssteuerungsvorrichtung 36 mit den Gegenstandserkennungssensoren 36 und 40 und der Reorientierungsvorrichtung 24 verdichtet ist. Ein auf die Bewegung des Förderbandes bezogenes Signal wird durch die Zuleitung 58 der Orientierungssteuerungsvorrichtung 46 zugeführt. Steuerung und Überwachung der Riemengeschwindigkeit kann durch einen Drehgeber 62 stattfinden, welcher durch die Zuleitung 60 an die Videosteuerungsvorrichtung 44 angeschlossen ist, da eine konstante Riemengeschwindigkeit für das Aufrechterhalten der Bildauflösung in diesem Ausführungsbeispiel wichtig ist.
Die identischen Arbeitsstücke 18, 20 und 22, die zum Erklären der Patentbeschreibung ausgewählt wurden, sind in Fig. 1 und 3 gezeigt und weisen einen Plastikgegenstand mit einer Länge von ungefähr 7,5 cm auf, der mit einer stumpfen Endoberfläche ausgestattet ist, die entweder an dem Hinterende ist, wie bei 18 in Fig. 1 gezeigt, um die Orientierung A bereitzustellen oder an dem vorderen Ende, wie es der Fall ist für den Arbeitsgegenstand 20, um Orientierung B bereitzustellen. Der Arbeitsgegenstand 22 ist gezeigt mit einer dritten Orientierung C. Bis zu sieben Orientierungen können durch das unten beschriebene Programm bestimmt werden.
Beim Betrieb können die sich entlang des Pfades oder des Förderbandes 12 bewegenden Arbeitsgegenstände 18, 20 und 22 auf Konformität mit einem gewünschten und akzeptablen Arbeitsstück inspiziert werden. Bei einer derartigen Inspektion ist es notwendig, eine Gegenstandsorientierung zu identifizieren und solche Positionsänderungen durchzuführen, die nötig sind, damit alle Arbeitsgegenstände die Auslassseite der Reorientierungsvorrichtung 24 mit derselben Orientierung verlassen.
Dem in der programmierbaren Videosteuerungsvorrichtung 44 beherbergten Speicher wird eine Vielzahl von bis zu sieben möglichen Orientierungen eines Arbeitsgegenstandes «gelehrt», und zwar in einem Einstellverfahren, das dem Produktionsablauf vorausgeht. Die vorliegende Erfindung ist speziell angepasst zum Verringern der benötigten Zeit, zum Durchführen der Bestimmung der tatsächlichen Orientierung der Arbeitsstücke, oder Gegenstandsidentifizierung, je nach Fall.
Wie in dem '493 Patent erklärt, ist die Kapazität für Datenspeicherung in der Videosteuerungsvorrichtung 44 ausreichend, um Informationen zu speichern, die die Kantenpunkte eines Gegenstandes betrifft, welcher die Abtastvorrichtung bzw. den Scanner 30 passiert. Die gewöhnliche Erkennungsvorrichtung arbeitet in einem Schattenrissmodus, so dass nur Profilinformationsdaten benötigt werden. Jede Abtastung stellt eine Schnittscheibe des Gegenstandes dar und produziert zumindest einen Kantenpunkt auf dem Profil. Die Anzahl der Schnittscheiben pro Gegenstand kann z.B. 1000 sein, je nach der Fördergeschwindigkeit, der Gegenstandslänge und Mikroprozessorprogrammierung.
Um in Übereinstimmung mit der vorliegenden Erfindung zu arbeiten, wird ein Gegenstand mit akzeptablen Dimensionen an der Anordnung bzw. Array 30 vorbei durch die Fördereinrichtung zugeführt, und zwar in einer ersten Orientierung A. Diese Information wird in einem «Lern»-Modus gespeichert. Typischerweise wird dieses Verfahren zumindest einmal wiederholt, und wahlweise bis zu zehn Mal, um eine Einhüllende von Werten oder Durchschnittswerten für die erste Orientierung zu erhalten.
Als nächstes wird dem System beigebracht, eine zweite Orientierung B desselben Gegenstandes durch dasselbe Verfahren zu erkennen.
Zusätzliche Orientierungen C, D ... desselben Gegenstandes bis zu einer Gesamtzahl von sieben unterschiedlichen Orientierungen können durch das System des vorigen Patentes '493 verarbeitet werden. Wenn sämtliche benötigten Orientierungen gelehrt werden, d.h. in dem Videosteuerungsspeicher 44 gespeichert werden, wird das System weitergeführt von dem «Lern»-Modus zu dem «Fensterer-zeugungs»-Modus, bevor es weitergeht zu einem «Operations»-Modus, der ein wiederholtes Zuführen von Arbeitsgegenständen gestattet. Da die Förderbandgeschwindigkeit sorgfältig gesteuert wird, können, sobald die Gegenstandsförderkante erfasst worden ist, Informationsdaten für entsprechende durch sukzessive Schnittabtastung erhaltene Punkte identifiziert werden, und zwar durch zwischen 1 und 1000 in dem illustrierten Beispiel durchnumerierte Schnittscheiben. Die Kantenpunktdaten werden verglichen, um zu bestimmen, welche der Orientierungsdaten mit den Arbeitsgegenstandsdaten übereinstimmen.
5
10
15
20
25
30
35
40
45
50
55
60
65
3
5
CH 684 579 A5
6
Da die zum Verarbeiten der Kantenpunktdatenin-formation benötigte Zeit ein Faktor war, der die Geschwindigkeit begrenzt, mit der die Fördereinrichtung 12 arbeiten kann, wurden in der Vergangenheit verschiedene Anstrengungen gemacht, die Verarbeitungszeit zu verringern, um eine schnellere Klassifizierung von Gegenständen durch den Computer zu gestatten. Ein früherer Lösungsansatz war, dass man eine Bedienperson die in Betracht kommenden Bereiche von Hand einstellen lässt, mit einer Tastatur, einer Maus, oder dergleichen. Durch die vorliegende Erfindung ortet der Computer automatisch Bereiche maximaler Differenz zwischen den gespeicherten Gegenstandsinformationsdaten und den kollektiven Gegenstandsinformationsdaten, ohne dass die Beteiligung einer Bedienperson benötigt wird.
Es wird auf Fig. 2 verwiesen, welche ein Flussdiagramm zeigt zum Erzeugen der Fenster, die den numerierten Schnittabtastungen für einen bestimmten Gegenstand entsprechen, dessen Orientierung zu bestimmen ist.
Das in Fig. 2 gezeigte Verfahren wird in Verbindung mit einem Gegenstand beschrieben, der vier Orientierungen haben kann, welche getrennt festgestellt werden müssen. Das Programm ist in der Lage, bis zu sieben Orientierungen, wie oben beschrieben, zu erfassen. Die vier Orientierungen A, B, C und D sind in Fig. 3 gezeigt. Vor dem Starten des Programms werden die Orientierungen genauso gespeichert, wie in dem vorherigen Patent '493 beschrieben.
Unter Verwendung des Programmes von Fig. 2 werden die Abtastscheiben 2 bis 999 identifiziert, wo maximale Abweichung auftritt zwischen den Randkanten, die sich in den verschiedenen Orientierungen darbieten. Der Gegenstand hat eine willkürliche Länge von 1000 Abtastscheiben, die entlang der X-Achse orientiert sind. Die Gegenstandshöhe wird willkürlich auf 400 Einheiten entlang der Y-Achse bestimmt. Die Dicke der Teile des Gegenstandes wird als 100 Einheiten entlang der Y-Achse gemessen angenommen.
Weiterhin unter Bezugnahme auf Fig. 2 wird der Prozess initialisiert durch Einstellen eines ersten Schleifenzählers A auf Null bei Schritt 102. Bei Schritt 104 wird der Zähler inkrementiert und an das Register angeschlossen, wo die Daten der Orientierung von A gespeichert sind. Bei Schritt 106 und 108 werden die Vorderkanten- und die Hinter-kanten-Abtastscheiben gespeichert, entsprechend den X-Achsenpositionen 1 und 1000 in Fig. 3. Dies entspricht Abtastscheiben 1 und 1000, wenn man annimmt, dass ein Gegenstand von etwa 7,5 cm Länge 1000 mal sequentiell abgetastet wird, wenn er den Sensor 30 von Fig. 1 passiert. In diesem Ausführungsbeispiel werden die Abtastscheiben 1 und 1000 immer gespeichert. Bei Schritt 110 in Fig. 2 wird gespeicherte Information der Orientierung A abgerufen.
Bei Schritt 112 wird ein zweiter Schleifenzähler B auf Null gesetzt und bei Schritt 114 inkrementiert zu einer Position mit einer Iteration unter Bezug auf Daten der Orientierung A, welche bei Schritt 110 gesammelt wurden. Eine Iteration vergleicht gelernte Daten der Orientierung A mit gelernten Daten der Orientierung A, indem sie mit einer Abtastscheibe 2 von sowohl Daten der Orientierung A als auch der Orientierung A beginnt. Die Anzahl der Unterschiede in diesen Bildelementdaten bei Abtastscheibe 2 für die Orientierung A wird bestimmt und wird als eine Trefferzahl bezeichnet. Dasselbe Verfahren wird weiter verfolgt für Abtastscheiben 3 bis 999. Insgesamt werden 998 Trefferzahlen bei Schritt 116 bestimmt.
Bei Schritt 118 sollte die entsprechend bestimmte Trefferzahl Null sein. Auch kann der gleiche Wert kleiner als zehn als eine maximale Trefferzahl identifiziert werden, und seine Abtastscheibennummer wird als ein Fenster gespeichert. Während ein Lesen von nur einem Fenster theoretisch ausreichend ist, um zu bestimmen, dass eine Stück- bzw. Teileorientierung mit einer gespeicherten bekannten Orientierung nicht übereinstimmt, können in der Praxis mehrere Scheibennummern, z.B. bis zu ungefähr 20, gespeichert werden, wo die Trefferzahlen die grössten sind, um die Wahrscheinlichkeit einer Mehrdeutigkeit in den Ergebnissen zu reduzieren. Diese Bestimmung wird bei Schritt 126 durchgeführt.
Daten der Orientierung A werden dann auf die gleiche Art und Weise mit Daten der Orientierung B verglichen, und eine neue maximale Differenz bei einem neuen Scheibenabtastort wird erzeugt. Diese Scheibenabtastnummer wird als ein zweites Fenster gespeichert. Ein anderes Signal an Zuleitung 124 inkrementiert den Schleifenzähler B bei Schritt 114, um Daten der Orientierung C zu empfangen, wonach die Scheibennummer für ein drittes Fenster erzeugt wird. Der Schleifenzähler B bei Schritt 114 inkrementiert weiterhin, bis B gleich der Anzahl der gespeicherten Orientierungen ist.
Bei Schritt 126 wird bestimmt, ob eine ausreichende Anzahl von Fenstern erzeugt worden ist. Falls nicht, wird dasselbe Verfahren wiederholt. Falls «ja», schreitet das Verfahren mit Schritt 130 fort, um zu bestimmen, ob Zähler A gleich der Gesamtnummer der Orientierungen ist, welche gelernt worden sind. In diesem Beispiel muss gespeicherte Information, die den Orientierungen B, C und D entspricht, mit den gesamten gelernten Orientierungsdaten verglichen werden, bevor das Programm vervollständigt wird. Zu dieser Zeit werden die Orientierungen A, B, C und D jeweils individuell verglichen worden sein mit gespeicherten Orientierungsdaten für dieselben Orientierungen A, B, C und D. Am Ende des Einrichteverfahrens werden zumindest zwölf Abtastscheibennummern als Fenster identifiziert, da jede der vier Gegenstandsorientierungen drei maximale Differenzen haben wird, welche jeweils drei Fenster erzeugen. Einige der Fenster erscheinen bei der gleichen Abtastscheibe.
Wie in Fig. 3 gezeigt, werden Fenster durch das Programm von Fig. 2 erstellt ohne eine Auswahl durch eine Bedienperson bei Zählständen 99, 199, 799 und 899. Diese sind die wichtigen Fenster zur Gegenstandsorientierungsbestimmung in dem speziellen Beispiel, welches hier beschrieben wird. Wenn die Fenster einmal identifiziert worden sind, hat es sich als nützlich herausgestellt, jedes Fenster zu expandieren, um eine Weite von drei oder
5
10
15
20
25
30
35
40
45
50
55
60
65
4
7
CH 684 579 A5
8
fünf Abtastscheiben zu haben, welche um die Abtastscheibe zentriert sind. Somit kompensiert ein Aufweiten eines Fensters mögliche Datenversetzungen, welche in einigen Systemen auftreten können aufgrund von mechanischer Abnutzung und anderen Veränderungen, welche während einem durchgehenden Betrieb über mehrere Wochen auftreten.
Nachdem die Fenster in einer Einstelloperation erzeugt sind, werden Arbeitsgegenstände an der Abtastvorrichtung vorbeigeführt, um Kantenpunkte an dem Gegenstandsprofil zu identifizieren. Ein Vergleich arbeitet im Echtzeitverfahren, um eine Gegenstandsorientierung im Echtzeitverfahren während einem Intervall zu bestimmen, das dem Intervall zwischen aufeinanderfolgenden Arbeitsgegenständen auf der Fördereinrichtung entspricht.
Wenn ein Arbeitsgegenstand an dem Sensor 30 von Fig. 1 vorbeibewegt wird, welcher eine Orientierung A hat, wie in Fig. 3 gezeigt, wird ein Vergleich zwischen den Arbeitsgegenstandsprofildaten und jeder der erlernten Orientierungen A, B, C und D durchgeführt, und zwar bei den durch das Programm von Fig. 2 vorhergehend ausgewählten Fenstern. Ein Vergleichen der Arbeitsgegenstandprofil-daten der Orientierung A mit gespeicherten Daten der Orientierung A ergibt eine totale Trefferzahl von Null. Ein ähnlicher Vergleich derselben Arbeitsgegenstandsdaten mit den gespeicherten Daten der Orientierung B ergibt eine Trefferzahl von 300 bei jedem der vier Fenster 99, 199, 799 und 899, wodurch eine totale Trefferzahl von 1200 erzeugt wird. Derselbe Vergleich mit den gespeicherten Daten der Orientierung C ergibt eine totale Trefferzahl von 400, und mit den Daten der Orientierung D ergibt er eine totale Trefferzahl von 1000.
Aus Fig. 3 ist ersichtlich, dass unabhängig davon, welche Orientierung der Arbeitsgegenstand annimmt, eine gespeicherte Orientierungsübereinstimmung mit einer Trefferzahl bei oder in der Nähe von Null erhalten wird und die Orientierung des Arbeitsgegenstandes dadurch erkannt wird. Wo jedes Fenster eine Weite von drei oder fünf Abtastscheiben hat, nimmt die Trefferzahl für Orientierungs-Nichtübereinstimmung zu, während sie im wesentlichen bei Null bleibt für die tatsächliche Orientierung. Die Ergebnisse, welche erhalten werden mit einem Vergleich von nur vier oder bis zu ca. 20 Fenstern entlang eines Gegenstandes der Länge von drei Inch, können mit weniger Speicher und weniger Zeit erzielt werden, als wenn die gesamte Bildelementinformation verarbeitet wird, während gleichzeitig die Leistungsfähigkeit völlig zuverlässig ist. Wo das in der begleitenden, ebenfalls offenen Anmeldung offengelegte hochauflösende System verwendet wird, können sogar noch grössere Geschwindigkeiten erzielt werden, was es gestattet, eine grössere Anzahl von Gegenständen pro Zeiteinheit zu verarbeiten.
Die Videosteuerungsvorrichtung 44 ist fest verdrahtet mit den Arbeitsgegenstandssensoren 30, während die Orientierungssteuerungsvorrichtung 36 mit den Gegenstandserkennungssensoren 36 und 40 und der Reorientierungsvorrichtung 24 verdichtet ist. Ein auf die Bewegung des Förderbandes bezogenes Signal wird durch die Zuleitung 58 der
Orientierungssteuerungsvorrichtung 46 zugeführt. Steuerung und Überwachung der Riemengeschwindigkeit kann durch einen Drehgeber 62 stattfinden, welcher durch die Zuleitung 60 an die Videosteuerungsvorrichtung 44 angeschlossen ist, da eine konstante Riemengeschwindigkeit für das Aufrechterhalten der Bildauflösung in diesem Ausführungsbeispiel wichtig ist.
Die identischen Arbeitsstücke 18, 20 und 22, die zum Erklären der Patentbeschreibung ausgewählt wurden, sind in Fig. 1 und 3 gezeigt und weisen einen Plastikgegenstand mit einer Länge von ungefähr 7,5 cm auf, der mit einer stumpfen Endoberfläche ausgestattet ist, die entweder an dem Hinterende ist, wie bei 18 in Fig. 1 gezeigt, um die Orientierung A bereitzustellen oder an dem vorderen Ende, wie es der Fall ist für den Arbeitsgegenstand 20, um Orientierung B bereitzustellen. Der Arbeitsgegenstand 22 ist gezeigt mit einer dritten Orientierung C. Bis zu sieben Orientierungen können durch das unten beschriebene Programm bestimmt werden.
Beim Betrieb können die sich entlang des Pfades oder des Förderbandes 12 bewegenden Arbeitsgegenstände 18, 20 und 22 auf Konformität mit einem gewünschten und akzeptablen Arbeitsstück inspiziert werden. Bei einer derartigen Inspektion ist es notwendig, eine Gegenstandsorientierung zu identifizieren und solche Positionsänderungen durchzuführen, die nötig sind, damit alle Arbeitsgegenstände die Auslassseite der Reorientierungsvorrichtung 24 mit der selben Orientierung verlassen.
Dem in der programmierbaren Videosteuerungsvorrichtung 44 beherbergten Speicher wird eine Vielzahl von bis zu sieben möglichen Orientierungen eines Arbeitsgegenstandes «gelehrt», und zwar in einem Einstellverfahren, das dem Produktionsablauf vorausgeht. Die vorliegende Erfindung ist speziell angepasst zum Verringern der benötigten Zeit, zum Durchführen der Bestimmung der tatsächlichen Orientierung der Arbeitsstücke, oder Gegenstandsidentifizierung, je nach Fall.
Wie in dem '493 Patent erklärt, ist die Kapazität für Datenspeicherung in der Videosteuerungsvorrichtung 44 ausreichend, um Informationen zu speichern, die die Kantenpunkte eines Gegenstandes betrifft, welcher die Abtastvorrichtung bzw. den Scanner 30 passiert. Die gewöhnliche Erkennungsvorrichtung arbeitet in einem Schattenrissmodus, so dass nur Profilinformationsdaten benötigt werden. Jede Abtastung stellt eine Schnittscheibe des Gegenstandes dar und produziert zumindest einen Kantenpunkt auf dem Profil. Die Anzahl der Schnittscheiben pro Gegenstand kann z.B. 1000 sein, je nach der Fördergeschwindigkeit, der Gegenstandslänge und Mikroprozessorprogrammierung.
Um in Übereinstimmung mit der vorliegenden Erfindung zu arbeiten, wird ein Gegenstand mit akzeptablen Dimensionen an der Anordnung bzw. Array 30 vorbei durch die Fördereinrichtung zugeführt, und zwar in einer ersten Orientierung A.
Diese Information wird in einem «Lern»-Modus gespeichert. Typischerweise wird dieses Verfahren zumindest einmal wiederholt, und wahlweise bis zu zehn Mal, um eine Einhüllende von Werten oder
5
10
15
20
25
30
35
40
45
50
55
60
65
5
9
CH 684 579 A5
10
Durchschnittswerten für die erste Orientierung zu erhalten.
Als nächstes wird dem System beigebracht, eine zweite Orientierung B desselben Gegenstandes durch dasselbe Verfahren zu erkennen.
Zusätzliche Orientierungen C, D ... desselben Gegenstandes bis zu einer Gesamtzahl von sieben unterschiedlichen Orientierungen können durch das System des vorigen Patentes '493 verarbeitet werden. Wenn sämtliche benötigten Orientierungen gelehrt werden, d.h. in dem Videosteuerungsspeicher 44 gespeichert werden, wird das System weitergeführt von dem «Lern»-Modus zu dem «Fensterer-zeugungs»Modus, bevor es weitergeht zu einem «Operations»-Modus, der ein wiederholtes Zuführen von Arbeitsgegenständen gestattet. Da die Förderbandgeschwindigkeit sorgfältig gesteuert wird, können, sobald die Gegenstandsförderkante erfasst worden ist, Informationsdaten für entsprechende durch sukzessive Schnittabtastung erhaltene Punkte identifiziert werden, und zwar durch zwischen 1 und 1000 in dem illustrierten Beispiel durchnumerierte Schnittscheiben. Die Kantenpunktdaten werden verglichen, um zu bestimmen, welche der Orientierungsdaten mit den Arbeitsgegenstandsdaten übereinstimmen.
Da die zum Verarbeiten der Kantenpunktdatenin-formation benötigte Zeit ein Faktor war, der die Geschwindigkeit begrenzt, mit der die Fördereinrichtung 12 arbeiten kann, wurden in der Vergangenheit verschiedene Anstrengungen gemacht, die Verarbeitungszeit zu verringern, um eine schnellere Klassifizierung von Gegenständen durch den Computer zu gestatten. Ein früherer Lösungsansatz war, dass man eine Bedienperson die in Betracht kommenden Bereiche von Hand einstellen lässt, mit einer Tastatur, einer Maus, oder dergleichen. Durch die vorliegende Erfindung ortet der Computer automatisch Bereiche maximaler Differenz zwischen den gespeicherten Gegenstandsinformationsdaten und den kollektiven Gegenstandsinformationsdaten, ohne dass die Beteiligung einer Bedienperson benötigt wird.
Es wird auf Fig. 2 verwiesen, welche ein Flussdiagramm zeigt zum Erzeugen der Fenster, die den numerierten Schnittabtastungen für einen bestimmten Gegenstand entsprechen, dessen Orientierung zu bestimmen ist.
Das in Fig. 2 gezeigte Verfahren wird in Verbindung mit einem Gegenstand beschrieben, der vier Orientierungen haben kann, welche getrennt festgestellt werden müssen. Das Programm ist in der Lage, bis zu sieben Orientierungen, wie oben beschrieben, zu erfassen. Die vier Orientierungen A, B, C und D sind in Fig. 3 gezeigt. Vor dem Starten des Programms werden die Orientierungen genauso gespeichert, wie in dem vorherigen Patent '493 beschrieben.
Unter Verwendung des Programmes von Fig. 2 werden die Abtastscheiben 2 bis 999 identifiziert, wo maximale Abweichung auftritt zwischen den Randkanten, die sich in den verschiedenen Orientierungen darbieten. Der Gegenstand hat eine willkürliche Länge von 1000 Abtastscheiben, die entlang der X-Achse orientiert sind. Die Gegenstandshöhe wird willkürlich auf 400 Einheiten entlang der Y-Achse bestimmt. Die Dicke der Teile des Gegenstandes wird als 100 Einheiten entlang der Y-Achse gemessen angenommen.
Weiterhin unter Bezugnahme auf Fig. 2 wird der Prozess initialisiert durch Einstellen eines ersten Schleifenzählers A auf Null bei Schritt 102. Bei Schritt 104 wird der Zähler inkrementiert und an das Register angeschlossen, wo die Daten der Orientierung von A gespeichert sind. Bei Schritt 106 und 108 werden die Vorderkanten- und die Hinterkanten-Abtastscheiben gespeichert, entsprechend den X-Achsenpositionen 1 und 1000 in Fig. 3. Dies entspricht Abtastscheiben 1 und 1000, wenn man annimmt, dass ein Gegenstand von 7,5 cm Länge 1000mal sequentiell abgetastet wird, wenn er den Sensor 30 von Fig. 1 passiert. In diesem Ausführungsbeispiel werden die Abtastscheiben 1 und 1000 immer gespeichert. Bei Schritt 110 in Fig. 2 wird gespeicherte Information der Orientierung A abgerufen.
Bei Schritt 112 wird ein zweiter Schleifenzähler B auf Null gesetzt und bei Schritt 114 inkrementiert zu einer Position mit einer Iteration unter Bezug auf Daten der Orientierung A, welche bei Schritt 110 gesammelt wurden. Eine Iteration vergleicht gelernte Daten der Orientierung A mit gelernten Daten der Orientierung A, indem sie mit einer Abtastscheibe 2 von sowohl Daten der Orientierung A als auch der Orientierung A beginnt. Die Anzahl der Unterschiede in diesen Bildelementdaten bei Abtastscheibe 2 für die Orientierung A wird bestimmt und wird als eine Trefferzahl bezeichnet. Dasselbe Verfahren wird welter verfolgt für Abtastscheiben 3 bis 999. Insgesamt werden 998 Trefferzahlen bei Schritt 116 bestimmt.
Bei Schritt 118 sollte die entsprechend bestimmte Trefferzahl Null sein. Auch kann der gleiche Wert kleiner als zehn eine maximale Trefferzahl sein, und seine Abtastscheibennummer wird als ein Fenster gespeichert. Während ein Lesen von nur einem Fenster theoretisch ausreichend ist, um zu bestimmen, dass eine Stück- bzw. Teileorientierung mit einer gespeicherten bekannten Orientierung nicht übereinstimmt, können in der Praxis mehrere Scheibennummern, z.B. bis zu ungefähr 20, gespeichert werden, wo die Trefferzahlen die grössten sind, um die Wahrscheinlichkeit einer Mehrdeutigkeit in den Ergebnissen zu reduzieren. Diese Bestimmung wird bei Schritt 126 durchgeführt.
Daten der Orientierung A werden dann auf die gleiche Art und Weise mit Daten der Orientierung B verglichen, und eine neue maximale Differenz bei einem neuen Scheibenabtastort wird erzeugt. Diese Scheibenabtastnummer wird als ein zweites Fenster gespeichert. Ein anderes Signal an Zuleitung 124 inkrementiert den Schleifenzähler B bei Schritt 114, um Daten der Orientierung C zu empfangen, wonach die Scheibennummer für ein drittes Fenster erzeugt wird. Der Schleifenzähler B bei Schritt 114 inkrementiert weiterhin, bis B gleich der Anzahl der gespeicherten Orientierungen ist.
Bei Schritt 126 wird bestimmt, ob eine ausreichende Anzahl von Fenstern erzeugt worden ist. Falls nicht, wird dasselbe Verfahren wiederholt.
5
10
15
20
25
30
35
40
45
50
55
60
65
6
11
CH 684 579 A5
12
Falls «ja», schreitet das Verfahren mit Schritt 130 fort, um zu bestimmen, ob Zähler A gleich der Gesamtnummer der Orientierungen ist, welche gelernt worden sind. In diesem Beispiel muss gespeicherte Information, die den Orientierungen B, C und D entspricht, mit den gesamten gelernten Orientierungsdaten verglichen werden, bevor das Programm vervollständigt wird. Zu dieser Zeit werden die Orientierungen A, B, C und D jeweils individuell verglichen worden sein mit gespeicherten Orientierungsdaten für dieselben Orientierungen A, B, C und D. Am Ende des Einrichteverfahrens werden zumindest zwölf Abtastscheibennummern als Fenster identifiziert, da jede der vier Gegenstandsorientierungen drei maximale Differenzen haben wird, welche jeweils drei Fenster erzeugen. Einige der Fenster erscheinen bei der gleichen Abtastscheibe.
Wie in Fig. 3 gezeigt, werden Fenster durch das Programm von Fig. 2 erstellt ohne eine Auswahl durch eine Bedienperson bei Zähiständen 99, 199, 799 und 899. Diese sind die wichtigen Fenster zur Gegenstandsorientierungsbestimmung in dem speziellen Beispiel, welches hier beschrieben wird. Wenn die Fenster einmal identifiziert worden sind, hat es sich als nützlich herausgestellt, jedes Fenster zu expandieren, um eine Weite von drei oder fünf Abtastscheiben zu haben, welche um die Abtastscheibe zentriert sind. Somit kompensiert ein Aufweiten eines Fensters mögliche Datenversetzungen, welche in einigen Systemen auftreten können aufgrund von mechanischer Abnutzung und anderen Veränderungen, welche während einem durchgehenden Betrieb über mehrere Wochen auftreten.
Nachdem die Fenster in einer Einstelloperation erzeugt sind, werden Arbeitsgegenstände an der Abtastvorrichtung 30 vorbeigeführt, um Kantenpunkte an dem Gegenstandsprofil zu identifizieren. Ein Vergleich arbeitet im Echtzeitverfahren, um eine Gegenstandsorientierung im Echtzeitverfahren während einem Intervall zu bestimmen, das dem Intervall zwischen aufeinanderfolgenden Arbeitsgegenständen auf der Fördereinrichtung entspricht.
Wenn ein Arbeitsgegenstand an dem Sensor 30 von Fig. 1 vorbeibewegt wird, welcher eine Orientierung A hat, wie in Fig. 3 gezeigt, wird ein Vergleich zwischen den Arbeitsgegenstandsprofildaten und jeder der erlernten Orientierungen A, B, C und D durchgeführt, und zwar bei den durch das Programm von Fig. 2 vorhergehend ausgewählten Fenstern. Ein Vergleichen der Arbeitsgegenstandprofil-daten der Orientierung A mit gespeicherten Daten der Orientierung A ergibt eine totale Trefferzahl von Null. Ein ähnlicher Vergleich derselben Arbeitsgegenstandsdaten mit den gespeicherten Daten der Orientierung B ergibt eine Trefferzahl von 300 bei jedem der vier Fenster 99, 199, 799 und 899, wodurch eine totale Trefferzahl von 1200 erzeugt wird. Derselbe Vergleich mit den gespeicherten Daten der Orientierung C ergibt eine totale Trefferzahl von 400, und mit den Daten der Orientierung D ergibt er eine totale Trefferzahl von 1000.
Aus Fig. 3 ist ersichtlich, dass unabhängig davon, welche Orientierung der Arbeitsgegenstand annimmt, eine gespeicherte Orientierungsübereinstimmung mit einer Trefferzahl bei oder in der Nähe von Null erhalten wird und die Orientierung des Arbeitsgegenstandes dadurch erkannt wird. Wo jedes Fenster eine Weite von drei oder fünf Abtastscheiben hat, nimmt die Trefferzahl für Orientierungs-Nichtübereinstimmung zu, während sie im wesentlichen bei Null bleibt für die tatsächliche Orientierung. Die Ergebnisse, welche erhalten werden mit einem Vergleich von nur vier oder bis zu ca. 20 Fenstern entlang eines Gegenstandes der Länge von drei Inch, können mit weniger Speicher und weniger Zeit erzielt werden, als wenn die gesamte Bildelementinformation verarbeitet wird, während gleichzeitig die Leistungsfähigkeit völlig zuverlässig ist. Wo das in der begleitenden, ebenfalls offenen Anmeldung offengelegte hochauflösende System verwendet wird, können sogar noch grössere Geschwindigkeiten erzielt werden, was es gestattet, eine grössere Anzahl von Gegenständen pro Zeiteinheit zu verarbeiten.
Claims (1)
- Patentansprüche1. Verfahren zum Bestimmen der Orientierung von in einer Reihe angeordneten Gegenständen auf einer Fördereinrichtung mit einer Einstell- und einer Arbeitsphase durch Erfassen von Gegenstandsorientierung mit einer Anordnung von optischen Sensoren, die so wirken, dass sie Informationsdaten bereitstellen, die sich auf ein Muster von Gegenstandskantenpunkten beziehen über aufeinanderfolgende, lineare Abtastungen des Gegenstandes, wodurch Informationsdaten bereitgestellt werden, wobei das Verfahren während einer Einstellphase die Schritte aufweist:a) Speichern von Profilbildinformationsdaten für eine Vielzahl von vorbestimmten, möglichen Gegenstandsorientierungen,b) Bestimmen einer maximalen Datendifferenz zwischen jedem Paar von möglichen Orientierungen, basierend auf in Schritt a) gespeicherter Information aus einem Profilbild;c) Identifizieren von mindestens einer Längsposition an dem Gegenstand, wobei diese Längsposition einem Fenster maximaler Datendifferenz zwischen einem unterschiedlichen Paar von Orientierungen entspricht; und das Verfahren während einer Arbeitsphase folgende Schritte aufweist:d) Erfassen vergleichbarer Profilbildinformationsdaten von in einer Reihe angeordneten Arbeitsgegenständen, welche mit den gespeicherten Informationsdaten verglichen werden, und zwar bei jedem dieser Fenster maximaler Datendifferenz; und e) Bestimmen einer Orientierungs-Nichtübereinstimmung der Arbeitsgegenstandsorientierung und der gespeicherten Gegenstandsorientierung, falls die Datendifferenz bei dem Fenster grösser als ein vorbestimmter Wert ist.2. Verfahren nach Anspruch 1, welches weiterhin den folgenden Schritt aufweist: Identifizieren einer Orientierungs-Nichtübereinstimmung zwischen der Arbeitsgegenstandsorientierung und einer gespeicherten Gegenstandsorientierung nur dann, falls die Datendifferenz bei dem Fenster weniger ist, als ein vorbestimmter Wert.5101520253035404550556065713CH 684 579 A5143. Verfahren nach Anspruch 2, welches weiterhin die folgenden Schritte aufweist: Bestimmen einer Vielzahl von Fenstern entlang der Gegenstandslänge, wo grössere Differenzen für jedes Paar von möglichen Orientierungen auftreten; Bilden einer Gesamtsumme der Differenzen bei jedem von dieser Vielzahl von Fenstern; Verwenden dieser Summe von Differenzen zum Identifizieren einer Arbeitsgegenstandsorientierung.4. Verfahren nach Anspruch 3, worin die Vielzahl von Fenstern zumindest vier ist und weniger als 10% der Gesamtzahl möglicher Fenster.5. Verfahren nach Anspruch 4 einschliesslich eines weiteren Schrittes während des Einstellverfahrens: Expandieren der Fenstergrösse von einer Abtastscheibe, um nicht mehr als zwei benachbarte Abtastscheiben auf jeder Seite einer maximalen Da-tenfensterposition zu beinhalten.6. Verfahren nach Anspruch 1, wobei die Ein-sieilphase folgende Schritte aufweist:a) Bereitstellen an einen Speicher von Abtast-scheiben-lnformationsdaten, welche sich auf eine Geometrie eines Teiles für eine Vielzahl von unterschiedlichen Teileorientierungen A und B beziehen, als Daten, die akkumuliert werden, während der Gegenstand an der Erfassungsstation in den Orientierungen A und B vorbeitransportiert wird, wodurch gelernte Informationsdaten zugeführt werden;b) Bestimmen einer Abtastscheibennummer, wo eine maximale Differenz existiert zwischen den Gegenstand-Kantenpunkten in den Orientierungen A und B durch Vergleichen der erlernten Informationsdaten;c) Speichern der Abtastscheibennummer; und wobei die Arbeitsphase folgende Schritte aufweist:d) Vorbeibewegen vereinzelter Arbeitsgegenstände an der Erfassungsstation;e) sequentielles Abtasten jedes Arbeitsgegenstandes, um Abtastscheiben zu bilden mit Ge-genstands-Kantenpunkt-lnformationsdaten bei jeder Abtastscheibe; und f) Erzeugen von Ausgabesteuerungssignalen, welche auf einem Vergleich der Arbeitsgegenstandinformation und der gespeicherten Information beruhen, und zwar bei der gespeicherten Abtastscheibennummer, ohne die sämtlichen Ge-genstands-Kantenpunkt-lnformationsdaten zu vergleichen.7. Verfahren nach Anspruch 6, wobei die Einstellphase folgende Schritte aufweist:a) Bestimmen einer zweiten Abtastscheibennummer, wenn eine maximale Differenz zwischen Gegenstands-Kantenpunkten existiert, wenn Orientierung B mit Orientierung A verglichen wird;b) Speichern von Abtastscheibennummern als numerierte Fenster; und wobei die Arbeitsphase folgenden Schritt aufweist:c) Subtrahieren von Arbeitsgegenstands-Informa-tionsdaten mit erlernten Informationsdaten nur an dem numerierten Fenster, um eine Trefferzahl zu erzeugen, die sich auf eine Differenz bezieht, welche sequentiell jedem Fensterort für jede der möglichen Orientierungen entspricht, wobei die tiefste Trefferzahl verwendet wird, um die Arbeitsgegenstandsorientierung zu identifizieren.8. Verfahren nach Anspruch 1, wobei die Einstellphase folgende Schritte aufweist:a) Bereitstellen an einen Speicher von Abtastscheiben-Informationsdaten, welche sich auf eine Geometrie eines Teiles für eine Vielzahl von unterschiedlichen Teilorientierungen A, B und C bezieht, als Daten, welche akkumuliert werden, während der Gegenstand in den Orientierungen A, B und C an der Erfassungsstation vorbei transportiert wird, wobei erlernte Informationsdaten bereitgestellt werden sollen;b) Bestimmen erster und zweiter Abtastscheibennummern, wo eine maximale Differenz zwischen Gegenstands-Kantenpunkten existiert, wenn Orientierung A mit Orientierung B bzw. mit Orientierung C verglichen wird;c) Bestimmen einer dritten und vierten Abtastscheibennummer, wo eine maximale Differenz zwischen Gegenstands-Kantenpunkten existiert, wenn Orientierung B mit Orientierung A bzw. Orientierung C verglichen wird;d) Bestimmen einer fünften und sechsten Abtastscheibennummer, wo eine maximale Differenz zwischen Gegenstands-Kantenpunkten existiert, wenn Orientierung C mit Orientierung A bzw. Orientierung B verglichen wird;e) Speichern der sechs Abtastscheibennummern als numerierte Fenster; und wobei die Arbeitsphase folgenden Schritte aufweist:f) Vorbeibewegen vereinzelter Arbeitsgegenstände an der Erfassungsstation;g) sequentielles Abtasten jedes Arbeitsgegenstandes, um Abtastscheiben mit Gegenstands-Kantenpunkt-Informationsdaten zumindest dort zu bilden, wo jedes Abtastscheibenfenster auftritt; und h) Subtrahieren von Arbeitsgegenstands-Informa-tionsdaten mit erlernten Informationsdaten nur bei diesen numerierten Fenstern, um eine Trefferzahl zu erzeugen, welche sich auf eine Differenz bezieht, die jedem Fensterort entspricht;i) Bilden der Gesamtsumme der Trefferzahl für jede der drei Orientierungen; und j) Verwenden der tiefsten Trefferzahl, um die Arbeitsgegenstandsorientierung zu identifizieren.9. Verfahren nach Anspruch 8, wobei die Vielzahl von Fenstern zumindest vier ist und weniger als 10% der Gesamtzahl möglicher Fenster.10. Verfahren nach Anspruch 9, welches während dem Einstellverfahren folgenden weiteren Schritt enthält: Expandieren der Fenstergrösse einer Abtastscheibe, um nicht mehr als zwei benachbarte Abtastscheiben zu enthalten, und zwar auf jeder Seite einer maximalen Datenfensterposition.51015202530354045505560658
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US58693990A | 1990-09-24 | 1990-09-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
CH684579A5 true CH684579A5 (de) | 1994-10-31 |
Family
ID=24347704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CH2723/91A CH684579A5 (de) | 1990-09-24 | 1991-09-12 | Verfahren zum Bestimmen der Orientierung von in einer Reihe angeordneten Gegenständen. |
Country Status (9)
Country | Link |
---|---|
US (1) | US5353358A (de) |
JP (1) | JP2957032B2 (de) |
AU (1) | AU645123B2 (de) |
CA (1) | CA2051052A1 (de) |
CH (1) | CH684579A5 (de) |
DE (1) | DE4130399A1 (de) |
ES (1) | ES2048054B1 (de) |
FR (1) | FR2667179B1 (de) |
IT (1) | IT1270465B (de) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5911003A (en) * | 1996-04-26 | 1999-06-08 | Pressco Technology Inc. | Color pattern evaluation system for randomly oriented articles |
US5936722A (en) * | 1996-08-15 | 1999-08-10 | Armstrong; Brian S. R. | Apparatus and method for determining the angular orientation of an object |
US6384908B1 (en) | 1996-08-15 | 2002-05-07 | Go Sensors, Llc | Orientation dependent radiation source |
DE19639854A1 (de) * | 1996-09-27 | 1998-06-10 | Vitronic Dr Ing Stein Bildvera | Verfahren und Vorrichtung zur Erfassung von auf potentiell großflächigen Gegenständen aufgebrachten, optisch erfaßbaren Informationen |
DE19713521B4 (de) * | 1997-04-02 | 2004-09-23 | Festo Ag & Co | Vorrichtung zur Erkennung falsch orientierter und/oder von einem vorgegebenen Muster abweichender Teile |
US6434341B1 (en) * | 1998-11-10 | 2002-08-13 | Fuji Photo Film Co., Ltd. | Orientation regularizing apparatus and sorting apparatus for lens-fitted photo film unit |
US6735332B1 (en) * | 2000-03-30 | 2004-05-11 | Xerox Corporation | System for determining the position of an object on a transport assembly from its boundary points |
US20030116701A1 (en) * | 2001-12-21 | 2003-06-26 | Nickels Robert A. | Software controled optical sensor for conveyors |
CA2672431A1 (en) * | 2006-09-19 | 2008-03-27 | Meadwestvaco Packaging Systems, Llc | Article alignment apparatus |
CA2873752C (en) | 2014-01-24 | 2021-03-09 | Axium Inc. | Product orientor |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4017721A (en) * | 1974-05-16 | 1977-04-12 | The Bendix Corporation | Method and apparatus for determining the position of a body |
US4441205A (en) * | 1981-05-18 | 1984-04-03 | Kulicke & Soffa Industries, Inc. | Pattern recognition system |
US4509075A (en) * | 1981-06-15 | 1985-04-02 | Oxbridge, Inc. | Automatic optical inspection apparatus |
JPS5959397A (ja) * | 1982-09-29 | 1984-04-05 | オムロン株式会社 | 特徴点のラベリング装置 |
GB8314778D0 (en) * | 1983-05-27 | 1983-07-06 | Pa Management Consult | Adaptive pattern recognition |
GB2152658A (en) * | 1984-01-09 | 1985-08-07 | Philips Electronic Associated | Object sorting system |
US4581762A (en) * | 1984-01-19 | 1986-04-08 | Itran Corporation | Vision inspection system |
US4794647A (en) * | 1985-04-08 | 1988-12-27 | Northern Telecom Limited | Automatic optical inspection system |
FR2582426B1 (fr) * | 1985-05-22 | 1987-07-24 | Telemecanique Electrique | Procede et dispositif pour identifier les contours fermes d'objets places sur une surface |
US4678920A (en) * | 1985-06-17 | 1987-07-07 | General Motors Corporation | Machine vision method and apparatus |
US4690284A (en) * | 1985-10-04 | 1987-09-01 | Cochlea Corporation | Method of and apparatus for inspecting objects using multiple position detectors |
US4784493A (en) * | 1986-06-11 | 1988-11-15 | Fmc Corporation | Element recognition and orientation |
US4965842A (en) * | 1986-07-22 | 1990-10-23 | Schlumberger Technologies, Inc. | Method and apparatus for measuring feature dimensions using controlled dark-field illumination |
US4711579A (en) * | 1986-08-12 | 1987-12-08 | H. Fred Johnston | System for automatically inspecting a flat workpiece for holes |
JPH0690725B2 (ja) * | 1988-07-18 | 1994-11-14 | 日本電装株式会社 | 位置検出装置 |
JPH083405B2 (ja) * | 1989-06-30 | 1996-01-17 | 松下電器産業株式会社 | リード位置認識装置 |
US5103304A (en) * | 1990-09-17 | 1992-04-07 | Fmc Corporation | High-resolution vision system for part inspection |
US5157486A (en) * | 1990-09-21 | 1992-10-20 | Fmc Corporation | High resolution camera sensor having a linear pixel array |
-
1991
- 1991-09-02 AU AU83560/91A patent/AU645123B2/en not_active Ceased
- 1991-09-10 CA CA002051052A patent/CA2051052A1/en not_active Abandoned
- 1991-09-10 JP JP3258459A patent/JP2957032B2/ja not_active Expired - Lifetime
- 1991-09-12 DE DE4130399A patent/DE4130399A1/de not_active Withdrawn
- 1991-09-12 CH CH2723/91A patent/CH684579A5/de not_active IP Right Cessation
- 1991-09-16 ES ES09102056A patent/ES2048054B1/es not_active Expired - Lifetime
- 1991-09-23 FR FR9111687A patent/FR2667179B1/fr not_active Expired - Fee Related
- 1991-09-24 IT ITMI912532A patent/IT1270465B/it active IP Right Grant
-
1993
- 1993-07-12 US US08/090,443 patent/US5353358A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
ITMI912532A0 (it) | 1991-09-24 |
ES2048054B1 (es) | 1995-06-16 |
AU8356091A (en) | 1992-03-26 |
JP2957032B2 (ja) | 1999-10-04 |
CA2051052A1 (en) | 1992-03-25 |
IT1270465B (it) | 1997-05-05 |
JPH04244907A (ja) | 1992-09-01 |
FR2667179A1 (fr) | 1992-03-27 |
ES2048054A2 (es) | 1994-03-01 |
FR2667179B1 (fr) | 1993-11-19 |
DE4130399A1 (de) | 1992-03-26 |
US5353358A (en) | 1994-10-04 |
AU645123B2 (en) | 1994-01-06 |
ITMI912532A1 (it) | 1993-03-24 |
ES2048054R (de) | 1994-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69628929T2 (de) | Verfahren und Maschine zum Lesen und Zuordnen eines optischen Kodes | |
EP0409310B1 (de) | Verfahren sowie Anordnung zum Bestimmen von Kanten in Bildern | |
DE69312516T2 (de) | Automatische Abtast-Anordnung und -Verfahren | |
DE69811667T2 (de) | Vorrichtung und verfahren zur erkennung und bestimmung der position eines tierteils | |
DE69002013T2 (de) | Kontrolle von Gegenständen mit erhöhter Aufnahmegeschwindigkeit. | |
DE102018212531B4 (de) | Artikeltransfervorrichtung | |
DE19751862C2 (de) | Verfahren und Vorrichtung zum Identifizieren und Sortieren von bandgeförderten Objekten | |
DE69632468T2 (de) | Verfahren zur Volumenmessung eines Gegenstandes mittels eines Laserabtasters und eines CCD Bildsensors | |
DE2744247A1 (de) | Vorrichtung und verfahren zur oberflaechenbeschichtung | |
EP2275813A2 (de) | Verfahren zur Charakterisierung von Effektgarn | |
DE2521037B2 (de) | Verfahren und einrichtung zur messung und/oder ueberwachung der gleichfoermigkeit der oberflaeche eines werkstueckes | |
DE3920888A1 (de) | Verfahren zur pruefung der enden von gestapelten zigaretten | |
EP0415154A1 (de) | Verfahren zum Inspizieren von Gegenständen aus unterschiedlichen Blickwinkeln | |
DE2937335A1 (de) | Pruefsystem fuer das aeussere erscheinungsbild von gegenstaenden | |
CH684244A5 (de) | Hochauflösendes Handhabungssystem. | |
DD152870A1 (de) | Verfahren und vorrichtung zum klassieren in bewegung befindlichen stueckgutes | |
EP0920617A1 (de) | Verfahren und vorrichtung zur erkennung von fehlern in textilen flächengebilden | |
DE69507362T2 (de) | Optisches Kontrollverfahren für Gegenstände | |
CH684579A5 (de) | Verfahren zum Bestimmen der Orientierung von in einer Reihe angeordneten Gegenständen. | |
DE2428827A1 (de) | Automatische bearbeitungsmaschine | |
DE3805455C2 (de) | ||
DE69705517T2 (de) | Gerät und Verfahren zur Feststellung der Anwesenheit und der Ausdehnung eines Objekts | |
DE19731530A1 (de) | Optische Präzisionsabtastung von Filmperforationslöchern | |
EP0104369A2 (de) | Einrichtung und Verfahren zum optischen Erkennen von Flächenmustern an Objekten | |
AT1959U1 (de) | Verfahren zum sortieren von altpapier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PL | Patent ceased |