CH684579A5 - Verfahren zum Bestimmen der Orientierung von in einer Reihe angeordneten Gegenständen. - Google Patents

Verfahren zum Bestimmen der Orientierung von in einer Reihe angeordneten Gegenständen. Download PDF

Info

Publication number
CH684579A5
CH684579A5 CH2723/91A CH272391A CH684579A5 CH 684579 A5 CH684579 A5 CH 684579A5 CH 2723/91 A CH2723/91 A CH 2723/91A CH 272391 A CH272391 A CH 272391A CH 684579 A5 CH684579 A5 CH 684579A5
Authority
CH
Switzerland
Prior art keywords
orientation
data
orientations
information data
windows
Prior art date
Application number
CH2723/91A
Other languages
English (en)
Inventor
Randy K Baird
Stanley P Jun Turcheck
Original Assignee
Fmc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fmc Corp filed Critical Fmc Corp
Publication of CH684579A5 publication Critical patent/CH684579A5/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Geophysics And Detection Of Objects (AREA)

Description

1
CH 684 579 A5
2
Beschreibung
Diese Erfindung bezieht sich auf ein Verfahren zum Bestimmen der Orientierung von in einer Reihe angeordneten Gegenständen auf einer Fördereinrichtung mit einer Einstell- und einer Arbeitsphase durch Erfassen von Gegenstandsorientierung mit einer Anordnung von optischen Sensoren, die so wirken, dass sie Informationsdaten bereitstellen, die sich auf ein Muster von Gegenstandskantenpunkten beziehen über aufeinanderfolgende, lineare Abtastungen des Gegenstandes, wodurch Informationsdaten bereitgestellt werden.
In Turchek et al, US-P 4 784 493 werden ein Gerät und ein Verfahren offengelegt zum Erkennen eines Gegenstandes und seiner Orientierung auf einer Fördereinrichtung. Um die Orientierung eines Arbeitsgegenstandes nL zu bestimmen, werden eine Anzahl möglicher Orientierungen zuerst aufgenommen als ein vorläufiges Verfahren in einem Speicher. Alle in dem Speicher gespeicherten Daten für jede Orientierung werden dann verglichen mit Daten, die von dem Arbeitsgegenstand abgetastet werden, wenn er sich entlang eines Förderpfades bewegt. Die Orientierung des Arbeitsgegenstandes wird bestimmt durch Angleichen der verglichenen Daten.
Die benötigte Zeit zum Durchführen derartiger Gegenstandsorientierungsbestimmungen beschränkt die Anzahl der Gegenstände, die in einer Zeiteinheit verarbeitet werden können. Eine derartige Beschränkung kann der limitierende Faktor einer Produktionslinie bzw. Fertigungsstrasse sein. Frühere Anstrengungen zum Reduzieren der Datenverarbeitungszeit haben menschliche Bedienungsbeteiligung beinhaltet durch manuelles Auswählen von Teilbereichen entlang der Gegenstandslänge, welche untersucht werden soll unter Verwendung einer Computertastatur, Maus oder dergleichen. Dies benötigt ein Ausbildungsniveau, welches nicht immer in der Arbeitswelt vorhanden ist und Wiederauswahlverfahren müssen unternommen werden jedesmal, wenn es einen Wechsel bei dem gerade verarbeiteten Gegenstand gibt.
Es ist ein Ziel dieser Erfindung, die Verarbeitungszeit zum Bestimmen von Gegenstandsorientierung zu verringern unter Verwendung nur eines Teiles des Gegenstandes zum Vergleich mit gespeicherten Daten, wobei der Teil automatisch ausgewählt wird, ohne eine ausgebildete Bedienperson zu benötigen.
Ein anderes Ziel ist das Bereitstellen eines neuen Verfahrens des Auswählens einiger weniger mit Zwischenraum angeordneter Fenster entlang der Länge des Gegenstandes, welche wirksam sind beim Durchführen der Orientierungsbestimmungen.
Um diese Ziele zu erreichen, ist die Erfindung wie im Anspruch 1 beschrieben definiert.
Wo die Gegenstände mehrere mögliche Orientierungen haben, kann das Einstellverfahren die gespeicherten Informationsorientierungsdaten für jede Orientierung mit jeder anderen möglichen Orientierung miteinbeziehen, so dass mehrere Fenster bestimmt werden, eines für jeden unterschiedlichen Vergleich. Im Falle von vier möglichen Orientierungen gibt es drei Fenster für jede der vier Orientierungen, was zu zwölf Fenstern führen kann, falls jedes Fenster bei einer unterschiedlichen longitudina-len Position entlang des Gegenstandes ist. Wenn ein Arbeitsgegenstand im Echtzeitverfahren untersucht werden soll, kann die Orientierung durch Untersuchen der Daten nur an den Fensterpositionen bestimmt, und durch eine gesamte Punktzahl, die die geringste ist, erkannt werden.
Weitere Vorteile, und Anwendungsmöglichkeiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung vom Ausführungsbeispielen in Verbindung mit der Zeichnung.
Fig. 1 ist eine Bildansicht eines Fördersystems mit einer Gegenstandsablenkvorrichtung;
Fig. 2 ist ein Flussdiagramm eines Verfahrens zum Erzeugen von Fenstern; und
Fig. 3 ist eine Bildansicht von vier möglichen Orientierungen des Gegenstandes, dessen Orientierung identifiziert werden soll.
Die vorliegende Erfindung wird beschrieben als ein Merkmal, das angepasst ist zur Verwendung mit dem Gegenstands- oder Teileerkennungs- und Orientierungssystem, welches in Turchek et al, US-P 4 784 493 offengelegt ist. Die allgemeine Umgebung der Reorientierungsvorrichtung ist in Fig. 1 schematisch gezeigt. Das Reorientierungssystem kann im allgemeinen einen von einem Rahmen gestützten kontinuierlichen Riemen 12 aufweisen, welcher um eine Antriebswalze 14 und eine Leerlaufwalze 16 mitgeführt wird. Arbeitsstücke, wie z.B. 18, 20 und 22 sind ähnliche Teile mit drei verschiedenen Orientierungen. Die einfachste Form einer Reorientierungsvorrichtung ist in dieser Figur gezeigt, wobei es sich um eine mit einem Schrittmotor angetriebene einachsige (y-Achse) Reorientierungsvorrichtung handelt mit einer unteren Kammer 26, die um 180° rotiert werden kann. Andere Orientierungsvorrichtungen einschliesslich Mehr-Positionen-Reorientierungsvorrichtungen sind im Stand der Technik bekannt und können mit der vorliegenden Erfindung vorteilhaft verwendet werden.
Neben dem kontinuierlichen Riemen 12 ist an einer seiner Kanten ein Zaun 28, der entlang der Länge des Riemens verläuft, jedoch mit mehreren Unterbrechungen darin. Auf der Ankunftsseite der Reorientierungseinrichtung 24 ist eine erste Unterbrechung in dem Zaun, die einen Erkennungssensor 30 beherbergt, welcher eine 16x1 Anordnung von vertikalen gestapelten faseroptischen Elementen sein kann, die an 16 individuelle Fototransistoren angeschlossen sind, wobei jeder einen fest verdrahteten Anschluss an eine Videosteuerungsvorrichtung oder einen Mikroprozessoreingangsan-schluss 32 hat. Eine Infrarotlichtquelle 34, welche aus zu unterschiedlichen Winkeln eingestellten Doppel-Infrarot LEDs besteht, befindet sich direkt auf der anderen Seite des Riemens gegenüber dem Erkennungssensor 30 und stellt die notwendige Beleuchtung bereit, um die Fototransistoren zu schalten, die jeder den 16 faseroptischen Fäden zugeordnet sind, abhängend davon, ob der einzelne Faden beleuchtet ist oder durch den Arbeitsgegenstand beschattet ist.
5
10
15
20
25
30
35
40
45
50
55
60
65
2
3
CH 684 579 A5
4
Wahlweise kann die lineare Anordnung von Sensoren eine Säule von CCD-Einheiten aufweisen, welche eine Bildelementdichte von ungefähr zwischen 1000 und 4000 Bildelementen pro 2,54 cm bereitstellen, und vorzugsweise 2000 Bildelemente pro 2,54 cm wodurch ein hoch-auflösender Sensor bereitgestellt wird. Die CCD-Einheiten werden bei einer Frequenz zwischen ungefähr 1 MHz und 40 MHz abgetastet, und vorzugsweile bei etwa 10 MHz, um ein Analogsignal zu erzeugen. Hardwareverdichtung von an den Mikroprozessor angelegten Daten gestattet verbesserte Bildauflösung, die erzielt werden soll, während die Forderungen an die Verarbeitungszeit und Speichergrösse reduziert werden. Die vorliegende Erfindung ist ebenfalls verwendbar mit den in diesen Anmeldungen offengelegten Systemen.
Die zweite Unterbrechung in dem Zaun 28 ist vorhanden, um einen ersten optischen Infrarot-Durchstrahlungsschalter bzw. eine Lichtschranke zu beherbergen, der aus einem Empfänger 36 und einer Lichtquelle 38 besteht.
Unmittelbar vor dem Eingangsanschluss der Orientierungseinrichtung 24 kann wahlweise bei einer dritten Unterbrechung in dem Zaun 28 eine zweite optische Infrarot-Durchstrahlungsschaltereinrichtung positioniert sein mit einem Empfänger 40 und einer Lichtquelle 42.
Der Erkennungssensor kommuniziert über eine Führungsleitung 48 mit einer Videosteuerungsvorrichtung 44, welche ihrerseits in Kommunikation mit einer Orientierungssteuerungsvorrichtung 46 ist.
Die Videosteuerungsvorrichtung 44 ist fest verdrahtet mit den Arbeitsgegenstandssensoren 30, während die Orientierungssteuerungsvorrichtung 36 mit den Gegenstandserkennungssensoren 36 und 40 und der Reorientierungsvorrichtung 24 verdichtet ist. Ein auf die Bewegung des Förderbandes bezogenes Signal wird durch die Zuleitung 58 der Orientierungssteuerungsvorrichtung 46 zugeführt. Steuerung und Überwachung der Riemengeschwindigkeit kann durch einen Drehgeber 62 stattfinden, welcher durch die Zuleitung 60 an die Videosteuerungsvorrichtung 44 angeschlossen ist, da eine konstante Riemengeschwindigkeit für das Aufrechterhalten der Bildauflösung in diesem Ausführungsbeispiel wichtig ist.
Die identischen Arbeitsstücke 18, 20 und 22, die zum Erklären der Patentbeschreibung ausgewählt wurden, sind in Fig. 1 und 3 gezeigt und weisen einen Plastikgegenstand mit einer Länge von ungefähr 7,5 cm auf, der mit einer stumpfen Endoberfläche ausgestattet ist, die entweder an dem Hinterende ist, wie bei 18 in Fig. 1 gezeigt, um die Orientierung A bereitzustellen oder an dem vorderen Ende, wie es der Fall ist für den Arbeitsgegenstand 20, um Orientierung B bereitzustellen. Der Arbeitsgegenstand 22 ist gezeigt mit einer dritten Orientierung C. Bis zu sieben Orientierungen können durch das unten beschriebene Programm bestimmt werden.
Beim Betrieb können die sich entlang des Pfades oder des Förderbandes 12 bewegenden Arbeitsgegenstände 18, 20 und 22 auf Konformität mit einem gewünschten und akzeptablen Arbeitsstück inspiziert werden. Bei einer derartigen Inspektion ist es notwendig, eine Gegenstandsorientierung zu identifizieren und solche Positionsänderungen durchzuführen, die nötig sind, damit alle Arbeitsgegenstände die Auslassseite der Reorientierungsvorrichtung 24 mit derselben Orientierung verlassen.
Dem in der programmierbaren Videosteuerungsvorrichtung 44 beherbergten Speicher wird eine Vielzahl von bis zu sieben möglichen Orientierungen eines Arbeitsgegenstandes «gelehrt», und zwar in einem Einstellverfahren, das dem Produktionsablauf vorausgeht. Die vorliegende Erfindung ist speziell angepasst zum Verringern der benötigten Zeit, zum Durchführen der Bestimmung der tatsächlichen Orientierung der Arbeitsstücke, oder Gegenstandsidentifizierung, je nach Fall.
Wie in dem '493 Patent erklärt, ist die Kapazität für Datenspeicherung in der Videosteuerungsvorrichtung 44 ausreichend, um Informationen zu speichern, die die Kantenpunkte eines Gegenstandes betrifft, welcher die Abtastvorrichtung bzw. den Scanner 30 passiert. Die gewöhnliche Erkennungsvorrichtung arbeitet in einem Schattenrissmodus, so dass nur Profilinformationsdaten benötigt werden. Jede Abtastung stellt eine Schnittscheibe des Gegenstandes dar und produziert zumindest einen Kantenpunkt auf dem Profil. Die Anzahl der Schnittscheiben pro Gegenstand kann z.B. 1000 sein, je nach der Fördergeschwindigkeit, der Gegenstandslänge und Mikroprozessorprogrammierung.
Um in Übereinstimmung mit der vorliegenden Erfindung zu arbeiten, wird ein Gegenstand mit akzeptablen Dimensionen an der Anordnung bzw. Array 30 vorbei durch die Fördereinrichtung zugeführt, und zwar in einer ersten Orientierung A. Diese Information wird in einem «Lern»-Modus gespeichert. Typischerweise wird dieses Verfahren zumindest einmal wiederholt, und wahlweise bis zu zehn Mal, um eine Einhüllende von Werten oder Durchschnittswerten für die erste Orientierung zu erhalten.
Als nächstes wird dem System beigebracht, eine zweite Orientierung B desselben Gegenstandes durch dasselbe Verfahren zu erkennen.
Zusätzliche Orientierungen C, D ... desselben Gegenstandes bis zu einer Gesamtzahl von sieben unterschiedlichen Orientierungen können durch das System des vorigen Patentes '493 verarbeitet werden. Wenn sämtliche benötigten Orientierungen gelehrt werden, d.h. in dem Videosteuerungsspeicher 44 gespeichert werden, wird das System weitergeführt von dem «Lern»-Modus zu dem «Fensterer-zeugungs»-Modus, bevor es weitergeht zu einem «Operations»-Modus, der ein wiederholtes Zuführen von Arbeitsgegenständen gestattet. Da die Förderbandgeschwindigkeit sorgfältig gesteuert wird, können, sobald die Gegenstandsförderkante erfasst worden ist, Informationsdaten für entsprechende durch sukzessive Schnittabtastung erhaltene Punkte identifiziert werden, und zwar durch zwischen 1 und 1000 in dem illustrierten Beispiel durchnumerierte Schnittscheiben. Die Kantenpunktdaten werden verglichen, um zu bestimmen, welche der Orientierungsdaten mit den Arbeitsgegenstandsdaten übereinstimmen.
5
10
15
20
25
30
35
40
45
50
55
60
65
3
5
CH 684 579 A5
6
Da die zum Verarbeiten der Kantenpunktdatenin-formation benötigte Zeit ein Faktor war, der die Geschwindigkeit begrenzt, mit der die Fördereinrichtung 12 arbeiten kann, wurden in der Vergangenheit verschiedene Anstrengungen gemacht, die Verarbeitungszeit zu verringern, um eine schnellere Klassifizierung von Gegenständen durch den Computer zu gestatten. Ein früherer Lösungsansatz war, dass man eine Bedienperson die in Betracht kommenden Bereiche von Hand einstellen lässt, mit einer Tastatur, einer Maus, oder dergleichen. Durch die vorliegende Erfindung ortet der Computer automatisch Bereiche maximaler Differenz zwischen den gespeicherten Gegenstandsinformationsdaten und den kollektiven Gegenstandsinformationsdaten, ohne dass die Beteiligung einer Bedienperson benötigt wird.
Es wird auf Fig. 2 verwiesen, welche ein Flussdiagramm zeigt zum Erzeugen der Fenster, die den numerierten Schnittabtastungen für einen bestimmten Gegenstand entsprechen, dessen Orientierung zu bestimmen ist.
Das in Fig. 2 gezeigte Verfahren wird in Verbindung mit einem Gegenstand beschrieben, der vier Orientierungen haben kann, welche getrennt festgestellt werden müssen. Das Programm ist in der Lage, bis zu sieben Orientierungen, wie oben beschrieben, zu erfassen. Die vier Orientierungen A, B, C und D sind in Fig. 3 gezeigt. Vor dem Starten des Programms werden die Orientierungen genauso gespeichert, wie in dem vorherigen Patent '493 beschrieben.
Unter Verwendung des Programmes von Fig. 2 werden die Abtastscheiben 2 bis 999 identifiziert, wo maximale Abweichung auftritt zwischen den Randkanten, die sich in den verschiedenen Orientierungen darbieten. Der Gegenstand hat eine willkürliche Länge von 1000 Abtastscheiben, die entlang der X-Achse orientiert sind. Die Gegenstandshöhe wird willkürlich auf 400 Einheiten entlang der Y-Achse bestimmt. Die Dicke der Teile des Gegenstandes wird als 100 Einheiten entlang der Y-Achse gemessen angenommen.
Weiterhin unter Bezugnahme auf Fig. 2 wird der Prozess initialisiert durch Einstellen eines ersten Schleifenzählers A auf Null bei Schritt 102. Bei Schritt 104 wird der Zähler inkrementiert und an das Register angeschlossen, wo die Daten der Orientierung von A gespeichert sind. Bei Schritt 106 und 108 werden die Vorderkanten- und die Hinter-kanten-Abtastscheiben gespeichert, entsprechend den X-Achsenpositionen 1 und 1000 in Fig. 3. Dies entspricht Abtastscheiben 1 und 1000, wenn man annimmt, dass ein Gegenstand von etwa 7,5 cm Länge 1000 mal sequentiell abgetastet wird, wenn er den Sensor 30 von Fig. 1 passiert. In diesem Ausführungsbeispiel werden die Abtastscheiben 1 und 1000 immer gespeichert. Bei Schritt 110 in Fig. 2 wird gespeicherte Information der Orientierung A abgerufen.
Bei Schritt 112 wird ein zweiter Schleifenzähler B auf Null gesetzt und bei Schritt 114 inkrementiert zu einer Position mit einer Iteration unter Bezug auf Daten der Orientierung A, welche bei Schritt 110 gesammelt wurden. Eine Iteration vergleicht gelernte Daten der Orientierung A mit gelernten Daten der Orientierung A, indem sie mit einer Abtastscheibe 2 von sowohl Daten der Orientierung A als auch der Orientierung A beginnt. Die Anzahl der Unterschiede in diesen Bildelementdaten bei Abtastscheibe 2 für die Orientierung A wird bestimmt und wird als eine Trefferzahl bezeichnet. Dasselbe Verfahren wird weiter verfolgt für Abtastscheiben 3 bis 999. Insgesamt werden 998 Trefferzahlen bei Schritt 116 bestimmt.
Bei Schritt 118 sollte die entsprechend bestimmte Trefferzahl Null sein. Auch kann der gleiche Wert kleiner als zehn als eine maximale Trefferzahl identifiziert werden, und seine Abtastscheibennummer wird als ein Fenster gespeichert. Während ein Lesen von nur einem Fenster theoretisch ausreichend ist, um zu bestimmen, dass eine Stück- bzw. Teileorientierung mit einer gespeicherten bekannten Orientierung nicht übereinstimmt, können in der Praxis mehrere Scheibennummern, z.B. bis zu ungefähr 20, gespeichert werden, wo die Trefferzahlen die grössten sind, um die Wahrscheinlichkeit einer Mehrdeutigkeit in den Ergebnissen zu reduzieren. Diese Bestimmung wird bei Schritt 126 durchgeführt.
Daten der Orientierung A werden dann auf die gleiche Art und Weise mit Daten der Orientierung B verglichen, und eine neue maximale Differenz bei einem neuen Scheibenabtastort wird erzeugt. Diese Scheibenabtastnummer wird als ein zweites Fenster gespeichert. Ein anderes Signal an Zuleitung 124 inkrementiert den Schleifenzähler B bei Schritt 114, um Daten der Orientierung C zu empfangen, wonach die Scheibennummer für ein drittes Fenster erzeugt wird. Der Schleifenzähler B bei Schritt 114 inkrementiert weiterhin, bis B gleich der Anzahl der gespeicherten Orientierungen ist.
Bei Schritt 126 wird bestimmt, ob eine ausreichende Anzahl von Fenstern erzeugt worden ist. Falls nicht, wird dasselbe Verfahren wiederholt. Falls «ja», schreitet das Verfahren mit Schritt 130 fort, um zu bestimmen, ob Zähler A gleich der Gesamtnummer der Orientierungen ist, welche gelernt worden sind. In diesem Beispiel muss gespeicherte Information, die den Orientierungen B, C und D entspricht, mit den gesamten gelernten Orientierungsdaten verglichen werden, bevor das Programm vervollständigt wird. Zu dieser Zeit werden die Orientierungen A, B, C und D jeweils individuell verglichen worden sein mit gespeicherten Orientierungsdaten für dieselben Orientierungen A, B, C und D. Am Ende des Einrichteverfahrens werden zumindest zwölf Abtastscheibennummern als Fenster identifiziert, da jede der vier Gegenstandsorientierungen drei maximale Differenzen haben wird, welche jeweils drei Fenster erzeugen. Einige der Fenster erscheinen bei der gleichen Abtastscheibe.
Wie in Fig. 3 gezeigt, werden Fenster durch das Programm von Fig. 2 erstellt ohne eine Auswahl durch eine Bedienperson bei Zählständen 99, 199, 799 und 899. Diese sind die wichtigen Fenster zur Gegenstandsorientierungsbestimmung in dem speziellen Beispiel, welches hier beschrieben wird. Wenn die Fenster einmal identifiziert worden sind, hat es sich als nützlich herausgestellt, jedes Fenster zu expandieren, um eine Weite von drei oder
5
10
15
20
25
30
35
40
45
50
55
60
65
4
7
CH 684 579 A5
8
fünf Abtastscheiben zu haben, welche um die Abtastscheibe zentriert sind. Somit kompensiert ein Aufweiten eines Fensters mögliche Datenversetzungen, welche in einigen Systemen auftreten können aufgrund von mechanischer Abnutzung und anderen Veränderungen, welche während einem durchgehenden Betrieb über mehrere Wochen auftreten.
Nachdem die Fenster in einer Einstelloperation erzeugt sind, werden Arbeitsgegenstände an der Abtastvorrichtung vorbeigeführt, um Kantenpunkte an dem Gegenstandsprofil zu identifizieren. Ein Vergleich arbeitet im Echtzeitverfahren, um eine Gegenstandsorientierung im Echtzeitverfahren während einem Intervall zu bestimmen, das dem Intervall zwischen aufeinanderfolgenden Arbeitsgegenständen auf der Fördereinrichtung entspricht.
Wenn ein Arbeitsgegenstand an dem Sensor 30 von Fig. 1 vorbeibewegt wird, welcher eine Orientierung A hat, wie in Fig. 3 gezeigt, wird ein Vergleich zwischen den Arbeitsgegenstandsprofildaten und jeder der erlernten Orientierungen A, B, C und D durchgeführt, und zwar bei den durch das Programm von Fig. 2 vorhergehend ausgewählten Fenstern. Ein Vergleichen der Arbeitsgegenstandprofil-daten der Orientierung A mit gespeicherten Daten der Orientierung A ergibt eine totale Trefferzahl von Null. Ein ähnlicher Vergleich derselben Arbeitsgegenstandsdaten mit den gespeicherten Daten der Orientierung B ergibt eine Trefferzahl von 300 bei jedem der vier Fenster 99, 199, 799 und 899, wodurch eine totale Trefferzahl von 1200 erzeugt wird. Derselbe Vergleich mit den gespeicherten Daten der Orientierung C ergibt eine totale Trefferzahl von 400, und mit den Daten der Orientierung D ergibt er eine totale Trefferzahl von 1000.
Aus Fig. 3 ist ersichtlich, dass unabhängig davon, welche Orientierung der Arbeitsgegenstand annimmt, eine gespeicherte Orientierungsübereinstimmung mit einer Trefferzahl bei oder in der Nähe von Null erhalten wird und die Orientierung des Arbeitsgegenstandes dadurch erkannt wird. Wo jedes Fenster eine Weite von drei oder fünf Abtastscheiben hat, nimmt die Trefferzahl für Orientierungs-Nichtübereinstimmung zu, während sie im wesentlichen bei Null bleibt für die tatsächliche Orientierung. Die Ergebnisse, welche erhalten werden mit einem Vergleich von nur vier oder bis zu ca. 20 Fenstern entlang eines Gegenstandes der Länge von drei Inch, können mit weniger Speicher und weniger Zeit erzielt werden, als wenn die gesamte Bildelementinformation verarbeitet wird, während gleichzeitig die Leistungsfähigkeit völlig zuverlässig ist. Wo das in der begleitenden, ebenfalls offenen Anmeldung offengelegte hochauflösende System verwendet wird, können sogar noch grössere Geschwindigkeiten erzielt werden, was es gestattet, eine grössere Anzahl von Gegenständen pro Zeiteinheit zu verarbeiten.
Die Videosteuerungsvorrichtung 44 ist fest verdrahtet mit den Arbeitsgegenstandssensoren 30, während die Orientierungssteuerungsvorrichtung 36 mit den Gegenstandserkennungssensoren 36 und 40 und der Reorientierungsvorrichtung 24 verdichtet ist. Ein auf die Bewegung des Förderbandes bezogenes Signal wird durch die Zuleitung 58 der
Orientierungssteuerungsvorrichtung 46 zugeführt. Steuerung und Überwachung der Riemengeschwindigkeit kann durch einen Drehgeber 62 stattfinden, welcher durch die Zuleitung 60 an die Videosteuerungsvorrichtung 44 angeschlossen ist, da eine konstante Riemengeschwindigkeit für das Aufrechterhalten der Bildauflösung in diesem Ausführungsbeispiel wichtig ist.
Die identischen Arbeitsstücke 18, 20 und 22, die zum Erklären der Patentbeschreibung ausgewählt wurden, sind in Fig. 1 und 3 gezeigt und weisen einen Plastikgegenstand mit einer Länge von ungefähr 7,5 cm auf, der mit einer stumpfen Endoberfläche ausgestattet ist, die entweder an dem Hinterende ist, wie bei 18 in Fig. 1 gezeigt, um die Orientierung A bereitzustellen oder an dem vorderen Ende, wie es der Fall ist für den Arbeitsgegenstand 20, um Orientierung B bereitzustellen. Der Arbeitsgegenstand 22 ist gezeigt mit einer dritten Orientierung C. Bis zu sieben Orientierungen können durch das unten beschriebene Programm bestimmt werden.
Beim Betrieb können die sich entlang des Pfades oder des Förderbandes 12 bewegenden Arbeitsgegenstände 18, 20 und 22 auf Konformität mit einem gewünschten und akzeptablen Arbeitsstück inspiziert werden. Bei einer derartigen Inspektion ist es notwendig, eine Gegenstandsorientierung zu identifizieren und solche Positionsänderungen durchzuführen, die nötig sind, damit alle Arbeitsgegenstände die Auslassseite der Reorientierungsvorrichtung 24 mit der selben Orientierung verlassen.
Dem in der programmierbaren Videosteuerungsvorrichtung 44 beherbergten Speicher wird eine Vielzahl von bis zu sieben möglichen Orientierungen eines Arbeitsgegenstandes «gelehrt», und zwar in einem Einstellverfahren, das dem Produktionsablauf vorausgeht. Die vorliegende Erfindung ist speziell angepasst zum Verringern der benötigten Zeit, zum Durchführen der Bestimmung der tatsächlichen Orientierung der Arbeitsstücke, oder Gegenstandsidentifizierung, je nach Fall.
Wie in dem '493 Patent erklärt, ist die Kapazität für Datenspeicherung in der Videosteuerungsvorrichtung 44 ausreichend, um Informationen zu speichern, die die Kantenpunkte eines Gegenstandes betrifft, welcher die Abtastvorrichtung bzw. den Scanner 30 passiert. Die gewöhnliche Erkennungsvorrichtung arbeitet in einem Schattenrissmodus, so dass nur Profilinformationsdaten benötigt werden. Jede Abtastung stellt eine Schnittscheibe des Gegenstandes dar und produziert zumindest einen Kantenpunkt auf dem Profil. Die Anzahl der Schnittscheiben pro Gegenstand kann z.B. 1000 sein, je nach der Fördergeschwindigkeit, der Gegenstandslänge und Mikroprozessorprogrammierung.
Um in Übereinstimmung mit der vorliegenden Erfindung zu arbeiten, wird ein Gegenstand mit akzeptablen Dimensionen an der Anordnung bzw. Array 30 vorbei durch die Fördereinrichtung zugeführt, und zwar in einer ersten Orientierung A.
Diese Information wird in einem «Lern»-Modus gespeichert. Typischerweise wird dieses Verfahren zumindest einmal wiederholt, und wahlweise bis zu zehn Mal, um eine Einhüllende von Werten oder
5
10
15
20
25
30
35
40
45
50
55
60
65
5
9
CH 684 579 A5
10
Durchschnittswerten für die erste Orientierung zu erhalten.
Als nächstes wird dem System beigebracht, eine zweite Orientierung B desselben Gegenstandes durch dasselbe Verfahren zu erkennen.
Zusätzliche Orientierungen C, D ... desselben Gegenstandes bis zu einer Gesamtzahl von sieben unterschiedlichen Orientierungen können durch das System des vorigen Patentes '493 verarbeitet werden. Wenn sämtliche benötigten Orientierungen gelehrt werden, d.h. in dem Videosteuerungsspeicher 44 gespeichert werden, wird das System weitergeführt von dem «Lern»-Modus zu dem «Fensterer-zeugungs»Modus, bevor es weitergeht zu einem «Operations»-Modus, der ein wiederholtes Zuführen von Arbeitsgegenständen gestattet. Da die Förderbandgeschwindigkeit sorgfältig gesteuert wird, können, sobald die Gegenstandsförderkante erfasst worden ist, Informationsdaten für entsprechende durch sukzessive Schnittabtastung erhaltene Punkte identifiziert werden, und zwar durch zwischen 1 und 1000 in dem illustrierten Beispiel durchnumerierte Schnittscheiben. Die Kantenpunktdaten werden verglichen, um zu bestimmen, welche der Orientierungsdaten mit den Arbeitsgegenstandsdaten übereinstimmen.
Da die zum Verarbeiten der Kantenpunktdatenin-formation benötigte Zeit ein Faktor war, der die Geschwindigkeit begrenzt, mit der die Fördereinrichtung 12 arbeiten kann, wurden in der Vergangenheit verschiedene Anstrengungen gemacht, die Verarbeitungszeit zu verringern, um eine schnellere Klassifizierung von Gegenständen durch den Computer zu gestatten. Ein früherer Lösungsansatz war, dass man eine Bedienperson die in Betracht kommenden Bereiche von Hand einstellen lässt, mit einer Tastatur, einer Maus, oder dergleichen. Durch die vorliegende Erfindung ortet der Computer automatisch Bereiche maximaler Differenz zwischen den gespeicherten Gegenstandsinformationsdaten und den kollektiven Gegenstandsinformationsdaten, ohne dass die Beteiligung einer Bedienperson benötigt wird.
Es wird auf Fig. 2 verwiesen, welche ein Flussdiagramm zeigt zum Erzeugen der Fenster, die den numerierten Schnittabtastungen für einen bestimmten Gegenstand entsprechen, dessen Orientierung zu bestimmen ist.
Das in Fig. 2 gezeigte Verfahren wird in Verbindung mit einem Gegenstand beschrieben, der vier Orientierungen haben kann, welche getrennt festgestellt werden müssen. Das Programm ist in der Lage, bis zu sieben Orientierungen, wie oben beschrieben, zu erfassen. Die vier Orientierungen A, B, C und D sind in Fig. 3 gezeigt. Vor dem Starten des Programms werden die Orientierungen genauso gespeichert, wie in dem vorherigen Patent '493 beschrieben.
Unter Verwendung des Programmes von Fig. 2 werden die Abtastscheiben 2 bis 999 identifiziert, wo maximale Abweichung auftritt zwischen den Randkanten, die sich in den verschiedenen Orientierungen darbieten. Der Gegenstand hat eine willkürliche Länge von 1000 Abtastscheiben, die entlang der X-Achse orientiert sind. Die Gegenstandshöhe wird willkürlich auf 400 Einheiten entlang der Y-Achse bestimmt. Die Dicke der Teile des Gegenstandes wird als 100 Einheiten entlang der Y-Achse gemessen angenommen.
Weiterhin unter Bezugnahme auf Fig. 2 wird der Prozess initialisiert durch Einstellen eines ersten Schleifenzählers A auf Null bei Schritt 102. Bei Schritt 104 wird der Zähler inkrementiert und an das Register angeschlossen, wo die Daten der Orientierung von A gespeichert sind. Bei Schritt 106 und 108 werden die Vorderkanten- und die Hinterkanten-Abtastscheiben gespeichert, entsprechend den X-Achsenpositionen 1 und 1000 in Fig. 3. Dies entspricht Abtastscheiben 1 und 1000, wenn man annimmt, dass ein Gegenstand von 7,5 cm Länge 1000mal sequentiell abgetastet wird, wenn er den Sensor 30 von Fig. 1 passiert. In diesem Ausführungsbeispiel werden die Abtastscheiben 1 und 1000 immer gespeichert. Bei Schritt 110 in Fig. 2 wird gespeicherte Information der Orientierung A abgerufen.
Bei Schritt 112 wird ein zweiter Schleifenzähler B auf Null gesetzt und bei Schritt 114 inkrementiert zu einer Position mit einer Iteration unter Bezug auf Daten der Orientierung A, welche bei Schritt 110 gesammelt wurden. Eine Iteration vergleicht gelernte Daten der Orientierung A mit gelernten Daten der Orientierung A, indem sie mit einer Abtastscheibe 2 von sowohl Daten der Orientierung A als auch der Orientierung A beginnt. Die Anzahl der Unterschiede in diesen Bildelementdaten bei Abtastscheibe 2 für die Orientierung A wird bestimmt und wird als eine Trefferzahl bezeichnet. Dasselbe Verfahren wird welter verfolgt für Abtastscheiben 3 bis 999. Insgesamt werden 998 Trefferzahlen bei Schritt 116 bestimmt.
Bei Schritt 118 sollte die entsprechend bestimmte Trefferzahl Null sein. Auch kann der gleiche Wert kleiner als zehn eine maximale Trefferzahl sein, und seine Abtastscheibennummer wird als ein Fenster gespeichert. Während ein Lesen von nur einem Fenster theoretisch ausreichend ist, um zu bestimmen, dass eine Stück- bzw. Teileorientierung mit einer gespeicherten bekannten Orientierung nicht übereinstimmt, können in der Praxis mehrere Scheibennummern, z.B. bis zu ungefähr 20, gespeichert werden, wo die Trefferzahlen die grössten sind, um die Wahrscheinlichkeit einer Mehrdeutigkeit in den Ergebnissen zu reduzieren. Diese Bestimmung wird bei Schritt 126 durchgeführt.
Daten der Orientierung A werden dann auf die gleiche Art und Weise mit Daten der Orientierung B verglichen, und eine neue maximale Differenz bei einem neuen Scheibenabtastort wird erzeugt. Diese Scheibenabtastnummer wird als ein zweites Fenster gespeichert. Ein anderes Signal an Zuleitung 124 inkrementiert den Schleifenzähler B bei Schritt 114, um Daten der Orientierung C zu empfangen, wonach die Scheibennummer für ein drittes Fenster erzeugt wird. Der Schleifenzähler B bei Schritt 114 inkrementiert weiterhin, bis B gleich der Anzahl der gespeicherten Orientierungen ist.
Bei Schritt 126 wird bestimmt, ob eine ausreichende Anzahl von Fenstern erzeugt worden ist. Falls nicht, wird dasselbe Verfahren wiederholt.
5
10
15
20
25
30
35
40
45
50
55
60
65
6
11
CH 684 579 A5
12
Falls «ja», schreitet das Verfahren mit Schritt 130 fort, um zu bestimmen, ob Zähler A gleich der Gesamtnummer der Orientierungen ist, welche gelernt worden sind. In diesem Beispiel muss gespeicherte Information, die den Orientierungen B, C und D entspricht, mit den gesamten gelernten Orientierungsdaten verglichen werden, bevor das Programm vervollständigt wird. Zu dieser Zeit werden die Orientierungen A, B, C und D jeweils individuell verglichen worden sein mit gespeicherten Orientierungsdaten für dieselben Orientierungen A, B, C und D. Am Ende des Einrichteverfahrens werden zumindest zwölf Abtastscheibennummern als Fenster identifiziert, da jede der vier Gegenstandsorientierungen drei maximale Differenzen haben wird, welche jeweils drei Fenster erzeugen. Einige der Fenster erscheinen bei der gleichen Abtastscheibe.
Wie in Fig. 3 gezeigt, werden Fenster durch das Programm von Fig. 2 erstellt ohne eine Auswahl durch eine Bedienperson bei Zähiständen 99, 199, 799 und 899. Diese sind die wichtigen Fenster zur Gegenstandsorientierungsbestimmung in dem speziellen Beispiel, welches hier beschrieben wird. Wenn die Fenster einmal identifiziert worden sind, hat es sich als nützlich herausgestellt, jedes Fenster zu expandieren, um eine Weite von drei oder fünf Abtastscheiben zu haben, welche um die Abtastscheibe zentriert sind. Somit kompensiert ein Aufweiten eines Fensters mögliche Datenversetzungen, welche in einigen Systemen auftreten können aufgrund von mechanischer Abnutzung und anderen Veränderungen, welche während einem durchgehenden Betrieb über mehrere Wochen auftreten.
Nachdem die Fenster in einer Einstelloperation erzeugt sind, werden Arbeitsgegenstände an der Abtastvorrichtung 30 vorbeigeführt, um Kantenpunkte an dem Gegenstandsprofil zu identifizieren. Ein Vergleich arbeitet im Echtzeitverfahren, um eine Gegenstandsorientierung im Echtzeitverfahren während einem Intervall zu bestimmen, das dem Intervall zwischen aufeinanderfolgenden Arbeitsgegenständen auf der Fördereinrichtung entspricht.
Wenn ein Arbeitsgegenstand an dem Sensor 30 von Fig. 1 vorbeibewegt wird, welcher eine Orientierung A hat, wie in Fig. 3 gezeigt, wird ein Vergleich zwischen den Arbeitsgegenstandsprofildaten und jeder der erlernten Orientierungen A, B, C und D durchgeführt, und zwar bei den durch das Programm von Fig. 2 vorhergehend ausgewählten Fenstern. Ein Vergleichen der Arbeitsgegenstandprofil-daten der Orientierung A mit gespeicherten Daten der Orientierung A ergibt eine totale Trefferzahl von Null. Ein ähnlicher Vergleich derselben Arbeitsgegenstandsdaten mit den gespeicherten Daten der Orientierung B ergibt eine Trefferzahl von 300 bei jedem der vier Fenster 99, 199, 799 und 899, wodurch eine totale Trefferzahl von 1200 erzeugt wird. Derselbe Vergleich mit den gespeicherten Daten der Orientierung C ergibt eine totale Trefferzahl von 400, und mit den Daten der Orientierung D ergibt er eine totale Trefferzahl von 1000.
Aus Fig. 3 ist ersichtlich, dass unabhängig davon, welche Orientierung der Arbeitsgegenstand annimmt, eine gespeicherte Orientierungsübereinstimmung mit einer Trefferzahl bei oder in der Nähe von Null erhalten wird und die Orientierung des Arbeitsgegenstandes dadurch erkannt wird. Wo jedes Fenster eine Weite von drei oder fünf Abtastscheiben hat, nimmt die Trefferzahl für Orientierungs-Nichtübereinstimmung zu, während sie im wesentlichen bei Null bleibt für die tatsächliche Orientierung. Die Ergebnisse, welche erhalten werden mit einem Vergleich von nur vier oder bis zu ca. 20 Fenstern entlang eines Gegenstandes der Länge von drei Inch, können mit weniger Speicher und weniger Zeit erzielt werden, als wenn die gesamte Bildelementinformation verarbeitet wird, während gleichzeitig die Leistungsfähigkeit völlig zuverlässig ist. Wo das in der begleitenden, ebenfalls offenen Anmeldung offengelegte hochauflösende System verwendet wird, können sogar noch grössere Geschwindigkeiten erzielt werden, was es gestattet, eine grössere Anzahl von Gegenständen pro Zeiteinheit zu verarbeiten.

Claims (1)

  1. Patentansprüche
    1. Verfahren zum Bestimmen der Orientierung von in einer Reihe angeordneten Gegenständen auf einer Fördereinrichtung mit einer Einstell- und einer Arbeitsphase durch Erfassen von Gegenstandsorientierung mit einer Anordnung von optischen Sensoren, die so wirken, dass sie Informationsdaten bereitstellen, die sich auf ein Muster von Gegenstandskantenpunkten beziehen über aufeinanderfolgende, lineare Abtastungen des Gegenstandes, wodurch Informationsdaten bereitgestellt werden, wobei das Verfahren während einer Einstellphase die Schritte aufweist:
    a) Speichern von Profilbildinformationsdaten für eine Vielzahl von vorbestimmten, möglichen Gegenstandsorientierungen,
    b) Bestimmen einer maximalen Datendifferenz zwischen jedem Paar von möglichen Orientierungen, basierend auf in Schritt a) gespeicherter Information aus einem Profilbild;
    c) Identifizieren von mindestens einer Längsposition an dem Gegenstand, wobei diese Längsposition einem Fenster maximaler Datendifferenz zwischen einem unterschiedlichen Paar von Orientierungen entspricht; und das Verfahren während einer Arbeitsphase folgende Schritte aufweist:
    d) Erfassen vergleichbarer Profilbildinformationsdaten von in einer Reihe angeordneten Arbeitsgegenständen, welche mit den gespeicherten Informationsdaten verglichen werden, und zwar bei jedem dieser Fenster maximaler Datendifferenz; und e) Bestimmen einer Orientierungs-Nichtübereinstimmung der Arbeitsgegenstandsorientierung und der gespeicherten Gegenstandsorientierung, falls die Datendifferenz bei dem Fenster grösser als ein vorbestimmter Wert ist.
    2. Verfahren nach Anspruch 1, welches weiterhin den folgenden Schritt aufweist: Identifizieren einer Orientierungs-Nichtübereinstimmung zwischen der Arbeitsgegenstandsorientierung und einer gespeicherten Gegenstandsorientierung nur dann, falls die Datendifferenz bei dem Fenster weniger ist, als ein vorbestimmter Wert.
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    7
    13
    CH 684 579 A5
    14
    3. Verfahren nach Anspruch 2, welches weiterhin die folgenden Schritte aufweist: Bestimmen einer Vielzahl von Fenstern entlang der Gegenstandslänge, wo grössere Differenzen für jedes Paar von möglichen Orientierungen auftreten; Bilden einer Gesamtsumme der Differenzen bei jedem von dieser Vielzahl von Fenstern; Verwenden dieser Summe von Differenzen zum Identifizieren einer Arbeitsgegenstandsorientierung.
    4. Verfahren nach Anspruch 3, worin die Vielzahl von Fenstern zumindest vier ist und weniger als 10% der Gesamtzahl möglicher Fenster.
    5. Verfahren nach Anspruch 4 einschliesslich eines weiteren Schrittes während des Einstellverfahrens: Expandieren der Fenstergrösse von einer Abtastscheibe, um nicht mehr als zwei benachbarte Abtastscheiben auf jeder Seite einer maximalen Da-tenfensterposition zu beinhalten.
    6. Verfahren nach Anspruch 1, wobei die Ein-sieilphase folgende Schritte aufweist:
    a) Bereitstellen an einen Speicher von Abtast-scheiben-lnformationsdaten, welche sich auf eine Geometrie eines Teiles für eine Vielzahl von unterschiedlichen Teileorientierungen A und B beziehen, als Daten, die akkumuliert werden, während der Gegenstand an der Erfassungsstation in den Orientierungen A und B vorbeitransportiert wird, wodurch gelernte Informationsdaten zugeführt werden;
    b) Bestimmen einer Abtastscheibennummer, wo eine maximale Differenz existiert zwischen den Gegenstand-Kantenpunkten in den Orientierungen A und B durch Vergleichen der erlernten Informationsdaten;
    c) Speichern der Abtastscheibennummer; und wobei die Arbeitsphase folgende Schritte aufweist:
    d) Vorbeibewegen vereinzelter Arbeitsgegenstände an der Erfassungsstation;
    e) sequentielles Abtasten jedes Arbeitsgegenstandes, um Abtastscheiben zu bilden mit Ge-genstands-Kantenpunkt-lnformationsdaten bei jeder Abtastscheibe; und f) Erzeugen von Ausgabesteuerungssignalen, welche auf einem Vergleich der Arbeitsgegenstandinformation und der gespeicherten Information beruhen, und zwar bei der gespeicherten Abtastscheibennummer, ohne die sämtlichen Ge-genstands-Kantenpunkt-lnformationsdaten zu vergleichen.
    7. Verfahren nach Anspruch 6, wobei die Einstellphase folgende Schritte aufweist:
    a) Bestimmen einer zweiten Abtastscheibennummer, wenn eine maximale Differenz zwischen Gegenstands-Kantenpunkten existiert, wenn Orientierung B mit Orientierung A verglichen wird;
    b) Speichern von Abtastscheibennummern als numerierte Fenster; und wobei die Arbeitsphase folgenden Schritt aufweist:
    c) Subtrahieren von Arbeitsgegenstands-Informa-tionsdaten mit erlernten Informationsdaten nur an dem numerierten Fenster, um eine Trefferzahl zu erzeugen, die sich auf eine Differenz bezieht, welche sequentiell jedem Fensterort für jede der möglichen Orientierungen entspricht, wobei die tiefste Trefferzahl verwendet wird, um die Arbeitsgegenstandsorientierung zu identifizieren.
    8. Verfahren nach Anspruch 1, wobei die Einstellphase folgende Schritte aufweist:
    a) Bereitstellen an einen Speicher von Abtastscheiben-Informationsdaten, welche sich auf eine Geometrie eines Teiles für eine Vielzahl von unterschiedlichen Teilorientierungen A, B und C bezieht, als Daten, welche akkumuliert werden, während der Gegenstand in den Orientierungen A, B und C an der Erfassungsstation vorbei transportiert wird, wobei erlernte Informationsdaten bereitgestellt werden sollen;
    b) Bestimmen erster und zweiter Abtastscheibennummern, wo eine maximale Differenz zwischen Gegenstands-Kantenpunkten existiert, wenn Orientierung A mit Orientierung B bzw. mit Orientierung C verglichen wird;
    c) Bestimmen einer dritten und vierten Abtastscheibennummer, wo eine maximale Differenz zwischen Gegenstands-Kantenpunkten existiert, wenn Orientierung B mit Orientierung A bzw. Orientierung C verglichen wird;
    d) Bestimmen einer fünften und sechsten Abtastscheibennummer, wo eine maximale Differenz zwischen Gegenstands-Kantenpunkten existiert, wenn Orientierung C mit Orientierung A bzw. Orientierung B verglichen wird;
    e) Speichern der sechs Abtastscheibennummern als numerierte Fenster; und wobei die Arbeitsphase folgenden Schritte aufweist:
    f) Vorbeibewegen vereinzelter Arbeitsgegenstände an der Erfassungsstation;
    g) sequentielles Abtasten jedes Arbeitsgegenstandes, um Abtastscheiben mit Gegenstands-Kantenpunkt-Informationsdaten zumindest dort zu bilden, wo jedes Abtastscheibenfenster auftritt; und h) Subtrahieren von Arbeitsgegenstands-Informa-tionsdaten mit erlernten Informationsdaten nur bei diesen numerierten Fenstern, um eine Trefferzahl zu erzeugen, welche sich auf eine Differenz bezieht, die jedem Fensterort entspricht;
    i) Bilden der Gesamtsumme der Trefferzahl für jede der drei Orientierungen; und j) Verwenden der tiefsten Trefferzahl, um die Arbeitsgegenstandsorientierung zu identifizieren.
    9. Verfahren nach Anspruch 8, wobei die Vielzahl von Fenstern zumindest vier ist und weniger als 10% der Gesamtzahl möglicher Fenster.
    10. Verfahren nach Anspruch 9, welches während dem Einstellverfahren folgenden weiteren Schritt enthält: Expandieren der Fenstergrösse einer Abtastscheibe, um nicht mehr als zwei benachbarte Abtastscheiben zu enthalten, und zwar auf jeder Seite einer maximalen Datenfensterposition.
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    8
CH2723/91A 1990-09-24 1991-09-12 Verfahren zum Bestimmen der Orientierung von in einer Reihe angeordneten Gegenständen. CH684579A5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US58693990A 1990-09-24 1990-09-24

Publications (1)

Publication Number Publication Date
CH684579A5 true CH684579A5 (de) 1994-10-31

Family

ID=24347704

Family Applications (1)

Application Number Title Priority Date Filing Date
CH2723/91A CH684579A5 (de) 1990-09-24 1991-09-12 Verfahren zum Bestimmen der Orientierung von in einer Reihe angeordneten Gegenständen.

Country Status (9)

Country Link
US (1) US5353358A (de)
JP (1) JP2957032B2 (de)
AU (1) AU645123B2 (de)
CA (1) CA2051052A1 (de)
CH (1) CH684579A5 (de)
DE (1) DE4130399A1 (de)
ES (1) ES2048054B1 (de)
FR (1) FR2667179B1 (de)
IT (1) IT1270465B (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5911003A (en) * 1996-04-26 1999-06-08 Pressco Technology Inc. Color pattern evaluation system for randomly oriented articles
US5936722A (en) * 1996-08-15 1999-08-10 Armstrong; Brian S. R. Apparatus and method for determining the angular orientation of an object
US6384908B1 (en) 1996-08-15 2002-05-07 Go Sensors, Llc Orientation dependent radiation source
DE19639854A1 (de) * 1996-09-27 1998-06-10 Vitronic Dr Ing Stein Bildvera Verfahren und Vorrichtung zur Erfassung von auf potentiell großflächigen Gegenständen aufgebrachten, optisch erfaßbaren Informationen
DE19713521B4 (de) * 1997-04-02 2004-09-23 Festo Ag & Co Vorrichtung zur Erkennung falsch orientierter und/oder von einem vorgegebenen Muster abweichender Teile
US6434341B1 (en) * 1998-11-10 2002-08-13 Fuji Photo Film Co., Ltd. Orientation regularizing apparatus and sorting apparatus for lens-fitted photo film unit
US6735332B1 (en) * 2000-03-30 2004-05-11 Xerox Corporation System for determining the position of an object on a transport assembly from its boundary points
US20030116701A1 (en) * 2001-12-21 2003-06-26 Nickels Robert A. Software controled optical sensor for conveyors
CA2672431A1 (en) * 2006-09-19 2008-03-27 Meadwestvaco Packaging Systems, Llc Article alignment apparatus
CA2873752C (en) 2014-01-24 2021-03-09 Axium Inc. Product orientor

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4017721A (en) * 1974-05-16 1977-04-12 The Bendix Corporation Method and apparatus for determining the position of a body
US4441205A (en) * 1981-05-18 1984-04-03 Kulicke & Soffa Industries, Inc. Pattern recognition system
US4509075A (en) * 1981-06-15 1985-04-02 Oxbridge, Inc. Automatic optical inspection apparatus
JPS5959397A (ja) * 1982-09-29 1984-04-05 オムロン株式会社 特徴点のラベリング装置
GB8314778D0 (en) * 1983-05-27 1983-07-06 Pa Management Consult Adaptive pattern recognition
GB2152658A (en) * 1984-01-09 1985-08-07 Philips Electronic Associated Object sorting system
US4581762A (en) * 1984-01-19 1986-04-08 Itran Corporation Vision inspection system
US4794647A (en) * 1985-04-08 1988-12-27 Northern Telecom Limited Automatic optical inspection system
FR2582426B1 (fr) * 1985-05-22 1987-07-24 Telemecanique Electrique Procede et dispositif pour identifier les contours fermes d'objets places sur une surface
US4678920A (en) * 1985-06-17 1987-07-07 General Motors Corporation Machine vision method and apparatus
US4690284A (en) * 1985-10-04 1987-09-01 Cochlea Corporation Method of and apparatus for inspecting objects using multiple position detectors
US4784493A (en) * 1986-06-11 1988-11-15 Fmc Corporation Element recognition and orientation
US4965842A (en) * 1986-07-22 1990-10-23 Schlumberger Technologies, Inc. Method and apparatus for measuring feature dimensions using controlled dark-field illumination
US4711579A (en) * 1986-08-12 1987-12-08 H. Fred Johnston System for automatically inspecting a flat workpiece for holes
JPH0690725B2 (ja) * 1988-07-18 1994-11-14 日本電装株式会社 位置検出装置
JPH083405B2 (ja) * 1989-06-30 1996-01-17 松下電器産業株式会社 リード位置認識装置
US5103304A (en) * 1990-09-17 1992-04-07 Fmc Corporation High-resolution vision system for part inspection
US5157486A (en) * 1990-09-21 1992-10-20 Fmc Corporation High resolution camera sensor having a linear pixel array

Also Published As

Publication number Publication date
ITMI912532A0 (it) 1991-09-24
ES2048054B1 (es) 1995-06-16
AU8356091A (en) 1992-03-26
JP2957032B2 (ja) 1999-10-04
CA2051052A1 (en) 1992-03-25
IT1270465B (it) 1997-05-05
JPH04244907A (ja) 1992-09-01
FR2667179A1 (fr) 1992-03-27
ES2048054A2 (es) 1994-03-01
FR2667179B1 (fr) 1993-11-19
DE4130399A1 (de) 1992-03-26
US5353358A (en) 1994-10-04
AU645123B2 (en) 1994-01-06
ITMI912532A1 (it) 1993-03-24
ES2048054R (de) 1994-12-16

Similar Documents

Publication Publication Date Title
DE69628929T2 (de) Verfahren und Maschine zum Lesen und Zuordnen eines optischen Kodes
EP0409310B1 (de) Verfahren sowie Anordnung zum Bestimmen von Kanten in Bildern
DE69312516T2 (de) Automatische Abtast-Anordnung und -Verfahren
DE69811667T2 (de) Vorrichtung und verfahren zur erkennung und bestimmung der position eines tierteils
DE69002013T2 (de) Kontrolle von Gegenständen mit erhöhter Aufnahmegeschwindigkeit.
DE102018212531B4 (de) Artikeltransfervorrichtung
DE19751862C2 (de) Verfahren und Vorrichtung zum Identifizieren und Sortieren von bandgeförderten Objekten
DE69632468T2 (de) Verfahren zur Volumenmessung eines Gegenstandes mittels eines Laserabtasters und eines CCD Bildsensors
DE2744247A1 (de) Vorrichtung und verfahren zur oberflaechenbeschichtung
EP2275813A2 (de) Verfahren zur Charakterisierung von Effektgarn
DE2521037B2 (de) Verfahren und einrichtung zur messung und/oder ueberwachung der gleichfoermigkeit der oberflaeche eines werkstueckes
DE3920888A1 (de) Verfahren zur pruefung der enden von gestapelten zigaretten
EP0415154A1 (de) Verfahren zum Inspizieren von Gegenständen aus unterschiedlichen Blickwinkeln
DE2937335A1 (de) Pruefsystem fuer das aeussere erscheinungsbild von gegenstaenden
CH684244A5 (de) Hochauflösendes Handhabungssystem.
DD152870A1 (de) Verfahren und vorrichtung zum klassieren in bewegung befindlichen stueckgutes
EP0920617A1 (de) Verfahren und vorrichtung zur erkennung von fehlern in textilen flächengebilden
DE69507362T2 (de) Optisches Kontrollverfahren für Gegenstände
CH684579A5 (de) Verfahren zum Bestimmen der Orientierung von in einer Reihe angeordneten Gegenständen.
DE2428827A1 (de) Automatische bearbeitungsmaschine
DE3805455C2 (de)
DE69705517T2 (de) Gerät und Verfahren zur Feststellung der Anwesenheit und der Ausdehnung eines Objekts
DE19731530A1 (de) Optische Präzisionsabtastung von Filmperforationslöchern
EP0104369A2 (de) Einrichtung und Verfahren zum optischen Erkennen von Flächenmustern an Objekten
AT1959U1 (de) Verfahren zum sortieren von altpapier

Legal Events

Date Code Title Description
PL Patent ceased