DE19509884A1 - Verfahren zum Ausrichten von Zuschnittsegmenten - Google Patents

Verfahren zum Ausrichten von Zuschnittsegmenten

Info

Publication number
DE19509884A1
DE19509884A1 DE19509884A DE19509884A DE19509884A1 DE 19509884 A1 DE19509884 A1 DE 19509884A1 DE 19509884 A DE19509884 A DE 19509884A DE 19509884 A DE19509884 A DE 19509884A DE 19509884 A1 DE19509884 A1 DE 19509884A1
Authority
DE
Germany
Prior art keywords
pixel
signals
column
generating
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19509884A
Other languages
English (en)
Other versions
DE19509884C2 (de
Inventor
Craig L Chaiken
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gerber Scientific Inc
Original Assignee
Gerber Garment Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gerber Garment Technology Inc filed Critical Gerber Garment Technology Inc
Publication of DE19509884A1 publication Critical patent/DE19509884A1/de
Application granted granted Critical
Publication of DE19509884C2 publication Critical patent/DE19509884C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26DCUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
    • B26D5/00Arrangements for operating and controlling machines or devices for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
    • B26D5/007Control means comprising cameras, vision or image processing systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26DCUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
    • B26D5/00Arrangements for operating and controlling machines or devices for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26DCUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
    • B26D5/00Arrangements for operating and controlling machines or devices for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
    • B26D5/005Computer numerical control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26FPERFORATING; PUNCHING; CUTTING-OUT; STAMPING-OUT; SEVERING BY MEANS OTHER THAN CUTTING
    • B26F1/00Perforating; Punching; Cutting-out; Stamping-out; Apparatus therefor
    • B26F1/38Cutting-out; Stamping-out
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/408Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
    • G05B19/4083Adapting programme, configuration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26DCUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
    • B26D5/00Arrangements for operating and controlling machines or devices for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
    • B26D2005/002Performing a pattern matching operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26DCUTTING; DETAILS COMMON TO MACHINES FOR PERFORATING, PUNCHING, CUTTING-OUT, STAMPING-OUT OR SEVERING
    • B26D7/00Details of apparatus for cutting, cutting-out, stamping-out, punching, perforating, or severing by means other than cutting
    • B26D7/01Means for holding or positioning work
    • B26D7/018Holding the work by suction
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36503Adapt program to real coordinates, software orientation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45196Textile, embroidery, stitching machine

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Forests & Forestry (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Control Of Position Or Direction (AREA)
  • Control Of Cutting Processes (AREA)

Description

Die Erfindung betrifft Schnittmustersysteme für Kleidungs­ stücke, insbesondere Konfektionsschneidsysteme mit rechnerge­ stützter Musterausrichtung von Stoffdesigns wie Streifen, Ka­ ros oder entworfene Muster, die einer Videokamera unter­ schiedliche Kontraste bieten.
Zum Stand der Technik wird auf US-A-3 495 492 und US-A-3 548 697 Bezug genommen.
Die rechnergestützte Schnittmustererzeugung sowie entspre­ chende Schneidsysteme sind bereits bekannt. Hierzu gehören die Modelle S-91, S-93 und S-95 der Firma Gerber Garment Technology (GGT). Allgemein verwenden diese bekannten Systeme ein mit einem Rechner generiertes Schnittmuster zur Optimie­ rung der Zuschnittdichte und damit verbundenen Minimierung des Abfalls an Stoff. Stoffe mit einem Karo- oder Streifenmu­ ster verursachen jedoch Schwierigkeiten, weil der Modedesi­ gner eine Ausrichtung des Musters in mehreren einander benachbarten Stücken spezifizieren kann. Die größte Dichte der Stoffsegmente oder -teile in dem Schnittmuster bei dessen Auflage auf den Stoffist daher nicht unbedingt diejenige, die die richtige Musterausrichtung ermöglicht.
Bisher haben die rechnergestützten Schnittmustersysteme ein­ fach ziemlich große Toleranzen zwischen benachbarten Teilen generiert. Das zu schneidende Material wurde einer erfahrenen Arbeitskraft übergeben, die die verschiedenen Teile manuell auf das geometrische Stoffdesign ausrichtete und dann den Stoffzuschnitt. Dadurch entstanden bei Tuchen mit geometri­ schen Mustern wie Streifen oder Karos unvermeidbar höhere Stoffkosten durch höheren Abfall und die Anwendung langsamer Expertenarbeit beim Schneidprozeß.
Bei einem bekannten Zuschneidesystem für Stoffe mit Karo- oder Streifenmuster erfolgt eine rechnergestützte Musteran­ passung, die das manuelle oder automatische Anpassen eines Schnittmusters an das Stoffmuster sowie auch zwischen einer Folge von Stoffteilen ermöglicht. Dieses System arbeitet mit Datenreduziertechniken zum Verkürzen der Prozeßzeit und ent­ hält eine Einrichtung zum Optimieren der Bildstabilität, der Scharfeinstellung und der Beleuchtung.
Es wäre ein System von Vorteil, das eine rechnergestützte geometrische Stoffmusterausrichtung zwischen den Schnittmu­ sterteilen und dem Stoff ermöglicht, so daß die Vorteile der rechnergesteuerten Schneidtechnik o.a. unabhängig von dem durch geometrische Stoffmuster einer abtastenden Videokamera dargebotenen Kontrast nutzbar werden.
Die Aufgabe der Erfindung besteht darin, ein System für das Einstellen der Schnittmuster bei dem Zuschneiden gemusterter Stoffe anzugeben, das die Ausrichtung der Segmentanordnung eines Schnittmusters auf das Stoffmuster unabhängig von einer Fehlausrichtung des Stoffes selbst ermöglicht. Diese Ausrich­ tung soll auch unabhängig von dem mit einer Kamera auswertba­ ren Kontrast eines Stoffmusters möglich sein. Ferner soll auch eine Kalibrierung der Koordinaten einer Stoffbahn in be­ zug auf die entsprechenden Bildpixelsignale möglich sein.
Die Erfindung sieht ein Verfahren zum Ausrichten der Anord­ nung von Zuschnittsegmenten an einer ausgewählten Stelle ei­ nes Schnittmusters auf das geometrische Design einer Stoff­ bahn in einem System mit einem beweglichen Videosubsystem vor, zu dem eine Kamera mit einer Anordnung von Pixelelemen­ ten zur Aufnahme von Licht aus einem Teil der Stoffbahn und zum Abgeben entsprechender elektrischer Signale gehört. Das Verfahren enthält die Schritte des Empfangs von Schnittmu­ stersignalen einschließlich Segmentlagesignale und ein Refe­ renzsignal entsprechend einer Referenzposition in dem Schnittmuster sowie eine Ausrichtung der Kamerapixelelemente darauf vor. Bei dem Verfahren werden von dem Kamera-Video­ subsystem Signale einschließlich Signale entsprechend dem Stoffdesign empfangen, die die anfängliche Stoffdesignaus­ richtung relativ zu der Referenzposition des Schnittmusters angeben, und die Stoffdesignsignale werden in mehrere Winkel­ positionen gedreht. Das Verfahren vergleicht für jede Winkel­ position die gedrehten Stoffdesignsignale mit den Pixelele­ ment-Ausrichtsignalen und erzeugt daraus Signale, die die entsprechende Stoffbahnausrichtung angeben. Dann wird dieje­ nige Winkelposition ausgewählt, die die beste Ausrichtung der Kamerapixelelemente auf das Stoffmuster ergeben, und es wer­ den Signale zum Einstellen der Position der Segmentlagesigna­ le in dem Schnittmuster erzeugt, um eine Verschiebung zwi­ schen der anfänglichen Stoffdesignausrichtung und der ausge­ wählten Winkelposition zu beseitigen.
Vorteilhafte Weiterbildungen der Erfindung sind in den An­ sprüchen 8 und 14 gekennzeichnet. Anspruch 17 beschreibt ein System zum Ausrichten von Zuschnittsegmenten.
Die Erfindung wird im folgenden an Hand der Zeichnungen näher erläutert. Darin zeigen:
Fig. 1 eine vereinfachte schematische Darstellung eines Systems nach der Erfindung,
Fig. 2 eine vereinfachte schematische Darstellung eines Teils einer fehlausgerichteten Stoffbahn auf einem Tisch in dem System nach Fig. 1,
Fig. 3 eine schematische Darstellung eines Algorithmus in dem System nach Fig. 1 zum Einstellen eines Schnittmusters auf Fehlausrichtungen der Stoffbahn,
Fig. 4 eine vereinfachte schematische Zeichnung eines Stoffmusterteils in Fehlausrichtung relativ zu Ka­ merapixeln,
Fig. 5 eine vereinfachte schematische Darstellung einer rechnerischen Drehung in dem System nach Fig. 1,
Fig. 6 eine vereinfachte schematische Darstellung des Stoffmusterteils und der Kamerapixel nach Fig. 4 nach der rechnerischen Drehung,
Fig. 7 eine vereinfachte schematische Darstellung einer Zeilensegmentverschiebung in dem System nach Fig. 1,
Fig. 8 eine schematische Darstellung eines Algorithmus in dem System nach Fig. 1 zum Passen von Segmentanord­ nungen und Stoffmustern mit hohem Kontrast,
Fig. 9 eine schematische Darstellung einer Gauss′schen Be­ wertungsfunktion in dem System nach Fig. 1,
Fig. 10 eine vereinfachte Darstellung der relativen Verset­ zung einer berechneten Pixelanordnung als Unter­ gruppe eines Bildes,
Fig. 11 eine vereinfachte Darstellung eines Zeilensegments von Bildpixeln mit benachbarten Pixeln für einen Intensitäts-Mittelungsalgorithmus in dem System nach Fig. 1,
Fig. 12 eine schematische Darstellung eines in dem System nach Fig. 1 ausgeführten Algorithmus zum Passen von Segmentanordnungen und Stoffmustern mit geringem Kontrast,
Fig. 13 eine schematische Darstellung benachbarter Pixel mit jeweiligen relativen Intensitätswerten in einem Algorithmus in dem System nach Fig. 1 zum Berechnen eines bewerteten Mittelwertes benachbarter Bildpi­ xel,
Fig. 14 eine vereinfachte schematische Darstellung eines Teils eines Videobildes in dem System nach Fig. 1 mit einem Kalibrierungsobjekt,
Fig. 15 eine schematische Darstellung eines Algorithmus in dem System nach Fig. 1 zum Kalibrieren von Real­ welt- in Video-Bildkoordinaten, und
Fig. 16 eine schematische Darstellung eines Teils der Pixe­ lanordnung nach Fig. 13 mit Nachbar-Tabellenelemen­ ten.
Im folgenden wird ein Ausführungsbeispiel der Erfindung unter Anwendung der Einrichtung nach US-A-3 495 492 beschrieben. Auf diese Anwendung ist die Erfindung jedoch nicht be­ schränkt.
In Fig. 1 ist ein Schneidsystem 10 für Flachmaterial oder Stoffe dargestellt, das einen Tisch 12 auf Beinen 14 hat. Der Tisch 12 bildet einen behälterartigen Rahmen, der mehrere Plastikblöcke 16 mit Borsten trägt, die ein durchdringbares Bett 18 mit einer flachen Auflagefläche 20 bilden. Die durch­ gehende ebene Auflagefläche 20, die mit den Oberseiten der Blöcke 16 gebildet ist, trägt eine Lage 22 aus einer oder mehreren Schichten von Flachmaterial wie z. B. Stoff, die ver­ tikal gestapelt auf der Auflagefläche 20 liegen. Wie Fig. 6 und 7 zeigen, hat der Stoff ein periodisch eingewebtes geome­ trisches Muster 21. Die gestapelte Lage 22 kann mit einem dünnen Plastikfilm 24 beispielsweise aus Polyäthylen abge­ deckt sein, der einen auf die Lage 22 einwirkenden Unterdruck aufrecht erhält.
Ein Hauptwagen 26, der sich quer über den Tisch 12 erstreckt, wird an dem Tisch mit zwei länglichen Schienen 28 gehalten, die beiderseits des Tisches 12 in dessen Längsrichtung mon­ tiert sind, so daß der Wagen 26 in Längsrichtung oder X-Rich­ tung bewegt werden kann. Der Hauptwagen 26 hat eine nicht dargestellte Antriebswelle, die gleichfalls quer zum Tisch liegt und an ihren beiden Enden Ritzel hat, die in die Schie­ nen 28 zum Bewegen des Wagens 26 in Längsrichtung dienen, wenn ein Antriebsmotor 27 eingeschaltet ist, der mit der Welle antriebsmäßig verbunden ist. Der Hauptwagen 26 trägt einen Schneidkopfwagen 30, der in Y-Richtung an einer Füh­ rungsschiene oder einem Rohr 34 und an einer Führungsspindel 36 bewegbar geführt ist, die gleichfalls quer zum Tisch 12 liegt und den Schneidkopfwagen 30 quer über den Tisch oder in Y-Richtung trägt und führt, wenn ein weiterer Antriebsmotor 37 eingeschaltet ist, der mit der Führungsspindel 36 an­ triebsmäßig verbunden ist.
Der Schneidkopfwagen 30 hat einen Schneidkopf 40, der relativ zu ihm vertikal bewegt werden kann, so daß er gehoben und ab­ gesenkt wird, um ein hin und her bewegbares Messer 44 und ei­ ne zugehörige Andruckplatte aus einer normalen Schneidstel­ lung in eine Stellung zu bringen, in der beide Teile völlig außer Kontakt über der Lage 22 angeordnet sind. Wenn der Schneidkopf 40 angehoben wird, befindet sich das untere Ende des Messers 44 über der Lage 22, so daß der Schneidkopf 40 mit dem Messer 44 dann je nach Wunsch in jede voreingestellte Position über der Lage 22 gebracht und dann zum Schneiden ab­ gesenkt werden kann, so daß eine Schnittlinie an jeder ge­ wünschten Position in dem Stoff begonnen werden kann. Das Messer 44 wird vertikal mit einem nicht dargestellten Motor im Schneidkopf 40 hin und her bewegt und außerdem um seine eigene vertikale Achse gedreht, die auch als Theta-Achse be­ zeichnet wird, wie in Fig. 1 gezeigt. Hierzu dient ein weite­ rer nicht dargestellter Motor im Schneidkopf 40. Dem Fachmann ist geläufig, daß andere Schneideinrichtungen wie Laser oder Wasserstrahlschneider anstelle des Messers 44 verwendet wer­ den können.
Der Schneidkopf 40 trägt auch einen Zeiger 48 und ein Video­ subsystem mit einer Kamera 60. Der Zeiger 48 ist an einem Stift schwenkbar befestigt, der von dem Schneidkopf 40 ab­ steht, so daß er in die dargestellte Betriebsstellung vor dem Messer 44 gebracht werden kann, um den Schneidkopf 40 und das Messer 44 relativ zu einer gewünschten Position oder Index­ marke auf der Lage 22 genau zu positionieren. Dann wird der Zeiger 48 aufwärts in eine Ruhestellung gebracht, nachdem der Schneidkopf 40 positioniert wurde. Andere Zeiger als der in Fig. 1 dargestellte, beispielsweise ein Laser, können zur ge­ nauen Positionierung des Messers 44 auf einen bestimmten Punkt der Lage 22 vorgesehen sein.
Der Tisch 12 hat Kanäle 50, die mit einer Vakuumpumpe 52 ver­ bunden sind. Die Plastikabdeckung 24 auf der Lage 22 dient dazu, den durch die Tischoberfläche oder das Bett 18 aus po­ rösen oder vertikal belüfteten Plastikblöcken 16 einwirkenden Unterdruck zu halten, wodurch die Lage 22 als fester Stapel komprimiert wird, der beim Schneiden nicht verschoben wird. In der Zeichnung ist nur ein Tischsegment mit dem Unterdruck­ system schematisch zur leichteren Übersicht dargestellt. Je­ des Tischsegment hat ein separates Unterdruckventil, das durch den Hauptwagen 26 betätigt wird, wenn er sich über die­ sem Segment befindet. Unterdruck wird daher nur auf den Be­ reich unter dem Hauptwagen 26 ausgeübt, um das jeweils ge­ schnittene Material festzuhalten. Dies erlaubt ein leichtes Entfernen der geschnittenen Teile und ermöglicht den prakti­ schen Einsatz des Unterdrucks aus einer einzelnen Quelle.
Wenn mehr als eine gemusterte Stoffschicht zu schneiden ist, so kann auch ein Schneidetisch mit einem System aus Stiften günstig sein, der das Auslegen des Stoffes mit übereinstim­ mender Musterorientierung der aufeinanderliegenden Schichten erleichtert. Alternativ kann der Stoff entsprechend dem De­ sign ausgelegt werden, bevor der Stapel auf den Tisch aufge­ legt wird.
Das Schneidsystem 10 hat eine Steuerung 52, die über Leitun­ gen 54 Signale ausgibt und empfängt und sie entsprechend im folgenden zu beschreibenden Algorithmen verarbeitet. Die Steuerung enthält ein Sichtgerät 56 bekannter Art sowie eine normale Tastatur 58. Sie enthält ferner einen Personalcompu­ ter mit ausreichender Speicherkapazität und anderer periphe­ rer Hardware, um die noch zu beschreibenden Funktionen auszu­ führen. Es kann auch eine Bildverarbeitungsschaltung (video frame grabber) wie z. B. die Targa Plus-Platine von der Firma True Vision vorgesehen sein.
Bekanntlich besteht ein Schnittmuster aus mehreren benachbar­ ten Segmenten oder Zuschnittsteilen, die möglichst nahe bei­ einander liegen sollen, um den Stoffabfall minimal zu halten. Das hier beschriebene System verwendet eine rechnererzeugte Datei, die in der Steuerung als ein Schnittmuster enthalten ist. Sehr sorgfältig muß mit einem karierten oder anderen Stoffmaterial mit sich wiederholendem Muster vorgegangen wer­ den, um dieses Muster so zu positionieren, daß die Stoffseg­ mente die gewünschte Ausrichtung haben, wenn sie miteinander vernäht werden. Das Schnittmuster enthält also nicht nur In­ formationen über die Form der Stoffsegmente, sondern auch Da­ ten über das Stoffdesign und die gewünschte Beziehung zwi­ schen den einzelnen Stoffsegmenten. Diese Korrelationsinfor­ mation hat die Form von Paß- und Referenzpunkten, die typisch im Inneren der Zuschnittsteile liegen, wo ein bestimmter Punkt des Stoffdesigns liegen soll.
Das Ergebnis der Stoffherstellungsparameter wie ungenaue Ab­ messungsunterschiede in der Musterwiederholung sowie die Ef­ fekte des Biegens und Verkantens durch schlechte Steuerung während der Stoffendbearbeitungen zwingen den Schnittmuster­ erzeuger, relativ große Pufferzonen um die einzelnen Muster­ stückanordnungen vorzusehen, die eine Anpassung erfordern. Oft ist dies die halbe Designwiederholungslänge. In dieser Beschreibung ist "Passung" definiert als die Ausrichtung des sich wiederholenden Stoffdesigns von einem Segment zu einem entsprechenden Segment, d. h. das Schulterteil eines Mantels in Passung zum Vorderteil an einer bestimmten Stelle. Die Größe der Pufferzone oder der zulässigen Stoffbreite, um ein Segment in Passung mit seinem Nachbarsegment zu bringen, ist ein aus der Wiederholung des Stoffdesigns und der Stoffquali­ tät abgeleiteter Faktor.
Es muß genug zusätzlicher Stoff vorhanden sein, damit das Sy­ stem oder die Bedienungsperson das Zuschnittsteil in eine an­ dere Position bringen kann, die von derjenigen abweicht, die anfangs von dem Schnittmustererzeuger im CAD-System gewählt wurde. Ein automatisches System muß den Versetzungsbetrag be­ rechnen, der zum richtigen Ausrichten des Schnittmusters auf das aktuelle Stoffmuster erforderlich ist. Ferner muß manch­ mal das Schnittmuster oder ein oder mehrere Teile davon mit dem Stoff ausgerichtet werden, weil die Stoffbahn dem Schnei­ detisch unter einem kleinen Winkel zugeführt wurde oder in dem Stoff Fehler vorhanden sind. Das hier beschriebene System kann diese Aufgaben lösen, wie im folgenden beschrieben wird.
In Fig. 2 ist vereinfacht ein Teil einer verkanteten Stoff­ bahn 61 auf dem Schneidetisch des hier beschriebenen Systems dargestellt. Der Betrag 62 der Fehlausrichtung ist im Ver­ gleich zu einem Referenzkoordinatensystem 64 übertrieben dar­ gestellt. Es ist wichtig, anfangs das Vorhandensein und den Betrag jeder Fehlausrichtung der Stoffbahn 61 zu bestimmen, weil die Passung des Stoffmusters 66 zum Schnittmuster insge­ samt beeinträchtigt wird. Das hier beschriebene System prüft jegliche Fehlausrichtung und erzeugt eine entsprechende Kor­ rektur, wie es an Hand der Fig. 3 bis 6 beschrieben wird.
Theoretisch enthält das Videobild eines Stoffdesigns oder -musters eine Zeile (oder Spalte) von Bildpixeln übereinstim­ mender Intensität, so daß Intensitätsänderungen in Richtung des Stoffmusters oder auf der Stofffläche minimal sind. Wenn das Stoffmuster aber verkantet ist, kreuzt die Pixelzeile 76 das Stoffmuster 74, wie in Fig. 4 gezeigt, wodurch eine star­ ke Variation der Pixelintensitäten untereinander sowie rela­ tiv zu einem Mittelwert auftritt. Ein Zeilenverkantungsindex gibt den Grad der Übereinstimmung zwischen einem mittleren Pixelintensitätswert und jedem einzelnen Pixel in einer Zeile an.
Fig. 3 stellt einen Algorithmus 68 dar, der bei der Ausrich­ tung der Stoffbahn angewendet wird. Nachdem die Referenzkoor­ dinaten definiert sind (Block 70), wird ein Videobild bei Block 72 aufgenommen, das zu dem anzupassenden Stoffstück zentriert ist. Wie Fig. 4 zeigt, ist das Stoffmuster 74 zu­ nächst gegenüber einer Pixelzeile 76 der Systemkamera verkan­ tet. Hierbei wird vorausgesetzt, daß die Kamera anfangs ent­ sprechend den Referenzkoordinaten ausgerichtet wurde.
Das Videobild wird rechnerisch über einen Winkelbereich ge­ dreht (Block 78). Die Erfindung sieht keine Drehung der Kame­ ra vor, weil dies zusätzlichen Schaltungs- und Programmauf­ wand erfordern würde, dessen kumulativer Effekt die Gesamt­ leistung des Systems bzw. dessen Arbeitsgeschwindigkeit her­ absetzen würde. Das Videobild wird statt dessen rechnerisch gedreht, wie im folgenden beschrieben wird. Bei dem Ausfüh­ rungsbeispiel wird das Videobild zwischen -20 und +20 Grad in Schritten von jeweils 1 Grad gedreht. Der Effekt der rechne­ rischen Drehung ist in Fig. 5 zu erkennen, wo die Pixelzeile in Positionen 80 bis 86 dargestellt ist. Der Verkantungsindex des Videobildes wird für jede Position berechnet (Block 88). Unter den einundvierzig Positionen ist diejenige Position der besten horizontalen Ausrichtung zuzuordnen, die zu dem klein­ sten Verkantungsindex führt. Fig. 6 zeigt schematisch, daß der kleinste Verkantungsindex auftreten wird, wenn die Pixel­ zeile um den Betrag "gedreht" wird, der zum Ausrichten des Designs auf die Pixelzeile erforderlich ist, wodurch dann jegliche Fehlausrichtung beseitigt ist (Block 90).
Die folgenden Schritte dienen der Berechnung des Verkantungs­ index für das Videobild. Dieser Index ist anfangs auf Null gesetzt. Für jede Pixelzeile wird zunächst der mittlere Rot-, Grün- und Blauintensitätswert berechnet. Für jedes Pixel in der Zeile ergibt sich eine Differenz zwischen dem mittleren Rotintensitätswert und dem laufenden Rotintensitätswert, die dann summiert wird. Dieser Prozeß wird für die grünen und die blauen Pixel wiederholt. Alle Summen werden addiert, um den Verkantungsindex zu berechnen. In dem vorzugsweisen Ausfüh­ rungsbeispiel wird ein Farbbild verarbeitet. Dem Fachmann ist jedoch geläufig, daß die im folgenden beschriebene Technik auch leicht auf Schwarz-Weiß- oder auf Grauskalenbilder ange­ wendet werden kann.
Die rechnerische Drehung eines gerasterten Videobildes er­ folgt durch Verschieben von Zeilensegmenten variabler Größe nach rechts oder aufwärts oder abwärts, wie es in Fig. 7 ge­ zeigt ist. Das Zeilensegment 92 besteht aus Pixeln 94 bis 104. In der Figur ist das Zeilensegment 106 ein Abbild des Zeilensegments 92 nach einer rechnerischen Drehung im Gegen­ uhrzeigersinn. Die Videopixel werden also abwärts und nach rechts verschoben. Eine Drehung im Uhrzeigersinn entspricht einem Schieben aufwärts und nach links. Die Länge des Zeilen­ segments ist so gewählt, daß sie dem Kotangens des Positions­ winkels entspricht. Der Fachmann wird erkennen, daß die Dre­ hung des Zeilensegments einer vorgegebenen Zeile direkt zu der nachfolgenden Position benachbarter Zeilensegmente führt. Ferner wird in diesem Prozeß bei dem hier beschriebenen Aus­ führungsbeispiel eine Untergruppe von Pixeln des Bildes be­ nutzt. Nach Berechnen des Betrages der erforderlichen Drehung für minimalen Verkantungsindex stellt das System die Anord­ nung der Segmente in dem Schnittmuster so ein, daß sich der minimale Verkantungsindex ergibt (Block 108).
Wie vorstehend beschrieben, muß beim Schneiden von Stoffen manchmal ein Punkt eines Stoff- oder Polsterstoffsegments mit einem entsprechenden Punkt eines oder mehrerer weiterer Stüc­ ke in Übereinstimmung gebracht werden. Die Ungleichmäßigkeit des Materials verhindert die Voraussage der exakten Position einander entsprechender Punkte. Wenn eine Videokamera ein Bild an einem Referenzpunkt des Stoffes und dann ein weiteres Bild über dem ungefähren Paßpunkt aufnimmt, können die beiden Bilder überlagert und eine Versetzung berechnet werden. Oft sind Wiederholungen von Stoffmustern nur durch Farblinien de­ finiert, deren Intensität sich ändert und die nur einen klei­ nen Anteil des Bildes ausmachen. Diese Linien können von dem System bei dem Ausrichten nicht erkannt werden, wenn sie nicht hervorgehoben sind.
Das hier beschriebene System enthält eine Videoeinrichtung zum Ausführen eines Algorithmus zur Ausrichtung von Bildern mäßigen oder starken Kontrastes. Fig. 8 zeigt schematisch ei­ nen Algorithmus 110 zum Verbessern der Passung bei Stoffmu­ stern starken Kontrastes. Videobilder, die jeweils auf den Referenzpunkt und den ungefähren Paßpunkt zentriert sind, wenn das Stoffmaterial völlig gleichmäßig wäre, werden bei Block 112 und 114 aufgenommen. Ein Referenz- und ein Paßbild geringer Auflösung werden bei Block 116 und 118 aufgenommen, indem die Originalbilder mit einer Unschärfe versehen werden (Block 120), und die Ergebnisse werden gespeichert. Der Un­ schärfeprozeß dient zur Verbesserung der groben Merkmalsüber­ gänge, die beim Verarbeiten der digitalen Kamerasignale auf­ treten, und zum Verringern der zu verarbeitenden Datenmenge.
Der einem jeden Pixel geringer Auflösung zukommende aktuelle Wert ist das Ergebnis einer Gauss′schen Unschärfefunktion, die auf einen 16×16-Pixelblock des Originalbildes angewendet wird. Diese 16×16-Pixelblöcke überlappen einander in den vier oberen und unteren Zeilen und den vier linken und rechten Spalten. Bei der Anwendung der Gauss′schen Unschärfefunktion wird auch eine Bewertungsfunktion angewendet, die zu der Zu­ ordnung einer Bewertung für jedes Pixel in einer rechneri­ schen Pixelanordnung führt. Fig. 9 zeigt ein vereinfachtes Teildiagramm einer rechnerischen Pixelanordnung 122. Den Ele­ menten dieser Anordnung wird ein numerischer Wert zugeordnet, wobei die mittleren vier Pixel 124 den 16-fachen Wert der Eckenelemente, beispielsweise des Eckenelements 126, haben. Bei dem hier beschriebenen Ausführungsbeispiel entspricht je­ des Pixel in dem Bild geringer Auflösung einem 8×8-Pixelblock im Originalbild. Im Ausführungsbeispiel ist jede rechnerische Anordnung um acht Pixel versetzt. Fig. 10 stellt das Verfah­ ren dar, bei dem eine rechnerische Anordnung 128 über die Bildanordnung 130 bewegt wird.
Wie Fig. 8 zeigt, wird der minimale und der maximale Intensi­ tätswert für Rot, Grün und Blau bei dem Referenzbild geringer Auflösung (Blöcke 132, 134) und bei dem Paßbild (Blöcke 136, 138) berechnet. Danach ergibt sich bei Block 140 der Bereich der Werte für Rot, Grün und Blau in den Bildern geringer Auf­ lösung. Beispielsweise ist der Rotbereich die Differenz zwi­ schen dem maximalen und dem minimalen Rotwert. Bei Block 142 werden Skalierfaktoren für Rot, Grün und Blau berechnet. Der Rotwert ist dann gleich dem möglichen Maximalwert, geteilt durch den Rotbereich. Nimmt man an, daß der Rotbereich einen Wert von 60 hat und der mögliche Maximalwert 255 ist, so ist der Rotskalenwert 255/60 = 4,25. Für die anderen Farben wer­ den diese Werte gleichartig berechnet.
Alle Pixelwerte werden für das Referenzbild (Block 144) und das Paßbild (Block 146, 148) geringer Auflösung skaliert. Für die roten Pixel wird der Rotminimalwert von dem Rotwert eines jeden Pixels subtrahiert. Das Ergebnis wird mit dem Rotska­ lenwert multipliziert. Bei einem beispielsweisen Rotskalen­ wert von 4,25, einem Rotminimalwert von 32 und einem Rotori­ ginalwert von 52 ist der skalierte Rotwert für dieses Pixel (52-32)×4,25 = 85. Auch hier wird diese Berechnung für die Pixelsignale der anderen Farben gleichfalls durchgeführt.
Die zentralen Bereiche des Referenzbildes und des Paßbildes geringer Auflösung werden so ausgewählt, daß sie rechnerische Pixelanordnungen in oben beschriebener Weise sind (Block 149). Bei dem hier beschriebenen Ausführungsbeispiel wird der Zentralbereich so gewählt, daß er die halbe Breite und Höhe der Bilder geringer Auflösung hat. Der Ursprung dieser Berei­ che ist gegeben durch X = Bildbreite/4, Y = Bildhöhe/4. Alle Zeilen in diesem Bereich werden bei Block 150 in zwei oder mehr teilweise überlappende Zeilensegmente geteilt. Wie in Fig. 11 schematisch gezeigt, liegt das Zeilensegment 152 benachbart zu Pixeln zweier weiterer Zeilensegmente 154, 156. Die Pixel in dem laufenden Zeilensegment werden mit 1 bewer­ tet, während die Pixel in den benachbarten Zeilensegmenten mit 0,5 bewertet werden. Die Pixelintensitätswerte werden mit diesem jeweiligen Wert multipliziert, bevor ein mittlerer In­ tensitätswert berechnet wird. In diesem Ausführungsbeispiel gehen das vordere und das hintere Zeilensegment jeweils mit vier Pixeln einer Bewertung von 0,5 in die Rechnung ein, so daß acht Pixel mit einer Bewertung von 0,5 und acht Pixel mit einer Bewertung von 1 vorliegen. Dieses Bewertungs- und Mit­ telungsverfahren gleicht die Effekte von Übergängen in den Pixelbildsignalen aus.
Für alle Zeilensegmente in dem Bereich wird der mittlere In­ tensitätswert für Rot, Grün und Blau wie oben beschrieben be­ rechnet (Block 157). Danach werden alle Spalten in diesem Be­ reich in zwei oder mehr teilweise überlappende Spaltensegmen­ te geteilt, und es wird der mittlere Intensitätswert für alle Spaltensegmente in dem Bereich für Rot, Grün und Blau berech­ net. Dies wird in gleicher Weise für den gewählten Bereich des Paßbildes geringer Auflösung durchgeführt. Dieser Bereich hat gleichfalls die halbe Breite und Höhe des entsprechenden Bereiches im Bild geringer Auflösung mit einem Ursprung an einer Stelle, die definiert ist durch XO = O, YO = O, X1 = Bildbreite/4, Y1 = Bildhöhe/4. Alle Zeilen in diesem Bereich werden in zwei oder mehr teilweise überlappende Zeilensegmen­ te geteilt, und es wird der mittlere Wert für alle Zeilenseg­ mente des Bereichs für Rot, Grün und Blau berechnet. Das Ver­ fahren ist für die überlappenden Spaltensegmente identisch.
Das hier beschriebene System entfernt den Effekt von Intensi­ tätsvariationen zwischen dem Paßbild und dem Referenzbild, indem zuerst die mittleren Intensitätsdifferenzen für benach­ barte Zeilen- und Spaltensegmente berechnet und diese dann mit entsprechenden Differenzen des Paßbildes verglichen wer­ den. Für eine gegebene Zeile in einem Referenzbereich gibt es mindestens zwei Zeilensegmente mit einer in oben beschriebe­ ner Weise berechneten Intensität. Das hier beschriebene Sy­ stem vergleicht die mittlere Intensität für ein gegebenes Zeilensegment mit einer mittleren Intensität eines Zeilenseg­ ments in einer vorherigen Zeile. Die Differenz wird mit einer entsprechenden Differenz in dem Paßbereich verglichen. Für daßelbe gegebene Zeilensegment wird die mittlere Intensität auch mit einer mittleren Intensität eines Zeilensegments in einer nachfolgenden Zeile verglichen und die Differenz mit einer entsprechenden Differenz im Paßbereich verglichen. Die­ ser Prozeß wird auch für die Spaltensegmente durchgeführt (Block 158). Die Absolutwerte aller Differenzen werden sum­ miert (Block 160).
Ein neuer Ursprung für einen neuen Paßbereich und Referenz­ bildbereich wird gewählt und der vorstehende Prozeß für alle möglichen Ursprünge in den Bereichen wiederholt. Die summier­ ten Absolutwerte werden verglichen (Block 162), um zu bestim­ men, welche Position der rechnerischen Anordnung (durch ihren jeweiligen Ursprung bezeichnet) die beste Passung zu dem Re­ ferenzbild bringt. Dann wird die Versetzung des Paßbildes zum Referenzbild bestimmt (Block 164) und beseitigt, um die rich­ tige Ausrichtung zwischen Stoffmuster- und Schnittmusterseg­ menten zu erreichen.
Fig. 12 zeigt schematisch einen Algorithmus 166, der mit die­ sem System zur Videobildausrichtung auf Bilder mit mäßigem bis schwachem Kontrast bei ungleichmäßiger Beleuchtung durch­ geführt wird. Bei Block 168 wird ein Videobild auf den Refe­ renzpunkt zentriert aufgenommen. Ein entsprechendes Videobild über dem Punkt, der bei völlig gleichmäßigem Stoff der Paß­ punkt wäre, wird bei Block 170 aufgenommen.
In vorstehend beschriebener Weise werden ein Referenzbild und ein Paßbild geringer Auflösung erzeugt (Blöcke 172, 174), in­ dem die Originalbilder "verwischt" werden, und die Ergebnisse werden gespeichert (Block 176). Mit diesem System entspricht jedes Pixel in dem Bild geringer Auflösung einem 8×8-Pixel­ block des Originalbildes. Der aktuelle Wert in jedem Pixel geringer Auflösung ist das Ergebnis der Gauss′schen Unschär­ fefunktion, die auf einen 16×16-Pixelblock des Originalbildes angewendet wird. Hier überlappen sich wieder die 16×16-Pixel­ blöcke in den vier oberen und unteren Zeilen und in den vier linken und rechten Spalten.
Bei vielen Anwendungen haben die von der Kamera aufgenommenen Bilder unterschiedliche Lichtintensitäten. Ein einfacher In­ tensitätsvergleich ist ungünstig, weil die Ergebnisse durch jede Intensitätsänderung zwischen Paß- und Referenzbild ver­ schlechtert werden. Das hier beschriebene System erzeugt eine Tabelle aus Signalen, die für beide Bilder geringer Auflösung als eine "Nachbartabelle" bezeichnet wird (Blöcke 177, 178), und speichert die erhaltenen Signale im Systemspeicher. Der Zweck der Nachbartabellenanalyse besteht darin, den Effekt dieser Intensitätsänderungen durch Vergleiche von Intensi­ tätsübergängen zu beseitigen.
Eine Nachbartabelle ist eine zweidimensionale Matrix, die aus vier oder mehr Eingaben pro Pixel geringer Auflösung besteht. Jede Eingabe entspricht der Differenz der Werte eines Pixels und des benachbarten Pixels. Bei diesem Ausführungsbeispiel werden acht Nachbarpixel in einer Nachbartabelle gespeichert. Allgemein sind diese Nachbarpixel des Pixels (X, Y) die fol­ genden:
PIXEL (X + 1, Y)
PIXEL (X + 1, Y + 1)
PIXEL (X, Y + 1)
PIXEL (X-1, Y + 1)
PIXEL (X-1, Y)
PIXEL (X-1, Y-1)
PIXEL (X, Y-1)
PIXEL (X + 1, Y-1).
Fig. 13 zeigt schematisch die Nachbartabellenberechnung. Ein Teil einer Pixelanordnung 180 ist mit der jeweiligen Pixelin­ tensität dargestellt. Das Pixel 182 hat die Intensität 40. Zum Berechnen der Nachbartabelle wird dieser Intensitätswert mit den acht umgebenden Pixeln verglichen, die in dem Kasten 184 liegen, um die Gesamtdifferenz zu erhalten. Der Vergleich des Pixels 182 mit dem Pixel 186 ergibt 28, mit dem Pixel 188 ergibt er -10 usw. Jede Nachbartabelle hat für dieses Aus­ führungsbeispiel acht Eingaben für jedes Pixel, was zu einer dreidimensionalen Anordnung mit der achtfachen Größe der Ori­ ginalsignalanordnungen führt. Dieses Konzept ist schematisch in Fig. 16 dargestellt. Diese zeigt einen Teil 234 der Pixe­ lanordnung nach Fig. 18 mit Nachbartabellenelementen 236 für das Pixel 182.
Ein zentraler Bereich des Referenzbildes geringer Auflösung wird dann gewählt, um eine rechnerische Pixelanordnung zu bilden. Dieser Bereich hat die halbe Breite und Höhe des Bil­ des geringer Auflösung. Der Ursprung des Bereichs ist gegeben durch X = Bildbreite/4, Y = Bildhöhe/4. Ein entsprechender Bereich des Paßbildes geringer Auflösung wird gewählt, um nochmals eine rechnerische Pixelanordnung zu bilden. Dieser Bereich hat gleichfalls die halbe Breite und Höhe des ent­ sprechenden Bildes geringer Auflösung. Der Ursprung dieses Bereichs ist ein Punkt, der definiert ist durch XO = O, YO = O, X1 = Bildbreite/4, Y1 = Bildhöhe/4.
Ähnlich wie vorstehend bereits beschrieben wird ein zentraler Bereich der Nachbartabelle des Referenzbildes (ICENTER) auf die ähnlichste Position in der Nachbartabelle (J) des Paßbil­ des ausgerichtet. In diesem Ausführungsbeispiel erfolgt dies durch Berechnen (Block 190) eines Fehlerwertes für alle mög­ lichen XY-Positionen, wenn der Zentralbereich der Nachbarta­ belle des Referenzbildes mit der Nachbartabelle des Paßbildes verglichen wird. Der Fehlerwert wird berechnet durch Summie­ ren der Differenz einer jeden Eingabe des Zentralbereichs der Nachbartabelle des Referenzbildes und der entsprechenden Ein­ gabe der Nachbartabelle des Paßbildes. Ein neuer Ursprung für jeden Paß- und Referenzbildbereich wird gewählt, und der vor­ stehende Prozeß wird für alle möglichen Ursprungspunkte in den Bereichen wiederholt. Die möglichen Ursprungspunkte schließen natürlich nur solche Punkte ein, die eine vollstän­ dige rechnerische Anordnung ergeben, da Pixel außerhalb des Bildes nicht verfügbar sind. Bei einer guten Passung führen die Nachbarpositionen zu einem Fehlerwert, der kleiner als für Positionen ist, die um mehr als ein Pixel von der Paßpo­ sition versetzt sind. Die Position, die den kleinsten Fehler ergibt, wird als Paßpunkt bei geringer Auflösung festgesetzt. Danach wird das Schnittmuster so ausgerichtet, daß jegliche Versetzung beseitigt ist (Block 192).
Allgemein müssen die in einem rechnergestützten Videosystem benutzten Bilder bei Bewegungssteuerungen auf Realweltkoordi­ naten kalibriert werden. Dies erfolgt durch Anordnen eines Objekts bekannter Größe im Gesichtsfeld der Kamera, Berechnen der Pixelzeile für die Objektbreite und der Pixelspalte für die Objekthöhe und Berechnen der Realgröße eines einzelnen Pixels. Dies ist ein langsamer und schwieriger manueller Pro­ zeß. Vorzugsweise wird er automatisch durchgeführt.
In dem hier beschriebenen System ist das Kameraobjektiv etwa 25 cm über der Tischoberfläche angeordnet. Die Stofflage kann dann abhängig von der Zahl der Schichten und der Stoffart ei­ ne Dicke haben, die im Bereich von 2,5 cm variiert. Die Kame­ rapixelkoordinaten müssen nicht auf diejenigen des aktuellen Stoffes kalibriert werden, weil diese Variation des Abstandes zwischen Kameraobjektiv und Stoff möglich ist. Das System enthält auch eine Einrichtung zum Ausführen eines Algorithmus zum automatischen, effizienten und genauen Kalibrieren des Videobildes auf Realweltkoordinaten. Zunächst muß ein Objekt bekannter Größe ausgewählt werden. Wegen der Unempfindlich­ keit gegen Drehung oder Verkantung dient hierzu vorzugsweise ein Kreis. Fig. 14 zeigt vereinfacht ein Kamerabild 194. Darin ist ein Kalibrierkreis 196 zu erkennen, der sich auf der obersten Stoffbahn einer Lage befindet, die vertikale und horizontale Musterlinien 198, 200 hat. Fig. 15 zeigt schema­ tisch einen Algorithmus 202, der zum Kalibrieren des Video­ bildes auf Realweltkoordinaten dient.
Zunächst lokalisiert die Bedienungsperson eine geometrische Marke auf dem Stoff und führt eine Passung hoher Auflösung aus, wie sie in den oben genannten US-Patentschriften be­ schrieben ist. Vorzugsweise soll die Suche nach dem Kali­ brierobjekt im Gesichtsfeld der Kamera minimiert werden, nachdem es dort lokalisiert wurde (Block 204). Das Kalibrier­ objekt wird also so plaziert, daß die Gesichtsfeldmitte ir­ gendwo innerhalb des Kalibrierkreises liegt. Bei der Suche nach der Objektmitte 206 (Block 208, Fig. 15) und Auswahl des Bildmittelpunktes 210 als Startpunkt für die Suche wird die Möglichkeit der Auswahl des falschen Kalibrierobjekts, wenn das Bild weitere Merkmale enthält, minimiert.
Bei Start in dem Bildmittelpunkt sucht das System nach links und nach rechts nach Punkten, an denen eine Pixelzeile die Außenkanten 212, 214 des Kalibrierkreises schneidet (Blöcke 216, 218, Fig. 15). Wiederum ausgehend von dem Bildmittel­ punkt sucht das System aufwärts und abwärts nach Punkten 220, 222, an denen eine Pixelspalte die Außenkante des Kalibrier­ kreises schneidet. Die exakte Mitte des Kalibrierkreises er­ gibt sich dann mit X = Mittelpunkt der linken und rechten X- Koordinaten der Punkte 212, 214. Die vertikale Koordinate ist Y = Mittelpunkt zwischen oberer und unterer Y-Koordinate der Punkte 220, 222.
Zusätzlich zu der Lokalisierung der Kreismitte kann auch die Breite und die Höhe des Kalibrierkreises gefunden werden (Block 224). Ausgehend von dem genauen Mittelpunkt des Kali­ brierkreises sucht das System links und rechts nach den Punk­ ten 226, 228, an denen diese Pixelzeile den Außenrand des Ka­ librierkreises schneidet. Wiederum ausgehend von dem genauen Mittelpunkt des Kalibrierkreises sucht das System aufwärts und abwärts nach den Punkten 230, 232, an denen diese Pixels­ palte den Außenrand des Kalibrierkreises schneidet. Die Größe des Kalibrierkreises ergibt sich mit Breite = Abstand zwi­ schen den Koordinaten der Punkte 226, 228, Höhe = Abstand der Punkte 230, 232.

Claims (20)

1. Verfahren (68) zum Ausrichten der Anordnung (66) von Zu­ schnittsegmenten an einer ausgewählten Position in einem Schnittmuster auf das geometrische Design einer Stoff­ bahn (60) auf einer Auflagefläche (20) eines Tisches (12) in einem System mit einem beweglichen Videosubsy­ stem mit Kamera, die eine Anordnung von Pixelelementen zur Aufnahme von Licht aus einem Teil der Stoffbahn hat und entsprechende elektrische Signale abgibt, wobei Schnittmustersignale einschließlich Segmentlagesignale sowie ein Referenzsignal entsprechend einer Referenzpo­ sition in dem Schnittmuster und einer zugehörigen Kame­ ra-Pixelelementausrichtung empfangen werden (70), von dem Videosubsystem Signale einschließlich Signale ent­ sprechend dem Stoffdesign empfangen werden (72), und Si­ gnale erzeugt werden, die die anfängliche Stoffdesign­ ausrichtung relativ zu der Schnittmuster-Referenzpositi­ on angeben, gekennzeichnet durch
rechnerisches Drehen der Stoffdesignsignale in mehrere Winkelpositionen (78),
Vergleichen der gedrehten Stoffdesignsignale in jeder Winkelposition mit den von der Kamera gelieferten Pixel­ element-Ausrichtsignalen und daraus
Erzeugen (88) von Signalen, die die entsprechende Stoff­ bahnausrichtung angeben,
Auswählen (90) derjenigen Winkelposition, die die beste Ausrichtung der Kamerapixelelemente mit dem Stoffmuster angeben, und
Erzeugen (108) von Signalen zum Einstellen der Position der Segmentlagesignale in dem Schnittmuster zum Entfer­ nen jeglicher Versetzung zwischen der anfänglichen Stoffbahnausrichtung und der gewählten Winkelposition.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die rechnerische Drehung durch Teilen der Zeilen der Stoffdesignsignale in mehrere Zeilensegmente und Ver­ schieben der Position der Zeilensegmente um eine vorbe­ stimmte Pixelanzahl in zwei orthogonalen Richtungen er­ folgt.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß zum Teilen die Zeilensegmente so gewählt werden, daß sie gleich dem Kotangens des Positionswinkels sind.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeich­ net,
daß Verkantungsindexsignale berechnet werden (88), die auf den Wert Null initialisiert werden,
daß für eine Zeile der Stoffdesign-Pixelsignale Signale zur Angabe eines mittleren Intensitätswertes berechnet werden,
daß für die Pixelzeile, die die Stoffdesignsignale ent­ hält, Signale zu dem Verkantungsindexwert addiert wer­ den, die dem Unterschied zwischen dem mittleren Zeilen­ intensitätswert und jedem Pixelintensitätswert in dieser Zeile entsprechen,
daß für jede Winkelposition ein Verkantungsindexwert be­ rechnet wird,
daß die Verkantungsindexsignale der Winkelpositionen verglichen werden, und
daß Signale erzeugt werden (108), die diejenige Winkel­ position angeben, für die sich der kleinste Verkantungs­ indexwert ergibt.
5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch ge­ kennzeichnet, daß jedes Pixel eine Gruppe Intensitätssi­ gnale hat, die für eine entsprechende Anzahl Farben gel­ ten.
6. Verfahren nach einem der vorhergehenden Ansprüche, ge­ kennzeichnet durch Anordnen (208) eines Kalibrierobjekts mit einer geome­ trischen Mitte (206) in dem Gesichtsfeld (194) der Kame­ ra so, daß dessen Mitte innerhalb der Grenzen des Kali­ brierobjekts liegt,
Suchen (216) längs einer Pixelelementzeile auf der Ge­ sichtsfeldmitte nach Pixeln, die die Außengrenzen des Kalibrierobjekts schneiden,
Suchen (218) längs einer Pixelelementspalte auf der Ge­ sichtsfeldmitte nach Pixeln, die die Außengrenzen des Kalibrierobjekts schneiden,
Erzeugen von Signalen entsprechend dem in der Mitte zwi­ schen den Zeilenschnittpunkten liegenden Pixel,
Erzeugen von Signalen entsprechend dem in der Mitte zwi­ schen den Spaltenschnittpunkten liegenden Pixel und
Berechnen (224) von Signalen entsprechend der Pixelele­ mentposition der Kalibrierobjektmitte aus den beiden Mittelpunktsignalen.
7. Verfahren nach Anspruch 6, gekennzeichnet durch
Berechnen der Kalibrierobjekthöhe und -breite durch Su­ chen längs einer Pixelelementzeile durch die Kalibrier­ objektmitte nach Pixeln, die die Kalibrierobjektgrenzen schneiden und durch
Suchen längs einer Pixelelementspalte durch die Kali­ brierobjektmitte nach Pixeln, die die Kalibrierobjekt­ grenzen schneiden,
Erzeugen von Signalen entsprechend der Anzahl Pixel zwi­ schen den Zeilenpixeln an den Zeilenschnittpunkten und
Erzeugen von Signalen entsprechend der Anzahl Pixel zwi­ schen den Spaltenpixeln an den Spaltenschnittpunkten.
8. Verfahren (110) nach einem der vorhergehenden Ansprüche, für eine Stoffbahn mit einem geometrischen Design hohen Kontrastes, gekennzeichnet durch
Empfangen (112, 114) von Signalen einschließlich Signale entsprechend dem Stoffdesign für eine Paß- und eine Re­ ferenzposition von dem Videosubsystem,
Erzeugen (120) von Signalen für die Referenzpositions- und die Paßpositionssignale, die jeweils einem Bild ge­ ringer Auflösung entsprechen, wozu eine unscharfe Pixe­ lanordnung entsprechend einer Untergruppe mehrerer Pixe­ lelementpositionen konfiguriert wird, die um ein vorge­ gebenes Pixelelement zentriert sind,
Zuordnen einer Bewertung zu jeder Pixelelementposition einer Untergruppe,
Berechnen eines bewerteten Pixelsignalwertes für jedes Referenz- und Paßbild-Pixelsignal entsprechend der Summe aus dem Produkt des Pixelintensitätswertes eines jeden Pixels und der entsprechenden Bewertung, geteilt durch die Zahl der Pixelelementpositionen in der Untergruppe, Berechnen (132 bis 138) eines minimalen und eines maxi­ malen Signalwertes für das Referenz- und das Paßbild ge­ ringer Auflösung,
Berechnen (140) eines Größenbereichs für das Referenz- und das Paßbild geringer Auflösung,
Berechnen (142) von Signalen entsprechend einem Skalier­ faktor für das Referenz- und das Paßbild geringer Auflö­ sung,
Berechnen (144) skalierter Referenz- und Paßbildsignale mit dem Skalierungsfaktor,
Konfigurieren (149) rechnerischer Pixelanordnungen ent­ sprechend einer ersten zentralen Untergruppe von Pixele­ lementpositionen jeweils für das Referenz- und das Paß­ bild geringer Auflösung, einschließlich
Teilen (150) einer jeden Pixelzeile der rechnerischen Pixelanordnungen in mehrere Zeilensegmente,
Berechnen (157) eines mittleren Intensitätswertes für jedes Zeilensegment,
Teilen (150) einer jeden Pixelspalte der ersten rechne­ rischen Pixelanordnungen in mehrere Spaltensegmente, Berechnen (157) eines mittleren Pixelintensitätswertes für jedes Spaltensegment,
Erzeugen (158) vorheriger Zeilenübergangssignale für je­ des Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Zei­ lensegment und ein entsprechendes Zeilensegment in einer vorherigen Zeile,
Erzeugen vorheriger Zeilenübergangs-Differenzsignale entsprechend einer Differenz zwischen einander entspre­ chenden vorherigen Zeilenübergangssignalen in den rech­ nerischen Pixelanordnungen des Paßbildes und des Refe­ renzbildes,
Erzeugen nachfolgender Zeilenübergangssignale für jedes Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Zeilenseg­ ment und ein entsprechendes Zeilensegment in einer nach­ folgenden Zeile,
Erzeugen nachfolgender Zeilenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent­ sprechenden nachfolgenden Zeilenübergangssignalen in den ersten rechnerischen Pixelanordnungen des Paßbildes und des Referenzbildes,
Erzeugen vorheriger Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Spalten­ segment und ein entsprechendes Spaltensegment einer vor­ herigen Spalte,
Erzeugen vorheriger Spaltenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent­ sprechenden vorherigen Spaltenübergangssignalen in den ersten rechnerischen Pixelanordnungen des Paßbildes und des Referenzbildes,
Erzeugen nachfolgender Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Spaltenseg­ ment und ein entsprechendes Spaltensegment einer nach­ folgenden Spalte,
Erzeugen nachfolgender Spaltenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent­ sprechenden nachfolgenden Spaltenübergangssignalen in den ersten rechnerischen Pixelanordnungen des Paßbildes und des Referenzbildes,
Erzeugen (160) von Signalen, die eine erste Summe der Differenzen der Spaltensegment- und der Zeilensegment­ übergänge für die ersten rechnerischen Pixelanordnungen des Referenz- und des Paßbildes angeben,
Konfigurieren einer zweiten rechnerischen Pixelanordnung entsprechend einer zweiten, nicht zentrierten Untergrup­ pe von Pixelelementpositionen für das Paßbild, ein­ schließlich
Teilen einer jeden Pixelzeile der zweiten rechnerischen Pixelanordnung in mehrere Zeilensegmente,
Berechnen eines mittleren Pixelintensitätswertes für je­ des dieser Zeilensegmente,
Teilen einer jeden Pixelspalte der zweiten rechnerischen Pixelanordnung in mehrere Spaltensegmente,
Berechnen eines mittleren Pixelintensitätswertes für je­ des dieser Spaltensegmente,
Erzeugen (158) vorheriger Zeilenübergangssignale für je­ des Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Zei­ lensegment und ein entsprechendes Zeilensegment einer vorherigen Zeile,
Erzeugen vorheriger Zeilenübergangs-Differenzsignale entsprechend der Differenz zwischen den einander ent­ sprechenden vorherigen Zeilenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje­ nigen des Referenzbildes,
Erzeugen nachfolgender Zeilenübergangssignale für jedes Zeilensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Zeilenseg­ ment und ein entsprechendes Zeilensegment einer nachfol­ genden Zeile,
Erzeugen nachfolgender Zeilenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent­ sprechenden nachfolgenden Zeilenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje­ nigen des Referenzbildes,
Erzeugen vorheriger Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für ein laufendes Spalten­ segment und ein entsprechendes Spaltensegment in einer vorherigen Spalte,
Erzeugen vorheriger Spaltenübergangs-Differenzsignale entsprechend einer Differenz zwischen den einander ent­ sprechenden vorherigen Spaltenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje­ nigen des Referenzbildes,
Erzeugen nachfolgender Spaltenübergangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen den mittleren Intensitätswerten für das laufende Spaltenseg­ ment und ein entsprechendes Spaltensegment in einer nachfolgenden Spalte,
Erzeugen nachfolgender Spaltenübergangs-Differenzsignale entsprechend der Differenz zwischen den einander ent­ sprechenden nachfolgenden Zeilenübergangssignalen in der zweiten rechnerischen Pixelanordnung des Paß- und derje­ nigen des Referenzbildes,
Erzeugen von Signalen, die eine zweite Summe der Spal­ tensegment- und der Zeilensegment-Übergangsdifferenzen für die zweiten rechnerischen Pixelanordnungen des Refe­ renz- und des Paßbildes angeben, und
Erzeugen (164) von Signalen, die als eine Passung dieje­ nige der rechnerischen Anordnungen des Paßbildes auswäh­ len, welche der niedrigsten der ersten und der zweiten Summen entspricht.
9. Verfahren nach Anspruch 8, gekennzeichnet durch Erzeugen von Signalen zum Einstellen der Position der Segmentmu­ stersignale in dem Schnittmuster zum Beseitigen jegli­ cher Versetzung zwischen der zentralen Pixelanordnungs­ position des Referenzbildes und der Position der rechne­ rischen Pixelanordnung des Paßbildes entsprechend der niedrigsten Summe der Absolutwerte.
10. Verfahren nach Anspruch 8 oder 9, gekennzeichnet durch Auswahl der Unschärfe-Pixelanordnungen mit einer Größe von 16×16 Pixeln.
11. Verfahren nach einem der Ansprüche 8 bis 10, gekenn­ zeichnet durch eine Intensitätswertskala mit relativen Werten von 0 bis 255.
12. Verfahren nach einem der Ansprüche 8 bis 11, gekenn­ zeichnet durch Mittelung jedes Zeilensegments mit Pixeln aus benachbarten Zeilensegmenten.
13. Verfahren nach Anspruch 12, gekennzeichnet durch Mitte­ lung eines jeden Spaltensegments mit Pixeln aus benach­ barten Spaltensegmenten.
14. Verfahren (166) nach Anspruch 1, gekennzeichnet durch Empfangen (168, 170) von Signalen entsprechend dem Stoffdesign bei einer Paßposition und einer Referenzpo­ sition aus dem Videosubsystem,
Erzeugen von Signalen entsprechend jeweils einem Bild geringer Auflösung für die Referenzpositions- und die Paßpositionssignale, mit folgenden Schritten:
Konfigurieren (176) einer unscharfen Pixelanordnung ent­ sprechend einer Untergruppe mehrerer Pixelelementposi­ tionen, die um ein vorgegebenes Pixelelement zentriert sind,
Zuordnen einer Bewertung zu jeder Pixelelementposition einer Untergruppe,
Berechnen eines bewerteten Pixelsignalwertes für jedes Referenz- und Paßbild-Pixelsignal entsprechend der Summe des Produkts des Pixelintensitätswertes eines jeden Pi­ xels und der entsprechenden Bewertung, geteilt durch die Zahl der Pixelelementpositionen in der Untergruppe,
Berechnen (172, 174) eines minimalen und eines maximalen Signalwertes für das Referenz- und das Paßbild geringer Auflösung,
Berechnen eines Größenbereichs für das Referenz- und das Paßbild geringer Auflösung,
Erzeugen (177, 178) einer Nachbaranordnung von Signalen für jedes Referenz- und Paßbild-Pixelsignal, deren jedes Element der Differenz eines laufenden Pixelelements und mehrerer benachbarter Pixelelemente entspricht,
Konfigurieren (190) rechnerischer Nachbarpixelanordnun­ gen entsprechend einer ersten zentralen Untergruppe von Pixelelementpositionen jeweils für die Nachbarsignalan­ ordnungen des Referenz- und des Paßbildes geringer Auf­ lösung, einschließlich
Erzeugen von Signalen entsprechend einer Differenz zwi­ schen den einander entsprechenden Pixelelementen in den ersten rechnerischen Nachbarpixelanordnungen des Paß- und des Referenzbildes,
Erzeugen von Signalen, die eine Summe der ersten rechne­ rischen Nachbarpixelelementdifferenzen angeben,
Konfigurieren einer rechnerischen Nachbarpixelanordnung entsprechend einer zweiten, nicht zentrierten Untergrup­ pe der Nachbarpixelelementpositionen für das Paßbild,
Erzeugen von Signalen entsprechend einer Differenz zwi­ schen den einander entsprechenden Pixelelementen in der zweiten rechnerischen Nachbarpixelanordnung des Paß- und derjenigen des Referenzbildes,
Erzeugen von Signalen, die eine Summe der zweiten rech­ nerischen Nachbarpixelelementdifferenzen angeben, und
Erzeugen (192) von Signalen, die als Passung diejenige rechnerische Nachbarpixelanordnung angeben, die der niedrigsten Summe entspricht.
15. Verfahren nach Anspruch 14, gekennzeichnet durch Erzeu­ gen von Signalen zum Einstellen der Position der Seg­ mentmustersignale in dem Schnittmuster zum Beseitigen jeglicher Versetzung zwischen der zentralen Pixelanord­ nungsposition des Referenzbildes und der Position der rechnerischen Pixelanordnung des Paßbildes entsprechend der niedrigsten Summe der Absolutwerte.
16. Verfahren nach Anspruch 14, gekennzeichnet durch Auswahl der unscharfen Pixelanordnungen mit einer Größe von 16 × 16 Pixeln.
17. System (10) zum Ausrichten eines Segmentmusters (66) an einer ausgewählten Stelle eines Schnittmusters mit einem geometrischen Design einer Stoffbahn (60), auf einem Tisch (12) mit einer Auflagefläche (20) zur Aufnahme ei­ ner Stoffbahn,
mit einem beweglichen Video-Subsystem mit Kamera und ei­ ner Anordnung von Pixelelementen (92), die Licht aus ei­ nem Teil der Stoffbahn aufnehmen und entsprechende elek­ trische Signale abgeben,
mit einer Steuerung (51) zum Empfangen von Schnittmu­ stersignalen einschließlich Segmentlagesignale und ein Referenzsignal entsprechend einer Referenzposition in dem Schnittmuster und zugehöriger Kamera-Pixelele­ mentausrichtung,
mit einer Anordnung zum Empfangen von Signalen entspre­ chend dem Stoffdesign von dem Kamera-Videosubsystem, und
mit einer Vorrichtung zum Erzeugen von Signalen, die die anfängliche Stoffdesignausrichtung relativ zu der Schnittmuster-Referenzposition angeben,
gekennzeichnet durch
eine Vorrichtung zum rechnerischen Drehen der Stoffdesi­ gnsignale in mehrere Winkelpositionen,
eine Vorrichtung zum Vergleichen der gedrehten Stoffde­ signsignale in jeder Winkelposition mit den Kamera-Pixel­ element-Ausrichtsignalen und Erzeugen von Signalen dar­ aus, die die entsprechende Stoffbahnausrichtung angeben, eine Vorrichtung zum Wählen derjenigen Winkelposition, die die beste Ausrichtung der Kamera-Pixelelemente auf das Stoffmuster angeben, und
eine Vorrichtung zum Erzeugen von Signalen zum Einstel­ len der Position der Stoffmustersignale in dem Schnitt­ muster zum Entfernen jeglicher Versetzung zwischen der anfänglichen Stoffmusterausrichtung und der gewählten Winkelposition.
18. System nach Anspruch 17, gekennzeichnet durch eine Vorrichtung zum Empfangen von Signalen aus dem Vi­ deosubsystem, die dem Stoffdesign an einer Paßposition und einer Referenzposition entsprechen,
eine Vorrichtung zum Erzeugen von Signalen für die Refe­ renzpositions- und die Paßpositionssignale, die jeweils einem Bild geringer Auflösung entsprechen,
eine Vorrichtung zum Konfigurieren einer unscharfen Pi­ xelanordnung entsprechend einer Untergruppe mehrerer Pi­ xelelementpositionen, die um ein vorgegebenes Pixelelem­ ent zentriert sind,
eine Vorrichtung zum Zuordnen einer Bewertung zu jeder Pixelelementposition einer Untergruppe,
eine Vorrichtung zum Berechnen eines bewerteten Pixelsi­ gnalwertes für jedes Pixelsignal des Referenzbildes und des Paßbildes entsprechend der Summe aus dem Produkt des Pixelintensitätswertes für jedes Pixel und der entspre­ chenden Bewertung, geteilt durch die Zahl der Pixelele­ mentpositionen in der Untergruppe,
eine Vorrichtung zum Berechnen eines minimalen und eines maximalen Signalwertes für das Referenz- und das Paßbild geringer Auflösung,
eine Vorrichtung zum Berechnen eines Größenbereichs für das Referenz- und das Paßbild geringer Auflösung,
eine Vorrichtung zum Berechnen von Signalen entsprechend einem Skalierfaktor für das Referenz- und das Paßbild geringer Auflösung,
eine Vorrichtung zum Berechnen skalierter Referenz- und Paßbildsignale mit dem Skalierfaktor,
eine Vorrichtung zum Konfigurieren rechnerischer Pixe­ lanordnungen entsprechend einer ersten zentralen Unter­ gruppe von Pixelelementpositionen jeweils für das Refe­ renz- und das Paßbild geringer Auflösung,
eine Vorrichtung zum Teilen einer jeden Pixelzeile der ersten rechnerischen Pixelanordnungen in eine Anzahl Zeilensegmente,
eine Vorrichtung zum Berechnen eines mittleren Pixelin­ tensitätswertes für jedes Zeilensegment,
eine Vorrichtung zum Teilen einer jeden Pixelspalte der ersten rechnerischen Pixelanordnungen in mehrere Spal­ tensegmente,
eine Vorrichtung zum Berechnen eines mittleren Pixelin­ tensitätswertes für jedes Spaltensegment,
eine Vorrichtung zum Erzeugen von Signalen entsprechend der Differenz zwischen den einander entsprechenden Zei­ lensegmenten in den ersten rechnerischen Pixelanordnun­ gen des Paß- und des Referenzbildes,
eine Vorrichtung zum Erzeugen von Signalen entsprechend der Differenz zwischen den einander entsprechenden Spal­ tensegmenten in den ersten rechnerischen Pixelanordnun­ gen des Paß- und des Referenzbildes,
eine Vorrichtung zum Erzeugen von Signalen, die eine Summe der Spaltensegment- und der Zeilensegmentdifferen­ zen für die ersten rechnerischen Pixelanordnungen des Referenz- und des Paßbildes angeben,
eine Vorrichtung zum Konfigurieren einer zweiten rechne­ rischen Pixelanordnung entsprechend einer zweiten, nicht zentrierten Untergruppe von Pixelelementpositionen für das Paßbild,
eine Vorrichtung zum Teilen jeder Pixelzeile der zweiten rechnerischen Pixelanordnungen in mehrere Zeilensegmen­ te,
eine Vorrichtung zum Berechnen eines mittleren Pixelin­ tensitätswertes für jedes dieser Zeilensegmente, eine Vorrichtung zum Teilen einer jeden Pixelspalte der zweiten rechnerischen Pixelanordnungen in mehrere Spal­ tensegmente,
eine Vorrichtung zum Berechnen eines mittleren Pixelin­ tensitätswertes für jedes dieser Spaltensegmente,
eine Vorrichtung zum Erzeugen von Signalen entsprechend der Differenz zwischen den einander entsprechenden Zei­ lensegmenten in der zweiten rechnerischen Pixelanordnung des Paß- und derjenigen des Referenzbildes,
eine Vorrichtung zum Erzeugen von Signalen entsprechend der Differenz zwischen den einander entsprechenden Spal­ tensegmenten in der zweiten rechnerischen Pixelanordnung des Paß- und derjenigen des Referenzbildes,
eine Vorrichtung zum Erzeugen von Signalen, die eine Summe der Spaltensegment- und der Zeilensegmentdifferen­ zen für die zweiten rechnerischen Pixelanordnungen des Referenz- und des Paßbildes angeben, und
eine Vorrichtung zum Erzeugen von Signalen, die als Pas­ sung diejenige rechnerische Pixelanordnung angeben, wel­ che der niedrigsten Absolutwertsumme entspricht.
19. System nach Anspruch 17, gekennzeichnet durch
eine Vorrichtung zum Empfangen von Signalen aus dem Vi­ deosubsystem einschließlich Signale, die dem Stoffdesign an einer Paß- und einer Referenzposition entsprechen, eine Vorrichtung zum Erzeugen von Signalen entsprechend Bildern geringer Auflösung für die Referenz- und die Paßposition,
eine Vorrichtung zum Konfigurieren einer unscharfen Pi­ xelanordnung entsprechend einer Untergruppe mehrerer Pi­ xelelementpositionen, die um ein vorgegebenes Pixelelem­ ent zentriert sind,
eine Vorrichtung zum Zuordnen einer Bewertung zu jeder Pixelelementposition einer Untergruppe,
eine Vorrichtung zum Berechnen eines bewerteten Pixelsi­ gnalwertes für jedes Pixelsignal des Referenz- und des Paßbildes aus der Summe des Produktes des Pixelintensi­ tätswertes für jedes Pixel und der entsprechenden Bewer­ tung, geteilt durch die Zahl der Pixelelementpositionen in der Untergruppe,
eine Vorrichtung zum Berechnen eines minimalen und eines maximalen Signalwertes für das Referenz- und das Paßbild geringer Auflösung,
eine Vorrichtung zum Berechnen eines Größenbereichs für das Referenz- und das Paßbild geringer Auflösung,
eine Vorrichtung zum Erzeugen einer Nachbaranordnung von Signalen für jedes Pixelsignal des Referenz- und des Paßbildes, deren jedes Element der Differenz zwischen einem laufenden Pixelelement und mehreren benachbarten Pixelelementen entspricht,
eine Vorrichtung zum Konfigurieren rechnerischer Nach­ barpixelanordnungen jeweils für die Nachbarsignalanord­ nungen des Referenz- und des Paßbildes geringer Auflö­ sung entsprechend einer ersten zentralen Untergruppe von Pixelelementpositionen,
eine Vorrichtung zum Erzeugen von Signalen entsprechend einer Differenz zwischen einander entsprechenden Pixele­ lementen in den ersten rechnerischen Nachbarpixelanord­ nungen des Paß- und des Referenzbildes,
eine Vorrichtung zum Erzeugen von Signalen, die eine Summe dieser Differenzen angeben,
eine Vorrichtung zum Konfigurieren einer rechnerischen Nachbarpixelanordnung für das Paßbild entsprechend einer zweiten, nicht zentrierten Untergruppe der Nachbarpixe­ lelementpositionen,
eine Vorrichtung zum Erzeugen von Signalen entsprechend einer Differenz zwischen einander entsprechenden Pixele­ lementen der zweiten rechnerischen Nachbarpixelanordnung des Paßbildes und derjenigen des Referenzbildes,
eine Vorrichtung zum Erzeugen von Signalen, die eine Summe dieser Differenzen angeben, und
eine Vorrichtung zum Erzeugen von Signalen, die als Pas­ sung diejenige rechnerische Nachbarpixelanordnung aus­ wählen, die der niedrigsten Summe entspricht.
20. System nach Anspruch 18, gekennzeichnet durch eine Vorrichtung zum Erzeugen vorheriger Zeilenüber­ gangssignale für jedes Zeilensegment entsprechend einer Differenz zwischen mittleren Intensitätswerten für ein laufendes Zeilensegment und ein entsprechendes Zeilen­ segment in einer vorherigen Zeile,
eine Vorrichtung zum Erzeugen vorheriger Zeilenüber­ gangsdifferenzsignale entsprechend einer Differenz zwi­ schen einander entsprechenden vorherigen Zeilenüber­ gangssignalen in den ersten rechnerischen Pixelanordnun­ gen des Paß- und des Referenzbildes,
eine Vorrichtung zum Erzeugen nachfolgender Zeilenüber­ gangssignale für jedes Zeilensegment entsprechend einer Differenz zwischen mittleren Intensitätswerten für das laufende Zeilensegment und ein entsprechendes Zeilenseg­ ment in einer nachfolgenden Zeile,
eine Vorrichtung zum Erzeugen nachfolgender Zeilenüber­ gangsdifferenzsignale entsprechend einer Differenz zwi­ schen einander entsprechenden nachfolgenden Zeilenüber­ gangssignalen in den ersten rechnerischen Pixelanordnun­ gen des Paß- und des Referenzbildes,
eine Vorrichtung zum Erzeugen vorheriger Spaltenüber­ gangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen mittleren Intensitätswerten für ein laufendes Spaltensegment und ein entsprechendes Spalten­ segment einer vorherigen Spalte,
eine Vorrichtung zum Erzeugen vorheriger Spaltenüber­ gangsdifferenzsignale entsprechend einer Differenz zwi­ schen einander entsprechenden vorherigen Spaltenüber­ gangssignalen in den ersten rechnerischen Pixelanordnun­ gen des Paß- und des Referenzbildes,
eine Vorrichtung zum Erzeugen nachfolgender Spaltenüber­ gangssignale für jedes Spaltensegment entsprechend einer Differenz zwischen mittleren Intensitätswerten für das laufende Spaltensegment und ein entsprechendes Spalten­ segment einer nachfolgenden Spalte, und
eine Vorrichtung zum Erzeugen nachfolgender Spaltenüber­ gangsdifferenzsignale entsprechend einer Differenz zwi­ schen einander entsprechenden Spaltenübergangssignalen in den ersten rechnerischen Pixelanordnungen des Paß- und des Referenzbildes.
DE19509884A 1994-03-17 1995-03-17 Verfahren zum Ausrichten von Zuschnittsegmenten Expired - Fee Related DE19509884C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/210,303 US5487011A (en) 1994-03-17 1994-03-17 Garment marker system having computer assisted alignment of variable contrast cloth designs

Publications (2)

Publication Number Publication Date
DE19509884A1 true DE19509884A1 (de) 1995-09-21
DE19509884C2 DE19509884C2 (de) 1998-01-29

Family

ID=22782366

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19509884A Expired - Fee Related DE19509884C2 (de) 1994-03-17 1995-03-17 Verfahren zum Ausrichten von Zuschnittsegmenten

Country Status (5)

Country Link
US (1) US5487011A (de)
JP (1) JP2561061B2 (de)
DE (1) DE19509884C2 (de)
FR (1) FR2717348B1 (de)
GB (1) GB2287786B (de)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0664091B1 (de) * 1994-01-24 1998-12-16 Gerber Garment Technology, Inc. System und Verfahren zur automatischen Herstellung von Schnittbildern
HUT74049A (en) * 1994-04-23 1996-10-28 Stahl Method for treating of technical textile material and leather and apparatous thereof
FR2731595B1 (fr) * 1995-03-17 1997-06-06 Lectra Systemes Sa Procede pour la coupe automatique de pieces dans un tissu a motif
US6298275B1 (en) * 1995-03-23 2001-10-02 Gerber Garment Technology, Inc. Non-intrusive part identification system for parts cut from a sheet material
US5777880A (en) * 1996-02-21 1998-07-07 Albani Bayeux, Inc. Method and apparatus for correctively guiding a cutting device on a predetermined path along a sheet material
US6434444B2 (en) 1997-03-12 2002-08-13 Gerber Technology, Inc. Method and apparatus for transforming a part periphery to be cut from a patterned sheet material
AU6556598A (en) * 1997-03-28 1998-10-22 Preco Industries, Inc. Web or sheet-fed apparatus having high-speed positioning mechanism
US7640836B1 (en) 1997-03-28 2010-01-05 Preco Industries, Inc. Method for simultaneous x, y and θ registration of segment of continuous web with a processing station
IT1293481B1 (it) * 1997-06-03 1999-03-01 Balsira S A Procedimenti per il taglio di pelli e relativo prodotto intermedio
US5956525A (en) * 1997-08-11 1999-09-21 Minsky; Jacob Method of measuring body measurements for custom apparel manufacturing
US6173211B1 (en) 1998-04-15 2001-01-09 Gerber Technology, Inc. Apparatus and method for fabric printing of nested
DE29812538U1 (de) 1998-07-14 1998-10-22 Hubert, Anton W., 41065 Mönchengladbach Schneidvorrichtung
US6856843B1 (en) * 1998-09-09 2005-02-15 Gerber Technology, Inc. Method and apparatus for displaying an image of a sheet material and cutting parts from the sheet material
US6178392B1 (en) 1998-09-22 2001-01-23 Intel Corporation Method for combining the computer models of two surfaces in 3-D space
FR2809285A1 (fr) * 2000-05-26 2001-11-30 Gerber Technology Inc Appareil et procede pour couper et appareiller des pieces individuelles
US6672585B2 (en) * 2000-06-02 2004-01-06 Fuji Photo Film Co., Ltd. Apparatus for stacking sheet members, apparatus for measuring dimensions of sheet members, and apparatus for and method of marking sheet members
US6314585B1 (en) * 2001-01-29 2001-11-13 Charles D. Mann Process of making image-displaying garments
US6580962B2 (en) 2001-08-10 2003-06-17 Gerber Technology, Inc. Method for aligning a spatial array of pattern pieces comprising a marker method
US6807289B2 (en) 2001-08-10 2004-10-19 Gerber Technology, Inc. Method to compensate for pattern distortion on sheet-type work material spread onto a support surface
WO2003027783A1 (de) * 2001-09-21 2003-04-03 Thomas Fuchs Verfahren zur bearbeitung von teilen sowie bearbeitungszentrum zur durchführung des verfahrens
WO2004011255A1 (en) * 2002-06-26 2004-02-05 Gerber Technology, Inc. Method and apparatus for making a laminate
US7146049B2 (en) * 2003-02-28 2006-12-05 Hewlett-Packard Development Company, L.P. Making the apparent speed of elements imaged at different speeds approximately the same for image recognition
WO2005031535A2 (en) * 2003-09-23 2005-04-07 Gerber Technology, Inc. Method of symmetrically locating a pattern piece relative to work material having a variable repeat pattern
JP4738871B2 (ja) * 2005-04-12 2011-08-03 株式会社ミワックス 敷物製造方法及び敷物提供方法
TWI383277B (zh) * 2008-08-29 2013-01-21 Innovation Matrix Inc The working coordinate correction method of plane motor
JP2014109799A (ja) * 2012-11-30 2014-06-12 Seiren Co Ltd 柄模様位置検出方法
DE102015011013B4 (de) 2014-08-22 2023-05-04 Sigma Additive Solutions, Inc. Verfahren zur Überwachung von generativen Fertigungsprozessen
WO2016081651A1 (en) 2014-11-18 2016-05-26 Sigma Labs, Inc. Multi-sensor quality inference and control for additive manufacturing processes
EP3245045A4 (de) 2015-01-13 2018-10-31 Sigma Labs, Inc. Materialqualifizierungssystem und methodologie
CN104738861B (zh) * 2015-03-27 2017-03-22 上海和鹰机电科技股份有限公司 面料的排版与裁剪系统
US10207489B2 (en) 2015-09-30 2019-02-19 Sigma Labs, Inc. Systems and methods for additive manufacturing operations
US10814668B2 (en) * 2016-11-08 2020-10-27 Jeffery James Jackson Kiosk and method for making puzzle tags
CN108230372B (zh) * 2017-11-30 2022-01-14 努比亚技术有限公司 一种图像处理方法、终端及计算机可读存储介质
CN114112592A (zh) * 2021-12-01 2022-03-01 苏州大学 一种利用纺织品试样剪裁机剪裁纺织品试样的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3495492A (en) * 1969-05-05 1970-02-17 Gerber Garment Technology Inc Apparatus for working on sheet material
US3548697A (en) * 1969-05-05 1970-12-22 Gerber Garment Technology Inc Apparatus for cutting sheet material
DE2729509B2 (de) * 1976-07-09 1979-09-06 Hughes Aircraft Co., Culver City, Calif. (V.St.A.) Vorrichtung zum Schneiden einer textlien, Querstreifen aufweisenden Materialbahn
DE3544251A1 (de) * 1985-12-14 1987-06-19 Duerkopp System Technik Gmbh Verfahren und vorrichtung zum selbsttaetigen zuschneiden von teilen aus flaechigem naehgut nach mit unterschiedlichen konturen versehenen mustervorlagen auf einer koordinaten-schneidmaschine
DE3831541A1 (de) * 1987-09-16 1989-03-30 Juki Kk Musterverarbeitungssystem
DE4100534C1 (de) * 1991-01-10 1992-01-23 Duerkopp Systemtechnik Gmbh, 4800 Bielefeld, De

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4581762A (en) * 1984-01-19 1986-04-08 Itran Corporation Vision inspection system
US4853970A (en) * 1984-03-24 1989-08-01 Integrated Automation Apparatus for processing digitized images
ES8801003A1 (es) * 1986-04-02 1987-12-16 Investronica Sa Procedimiento de casado de piezas para corte automatico de tejidos con dibujo.
US4955062A (en) * 1986-12-10 1990-09-04 Canon Kabushiki Kaisha Pattern detecting method and apparatus
US5204913A (en) * 1987-09-16 1993-04-20 Juki Corporation Pattern processing system
JPH01250465A (ja) * 1988-03-31 1989-10-05 Juki Corp 自動裁断装置
US5020405A (en) * 1990-05-17 1991-06-04 Gerber Garment Technology, Inc. Apparatus with moveable pins for spreading and cutting layups of sheet material
US5333111A (en) * 1991-05-02 1994-07-26 Gerber Garment Technology, Inc. Garment cutting system having computer assisted pattern alignment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3495492A (en) * 1969-05-05 1970-02-17 Gerber Garment Technology Inc Apparatus for working on sheet material
US3548697A (en) * 1969-05-05 1970-12-22 Gerber Garment Technology Inc Apparatus for cutting sheet material
DE2729509B2 (de) * 1976-07-09 1979-09-06 Hughes Aircraft Co., Culver City, Calif. (V.St.A.) Vorrichtung zum Schneiden einer textlien, Querstreifen aufweisenden Materialbahn
DE3544251A1 (de) * 1985-12-14 1987-06-19 Duerkopp System Technik Gmbh Verfahren und vorrichtung zum selbsttaetigen zuschneiden von teilen aus flaechigem naehgut nach mit unterschiedlichen konturen versehenen mustervorlagen auf einer koordinaten-schneidmaschine
DE3831541A1 (de) * 1987-09-16 1989-03-30 Juki Kk Musterverarbeitungssystem
DE4100534C1 (de) * 1991-01-10 1992-01-23 Duerkopp Systemtechnik Gmbh, 4800 Bielefeld, De

Also Published As

Publication number Publication date
GB2287786B (en) 1998-05-13
GB2287786A (en) 1995-09-27
GB9505165D0 (en) 1995-05-03
JP2561061B2 (ja) 1996-12-04
US5487011A (en) 1996-01-23
DE19509884C2 (de) 1998-01-29
FR2717348A1 (fr) 1995-09-22
JPH081586A (ja) 1996-01-09
FR2717348B1 (fr) 1997-10-24

Similar Documents

Publication Publication Date Title
DE19509884C2 (de) Verfahren zum Ausrichten von Zuschnittsegmenten
DE69024985T2 (de) Vorrichtung und Verfahren zur Farbenauswahl
DE69027633T2 (de) Automatische Fahrzeugführung entlang Führungslinien
DE19507780B4 (de) Vorrichtung zur verteilten Bildverarbeitung
DE3806223C2 (de) Verfahren zur Erzeugung von Zeichenmustern
EP0144585B1 (de) Verfahren zur perspektivischen Darstellung von veränderbaren Gebilden
DE19724481C2 (de) Schablonenvergleichsverfahren
DE3785129T2 (de) Drahtverbindungsvorrichtung.
DE68926890T2 (de) Bildvergrösserung
DE112013004103B4 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
DE4438278A1 (de) Automatisches optisches Prüfsystem insbesondere für Leiterplatten
DE2952443A1 (de) Verfahren und vorrichtung zum ermitteln der lage eines gegenstandes
CH688471A5 (de) Gravierer und Verfahren zu dessen Betrieb
DE19525561C2 (de) 3D-Meßvorrichtung
DE3519806A1 (de) Verfahren und vorrichtung zur anpassung der muster von zuschnitten vor dem schneiden aus bahnenfoermigem gemusterten material
DE3315148C2 (de)
DE19924077A1 (de) Bildregistrierungs-Verfahren, Bildregistrierungs-Vorrichtung und Aufzeichnungsmedium
DE102019005974A1 (de) Einlernvorrichtung zur laserbearbeitung
EP1002217A1 (de) Verfahren zur bestimmung des abstandes p einer kante eines strukturelementes auf einem substrat
DE10043460A1 (de) Auffinden von Körperpartien durch Auswerten von Kantenrichtungsinformation
DE112012002533T5 (de) Tischbaugruppe und Steuerungsverfahren für eine Tischbaugruppe
DE4331188A1 (de) Verfahren und Einrichtung zum Abtasten eines Bildträgers
DE4105089A1 (de) Stickereidatenverarbeitungseinrichtung
DE112021001440T5 (de) Dreidimensionales Messgerät, das aus einem von mehreren Kameras aufgenommenen Bild Positionsinformationen für eine Objektoberfläche erzeugt
DE102020126610A1 (de) Mikroskopiesystem und verfahren zum erzeugen von trainingsdaten

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: GERBER TECHNOLOGY,INC., TOLLAND, CONN., US

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20111001