DE3587061T2 - Bildverarbeitungseinrichtung und verfahren zu deren steuerung. - Google Patents
Bildverarbeitungseinrichtung und verfahren zu deren steuerung.Info
- Publication number
- DE3587061T2 DE3587061T2 DE8585114317T DE3587061T DE3587061T2 DE 3587061 T2 DE3587061 T2 DE 3587061T2 DE 8585114317 T DE8585114317 T DE 8585114317T DE 3587061 T DE3587061 T DE 3587061T DE 3587061 T2 DE3587061 T2 DE 3587061T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- command
- segment
- image processing
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000012545 processing Methods 0.000 title claims description 57
- 238000000034 method Methods 0.000 title claims description 23
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 description 10
- 230000015654 memory Effects 0.000 description 8
- 238000003909 pattern recognition Methods 0.000 description 6
- 230000005484 gravity Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000007630 basic procedure Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 235000015047 pilsener Nutrition 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Description
- Die Erfindung betrifft ein Verfahren zur Steuerung einer Bildverarbeitungseinrichtung, die eine Programmiersprache zur Bildverarbeitung verwendet, die für die Steuerung der Bildverarbeitungseinrichtung, die die polygonale Näherungsverarbeitung anwendet, brauchbar ist.
- Es sind bisher zwei Verfahren vorgeschlagen worden, das Muster-Übereinstimmungsverfahren und der SRI-Algorithmus als ein etwas vielseitiger, und folglich als eine Art Standard-Bildverarbeitungs-Algorithmus, der unmittelbar mit der Muster-Erkennung und nicht mit der Bild-Filterung und der Zwischen- Bildverarbeitung verbunden ist.
- Das Muster-Übereinstimmungsverfahren erfordert unabdingbar einen beträchtlichen Rechenaufwand und wird tatsächlich in den meisten Fällen durch Anwendung von Hardware ausgeführt und ist nicht Gegenstand der Steuerung durch die Programmiersprache. Der SRI-Algorithmus besitzt nicht viel Flexibilität im Verarbeitungsverlauf und erlaubt nur den Wechsel einiger Parameter. Eine der Programmiersprachen, die auf diesem SRI-Algorithmus basieren, ist in einem Artikel mit dem Titel "Programming Vision and Robotics Systems with RAIL", RDBO TSVI, Conference Proceedings, 2.-4. März 1982, S. 392-406 Robotics International of SME, besprochen worden. Diese Sprache jedoch ermöglicht, nur die Parameter auszuwechseln und die Verarbeitungsergebnisse, auf die sie sich beziehen, aber sie hat nicht irgendeine Freiheit im Sinne des Bildverarbeitungs-Verfahrens.
- Andererseits ist ein Beispiel der Programmiersprachen, die den Ablauf der Bildverarbeitung selbst beschreiben, in dem Artikel "AML/V: An Industrial Machine Vision Programming System", The International Journal of Robotics Research, Vol. 1, Nr. 3, 1982 besprochen worden. Jedoch diese Sprache besitzt nur die Befehle zur Ausführung elementarer oder fundamentaler Verarbeitungen, wie z. B. Zwischenbild-Verarbeitung, die nicht unmittelbar mit der Muster-Erkennung zu tun haben und folglich, wenn ein Erkennungsprogramm unter Anwendung dieser Sprache geschrieben wird, erfordert dies im wesentlichen den gleichen Aufwand an Arbeit und Wissen wie der Gebrauch von anderen Mehrzweck-Programmiersprachen.
- The Document Computers, Vol. 15, Dezember 1983, S. 17-32, Nr. 12, Lond Beach, California, USA; R.C. Gonzalez et al: "Computer vision techniques for industrial applications and robot control" bespricht im einzelnen die Folgen von Schritten, die zur Erkennung eines Objekts erforderlich sind. Diese umfassen Mittel zur Eingabe eines Bildes, Mittel zur Segmentierung eines Bildes, Mittel zur Bestimmung der Lage- oder der Nachbarschaftsbeziehung zwischen den Bildelementen, polygonale Näherung des Bildrandes, Mittel zum Vergleich eines unbekannten Wertes mit einem bekannten Bezugswert, die Standardbestandteile in jedem Apparat zur Bilderkennung sind. Im Gegensatz zur vorliegenden Anmeldung jedoch wird ein polygonal angenähertes Muster nicht durch eine Reihe von Spitzenwert-Daten dargestellt.
- In PROCEEDINGS 6th INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION, München, 19.-22. Okt. 1982, S. 19-22, IEEE, New York, USA; H. Mori: "Picture interpretation language for silhouette" wird die Entwicklung der PILS-Programmiersprache besprochen, die es dem Programmierer erlaubt, seine eigenen Bild-Operatoren zu definieren. Aber wie in dem vorstehenden Dokument "Computer vision . . ." wird kein Gebrauch von der Darstellung eines Musters durch eine Reihe von Spitzenwert-Daten gemacht.
- Es ist eine Aufgabe der Erfindung, ein Verfahren zur Steuerung einer Bildverarbeitungseinrichtung mit den in der Präambel des Anspruchs 1 aufgeführten Merkmalen anzugeben, das es ermöglicht, die Verarbeitungs-Prozedur so genau zu ändern, daß sie an unterschiedliche Verwendungszwecke angepaßt werden kann, die verschiedene Prozeduren erfordern.
- Es ist eine andere Aufgabe der Erfindung, ein Bildverarbeitungsverfahren anzugeben, mit dem sehr leicht ein Anwendungssystem entwickelt werden kann, das ein polygonales Näherungs- Verarbeitungssystem anwendet mit nur einem geringen Aufwand an zusätzlicher Software, die beim Gebrauch einer Bildverarbeiungs-Sprache entwickelt wird.
- Diese Aufgaben werden erfindungsgemäß durch die in Anspruch 1 angegebenen Merkmale gelöst.
- Weitere Aufgaben und Vorteile der Erfindung gehen aus der folgenden Beschreibung in Verbindung mit den zugehörigen Zeichnungen hervor.
- Fig. 1 zeigt ein Schaubild eines grundlegenden Verfahrens eines Polygonal-Näherungs-Verarbeitungssystems;
- Fig. 2 zeigt die Anordnung eines Bildverarbeitungsgeräts;
- Fig. 3 zeigt eine Tabelle von Bildvariablen;
- Fig. 4A bis 4C zeigen die Anordnung einer Segment-Tabelle;
- Fig. 5 zeigt eine Tabelle der Bildverarbeitungs-Befehle;
- Fig. 6A bis 6C und Fig. 7A bis 7C zeigen Beispiele der Anwendung dieser Erfindung auf einem wirklichen, zu erkennenden Gegenstand.
- Nachfolgend werden einige Ausführungsbeispiele dieser Erfindung anhand der Zeichnungen erläutert. Mit Bezug auf Fig. 1 wird ein polygonales Näherungsverarbeitungs-System erläutert. Das polygonale Näherungsverarbeitungs-System ist ein Muster- Erkennnungs-System, bei dem die Kontur eines Segments polygonal angenähert wird, so daß es durch eine Reihe von Spitzenwert-Koordinaten oder -Daten dargestellt wird, die verarbeitet wird, um Informationen bezüglich der Segmentform, z. B. der Fläche oder des Umfangs, zu liefern und um zu prüfen, ob zwei Muster identisch sind oder nicht. Dieses Mustererkennungs-System wurde ausführlich in der japanischen, ungeprüften Anmeldung Nr. 154574/84 beschrieben, die dem Anmelder der vorliegenden Anmeldung gehört.
- Nachfolgend wird der Verarbeitungsablauf in diesem polygonalen Näherungsverarbeitungs-System erläutert. Zunächst wird bei einem Schritt 101 (siehe Block 201) ein Bild eingegeben und das Bild wird bei Schritt 102 segmentiert, wie aus Block 202 ersichtlich. Bei Schritt 103 der Bildstrukturanalyse wird die Verbindungsbeziehung zwischen den Segmenten hergestellt, wie aus Block 203 ersichtlich. Das zu erkennende Segment wird aus dieser Verbindungsbeziehungs-Information ausgewählt und wird durch einen polygonalen Näherungs-Schritt polygonal angenähert. Dieses polygonal angenäherte Segment wird zur Erkennung bei einem Schritt 105 zur polygonalen Muster-Übereinstimmung oder bei Schritt 106 zum Auszug charakteristischer Werte verarbeitet. Die polygonale Muster-Übereinstimmung betrifft die Feststellung der Übereinstimmung durch Überlagerung auf ein Muster eines Verzeichnisses, das ebenfalls, wie aus Block 205 ersichtlich, polygonal angenähert ist und der Auszug charakteristischer Werte betrifft, wie aus Block 206 ersichtlich, die Erkennung der Form durch charakteristische Werte, wie z. B. Form, Durchmesser und dgl., und die Positionierung des Musters, die den Schwerpunkt, die Trägheitsachse und dgl. verwendet.
- Der Vorteil der polygonalen Näherungs-Verarbeitung beruht in ihrer großen Veränderlichkeit im Verarbeitungsablauf. Zum Beispiel kann nach der Bildstrukturanalyse jedes Segment als das zu erkennende Segment ausgewählt werden und das der polygonalen Näherung unterworfene Segment kann durch viele Erkennungsverfahren erkannt werden. Der Ablauf der ganzen Prozedur des polygonalen Näherungs-Verarbeitungssystems ist einfach. Deshalb kann das polygonale Näherungs-Verarbeitungssystem leicht modifiziert werden, um für eine besondere Anwendung geeignet zu sein durch Änderung der Kombination der Schritte, wobei jeder als Verarbeitungseinheit in Fig. 1 angewendet wird, und durch Vorsehen von Verzweigungen in Abhängigkeit von Zwischenresultaten.
- Mit Bezugnahme auf Fig. 2 wird nun ein Beispiel eines Bildverarbeitungsgeräts zur Durchführung einer Bildverarbeitung auf der Grundlage des polygonalen Näherungssystems erläutert. In der Zeichnung bezeichnet die Zahl 301 einen Bildspeicher, 302 einen Bild-Eingabeteil, 303 einen Bild-Verarbeitungsteil, 304 einen Prozessor (CPU), und 305 eine TV-Kamera. Die Steuerung der Bild-Verarbeitungs-Prozedur erfolgt durch die Ausführung des Programms, das die Verarbeitungs-Prozedur beschreibt, durch die CPU 304.
- Eine Programmiersprache (Bild-Verarbeitungssprache) zur Beschreibung dieses Programms wird nun erläutert. Die Grundstruktur besteht aus einer bekannten Programmiersprache, z. B. BASIC, und aus einer Gruppe von Bild-Verarbeitungs-Befehlen als Erweiterungs-Befehle, und Bild-Variablen als Variablen-Typen.
- Zunächst werden die Bild-Variablen mit Bezug auf Fig. 3 erläutert. Die Bild-Variablen sind variable Typen, welche die Struktur der Bild-Daten darstellen, die im polygonalen Näherungs-Verarbeitungssystem verwendet werden. Es gibt als Variable Grauskalen-Bild, binäres Bild, Maskenbild, Segment-Tabelle und eine Reihe von Spitzenwert-Koordinaten. Diese Variablen werden benannt, z. B. G&sub1;, T&sub6; und L&sub3;, wobei jeder Name aus einem Kopfzeichen besteht, das die Variablen-Type darstellt, und einer Zahl zur Identifizierung einer unter vielen Variablen des gleichen Typs. G ist das Kopfzeichen eines Grauskalen-Bildes, T ist das Kopfzeichen eines Strukturbaums, der einer Tabelle zur Aufzeichnung der Baumstruktur, die die Verbindung zwischen den Bereichen eines Bildes darstellt, entspricht, und L ist das Kopfzeichen von Zeilen ("Lines"), welche die Seiten eines polygonal angenäherten Segments bilden. Insbesondere stimmen das Grauskalen-Bild, das binäre Bild und das Maskenbild mit den benützten Bildspeichern überein und deren Zahlen sind festgelegt, deren Strukturen sind zweidimensionale Felder. Die Segment-Tabelle, die eine Tabelle zum Überwachen der Beziehungen zwischen den Segmenten darstellt, ist eine Tabelle, welche die Informationen bezüglich der Segmente eines Bildes enthält, z. B. Verbindungs-Zustand oder Lage-Beziehung zwischen den Segmenten, Lage und Fläche der Segmente und ähnliches. Eine Segment-Tabelle entspricht einem Bild. Ihre Größe hängt von der Anzahl der Segmente ab, die im Bild enthalten sind und ist veränderlich. Von jedem Datum in der Segment-Tabelle wird angenommen, daß es eine ganze Zahl ist. Ein Beispiel einer Segment-Tabelle ist in Fig. 4A bis 4C gezeigt. Die dargestellte Segment-Tabelle ist die eines zweidimensionalen Bildes und deshalb sind alle Verbindungs-Zustände oder Lagebeziehungen "einbeziehen", "einbezogen". Zunächst enthält die Segment-Tabelle die Anzahl der einbezogenen Segmente (Kinder). Dann als nächstes, "einbeziehen" und "einbezogen" werden durch drei Arten von Zeigern dargestellt. Insbesondere wird die Beziehung "einbeziehen" oder "einbezogen" durch eine Eltern-Kind-Beziehung dargestellt. Nämlich, wenn A einbezieht B, dann ist A ein Elternteil und B ist das Kind. In diesem Fall gibt es einen Eltern-Zeiger c und einen Kinder- Zeiger a. Obgleich jedoch die Anzahl des Elternteils immer nur eins ist, aber die des Kindes nicht notwendigerweise einst ergibt sich, daß die Anzahl der Eltern-Zeiger nicht ausreicht. Wenn es deshalb mehrere Kind-Segmente gibt, wird nur eines von ihnen mit einem Kind-Zeiger a angegeben und die restlichen Kind-Segmente werden miteinander durch Bruder-Zeiger b verbunden. Jeder Zeiger ist mit einem Endzeichen an seinem Ende versehen. Die Segment-Tabelle enthält Angaben über Bereich (Anzahl der Pixels), Koordinaten (XTOP, YTOP) am linken oberen Ende des Segments, die die Segment-Lagen angeben und Zeiger, die die Reihen der Spitzenwert-Koordinaten in Übereinstimmung mit den Segmenten angeben.
- Die Struktur der im polygonalen Näherungsverarbeitungs-System verwendeten Bilddaten kann durch die oben angegebenen Bild- Variablen definiert werden, so daß die Benutzer nicht veranlaßt sind, sie selbst zu definieren und deshalb ist das Programmieren leicht gemacht und Fehler in Verbindung mit der Programmierung treten nicht auf.
- Die Bildverarbeitungs-Befehle werden mit Bezug auf Fig. 5 erklärt. Jeder Bildverarbeitungs-Befehl stellt eine der Verarbeitungs-Einheiten im polygonalen Verarbeitungssystem durch einen Befehl oder eine Funktion dar, das mit Bezug auf Fig. 1 erläutert wurde. Die Bildeingabe beim Schritt 101 entspricht einem Bildeingabe-Befehl PICTURE und die Segmentierung beim Schritt 102 entspricht einem Segmentierungs-Befehl SEGMENT. Da diese zwei Schritte in vielen Fällen nacheinander ausgeführt werden, wird ein Befehl PICTURES für diesen Zweck verwendet. Die Bildstruktur-Analyse beim Schritt 103 entspricht einem Befehl ANALYZE, und die polygonale Näherung beim Schritt 104 entspricht einem Befehl LINSEG.
- Die polygonale Muster-Übereinstimmung beim Schritt 105 enthält Parallel-Verschiebung LSHIFT und Rotations-Verschiebung LROTATE, welches Befehle zur Verschiebung sind, um zwei Muster aufeinander zulegen und MATCH ist eine Funktion zur Berechnung der Fläche des aufeinandergelegten Teils. Der Auszug eines charakteristischen Wertes beim Schritt 106 beinhaltet charakteristische Wert-Funktionen, wie z. B. AREA, PERIM und dgl. Es gibt ferner auch Funktionen wie z. B. THDSET zum Setzen eines binären digitalisierten Schwellenwerts, MASK zum Setzen eines Verarbeitungsbereichs, und TSUM, TTOP zur Bezugnahme auf die Segment-Tabelle usw.
- Das Programm, das die Bildverarbeitungs-Prozedur beschreibt, wird mit Bezug auf Fig. 6A bis 6C beschrieben. Das gezeigte Beispiel unterscheidet die drei Teile 1, 2 und 3 voneinander entsprechend der räumlichen Anordnung. Die Fig. 6A zeigt die zu erkennenden Teile; Fig. 6B zeigt den Verarbeitungs-Ablauf, und Fig. 6C zeigt eine exemplarische Programm-Beschreibung entsprechend des Ablaufs.
- Zuerst wird ein Bild von einer Kamera Nr. 1 durch den Eingabe- Befehl PICTURE in einen Grauskalen-Bildspeicher G&sub1; und in einen Binär-Speicher B&sub1; eingespeichert; es wird dabei jetzt angenommen, daß der binär-digitalisierte Schwellenwert vorher durch den Schwellenwert-Setz-Befehl THDSET (Schritt S11) gesetzt worden ist. Das im Binärspeicher B&sub1; befindliche Bild wird durch den Segmentier-Befehl SEGMENT segmentiert und das Ergebnis der Segmentierung wird in der Segment-Tabelle T&sub1; gespeichert (Schritt S12). Die Bildstruktur-Analyse wird durch den Struktur-Analyse-Befehl ANALYZE (Schritt S13) durchgeführt. Ein Hintergrund-Segment Nummer I wird zuerst berechnet, unter Verwendung der Segment-Informations-Referenz-Funktionen TTOP und TDOWN, und danach wird das Segment Nummer J berechnet, das direkt davon abhängt. Auf diese Weise wird ein im einheitlichen Hintergrund angeordnetes, optionales Teil gewählt (Schritt S14). Dieses gewählte Teil J wird polygonal angenähert durch den Zeilen-Segmentations-Befehl LINSEG, um die Spitzenwert-Reihe L&sub1; ("Vertex-Reihe") zu liefern (Schritt S15). Die Fläche S des Teils J wird durch die Bereichs-Funktion AREA aufgrund von L&sub1; berechnet (Schritt S16). Aufgrund dieses Ergebnisses werden Teile-Nummern, Fehler-Codes und dgl. bei Schritt S17 und folgende zurückgesetzt, um in jedem Fall die Verzweigung in die Verarbeitungsroutine auszuführen.
- Ein Programm zur Bestimmung des polygonal angenäherten Muster- Übereinstimmungs-Vergleichs wird mit Bezug auf die Fig. 7A bis 7C erläutert. Die Fig. 7A zeigt den Zustand, bei dem das zu erkennende Teil über einem Muster des Verzeichnisses angeordnet ist; die Fig. 7B zeigt die Verarbeitungs-Prozedur und Mol-%7C zeigt eine exemplarische Programm-Beschreibung entsprechend dieser Prozedur. Zuerst wird ein Bild der Kamera Nr. 1 in den Grauskalen-Bildspeicher G&sub1; und in den Binärspeicher B&sub1; durch den Eingabe-Befehl PICTURE eingespeichert, und es wird angenommen, daß der binär-digitalisierte Schwellenwert durch den Schwellenwert-Setz-Befehl THDSET (Schritt S21) gesetzt worden ist. Das Bild im Binärspeicher B&sub1; wird durch den Segmentier- Befehl SEGMENT segmentiert und das Segmentier-Ergebnis wird in der Segment-Tabelle T&sub1; gespeichert (Schritt S22). Die Bild- Struktur-Analyse wird durch den Struktur-Analyse-Befehl ANALYZE durchgeführt (Schritt S23). Die Segment-Nummer J wird unter Verwendung der Segment-Referenz-Funktionen TTOP und TDOWN in der gleichen Weise wie im in Fig. 6 gezeigten Beispiel berechnet (Schritt S24). Das Teil J wird durch den Zeilen-Segmentierungs-Befehl LINSEG polygonal angenähert, um die Spitzenwert-Reihe 1 zu liefern (Schritt S25). Die folgenden Schritte betreffen den Muster-Übereinstimmungs-Vergleich mit einem Muster des Verzeichnisses durch den Vergleich der polygonal angenäherten Muster; es wird dabei angenommen, daß das Muster des Verzeichnisses durch eine Spitzenwert-Reihe L&sub0; bargestellt ist und daß es Schwerpunkt-Koordinaten (X&sub0;, Y&sub0;) besitzt und eine Orientierung T&sub0;. Zuerst, in Zeilen 70-90 in Fig. 7C, werden durch die Schwerpunkts-Funktionen GX, GY und durch eine Orientierungs-Funktion ORIENT die Schwerpunkt-Koordinaten und die Orientierung des Teils J erhalten und danach wird die Lageabweichung (DX, DY, DT) davon von jenen des Verzeichnis-Musters L&sub0; erhalten.
- Danach, in Zeilen 100 und 110, wird die Spitzenwert-Reihe L&sub1;, die das Teil J darstellt, durch die Muster-Verschiebe-Befehle LSHIFT und LROTATE (Schritt S26) so verschoben, daß es die gleichen Schwerpunktkoordinaten und die gleiche Orientierung wie das Verzeichnis-Muster L&sub0; hat. Die zwischen L&sub0; und L&sub1; übereinandergelegte Fläche wird durch einen Übereinstimmungs- Befehl MATCH berechnet. Wenn die Fläche 98 % größer als die durch eine Bereichs-Funktion AREA in Zeile 130 berechnete Fläche S&sub0; des Verzeichnis-Musters ist, wird der Schätzwert ST=0 angenommen und wenn die vor angehende kleiner als die letztere ist, dann wird der Schätzwert ST=1 angenommen (Schritt S26).
- Auf diese Weise, nur durch Schreiben eines solchen kurzen Programms, wie vorstehend erläutert, ist es mit dem gleichen Bildverarbeitungs-Gerät möglich, auf unterschiedliche Arten die Muster-Erkennung auszuführen.
- Das Bildverarbeitungsgerät kann leicht an ein System, das die polygonale Näherung verwendet, angeglichen werden durch die Entwicklung eines geringen Umfangs an Software durch Anwendung einer Bildverarbeitungs-Sprache, da das polygonale Näherungs- Verarbeitungssystem flexibel ist und nicht in seinem Verarbeitungs-Ablauf festgelegt ist und daher auf vielen Feldern anwendbar ist.
- Somit bedarf das Bildverarbeitungsgerät keiner Entwicklung von Hardware und es bedarf auch keiner Entwicklung eines großen Umfangs an Software, die eine Universal-Programmiersprache anwendet; folglich können die Kosten beträchtlich verringert werden.
- Außerdem ermöglicht es das Bildverarbeitungsgerät, die Verarbeitungs-Prozedur, dem Zweck angepaßt, genau anzugleichen, so daß es durch die Bildverarbeitung zur Erweiterung des Anwendungsgebiets der Automation beiträgt.
Claims (2)
1. Verfahren zur Steuerung einer Bildverarbeitungseinrichtung
mit folgenden Schritten:
- Eingabe eines Bildes durch einen Eingabebefehl (101, 311,
S21);
- Segmentierung dieses eingegebenen Bildes (201) durch einen
Segmentierungsbefehl (102, 312, 322);
- Erzielung einer Stellungsbeziehung (203) zwischen den
Segmenten im eingegebenen Bild (201) durch einen
Struktur-Analysebefehl (S13, 323);
- Auswählen eines der zu erkennenden Segmente (S14, S24)
aufgrund der Stellungsbeziehung; und
- polygonale Näherung der Kontur des gewählten Segments durch
einen Polygonal-Näherungs-Befehl (315, 325);
wobei das Verfahren durch die folgenden Schritte
gekennzeichnet ist:
- Darstellen der polygonal angenäherten Kontur des gewählten
Segments durch eine weihe von Spitzenwert-Koordinaten (204);
- Berechnung des Schwerpunktes und der Orientierung des
gewählten Segments und Verschiebung und Drehung der
Spitzenwert-Koordinaten, bis der Schwerpunkt und die Orientierung
des gewählten Segments mit jenen eines Musters in einem
Verzeichnis, das ebenfalls polygonal angenähert ist (326,
Zeilen 70-90 in Fig. 7C) übereinstimmen;
- Berechnen der aufeinanderliegenden Fläche vom gewählten
Segment und dem Muster im Verzeichnis mittels eines
Flächen-Berechnungs-Befehls, um eine Übereinstimmung
festzustellen.
2. Verfahren nach Anspruch 1, bei dem die Information
betreffend der Stellungsbeziehung zwischen den Segmenten in
einer Segment-Tabelle (Tn) aufgelistet sind.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP59234957A JPH0766440B2 (ja) | 1984-11-09 | 1984-11-09 | 画像処理装置 |
JP59234958A JPS61114376A (ja) | 1984-11-09 | 1984-11-09 | 画像処理装置の制御方式 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3587061D1 DE3587061D1 (de) | 1993-03-18 |
DE3587061T2 true DE3587061T2 (de) | 1993-07-15 |
Family
ID=26531864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE8585114317T Expired - Lifetime DE3587061T2 (de) | 1984-11-09 | 1985-11-11 | Bildverarbeitungseinrichtung und verfahren zu deren steuerung. |
Country Status (4)
Country | Link |
---|---|
US (1) | US4748675A (de) |
EP (1) | EP0181009B1 (de) |
KR (1) | KR900001696B1 (de) |
DE (1) | DE3587061T2 (de) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6410381A (en) * | 1987-07-03 | 1989-01-13 | Hitachi Ltd | Document input system |
JPH077448B2 (ja) * | 1987-10-08 | 1995-01-30 | 日立ソフトウェアエンジニアリング株式会社 | 円弧部認識方法 |
US4975853A (en) * | 1987-11-20 | 1990-12-04 | Hitachi Software Engineering Co., Ltd. | Image processing system having polygonal line processing of pixel line data |
US4912664A (en) * | 1988-02-01 | 1990-03-27 | Mentor Graphics Corporation | Method and apparatus for generating a mesh for finite element analysis |
JP2640673B2 (ja) * | 1988-06-06 | 1997-08-13 | 日立ソフトウェアエンジニアリング株式会社 | パターン認識装置 |
US5109431A (en) * | 1988-09-22 | 1992-04-28 | Hitachi, Ltd. | Pattern discrimination method and apparatus using the same |
US5214719A (en) * | 1989-02-28 | 1993-05-25 | Phoenix Imaging | Computer-based system and method for character recognition |
KR100204101B1 (ko) * | 1990-03-02 | 1999-06-15 | 가나이 쓰도무 | 화상처리장치 |
US5170440A (en) * | 1991-01-30 | 1992-12-08 | Nec Research Institute, Inc. | Perceptual grouping by multiple hypothesis probabilistic data association |
US5317652A (en) * | 1991-06-05 | 1994-05-31 | Phoenix Imaging | Rotation and position invariant optical character recognition |
US5251268A (en) * | 1991-08-09 | 1993-10-05 | Electric Power Research Institute, Inc. | Integrated method and apparatus for character and symbol recognition |
KR0181059B1 (ko) * | 1995-03-18 | 1999-05-01 | 배순훈 | 물체의 윤곽을 나타내기 위한 윤곽 근사장치 |
KR0171151B1 (ko) * | 1995-03-20 | 1999-03-20 | 배순훈 | 곡률 계산 기법을 이용한 이미지 윤곽 근사화 장치 |
US5991436A (en) * | 1995-06-30 | 1999-11-23 | Cognex Corporation | Apparatus and method for inspecting wirebonds on leads |
KR100203656B1 (ko) * | 1996-04-09 | 1999-06-15 | 전주범 | 윤곽 영상신호 부호화 장치 |
DE19780359D2 (de) * | 1996-04-25 | 1998-11-05 | Delphi Systemsimulation Gmbh | Verfahren zum Klassifizieren und Wiedererkennen von Mustern, wobei eine Signatur durch das Glätten eines Polygonzugs erzeugt wird |
US5754703A (en) * | 1996-12-16 | 1998-05-19 | Daewoo Electronics Co., Ltd. | Method for encoding a contour of an object in a video signal |
KR100463003B1 (ko) * | 1997-03-20 | 2005-06-01 | 주식회사 팬택앤큐리텔 | Mpeg-4vop의윤곽선부호화방법 |
KR100463004B1 (ko) | 1997-03-20 | 2005-06-02 | 주식회사 팬택앤큐리텔 | Mpeg-4vop부호화방법 |
US6137836A (en) * | 1997-05-28 | 2000-10-24 | Nokia Mobile Phones Limited | Communication of pictorial data by encoded primitive component pictures |
US6285788B1 (en) * | 1997-06-13 | 2001-09-04 | Sharp Laboratories Of America, Inc. | Method for fast return of abstracted images from a digital image database |
CA2260510A1 (en) | 1998-01-28 | 1999-07-28 | Chipworks | Focused ion beam imaging method |
JP2000331156A (ja) * | 1999-05-17 | 2000-11-30 | Internatl Business Mach Corp <Ibm> | 輪郭に沿うトラッカを自動的に決定するための方法、及び該方法を実施するプログラムを記憶した記憶媒体 |
WO2003021970A1 (en) * | 2001-09-04 | 2003-03-13 | Faroudja Cognition Systems, Inc. | Low bandwidth video compression |
US7822264B2 (en) * | 2003-08-15 | 2010-10-26 | Scape A/S | Computer-vision system for classification and spatial localization of bounded 3D-objects |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4493105A (en) * | 1982-03-31 | 1985-01-08 | General Electric Company | Method and apparatus for visual image processing |
US4566126A (en) * | 1982-04-30 | 1986-01-21 | Fuji Electric Company, Ltd. | Pattern discriminator |
JPS59790A (ja) * | 1982-06-28 | 1984-01-05 | Fuji Electric Co Ltd | パタ−ン識別装置 |
JPS5930179A (ja) * | 1982-08-10 | 1984-02-17 | Agency Of Ind Science & Technol | パタ−ンの線分近似方式 |
FR2540263B1 (fr) * | 1983-01-31 | 1988-05-20 | Commissariat Energie Atomique | Procede de reconnaissance automatique d'une image a partir d'une image correspondante de reference |
-
1985
- 1985-11-06 KR KR1019850008268A patent/KR900001696B1/ko not_active IP Right Cessation
- 1985-11-07 US US06/795,775 patent/US4748675A/en not_active Expired - Lifetime
- 1985-11-11 EP EP85114317A patent/EP0181009B1/de not_active Expired - Lifetime
- 1985-11-11 DE DE8585114317T patent/DE3587061T2/de not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
US4748675A (en) | 1988-05-31 |
KR860004366A (ko) | 1986-06-20 |
KR900001696B1 (ko) | 1990-03-19 |
EP0181009B1 (de) | 1993-02-03 |
DE3587061D1 (de) | 1993-03-18 |
EP0181009A3 (en) | 1989-06-07 |
EP0181009A2 (de) | 1986-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3587061T2 (de) | Bildverarbeitungseinrichtung und verfahren zu deren steuerung. | |
DE69516733T2 (de) | Verfahren und System mit neuronalem Netzwerk zur Bestimmung der Lage und der Orientierung | |
DE69327928T2 (de) | Vorrichtung zur Kodierung von unbeweglichen Bildern | |
DE69730811T2 (de) | Anlage zur Bilderkennung | |
DE3911465C2 (de) | Verfahren zur automatischen Konfiguration technischer Systeme aus Komponenten | |
DE2801536A1 (de) | Zeichenerkennungsvorrichtung | |
DE3425449A1 (de) | Verfahren und vorrichtung zur alphanumerischen handschriftenerkennung | |
DE69328230T2 (de) | Entfernungbildverarbeitungsvorrichtung und -verfahren | |
DE102017220307A1 (de) | Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen | |
DE102018220941A1 (de) | Auswertung von Messgrößen mit KI-Modulen unter Berücksichtigung von Messunsicherheiten | |
EP0845720A1 (de) | Verfahren zur Analyse und Darstellung von transienten Prozessvorgängen | |
DE69224718T2 (de) | Klassifizierungsverfahren für Rechnerarchitekturen | |
DE69430413T2 (de) | Verfahren und Vorrichtung zur Lösung von Termen einer numerischen Folge | |
DE3328308A1 (de) | Eingabeverfahren fuer daten eines grafischen musters | |
WO2008034599A2 (de) | Verfahren und vorrichtung zur bildverarbeitung | |
DE3709919C2 (de) | ||
DE3485915T2 (de) | Vektormaskierungssteuerungssystem. | |
WO1997040442A1 (de) | Verfahren und steuereinrichtung für eine graphische steuerung von abläufen in einem netzwerkmanagementsystem | |
DE102018129871A1 (de) | Trainieren eins tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Sensordaten zur Anwendung in einem Fahrunterstützungssystem | |
EP0829809A1 (de) | Verfahren zur Prozessvisualisierung | |
DE69331035T2 (de) | Zeichenerkennungssystem | |
DE60030528T2 (de) | Verfahren und Vorrichtung zur Farbquantelung | |
DD294115A5 (de) | Vorrichtung und verfahren zur signalverarbeitung | |
DE68927662T2 (de) | Verfahren zur Feststellung der Lage eines Objektmusters in einem Bild | |
DE10137093A1 (de) | Verfahren zum Erkennen eines Codes und Codeleser |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |