DE69129908T2 - Verfahren zur helligkeitsverbesserung - Google Patents
Verfahren zur helligkeitsverbesserungInfo
- Publication number
- DE69129908T2 DE69129908T2 DE69129908T DE69129908T DE69129908T2 DE 69129908 T2 DE69129908 T2 DE 69129908T2 DE 69129908 T DE69129908 T DE 69129908T DE 69129908 T DE69129908 T DE 69129908T DE 69129908 T2 DE69129908 T2 DE 69129908T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- image data
- shading
- shading correction
- data representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 23
- 238000003705 background correction Methods 0.000 claims description 45
- 238000009826 distribution Methods 0.000 claims description 41
- 238000005070 sampling Methods 0.000 claims description 7
- 230000007547 defect Effects 0.000 claims 2
- 238000012545 processing Methods 0.000 description 64
- 230000015654 memory Effects 0.000 description 19
- 238000006073 displacement reaction Methods 0.000 description 18
- 238000012937 correction Methods 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 8
- 239000007787 solid Substances 0.000 description 6
- 230000005484 gravity Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/80—Shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Image Input (AREA)
- Picture Signal Circuits (AREA)
- Facsimile Image Signal Circuits (AREA)
- Character Input (AREA)
- Studio Devices (AREA)
Description
- Diese Erfindung bezieht sich auf ein Schattierungskorrektur-(Kompensations-)Verfahren und eine zugehörige Vorrichtung, bei welchen Effekte, die Lichtunregelmäßigkeiten, den Schatten eines Objekts etc. zugeschrieben werden, beseitigt sind. Im einzelnen bezieht sich die Erfindung auf ein Schattierungskorrektur-(Kompensations-)Verfahren und eine zugehörige Vorrichtung, die ideal für säulenförmige Objekte, wie etwa kreisförmige Zylinder, kreisförmige Säulen oder Prismen, sind.
- Es gibt viele Fälle, bei welchen eine Schattierungsverarbeitung, die der Beseitigung einer Ungleichförmigkeit der Helligkeit, wie sie durch eine Beleuchtungsirregularität der Beleuchtungsvorrichtung oder eine Verzerrung eines Kameraobjektivs bewirkt wird, dient, als Vorverarbeitung für das Lesen von Zeichen oder für die Erkennung anderer Objekte erforderlich ist.
- Bei der herkömmlichen Schattierungsverarbeitung wird ein reinweißes Referenzpapier mit einem gleichförmigen Reflexionsvermögen abgebildet und das sich ergebende Bild als Schattierungsmuster genommen. Wenn ein Objekt abgebildet wird, wird eine bestimmte Rechenoperation (wie etwa eine Subtraktion oder Division) zwischen Bilddaten, die das Objekt angeben, und Bilddaten, die das Schattierungsmuster darstellen, durchgeführt. Mit diesem Vorgang gewinnt man einer Schattierungskorrektur unterworfene Bilddaten. Eine solche Technik wird in JP-A-63 076 566 beschrieben.
- Bei diesem herkömmlichen Schattierungverfahren ist es jedoch erforderlich, daß das Referenzpapier vorab präpariert wird. Ferner ist in einem Fall, wo das Objekt eine massive Figur, wie etwa ein kreisförmiger Zylinder, ist, die auf die Bildaufnahmevorrichtung einfallende Lichtmenge abhängig vom Ort des Objekts unterschiedlich. Dieses Licht ist Teil des Beleuchtungslichts, der vom Objekt zurückgeworfen worden ist. Im einzelnen trifft der größte Teil des Lichts, das von dem der Bildaufnahmevorrichtung zugekehrten Teil des Objekts zurückgeworfen wird, auf die Bildaufnahmevorrichtung auf. An den Seitenflächen des Objekts oder Teilen in der Nachbarschaft derselben wird das Beleuchtungslicht jedoch nicht an die Position der Bildaufnahmevorrichtung zurückgeworfen. Das meiste dieses zurückgeworfenen Lichts trifft nicht auf die Bildaufnahmevorrichtung. Wenn folglich ein Objekt mit einer solchen massiven Form photographiert wird, entwickelt das photographische Bild einen Schatten (womit ein vergleichsweise dunkler Abschnitt gemeint ist). Es ist schwierig, eine solche Änderung in Licht und Dunkelheit mit dem herkömmlichen Verfahren unter Verwendung des vorgenannten Referenzpapiers zu verhindern.
- JP-A-2 217 968 beschreibt ein Verfahren, bei welchem mittlere Lichtverteilungsmuster längs zweier Linien S1 und S2 senkrecht zur Längsachse eines langgestreckten Objekts als Referenzen erzeugt werden. Lichtverteilungsmuster längs Linien S1 und S2 von zu inspizierenden Objekten werden ebenfalls erzeugt und mit dem die Referenz bildenden mittleren Lichtverteilungsmuster verglichen, um zu inspizieren, ob ein Schild bzw. Aufkleber auf dem Objekt geneigt oder gedreht oder von falscher Art ist.
- Eine Aufgabe der vorliegenden Erfindung ist die Schaffung eines Schattierungskorrekturverfahrens und einer zugehörigen Vorrichtung, womit es möglich ist, die Effekte von Schatten, die durch massive Formen bewirkt werden, ohne Verwendung eines Referenzpapiers oder dergleichen zu beseitigen.
- Eine weitere Aufgabe der vorliegenden Erfindung ist es, eine korrekte Schattierungskorrektur auch in einem Fall zu ermöglichen, wo die Position eines abzubildenden Objekts sich im Gesichtsfeld einer Kamera gegenüber einer Referenzposition verschoben hat.
- Ein Schattierungskorrekturverfahren gemäß der vorliegenden Erfindung ist in Ansprüchen 1 und 4 dargelegt.
- In einer Ausführungsform der Erfindung wird der Abtastort durch die Position einer auf dem Bild gezogenen Linie oder durch ein auf dem Bild angezeigtes schlankes Fenster bezeichnet.
- Fig. 1 bis 8 veranschaulichen eine erste Ausführungsform, bei welcher
- Fig. 1 ein Blockschaltbild ist, welches den Gesamtaufbau eines Bildverarbeitungssystems veranschaulicht, das eine Schattierungskorrekturverarbeitung durchführt,
- Fig. 2 eine perspektivische Ansicht ist, die ein Objekt zeigt,
- Fig. 3 ein durch Abbilden des Objekts gewonnenes Bild veranschaulicht,
- Fig. 4 ein Graph ist, welcher eine Dichteniveauverteilung längs Linie A-A der Fig. 3 veranschaulicht,
- Fig. 5 ein Graph ist, welcher eine Dichteniveauverteilung längs Linie B-B der Fig. 3 veranschaulicht,
- Fig. 6 ein allgemeines Schattierungsmuster veranschaulicht,
- Fig. 7, welche Daten veranschaulicht, die durch Binarisierung von Bilddaten, die einer Verarbeitung der Schattierungskorrektur unterworfen worden sind, gewon nen sind, Daten längs Linie A-A der Fig. 3 darstellt, und
- Fig. 8 ein Flußdiagramm ist, welches den Verarbeitungsfluß in einem Bildverarbeitungssystem veranschaulicht,
- Fig. 9 bis 14 veranschaulichen eine zweite Ausführungsform, bei welcher
- Fig. 9 ein durch Abbilden eines Objekts gewonnenes Bild veranschaulicht,
- Fig. 10 ein Graph ist, welcher eine Dichteniveauverteilung längs Linie C-C der Fig. 9 veranschaulicht,
- Fig. 11 ein Graph ist, welcher eine Dichteniveauverteilung, auf der X-Achse, von bezeichneten Punkten veranschaulicht,
- Fig. 12 ein Graph ist, welcher eine Dichteniveauverteilung zeigt, die durch Interpolation der Verteilung der Fig. 11 gewonnen ist,
- Fig. 13 ein Graph ist, welcher Daten längs Linie C-C der Fig. 9 darstellt, wobei dies Bilddaten sind, die einer Schattierungskorrekturverarbeitung unterworfen worden sind, und
- Fig. 14 ein Flußdiagramm ist, welches den Verarbeitungsfluß bei einem Bildverarbeitungssystem zeigt,
- Fig. 15 bis 23 veranschaulichen eine dritte Ausführungsform, bei welcher
- Fig. 15 ein Blockschaltbild ist, welches den Aufbau eines Bildverarbeitungssystems veranschaulicht,
- Fig. 16 den Fluß der Schattierungskorrekturverarbeitung bei dem Bildverarbeitungssystem veranschaulicht,
- Fig. 17 ein Beispiel eines Referenzbildes veranschaulicht,
- Fig. 18 ein erzeugtes Schattierungsmuster veranschaulicht,
- Fig. 19 den Operator eines Sobel veranschaulicht,
- Fig. 20 und 21 eine Verarbeitung zur Gewinnung eines Referenzpunktes in einem Referenzbild und einem Zielbild veranschaulichen, und
- Fig. 22 und 23 eine Verarbeitung zur Gewinnung eines Drehwinkels des Zielbildes in Bezug auf das Referenzbild veranschaulichen.
- Die vorliegende Erfindung ist auch auf ein Farbbild anwendbar, die folgende Beschreibung gründet sich jedoch auf ein monochromatisches (schwarzweißes, graues) Bild, um die Beschreibung zu vereinfachen. Die Bilddaten werden durch einen Grauwert (Dichtewert bzw. Dichteniveau) dargestellt, mit Ausnahme von Fällen, wo die Bilddaten binarisiert werden.
- Fig. 1 veranschaulicht den Gesamtaufbau eines Bildverarbeitungssystems zur Verwirklichung des Schattierungskorrekturverfahrens der vorliegenden Erfindung. Dieses Bildverarbeitungssystem kann als die Schattierungskorrekturvorrichtung dieser Erfindung enthaltend betrachtet werden.
- Es wird nun eine erste Ausführungsform beschrieben.
- Wie in Fig. 2 gezeigt, dient das Bildverarbeitungssystem zur Abbildung eines zylindrischen Objekts ob, wie etwa eines Krugs oder einer Dose, und der Erkennung eines Zeichens oder einer Figur (nachfolgend als "Erkennungsmuster" bezeichnet) pt, die auf der Oberfläche des Objekts ob dargestellt sind. Eine (nicht gezeigte) ringförmige Belichtungsvorrichtung ist um eine Bildaufnahmevorrichtung 2 herum angeordnet, womit das Objekt ob von oben beleuchtet wird.
- Obwohl die Randoberfläche des Objekts ob, die der Bild aufnahmevorrichtung 2 zugekehrt ist, hell beleuchtet wird, sind die beiden Seitenflächen des Objekts ob, gesehen von der Bildaufnahmevorrichtung 2 her, verhältnismäßig dunkel (diese dunklen Abschnitte werden nachfolgend als "Schatten" sh bezeichnet). Die Helligkeitsverteilung der Objektoberfläche, gesehen von der Bildaufnahmevorrichtung 2, variiert quer zum Objekt ob, ist aber in Längsrichtung des Objekts im wesentlichen gleichförmig.
- Das Bildverarbeitungssystem enthält die Bildaufnahmevorrichtung 2, einen Bildprozessor 3, mit dem Bilddaten, die von der Bildaufnahmevorrichtung 2 gewonnen worden sind, in einer später beschriebenen Weise einer Bildverarbeitung unterworfen werden, eine Anzeigeeinheit 4 zur Anzeige eines Grauwertbildes oder eines binären Bildes und eine Eingabeeinheit 5 zur Eingabe verschiedener Daten in den Bildprozessor 3 und zur Bezeichnung einer Linie, die eine Position zur Erzeugung eines Schattierungsmusters, wie später noch beschrieben, angibt.
- Die Bildaufnahmevorrichtung 2 enthält eine CCD-Kamera und einen A/D-Wandler 2, etc. Ein von der CCD-Kamera ausgegebenes Videosignal wird in digitale Bilddaten umgewandelt, die dann auf den Bildprozessor 3 gegeben werden. Der Bildprozessor 3 ist durch einen Rechner gebildet und mit einer CPU (vorzugsweise einem Mikroprozessor) und einer Anzahl von Bildspeichern zur Speicherung des Graubildes und der Schattierungsmusterdaten ausgestattet. Die CPU führt eine Verarbeitung zur Erzeugung von Schattierungsmustern, Verarbeitung zur Aufgabe einer Schattierungskorrektur auf Graubilddaten und andere Bildverarbeitungen durch. Die Anzeigeeinheit 4 enthält einen D/A-Wandler zur Umwandlung der vom Bildprozessor 3 gelieferten Bilddaten in ein analoges Videosignal und Anzeige derselben auf einer CRT oder Flüssigkristallanzeige, etc.. Die Eingabeeinheit 5 enthält eine Tastatur, eine Maus, etc..
- Fig. 3 veranschaulicht ein Beispiel eines Bildes, das durch die Grauwertbilddaten dargestellt ist, die durch Abbildung des Objekts ob unter Verwendung der Bildaufnahmevorrichtung 2 gewonnen sind. Das Bild wird auf der Anzeigeeinheit 4 angezeigt. Ein Bild OB eines Teils des Objekts ob wird auf einem Bild BG des Hintergrunds dargestellt. Bilder PT des Erkennungsmusters pt, die auf der Oberfläche des Objekts ob dargestellt werden, erscheinen ebenfalls. Bilder SH der Schatten sh, die aufgrund der Tatsache, daß das Objekt ob eine massive Form ist, erzeugt werden, erscheinen dunkler als die Umgebung. Die Vertikalrichtung in Fig. 3 entspricht der Längsrichtung (Höhe) des zylindrischen Objekts ob. Die Bilder SH der Schatten erstrecken sich in Bandform längs der beiden Seiten des Bilds OB des Objekts.
- Fig. 4 veranschaulicht die Dichteniveauverteilung längs Linie A-A des in Fig. 3 gezeigten Bilds. Die horizontale Achse stellt die Position längs der Linie A-A und die vertikale Achse den Dichtewert, nämlich Bildhelligkeit, dar. Die Abschnitte, deren Dichtewerte das Hintergrundbild BG, Schattenbilder SH und Erkennungsmusterbilder PT in Fig. 3 darstellen, sind ebenfalls unter Verwendung der gleichen Zeichen BG, SH und PT auch in Fig. 4 angegeben. Die Linie A- A durchschneidet den Ort, an welchem das Erkennungsmuster pt vorliegt, und eine Änderung des Dichtewerts infolge des Musters pt erscheint auch auf der Dichtewertverteilung der Fig. 4. Der Dichtewert des Bilds. OB des Objekts ist hoch (hell) im Mittelabschnitt und niedrig (dunkel) an beiden Seiten.
- Fig. 5 veranschaulicht die Dichtewertverteilung längs Linie B-B des in Fig. 3 gezeigten Bilds. Die Linie B-B durchschneidet einen Ort, an welchem das Erkennungsmuster pt nicht vorhanden ist. Dementsprechend gibt diese Dichtewertverteilung die Helligkeitsverteilung an der Oberfläche des Objekts ob an. Das Bild OB des Objekts ob ist am hellsten im Mittelabschnitt und wird mit Annäherung an beide Seiten dunkler. Die Abschnitte auf beiden Seiten ergeben sich aus den Bildern SH der Schatten. Eine Änderung des Dichtewerts infolge des Erkennungsmusters pt erscheint natürlich nicht.
- Fig. 8 veranschaulicht das Arbeiten des Bildverarbeitungssystems und hauptsächlich einen Vorgang für die Schattierungskorrekturverarbeitung, der von der CPU des Bildprozessors 3 ausgeführt wird.
- Das Objekt ob wird durch die Bildaufnahmevorrichtung 2 abgebildet, die das Objekt ob darstellenden Bilddaten werden von der Bildaufnahmevorrichtung 2 ausgegeben, und die Bilddaten werden vom Bildprozessor 3 angenommen und im Bildspeicher gespeichert (Schritt 101). Diese Bilddaten werden auf die Anzeigeeinheit 4 gegeben, so daß ein Bild der in Fig. 3 gezeigten Art angezeigt wird (Schritt 102).
- Der Bediener bezeichnet die horizontale Linie B-B, die die Längsrichtung des Objekts ob senkrecht schneidet, auf dem auf der Anzeigeeinheit 4 angezeigten Bild (Schritt 103). Die horizontale Linie wird auf dem Bildschirm der Anzeigeeinheit 4 angezeigt, und der Bediener bestimmt die Höhenposition der Linie unter Verwendung der Maus oder Tastatur der Eingabeeinheit 5, wodurch die Linie B-B eingegeben wird. Die Linie B-B wird auf dem angezeigten Bild an einer Stelle eingestellt, die der Bediener als eine festgestellt hat, wo die Bilder PT des Erkennungsmusters pt nicht vorhanden sind und das Dichteniveau in der vertikalen Richtung gleichförmig ist (das Dichteniveau ändert sich, wie in Fig. 5 veranschaulicht, in Querrichtung).
- Die bezeichnete Linie B-B wird vom Bildprozessor 3 angenommen und Bilddaten des Abschnitts längs der bezeichneten Linie B-B werden aus den Bilddaten, die im Bildspeicher gespeichert worden sind, herausgezogen (Schritt 104). Die durch die herausgezogenen Bilddaten dargestellte Dichteniveauverteilung ist in Fig. 5 veranschaulicht. Wenn die Menge an herausgezogenen Bilddaten ein Pixel in der Vertikalrichtung ist, ist dies ausreichend. Es kommt nicht darauf an, ob diese Daten die den Hintergrund BG darstellenden Bilddaten enthalten.
- Indem man Bilddaten, die vollständig identisch mit den so herausgezogenen, die Dichteverteilung darstellenden Bilddaten sind, kontinuierlich längs der vertikalen Richtung (der Längsrichtung) anordnet, werden die Schattierungsmusterdaten erzeugt. Diese Schattierungsmusterdaten werden im Bildspeicher gespeichert (Schritt 105). Das Schattierungsmuster wird durch Ausdehnen der Dichteniveauverteilung, so wie sie längs der Linie B-B vorliegt, in der vertikalen Richtung gewonnen. Das Schattierungsmuster erstellt also eine zweidimensionale Verteilung von Helligkeit auf der Oberfläche (unter Ausschluß der Bilder PT des Erkennungsmusters) des Objekts ob dar. Ein Beispiel dieses Schattierungsmusters ist in Fig. 6 veranschaulicht. Da die Helligkeitsverteilung auf der Oberfläche des Objekts ob als im wesentlichen gleichförmig in Längsrichtung des Objekts ob, mit Ausnahme des Abschnitts, der das Erkennungsmuster pt aufweist, betrachtet werden kann, kann das Schattierungsmuster durch eine einfache Verarbeitung dieser Art erzeugt werden.
- Eine Schattierungskorrektur wird durchgeführt, indem die Schattierungsmusterdaten von den als Ergebnis der Abbildung des Objekts ob erhaltenen Bilddaten subtrahiert werden (Schritt 106). Die mit dieser Schattierungskorrekturverarbeitung gewonnenen Bilddaten werden auch im Bildspeicher gespeichert und auf der Anzeigeeinheit 4 angezeigt (Schritt 107).
- Die durch die Schattierungskorrekturverarbeitung gewonnenen Bilddaten stellen allein das Erkennungsmuster pt dar. Solche Bilddaten werden zum Abschluß unter Verwendung eines geeigneten Schwellenwerts binarisiert. Von diesen binari sierten Bilddaten sind in Fig. 7 die Bilddaten längs Linie A-A der Fig. 3 gezeigt. Abschnitte, die das Erkennungsmuster pt darstellen, werden durch den Wert 0 und andere Abschnitte durch den Wert 1 ausgedrückt. Durch diese Schattierungskorrekturverarbeitung erscheint nur das auf dem Objekt ob dargestellte Erkennungsmuster pt in den Bilddaten und der Einfluß der Schatten sh ist beseitigt.
- Es wird nun eine zweite Ausführungsform der Erfindung beschrieben. Der in Fig. 1 gezeigte Aufbau des Bildverarbeitungssystem wird so, wie er ist, auch auf die zweite Ausführungsform angewandt.
- Bei der oben dargelegten ersten Ausführungsform wurde die Linie B-B an einer Stelle auf dem Bild des Objekts ob angeordnet, die vom Erkennungsmuster pt frei ist. Die zweite Ausführungsform ist insbesondere in einem Fall von Nutzen, wo die Linie zur Erzeugung des Schattierungsmusters nicht an einer Stelle angeordnet werden kann, wo kein Erkennungsmuster vorhanden ist.
- Fig. 9 veranschaulicht ein weiteres Bildbeispiel, das durch Abbilden des zylindrischen Objekts unter Verwendung der Bildaufnahmevorrichtung 2 gewonnen ist. Hier erscheinen die Bilder PT des Erkennungsmusters über die gesamte vertikale Richtung des Bildes hinweg. Unabhängig davon, wie eine Linie in der Querrichtung bezeichnet wird, durchschneidet die Linie stets die Bilder PT des Erkennungsmusters.
- Sei die horizontale Richtung des Bildes die X-Achse und sei die vertikale Richtung die Y-Achse.
- Fig. 10 veranschaulicht eine Dichteniveauverteilung längs einer längs der X-Achse des in Fig. 9 gezeigten Bildes gezogenen Linie C-C. Auch bei dieser Dichteniveauverteilung erscheint eine X-Achsenhelligkeitsverteilung auf der Oberfläche des Objekts ob. Der Mittelabschnitt ist am hellsten und das Bild wird mit Annäherung an beide Seiten dunkler. Die Schatten sh haben also einen Einfluß. Bei dieser Aus führungsform ist der Hintergrund dunkel und das Dichteniveau des Hintergrundbilds BG niedrig.
- Fig. 14 veranschaulicht das Arbeiten des Bildverarbeitungssystems und hauptsächlich einen Vorgang zur Schattierungskorrekturverarbeitung, der von der CPU des Bildprozessors 3 ausgeführt wird.
- Die Bilddaten, die das mit der Bildaufnahmevorrichtung 2 abgebildete Objekt ob darstellen, werden vom Bildprozessor 3 angenommen und in dem Bildspeicher gespeichert (Schritt 111). Das in Fig. 9 gezeigte, durch diese Bilddaten dargestellte Bild wird auf der Anzeigeeinheit 4 angezeigt (Schritt 112).
- Da eine Linie B-B, die die Bilder PT des Erkennungsmusters nicht durchschneidet, anders als bei der ersten Ausführungsform nicht bezeichnet werden kann, bezeichnet der Bediener, statt eine Linie zu bezeichnen, repräsentative Punkte Q (beliebige Punkte sind annehmbar) auf vertikalen Linien (ausgenommen an Abschnitten, die die Bilder PT des Erkennungsmusters aufweisen), von denen angenommen wird, daß sie eine gleichförmige Helligkeit längs der Y-Achse des angezeigten Bilds haben, und gibt diese Punkte an der Eingabeeinheit 5 ein (Schritt 113). Es ist wünschenswert, daß der Bediener so viele vertikale Linien, die eine gleichförmige Helligkeit längs der Y-Achse zu haben scheinen, wie möglich findet und daß der Bediener so viele Punkte Q wie möglich bezeichnet und eingibt. Diese Punkte können durch Bewegen eines Cursors auf dem Anzeigebildschirm unter Verwendung der Tastatur oder Maus bezeichnet werden.
- Wenn eine Anzahl repräsentativer Punkte auf einer Anzahl von vertikalen Linien mit gleichförmiger Helligkeit entlang der gesamten vertikalen Länge des Bildes bezeichnet sind, wird die X-Koordinate eines jeden bezeichneten Punktes gelesen, und es werden die Bilddaten eines jeden bezeichneten Punktes aus dem Bildspeicher ausgelesen und diese Ele mente von Bilddaten auf den entsprechenden X-Koordinaten angeordnet, wodurch eine Helligkeitsverteilung längs der X- Achse erzeugt wird (Schritt 114). Fig. 11 veranschaulicht ein Beispiel der so erzeugten Helligkeitsverteilung.
- Die Helligkeitsverteilung wird unter Verwendung einer wohlbekannten Interpolationsmethode, wie etwa der Spline- Interpolationsmethode, interpoliert, wobei die Interpolationspunkte durch kontinuierliche Kurven oder Geraden verbunden werden. Fig. 12 veranschaulicht die Helligkeitsverteilung nach Interpolation.
- Wie oben erwähnt, ist jeder Punkt Q ein Punkt auf einer Linie längs der X-Achse mit einer gleichförmigen Verteilung längs der Y-Achse. Ein Schattierungsmuster wird erzeugt, indem kontinuierlich in der Y-Richtung die Bilddaten, welche die in Fig. 12 gezeigte Helligkeitsverteilung in X-Richtung darstellen, angeordnet werden (Schritt 115). Dieses Schattierungsmuster wird im Bildspeicher gespeichert. Das Schattierungsmuster ist eine zweidimensionale Dichteverteilung, die durch Erweiterung der Verteilung der Fig. 12 so, wie sie ist, in Y-Richtung gewonnen ist.
- Eine Schattierungskorrektur wird ausgeführt, indem die erzeugten Schattierungsmusterdaten von den mit der Bildaufnahmevorrichtung 2 aufgefangenen Bilddaten subtrahiert werden, oder indem diese Bilddaten durch die Schattierungsmusterdaten dividiert werden (Schritt 116). Die mit dieser Schattierungskorrekturverarbeitung gewonnenen Bilddaten werden in dem Bildspeicher gespeichert und auf der Anzeigeeinheit 4 angezeigt (Schritt 117).
- Fig. 13 veranschaulicht die durch die Bilddaten dargestellte Dichteniveauverteilung längs Linie C-C der Fig. 9. Dies sind die Bilddaten, die der Schattierungskorrektur unterworfen worden sind. Durch diese Schattierungsverarbeitung wird der Einfluß der Helligkeitsverteilung, die die Schatten sh auf der Oberfläche des Objekts ob enthalten, beseitigt und die Variation des Dichteniveaus, die die Bilder PT des Erkennungsmusters darstellt, kommt klar zum Ausdruck. Diese Bilddaten werden nach Bedarf unter Verwendung eines Schwellenwerts SH binarisiert.
- Bei den beiden oben beschriebenen Ausführungsformen ist ein Objekt mit Säulenform als das abgebildete Objekt veranschaulicht. Es versteht sich jedoch, daß die Erfindung auch auf ein Objekt mit prismatischer Form (jede Form, deren Querschnitt viereckig, dreieckig oder hexagonal ist) anwendbar ist. In einem Fall ferner, wo die Dicke des Objekts in Längsrichtung unterschiedlich ist, kann die oben beschriebene Schattierungskorrektur auf jeden Abschnitt gleicher Dicke angewandt werden.
- Eine automatische Erkennung von Zeichen oder Figuren wird nun in einem Fall betrachtet, wo eine Anzahl von Objekten und die massiven Formen (beispielsweise Säulenformen) dieser Objekte die gleichen sind, sich aber die Zeichen oder Figuren, die auf den Oberflächen der Objekte beschrieben sind, unterscheiden (obwohl sie auch gleich sein können). Da die massiven Formen der Anzahl von Objekten die gleichen sind, reicht es aus, vorab ein einziges Schattierungsmuster zu erzeugen. Jedesmal, wenn ein anderes Objekt mit der Bildaufnahmevorrichtung abgebildet wird, können die durch das Abbilden gewonnenen Daten einer Schattierungskorrektur unter Verwendung der vorab erzeugten Schattierungsmusterdaten unterworfen werden.
- Wenn die Position des zu erkennenden Objekts innerhalb des Gesichtsfelds der Bildaufnahmevorrichtung sich aus der Position des Objekts, die vorlag, als das Schattierungsmuster erzeugt worden ist, verschoben hat, verschieben sich auch die Positionen der Schattenabschnitte in den Bilddaten des zu erkennenden Objekts und auch die Position des Schattierungsmusters verschiebt sich in den Bilddaten. Dadurch wird eine genaue Schattierungskorrektur nicht mehr ausge führt. Eine solche Situation tritt oftmals auf, wenn die Objekte aufeinanderfolgend vor die Bildaufnahmevorrichtung geführt werden.
- Eine dritte Ausführungsform bezieht sich auf ein Verfahren und eine Vorrichtung, die in der Lage sind, eine genaue Schattierungskorrektur auch dann durchzuführen, wenn sich die Position eines zu erkennenden Objekts im Gesichtsfeld der Bildaufnahmevorrichtung aus der Position verschoben hat, die als Grundlage der Schattierungsmustererzeugung gedient hat.
- Fig. 15 ist ein Blockschaltbild, welches den Aufbau eines Bildverarbeitungssystems veranschaulicht, welches die Schattierungskorrekturvorrichtung gemäß der dritten Ausführungsform enthält.
- Eine Fernsehkamera 11 bildet ein Objekt ab und gibt ein das Objekt darstellendes Videosignal aus. Das Videosignal wird in digitale Bilddaten (Grauwertbilddaten) durch einen A/D-wandler 12 umgewandelt und die sich ergebenden Bilddaten werden auf eine Verarbeitungsschaltung 18 und eine Subtrahierschaltung 22 zur Schattierungskorrektur gegeben. Die von der Subtrahierschaltung 22 ausgegebenen Bilddaten werden durch einen D/A-Wandler 13 in ein Analogsignal umgewandelt, und das Analogsignal wird auf eine Anzeigeeinheit 14 gegeben. Die Anzeigeeinheit 14 zeigt ein Bild des mit der Fernsehkamera 11 abgebildeten Objekts sowie ein erzeugtes Schattierungsmuster oder ein sich aus der Schattierungskorrektur ergebendes Bild an.
- Die Verarbeitungsschaltung 18 erzeugt das Schattierungsmuster, führt eine Randfeststellungsverarbeitung und eine Binarisierungsverarbeitung, etc. durch. Eine Lageversetzungskorrekturschaltung 16 berechnet das Ausmaß der Lageversetzung des Bildes des zu erkennenden Objekts in Bezug auf ein Referenzbild. Eine Synchronisationssignalerzeugungsschaltung 15 gibt verschiedene Zeitsignale auf den A/D-Wand ler 12, D/A-Wandler 13 und die Lageversetzungskorrekturschaltung 16 aus. Eine CPU 19 überwacht den Gesamtvorgang der Bildverarbeitung einschließlich der Schattierungskorrekturverarbeitung. Eine Eingabeeinheit 23 wird vom Bediener dazu verwendet, verschiedene Befehle einzugeben, die Position eines Fensters zu bezeichnen, etc..
- Das Bildverarbeitungssystem besitzt drei Bildspeicher. Diese Bildspeicher sind ein Referenzbildspeicher 20 zur Speicherung eines Referenzbildes, eine Schattierungsstammdatei 17 zur Speicherung von Schattierungsmusterdaten, die erzeugt worden sind, und eine Versetzungskorrekturschattierungsstammdatei 21 zur Speicherung von Schattierungsmusterdaten, die hinsichtlich einer Lageversetzung korrigiert worden sind.
- Der Betrieb des Bildverarbeitungssystems umfaßt grob eine Vorverarbeitung und eine Schattierungskorrekturverarbeitung. Die Vorverarbeitung enthält eine Referenzbildregistrierverarbeitung und eine Schattierungsmusterregistrierverarbeitung. Diese Verarbeitungsvorgänge sind in Fig. 16 veranschaulicht.
- Die Referenzregistrierungsverarbeitung wird als erstes beschrieben.
- Eines eine Anzahl von Objekten mit der gleichen massiven Form wird ausgewählt und mit der Fernsehkamera 11 photographiert. Das Bild dieses Objekts wird auf der Anzeigeeinheit 14 angezeigt. Die Bilddaten gehen durch die Subtrahierschaltung 22 bloß hindurch, ohne der Subtraktions-(Schattierungskorrektur-)Verarbeitung unterworfen zu werden.
- Unter Beobachtung des auf der Anzeigeeinheit 14 angezeigten Bilds stellt der Bediener die Position des Objekts ein. Wenn das Objekt an einer bestimmten Stelle (einer Referenzposition) innerhalb des Gesichtsfelds der Kamera 11 positioniert worden ist, gibt der Bediener einen Befehl an der Eingabeeinheit 23 zur Registrierung des Referenzbilds ein. Dieser Befehl wird auf die CPU 19 gegeben. Letztere spricht auf diesen Befehl mit einer Steuerung der Verarbeitungsschaltung 18 in einer solchen Weise an, daß die das Objekt darstellenden, in die Verarbeitungsschaltung 18 über den A/D-Wandler 12 eingehenden Bilddaten in dem Referenzbildspeicher 20 als Referenzbilddaten gespeichert werden. Infolgedessen werden die das Referenzbild darstellenden Daten registriert (siehe Bezugszeichen 31 in Fig. 16). Die oben erwähnte Referenzposition kann durch den Bediener nach Belieben entschieden werden. Im allgemeinen ist die ausgewählte Position so, daß sich das Objekt in der Mitte des Gesichtsfelds der Kamera 11 befindet, bzw. so, daß eine Seite des Objekts parallel zu einer Seite des quadratischen Gesichtsfelds der Kamera 11 sein wird. Ein Beispiel des registrierten Referenzbildes ist in Fig. 17 veranschaulicht. Bezugszeichen, die mit denjenigen der vorstehenden Ausführungsformen identisch sind, werden für das Objekt, das Erkennungsmuster, Schatten etc. verwendet. Bei dieser Ausführungsform ist das Bild PT des Erkennungsmusters der Buchstabe "A".
- Als nächstes registriert der Bediener ein Schattierungsmuster. Die Verarbeitung zur Erzeugung des Schattierungsmusters wird in genau der gleichen Weise, wie oben für die erste und zweite Ausführungsform ausgeführt, durchgeführt. Wenn die Verarbeitung gemäß der ersten Ausführungsform durchgeführt wird, wird eine Linie B-B, die die Längsrichtung des Objekts senkrecht schneidet, als ein Ort bezeichnet, wo das Bild PT des Erkennungsmusters, wie in Fig. 17 gezeigt, fehlt. Die Bilddatenverteilung längs der Linie B-B wird aus den Referenzbilddaten, die im Referenzbildspeicher 20 gespeichert worden sind, herausgezogen, und die Verteilung wird kontinuierlich im Speicher entlang der Längsrichtung des Objekts angeordnet, wodurch ein Schattierungsmuster der in Fig. 18 gezeigten Art erzeugt wird (siehe Bezugszeichen 32 in Fig. 16). Die das Schattierungsmuster darstellenden erzeugten Bilddaten werden in der Schattierungsmutterdatei 17 gespeichert (siehe Bezugszeichen 33 in Fig. 16).
- Es ist auch ein Verfahren, welches ein Fenster W anstelle der Linie B-B verwendet, verwendbar. Wenn der Bediener an der Eingabeeinheit 23 den Befehl, das Schattierungsmuster zu registrieren, eingibt, reagiert die CPU 19 damit, die Verarbeitungsschaltung 18 so zu steuern, daß die Schaltung 18 das Fenster darstellende Bilddaten erzeugt. Die das Fenster darstellenden Bilddaten werden auf die Anzeigeeinheit 14 über die Subtrahierschaltung 22 und den D/A-Wandler 13 eingegeben, so daß das Fenster W in einer dem Referenzbild überlagerten Form, wie in Fig. 17 gezeigt (die Anzeige der Linie B-B ist unnötig), angezeigt wird. Das Fenster W, welches eine Querlänge hat, die ausreichend groß ist, die Abschnitte der Schatten SH im Bild des Objekts zu enthalten, schneiet die Längsrichtung des Bild des Objekts senkrecht. Unter Verwendung der Eingabeeinheit 23 bewegt der Bediener das Fenster W und ordnet es an einer Stelle an, wo das Erkennungsmuster PT nicht vorhanden ist. Von den Referenzbilddaten, die im Referenzbildspeicher 20 gespeichert worden sind, werden die Bilddaten innerhalb der durch das Fenster W definierten Grenzen ausgelesen und diese Daten in der Schattierungsstammdatei 17 gespeichert. Die Bilddaten innerhalb der Grenzen des Fensters B werden in der Schattierungsstammdatei 17 in Längsrichtung des Objekts in aufeinanderfolgenden Breiten, die der Breite des Fensters W entsprechen, angeordnet. Es werden daher Daten, die das in Fig. 18 gezeigte Schattierungsmuster darstellen, erzeugt und registriert.
- Die oben beschriebenen zwei Verarbeitungsvorgänge zur Erzeugung des Schattierungsmusters unterscheiden sich nur darin, ob die Linie B-B oder das Fenster W verwendet wird.
- Als nächstes erfolgt ein Übergang zur Schattierungskorrekturverarbeitung.
- Das zu erkennende Objekt wird innerhalb des Bereichs des Gesichtsfelds der Kamera 11 angeordnet. Es kommt nicht darauf an, ob die Position dieses Objekts gegenüber der Position des Objekts, die zur Erzeugung des oben beschriebenen Referenzbildes verwendet wurde, versetzt ist. Das Bild dieses Objekts wird von der Kamera 11 aufgenommen und auf der Anzeigeeinheit 14 angezeigt (siehe Bezugszeichen 35 in Fig. 16). Wenn nötig, werden die durch das Abbilden gewonnenen Bilddaten im Bildspeicher gespeichert. Es wird angenommen, daß das gleiche Erkennungsmuster ("A") auch auf der Oberfläche dieses Objekts dargestellt ist.
- Eine Randfeststellungsverarbeitung (einschließlich einer Binarisierungsverarbeitung) betreffend das im Referenzbildspeicher 20 gespeicherte Referenzbild und das Bild des zu erkennenden Objekts (nachfolgend als "Zielbild" bezeichnet), wobei dieses Bild durch die Kamera 11 aufgenommen worden ist, wird von der Verarbeitungsschaltung 18 (siehe Bezugszeichen 36 in Fig. 16) durchgeführt und es werden binarisierte Randbilder (differenzierte Bilder) gewonnen (siehe Bezugszeichen 37, 38 in Fig. 16).
- Die Randfeststellungsverarbeitung wird unter Verwendung des Operators eines Sobel, beispielsweise, durchgeführt. Wie in Fig. 19 gezeigt, wird angenommen, daß ein Pixel P&sub0; in der Mitte liegt, daß Pixel P&sub1;, P&sub2; und P&sub3; links oberhalb, direkt oberhalb bzw. rechts oberhalb des Mittelpixels liegen, daß Pixel P&sub4;, PS links bzw. rechts bezüglich des Mittelpixels liegen und daß Pixel P&sub6;, P&sub7; und PS links unterhalb, direkt unterhalb bzw. rechts unterhalb des Mittelpixels liegen. Die folgende Operation wird in Bezug auf das Mittelpixel P&sub0; zur Gewinnung eines Sobel-Werts durchgeführt:
- Sobel-Wert (P&sub0;)
- = (P&sub1; + 2P&sub2; + P&sub3;) - (P&sub6; + 2P&sub7; + P&sub8;)
- + (P&sub1; + 2P&sub4; + P&sub6;) - (P&sub3; + 2P&sub5; + P&sub8;) (1)
- Die Operation der Gleichung (1) wird in Bezug auf alle Pixel des Bilds des Objekts durchgeführt. Die in Bezug auf alle Pixel gewonnenen Sobel-Werte werden unter Verwendung eines geeigneten Schwellenwerts binarisiert. Infolgedessen werden Randbilder gewonnen, die durch Ein-Bit-Daten pro Pixel dargestellt werden, wobei Daten eines einen Rand darstellenden Pixels 1 sind, während Daten anderer Pixel 0 sind. Diese Randbilder werden im Bildspeicher der Verarbeitungsschaltung 18 gespeichert.
- Als nächstes wird das Ausmaß der Lageversetzung des Zielbilds in Bezug auf das Referenzbild in der Lageversetzungskorrekturschaltung 16 unter Verwendung der betreffenden Randbilder des gewonnenen Referenzbildes und Zielbildes berechnet (siehe Bezugszeichen 39 in Fig. 16).
- Das Ausmaß der Randversetzung wird durch Bewegungsausmaße längs der X- und Y-Achse sowie ein Drehungsausmaß dargestellt. Die X- und Y-Achse können willkürlich bestimmt werden, es reicht aber, Achsen parallel zu den beiden senkrechten Seiten des quadratischen Gesichtsfelds der Kamera 11 zu verwenden.
- Die Bewegungsausmaße in der X- und Y-Richtung werden durch Abstände in der X- und der Y-Richtung zwischen einem Referenzpunkt im Referenzbild und einem Referenzpunkt im Zielbild dargestellt. In einem Fall, wo das Bild PT des Erkennungsmusters das gleiche im Referenzbild und im Zielbild ist, können Referenzpunkte auf den Bildern PT dieser Erkennungsmuster eingestellt werden. Beispielsweise können diese Referenzpunkte Positionen der Schwerpunkte der Musterbilder PT (der Buchstaben "A") sein.
- Die Lagen der Schwerpunkte, die als Referenzpunkte dienen, können durch Einstellen von Fenstern W&sub1; und W&sub2;, die Buchstaben "A", wie in den Fig. 20 und 21 gezeigt, umgeben, durch Herausziehen der Buchstaben "A" innerhalb dieser Fenster und Berechnen von deren Schwerpunkten gewonnen werden. Sollen X&sub1;, Y&sub1; das Koordinatensystem des Referenzbildes darstellen und sollen X&sub2;, Y&sub2; das Koordinatensystem des Zielbilds darstellen. Soll ein Referenzpunkt (Position des Schwerpunkts) P1W des Referenzbilds im Koordinatensystem X&sub1;, Y&sub1; ausgedrückt und mit (x1r, Y1r) bezeichnet sein, und soll ein Referenzpunkt (Position des Schwerpunkts) P2W des Zielbilds im Koordinatensystem X&sub2;, Y&sub2; ausgedrückt und mit (x2r, Y2r) bezeichnet sein.
- In einem Fall, wo die Bilder PT der Erkennungsmuster im Referenzbild und im Zielbild verschieden sind, reicht es aus, irgendwelche andere Punkte in den Bildern als Referenzpunkte (beispielsweise die Position des Mittelpunkts oder die Position einer dem Objekt hinzugefügten speziellen Marke) vorzusehen.
- Das Drehausmaß kann als Neigungswinkel einer im Randbild des Zielbilds erscheinenden Geraden in Bezug auf die entsprechende im Bild des Referenzbilds erscheinende Gerade gewonnen werden. Beispielsweise können die die Grenzen der Schatten darstellenden Geraden als diese Geraden genommen werden.
- Wie in Fig. 22 gezeigt, werden Fenster Wa, Wb an irgendwelchen zwei Positionen über den Rand eines Schattens im Randbild des Referenzbilds hinweg eingestellt, und die Schwerpunkte a (xa, ya), b (xb, yb) der Bilddaten innerhalb der Fenster Wa, Wb gewonnen. Da die Bilddaten von solcher Art sind, daß der Rand durch 1 und andere Positionen durch 0 dargestellt werden, befinden sich die Schwerpunkte a, b stets am Rand des Schattens.
- Ähnlich werden, wie in Fig. 23 gezeigt, Fenster Wc, Wd auf irgendwelche zwei Positionen so eingestellt, daß sie den Rand des Schattens des Zielbilds enthalten, und die Schwerpunkte c (xc, yc), d (xd, yd) der Bilddaten innerhalb der Fenster Wc, Wd gewonnen. Diese Schwerpunkte c, d sind auch stets auf dem Rand des Schattens.
- Der Neigungswinkel der Geraden c, d in Bezug auf die Gerade a, b (der Drehwinkel des Randbilds des Zielbilds in Bezug auf das Randbild des Referenzbilds) wird durch die folgende Gleichung ausgedrückt:
- θ = cos&supmin;¹[{(xa-xb)(xc-xd) + (Ya-Yb)
- (yc-yd)}/[{(xa-xb)² + (yb-yb)²)}1/2
- {(xc-xd)² + (yc-yd)²}1/2]] ... (2)
- Wenn das Ausmaß der Lageversetzung so gewonnen ist, liest die Lageversetzungskorrekturschaltung 16 Schattierungsmusterdaten, die in der Schattierungsstammdatei 16 gespeichert worden sind, unter Verwendung einer Adresse aus, die abhängig vom gewonnenen Ausmaß der Lageversetzung gewonnen ist, und schreibt diese Schattierungsmusterdaten in die Versetzungskorrekturschattierungs-Stammdatei 21 (siehe Bezugszeichen 34 in Fig. 16). Als Folge dieser Verarbeitung werden Schattierungsmusterdaten, die für eine Schattierungskorrektur des Zielbildes, das die Lageversetzung in Bezug auf das Referenzbild hat, geeignet sind, in der Versetzungskorrekturschattierungs-Stammdatei 21 gespeichert (siehe Bezugszeichen 40 in Fig. 16).
- Eine Adressenumwandlung der beiden Dateien 21 und 17 wird, wie nachfolgend ausgeführt, durchgeführt. Dies ist von der Anmelderin in der japanischen Patentanmeldung 2-157186 vorgeschlagen worden.
- Ein Punkt (x&sub1;, y&sub1;) im Koordinatensystem X&sub1;, Y&sub1; des Referenzbildes und der entsprechende Punkt (x&sub2;, y&sub2;) im Koordinatensystem X&sub2;, Y&sub2; des Zielbilds sind unter Verwendung der oben erwähnten Koordinaten (x1r, y1r), (x2r, y2r) der Referenzpunkte und des Drehwinkels 8 durch die folgende Gleichung miteinander verknüpft.
- Auflösen der Gleichung (3) nach x&sub1;, y&sub1; ergibt die folgenden Gleichungen.
- x&sub1; = cosθ·x&sub2; + sinθ·y&sub2; + α (4)
- y&sub1; = sinθ·x&sub2; + cosθ·y&sub2; + β (5)α
- = x1r - cosθ·x2r - sinθ·y2r (6)
- β = y1r + sinθ·x2r - cosθ·y2r (7)
- Die Adresse der Versetzungskorrekturschattierungs- Stammdatei 21 entspricht den Koordinaten (x&sub2;, y&sub2;), und die Adresse der Schattierungsstammdatei 17 entspricht den Koordinaten (x&sub1;, y&sub1;). Daher kann die Schreibadresse der Versetzungskorrekturschattierungs-Stammdatei 21 auf die Leseadresse der Schattierungs-Stammdatei 16 durch die Gleichungen (4) bis (7) umgewandelt werden.
- Die Schattierungsmusterdaten, die in Bezug auf die Lageversetzung korrigiert worden sind, werden von den Bilddaten des Zielbilds durch die Subtrahierschaltung 22 subtrahiert (siehe Bezugszeichen 41 in Fig. 16), und das Bild, das der Schattierungskorrektur unterworfen worden ist (siehe Bezugszeichen 42 in Fig. 16), wird auf der Anzeigeeinheit 14 angezeigt.
- In vorstehender Beschreibung wird die Lageversetzung des Schattierungsmusters korrigiert. Es versteht sich jedoch, daß eine Anordnung vorgesehen werden kann, bei welcher die Lageversetzung des Zielbilds korrigiert wird.
- Ferner können die Funktionen der Verarbeitungsschaltung 18, der Lageversetzungskorrekturschaltung 16 und der Subtrahierschaltung 22 der Fig. 15 durch Software verwirklicht sein.
- Bei den oben beschriebenen drei Ausführungsformen werden Grauwertbilddaten einer Verarbeitung unterworfen. Die Erfindung ist jedoch auch auf ein Farbbild anwendbar. Da die Farbbilddaten in Bilddaten R (Rot), B (Blau) und G (Grün) oder Bilddaten Y, R-y und B-Y, bei welchen Y als Luminanzdaten dient, getrennt werden können, ist es ausreichend, die oben beschriebene Erzeugung von Schattierungsmustern und die Schattierungskorrektur für jedes dieser Elemente von Bilddaten durchzuführen.
- Das Verfahren und die Vorrichtung zur Schattierungskorrektur gemäß der Erfindung ist von Nutzen bei der richtigen Beurteilung von Zeichen, Figuren und dergleichen in einem System, das Objekte abbildet und auf den Objekten dargestellte Zeichen, Figuren und dergleichen erkennt.
Claims (4)
1. Schattierungskorrekturverfahren, bei welchem ein
säulenförmiges Objekt (ob) unter Verwendung einer
Bildaufnahmevorrichtung (2) zur Gewinnung von das Objekt
darstellenden Bilddaten abgebildet und eine Schattierungskorrektur
der das Objekt darstellenden Bilddaten unter Verwendung von
Schattierungsmusterdaten durchgeführt wird, dadurch
gekennzeichnet, daß das Verfahren folgende Schritte aufweist:
Anzeigen (Schritt 102) des durch die Bilddaten
dargestellten Objektbildes (OB) auf einer Anzeigeeinheit (4);
Bezeichnen (Schritt 103), auf dem mit der
Anzeigeeinheit angezeigten Objektbild, eines Abtastortes (B-B) in
linearer Form über die gesamte Breite des Objekts in einer
Richtung senkrecht zur Längsrichtung des Objekts, wobei der
Abtastort ein solcher ist, wo keine Bilder (PT), Defekte
oder andere verrauschte Bilder vorhanden sind und wo ein
Dichtewert als entlang der Längsrichtung auf dem Abtastort
gleichförmig beurteilt wird;
Herausziehen (Schritt 104) der Bilddaten entlang des
bezeichneten Abtastorts zur Bildung einer
Referenzdichtewertverteilung;
Ausdehnen (Schritt 105) der gebildeten
Referenzdichtewertverteilung in der Längsrichtung zur Bildung von
Schattierungsmusterdaten, welche die Helligkeitsverteilung auf
der Oberfläche des Objekts in zwei Dimensionen darstellt;
und
Durchführen (Schritt 106) der Schattierungskorrektur
der das Objekt darstellenden Bilddaten unter Verwendung der
ausgebildeten Schattierungsmusterdaten.
2. Schattierungskorrekturverfahren nach Anspruch 1,
dadurch gekennzeichnet, daß der Abtastort durch die Lage
einer auf dem angezeigten Objektbild gezogenen Linie
bezeichnet wird.
3. Schattierungskorrekturverfahren nach Anspruch 1,
dadurch gekennzeichnet, daß der Abtastort durch ein auf dem
Objektbild angezeigtes schlankes Fenster bezeichnet wird.
4. Schattierungskorrekturverfahren, bei welchem ein
säulenförmiges Objekt (ob) unter Verwendung einer
Bildaufnahmevorrichtung (2) zur Gewinnung von das Objekt
darstellenden Bilddaten abgebildet und eine Schattierungskorrektur
der das Objekt darstellenden Bilddaten unter Verwendung von
Schattierungsmusterdaten durchgeführt wird, dadurch
gekennzeichnet, daß das Verfahren folgende Schritte aufweist:
Anzeigen (Schritt 112) des durch die Bilddaten
dargestellten Objektbilds (OB) auf einer Anzeigeeinheit (4);
Bezeichnen (Schritt 103) einer Anzahl von
repräsentativen Punkten (Q) auf dem mit der Anzeigeeinheit angezeigten
Objektbild, wobei die bezeichnete Anzahl von Punkten Punkte
auf Linien sind, auf welchen die Dichte als gleichförmig
über die gesamte Länge des Objektbilds hinweg betrachtet
wird, wobei die Punkte an Abschnitten ohne Bilder (PT),
Defekte oder andere verrauschte Bilder liegen und wobei die
Punkte so ausgewählt werden, daß eine
Referenzdichtewertverteilung über die gesamte Breite des Objektbildes gewonnen
wird;
Herausziehen (Schritt 114) der Bilddaten an den
bezeichneten repräsentativen Punkten und Erzeugen der
Referenzdichtewertverteilung durch Anordnen der herausgezogenen
Bilddaten der bezeichneten repräsentativen Punkte gemäß
einer Koordinatenachse, die eine Längsrichtung des Objekts
senkrecht schneidet;
Ausdehnen (Schritt 115) der erzeugten
Referenzdichtewertverteilung in der Längsrichtung zur Bildung von
Schattierungsmusterdaten, welche die Helligkeitsverteilung auf
der Oberfläche des Objekts in zwei Dimensionen darstellen;
und
Durchführen (Schritt 116) der Schattierungskorrektur
der das Objekt darstellenden Bilddaten unter Verwendung der
gebildeten Schattierungsmusterdaten.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2407404A JP2893078B2 (ja) | 1990-12-06 | 1990-12-06 | シェーディング補正方法およびその装置 |
PCT/JP1991/001664 WO1992010810A1 (fr) | 1990-12-06 | 1991-11-29 | Procede de correction de tache et dispositif a cet effet |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69129908D1 DE69129908D1 (de) | 1998-09-03 |
DE69129908T2 true DE69129908T2 (de) | 1999-04-29 |
Family
ID=18516998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69129908T Expired - Fee Related DE69129908T2 (de) | 1990-12-06 | 1991-11-29 | Verfahren zur helligkeitsverbesserung |
Country Status (8)
Country | Link |
---|---|
US (1) | US5621824A (de) |
EP (1) | EP0568697B1 (de) |
JP (1) | JP2893078B2 (de) |
KR (1) | KR970004112B1 (de) |
AU (1) | AU9021391A (de) |
CA (1) | CA2097799A1 (de) |
DE (1) | DE69129908T2 (de) |
WO (1) | WO1992010810A1 (de) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5732147A (en) * | 1995-06-07 | 1998-03-24 | Agri-Tech, Inc. | Defective object inspection and separation system using image analysis and curvature transformation |
GB2310557B (en) * | 1996-02-21 | 2000-05-10 | Rank Taylor Hobson Ltd | Image processing apparatus |
JP3348167B2 (ja) * | 1996-03-26 | 2002-11-20 | シャープ株式会社 | 画像2値化装置 |
US6192163B1 (en) * | 1996-10-29 | 2001-02-20 | Seiko Epson Corporation | Image processing method and image processing apparatus |
JPH10222663A (ja) * | 1997-01-31 | 1998-08-21 | Yamaha Motor Co Ltd | 画像認識システム及び装置 |
US7616198B2 (en) * | 1998-02-20 | 2009-11-10 | Mental Images Gmbh | System and computer-implemented method for modeling the three-dimensional shape of an object by shading of a two-dimensional image of the object |
JPH11242004A (ja) * | 1997-12-26 | 1999-09-07 | Toshiba Corp | 陰極線管の蛍光面検査方法およびその装置 |
JP2001186334A (ja) * | 1999-12-27 | 2001-07-06 | Canon Inc | 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体 |
SG103253A1 (en) | 2000-01-26 | 2004-04-29 | Kent Ridge Digital Labs | Method and apparatus for cancelling lighting variations in object recognition |
DE10025692A1 (de) * | 2000-05-24 | 2001-11-29 | Abb Patent Gmbh | System zur Darstellung einer Lackschichtdickenverteilung |
US7388610B2 (en) | 2002-08-16 | 2008-06-17 | Zoran Corporation | Techniques of modifying image field data by extrapolation |
US7408576B2 (en) * | 2002-08-16 | 2008-08-05 | Zoran Corporation | Techniques for modifying image field data as a function of radius across the image field |
US7391450B2 (en) | 2002-08-16 | 2008-06-24 | Zoran Corporation | Techniques for modifying image field data |
JP4338551B2 (ja) * | 2004-03-04 | 2009-10-07 | 富士フイルム株式会社 | 画像再生方法、画像再生装置及び画像再生プログラム |
JP4476955B2 (ja) * | 2006-03-17 | 2010-06-09 | 富士通マイクロエレクトロニクス株式会社 | シェーディング補正回路とその制御方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5213734A (en) * | 1975-07-23 | 1977-02-02 | Hitachi Ltd | Pattern recognition device |
US4472736A (en) * | 1980-03-11 | 1984-09-18 | Dainippon Ink And Chemicals Incorporated | Lithographic reproduction original classification and color separation tone curve adjustment |
JPS5823964A (ja) * | 1981-08-05 | 1983-02-12 | 住友化学工業株式会社 | ドライクリ−ニング溶剤の乳化を防止あるいは解消する方法 |
JPS58223963A (ja) * | 1982-06-22 | 1983-12-26 | Konishiroku Photo Ind Co Ltd | シエ−デイング補正装置 |
US4747148A (en) * | 1983-04-11 | 1988-05-24 | Kabushiki Kaisha Komatsu Seisakusho | Method of identifying objects |
US4655349A (en) * | 1984-12-27 | 1987-04-07 | Brockway, Inc. | System for automatically inspecting transparent containers for sidewall and dimensional defects |
US4679075A (en) * | 1985-04-29 | 1987-07-07 | Emhart Industries, Inc. | Glassware inspection using optical streak detection |
US4691231A (en) * | 1985-10-01 | 1987-09-01 | Vistech Corporation | Bottle inspection system |
JPS6376566A (ja) * | 1986-09-19 | 1988-04-06 | Casio Comput Co Ltd | 画像デ−タ読取り装置 |
DE3641258A1 (de) * | 1986-12-03 | 1988-06-16 | Sick Optik Elektronik Erwin | Bildaufnahmevorrichtung |
JPH0672770B2 (ja) * | 1988-02-01 | 1994-09-14 | 豊田工機株式会社 | ロボットの物体認識装置 |
FR2642164B1 (fr) * | 1989-01-26 | 1991-04-12 | Saint Gobain Cinematique Contr | Controle d'objets a forte cadence |
JPH02217968A (ja) * | 1989-02-18 | 1990-08-30 | Taiyo Eretsukusu Kk | ラベルの検査装置 |
JPH0736004B2 (ja) * | 1990-09-19 | 1995-04-19 | 肇産業株式会社 | 検査方法及び装置 |
-
1990
- 1990-12-06 JP JP2407404A patent/JP2893078B2/ja not_active Expired - Fee Related
-
1991
- 1991-11-29 DE DE69129908T patent/DE69129908T2/de not_active Expired - Fee Related
- 1991-11-29 WO PCT/JP1991/001664 patent/WO1992010810A1/ja active IP Right Grant
- 1991-11-29 US US08/070,360 patent/US5621824A/en not_active Expired - Fee Related
- 1991-11-29 CA CA002097799A patent/CA2097799A1/en not_active Abandoned
- 1991-11-29 EP EP91920839A patent/EP0568697B1/de not_active Expired - Lifetime
- 1991-11-29 AU AU90213/91A patent/AU9021391A/en not_active Abandoned
- 1991-11-29 KR KR1019930701499A patent/KR970004112B1/ko not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
AU9021391A (en) | 1992-07-08 |
CA2097799A1 (en) | 1992-06-07 |
KR970004112B1 (ko) | 1997-03-25 |
WO1992010810A1 (fr) | 1992-06-25 |
JP2893078B2 (ja) | 1999-05-17 |
EP0568697A1 (de) | 1993-11-10 |
DE69129908D1 (de) | 1998-09-03 |
KR930702725A (ko) | 1993-09-09 |
EP0568697A4 (en) | 1994-05-18 |
JPH04213169A (ja) | 1992-08-04 |
US5621824A (en) | 1997-04-15 |
EP0568697B1 (de) | 1998-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69715076T2 (de) | Vorrichtung zur Erzeugung eines Binärbildes | |
DE69129908T2 (de) | Verfahren zur helligkeitsverbesserung | |
DE19507780B4 (de) | Vorrichtung zur verteilten Bildverarbeitung | |
DE10081029B4 (de) | Bildbearbeitung zur Vorbereitung einer Texturnalyse | |
DE69601880T2 (de) | Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio | |
DE69032834T2 (de) | Verfahren und Apparat für Farbbildsignalbewertung | |
DE3854996T2 (de) | Anlage und Verfahren zur Zellbildverarbeitung | |
DE69826753T2 (de) | Optischer Profilsensor | |
DE69216207T2 (de) | Farbeinstellung zur Glättung der Grenzen zwischen Farbbildern | |
DE29521937U1 (de) | Prüfsystem für bewegtes Material | |
DE3110222A1 (de) | Verfahren zur partielle glaettenden retusche bei der elektronischen farbbildreproduktion | |
DE69618913T2 (de) | Eichung eines interaktiven Bürosystems | |
DE3879015T2 (de) | Verfahren und vorrichtung zur ueberfruefung von lochmaskenplatten. | |
DE102020120887B4 (de) | Verfahren zum erfassen einer einhängeposition eines auflagestegs und flachbettwerkzeugmaschine | |
EP3089106A1 (de) | Verfahren zur reflexionskorrektur von abbildungen und diesbezügliche vorrichtungen | |
DE3524505C2 (de) | ||
EP3289398A1 (de) | Verfahren zum generieren eines reflexionsreduzierten kontrastbildes und diesbezügliche vorrichtungen | |
DE102010025953A1 (de) | Positionsmessvorrichtung und -verfahren | |
DE102018124401A1 (de) | Verfahren zum Aufnehmen eines Bildes mit einem Teilchenmikroskop | |
DE69330813T2 (de) | Bildprozessor und verfahren dafuer | |
EP1578609B1 (de) | Verfahren und vorrichtung zur echzeitkontrolle von druckbildern | |
DE19848243A1 (de) | Biegewinkelerfassungssystem | |
DE69600320T2 (de) | Verfahren zur automatischen Erkennung von auswertbaren Zonen in Bildern von mechanischen Teilen | |
DE4143193A1 (de) | System zur mathematischen erfassung dreidimensionaler oberflaechen | |
DE19700318A1 (de) | Verfahren zur Bestimmung der Geometriedaten von Abtastvorlagen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |