EP0950310A1 - Verfahren zur bestimmung der geometriedaten von abtastvorlagen - Google Patents
Verfahren zur bestimmung der geometriedaten von abtastvorlagenInfo
- Publication number
- EP0950310A1 EP0950310A1 EP97952733A EP97952733A EP0950310A1 EP 0950310 A1 EP0950310 A1 EP 0950310A1 EP 97952733 A EP97952733 A EP 97952733A EP 97952733 A EP97952733 A EP 97952733A EP 0950310 A1 EP0950310 A1 EP 0950310A1
- Authority
- EP
- European Patent Office
- Prior art keywords
- image
- contours
- scanner
- values
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/387—Composing, repositioning or otherwise geometrically modifying originals
- H04N1/3872—Repositioning or masking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Definitions
- the invention relates to the field of electronic reproduction technology and relates to a method for automatically determining the position and angle of rotation of images to be scanned on a scanner tablet or a scanner drum.
- print templates are created for print pages that contain all elements to be printed, such as texts, graphics and images.
- these elements are in
- the data is e.g. generated by scanning the image point by point and line by line in a scanner, dividing each pixel into color components and digitizing the color values of these components.
- Images are usually broken down into the color components red, green and blue (R, G, B) in a scanner.
- R, G, B red, green and blue
- these components are then further transformed into the printing inks cyan, magenta, yellow and black (C, M, Y, K).
- the scanner either generates just one component with gray values or the RGB components initially scanned are later converted into the printing ink black.
- the scanner can be a flatbed device in which the image originals to be scanned are mounted on a scanner tray.
- the image templates can be transparent (slides or color negatives) or reflective (top images).
- the scanner tray is illuminated and the translucent or reflected light from a scan line is broken down into color components by color filters. The light of the color components is then further broken down into discrete pixels, for example using a CCD line, and converted into electrical signals, which are then digitized.
- a drum scanner can also be used, in which the image originals are mounted on a transparent scanner drum.
- the scanner drum is illuminated point by point from the inside or outside, and the translucent or reflected light of the color components is combined in one Light sensors focused and converted into electrical signals.
- the scanner drum rotates while the illumination device and the scanning head are moved along the axis of the scanner drum, so that the surface of the scanner drum is scanned point by point and line by line.
- Some flatbed scanners have a device with which the scanner tray around any predetermined angle can be rotated. This enables the crooked mounting of the image on the scanning surface to be corrected when scanning. If such a rotating device is not available, the scanned image data can later be rotated in a computing process in order to correct the inclined mounting.
- Fig. 8 search for a fitted line using the Hough transform and 9 shows an example of the result of the processing.
- Fig. 1 shows a scanning surface (1) with some mounted image templates (2).
- the picture templates are generally colored or black and white slides, negatives or top pictures. In FIG. 1 they are indicated as binary images with only black and white pixels for reasons of simple duplication.
- the scanning area is the surface of a scanner tablet in a flatbed scanner or the surface of the scanner drum in a drum scanner.
- an overview scan of the scan area (1) is carried out in rough resolution, e.g. with 30 pixels / cm.
- an image signal is calculated from the stored RGB scan data of this scanning, which reproduces the outlines of the mounted image templates as clearly as possible.
- a brightness component can also be obtained by weighted addition of the RGB data.
- a single color component e.g. the green portion of the RGB data to be used as the brightness component.
- a white point Lw and a black point Ls are determined from the values of the brightness component.
- the frequencies of all values in the brightness image are preferably determined and plotted in a cumulative histogram.
- the white point Lw is then defined, for example, as the brightness value at which 5% of all brightness values are reached in the histogram. Accordingly, the brightness value is defined as black point Ls, at which 95% of all brightness values are reached in the histogram.
- these percentage values give white and black points that are representative of the image.
- the white point and the black point Ls shows the cumulative histogram with the white point Lw and the black point Ls. It is not essential for the present invention at which percentage values the white point and the black point are determined in the histogram. Any percentage values close to 0% or 100% can be selected. In principle, the brightness values at 0% and at 100%, i.e. the absolutely brightest and darkest values in the brightness image are selected as white point and black point. However, there is then the possibility that the white point and black point are not representative of the image if the extreme brightness values at 0% and 100% are very rare in the image.
- the histogram results in a very large value at 0%, which reflects the empty areas outside the image originals and is not representative of the white values within the image originals. This influence can be corrected by reducing extremely high values at 0% in the histogram by a certain factor before analyzing the histogram and determining the white and black point.
- the brightness component is subjected to digital edge filtering.
- Filters are preferably used which produce high initial values on approximately horizontal and vertical edges and thereby emphasize such edges.
- Fig. 3 shows an example of a simple filter for horizontal edges (3) and for vertical edges (4).
- the horizontal filter extends over 2 x 5 pixels.
- the circled point P denotes the position of the current pixel.
- the hy values at each position of the filter window are the filter coefficients.
- the filtering is carried out by placing the point P of the filter window over each pixel of the brightness image and multiplying and adding the pixel values Ly lying under the respective window positions by the coefficients hy.
- the result is still normalized to the dynamic range D by it is multiplied by 1 / (k1 x D), where k1 is a constant.
- the filter value F h of each pixel is therefore:
- the filter values F h and F v of the horizontal and vertical edge filtering are then combined according to the invention into a resulting filter value F.
- the amounts of F and F v are preferably compared for each pixel, and the respectively larger value is taken as the resulting filter value F. Then he surrenders
- Vz max is the sign of the selected maximum value.
- the shape and coefficients of the edge filters shown in FIG. 3 are not essential for the present invention. Filter windows with more or less than 2 x 5 pixels and with other coefficients can also be used. It is only important that the filtering mainly highlights horizontal and vertical edges. Summary functions other than those according to equation (4) can also be used, for example the sum of the absolute values
- the filtered brightness image F is converted into a binary image B with only two values 0 and 1 by the filter values F are compared with threshold values.
- an upper threshold value S1 and a lower threshold value S2 are formed as
- filter values F which are above S1 or below S2, are converted into binary value 1 and filter values, which lie between S1 and S2, into binary value 0.
- the threshold value decision illustrates the threshold value decision and the generation of the binary image B for a section of a filtered image F.
- the goal of the threshold value decision is to only reproduce in the binary image the highest filter values representing the horizontal and vertical edges, and the rest Suppress filter values.
- FIG. 5 shows the binary image generated for the example from FIG. 1, the binary values 0 being shown as white pixels and the binary values 1 as black pixels. It is not essential for the present invention that the threshold decision is carried out exactly according to equations (5) and (6). It is only important that the threshold values are selected so that the binary image B predominantly only reproduces the filter values F which correspond to the horizontal and vertical edges in the brightness image L. Neither do two threshold values S1 and S2 need to be selected. A threshold value is sufficient with which e.g. the amount of the filter values F is compared.
- the contours are analyzed in binary image B.
- a first contour point is searched line by line and pixel by pixel, ie a pixel with the binary value 1. From this starting point, a contour becomes pixel by pixel followed until the starting point is reached again.
- Various known methods can be used for contour tracking.
- FIG. 6 shows an example of a mask over 3 x 3 pixels for a preferred method of contour tracking.
- the central point P is set at the starting point of the contour, and the eight neighboring pixels are examined clockwise in order to determine whether they have the binary value 1.
- the examination mask is shifted there and the examination of the eight neighboring pixels starts again. This continues until the starting point is reached again.
- the order in which the neighboring pixels are examined is shown in FIG. 6 by the entered numbers 1... 8.
- various criteria are used to check whether the contour found is the outline of an image template or something else, e.g. a scratch or dirt residue from an adhesive tape.
- a preferred criterion is that the contour must have a minimum length, e.g. 150 mm to be interpreted as the outline of an image.
- the area enclosed by the contour must have a minimum width and height, e.g. 20 mm.
- a contour that is not an image template outline according to these criteria is deleted in the binary image B.
- the inside of a found image outline is also deleted, since the image contours contained therein are for further investigation. are relevant. Then a new starting point is sought and the next contour is analyzed until all contours in the binary image have been processed.
- FIG. 7 shows the result of the contour analysis for the example from FIG. 1. In comparison to the binary image B in FIG. 5, only the contours remain which are the outlines of image templates.
- FIG. 8 shows the next processing step of the invention, in which an optimally adapted straight line is determined for each of the four pages of an image template outline found.
- a method is used according to the invention which is known in image processing technology as the Hough transformation (H. Bässmann, P.W. Besslich: Schmish Ad Oculos, pp. 101-121, Springer Verlag 1993).
- the circumscribing rectangle (5) of the outline with the corner points A, B, C, D is formed, the sides of which are parallel to the main or secondary scanning direction.
- the straight line on which most of the outline points lie is selected as the optimally adapted straight line for this outline side.
- Figure 8 shows the search area for the left side of the outline.
- a point G is defined at a distance s from point A along a horizontal line.
- ⁇ lines (6) are laid at different angles.
- For each of the lines it is checked how many points of the outline lie on this line. This number is entered in an ⁇ , s matrix (7) under the column and line defined by ⁇ and s.
- Each cell in the matrix corresponds to one of the straight lines tested.
- s and ⁇ a large number of straight lines are examined in this way. In this case, since an approximately vertical straight line is sought, the parameter can be restricted to a strip and ⁇ to a small angular range in order to reduce the processing time required.
- the associated values of s and ⁇ define a straight line that most accurately represents the corresponding side of the image outline.
- the search and determination of the optimally adapted straight line for the remaining three sides of the image outline takes place in the same way as was described for FIG. 8.
- the strategy for the search for the optimally adapted straight line using the Hough transformation can of course be varied in many ways.
- the point G through which the search lines lead does not have to lie at the upper edge of the circumscribing rectangle (5), as shown in FIG. 8. He can e.g. also lie at the bottom or halfway up the rectangle (5). It is only important that in a defined search area around the side of the image template outline to be adjusted, all straight lines that are possible with regard to position and angle are systematically examined according to the principle of the Hough transformation.
- the search strategy can also be optimized in terms of processing time, e.g. if the parameters s and ⁇ are first varied in rough steps and then around the maximum of the Hough transforms the investigation is continued with finer steps.
- a scanning rectangle is formed from the fitted straight lines. This can be done in a variety of ways.
- a preferred method is: a) Averaging the angles of all four straight lines (with 90 ° being added or subtracted for two straight lines). The angles are the value of Hough transformation weighted, since the more contour points were found for the corresponding straight line, the more "safe" an angle. b) Check whether an angle deviates from the mean by more than a certain amount. If so, the mean is formed from the remaining three straight lines. c) Determination of the scanning rectangle with the four straight lines using the mean angle (modified for two straight lines by 90 °).
- FIG. 9 shows the result of the processing described for the example from FIG. 1. Since right angles of the scanning rectangle were forced in the last processing step, the sides of the scanning rectangle do not always exactly match the sides of the image templates.
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Es wird ein Verfahren zur automatischen Bestimmung der Geometriedaten, wie Position, Abmessungen und Winkellage, von Bildvorlagen beschrieben, die auf das Scannertablett bzw. die Scannertrommel eines Scanners montiert sind. Dazu wird aus den Scandaten der abgetasteten Scanfläche ein Helligkeitsbild gewonnen und analysiert. Mit einer digitalen Kantenfilterung werden vorwiegend horizontale und vertikale Kanten hervorgehoben. Aus dem gefilterten Helligkeitsbild wird durch Schwellwertentscheidung ein Binärbild gewonnen, in dem die Konturen untersucht werden. Aufgrund der Länge sowie Breite und Höhe der von den Konturen umschlossenen Flächen werden Konturen als Bildvorlagenumrisse erkannt. Mit Hilfe der Hough-Transformation werden für die Bildvorlagenumrisse angepasste Geraden ermittelt, aus denen die Geometriedaten der Bildvorlagen bestimmt werden.
Description
Verfahren zur Bestimmung der Geometriedaten von Abtastvorlagen
Die Erfindung bezieht sich auf das Gebiet der elektronischen Reproduktionstechnik und betrifft ein Verfahren zur automatischen Bestimmung der Lage und des Drehwinkels von abzutastenden Bildvorlagen auf einem Scannertablett bzw. einer Scannertrommel.
In der Reproduktionstechnik werden Druckvorlagen für Druckseiten erzeugt, die alle zu druckenden Elemente wie Texte, Grafiken und Bilder enthalten. Im Fall der elektronischen Herstellung der Druckvorlagen liegen diese Elemente in
Form von digitalen Daten vor. Für ein Bild werden die Daten z.B. erzeugt, indem das Bild in einem Scanner punkt- und zeilenweise abgetastet wird, jeder Bildpunkt in Farbkomponenten zerlegt wird und die Farbwerte dieser Komponenten digitalisiert werden. Üblicherweise werden Bilder in einem Scanner in die Farb- komponenten Rot, Grün und Blau (R, G, B) zerlegt. Für den Vierfarbdruck werden diese Komponenten dann weiter in die Druckfarben Cyan, Magenta, Gelb und Schwarz (C, M, Y, K) transformiert. Für Schwarz-Weiß-Bilder erzeugt der Scanner entweder gleich nur eine Komponente mit Grauwerten oder die zunächst abgetasteten RGB-Komponenten werden später in die Druckfarbe Schwarz umgerechnet.
Der Scanner kann ein Flachbettgerät sein, in dem die abzutastenden Bildvorlagen auf einem Scannertablett montiert werden. Die Bildvorlagen können transparent sein (Diapositive oder Farbnegative) oder reflektierend (Aufsichtsbilder). Das Scannertablett wird beleuchtet, und das durchscheinende bzw. reflektierte Licht einer Scanlinie wird durch Farbfilter in die Farbkomponenten zerlegt. Das Licht der Farbkomponenten wird dann z.B. mittels einer CCD-Zeile weiter in diskrete Bildpunkte zerlegt und in elektrische Signale umgewandelt, die anschließend digitalisiert werden. Alternativ kann auch ein Trommelscanner ver- wendet werden, in dem die Bildvorlagen auf eine transparente Scannertrommel montiert werden. Die Scannertrommel wird je nach Art der Bildvorlagen (transparent oder reflektierend) punktförmig von innen oder außen beleuchtet, und das durchscheinende bzw. reflektierte Licht der Farbkomponenten wird in einem
Lichtsensoren fokussiert und in elektrische Signale umgewandelt. Dabei rotiert die Scannertrommel, während die Beleuchtungseinrichtung und der Abtastkopf entlang der Achse der Scannertrommel bewegt werden, so daß die Oberfläche der Scannertrommel punkt- und zeilenweise abgetastet wird.
Um das Abtasten der Bildvorlagen rationeller durchzuführen, werden mehrere Bildvorlagen auf das Scannertablett bzw. die Scannertrommel montiert, die der Scanner dann automatisch nacheinander abtasten, digitalisieren und speichern soll. Dazu müssen in einem Arbeitsvorbereitungsprozeß die Positionen der Bil- der auf dem Scannertablett bzw. auf der Scannertrommel, ihre Abmessungen und ihre Winkellage erfaßt und eingegeben werden. Damit sind die Ausschnitte der zur Verfügung stehenden Scanfläche definiert, die vom Scanner abgetastet und den einzelnen Bildern zugeordnet werden sollen.
Nach dem Stand der Technik ist das Ausmessen und Eingeben dieser Geometriedaten für jede einzelne Bildvorlage zeitaufwendig. Oft wird dazu eine Übersichtsabtastung der gesamte Scanfläche in grober Auflösung durchgeführt. Die Scandaten der Übersichtsabtastung werden auf einem Monitor dargestellt, und mit einem Cursor können dann manuell auf dem Bildschirm die Eckpunkte der abzutastenden Bildvorlagen markiert werden. Nach einer anderen Methode werden die Bilder auf eine Montagefolie montiert, die auf ein Digitalisiertablett gelegt wird. Dort werden dann die Koordinaten der Bilder erfaßt. Anschließend wird die Montagefolie auf das Scannertablett bzw. die Scannertrommel aufgebracht. Es gibt hierfür auch die Lösung, daß die Einrichtung zur Erfassung der Koordinaten in das Scannertablett integriert ist. In jedem Fall ist die Koordinatenerfassung mit manueller Arbeit und Zeitaufwand verbunden.
Obwohl man sich bemüht, die Bilder so gerade wie möglich auf die Scanfläche zu montieren, ist die Erfassung der Winkellage der Bilder doch sinnvoll. Da die exakte Ausrichtung der Bilder bei der Montage arbeitsaufwendig und zeitraubend ist, kann es wirtschaftlicher sein, die Bilder nur annähernd gerade zu montieren und die genaue Ausrichtung später auszuführen. Manche Flachbettscanner haben eine Vorrichtung, mit der das Scannertablett um einen beliebigen
vorgegebenen Winkel gedreht werden kann. Damit kann die schiefe Montage- des Bildes auf der Scanfläche beim Scannen korrigiert werden. Wenn eine solche Drehvorrichtung nicht vorhanden ist, können die gescannten Bilddaten später in einem Rechenprozeß gedreht werden, um die schiefe Montage zu korri- gieren.
Es ist die Aufgabe der vorliegenden Erfindung, die zuvor beschriebene manuelle Erfassung der Geometriedaten zu vermeiden und ein Verfahren zur automatischen Bestimmung von Position, Abmessungen und Winkellage der abzu- tastenden Bildvorlagen anzugeben. Diese Aufgabe wird durch die Merkmale des Anspruchs 1 und der Unteransprüche 2 bis 13 gelöst.
Die Erfindung wird nachfolgend anhand der Figuren 1 bis 9 näher beschrieben. Es zeigen:
Fig. 1 eine Scanfläche mit montierten Bildvorlagen,
Fig. 2 die Bestimmung von Weißpunkt und Schwarzpunkt im Histogramm,
Fig. 3 Kantenfilter für horizontale und vertikale Kanten,
Fig. 4 die Schwellwertentscheidung zur Erzeugung eines Binärbildes,
Fig. 5 ein Beispiel für das Ergebnis der Kantenfilterung und Binärbilderzeu- gung,
Fig. 6 eine Pixelmaske zur Verfolgung von Konturen,
Fig. 7 ein Beispiel für das Ergebnis der Konturenanalyse,
Fig. 8 die Suche nach einer angepaßten Geraden mittels der Hough- Transformation und
Fig. 9 ein Beispiel für das Ergebnis der Verarbeitung.
Fig. 1 zeigt eine Scanfläche (1) mit einigen montierten Bildvorlagen (2). Die Bildvorlagen sind im allgemeinen farbige oder schwarz-weiße Diapositive, Negative oder Aufsichtsbilder. In der Fig. 1 sind sie aus Gründen der einfachen Vervielfältigung als Binärbilder mit nur schwarzen und weißen Bildpunkten angedeutet. Die Scanfläche ist die Oberfläche eines Scannertabletts in einem Flachbettscanner oder die Oberfläche der Scannertrommel in einem Trommel- Scanner.
In einem ersten Verarbeitungsschritt wird eine Übersichtsabtastung der Scanfläche (1) in grober Auflösung durchgeführt, z.B. mit 30 Pixel/cm. Aus den gespeicherten RGB-Scandaten dieser Abtastung wird erfindungsgemäß ein Bildsi- gnal errechnet, das möglichst deutlich die Umrisse der montierten Bildvorlagen wiedergibt. Vorzugsweise ist das eine Helligkeitskomponente, z.B. die L- Komponente, die bei der Transformation der RGB-Daten in LAB-Daten des CIELAB-Farbraums gewonnen wird (CIE = Commission Internationale d'Eclai- rage). Eine Helligkeitskomponente kann aber auch durch eine gewichtete Addi- tion der RGB-Daten gewonnen werden. Ersatzweise kann auch eine einzelne Farbkomponente, z.B. der grüne Anteil der RGB-Daten, als Helligkeitskomponente verwendet werden.
Im zweiten Verarbeitungsschritt der Erfindung wird ein Weißpunkt Lw und ein Schwarzpunkt Ls aus den Werten der Helligkeitskomponente bestimmt. Vorzugsweise werden dazu die Häufigkeiten aller Werte im Helligkeitsbild ermittelt und in einem kumulativen Histogramm aufgetragen. Als Weißpunkt Lw wird dann z.B. der Helligkeitswert definiert, bei dem im Histogramm 5% aller Helligkeitswerte erreicht sind. Als Schwarzpunkt Ls wird entsprechend dazu der Hel- ligkeitswert definiert, bei dem im Histogramm 95% aller Helligkeitswerte erreicht sind. Bei diesen Prozentwerten erhält man erfahrungsgemäß Weiß- und Schwarzpunkte, die für das Bild repräsentativ sind. Aus der Differenz zwischen Schwarzpunkt und Weißpunkt ergibt sich der Dynamikumfang D des Helligkeitsbildes zu:
D = Ls - Lw (1)
Fig. 2 zeigt das kumulative Histogramm mit dem Weißpunkt Lw und dem Schwarzpunkt Ls. Für die vorliegende Erfindung ist nicht wesentlich, bei welchen Prozentwerten im Histogramm der Weißpunkt und der Schwarzpunkt festgelegt werden. Es können beliebige Prozentwerte in der Nähe von 0% bzw. 100% gewählt werden. Grundsätzlich können auch die Helligkeitswerte bei 0% und bei 100%, d.h. die absolut hellsten und dunkelsten Werte im Helligkeitsbild als Weißpunkt und Schwarzpunkt gewählt werden. Dann besteht jedoch die Möglichkeit, daß der Weißpunkt und Schwarzpunkt nicht für das Bild repräsentativ sind, wenn die extremen Helligkeitswerte bei 0% und 100% nur sehr selten im Bild vorkommen.
Wenn die Bildvorlagen relativ klein im Vergleich zur gesamten Scanfläche sind, ergibt sich im Histogramm ein sehr großer Wert bei 0%, der die leeren Flächen außerhalb der Bildvorlagen widerspiegelt und nicht für die Weißwerte innerhalb der Bildvorlagen repräsentativ ist. Dieser Einfluß kann korrigiert werden, indem extrem hohe Werte bei 0% im Histogramm um einen bestimmten Faktor redu- ziert werden, bevor das Histogramm analysiert wird und der Weiß- und Schwarzpunkt festgelegt werden.
Im nächsten Verarbeitungsschritt der Erfindung wird die Helligkeitskomponente einer digitalen Kantenfilterung unterworfen. Vorzugsweise werden Filter ver- wendet, die an näherungsweise horizontalen und vertikalen Kanten hohe Ausgangswerte erzeugen und dadurch solche Kanten hervorheben.
Fig. 3 zeigt als Beispiel jeweils ein einfaches Filter für horizontale Kanten (3) und für vertikale Kanten (4). Das horizontale Filter erstreckt sich über 2 x 5 Pi- xel. Der eingekreiste Punkt P bezeichnet die Position des aktuellen Pixels. Die Werte hy an jeder Position des Filterfensters sind die Filterkoeffizienten. Die Filterung wird durchgeführt, indem der Punkt P des Filterfensters über jedes Pixel des Helligkeitsbildes gelegt wird und die unter den jeweiligen Fensterpositionen liegenden Pixelwerte Ly mit den Koeffizienten hy multipliziert und aufaddiert werden. Das Ergebnis wird noch auf den Dynamikumfang D normalisiert, indem
es mit 1 / (k1 x D) multipliziert wird, wobei k1 eine Konstante ist. Der Filterwert Fh jedes Pixels ergibt sich also zu:
Fh = [ Σ (hy x Ly )] / (k1 x D) (2)
Für das vertikale Filter (4), das eine um 90° gedrehte Version des horizontalen Filters (3) ist, ergibt sich der Filterwert Fv entsprechend zu:
Fv = [ Σ (vij χ Lij )] / (k1 χ D) (3)
Die Filterwerte Fh und Fv der horizontalen und vertikalen Kantenfilterung werden erfindungsgemäß anschließend zu einem resultierenden Filterwert F zusammengefaßt. Vorzugsweise werden dazu für jedes Pixel die Beträge von F und Fv verglichen, und der jeweils größere Wert wird als resultierender Filterwert F genommen. Er ergibt sich dann zu
F = Vzmax x max (|Fh|, |FV|), (4)
wobei Vzmax das Vorzeichen des ausgewählten Maximalwertes ist.
Für die vorliegende Erfindung sind die Form und Koeffizienten der in Fig. 3 gezeigten Kantenfilter nicht wesentlich. Es können auch Filterfenster mit mehr oder weniger als 2 x 5 Pixel und mit anderen Koeffizienten verwendet werden. Wichtig ist nur, daß durch die Filterung vorwiegend horizontale und vertikale Kanten hervorgehoben werden. Ebenso können auch andere zusammenfassende Funktionen als die nach Gleichung (4) verwendet werden, z.B. die Summe der Betragswerte |Fh| und |FV| versehen mit dem Vorzeichen des größeren Wertes.
Im nächsten Verarbeitungsschritt der Erfindung wird das gefilterte Helligkeitsbild F in ein Binärbild B mit nur zwei Werten 0 und 1 umgewandelt, indem die Filter-
werte F mit Schwellwerten verglichen werden. Beispielsweise werden ein oberer Schwellwert S1 und ein unterer Schwellwert S2 gebildet als
S1 = + k2 x D (5) S2 = - k2 x D,
wobei D der Dynamikumfang des Helligkeitsbildes L ist und k2 eine Konstante. Dann werden Filterwerte F, die über S1 oder unter S2 liegen, in den Binärwert 1 umgesetzt und Filterwerte, die zwischen S1 und S2 liegen, in den Binärwert 0.
B = 1 für F < S2 oder F > S1 (6)
B = 0 für S2 < F < S1
Fig. 4 veranschaulicht für einen Ausschnitt aus einer Zeile des gefilterten Bildes F die Schwellwertentscheidung und die Erzeugung des Binärbildes B. Das Ziel der Schwellwertentscheidung ist, im Binärbild nur noch die betragsmäßig höchsten Filterwerte wiederzugeben, die die horizontalen und vertikalen Kanten repräsentieren, und die übrigen Filterwerte zu unterdrücken.
Fig. 5 zeigt das erzeugte Binärbild für das Beispiel aus Fig. 1 , wobei die Binärwerte 0 als weiße Bildpunkte und die Binärwerte 1 als schwarze Bildpunkte dargestellt sind. Für die vorliegende Erfindung ist nicht wesentlich, daß die Schwellwertentscheidung genau nach den Gleichungen (5) und (6) durchgeführt wird. Wichtig ist nur, daß die Schwellwerte so gewählt werden, daß das Binärbild B vorwiegend nur noch die Filterwerte F wiedergibt, die den horizontalen und vertikalen Kanten im Helligkeitsbild L entsprechen. Es brauchen auch nicht zwei Schwellwerte S1 und S2 gewählt zu werden. Es genügt ein Schwellwert, mit dem z.B. der Betrag der Filterwerte F verglichen wird.
Im nächsten Verarbeitungsschritt der Erfindung werden im Binärbild B die Konturen analysiert. Dazu wird zunächst ausgehend z.B. von der linken oberen Ek- ke zeilenweise und pixelweise ein erster Konturpunkt gesucht, d.h. ein Pixel mit dem Binärwert 1. Von diesem Startpunkt aus wird eine Kontur Pixel für Pixel
verfolgt, bis der Startpunkt wieder erreicht ist. Zur Konturverfolgung können verschiedene bekannte Verfahren eingesetzt werden.
Fig. 6 zeigt als Beispiel eine Maske über 3 x 3 Pixel für ein bevorzugtes Verfah- ren der Konturverfolgung. Der zentrale Punkt P wird auf den Startpunkt der Kontur gesetzt, und die acht Nachbarpixel werden im Uhrzeigersinn der Reihe nach untersucht, ob sie den Binärwert 1 haben. Sobald das erste Pixel mit dem Binärwert 1 gefunden wurde, wird die Untersuchungsmaske nach dorthin verschoben und die Untersuchung der acht Nachbarpixel beginnt erneut. Dies wird solange fortgesetzt, bis der Startpunkt wieder erreicht ist. In der Fig. 6 ist die Reihenfolge, in der die Nachbarpixel untersucht werden, durch die eingetragenen Zahlen 1....8 dargestellt.
Wenn der Startpunkt wieder erreicht ist, wird erfindungsgemäß anhand ver- schiedener Kriterien geprüft, ob die gefundene Kontur der Umriß einer Bildvorlage ist oder etwas anderes, z.B. ein Kratzer oder ein Schmutzrest von einem Klebeband. Ein bevorzugtes Kriterium ist, daß die Kontur eine Mindestlänge haben muß, z.B. 150 mm, um als Umriß einer Bildvorlage interpretiert zu werden.
Länge (Kontur) > Längemjn (7)
Ein weiteres bevorzugtes Kriterium ist, daß die von der Kontur umschlossene Fläche eine minimale Breite und Höhe haben muß, z.B. 20 mm.
Breite (Kontur) > Breitemjn (8)
Höhe (Kontur) > Höhemjn
Die minimalen Werte für Länge, Breite und Höhe werden so gewählt, daß die kleinsten möglichen Bildvorlagen noch sicher durch diese Kriterien erfaßt wer- den. Eine Kontur, die nach diesen Kriterien kein Bildvorlagenumriß ist, wird in dem Binärbild B gelöscht. Ebenso wird das Innere eines gefundenen Bildumriß gelöscht, da die darin enthaltenen Bildkonturen für die weitere Untersuchung ir-
relevant sind. Anschließend wird ein neuer Startpunkt gesucht und die nächste Kontur analysiert, bis alle Konturen im Binärbild abgearbeitet sind.
Fig. 7 zeigt das Ergebnis der Konturenanalyse für das Beispiel aus Fig. 1. Im Vergleich zum Binärbild B in Fig. 5 bleiben nur die Konturen übrig, die die Umrisse von Bildvorlagen sind.
Fig. 8 zeigt den nächsten Verarbeitungsschritt der Erfindung, in dem für jede der vier Seiten eines gefundenen Bildvorlagenumriß eine optimal angepaßte Gera- de ermittelt wird. Hierzu wird erfindungsgemäß ein Verfahren eingesetzt, das in der Bildverarbeitungstechnik als Hough-Transformation bekannt ist (H. Bässmann, P.W. Besslich: Bildverarbeitung Ad Oculos, S. 101-121 , Springer Verlag 1993). Zunächst wird das umschreibende Rechteck (5) des Umriß mit den Eckpunkten A, B, C, D gebildet, dessen Seiten parallel zur Haupt- bzw. Nebenabta- strichtung sind. Dann wird für jede Seite des Umriß in einem bestimmten Suchbereich für Geraden mit verschiedenen Positionen und unter verschiedenen Winkeln festgestellt, wieviele Umrißpunkte auf ihnen liegen. Die Gerade, auf der die meisten Umrißpunkte liegen, wird als optimal angepaßte Gerade für diese Umrißseite ausgewählt.
Fig. 8 zeigt den Suchbereich für die linke Seite des Umriß. Entlang einer waagerechten Strecke wird im Abstand s vom Punkt A ein Punkt G festgelegt. Durch den Punkt G werden unter verschiedenen Winkeln α Geraden (6) gelegt. Für jede der Geraden wird geprüft, wieviele Punkte des Umriß auf dieser Geraden lie- gen. Diese Zahl wird in eine α,s-Matrix (7) unter der durch α und s definierten Spalte und Zeile eingetragen. Jede Zelle der Matrix entspricht einer der geprüften Geraden. Durch Variation von s und α wird in dieser Weise eine Vielzahl von Geraden untersucht. Da in diesem Fall nach einer näherungsweise senkrechten Geraden gesucht wird, kann der Parameters auf einen Streifen und α auf einen kleinen Winkelbereich eingeschränkt werden, um die benötigte Verarbeitungszeit zu verringern.
»max < s ≤ +smax ( 9)
~αmax — α — +αmax
Für die Begrenzungen wird beispielsweise smax = 10 mm und αmax = 15° gewählt. Nach der Suchoperation wird festgestellt, welche Zelle der α,s-Matrix (7) den höchsten Zahlenwert enthält. Die zugehörigen Werte von s und α definieren eine Gerade, die die entsprechende Seite des Bildvorlagenumriß am genauesten wiedergibt. Ausgehend von den Eckpunkten B, C, D des umschreibenden Rechtecks (5) geschieht die Suche und Bestimmung der optimal angepaßten Geraden für die restlichen drei Seiten des Bildumriß in gleicher Weise, wie es für die Fig. 8 beschrieben wurde.
Die Strategie für die Suche nach der optimal angepaßten Geraden mit Hilfe der Hough-Transformation kann natürlich in vielfältiger Weise variiert werden. Der Punkt G, durch den die Suchgeraden führen, muß nicht wie in Fig. 8 gezeigt am oberen Rand des umschreibenden Rechtecks (5) liegen. Er kann z.B. auch am unteren Rand liegen oder auf halber Höhe des Rechtecks (5). Wichtig ist nur, daß in einem definierten Suchbereich um die anzupassende Seite des Bildvorlagenumriß herum systematisch alle bezüglich Position und Winkel möglichen Geraden nach dem Prinzip der Hough-Transformation untersucht werden. Die Suchstrategie kann auch noch im Hinblick auf die Verarbeitungszeit optimiert werden, wenn z.B. die Parameter s und α zunächst in groben Schritten variiert werden und dann um das Maximum der Hough-Transformierten herum die Untersuchung mit feineren Schritten fortgesetzt wird.
Die gefundenen angepaßten Geraden für die vier Seiten des Bildumriß ergeben im allgemeinen kein Viereck mit rechten Winkeln. Deshalb wird im letzten Verarbeitungsschritt der Erfindung aus den angepaßten Geraden ein Abtastrechteck gebildet. Das kann in vielfältiger Weise geschehen. Eine bevorzugte Me- thode ist: a) Mittelung der Winkel aller vier Geraden (wobei für zwei Geraden 90° addiert bzw. subtrahiert werden). Dabei werden die Winkel mit dem Wert der
Hough-Transformation gewichtet, da ein Winkel um so "sicherer" ist, je mehr Umrißpunkte für die entsprechende Gerade gefunden wurden. b) Prüfung, ob ein Winkel vom Mittelwert um mehr als einen bestimmten Betrag abweicht. Wenn ja, wird der Mittelwert aus den verbleibenden drei Ge- raden gebildet. c) Bestimmung des Abtastrechtecks mit den vier Geraden unter Verwendung des mittleren Winkels (für zwei Geraden um 90° modifiziert).
Nach der Bestimmung der Abtastrechtecke für alle Bildvorlagen auf der Scan- fläche werden die gefundenen Koordinaten und Winkel zur Einstellung des Scanners für die hochaufgelöste Abtastung verwendet bzw. zur nachträglichen Drehwinkelkorrektur der gescannten Bilddaten. Fig. 9 zeigt das Ergebnis der beschriebenen Verarbeitung für das Beispiel aus Fig. 1. Da im letzten Verarbeitungsschritt rechte Winkel des Abtastrechtecks erzwungen wurden, stimmen die Seiten des Abtastrechtecks nicht immer ganz genau mit den Seiten der Bildvorlagen überein.
Claims
1. Verfahren zur Erfassung der Geometriedaten, wie Position, Abmessungen und Winkellage, von auf einer Scanfläche montierten Bildvorlagen, dadurch gekennzeichnet, daß die Geometriedaten automatisch durch Abtastung der Scanfläche und Analyse der Scandaten ermittelt werden.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, daß aus den Scandaten der Scanfläche ein Helligkeitsbild gewonnen wird.
3. Verfahren nach Anspruch 1 und 2, dadurch gekennzeichnet, daß das Helligkeitsbild einer Kantenfilterung unterworfen wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet daß die Kantenfilterung Kanten hervorhebt, die näherungsweise horizontal und vertikal sind.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die Kantenfilterung an den Dynamikumfang des Helligkeitsbildes ange- paßt wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet daß aus dem Kanten-gefilterten Bild durch Schwellwertentscheidung ein Binärbild gewonnen wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß in dem Binärbild geschlossene Konturen ermittelt werden.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet daß durch Analyse der geschlossenen Konturen Bildvorlagenumrisse erkannt werden.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet daß die Bildvorlagenumrisse aufgrund der Länge der geschlossenen Kontu- ren erkannt werden.
10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, daß die Bildvorlagenumrisse aufgrund der Breite und Höhe der von den Konturen umschlossenen Flächen erkannt werden.
11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, daß für die Bildvorlagenumrisse angepaßte Geraden ermittelt werden.
12. Verfahren nach einem der Ansprüche 1 bis 11 , dadurch gekennzeichnet daß die angepaßten Geraden durch eine Hough-Transformation ermittelt werden.
13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, daß aus den angepaßten Geraden die Geometriedaten der Bildvorlagen bestimmt werden.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19700318 | 1997-01-08 | ||
DE19700318A DE19700318A1 (de) | 1997-01-08 | 1997-01-08 | Verfahren zur Bestimmung der Geometriedaten von Abtastvorlagen |
PCT/DE1997/002952 WO1998031136A1 (de) | 1997-01-08 | 1997-12-18 | Verfahren zur bestimmung der geometriedaten von abtastvorlagen |
Publications (1)
Publication Number | Publication Date |
---|---|
EP0950310A1 true EP0950310A1 (de) | 1999-10-20 |
Family
ID=7816924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP97952733A Ceased EP0950310A1 (de) | 1997-01-08 | 1997-12-18 | Verfahren zur bestimmung der geometriedaten von abtastvorlagen |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP0950310A1 (de) |
JP (1) | JP2000508461A (de) |
DE (1) | DE19700318A1 (de) |
WO (1) | WO1998031136A1 (de) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222386A (ja) * | 1998-11-25 | 2000-08-11 | Advantest Corp | 積和回路及び傾き検出装置 |
FR2803157B1 (fr) * | 1999-12-22 | 2002-12-13 | Sagem | Procede d'analyse par scanner et appareil a scanner a determination automatique de la zone a analyser |
EP1229494B1 (de) * | 2001-01-17 | 2007-03-21 | FUJIFILM Corporation | Verfahren, Vorrichtung und Programmspeichermedium zur Bestimmung des Umrisses eines gescannten Bildes |
JP4238749B2 (ja) * | 2004-03-10 | 2009-03-18 | カシオ計算機株式会社 | 画像処理装置、画像投影装置、画像処理方法及びプログラム |
JP2005267457A (ja) * | 2004-03-19 | 2005-09-29 | Casio Comput Co Ltd | 画像処理装置、撮影装置、画像処理方法及びプログラム |
JP4801551B2 (ja) | 2006-09-27 | 2011-10-26 | 富士通株式会社 | 画像領域検出方法、該プログラム、及び該装置 |
FR2945649A1 (fr) * | 2009-05-18 | 2010-11-19 | St Ericsson Sa St Ericsson Ltd | Procede et dispositif de traitement d'une image numerique. |
CN113191272A (zh) * | 2021-04-30 | 2021-07-30 | 杭州品茗安控信息技术股份有限公司 | 一种工程图像的识别方法、识别系统及相关装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS50100931A (de) * | 1973-12-31 | 1975-08-11 | ||
US4325086A (en) * | 1979-04-20 | 1982-04-13 | Canon Kabushiki Kaisha | Recording device |
GB2130837B (en) * | 1982-10-01 | 1987-04-23 | Canon Kk | Facsimile processing control |
JPS61282978A (ja) * | 1985-06-07 | 1986-12-13 | Toyota Motor Corp | 形状判定装置 |
JPH07113969B2 (ja) * | 1986-03-05 | 1995-12-06 | キヤノン株式会社 | 画像処理方法 |
US4774569A (en) * | 1987-07-24 | 1988-09-27 | Eastman Kodak Company | Method for adaptively masking off a video window in an overscanned image |
US5054098A (en) * | 1990-05-21 | 1991-10-01 | Eastman Kodak Company | Method of detecting the skew angle of a printed business form |
US5214294A (en) * | 1991-04-19 | 1993-05-25 | Fuji Photo Film Co., Ltd. | Scan reading method including density measuring and edge detection |
JPH0820367B2 (ja) * | 1991-04-19 | 1996-03-04 | 株式会社イナックス | タイルユニットの検査方法 |
JPH05258146A (ja) * | 1992-03-13 | 1993-10-08 | Glory Ltd | 紙葉類の斜行データ補正装置 |
US5452374A (en) * | 1992-04-06 | 1995-09-19 | Ricoh Corporation | Skew detection and correction of a document image representation |
JPH05344318A (ja) * | 1992-06-10 | 1993-12-24 | Canon Inc | 画像入力装置 |
US5568571A (en) * | 1992-12-14 | 1996-10-22 | University Microfilms, Inc. | Image enhancement system |
JPH06314339A (ja) * | 1993-04-27 | 1994-11-08 | Honda Motor Co Ltd | 画像の直線成分抽出装置 |
US5818976A (en) * | 1993-10-25 | 1998-10-06 | Visioneer, Inc. | Method and apparatus for document skew and size/shape detection |
JPH07220066A (ja) * | 1994-01-28 | 1995-08-18 | Matsushita Electric Ind Co Ltd | 画像処理装置 |
US5528387A (en) * | 1994-11-23 | 1996-06-18 | Xerox Corporation | Electronic image registration for a scanner |
JPH08294007A (ja) * | 1995-04-20 | 1996-11-05 | Mita Ind Co Ltd | 画像処理装置 |
-
1997
- 1997-01-08 DE DE19700318A patent/DE19700318A1/de not_active Withdrawn
- 1997-12-18 JP JP10530446A patent/JP2000508461A/ja active Pending
- 1997-12-18 EP EP97952733A patent/EP0950310A1/de not_active Ceased
- 1997-12-18 WO PCT/DE1997/002952 patent/WO1998031136A1/de not_active Application Discontinuation
Non-Patent Citations (1)
Title |
---|
See references of WO9831136A1 * |
Also Published As
Publication number | Publication date |
---|---|
WO1998031136A1 (de) | 1998-07-16 |
JP2000508461A (ja) | 2000-07-04 |
DE19700318A1 (de) | 1998-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19842572B4 (de) | Verfahren zur automatischen Entfernung von Bildfehlern | |
DE69620302T2 (de) | Verfahren und Vorrichtung zur Verbesserung eines digitalen Bildes | |
DE3851173T2 (de) | Verfahren und Gerät zur Erkennung von Halbtonbildmustern. | |
DE4445386C1 (de) | Verfahren und Vorrichtung zur Trennung einer Vordergrundinformation von einer Hintergrundinformation in einer Vorlage | |
DE69419682T2 (de) | Raumfiltereinheit zur adaptiven Randverstärkung | |
DE69715076T2 (de) | Vorrichtung zur Erzeugung eines Binärbildes | |
DE3881392T2 (de) | System und Verfahren für automatische Segmentierung. | |
EP0131676B1 (de) | Verfahren zum automatischen Digitalisieren des Umrisses von Strichgraphiken z.B. Buchstaben | |
DE69432585T2 (de) | Verfahren und Gerät zur Auswahl von Text und/oder Non-Text-Blöcken in einem gespeicherten Dokument | |
DE69629888T2 (de) | Bildverarbeitungsverfahren und Bilderkennungs- und Pixelverarbeitungssystem | |
DE69600461T2 (de) | System und Verfahren zur Bewertung der Abbildung eines Formulars | |
DE69926205T2 (de) | Artefaktentfernungstechnik für schiefenkorrigierte bilder | |
DE102007035884B4 (de) | Linienrauschunterdrückungsvorrichtung, -verfahren und -programm | |
DE2063932A1 (de) | Verfahren zum Korrelieren zweier Bilder | |
DE69925354T2 (de) | Bildverarbeitungssystem um vertikale Muster auf abgetasteten Bildern zu reduzieren | |
DE19956158A1 (de) | Bild-Binärisierungsverfahren auf Bereichsbasis | |
DE69532025T2 (de) | Farbbildverarbeitungsverfahren und -Vorrichtung | |
DE102007040070B4 (de) | Bilddichteumwandlungsverfahren, Bildverbesserungsverarbeitungseinrichtung und dafür geeignetes Programm | |
EP3289398B1 (de) | Verfahren zum generieren eines reflexionsreduzierten kontrastbildes und diesbezügliche vorrichtungen | |
DE19904997A1 (de) | Automatische Farbausfällung unter Verwendung von Luminanz/Chrominanz-Zwischenraumverarbeitung | |
DE102008013789A1 (de) | Vorrichtung, Verfahren und Programm zum Eliminieren von Zeichenstörungen | |
DE3732459C2 (de) | ||
DE3312050A1 (de) | Verfahren zum herstellen einer photographischen maske | |
DE3324736A1 (de) | Eingabe-/ausgabesystem fuer die bilddarstellung | |
DE2256617C3 (de) | Einrichtung zur Analyse einer Vorlage |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
17P | Request for examination filed |
Effective date: 19990809 |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): BE DE FR GB IT |
|
GRAG | Despatch of communication of intention to grant |
Free format text: ORIGINAL CODE: EPIDOS AGRA |
|
17Q | First examination report despatched |
Effective date: 20020510 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED |
|
18R | Application refused |
Effective date: 20021104 |