WO1998031135A1 - Verfahren zur bestimmung der geometriedaten des relevanten bildausschnitts - Google Patents

Verfahren zur bestimmung der geometriedaten des relevanten bildausschnitts Download PDF

Info

Publication number
WO1998031135A1
WO1998031135A1 PCT/DE1997/002947 DE9702947W WO9831135A1 WO 1998031135 A1 WO1998031135 A1 WO 1998031135A1 DE 9702947 W DE9702947 W DE 9702947W WO 9831135 A1 WO9831135 A1 WO 9831135A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
brightness
scanner
values
data
Prior art date
Application number
PCT/DE1997/002947
Other languages
English (en)
French (fr)
Inventor
Uwe-Jens KRABBENHÖFT
Original Assignee
Heidelberger Druckmaschinen Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heidelberger Druckmaschinen Ag filed Critical Heidelberger Druckmaschinen Ag
Priority to JP10530445A priority Critical patent/JP2000508460A/ja
Priority to EP97953641A priority patent/EP0950311A1/de
Publication of WO1998031135A1 publication Critical patent/WO1998031135A1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking

Definitions

  • the invention relates to the field of electronic reproduction technology and relates to a method for automatically determining the geometric data, such as position, dimensions and angular position, of the relevant image section of an image template to be scanned on a scanner tablet or a scanner drum.
  • print templates are created for print pages that contain all elements to be printed, such as texts, graphics and images.
  • these elements are in the form of digital data.
  • the data is e.g. generated by scanning the image point by point and line by line in a scanner, dividing each pixel into color components and digitizing the color values of these components. Images are usually broken down into the color components red, green and blue (R, G, B) in a scanner.
  • R, G, B red, green and blue
  • these components are then further transformed into the printing inks cyan, magenta, yellow and black (C, M, Y, K).
  • the scanner either creates just one component with gray values or the RGB components initially scanned are later converted into the printing ink black.
  • the scanner can be a flatbed device in which the images to be scanned are mounted on a scanner tray.
  • the image templates can be transparent (slides or color negatives) or reflective (top images).
  • the scanner tray is illuminated and the translucent or reflected light from a scan line is broken down into color components by color filters. The light of the color components is then further broken down into discrete pixels, for example using a CCD line, and converted into electrical signals, which are then digitized.
  • a drum scanner can also be used, in which the image originals are placed on a transparent scanner drum to be assembled.
  • the scanner drum is spot-lit from the inside or outside, and the translucent or reflected light of the color components is focused on light sensors in a scanning head and converted into electrical signals.
  • the scanner drum rotates while the illumination device and the scanning head are moved along the axis of the scanner drum, so that the surface of the scanner drum is scanned point by point and line by line.
  • a parallel, simultaneously filed patent application by the applicant describes how the geometry data of the scanning templates are automatically determined in high resolution from an overview scanning of the entire scanning area.
  • the geometry data determined in this way describe a scanning rectangle for each image template, which includes the entire image template including the edges.
  • image scanning in fine resolution i.e. to generate the image data that are needed for the production of the printing templates, however, the image section without the edges is required, which only includes the relevant image content.
  • a preliminary scan of the image template is often carried out in a lower resolution.
  • the scan data of the Preliminary scans are displayed on a monitor and the corner points of the relevant image section can then be marked manually on the screen with a cursor.
  • a pre-scan also serves to analyze the scan data of the pre-scan with respect to gradation, contrast, colors etc. within the relevant image section in order to derive setting parameters of the scanner for the final scan in fine resolution.
  • the images are mounted on a mounting film, which is placed on a digitizing tablet.
  • the coordinates of the relevant image sections are then recorded there.
  • the mounting film is then applied to the scanner tray or the scanner drum.
  • the device for acquiring the coordinates is integrated in the scanner tablet. In any case, coordinate acquisition involves manual work and time.
  • Some flatbed scanners have a device with which the scanner tray can be rotated by any predetermined angle. This can correct the crooked mounting of the image on the scan surface when scanning. If such a rotating device is not available, the scanned image data can later be rotated in a computing process in order to correct the inclined mounting.
  • 1 is an image template including the edge of the picture
  • Fig. 1 shows an image template (1) including the image edge (2).
  • the original images are generally colored or black and white slides, negatives or overlay images.
  • 1 shows as an example a negative as an image template, which is indicated as a binary image with only black and white pixels for reasons of simple duplication.
  • the relevant image section (3) of the image template (1) is the part of the image template that contains image information.
  • the method according to the invention automatically determines the outline (4) of the relevant image section, i.e. the dividing line between the image edge (2) and the relevant image detail (3).
  • a preliminary scan (prescan) of the original image (1) is carried out in reduced resolution, for example with 60 pixels / cm.
  • an image signal is calculated from the stored RGB scan data of this scan, which as clear as possible the outline (4) of the relevant image reproduces detail.
  • a brightness component can also be obtained by weighted addition of the RGB data.
  • a single color component such as the green portion of the RGB data, can be used as the brightness component.
  • a white point Lw and a black point Ls are determined from the values of the brightness component.
  • the frequencies of all values in the brightness image are preferably determined and plotted in a cumulative histogram.
  • the white point Lw is then e.g. defines the brightness value at which 5% of all brightness values are reached in the histogram.
  • the holiness value is defined as black point Ls, at which 95% of all brightness values are reached in the histogram.
  • these percentage values give white and black points that are representative of the image.
  • the dynamic range D of the brightness image results from the difference between black point and white point:
  • Fig. 2 shows the cumulative histogram with the white point Lw and the black point Ls. It is not essential for the present invention at which percentage values in the histogram the white point and the black point are determined. Any percentage values close to 0% or 100% can be selected. In principle, the brightness values at 0% and at 100%, ie the absolutely brightest and darkest values in the brightness image, can also be selected as the white point and black point. Then, however, there is a possibility that the white point and black point are not representative of the image if the extreme brightness values at 0% and 100% are very rare in the image.
  • the brightness values L are amplified by a non-linear function g ⁇ L ⁇ in the vicinity of the brightness value of the image edge (2) in order to emphasize the outline (4) of the relevant image section in the brightness values.
  • the image template (1) is a negative, ie the image edge (2) is black.
  • the brightness values L are increased in the black area.
  • the edge of which is generally white the brightness values L are correspondingly increased in the white area.
  • the increased brightness values Lg result in:
  • FIG. 3 shows an example of the amplification function g ⁇ L ⁇ , the brightness values L being amplified in the black area.
  • the brightness values L are displayed with an accuracy of 8 bits, for example, values for L result between 0 (black) and 255 (white).
  • the brightness value 0 is increased by a factor of 5, the gain decreases linearly to a factor of 1 up to the brightness value 15 and then remains on the factor 1 for the remaining brightness values up to 255. That means only the brightness values in the range 0 ... 15 are increased, the other brightness values remain unchanged.
  • the edge of the picture is white, e.g. uses a mirror-image function g ⁇ L ⁇ for this purpose, which enhances the brightness values L in the range 240 ... 255 and leaves the other brightness values unchanged.
  • the brightness component is subjected to digital edge filtering.
  • Filters are preferably used which generate high initial values on approximately horizontal and vertical edges and thereby emphasize such edges.
  • Fig. 4 shows an example of a simple filter for horizontal edges (5) and for vertical edges (6).
  • the horizontal filter extends over 2 x 5 pi xel.
  • the circled point P denotes the position of the current pixel.
  • the values h, j at each position of the filter window are the filter coefficients.
  • the filtering is carried out by placing the point P of the filter window over each pixel of the enhanced brightness image Lg and multiplying and adding the pixel values Lg, j below the respective window positions by the coefficients h, j .
  • the result is normalized to the dynamic range D by multiplying it by 1 / (k1 x D), where k1 is a constant.
  • the filter value F h of each pixel is therefore:
  • the filter values F h and F v of the horizontal and vertical edge filtering are then combined according to the invention into a resulting filter value F.
  • the amounts of Fh and F v are preferably compared for each pixel, and the respectively larger value is taken as the resulting filter value F. It then results in:
  • Vz max is the sign of the selected maximum value.
  • the shape and coefficients of the edge filters shown in Fig. 4 are not essential to the present invention. Filter windows with more or less than 2 x 5 pixels and with other coefficients can also be used. It is only important that the filtering mainly highlights horizontal and vertical edges. Summary functions other than those according to equation (5) can also be used, for example the sum of the absolute values
  • the exact form of the gain function g ⁇ L ⁇ is also not essential to the invention. It is only important that the brightness values L are increased in the area of the color of the image edge by the function g ⁇ L ⁇ .
  • FIG. 5 shows the next processing step of the invention, in which an optimally adapted straight line is determined for each of the four sides of the relevant image section.
  • a method is used which is known in image processing technology as an (analog) Hough transformation (H. Bässmann, P.W. Besslich: Schmish Ad Oculos, pp. 101-121, Springer Verlag 1993).
  • the circumscribing rectangle (7) of the filtered image F with the corner points A, B, C, D is formed, the sides of which are parallel to
  • Main or secondary scanning direction are.
  • the filter values F along the straight line are then added up for each side of the relevant image section in a specific search area for straight lines with different positions and at different angles.
  • the straight line for which the sum reaches a positive or negative maximum value is selected as an optimally adapted straight line for this side of the relevant image section.
  • the sign of the maximum value must be taken into account here, since the filter values F can be positive and negative.
  • the filter values F are negative for the transition from black to "non-black", and they are positive for the transition from "non-black” to black. Therefore, in the example considered here to determine the left side of the relevant image section, a straight line with a negative maximum value of the sum described above is sought. For the right side of the relevant image section, a straight line with a positive maximum value of this sum must be searched for accordingly.
  • FIG. 5 shows the search area for the left side of the relevant image section.
  • a point becomes a point s at a distance s along a horizontal line G fixed.
  • ⁇ straight lines (8) are placed at different angles.
  • the sum of the filter values F along the straight line is formed for each of the straight lines.
  • This number is entered in an ⁇ , s matrix (9) under the column and row defined by ⁇ and s.
  • Each cell in the matrix corresponds to one of the straight lines tested.
  • the search operation After the search operation, it is determined which cell of the ⁇ , s-Mathx (9) contains the largest positive or negative numerical value. As explained above, a search is made for a negative maximum value for the left side of the relevant image section and for the case of a black image border.
  • the associated values of s and ⁇ define a straight line that most accurately reproduces the corresponding side of the relevant image section. Starting from the corner points B, C, D of the circumscribing rectangle (7), the search and determination of the optimally adapted straight line for the remaining three sides of the relevant image section takes place in a corresponding manner.
  • the strategy for the search for the optimally adapted straight line using the Hough transformation can of course be varied in many ways.
  • the point G through which the search lines lead does not have to lie at the upper edge of the circumscribing rectangle (7), as shown in FIG. 5. It can, for example, also be at the bottom or halfway up the rectangle (7). It is only important that in a defined search area around the page of the relevant systematically examine all possible lines with regard to position and angle according to the principle of the Hough transformation.
  • the search strategy can also be optimized with regard to the processing time if, for example, the parameters s and ⁇ are initially varied in rough steps and then the investigation is continued with finer steps around the positive or negative maximum of the Hough transforms.
  • an image section rectangle is formed from the adapted straight lines. This can be done in a variety of ways.
  • a preferred method is: a) Averaging the angles of all four straight lines (with 90 ° being added or subtracted for two straight lines). The angles are the value of
  • the coordinates found and the angle for setting the scanner are used for the further course of the scanning process, e.g. for determining setting parameters for gradation, color correction etc. from the relevant image data of the advance scan (prescan) and later for high-resolution scanning and for the angle of rotation correction of the scanned image data.

Abstract

Es wird ein Verfahren zur automatischen Bestimmung der Geometriedaten, wie Position, Abmessungen und Winkellage, des relevanten Bildausschnitts einer Bildvorlage beschrieben, die auf das Scannertablett bzw. die Scannertrommel eines Scanners montiert ist. Dazu wird aus den Scandaten der abgetasteten Bildvorlage ein Helligkeitsbild gewonnen und analysiert. Mit einer digitalen Kantenfilterung werden vorwiegend horizontale und vertikale Kanten hervorgehoben. Aus dem gefilterten Helligkeitsbild werden mit Hilfe der Hough-Transformation für den relevanten Bildausschnitt angepaßte Geraden ermittelt, aus denen die Geometriedaten des relevanten Bildausschnitts der Bildvorlage bestimmt werden.

Description

Verfahren zur Bestimmung der Geometriedaten des relevanten Bildausschnitts
Die Erfindung bezieht sich auf das Gebiet der elektronischen Reproduktions- technik und betrifft ein Verfahren zur automatischen Bestimmung der Geometriedaten, wie Position, Abmessungen und Winkellage, des relevanten Bildausschnitts einer abzutastenden Bildvorlage auf einem Scannertablett bzw. einer Scannertrommel.
In der Reproduktionstechnik werden Druckvorlagen für Druckseiten erzeugt, die alle zu druckenden Elemente wie Texte, Grafiken und Bilder enthalten. Im Fall der elektronischen Hersteilung der Druckvorlagen liegen diese Elemente in Form von digitalen Daten vor. Für ein Bild werden die Daten z.B. erzeugt, indem das Bild in einem Scanner punkt- und zeilenweise abgetastet wird, jeder Bildpunkt in Farbkomponenten zerlegt wird und die Farbwerte dieser Komponenten digitalisiert werden. Üblicherweise werden Bilder in einem Scanner in die Farbkomponenten Rot, Grün und Blau (R, G, B) zerlegt. Für den Vierfarbdruck werden diese Komponenten dann weiter in die Druckfarben Cyan, Magenta, Gelb und Schwarz (C, M, Y, K) transformiert. Für Schwarz-Weiß- Bilder erzeugt der Scanner entweder gleich nur eine Komponente mit Grauwerten oder die zunächst abgetasteten RGB-Komponenten werden später in die Druckfarbe Schwarz umgerechnet.
Der Scanner kann ein Flachbettgerät sein, in dem die abzutastenden Bildvorla- gen auf einem Scannertablett montiert werden. Die Bildvorlagen können transparent sein (Diapositive oder Farbnegative) oder reflektierend (Aufsichtsbilder). Das Scannertablett wird beleuchtet, und das durchscheinende bzw. reflektierte Licht einer Scanlinie wird durch Farbfilter in die Farbkomponenten zerlegt. Das Licht der Farbkomponenten wird dann z.B. mittels einer CCD-Zeile weiter in diskrete Bildpunkte zerlegt und in elektrische Signale umgewandelt, die anschließend digitalisiert werden. Alternativ kann auch ein Trommelscanner verwendet werden, in dem die Bildvorlagen auf eine transparente Scannertrommel montiert werden. Die Scannertrommel wird je nach Art der Bildvorlagen (transparent oder reflektierend) punktförmig von innen oder außen beleuchtet, und das durchscheinende bzw. reflektierte Licht der Farbkomponenten wird in einem Abtastkopf auf Lichtsensoren fokussiert und in elektrische Signale um- gewandelt. Dabei rotiert die Scannertrommel, während die Beleuchtungseinrichtung und der Abtastkopf entlang der Achse der Scannertrommel bewegt werden, so daß die Oberfläche der Scannertrommel punkt- und zeilenweise abgetastet wird.
Um das Abtasten der Bildvorlagen rationeller durchzuführen, werden mehrere Bildvorlagen auf das Scannertablett bzw. die Scannertrommel montiert, die der Scanner dann automatisch nacheinander abtasten, digitalisieren und speichern soll. Dazu müssen in einem Arbeitsvorbereitungsprozeß die Positionen der Bilder auf dem Scannertablett bzw. auf der Scannertrommel, ihre Abmessungen und ihre Winkellage erfaßt und eingegeben werden. Damit sind die Ausschnitte der zur Verfügung stehenden Scanfläche definiert, die vom Scanner abgetastet und den einzelnen Bildern zugeordnet werden sollen.
In einer parallel laufenden, gleichzeitig eingereichten Patentanmeldung der Anmelderin (internes Aktenzeichen 96/958, "Verfahren zur Bestimmung der Geometriedaten von Abtastvorlagen") wird beschrieben, wie die Geometriedaten der Abtastvorlagen aus einer Übersichtsabtastung der gesamten Scanfläche in grober Auflösung automatisch ermittelt werden. Die so ermittelten Geometriedaten beschreiben für jede Bildvorlage ein Abtastrechteck, das die ganze Bildvorlage einschließlich der Ränder umfaßt. Für die Bildabtastung in feiner Auflösung, d.h. zur Erzeugung der Bilddaten, die für die Herstellung der Druckvorlagen gebraucht werden, wird jedoch der Bildausschnitt ohne die Ränder benötigt, der nur den relevanten Bildinhalt umfaßt.
Nach dem Stand der Technik ist das Eingeben der Geometriedaten für den relevanten Bildausschnitt zeitaufwendig. Oft wird dazu eine Vorwegabtastung der Bildvorlage (Prescan) in geringerer Auflösung durchgeführt. Die Scandaten der Vorwegabtastung werden auf einem Monitor dargestellt, und mit einem Cursor können dann manuell auf dem Bildschirm die Eckpunkte des relevanten Bildausschnitts markiert werden. Eine Vorwegabtastung dient außerdem dazu, innerhalb des relevanten Bildausschnitts die Scandaten der Vorwegabtastung in bezug auf Gradation, Kontrast, Farben usw. zu analysieren, um daraus Einstellungsparameter des Scanners für die endgültige Abtastung in feiner Auflösung herzuleiten. Nach einer anderen Methode werden die Bilder auf eine Montagefolie montiert, die auf ein Digitalisiertablett gelegt wird. Dort werden dann die Koordinaten der relevanten Bildausschnitte erfaßt. Anschließend wird die Mon- tagefolie auf das Scannertablett bzw. die Scannertrommel aufgebracht. Es gibt hierfür auch die Lösung, daß die Einrichtung zur Erfassung der Koordinaten in das Scannertablett integriert ist. In jedem Fall ist die Koordinatenerfassung mit manueller Arbeit und Zeitaufwand verbunden.
Obwohl man sich bemüht, die Bilder so gerade wie möglich auf die Scanfläche zu montieren, ist die Erfassung der Winkellage des relevanten Bildausschnitts doch sinnvoll. Da die exakte Ausrichtung der Bilder bei der Montage arbeitsaufwendig und zeitraubend ist, kann es wirtschaftlicher sein, die Bilder nur annähernd gerade zu montieren und die genaue Ausrichtung später auszuführen. Manche Flachbettscanner haben eine Vorrichtung, mit der das Scannertablett um einen beliebigen vorgegebenen Winkel gedreht werden kann. Damit kann die schiefe Montage des Bildes auf der Scanfläche beim Scannen korrigiert werden. Wenn eine solche Drehvorrichtung nicht vorhanden ist, können die gescannten Bilddaten später in einem Rechenprozeß gedreht werden, um die schiefe Montage zu korrigieren.
Es ist die Aufgabe der vorliegenden Erfindung, die zuvor beschriebene manuelle Erfassung der Geometriedaten zu vermeiden und ein Verfahren zur automatischen Bestimmung von Position, Abmessungen und Winkellage des relevan- ten Bildausschnitts einer Bildvorlage anzugeben. Dadurch wird die Bedienung des Scanners vereinfacht und eine Automatisierung der Bildabtastung ermög- licht. Diese Aufgabe wird durch die Merkmale des Anspruchs 1 und der Unteransprüche 2 bis 9 gelöst.
Die Erfindung wird nachfolgend anhand der Figuren 1 bis 5 näher beschrieben. Es zeigen:
Fig. 1 eine Bildvorlage einschließlich des Bildrandes,
Fig. 2 die Bestimmung von Weißpunkt und Schwarzpunkt im Histogramm,
Fig. 3 eine Verstärkungsfunktion für die Helligkeitswerte,
Fig. 4 Kantenfilter für horizontale und vertikale Kanten, und
Fig. 5 die Suche nach einer angepaßten Geraden mittels der Hough- Transformation.
Fig. 1 zeigt eine Bildvorlage (1 ) einschließlich des Bildrandes (2). Die Bildvorla- gen sind im allgemeinen farbige oder schwarz-weiße Diapositive, Negative oder Aufsichtsbilder. In der Fig. 1 ist als Beispiel ein Negativ als Bildvorlage dargestellt, das aus Gründen der einfachen Vervielfältigung als Binärbild mit nur schwarzen und weißen Bildpunkten angedeutet ist. Der relevante Bildausschnitt (3) der Bildvorlage (1 ) ist der Teil der Bildvorlage, der Bildinformation enthält. Das erfindungsgemäße Verfahren ermittelt automatisch den Umriß (4) des relevanten Bildausschnitts, d.h. die Trennlinie zwischen Bildrand (2) und relevantem Bildausschnitt (3).
In einem ersten Verarbeitungsschritt wird eine Vorwegabtastung (Prescan) der Bildvorlage (1 ) in reduzierter Auflösung durchgeführt, z.B. mit 60 Pixel/cm. Aus den gespeicherten RGB-Scandaten dieser Abtastung wird erfindungsgemäß ein Bildsignal errechnet, das möglichst deutlich den Umriß (4) des relevanten Bild- ausschnitts wiedergibt. Vorzugsweise ist das eine Helligkeitskomponente, z.B. die L-Komponente, die bei der Transformation der RGB-Daten in LAB-Daten des CIELAB-Farbraums gewonnen wird (CIE = Commission Internationale d'Eclairage). Eine Helligkeitskomponente kann aber auch durch eine gewichtete Addition der RGB-Daten gewonnen werden. Ersatzweise kann auch eine einzelne Farbkomponente, z.B. der grüne Anteil der RGB-Daten, als Helligkeitskomponente verwendet werden.
Im zweiten Verarbeitungsschritt der Erfindung wird ein Weißpunkt Lw und ein Schwarzpunkt Ls aus den Werten der Helligkeitskomponente bestimmt. Vorzugsweise werden dazu die Häufigkeiten aller Werte im Helligkeitsbild ermittelt und in einem kumulativen Histogramm aufgetragen. Als Weißpunkt Lw wird dann z.B. der Helligkeitswert definiert, bei dem im Histogramm 5% aller Helligkeitswerte erreicht sind. Als Schwarzpunkt Ls wird entsprechend dazu der Heiligkeitswert definiert, bei dem im Histogramm 95% aller Helligkeitswerte erreicht sind. Bei diesen Prozentwerten erhält man erfahrungsgemäß Weiß- und Schwarzpunkte, die für das Bild repräsentativ sind. Aus der Differenz zwischen Schwarzpunkt und Weißpunkt ergibt sich der Dynamikumfang D des Helligkeitsbildes zu:
D = Ls - Lw (1 )
Fig. 2 zeigt das kumulative Histogramm mit dem Weißpunkt Lw und dem Schwarzpunkt Ls. Für die vorliegende Erfindung ist nicht wesentlich, bei wel- chen Prozentwerten im Histogramm der Weißpunkt und der Schwarzpunkt festgelegt werden. Es können beliebige Prozentwerte in der Nähe von 0% bzw. 100% gewählt werden. Grundsätzlich können auch die Helligkeitswerte bei 0% und bei 100%, d.h. die absolut hellsten und dunkelsten Werte im Helligkeitsbild als Weißpunkt und Schwarzpunkt gewählt werden. Dann besteht jedoch die Möglichkeit, daß der Weißpunkt und Schwarzpunkt nicht für das Bild repräsentativ sind, wenn die extremen Helligkeitswerte bei 0% und 100% nur sehr selten im Bild vorkommen. Im nächsten Verarbeitungsschritt der Erfindung werden die Helligkeitswerte L durch eine nichtlineare Funktion g{L} in der Nähe des Helligkeitswertes des Bildrandes (2) verstärkt, um in den Helligkeitswerten den Umriß (4) des relevan- ten Bildausschnitts besonders hervorzuheben. Im Beispiel von Fig. 1 ist die Bildvorlage (1 ) ein Negativ, d.h. der Bildrand (2) ist schwarz. In diesem Fall werden also die Helligkeitswerte L im schwarzen Bereich verstärkt. Bei einer Aufsichtsvorlage, deren Rand im allgemeinen weiß ist, werden die Helligkeitswerte L entsprechend im weißen Bereich verstärkt. Die verstärkten Helligkeits- werte Lg ergeben sich zu:
Lg = g{L} (2)
Fig. 3 zeigt ein Beispiel für die Verstärkungsfunktion g{L}, wobei die Hellig- keitswerte L im schwarzen Bereich verstärkt werden. Unter der Voraussetzung, daß die Helligkeitswerte L zum Beispiel mit 8 bit Genauigkeit dargestellt werden, ergeben sich Werte für L zwischen 0 (schwarz) und 255 (weiß). Der Helligkeitswert 0 wird um den Faktor 5 verstärkt, die Verstärkung nimmt bis zum Helligkeitswert 15 linear ab auf den Faktor 1 und bleibt dann für die restlichen Helligkeitswerte bis 255 auf dem Faktor 1. Das heißt, nur die Helligkeitswerte im Bereich 0...15 werden verstärkt, die übrigen Helligkeitswerte bleiben unverändert. Wenn der Bildrand weiß ist, wird z.B. eine hierzu spiegelbildliche Funktion g{L} verwendet, die die Helligkeitswerte L im Bereich 240...255 verstärkt und die übrigen Helligkeitswerte unverändert läßt.
Im nächsten Verarbeitungsschritt der Erfindung wird die Helligkeitskomponente einer digitalen Kantenfilterung unterworfen. Vorzugsweise werden Filter verwendet, die an näherungsweise horizontalen und vertikalen Kanten hohe Ausgangswerte erzeugen und dadurch solche Kanten hervorheben.
Fig. 4 zeigt als Beispiel jeweils ein einfaches Filter für horizontale Kanten (5) und für vertikale Kanten (6). Das horizontale Filter erstreckt sich über 2 x 5 Pi- xel. Der eingekreiste Punkt P bezeichnet die Position des aktuellen Pixels. Die Werte h,j an jeder Position des Filterfensters sind die Filterkoeffizienten. Die Filterung wird durchgeführt, indem der Punkt P des Filterfensters über jedes Pixel des verstärkten Helligkeitsbildes Lg gelegt wird und die unter den jeweiligen Fensterpositionen liegenden Pixelwerte Lg,j mit den Koeffizienten h,j multipliziert und aufaddiert werden. Das Ergebnis wird noch auf den Dynamikumfang D normalisiert, indem es mit 1 / (k1 x D) multipliziert wird, wobei k1 eine Konstante ist. Der Filterwert Fh jedes Pixels ergibt sich also zu:
Fh = [ Σ (h,j x Lg,j )] / (k1 x D) (3)
Für das vertikale Filter (6), das eine um 90° gedrehte Version des horizontalen Filters (5) ist, ergibt sich der Filterwert Fv entsprechend zu:
Fv = [ Σ (VlJ x Lg,j )] / (k1 x D) (4)
Die Filterwerte Fh und Fv der horizontalen und vertikalen Kantenfilterung werden erfindungsgemäß anschließend zu einem resultierenden Filterwert F zusammengefaßt. Vorzugsweise werden dazu für jedes Pixel die Beträge von Fh und Fv verglichen, und der jeweils größere Wert wird als resultierender Filterwert F genommen. Er ergibt sich dann zu:
F = Vzmax x max (|Fh|, |FV|), (5)
wobei Vzmax das Vorzeichen des ausgewählten Maximalwertes ist.
Für die vorliegende Erfindung sind die Form und Koeffizienten der in Fig. 4 gezeigten Kantenfilter nicht wesentlich. Es können auch Filterfenster mit mehr oder weniger als 2 x 5 Pixel und mit anderen Koeffizienten verwendet werden. Wichtig ist nur, daß durch die Filterung vorwiegend horizontale und vertikale Kanten hervorgehoben werden. Ebenso können auch andere zusammenfassende Funktionen als die nach Gleichung (5) verwendet werden, z.B. die Summe der Betragswerte |Fh| und |FV| versehen mit dem Vorzeichen des größeren Wertes. Für die Erfindung ist die genaue Form der Verstärkungsfunktion g{L} ebenfalls nicht wesentlich. Wichtig ist nur, daß die Helligkeitswerte L im Bereich der Farbe des Bildrandes durch die Funktion g{L} verstärkt werden.
Fig. 5 zeigt den nächsten Verarbeitungsschritt der Erfindung, in dem für jede der vier Seiten des relevanten Bildausschnitts eine optimal angepaßte Gerade ermittelt wird. Hierzu wird erfindungsgemäß ein Verfahren eingesetzt, das in der Bildverarbeitungstechnik als (analoge) Hough-Transformation bekannt ist (H. Bässmann, P.W. Besslich: Bildverarbeitung Ad Oculos, S. 101-121 , Springer Verlag 1993). Zunächst wird das umschreibende Rechteck (7) des gefilterten Bildes F mit den Eckpunkten A, B, C, D gebildet, dessen Seiten parallel zur
Haupt- bzw. Nebenabtastrichtung sind. Dann werden für jede Seite des relevanten Bildausschnitts in einem bestimmten Suchbereich für Geraden mit verschiedenen Positionen und unter verschiedenen Winkeln die Filterwerte F entlang der Geraden aufsummiert. Die Gerade, für die die Summe einen positiven bzw. negativen Maximalwert erreicht, wird als optimal angepaßte Gerade für diese Seite des relevanten Bildausschnitts ausgewählt. Das Vorzeichen des Maximalwertes muß hier berücksichtigt werden, da die Filterwerte F positiv und negativ sein können. Für den Übergang von Schwarz zu "Nicht-Schwarz" sind die Filterwerte F negativ, für den Übergang von "Nicht-Schwarz" zu Schwarz sind sie positiv. Daher wird in dem hier betrachteten Beispiel zur Ermittlung der linken Seite des relevanten Bildausschnitts nach einer Geraden mit einem negativen Maximalwert der oben beschriebenen Summe gesucht. Für die rechte Seite des relevanten Bildausschnitts muß entsprechend nach einer Geraden mit einem positiven Maximalwert dieser Summe gesucht werden.
Fig. 5 zeigt den Suchbereich für die linke Seite des relevanten Bildausschnitts. Entlang einer waagerechten Strecke wird im Abstand s vom Punkt A ein Punkt G festgelegt. Durch den Punkt G werden unter verschiedenen Winkeln α Geraden (8) gelegt. Für jede der Geraden wird die Summe der Filterwerte F entlang der Geraden gebildet. Diese Zahl wird in eine α,s-Matrix (9) unter der durch α und s definierten Spalte und Zeile eingetragen. Jede Zelle der Matrix entspricht einer der geprüften Geraden. Durch Variation von s und α wird in dieser Weise eine Vielzahl von Geraden untersucht. Da in diesem Fall nach einer näherungsweise senkrechten Geraden gesucht wird, kann der Parameter s auf einen Streifen und α auf einen kleinen Winkelbereich eingeschränkt werden, um die benötigte Verarbeitungszeit zu verringern.
"Smax — S ≤ +S aχ ( 6)
"C^max ≤ Ct ≤ +CXmaχ
Für die Begrenzungen wird beispielsweise smax = 10 mm und αmax = 15° ge- wählt.
Nach der Suchoperation wird festgestellt, welche Zelle der α,s-Mathx (9) den größten positiven bzw. negativen Zahlenwert enthält. Wie oben erläutert, wird für die linke Seite des relevanten Bildausschnitts und für den Fall eines schwarzen Bildrandes nach einem negativen Maximalwert gesucht. Die zugehörigen Werte von s und α definieren eine Gerade, die die entsprechende Seite des relevanten Bildausschnitts am genauesten wiedergibt. Ausgehend von den Eckpunkten B, C, D des umschreibenden Rechtecks (7) geschieht die Suche und Bestimmung der optimal angepaßten Geraden für die restlichen drei Seiten des relevanten Bildausschnitts in entsprechender Weise.
Die Strategie für die Suche nach der optimal angepaßten Geraden mit Hilfe der Hough-Transformation kann natürlich in vielfältiger Weise variiert werden. Der Punkt G, durch den die Suchgeraden führen, muß nicht wie in Fig. 5 gezeigt am oberen Rand des umschreibenden Rechtecks (7) liegen. Er kann z.B. auch am unteren Rand liegen oder auf halber Höhe des Rechtecks (7). Wichtig ist nur, daß in einem definierten Suchbereich um die anzupassende Seite des relevan- ten Bildausschnitts herum systematisch alle bezüglich Position und Winkel möglichen Geraden nach dem Prinzip der Hough-Transformation untersucht werden. Die Suchstrategie kann auch noch im Hinblick auf die Verarbeitungszeit optimiert werden, wenn z.B. die Parameter s und α zunächst in groben Schritten variiert werden und dann um das positive bzw. negative Maximum der Hough-Transformierten herum die Untersuchung mit feineren Schritten fortgesetzt wird.
Die gefundenen angepaßten Geraden für die vier Seiten des relevanten Bild- ausschnitts ergeben im allgemeinen kein Viereck mit rechten Winkeln. Deshalb wird im letzten Verarbeitungsschritt der Erfindung aus den angepaßten Geraden ein Bildausschnitt-Rechteck gebildet. Das kann in vielfältiger Weise geschehen. Eine bevorzugte Methode ist: a) Mittelung der Winkel aller vier Geraden (wobei für zwei Geraden 90° ad- diert bzw. subtrahiert werden). Dabei werden die Winkel mit dem Wert der
Hough-Transformation gewichtet, da ein Winkel um so "sicherer" ist, je größer der (positive bzw. negative) Wert der Hough-Transformierten für die entsprechende Gerade ist. b) Prüfung, ob ein Winkel vom Mittelwert um mehr als einen bestimmten Be- trag abweicht. Wenn ja, wird der Mittelwert aus den verbleibenden drei Geraden gebildet. c) Bestimmung des Bildausschnitt-Rechtecks mit den vier Geraden unter Verwendung des mittleren Winkels (für zwei Geraden um 90° modifiziert).
Nach der Bestimmung des relevanten Bildausschnitts werden die gefundenen Koordinaten und der Winkel zur Einstellung des Scanners für den weiteren Ablauf des Scanvorgangs verwendet, z.B. zur Ermittlung von Einstellungsparame- tem für Gradation, Farbkorrektur usw. aus den relevanten Bilddaten der Vorwegabtastung (Prescan) und später zur hochaufgelösten Abtastung und zur Drehwinkelkorrektur der gescannten Bilddaten.

Claims

Patentansprüche
1. Verfahren zur Erfassung der Geometriedaten, wie Position, Abmessungen und Winkellage, des relevanten Bildausschnitts einer Bildvorlage, dadurch gekennzeichnet, daß die Geometriedaten automatisch durch Abtastung der Bildvorlage und Analyse der Scandaten ermittelt werden.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, daß aus den Scandaten der Bildvorlage ein Helligkeitsbild gewonnen wird.
3. Verfahren nach Anspruch 1 und 2, dadurch gekennzeichnet, daß das Helligkeitsbild im Bereich des Helligkeitswertes des Bildrandes verstärkt wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß das Helligkeitsbild einer Kantenfilterung unterworfen wird.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die Kantenfilterung Kanten hervorhebt, die näherungsweise horizontal und vertikal sind.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die Kantenfilterung an den Dynamikumfang des Helligkeitsbildes angepaßt wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß in der Kanten-gefilterten Bildvorlage für den relevanten Bildausschnitt angepaßte Geraden ermittelt werden.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß die angepaßten Geraden durch eine Hough-Transformation ermittelt werden.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß aus den angepaßten Geraden die Geometriedaten des relevanten Bildausschnitts bestimmt werden.
PCT/DE1997/002947 1997-01-08 1997-12-18 Verfahren zur bestimmung der geometriedaten des relevanten bildausschnitts WO1998031135A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP10530445A JP2000508460A (ja) 1997-01-08 1997-12-18 注目関連画像セクションの幾何学的データを求める方法
EP97953641A EP0950311A1 (de) 1997-01-08 1997-12-18 Verfahren zur bestimmung der geometriedaten des relevanten bildausschnitts

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19700352.4 1997-01-08
DE1997100352 DE19700352A1 (de) 1997-01-08 1997-01-08 Verfahren zur Bestimmung der Geometriedaten des relevanten Bildausschnitts

Publications (1)

Publication Number Publication Date
WO1998031135A1 true WO1998031135A1 (de) 1998-07-16

Family

ID=7816945

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE1997/002947 WO1998031135A1 (de) 1997-01-08 1997-12-18 Verfahren zur bestimmung der geometriedaten des relevanten bildausschnitts

Country Status (4)

Country Link
EP (1) EP0950311A1 (de)
JP (1) JP2000508460A (de)
DE (1) DE19700352A1 (de)
WO (1) WO1998031135A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7457010B2 (en) 2003-05-29 2008-11-25 Hewlett-Packard Development Company, L.P. System and method for fast scanning

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19836071A1 (de) * 1998-08-10 2000-02-17 Schlafhorst & Co W Verfahren zur Erkennung von Fadenresten auf Spinnkopshülsen
FR2803157B1 (fr) * 1999-12-22 2002-12-13 Sagem Procede d'analyse par scanner et appareil a scanner a determination automatique de la zone a analyser
EP1229494B1 (de) * 2001-01-17 2007-03-21 FUJIFILM Corporation Verfahren, Vorrichtung und Programmspeichermedium zur Bestimmung des Umrisses eines gescannten Bildes

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4774569A (en) * 1987-07-24 1988-09-27 Eastman Kodak Company Method for adaptively masking off a video window in an overscanned image
EP0329191A2 (de) * 1988-02-18 1989-08-23 Fuji Photo Film Co., Ltd. Verfahren zur Erkennung der Unterverteilungsmuster von Strahlungsbildern
US5054098A (en) * 1990-05-21 1991-10-01 Eastman Kodak Company Method of detecting the skew angle of a printed business form
WO1995012271A1 (en) * 1993-10-25 1995-05-04 Visioneer, Inc. Method and apparatus for document skew and size/shape detection
US5568571A (en) * 1992-12-14 1996-10-22 University Microfilms, Inc. Image enhancement system

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2130837B (en) * 1982-10-01 1987-04-23 Canon Kk Facsimile processing control
JPH07113969B2 (ja) * 1986-03-05 1995-12-06 キヤノン株式会社 画像処理方法
US4887151A (en) * 1986-06-30 1989-12-12 Canon Kabushiki Kaisha Encoding apparatus for color image data with block-by-block individual quantizing or individual encoding of luminosity, structure, and color information
JPH0724425B2 (ja) * 1986-09-02 1995-03-15 富士写真フイルム株式会社 画像処理方法及び装置
DE4105284A1 (de) * 1991-02-20 1992-11-05 Bacher Gmbh B Verfahren und vorrichtung zur videounterstuetzten montage
JPH0820367B2 (ja) * 1991-04-19 1996-03-04 株式会社イナックス タイルユニットの検査方法
JPH05258146A (ja) * 1992-03-13 1993-10-08 Glory Ltd 紙葉類の斜行データ補正装置
US5452374A (en) * 1992-04-06 1995-09-19 Ricoh Corporation Skew detection and correction of a document image representation
JPH05344318A (ja) * 1992-06-10 1993-12-24 Canon Inc 画像入力装置
JPH07220066A (ja) * 1994-01-28 1995-08-18 Matsushita Electric Ind Co Ltd 画像処理装置
US5528387A (en) * 1994-11-23 1996-06-18 Xerox Corporation Electronic image registration for a scanner
JPH08294007A (ja) * 1995-04-20 1996-11-05 Mita Ind Co Ltd 画像処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4774569A (en) * 1987-07-24 1988-09-27 Eastman Kodak Company Method for adaptively masking off a video window in an overscanned image
EP0329191A2 (de) * 1988-02-18 1989-08-23 Fuji Photo Film Co., Ltd. Verfahren zur Erkennung der Unterverteilungsmuster von Strahlungsbildern
US5054098A (en) * 1990-05-21 1991-10-01 Eastman Kodak Company Method of detecting the skew angle of a printed business form
US5568571A (en) * 1992-12-14 1996-10-22 University Microfilms, Inc. Image enhancement system
WO1995012271A1 (en) * 1993-10-25 1995-05-04 Visioneer, Inc. Method and apparatus for document skew and size/shape detection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7457010B2 (en) 2003-05-29 2008-11-25 Hewlett-Packard Development Company, L.P. System and method for fast scanning

Also Published As

Publication number Publication date
DE19700352A1 (de) 1998-07-09
EP0950311A1 (de) 1999-10-20
JP2000508460A (ja) 2000-07-04

Similar Documents

Publication Publication Date Title
DE19842572B4 (de) Verfahren zur automatischen Entfernung von Bildfehlern
DE4309878C2 (de) Verfahren und Einrichtung zur Analyse und Korrektur der Bildgradation in Bildvorlagen
DE4445386C1 (de) Verfahren und Vorrichtung zur Trennung einer Vordergrundinformation von einer Hintergrundinformation in einer Vorlage
DE4310727C2 (de) Verfahren und Einrichtung zur Analyse von Bildvorlagen
DE69629888T2 (de) Bildverarbeitungsverfahren und Bilderkennungs- und Pixelverarbeitungssystem
DE4309877C2 (de) Verfahren und Einrichtung zur Analyse von Farbstichen in Farbvorlagen
DE69926205T2 (de) Artefaktentfernungstechnik für schiefenkorrigierte bilder
DE3047633A1 (de) Verfahren zur automatischen bestimmung von farbeinstellbedingungen fuer ein reproduktionsbild
DE69925354T2 (de) Bildverarbeitungssystem um vertikale Muster auf abgetasteten Bildern zu reduzieren
DE10136423A1 (de) Kantenverbesserung von Graustufenbildern
DE19904997A1 (de) Automatische Farbausfällung unter Verwendung von Luminanz/Chrominanz-Zwischenraumverarbeitung
DE10137211A1 (de) Kantenverbesserungsprozessor und Verfahren mit einstellbarer Graustufenausgabe
DE4001613A1 (de) Binaerumsetzungsverfahren
DE19912511A1 (de) Verfahren zur Erzeugung von Überfüllungskonturen in einer Druckseite
DE4012364C2 (de)
DE19924143A1 (de) Apparat für Abschattungskorrektur in einem Bildaufnahmesystem und Verfahren dafür
EP0059705A1 (de) Verfahren und schaltungsanordnung zur partiellen korrektur der zeichnung bei der farbbildreproduktion.
DE3324736A1 (de) Eingabe-/ausgabesystem fuer die bilddarstellung
DE4309879C2 (de) Verfahren und Einrichtung zur Analyse des Bildumfangs von Bildvorlagen
DE10307941A1 (de) System und Verfahren zum automatischen Entrastern digitaler Abbildungen
WO1998031136A1 (de) Verfahren zur bestimmung der geometriedaten von abtastvorlagen
DE3521682A1 (de) Verfahren zum abtasten und aufzeichnen von bildern
EP0950311A1 (de) Verfahren zur bestimmung der geometriedaten des relevanten bildausschnitts
EP0978097B1 (de) Verfahren zur grössenänderung von strichelementen
DE4419395C2 (de) Verfahren und Einrichtung zur Analyse und Verarbeitung von Farbbildern

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1997953641

Country of ref document: EP

ENP Entry into the national phase

Ref country code: JP

Ref document number: 1998 530445

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 09341023

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1997953641

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 1997953641

Country of ref document: EP