DE10024028A1 - Combining sampled partial image data involves defining new image point grids in second partial image data based on second reference points corresponding to first image reference points - Google Patents

Combining sampled partial image data involves defining new image point grids in second partial image data based on second reference points corresponding to first image reference points

Info

Publication number
DE10024028A1
DE10024028A1 DE2000124028 DE10024028A DE10024028A1 DE 10024028 A1 DE10024028 A1 DE 10024028A1 DE 2000124028 DE2000124028 DE 2000124028 DE 10024028 A DE10024028 A DE 10024028A DE 10024028 A1 DE10024028 A1 DE 10024028A1
Authority
DE
Germany
Prior art keywords
image data
partial image
reference points
line
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE2000124028
Other languages
German (de)
Inventor
Joerg Olaf Von Wechgeln
Michael Hansen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heidelberger Druckmaschinen AG
Original Assignee
Heidelberger Druckmaschinen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heidelberger Druckmaschinen AG filed Critical Heidelberger Druckmaschinen AG
Priority to DE2000124028 priority Critical patent/DE10024028A1/en
Priority to PCT/DE2001/001755 priority patent/WO2001089199A1/en
Publication of DE10024028A1 publication Critical patent/DE10024028A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3876Recombination of partial images to recreate the original image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

The method involves determining first reference points (14) in the first partial image data (6) and corresponding second reference points (15) in the second partial image data (7), defining a new image point grid (18) in the second partial image data based on the second reference points, interpolating new image points in the new grid and combining the first image data and the new image points to form the total image data.

Description

Die Erfindung bezieht sich auf das Gebiet der elektronischen Reproduktionstech­ nik und betrifft ein Verfahren zum Zusammenfügen von Teilbilddaten, die durch mehrere optoelektronische Abtastungen einer Bildvorlage gewonnen werden. Durch das Zusammenfügen entstehen die Gesamtbilddaten der Bildvorlage.The invention relates to the field of electronic reproduction technology nik and relates to a method for merging sub-image data by several optoelectronic scans of an image template are obtained. The overall image data of the original image is created by merging.

In einem Scanner zur optoelektronischen Abtastung von Vorlagen, wie beispiels­ weise Bildern, Grafiken und Texten, werden die abzutastenden Vorlagen in elek­ trische Signale umgewandelt, die dann zur Verarbeitung in der elektronischen Re­ produktionstechnik weiter in digitale Daten konvertiert werden. Wenn es sich um einen Flachbettscanner handelt, sind die Vorlagen auf einem ebenen Vorlagenträ­ ger angeordnet, und ein optoelektronisches Abtastorgan tastet die Vorlagen pixel- und zeilenweise ab, wobei sich der Vorlagenträger und das Abtastorgan relativ zueinander bewegen. Das Abtastorgan weist im wesentlichen eine Lichtquelle zur zeilenweisen Beleuchtung der Vorlage, einen optoelektronischen Wandler, bei­ spielsweise eine CCD-Zeile, zur Umwandlung des von der Vorlage kommenden Abtastlichts in die Bildsignale sowie ein Abtastobjektiv zur scharfen Abbildung der Vorlage auf den optoelektronischen Wandler sowie zur Einstellung des Abbil­ dungsmaßstabs bei Vorlagen unterschiedlicher Größe bzw. zur Einstellung unter­ schiedlicher Abtastauflösungen auf. Ein derartiger Scanner ist beispielsweise aus DE 195 34 334 bekannt.In a scanner for optoelectronic scanning of documents, such as wise pictures, graphics and texts, the templates to be scanned are in elec trical signals converted for processing in the electronic Re production technology can be further converted into digital data. If it is is a flatbed scanner, the originals are on a flat document carrier arranged, and an optoelectronic scanning element scans the originals pixel- and line by line, the original carrier and the scanning element being relative move towards each other. The scanning element essentially has a light source line by line illumination of the template, an optoelectronic converter for example a CCD line to convert the one coming from the template Scanning light in the image signals and a scanning lens for sharp imaging of the Template on the optoelectronic converter and for setting the figil scale for templates of different sizes or for setting under different scanning resolutions. Such a scanner is out, for example DE 195 34 334 known.

Es gibt Flachbettscanner mit einem feststehenden Vorlagenträger und einem Ab­ tastorgan, das sich in der Nebenabtastrichtung, d. h. senkrecht zur Richtung der Abtastzeile (der Hauptabtastrichtung) an dem Vorlagenträger entlang bewegt. Die­ se Bauweise ist für sogenannte Desktop Scanner typisch. Es gibt aber auch Aus­ führungsformen, bei denen sich der Vorlagenträger an einem feststehenden Ab­ tastorgan entlang bewegt.There are flatbed scanners with a fixed original carrier and an Ab probe organ that is in the sub-scanning direction, d. H. perpendicular to the direction of the Scan line (the main scanning direction) moved along the original carrier. The This design is typical for so-called desktop scanners. But there is also Aus management forms, in which the original carrier is based on a fixed Ab probe moved along.

Die Abtastauflösung in Richtung der Abtastzeile ist von der Anzahl der Sensor­ elemente in der CCD-Zeile und von der jeweiligen Vorlagenbreite in Richtung der Abtastzeile abhängig. Bei preiswerten Scannern ist das Abtastorgan üblicherweise so ausgelegt, daß die gesamte Breite des Vorlagenträgers auf die CCD-Zeile ab­ gebildet wird. Daraus ergibt sich eine feste Auflösung des Scanners für alle Vorla­ gen. Wenn Vorlagen abgetastet werden, die nicht die gesamte Breite des Vorla­ genträgers ausfüllen, wird die Vorlage nur auf einen Teil der Sensorelemente in der CCD-Zeile abgebildet. Die Abtastauflösung senkrecht zur Richtung der Abtast­ zeile wird durch die Relativgeschwindigkeit zwischen Vorlage und Abtastorgan be­ stimmt.The scanning resolution in the direction of the scanning line depends on the number of sensors elements in the CCD line and from the respective template width in the direction of  Dependent on the scanning line. The scanning element is usually used in inexpensive scanners designed so that the entire width of the document carrier depends on the CCD line is formed. This results in a fixed resolution of the scanner for all templates When scanning originals that are not the full width of the original fill in the carrier, the template is only applied to part of the sensor elements the CCD line. The scan resolution perpendicular to the direction of the scan line will be by the relative speed between the original and scanning organ Right.

Bei aufwendigeren Scannern läßt sich die Abtastauflösung in Richtung der Abtast­ zeile durch den Abbildungsmaßstab variieren, indem das Abtastobjektiv die jewei­ lige Vorlagenbreite vollständig und mit optimaler Bildschärfe auf die CCD-Zeile abbildet. Damit können kleinere Vorlagenbreiten mit höherer Auflösung abgetastet werden als größere Vorlagenbreiten. Die maximal einstellbare Abtastauflösung ergibt sich aus der Zahl der Sensorelemente in der CCD-Zeile dividiert durch die Vorlagenbreite. Zur Änderung der Abtastauflösung in Zeilenrichtung können die Bildweite, d. h. der Abstand zwischen CCD-Zeile und Abtastobjektiv, und die Ge­ genstandsweite, d. h. der Abstand zwischen Abtastobjektiv und Vorlage, eingestellt werden, indem das Abtastobjektiv mit einer festen Brennweite und/oder die CCD- Zeile verschoben werden oder Abtastobjektive mit unterschiedlichen Brennweiten in den Strahlengang eingeschwenkt werden. Nachteilig ist jedoch, daß große Vor­ lagen nicht mit einer hohen Auflösung abgetastet werden können. Eine hohe Ab­ tastauflösung in Verbindung mit einer großformatigen Vorlage ist beispielsweise erforderlich, wenn bereits gerasterte Farbauszugsfilme von fertigen Druckseiten abgetastet werden sollen, um sie in Form von digitalen Bilddaten in einem elektro­ nischen Reproduktionssystem zu verarbeiten.With more complex scanners, the scanning resolution can be in the direction of the scanning line vary by the magnification by the scanning lens the respective The original width of the original is complete and with optimal image sharpness on the CCD line depicts. This enables smaller original widths to be scanned with a higher resolution are as larger template widths. The maximum adjustable scan resolution results from the number of sensor elements in the CCD line divided by the Original width. To change the scanning resolution in the line direction, the Image range, d. H. the distance between the CCD line and the scanning lens, and the Ge object-wide, d. H. the distance between the scanning lens and the original by using the fixed focal length scanning lens and / or the CCD Line shifted or scanning lenses with different focal lengths be pivoted into the beam path. The disadvantage, however, is that big could not be scanned with a high resolution. A high ab For example, tactile resolution in connection with a large format template Required if color separation films of finished printed pages are already screened are to be scanned in the form of digital image data in an electro processing system.

Zur Lösung dieses Problems ist in noch aufwendigeren Scannern vorgesehen, das Abtastorgan nicht nur senkrecht zur Richtung der Abtastzeilen zu bewegen son­ dern auch in der Richtung der Abtastzeilen. Damit kann eine großformatige Vorla­ ge in mehreren Abtastvorgängen spaltenweise abgetastet werden. Nachdem die erste Spalte abgetastet ist, wird das Abtastorgan in Richtung der Abtastzeile um die Spaltenbreite verschoben, und die zweite Spalte wird abgetastet, usw. Für die einzelnen Spaltenabtastungen kann der Abbildungsmaßstab so eingestellt wer­ den, daß jeweils die Spaltenbreite auf die gesamte CCD-Zeile abgebildet wird. Auf diese Weise kann auch eine großformatige Vorlage mit hoher Auflösung abgetas­ tet werden. Ein solcher Scanner ist beispielsweise aus EP 0 833 493 bekannt.To solve this problem, even more complex scanners provide that Moving the scanning element not only perpendicular to the direction of the scanning lines also in the direction of the scan lines. This allows a large format template ge can be scanned column by column in several scans. after the the first column is scanned, the scanning element is moved in the direction of the scanning line the column width is shifted and the second column is scanned, etc. For the  For individual column scans, the imaging scale can be set as such that the column width is mapped to the entire CCD line. On In this way, a large format original can be scanned at high resolution be tested. Such a scanner is known for example from EP 0 833 493.

Die durch die Abtastung der einzelnen Spalten gewonnenen Teilbilddaten müssen elektronisch zu einem gesamten Bild zusammengefügt werden. Das geschieht nach dem Stand der Technik, indem die Teilbilddaten zeilenweise in eine Datei der Gesamtbilddaten umkopiert werden. Fig. 1 zeigt dazu die Abtastung eines Aus­ schnitts einer Vorlage (2), die auf einen Vorlagenträger (1) montiert ist, in einer ersten Spalte (3) und einer zweiten Spalte (4). Zweckmäßigerweise wird das Ab­ tastorgan zur Abtastung der zweiten Spalte (4) um weniger als die Spaltenbreite verschoben, so daß am rechten Rand der ersten Spalte (3) und am linken Rand der zweiten Spalte (4) ein Überlappungsbereich (5) entsteht. Fig. 2 zeigt die bei der Abtastung der Spalten gewonnenen Teilbilddaten (6) für die erste Spalte und (7) für die zweite Spalte. Im Überlappungsbereich wird eine Nahtlinie (8) definiert, an der die Teilbilddaten zu den Gesamtbilddaten (9) zusammengefügt werden sollen. Eine Zeile (10) der Gesamtbilddaten (9) wird dann durch Zusammenfügen eines Zeilenstücks (11) aus den ersten Teilbilddaten (6) und eines Zeilenstücks (12) aus den zweiten Teilbilddaten (7) gebildet. Das Zeilenstück (11) beginnt am linken Rand der ersten Teilbilddaten (6) und endet an der Nahtlinie (8), und das Zeilenstück (12) beginnt an der Nahtlinie (8) und endet am rechten Rand der zweiten Teilbilddaten (12). Die Länge und Position der zu entnehmenden Zeilen­ stücke (11) und (12) kann in naheliegender Weise aus den Spaltenbreiten, der Festlegung der Nahtlinie (8) im Überlappungsbereich (5) und der Verschiebung der zweiten Spalte (4) gegenüber der ersten Spalte (3) berechnet werden.The partial image data obtained by scanning the individual columns must be electronically combined to form an entire image. According to the prior art, this is done by copying the partial image data line by line into a file of the overall image data. Fig. 1 shows the scanning of a section of a template ( 2 ) which is mounted on a template carrier ( 1 ) in a first column ( 3 ) and a second column ( 4 ). Advantageously, the scanning organ is moved to scan the second column ( 4 ) by less than the column width, so that an overlap area ( 5 ) is formed on the right edge of the first column ( 3 ) and on the left edge of the second column ( 4 ). FIG. 2 shows the partial image data ( 6 ) for the first column and ( 7 ) for the second column obtained during the scanning of the columns. A seam line ( 8 ) is defined in the overlap area on which the partial image data are to be combined to form the overall image data ( 9 ). A line ( 10 ) of the total image data ( 9 ) is then formed by combining a line segment ( 11 ) from the first partial image data ( 6 ) and a line segment ( 12 ) from the second partial image data ( 7 ). The line segment ( 11 ) begins at the left edge of the first partial image data ( 6 ) and ends at the seam line ( 8 ), and the line segment ( 12 ) begins at the seam line ( 8 ) and ends at the right edge of the second partial image data ( 12 ). The length and position of the rows to be removed ( 11 ) and ( 12 ) can be taken from the column widths, the definition of the seam line ( 8 ) in the overlap area ( 5 ) and the displacement of the second column ( 4 ) relative to the first column ( 3 ) can be calculated.

Dieses einfache Zusammenfügen von Teilbilddaten nach dem Stand der Technik hat den Nachteil, daß mechanische und optische Einbautoleranzen von Teilen des Abtastorgans sowie Toleranzen bei der Bewegung des Abtastorgans während der Abtastung nicht berücksichtigt werden. Solche Toleranzen führen dazu, daß die Teilbilddaten an der Nahtlinie (8) nicht exakt zusammenpassen. Diese Fehler ma­ chen sich besonders bei hoher Auflösung störend bemerkbar.This simple combination of partial image data according to the prior art has the disadvantage that mechanical and optical installation tolerances of parts of the scanning element and tolerances in the movement of the scanning element during the scanning are not taken into account. Such tolerances mean that the drawing data on the seam line ( 8 ) do not match exactly. These errors are particularly noticeable at high resolution.

Aufgabe der vorliegenden Erfindung ist es daher, die durch mechanische und opti­ sche Toleranzen entstehenden Passerfehler beim Zusammenfügen der Teilbild­ daten auszugleichen und Gesamtbilddaten zu erzeugen, in denen keine sichtba­ ren Fehler enthalten sind.The object of the present invention is therefore that by mechanical and opti cal tolerances resulting from register errors when joining the drawing file equalize data and generate overall image data in which no visible errors are included.

Die Erfindung wird nachfolgend anhand der Fig. 1 bis 10 näher erläutert.The invention is explained in more detail below with reference to FIGS. 1 to 10.

Es zeigen:Show it:

Fig. 1 die Abtastung einer Vorlage in zwei Spalten, Fig. 1, the scanning of an original in two columns,

Fig. 2 das Zusammenfügen von Teilbilddaten zu Gesamtbilddaten nach dem Stand der Technik, Fig. 2 shows the integration of sub-picture data to picture data according to the prior art,

Fig. 3 die Entstehung eines Passerfehlers durch eine Schiefstellung der CCD-Zeile, Fig. 3 shows the formation to a misaligned by a misalignment of the CCD line,

Fig. 4 einander entsprechende Bezugspunkte im Überlappungsbereich der Teil­ bilddaten, Fig. 4 corresponding reference points in the overlapping region of the partial image data,

Fig. 5 das Prinzip des erfindungsgemäßen Ausgleichs von Passerfehlern, Fig. 5 illustrates the principle of balancing the invention of register errors,

Fig. 6 eine Anordnung von horizontalen Suchmustern und Suchbereichen, Fig. 6 shows an arrangement of horizontal search patterns and search areas,

Fig. 7 eine vergrößerte Ansicht eines horizontalen Suchmusters und Suchbe­ reichs, Fig. 7 is an enlarged view of a kingdom horizontal search pattern and Suchbe,

Fig. 8 die Interpolation von Korrelationskoeffizienten mit einem Polynom, Fig. 8 shows the interpolation of correlation coefficients by a polynomial,

Fig. 9 eine Anordnung von vertikalen Suchmustern und Suchbereichen, und Fig. 9 shows an arrangement of vertical search patterns and search areas, and

Fig. 10 die Definition eines Bildpunktgitters in einem Teilabschnitt der zweiten Teilbilddaten. Fig. 10 defining a pixel grid in a partial section of the second partial image data.

Fig. 3 zeigt ein Beispiel für die Entstehung eines Passerfehlers beim Zusammen­ fügen der Daten, wenn infolge von Einbautoleranzen die CCD-Zeile gegenüber der Bewegungsrichtung (Pfeilrichtung) des Abtastorgans beim Abtasten der ersten Spalte (3) und der zweiten Spalte (4) etwas schief gestellt ist. Zur Veranschauli­ chung ist in Fig. 3 die Schiefstellung stark übertrieben eingezeichnet worden. Es wird deutlich, daß im Überlappungsbereich (5) das Ende der Zeile i in der ersten Spalte (3) und der Anfang der Zeile i in der zweiten Spalte (4) nicht die gleiche Bildinformation enthalten. Die Fortsetzung der Zeile i in der ersten Spalte (3) be­ findet sich in der zweiten Spalte (4) in einer davor liegenden Zeile j. Für die Teil­ bilddaten bedeutet das, daß ein bestimmtes Zeilenstück (13) einerseits am Ende der Zeile i in den ersten Teilbilddaten (6) und andererseits am Anfang der Zeile j in den zweiten Teilbilddaten (7) zu finden ist. Fig. 3 shows an example of the occurrence of a registration error when joining the data if, as a result of installation tolerances, the CCD line is somewhat crooked relative to the direction of movement (arrow direction) of the scanning element when scanning the first column ( 3 ) and the second column ( 4 ) is posed. For illustration, the misalignment has been drawn in a greatly exaggerated manner in FIG. 3. It is clear that in the overlap area ( 5 ) the end of line i in the first column ( 3 ) and the beginning of line i in the second column ( 4 ) do not contain the same image information. The continuation of row i in the first column ( 3 ) be found in the second column ( 4 ) in a row j in front of it. For the partial image data, this means that a certain line segment ( 13 ) can be found on the one hand at the end of line i in the first partial image data ( 6 ) and on the other hand at the beginning of line j in the second partial image data ( 7 ).

Gegenüber der stark vereinfachten Darstellung und Erläuterung von Fig. 3 werden die einander entsprechenden Bilddaten im Überlappungsbereich (5) bei einem re­ alen Abtastsystem vertikal nicht um ganze Zeilen verschoben sondern auch um Bruchteile einer Zeilenhöhe. Darüber hinaus gibt es infolge von weiteren mechani­ schen und optischen Toleranzen auch horizontale Verschiebungen der einander entsprechenden Bilddaten im Überlappungsbereich (5), ebenfalls um Bruchteile einer Bildpunktbreite. Ferner sind im allgemeinen diese horizontalen und vertikalen Passerfehler nicht konstant während der Bewegung des Abtastorgans beim Ab­ tasten einer Spalte, sondern ändern sich im Überlappungsbereich (5) entlang der Nahtlinie (8).Compared to the highly simplified illustration and discussion of Fig. 3, the mutually corresponding image data is not displaced vertically in the overlapping area (5) at a re alen scanning to complete lines but also by fractions of a line height. In addition, there are also horizontal shifts of the corresponding image data in the overlap area ( 5 ) due to further mechanical and optical tolerances, also by fractions of a pixel width. Furthermore, in general, these horizontal and vertical registration errors are not constant during the movement of the scanning element when scanning a column, but change in the overlap region ( 5 ) along the seam line ( 8 ).

Fig. 4 zeigt diese allgemeine Situation der Passerfehler im Überlappungsbereich (5) der Teilbilddaten. Die ersten Teilbilddaten (6) sind hier als Bezugssystem an­ genommen worden. Auf der Nahtlinie (8) der ersten Teilbilddaten (6) sind außer­ dem erste Bezugspunkte (14) angenommen worden. Wie zuvor erläutert, sind die den ersten Bezugspunkten (14) entsprechenden zweiten Bezugspunkte (15) in den zweiten Teilbilddaten (7) durch die Passerfehler horizontal und vertikal ver­ schoben, so daß sie sich dort auf einer neuen gekrümmten Nahtlinie (16) befin­ den. Fig. 4 shows this general situation of the registration errors in the overlap area ( 5 ) of the partial image data. The first partial image data ( 6 ) have been adopted here as a reference system. In addition to the first reference points ( 14 ), the seam line ( 8 ) of the first partial image data ( 6 ) has been adopted. As previously explained, the second reference points ( 15 ) corresponding to the first reference points ( 14 ) in the second partial image data ( 7 ) are shifted horizontally and vertically by the registration errors, so that they are there on a new curved seam line ( 16 ).

Fig. 5 zeigt das Prinzip des erfindungsgemäßen Verfahrens zum Ausgleich der Passerfehler. Die Darstellung zeigt einen horizontalen Streifen der ersten und zweiten Teilbilddaten (6) und (7), dessen Höhe etwa dem vertikalen Abstand zwi­ schen zwei ersten Bezugspunkten (14) entspricht, wobei das Gitter der Bildpunkte stark vergröbert dargestellt ist. Zunächst werden die Positionen der den ersten Bezugspunkten (14) entsprechenden zweiten Bezugspunkte (15) durch Korrelation der im Überlappungsbereich (5) vorhandenen ersten Teilbilddaten (6) und zweiten Teilbilddaten (7) ermittelt. Dann wird die gekrümmte Nahtlinie (16) durch Gera­ denstücke zwischen jeweils zwei benachbarten zweiten Bezugspunkten (15) an­ genähert. Das Geradenstück (17) zwischen zwei benachbarten zweiten Bezugs­ punkten (15) bildet eine Begrenzung eines neuen Bildpunktgitters (18) in den zweiten Teilbilddaten (7), das gegenüber dem ursprünglichen Bildpunktgitter (19) geometrisch verzerrt ist, d. h. gedreht und gedehnt bzw. gestaucht ist. Das neue Bildpunktgitter (18) wird dabei so gewählt, daß in den zweiten Teilbilddaten (7) entlang des Geradenstücks (17) die gleiche Anzahl von Zeilen enthalten ist wie in den ersten Teilbilddaten (6) entlang der Verbindungslinie zwischen den ersten Be­ zugspunkten (14). Fig. 5 shows the principle of the inventive method for balancing the registration error. The illustration shows a horizontal strip of the first and second partial image data ( 6 ) and ( 7 ), the height of which corresponds approximately to the vertical distance between two first reference points ( 14 ), the grid of the pixels being shown in a grossly coarsened manner. First, the positions of the second reference points ( 15 ) corresponding to the first reference points ( 14 ) are determined by correlating the first partial image data ( 6 ) and second partial image data ( 7 ) present in the overlap area ( 5 ). Then the curved seam line ( 16 ) is approximated by straight pieces between two adjacent second reference points ( 15 ). The line segment ( 17 ) between two adjacent second reference points ( 15 ) forms a boundary of a new pixel grid ( 18 ) in the second partial image data ( 7 ), which is geometrically distorted compared to the original pixel grid ( 19 ), ie rotated and stretched or compressed is. The new pixel grid ( 18 ) is selected so that the same number of lines is contained in the second partial image data ( 7 ) along the straight line segment ( 17 ) as in the first partial image data ( 6 ) along the connecting line between the first reference points ( 14 ).

An den Positionen der Bildpunkte im neuen Bildpunktgitter (18) werden aus den benachbarten Bildpunkten des ursprünglichen Bildpunktgitters (19) neue Bild­ punktdaten interpoliert (in Fig. 5 mit kleinen Quadraten gekennzeichnet). Dazu wird ein beliebiges Interpolationsverfahren verwendet, beispielsweise die bilineare oder die bikubische Interpolation. Die interpolierten Bildpunkte aus den zweiten Teilbilddaten (7) werden dann mit den ursprünglichen Bildpunkten aus den ersten Teilbilddaten (6) (in Fig. 5 mit kleinen Kreisen gekennzeichnet) zeilenweise zu den Gesamtbilddaten (9) zusammengefügt. Die Übergangsstelle zwischen den Bild­ punkten aus den ersten Teilbilddaten (6) und den interpolierten Bildpunkten aus den zweiten Teilbilddaten (7) muß nicht, wie in Fig. 5 gezeichnet, genau an der Nahtlinie (8) erfolgen. Der Übergang kann auch eine beliebige Zahl von Bildpunk­ ten links oder rechts von der Nahtlinie (8) erfolgen, solange sich die Übergangs­ stelle noch im Überlappungsbereich (5) befindet. Die Übergangsstelle kann bei­ spielsweise auch von Zeile zu Zeile in den Gesamtbilddaten (9) durch einen Zu­ fallswert variiert werden. Die Nahtlinien (8) bzw. (16) müssen also nicht den Ort des Übergangs zwischen den Teilbilddaten angeben. Sie dienen lediglich dazu, die geometrischen Parameter der Passerfehler zu bestimmen und durch die stückweise Anpassung der Geometrie die Passerfehler in den zusammengefügten Gesamtbilddaten (9) auszugleichen. Im folgenden werden die Schritte des erfin­ dungsgemäßen Ausgleichsverfahrens für die Passerfehler im Detail erläutert. At the positions of the pixels in the new pixel grid ( 18 ), new pixel data are interpolated from the neighboring pixels of the original pixel grid ( 19 ) (marked with small squares in FIG. 5). Any interpolation method is used for this, for example bilinear or bicubic interpolation. The interpolated pixels from the second partial image data ( 7 ) are then combined with the original pixels from the first partial image data ( 6 ) (marked with small circles in FIG. 5) to form the total image data ( 9 ). The transition point between the image points from the first partial image data ( 6 ) and the interpolated image points from the second partial image data ( 7 ) does not have to take place exactly at the seam line ( 8 ), as shown in FIG. 5. The transition can also be any number of pixels to the left or right of the seam line ( 8 ), as long as the transition point is still in the overlap area ( 5 ). The transition point can, for example, also be varied from line to line in the overall image data ( 9 ) by a random value. The seam lines ( 8 ) and ( 16 ) therefore do not have to indicate the location of the transition between the partial image data. They only serve to determine the geometric parameters of the registration errors and to compensate for the registration errors in the combined overall image data ( 9 ) by piece-wise adaptation of the geometry. The steps of the compensation method according to the invention for the registration errors are explained in detail below.

Zunächst werden im Überlappungsbereich (5) der ersten und zweiten Teilbilddaten (6) und (7) die Positionen einander entsprechender erster Bezugspunkte (14) und zweiter Bezugspunkte (15) gesucht. Das geschieht durch Berechnung und Maxi­ mierung der Korrelation zwischen dem rechten Rand der ersten Teilbilddaten (6) und dem linken Rand der zweiten Teilbilddaten (7). In einer bevorzugten Ausfüh­ rungsform der Erfindung werden die horizontalen und die vertikalen Positionen der ersten Bezugspunkte (14) und der zweiten Bezugspunkte (15) getrennt bestimmt.First, the positions of corresponding first reference points ( 14 ) and second reference points ( 15 ) are searched for in the overlap area ( 5 ) of the first and second partial image data ( 6 ) and ( 7 ). This is done by calculating and maximizing the correlation between the right edge of the first field data ( 6 ) and the left edge of the second field data ( 7 ). In a preferred embodiment of the invention, the horizontal and vertical positions of the first reference points ( 14 ) and the second reference points ( 15 ) are determined separately.

Fig. 6 zeigt eine Anordnung von horizontalen Suchmustern (20) am rechten Rand der ersten Teilbilddaten (6) und zugeordneten Suchbereichen (21) am linken Rand der zweiten Teilbilddaten (7) zur Bestimmung der horizontalen Positionen der ersten Bezugspunkte (14) bzw. der zweiten Bezugspunkte (15). Als Suchmuster (20) werden in beliebigen vertikalen Abständen Abschnitte aus einer Zeile im Ü­ berlappungsbereich (5) der ersten Teilbilddaten (6) gewählt, beispielsweise Ab­ schnitte von jeweils 50 Bildpunkten. Der Startpunkt des Suchmusters (20) wird beispielsweise als erster Bezugspunkt (14) festgelegt. Als zugeordnete Suchberei­ che (21) werden Ausschnitte aus den zweiten Teilbilddaten (7) gewählt, die meh­ rere Zeilen und auch mehr Bildpunkte je Zeile umfassen und die die erwartete Po­ sition des jeweils zugehörigen zweiten Bezugspunkts (15) einschließen, beispiels­ weise Ausschnitte von jeweils 5 Zeilen × 70 Bildpunkten. Fig. 6 shows an arrangement of horizontal search patterns (20) at the right edge of the first sub-picture data (6) and associated search areas (21) at the left edge of the second partial image data (7) for determining the horizontal positions of the first reference points (14) or the second reference points ( 15 ). Sections from a line in the overlap area ( 5 ) of the first partial image data ( 6 ) are selected as search patterns ( 20 ) at arbitrary vertical intervals, for example sections of 50 pixels each. The starting point of the search pattern ( 20 ) is set, for example, as the first reference point ( 14 ). As assigned search areas ( 21 ), sections from the second partial image data ( 7 ) are selected, which comprise several lines and also more pixels per line and which include the expected position of the respectively associated second reference point ( 15 ), for example sections of each 5 lines × 70 pixels.

Fig. 7 zeigt in einem Ausschnitt ein Suchmuster (20) in den ersten Teilbilddaten (6) und den zugeordneten Suchbereich (21) in den zweiten Teilbilddaten (7). Im Suchbereich (21) wird ein Fenster (22) von der Größe des Suchmusters (20) in jeder Zeile des Suchbereichs (21) Bildpunkt für Bildpunkt verschoben. In jeder Po­ sition des Fensters (22) wird aus den Bilddaten fi im Suchmuster (20) und den Bilddaten gi+d im Fenster (22) des Suchbereichs (21) der Korrelationskoeffizient r(d) bestimmt. Der Parameter d gibt die Verschiebung des Fensters (22) in der Zeile des Suchbereichs (21) an. Fig. 7 shows in a section a search pattern (20) in the first sub-picture data (6) and the associated search area (21) in the second sub-picture data (7). In the search area ( 21 ), a window ( 22 ) the size of the search pattern ( 20 ) is moved pixel by pixel in each line of the search area ( 21 ). In each position of the window ( 22 ), the correlation coefficient r (d) is determined from the image data f i in the search pattern ( 20 ) and the image data g i + d in the window ( 22 ) of the search area ( 21 ). The parameter d specifies the displacement of the window ( 22 ) in the line of the search area ( 21 ).

In der Gleichung (1) ist fm der Mittelwert der Bildpunkte im Suchmuster (20) und gm der Mittelwert der Bildpunkte im Fenster (22). In jeder Zeile des Suchbereichs (21) wird das Maximum rmax und die zugehörige Fensterposition dmax bestimmt.In equation (1), f m is the mean value of the pixels in the search pattern ( 20 ) and g m is the mean value of the pixels in the window ( 22 ). The maximum rmax and the associated window position dmax are determined in each line of the search area ( 21 ).

Da die Fensterposition dmax die mögliche horizontale Position des zweiten Be­ zugspunkts (15) nur auf einen Bildpunkt genau angibt, werden nach einer bevor­ zugten Ausführungsform der Erfindung die Korrelationskoeffizienten an den Fensterpositionen dmax - 1, dmax und dmax + 1 durch ein Polynom zweiten Grades interpoliert, und es wird die genaue Position d_bezug bestimmt, an der der Maxi­ mum-Extremwert des Polynoms liegt. Dies ist in Fig. 8 gezeigt.Since the window position dmax only specifies the possible horizontal position of the second reference point ( 15 ) precisely to one pixel, the correlation coefficients at the window positions dmax - 1, dmax and dmax + 1 are interpolated by a second degree polynomial according to a preferred embodiment of the invention , and the exact position d_relation is determined, at which the maximum extreme value of the polynomial lies. This is shown in Figure 8.

Nachdem in jeder Zeile des Suchbereichs (21) die genaue Position d_bezug be­ stimmt worden ist, wird nach einer bevorzugten Ausführungsform der Erfindung der Medianwert dieser Positionen ermittelt und als horizontale Position des zwei­ ten Bezugspunkts (15) gespeichert. Um die Berechnung der genauen Positionen d_bezug sicherer zu machen, wird nach einer bevorzugten Ausführungsform der Erfindung vor der Berechnung des Korrelationskoeffizienten r(d) geprüft, ob im Suchmuster (20) und im Fenster (22) eine ausreichend hohe Signalstruktur vor­ handen ist. Dazu wird die mittlere quadratische Abweichung der Bildpunktgrau­ werte sowohl im Suchmuster (20) als auch im Fenster (22) berechnet. Wenn sie unter einer Schwelle T1 von beispielsweise 1 Graustufe/Bildpunkt liegen, wird die Fensterposition nicht für die weitere Berechnung berücksichtigt. Liegt die mittlere quadratische Abweichung im Suchmuster (20) unter der Schwelle, so wird eine neue Position des Suchmusters gewählt. Für eine ausreichende Signalstruktur muß also die folgende Bedingung erfüllt sein.After the exact position d_relationship has been determined in each line of the search area ( 21 ), the median value of these positions is determined according to a preferred embodiment of the invention and stored as the horizontal position of the second reference point ( 15 ). In order to make the calculation of the exact positions d_related more reliable, according to a preferred embodiment of the invention, before the correlation coefficient r (d) is calculated, it is checked whether a sufficiently high signal structure is present in the search pattern ( 20 ) and in the window ( 22 ). For this purpose, the mean square deviation of the pixel gray values is calculated both in the search pattern ( 20 ) and in the window ( 22 ). If they are below a threshold T1 of, for example, 1 gray level / pixel, the window position is not taken into account for the further calculation. If the mean square deviation in the search pattern ( 20 ) is below the threshold, a new position of the search pattern is selected. The following condition must therefore be met for a sufficient signal structure.

Zur Stabilisierung der Ergebnisse werden nach einer weiteren bevorzugten Aus­ führungsform der Erfindung zur Bestimmung der genauen Position d_bezug nur Korrelationskoeffizienten rmax herangezogen, die eine Schwelle T2 überschreiten, z. B. rmax < 0,95.To stabilize the results, according to a further preferred Aus embodiment of the invention for determining the exact position d_relation only Correlation coefficients rmax are used which exceed a threshold T2, e.g. B. rmax <0.95.

Nachdem für jeden zweiten Bezugspunkt (15) in der beschriebenen Weise die ge­ naue horizontale Position d_bezug ermittelt worden ist, wird die genaue vertikale Position der zweiten Bezugspunkte (15) nach dem gleichen Verfahren berechnet. Fig. 9 zeigt dazu eine Anordnung von vertikalen Suchmustern (23) am rechten Rand der ersten Teilbilddaten (6) und zugeordneten Suchbereichen (24) am linken Rand der zweiten Teilbilddaten (7). Als Suchmuster (23) werden senkrechte Streifen, die einen Bildpunkt breit sind, im Überlappungsbereich (5) der ersten Teilbilddaten (6) gewählt, beispielsweise Streifen von jeweils 50 Zeilen Höhe. Als zugeordnete Suchbereiche (24) werden senkrechte Ausschnitte aus den zweiten Teilbilddaten (7) gewählt, die mehrere Bildpunkte breit sind und auch höher als die Suchmuster (23) sind und die die erwartete Position des jeweils zugehörigen zweiten Bezugspunkts (15) einschließen, beispielsweise Ausschnitte von jeweils 5 Bildpunkten × 70 Zeilen. Die genaue horizontale und vertikale Position der zweiten Bezugspunkte (15) wird dann zur Approximation der gekrümmten Nahtlinie (16) durch Geradenstücke (17) zwischen jeweils zwei benachbarten zweiten Bezugs­ punkten (15) herangezogen.After the precise horizontal position d_relationship has been determined for every second reference point ( 15 ) in the manner described, the exact vertical position of the second reference points ( 15 ) is calculated using the same method. Fig. 9 shows to an array of vertical search patterns (23) at the right edge of the first sub-picture data (6) and associated search areas (24) at the left edge of the second partial image data (7). Vertical stripes, which are one pixel wide, in the overlap area ( 5 ) of the first partial image data ( 6 ) are selected as the search pattern ( 23 ), for example stripes each 50 lines high. As the assigned search areas ( 24 ), vertical sections from the second partial image data ( 7 ) are selected which are several pixels wide and also higher than the search patterns ( 23 ) and which include the expected position of the associated second reference point ( 15 ), for example sections of 5 pixels × 70 lines each. The exact horizontal and vertical position of the second reference points ( 15 ) is then used to approximate the curved seam line ( 16 ) through straight lines ( 17 ) between two adjacent second reference points ( 15 ).

Fig. 10 zeigt noch einmal im Detail die Bildung des Bildpunktgitters (18) der zu in­ terpolierenden Bildpunkte in den zweiten Teilbilddaten (7) nach einer bevorzugten Ausführungsform der Erfindung. Es ist ein Ausschnitt mit drei benachbarten zwei­ ten Bezugspunkten (15) dargestellt. Die oberen beiden Bezugspunkte (15) sind durch das Geradenstück (25) und die unteren beiden Bezugspunkte (15) durch das Geradenstück (26) verbunden. Im obersten Bezugspunkt (15) wird durch eine Senkrechte (27) auf das Geradenstück (25) die Zeilenrichtung für den oberen Teilabschnitt des neuen Bildpunktgitters (18) festgelegt. Im mittleren Bezugspunkt (15) wird entsprechend durch eine Senkrechte (28) auf das Geradenstück (26) die Zeilenrichtung für den unteren Teilabschnitt des neuen Bildpunktgitters (18) festgelegt. Die Senkrechten (27) und (28) treffen im Punkt (29) bzw. (30) auf den rechten Rand der zweiten Teilbilddaten (7). Entsprechend der benötigten Zeilen­ zahl im oberen Teilabschnitt wird auf dem Geradenstück (25) und auf der Verbin­ dungslinie zwischen den Punkten (29) und (30) die erforderliche Zahl von Bild­ punkten gleichmäßig verteilt. Ebenso wird auf den Senkrechten (27) und (28) die benötigte Zahl von Bildpunkten je Zeile gleichmäßig verteilt. Nach der Verteilung der Bildpunkte auf den äußeren Begrenzungen des oberen Teilabschnitts ergeben sich die Orte aller Bildpunkte im neuen Bildpunktgitter (18) durch lineare Interpola­ tion der Bildpunktkoordinaten auf den Begrenzungen. Für jedes Geradenstück zwischen zwei benachbarten Bezugspunkten (15) wird auf diese Weise ein sepa­ rater Teilabschnitt mit einem jeweils angepaßten neuen Bildpunktgitter (18) defi­ niert. Fig. 10 shows the formation again in detail the pixel grid (18) to be in terpolierenden pixels in the second sub-picture data (7) according to a preferred embodiment of the invention. A section with three adjacent two reference points ( 15 ) is shown. The upper two reference points ( 15 ) are connected by the straight piece ( 25 ) and the lower two reference points ( 15 ) by the straight piece ( 26 ). In the uppermost reference point ( 15 ), the line direction for the upper section of the new pixel grid ( 18 ) is defined by a perpendicular ( 27 ) to the straight line piece ( 25 ). In the middle reference point ( 15 ), the line direction for the lower section of the new pixel grid ( 18 ) is correspondingly determined by a perpendicular ( 28 ) on the line segment ( 26 ). The perpendiculars ( 27 ) and ( 28 ) meet at points ( 29 ) and ( 30 ) on the right edge of the second partial image data ( 7 ). According to the required number of lines in the upper section, the required number of pixels is evenly distributed on the straight line ( 25 ) and on the connecting line between points ( 29 ) and ( 30 ). Likewise, the required number of pixels per line is evenly distributed on the vertical ( 27 ) and ( 28 ). After the distribution of the pixels on the outer boundaries of the upper section, the locations of all pixels in the new pixel grid ( 18 ) result from linear interpolation of the pixel coordinates on the boundaries. For each line segment between two adjacent reference points ( 15 ), a separate section with a respectively adapted new pixel grid ( 18 ) is defined in this way.

In der vorangegangenen Beschreibung der vorliegenden Erfindung wurde zur Ver­ einfachung und besseren Veranschaulichung angenommen, daß die ersten Teil­ bilddaten (6) ohne Toleranzen abgetastet wurden, so daß sich eine gerade Nahtli­ nie (8) ergibt, und daß die zweiten Teilbilddaten (7) mit Passerfehlern behaftet sind, woraus sich eine gekrümmte Nahtlinie (16) ergibt (Fig. 4). Deshalb werden die zweiten Teilbilddaten (7) nach dem erfindungsgemäßen Verfahren durch Inter­ polation von neuen Bildpunkten an die ersten Teilbilddaten (6) angepaßt. Das Verfahren kann auch umgekehrt angewendet werden, d. h. in den ersten Teilbild­ daten (6) werden neue Bildpunkte interpoliert, um sie an die zweiten Teilbilddaten (7) anzupassen. In der Praxis sind aber sowohl die ersten Teilbilddaten (6) als auch die zweiten Teilbilddaten (7) mit Fehlern durch mechanische und optische Toleranzen behaftet. Um diese Tatsache zu berücksichtigen und da es nur darauf ankommt, die relativen Passerfehler der Teilbilddaten zueinander auszugleichen, werden nach einer weiteren bevorzugten Ausführungsform der Erfindung die er­ mittelten Passerfehler, d. h. die Winkel- und Längenabweichungen von einander entsprechenden Geradenstücken zwischen benachbarten Bezugspunkten (14) bzw. (15) auf die ersten Teilbilddaten (6) und die zweiten Teilbilddaten (7) verteilt und in beiden Teilbilddaten sich daraus ergebende neue Bildpunktgitter (18) defi­ niert und neue Bildpunkte interpoliert. Damit erhält man eine noch bessere und gleichmäßigere Bildqualität der Gesamtbilddaten (9).In the foregoing description of the present invention, for the sake of simplicity and better illustration, it was assumed that the first partial image data ( 6 ) were scanned without tolerances, so that there was never a straight seam ( 8 ), and that the second partial image data ( 7 ) with Registration errors are afflicted, which results in a curved seam line ( 16 ) ( Fig. 4). Therefore, the second partial image data ( 7 ) are adapted to the first partial image data ( 6 ) by interpolation of new pixels. The method can also be used in reverse, ie new pixels are interpolated in the first partial image data ( 6 ) in order to adapt them to the second partial image data ( 7 ). In practice, however, both the first partial image data ( 6 ) and the second partial image data ( 7 ) are subject to errors due to mechanical and optical tolerances. In order to take this fact into account and since it is only important to compensate for the relative registration errors of the partial image data to one another, according to a further preferred embodiment of the invention, the register errors he determined, ie the angle and length deviations of corresponding straight line segments between adjacent reference points ( 14 ) or ( 15 ) distributed over the first sub-picture data ( 6 ) and the second sub-picture data ( 7 ) and in both sub-picture data resulting new pixel grids ( 18 ) defined and new pixels interpolated. This gives an even better and more uniform image quality of the overall image data ( 9 ).

Claims (8)

1. Verfahren zum Zusammenfügen von ersten Teilbilddaten (6) und zweiten Teilbilddaten (7) zu Gesamtbilddaten (9), dadurch gekennzeichnet, daß
in den ersten Teilbilddaten (6) erste Bezugspunkte (14) und in den zweiten Teilbilddaten (7) korrespondierende zweite Bezugspunkte (15) ermittelt wer­ den,
auf der Basis der zweiten Bezugspunkte (15) abschnittsweise neue Bild­ punktgitter (18) in den zweiten Teilbilddaten (7) definiert werden,
in den neuen Bildpunktgittern (18) neue Bildpunkte interpoliert werden, und
die ersten Teilbilddaten (6) und die neuen Bildpunkte zu den Gesamtbild­ daten (9) zusammengefügt werden.
1. A method for merging first partial image data ( 6 ) and second partial image data ( 7 ) to form total image data ( 9 ), characterized in that
first reference points ( 14 ) are determined in the first partial image data ( 6 ) and corresponding second reference points ( 15 ) are determined in the second partial image data ( 7 ),
on the basis of the second reference points ( 15 ), new image point grids (18) are defined in sections in the second partial image data ( 7 ),
new pixels are interpolated in the new pixel grids ( 18 ), and
the first partial image data ( 6 ) and the new pixels are combined to form the overall image data ( 9 ).
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Positionen der korrespondierenden zweiten Bezugspunkte (15) durch Bestimmung des maximalen Korrelationskoeffizienten zwischen einem Suchmuster (20; 23) und einem Suchbereich (21; 24) ermittelt werden.2. The method according to claim 1, characterized in that the positions of the corresponding second reference points ( 15 ) are determined by determining the maximum correlation coefficient between a search pattern ( 20 ; 23 ) and a search area ( 21 ; 24 ). 3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß der maximale Korrelationskoeffizient für die horizontale und die vertikale Position der kor­ respondierenden zweiten Bezugspunkte (15) getrennt ermittelt wird.3. The method according to claim 2, characterized in that the maximum correlation coefficient for the horizontal and the vertical position of the cor responding second reference points ( 15 ) is determined separately. 4. Verfahren nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, daß die Positionen der zweiten Bezugspunkte (15) durch Polynomapproxima­ tion von Korrelationskoeffizienten ermittelt werden. 4. The method according to any one of claims 2 or 3, characterized in that the positions of the second reference points ( 15 ) are determined by Polynomapproxima tion of correlation coefficients. 5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, daß die Korrelationskoeffizienten nur bestimmt werden, wenn im Suchmuster (20; 23) und im Suchbereich (21; 24) eine ausreichend hohe Signalstruktur vor­ handen ist.5. The method according to any one of claims 2 to 4, characterized in that the correlation coefficients are only determined if there is a sufficiently high signal structure in the search pattern ( 20 ; 23 ) and in the search area ( 21 ; 24 ). 6. Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, daß zur Ermittlung der Positionen der zweiten Bezugspunkte (15) nur Korrelati­ onskoeffizienten verwendet werden, die größer als ein Schwellwert (T2) sind.6. The method according to any one of claims 2 to 5, characterized in that only correlation coefficients are used to determine the positions of the second reference points ( 15 ), which are greater than a threshold value (T2). 7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß
auf der Basis der zweiten Bezugspunkte (15) abschnittsweise neue Bild­ punktgitter (18) in den ersten Teilbilddaten (6) und den zweiten Teilbilddaten (7) definiert werden,
in den neuen Bildpunktgittern (18) neue Bildpunkte interpoliert werden, und
die in den ersten Teilbilddaten (6) und den zweiten Teilbilddaten (7) interpo­ lierten neuen Bildpunkte zu den Gesamtbilddaten (9) zusammengefügt wer­ den.
7. The method according to any one of claims 1 to 6, characterized in that
on the basis of the second reference points ( 15 ), new image point grids ( 18 ) are defined in sections in the first partial image data ( 6 ) and the second partial image data ( 7 ),
new pixels are interpolated in the new pixel grids ( 18 ), and
the new pixels interpolated in the first partial image data ( 6 ) and the second partial image data ( 7 ) are combined to form the total image data ( 9 ).
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß in den Gesamtbilddaten (9) die Übergangsstelle zwischen den ersten Teil­ bilddaten (6) und den zweiten Teilbilddaten (7) von Zeile zu Zeile zufällig va­ riiert wird.8. The method according to any one of claims 1 to 7, characterized in that in the overall image data ( 9 ) the transition point between the first partial image data ( 6 ) and the second partial image data ( 7 ) is randomly varied from line to line.
DE2000124028 2000-05-16 2000-05-16 Combining sampled partial image data involves defining new image point grids in second partial image data based on second reference points corresponding to first image reference points Withdrawn DE10024028A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE2000124028 DE10024028A1 (en) 2000-05-16 2000-05-16 Combining sampled partial image data involves defining new image point grids in second partial image data based on second reference points corresponding to first image reference points
PCT/DE2001/001755 WO2001089199A1 (en) 2000-05-16 2001-05-09 Method for combining scanned partial-image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2000124028 DE10024028A1 (en) 2000-05-16 2000-05-16 Combining sampled partial image data involves defining new image point grids in second partial image data based on second reference points corresponding to first image reference points

Publications (1)

Publication Number Publication Date
DE10024028A1 true DE10024028A1 (en) 2001-11-22

Family

ID=7642301

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2000124028 Withdrawn DE10024028A1 (en) 2000-05-16 2000-05-16 Combining sampled partial image data involves defining new image point grids in second partial image data based on second reference points corresponding to first image reference points

Country Status (2)

Country Link
DE (1) DE10024028A1 (en)
WO (1) WO2001089199A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008038470A1 (en) 2008-08-20 2010-03-25 Clauß, Ulrich, Dr.-Ing. Segmenting image acquisition device has camera and moving device that has stationary part and movable part

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01115951A (en) * 1987-10-09 1989-05-09 Gf Corp Water-soluble composite containing water-insoluble organic compound and its production
JPH07200778A (en) * 1993-12-28 1995-08-04 Olympus Optical Co Ltd Image handling device
WO1998012866A1 (en) * 1996-09-18 1998-03-26 Sharp Kabushiki Kaisha Image synthesizing device and method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4610026A (en) * 1982-04-30 1986-09-02 Hitachi, Ltd. Method of and apparatus for enlarging/reducing two-dimensional images
US5251271A (en) * 1991-10-21 1993-10-05 R. R. Donnelley & Sons Co. Method for automatic registration of digitized multi-plane images
CA2101932A1 (en) * 1991-12-10 1993-06-11 Dominique Pitteloud Apparatus and methods for automerging images
US5686960A (en) * 1992-01-14 1997-11-11 Michael Sussman Image input device having optical deflection elements for capturing multiple sub-images
GB2288512B (en) * 1994-04-14 1998-08-26 Matsushita Electric Ind Co Ltd Image processing apparatus
DE69732829T2 (en) * 1997-03-21 2006-04-13 Agfa-Gevaert Method for recording and reproducing a radiation image from an elongated body

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01115951A (en) * 1987-10-09 1989-05-09 Gf Corp Water-soluble composite containing water-insoluble organic compound and its production
JPH07200778A (en) * 1993-12-28 1995-08-04 Olympus Optical Co Ltd Image handling device
WO1998012866A1 (en) * 1996-09-18 1998-03-26 Sharp Kabushiki Kaisha Image synthesizing device and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008038470A1 (en) 2008-08-20 2010-03-25 Clauß, Ulrich, Dr.-Ing. Segmenting image acquisition device has camera and moving device that has stationary part and movable part

Also Published As

Publication number Publication date
WO2001089199A1 (en) 2001-11-22

Similar Documents

Publication Publication Date Title
DE69733882T2 (en) CAMERA WITH A SINGLE PICTORIAN
DE69628228T2 (en) Imaging device
DE3148129C2 (en) Image processing device
DE69629888T2 (en) Image processing method and image recognition and pixel processing system
DE3110222C2 (en) Process for partial smoothing retouching in electronic color image reproduction
DE3540875C2 (en) Reading method for scanning a colored original
DE3522707A1 (en) IMAGE PROCESSING DEVICE
DE19841682B4 (en) Apparatus and method for improving the scan quality of a scanner
DE3546135A1 (en) Method and device for image processing
DE3043101C2 (en)
DE10137211A1 (en) Edges improving processor for adjustable grey level output changes image data at specific pixel locations to include grey level image data for reducing serrated edging in an image.
DE69925430T2 (en) Method for reducing artifacts in scanning electron microscopy
DE3640369C2 (en)
DE3406620A1 (en) IMAGE ADJUSTING DEVICE FOR A SOLID TELEVISION CAMERA
DE3304241C2 (en)
CH686207A5 (en) Method and apparatus for forming an image of high resolution.
EP0065281A2 (en) Scanning system and scanning diaphragm for suppressing moiré during the scanning of screened originals
DE4341536C2 (en) Image processing device
DE3438496A1 (en) METHOD AND DEVICE FOR GENERATING HALFTONE POINTS
DE69937985T2 (en) Image processing apparatus and method
DE3521682A1 (en) METHOD FOR SCANING AND RECORDING IMAGES
DE2156333A1 (en) Facsimile scanner
DE60114520T2 (en) Color imaging device
DE69937215T2 (en) Skew correction device and image scanner provided therewith
DE2934976C2 (en)

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8139 Disposal/non-payment of the annual fee