DE19814075A1 - Verfahren zum Abtasten und Erkennen mehrerer Fotografien und zum Beseitigen von Randfehlern - Google Patents

Verfahren zum Abtasten und Erkennen mehrerer Fotografien und zum Beseitigen von Randfehlern

Info

Publication number
DE19814075A1
DE19814075A1 DE19814075A DE19814075A DE19814075A1 DE 19814075 A1 DE19814075 A1 DE 19814075A1 DE 19814075 A DE19814075 A DE 19814075A DE 19814075 A DE19814075 A DE 19814075A DE 19814075 A1 DE19814075 A1 DE 19814075A1
Authority
DE
Germany
Prior art keywords
photographs
image
polygons
photograph
high resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19814075A
Other languages
English (en)
Other versions
DE19814075B4 (de
Inventor
Yongchun Lee
Quinton Lamar Sowell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kodak Alaris Inc
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of DE19814075A1 publication Critical patent/DE19814075A1/de
Application granted granted Critical
Publication of DE19814075B4 publication Critical patent/DE19814075B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00798Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity
    • H04N1/00816Determining the reading area, e.g. eliminating reading of margins
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3877Image rotation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/0402Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
    • H04N2201/0416Performing a pre-scan

Description

Die Erfindung bezieht sich allgemein auf das Abtasten von Fotografien und insbe­ sondere auf das Erkennen der Anzahl und der Schräglage von Fotografien auf einem Scanner-Vorlagenglas und das Neuausrichten und Ausschneiden des di­ gitalisierten Bildes zum Beseitigen von Randfehlern vor dem Drucken.
Wie in Fig. 1 gezeigt muß ein Benutzer 10, der eine Kopie einer Fotografie 12 auf einem Scanner 11 anfertigen möchte, die Fotografie 12 auf ein Scanner-Vor­ lagenglas 14 legen, und zwar so, daß die Vorlage an der oberen Anlageschiene 16 und an der seitlichen Anlageschiene 18 anliegt. Der Benutzer 10 muß zudem auf dem Eingabeschirm 21 das richtige Fotoformat auswählen, d. h. 4 × 6, 5 × 7 usw. Vor dem Drucken des Bildes oder vor dem Abspeichern auf einer Speicherplatte wird eine hoch aufgelöste Abtastung eines festgelegten Abschnitts ausgehend von Ursprungspunkt 19 des Scanners vorgenommen. Dieses Verfahren kommt in einer Reihe von kommerziellen Produkten zum Einsatz.
Diese Betriebsweise wirft gewisse Probleme auf. Erstens ist der Benutzer ge­ zwungen, ein einzelnes Foto auf den Scanner zu legen, und zwar in korrekter Ausrichtung zu den Anlageschienen und mit einer Ecke am Ursprungspunkt. Wenn das Bild nicht genau am Ursprungspunkt angelegt wird, erfaßt der Abtast­ bereich nicht den gesamten Bildbereich, so daß das digitalisierte Bild einen Teil des Scanner-Vorlagenglases mit erfaßt, was sich an einem oder an mehreren Rändern als sogenannter Randfehler 20 bemerkbar macht, wie in Fig. 2 gezeigt. Diese Randfehler müssen von den für den Endverbraucher bestimmten Kopien beseitigt werden. Einige Scanner sind mit einem Programm ausgestattet, das den Abtastbereich entlang der horizontalen und vertikalen Ränder abschneidet, um den Randfehler zu beseitigen. Falls jedoch ein Bild gedreht ist, beseitigt das Pro­ gramm die entlang der Bildlinien auftretenden Randfehler 22 nicht, wie in Fig. 3 gezeigt wird. Falls der Benutzer mehrere Fotografien abtasten und die Bilder auf Platte speichern möchte, müssen die Bilder einzeln verarbeitet werden, was recht ineffizient ist.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Ab­ tasten mehrerer Fotografien, zum Erkennen der Anzahl und der Schräglage von Fotografien und zum Beseitigen von Randfehlern durch Ausschneiden des Bildes bereitzustellen.
Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wird eine Vielzahl von Fotografien auf das Vorlagenglas eines Scanners gelegt. Die Fotografien werden mit geringer Auflösung abgetastet, um eine Vielzahl von Bildern mit gerin­ ger Auflösung zu erzeugen. Es wird eine Vielzahl von Vielecken hergestellt, von denen jedes mindestens ein Bild mit geringer Auflösung enthält. Eine Anzahl von Vielecken wird bestimmt und mit der Anzahl von Fotografien verglichen. Ist die Zahl der Vielecke kleiner als die Zahl der Fotografien, werden die Fotografien neu positioniert, um einander überlagernde Fotografien zu trennen, und die Abtastung mit geringer Auflösung wird wiederholt. Für jede der Fotografien wird die Position und Schräglage bestimmt. Eine erste Fotografie wird ausgewählt und mit hoher Auflösung abgetastet, um ein Bild mit hoher Auflösung zu erzeugen. Das Bild mit hoher Auflösung wird gerade ausgerichtet, und es wird ein Bildausschnitt gewählt, um die Randfehler zu beseitigen.
Die Erfindung wird im folgenden anhand eines in der Zeichnung dargestellten Ausführungsbeispiels näher erläutert.
Es zeigen
Fig. 1 ein Blockdiagramm eines Systems nach dem Stand der Technik zum Abtasten von Fotografien.
Fig. 2 ein Blockdiagramm eines Systems nach dem Stand der Technik zur Darstellung von Randfehlern.
Fig. 3 ein Blockdiagramm eines Systems nach dem Stand der Technik zur Darstellung einer Fotografie in Schräglage, eines abgetasteten Bildes und resultierender Randfehler auf der gedruckten Fotografie.
Fig. 4 ein Blockdiagramm eines erfindungsgemäßen Systems zum automati­ schen Erkennen der Position einer Fotografie und der Korrektur des Formats und der Schräglage sowie zum Beseitigen von Fehlern.
Fig. 5 eine schematische Darstellung mehrerer Fotografien auf einem Scan­ ner-Vorlagenglas.
Fig. 6 ein Blockdiagramm eines Systems zum Erkennen von Fotografien.
Fig. 7 ein Blockdiagramm eines Systems zur Schwellenwertberechnung eines Bildes.
Fig. 8 eine Tabelle zum Berechnen der Gradientenstärke.
Fig. 9 ein Ablaufdiagramm zur Extraktion von Vieleckkonturen.
Fig. 10 ein Ablaufdiagramm eines Konturenpixel-Erkennungsverfahrens, das in dem bevorzugten Verfahren dieser Erfindung zum Einsatz kommt.
Fig. 11A, 11B und 11C Diagramme zur Darstellung von Beispielen zur Erzeu­ gung einer Transformationstabelle aus einem 3 × 3-Bitmap-Muster, einer Umsetzung eines 3 × 3-Bitmap-Musters in einen Eintrag für die Trans­ formationstabelle und zur Erzeugung von Befehlen unter Benutzung der Transformationstabelle.
Fig. 12A-12H Definitionen für acht Detektoren des linken Randes, wobei 0 = weiß, 1 = schwarz und X = irrelevant.
Fig. 13A-13H Definitionen für acht Detektoren des rechten Randes, wobei 0 = weiß, 1 = schwarz und X = irrelevant.
Fig. 14 Veranschaulichung in einer 3 × 3-Matrix-Form der aus den Randkombi­ nationen nach den Regeln aus Tabelle 1 resultierenden Randmuster;
Fig. 15A-15D Beispiele der Randmusterbefehle, die nach den Regeln aus Tabelle 1 erzeugt worden sind;
Fig. 16A und 16B einen richtungsbestimmenden Kurvencode und ein Beispiel zur Umsetzung der Kurvencodes in entsprechende Vieleckvektoren;
Fig. 17 eine schematische Darstellung einer Fotografie in Schräglage auf einem Scanner-Vorlagenglas.
Fig. 18 ein Diagramm zur Berechnung einer Positionsgröße und eines Schräglagenwinkels einer Fotografie;
Fig. 19 ein Diagramm zum Erkennen eines Schräglagenwinkels, des oberen Randes und des unteren Randes einer Fotografie;
Fig. 20 ein Diagramm zur Darstellung einer Sammlung der obersten Schnitt­ punkte und der untersten Schnittpunkte;
Fig. 21 ein Histogramm der vertikalen Abstände benachbarter Schnittpunkte;
Fig. 22 ein Diagramm zur Darstellung der ganz linken Schnittpunkte und der ganz rechten Schnittpunkte;
Fig. 23 ein Ablaufdiagramm zur schematischen Darstellung des Erkennungs­ vorgangs für den linken und rechten Rand einer Fotografie;
Fig. 24 schematische Darstellung der Verfahren zur Schräglagenbeseitigung und zur Bildung des Bildausschnitts.
Zum leichteren Verständnis wurden in den Zeichnungen für gleiche Teile gleiche Bezugsziffern benutzt.
Bezug nehmend auf Fig. 4 werden die Hauptkomponenten und Verarbeitungsstu­ fen eines Systems 30 zum Erkennen und Korrigieren der Schräglage von Foto­ grafien in Form eines Blockdiagramms gezeigt. Die in jedem der Blöcke durchge­ führten Arbeitsschritte werden nachfolgend detaillierter unter Bezug auf die Figu­ ren erörtert.
Eine Anzahl abzutastender Fotografieren wird in Block 32 auf das Vorlagenglas eines Scanners gelegt. In Block 34 werden die Fotografien mit niedriger Auflösung abgetastet, in Block 36 werden die Fotografien erkannt, und in Block 38 wird die Anzahl der Fotografien bestimmt. In Block 40 wird ermittelt, ob sich Fotografien überlagern. Falls dies der Fall ist, wird in Block 42 der Benutzer aufgefordert, die Überlagerung zu korrigieren und die Fotografien neu zu positionieren. Wenn fest­ gestellt wird, daß keine Überlagerungen vorliegen, wird das Ergebnis der Fotogra­ fieerkennung in Block 44 an einem Berührungsbildschirm (Touchscreen) ange­ zeigt. Der Benutzer wählt in Block 46 eine gewünschte Fotografie durch Betätigen des Berührungsbildschirms aus. Die Zuordnungskoordinaten für die gewünschte Fotografie werden in Block 48 berechnet, und in Block 50 werden die gewünsch­ ten Fotografien noch einmal mit höherer Auflösung abgetastet. Das digitalisierte Bild wird in Block 52 gerade ausgerichtet, und die Randfehler werden in Block 54 beseitigt. Die Fotografie wird dann in Block 56 gedruckt oder gespeichert.
Fig. 5 zeigt eine Gruppe von Fotografien 12, die beliebig ohne Berücksichtigung der oberen und seitlichen Anlageschiene 16 bzw. 18 oder des Ursprungspunktes 19 auf das Scanner-Vorlagenglas 14 gelegt wurden. Die gesamte Fläche des Scanner-Vorlagenglases 14 wird mit niedriger Auflösung, beispielsweise mit 90 dpi (Dots per Inch/Punkte pro Zoll) abgetastet, wodurch ein Graustufenbild nied­ riger Auflösung hergestellt wird.
Die Erkennung der Fotografien wird detaillierter in Fig. 6 gezeigt. Das Graustufen­ bild niedriger Auflösung 58 wird einer nachfolgend detaillierter erläuterten Schwellenwertoperation 60 unterzogen, wodurch ein binäres Bild 61 entsteht. An­ schließend wird ein Konturenvektorisierungsprozeß 70 durchgeführt, womit die Anzahl der Fotografien 38 ermittelt wird. Die Lage, die Schräglage, die Breite und die Höhe jeder Fotografie werden in Block 78 erkannt.
Die Umwandlung eines Graustufenbildes in ein binäres Bild, also die sogenannte Schwellenwertoperation, wird in Fig. 7 gezeigt. In Block 62 wird jede Pixelintensi­ tät zwischen einem Wert von 0 und 255 ermittelt. Die Intensität wird dann mit einem vorgegebenen Wert IT verglichen, beispielsweise 230. Falls die Intensität kleiner als der Wert IT ist, wird das Pixel als "schwarz" erkannt.
Falls die Intensität größer als der Wert IT ist, wird die Gradientenstärke für das Pixel in Block 64 berechnet. Die Gradientenstärke für das Pixel (i, j) wird unter Verwendung des sogenannten "Sobel"-Gradientenoperators in einem Fenster aus Pixeln ermittelt, das um Pixel (i, j) gemäß Fig. 8 mittig angeordnet ist. Matrix 80 ist 5 ein 3 × 3 Fenster mit Pixel (i, j) im Zentrum. Wie durch die Gleichungen (1)-(3) nachfolgend bestimmt, beruht der Sobel-Operator auf der Berechnung der hori­ zontalen und vertikalen Pixelintensitäts-Gradienten GX(i, j) bzw. GY(i, j), und für jede Pixelposition (i, j) wird die Gradientenstärke G(i, j) als eine absolute Summe aus GX(i, j) und GY(i, j) gebildet:
GX(i, j) = L(i+1, j-1) + 2L (l+1, j) + L (i+1, j+1) - L (i-1, j-1) - 2L (i-1, j) - L (i-1, j+1) (1)
GY(i, j) = L (i-1, j+1 ) + 2L (i, j+1) +L (i+1, j+1) - L (i-1, j-1) - 2L (i, j-1) -L (i+1, j-1) (2)
G (i, j) = |GX (i,j)| + | GY (i, j)| (3)
wobei: G(i, j) die Gradientenstärke an Pixelposition (i, j) ist. Bezug nehmend auf Fig. 7 wird in Block 66 der Wert G(i, j) mit einer Konstanten GT verglichen, beispiels­ weise mit dem Wert 50. Wenn der Wert von G(i, j) größer als GT ist, wird das Pixel als schwarz interpretiert. Dieser Prozeß wird für jedes Pixel durchgeführt.
Der Konturenvektorisierungsprozeß 70 wird detailliert unter Bezug auf Fig. 9 be­ schrieben. Das binäre Bild 61 wird verarbeitet, um Konturenpixel zu erkennen und Pixelwerte gemäß vorgegebenen Umwandlungswerten zuzuweisen. Die Zuwei­ sungsfunktion, dargestellt durch Block 90, wird unter Verwendung eines Fensters von 3 × 3 Pixeln implementiert, das über das binäre Bild jeweils Pixelspalte um Pixelspalte durchlaufen wird. Die die Bildkonturen darstellenden Pixel werden in Block 92 in Vektoren umgewandelt. Die Vektorsegmente werden an Block 94 übergeben. In Block 94 werden die Vektoren jeweils an den Enden zu einem oder mehreren Vielecken zusammengesetzt, die die Konturen des abgetasteten Bildes darstellen. Zusammenfassend gesagt setzt der zuvor beschriebene Vorgang, die sogenannte Konturenvektorisierung, ein binäres Bild in eine Ansammlung ein­ facher Vielecke um, die in einem fotografischen Erkennungssystem oder in einer fotografischen Erkennungstechnik, etwa der Schräglagenerkennung, oder der Linienerkennung oder in den Bildauszählungstechniken verwertbar sind.
Bezugnehmend auf Fig. 10 werden die von Block 90 aus Fig. 9 zur Konturen­ pixelerkennung durchgeführten Funktionen detaillierter veranschaulicht. Das be­ vorzugte Verfahren zum Erkennen eines Konturenpixels übergibt eine Bitmap aus 3 × 3 Pixeln, die durch Abtastung einer Fotografie erzeugt wurde, wobei die Aus­ gabe der Abtastfunktion das zuvor besprochene binäre Bild 61 ist. Die 3 × 3-Bitmap stellt die neun Pixelwerte dar, die innerhalb eines Fensters aus 3 × 3 Pixeln liegen, und zwar zu einem bestimmten Zeitpunkt, während das Fenster über einer Foto­ grafie abgetastet wird. Wie durch den Block 102 dargestellt, wird jede 3 × 3-Bitmap zu einer ganzen Zahl im Bereich von 0 - 511 codiert. Die resultierenden Zahlen werden als Eingaben für eine Transformationstabelle 104 benutzt. Die Transfor­ mationstabellentechnik wird aufgrund ihrer rechnerischen Effizienz bevorzugt. Die Transformationstabelle gibt "Randmusterbefehle" aus, deren Einzelheiten nach­ folgend beschrieben werden. Diese Befehle werden dem Block 106 übergeben, der das Extrahieren der Konturenpixel darstellt durch Ausführen der Randmuster­ befehle in einer geordneten Reihenfolge. Jedes ausgegebene Konturenpixel wird einer von drei Klassen zugewiesen: ein Maximalpunkt, ein Minimalpunkt oder ein Randpunkt.
Die Details der Erfindung in bezug auf die aus der 3 × 3-Bitmap gebildeten und ausgegebenen Randmusterbefehle werden nachfolgend unter Bezug auf Fig. 11A-11C angesprochen. In Fig. 11A wird das Fenster aus 3 × 3 Pixeln jetzt in Form von neun Zellen dargestellt, die die Buchstaben A bis I tragen. Bekanntlich kann in einem binären System ein Bit innerhalb einer Zelle entweder den Wert 1 oder 0 annehmen. Dies zeigt das Beispiel in Fig. 11B. Die Bits A bis I sind in einer be­ stimmten Reihenfolge derart angeordnet, daß sie eine ganze Zahl aus 9 Bits bil­ den. Wie zuvor erwähnt, kann die ganze 9-Bit-Zahl einen Wert zwischen 0 und 511 annehmen. Diese ganze Zahl dient dann als Eingabenummer zur Adressie­ rung der Transformationstabelle 104, wie in Fig. 11C gezeigt, und zur Ausgabe der zugeordneten Randmusterbefehle.
Bezugnehmend auf Fig. 12A bis 12H werden die das Erkennen von acht linken Rändern verwendeten Definitionen zum Bestimmen der Randtypen L0 bis L7 ver­ wendet. In diesen Fig. stellt der Wert 0 einen weißen Punkt dar, der Wert 1 stellt einen schwarzen Punkt dar, und ein x stellt einen Punkt dar, der entweder weiß oder schwarz sein kann, wobei das für das System jedoch unerheblich ist. In be­ zug auf die 3 × 3-Matrix aus Fig. 12A ist zu sehen, daß zwei benachbarte Bits 1 horizontal und parallel zu zwei benachbarten Bits 0 liegen. Die durch dieses Bit­ muster dargestellte Randausrichtung ist bestimmungsgemäß horizontal und er­ streckt sich nach links. Zum besseren Verständnis werden die Randausrichtungen durch einen Pfeil dargestellt, wobei die Position von Bit 0 (weiße Punkte) die Richtung der Randausrichtungspfeile steuert. Der Randtyp L4 ist mit dem Randtyp L0 identisch, jedoch derart gekippt, daß der Pfeil in Gegenrichtung horizontal ver­ läuft, und daß die Bits 0 im Fenster von Fig. 12A unter den Bits 1 angeordnet sind, während in dem Fenster aus Fig. 12E die Bits 0 über den Bits 1 angeordnet sind. Gleiches gilt für die vertikalen Randtypen L2 und L6 sowie für die schrägen (45 Grad) Randtypen L1, L5, L3 und L7. Die Fig. 13A bis 13H setzen diese Defini­ tionen zum Erkennen von acht rechten Rändern fort, die die Randtypen R0 bis R7 darstellen.
Tabelle 1 zeigt die Vorlagenbefehle, die für jede Randtypenkombination verwen­ det werden und weist jeder Kombination eine numerierte Regel zu. Jede nume­ rierte Regel bezeichnet also eine bestimmte Kombination.
Tabelle 1
Fig. 14 zeigt die aus den Randkombinationen gemäß den Regeln aus Tabelle 1 resultierenden Randmuster.
Tabelle 2 zeigt die Beziehung zwischen einer bestimmten 3 × 3-Bitmap und deren zugehörigen Eintragsnummer. Die Eintragsnummer wird gemäß dem zuvor in Fig. 13B dargestellten Verfahren erzeugt. Tabelle 2 zeigt die Randmusterbefehle, die aus der Transformationstabelle 24 ausgegeben werden, wenn die entsprechende Eintragsnummer als Adresse an diese Transformationstabelle übergeben wird. Es ist zudem möglich, daß einer Anzahl von Bitmap-Mustern keine Randmusterbe­ fehle zugewiesen sind, während anderen Bitmap-Mustern mehrere zugewiesen sind. Wenn beispielsweise in Tabelle 2 die mittlere Zelle der 3 × 3-Matrix den Wert 1 hat und mindestens eine der umgebenden Zellen den Wert 0 hat, dann wird ein Randmusterbefehl zugewiesen, ansonsten wird kein Randmusterbefehl zugewie­ sen.
Tabelle 2
Die Vorlagen aus Fig. 15A-15D stellen vier Bitmuster dar, die den Tabellenein­ tragsnummern 373, 124, 151 und 368 entsprechen, und zwar gemäß dem Bitzu­ weisungsverfahren aus Fig. 11A und 11B. Jedes Randmuster wird mit den acht Kombinationsregeln für linke und rechte Randerkennung verglichen, um zu be­ stimmen, welche Randmusterbefehle für das Randmuster gelten.
Definitionen der Randmusterbefehle
0 Kurvencode 0 hinzufügen
1 Kurvencode 1 hinzufügen
2 Kurvencode 2 hinzufügen
4 einen neuen äußeren Maximalkonturenpunkt anlegen
5 einen neuen äußeren Maximalkonturenpunkt anlegen
6 zwei Kurvencodes verknüpfen
Die Vorlage aus Fig. 15A umfaßt beispielsweise drei Konturensegmente A, B und C, die durch die Regelnummern 2, 5 und 7 dargestellt werden. Demnach verwei­ sen diese Regeln auf die Randmusterbefehle 1, 3, 6, 5 und 3. Der Randmuster­ befehl 1 ist einem Konturensegment A zugeordnet, wobei bestimmt wird, daß dem Wert 1 der mittleren Zelle links oben ein Wert 1 benachbart ist. Beim Vergleichen dieser Beziehung mit der Bestimmung der Kurvencoderichtung, die durch Pfeile in Fig. 16B dargestellt wird, erhält man den Befehl 1. Nach der gleichen Logik resul­ tiert aus dem Vorhandensein des Wertes 1 in der mittleren Zelle und in der rech­ ten oberen Zelle der Befehl 3. Eine Überprüfung des Musters aus den Werten 1 in der Matrix aus Fig. 15A läßt erkennen, daß die Werte 1 in den oberen beiden Rei­ hen der Matrix eine Verknüpfung der Kurvencodes 1 und 3 darstellen. Aus einer derartigen Verknüpfung resultiert der Befehl 6. Eine Überprüfung der dritten Reihe der Zellwerte zeigt einen neuen inneren Maximal-Konturenpunkt entsprechend einem Konturensegment C, woraus der Befehl 5 resultiert. Aus einer Überprüfung der rechten Spalte von Zellwerten resultiert die Bestimmung des Konturenseg­ ments B. Ausgehend von dem Wert 1 der mittleren Zelle wird abgeleitet, daß der zugehörige Kurvencode den Wert 3 hat.
Jedes abgetastete binäre Bild weist eine Anzahl von Pixeln auf, die Kanten und/oder Linien bilden, die einem Randtyp zugeordnet sind (L0-L7; R0-R7). Diese Identifikation bezieht sich auf die Richtung eines Vektorsegments. Nach einer ge­ gebenen Regel wird jedes Vektorsegment mit einem anderen Vektorsegment entweder im Uhrzeigersinn oder im Gegenuhrzeigersinn verbunden, abhängig davon, ob die Vektorsegmente den Innenrand eines Objekts oder den Außenrand eines Objekts ausmachen. Ein Beispiel einer Zeichenfolge eines Kurvencodes, die die verbundenen Vektorsegmente darstellt, wird in Fig. 16A gezeigt. Die darge­ stellte Kurvencode-Zeichenfolge ist 212121 122221 112111 33333. Wenn man den Kurvencode mit den in Fig. 16A dargestellten Vektoren vergleicht und die Richtungspfeile aus Fig. 16B berücksichtigt, ist zu erkennen, daß die erste Ziffer 2 der Kurvencodes zu einem vertikalen Vektorelement e führt, das mit einem Vek­ torelement f verbunden ist, das durch die zweite Ziffer 1 des Kurvencodes darge­ stellt wird, und das in einem Winkel von 45 Grad verläuft, der durch den Vektor 1 aus Fig. 16B dargestellt wird. Das gleiche gilt sinngemäß für die Vektorelemente g bis j. An diesem Punkt wird ein Liniensegment D durch eine gerade Linie zwi­ schen den beiden Endpunkten der verbundenen Vektorelemente gebildet.
Im nächsten Schritt wird die Anzahl der erkannten Fotografien ermittelt, wie in Block 38 aus Fig. 6 gezeigt. Nach der Konturenvektorisierung wird jeder Umriß der Objekte in dem binären Bild verfolgt und durch ein Vieleck dargestellt. Jeder Vektor wird gemäß dem im vorherigen Abschnitt beschriebenen Prozeß durch die x- und y-Koordinaten der Endpunkte dargestellt. Die Grenzkoordinaten, Breite und Höhe jedes Vielecks (Objektumriß) werden anhand der Scheitelpunktkoordinaten (Endpunkte der Vektoren) des Vielecks berechnet. Das Erkennen eines fotografi­ schen Vielecks wird durch Gruppierung der Vielecke erleichtert. Das größte Viel­ eck der sich überlagernden Vielecke (kleinere Vielecke, die vollständig in den größeren Vielecken enthalten sind) wird dann als Kandidat für eine Fotografie ge­ kennzeichnet und identifiziert. Beim Vergleich der Größe der Vieleckkandidaten werden die größten M Vieleckkandidaten als die äußersten Umrisse der ge­ wünschten Fotografien betrachtet, wobei P die erwartete Anzahl von Fotografien in einer Abtastung ist und vom Benutzer eingegeben wird. Wenn die erkannte An­ zahl von Fotografien M kleiner als die Anzahl der vom Benutzer eingegebenen Fotografienanzahl P ist, werden einige Fotografien auf dem Scanner überlagert, und die Fotografien müssen neu positioniert werden. Jedes als Fotografie er­ kannte Vieleck wird einer weiteren Analyse zum Berechnen der Schräglage und Position unterzogen.
In Fig. 6 zeigt Block 78 das Erkennen von Position, Schräglage, Breite und Höhe jedes Fotos. Fig. 17 zeigt schematisch einen Bildbereich 82, der einer auf dem Scanner-Vorlagenglas 14 erkannten Fotografie entspricht.
Fig. 18 zeigt ein Blockdiagramm zum Berechnen der fotografischen Abmessungen und der Schräglage jedes Vielecks. Hier wird vorausgesetzt, daß es sich um eine rechteckige Fotografie handelt. Das Blockdiagramm beginnt mit einem Vieleck. Durch Verarbeiten des Vielecks, das detaillierter in Fig. 20 gezeigt wird, werden eine obere Randlinie 92 und eine untere Randlinie 93 erkannt. Die Neigung der oberen Randlinie wird als Schräglage der Fotografie interpretiert. Die linke Rand­ linie 94 und die rechte Randlinie 95 des Vielecks werden ebenfalls erkannt. Die extrahierten vier geraden Randlinien werden dazu verwendet, eine rechteckige Form entsprechend der gewählten Fotografie aufzubauen. Der linke obere Eck­ punkt 96, der als Ursprung der Fotografie definiert ist, wird berechnet, indem man den Schnittpunkt der oberen Randlinie 92 mit der linken Randlinie 94 ermittelt. Der rechte obere Eckpunkt 97 wird berechnet, indem man einen Schnittpunkt der obe­ ren Randlinie 92 mit der rechten Randlinie 95 ermittelt. Der linke untere Eckpunkt wird berechnet, indem man einen Schnittpunkt der linken Randlinie 94 mit der unteren Randlinie 93 ermittelt. Die Breite der Fotografie ist der Abstand zwischen dem linken oberen Eckpunkt 96 und dem rechten oberen Eckpunkt 97. Die Höhe der Fotografie ist der Abstand zwischen dem linken oberen Eckpunkt 96 und dem linken unteren Eckpunkt 98. Die Berechnung der oberen und unteren Randlinie wird in Fig. 19 beschrieben. Die Berechnung der linken und rechten Randlinie wird in Fig. 23 beschrieben.
Fig. 20 zeigt ein Beispiel eines fotografischen Vielecks, dessen Schräglage einen unbekannten Winkel aufweist. Es wird eine Reihe aus gleich beabstandeten verti­ kalen Linien mit Abstand Dx aufgebaut. Es werden die Punkte ermittelt, an denen vertikale Linien 90 das Vieleck schneiden. Die Punkte mit den kleinsten und größten Werten von Y werden aufgezeichnet. Das Paar benachbarter Punkte, die die Anforderung erfüllen, daß deren Abstand (Dy) in vertikaler Richtung größer als deren Abstand (Dx) in horizontaler Richtung ist, werden aus den beiden Punkt­ mengen gelöscht.
Als nächstes werden zwei Histogramme der vertikalen Abstände benachbarter Punkte berechnet, nämlich Histogramm (Ht(Dy)) an den oberen Schnittpunkten und Histogramm (Hb(Dy)) an den unteren Schnittpunkten. Die beiden Histo­ gramme werden mit Mt bzw. Mb bezeichnet, wie in Fig. 21 gezeigt. Um die Er­ mittlung der Schräglage weiter zu verfeinern, werden die Punkte, die außerhalb des Bereichs von Mt+/-K bzw. Mb+/-K fallen, beseitigt. Nach dem Datenverfeine­ rungsprozeß erfolgt die Berechnung der Korrelationskoeffizienten Ct und Cb der verbleibenden oberen Schnittpunkte und der verbleibenden unteren Schnittpunkte zur Bewertung der Kolinearität der Punkte. Die Korrelationskoeffizienten werden dann folgendermaßen berechnet.
Die Schnittpunkte zwischen den Abtastlinien und der oberen oder unteren Linie des Vielecks sind (xi, yi), wobei i = 1, . . ., N, und N ist die Anzahl der Schnittpunkte.
Der Korrelationskoeffizient (rxy) ist bestimmt durch
wobei
Der Wert des Korrelationskoeffizienten liegt definitionsgemäß zwischen null und eins. Wenn der Korrelationskoeffizient nahe eins ist, weist dies darauf hin, daß diese Punkte kolinear sind, und die lineare Fehlerquadratmethode wird auf diese Punkte angewandt. Der Drehwinkel θs wird aus der Steigung (θs = b) der einge­ paßten Geraden y = a + bx gelesen, wobei:
Der Drehwinkel des Vielecks wird als Schräglage der abgetasteten Fotografien genommen.
Da angenommen wurde, daß die Form der Fotografie rechteckig ist, müssen die obere und die untere Randlinie parallel zueinander verlaufen. Bei der Bewertung der Kolinearität der Punkte wird daher der größere Wert (Cm) der beiden Korrela­ tionskoeffizienten Ct und Cb verwendet, wie in Fig. 19 und 23 gezeigt. Für den Fall, daß der Wert Cm kleiner als der vorgegebene Schwellenwert (TH) ist, weist dies darauf hin, daß entweder der horizontale Rand oder ein irregulärer Rand er­ kannt worden ist. Unter dieser Bedingung wird die Schräglage stets auf den Wert null gesetzt. Die Berechnung der linken und rechten Randlinien erfolgt ähnlich wie zuvor beschrieben. Das Blockdiagramm des Prozesses wird für horizontale Schnittpunkte wiederholt, wie in Fig. 22 gezeigt. Fig. 23 zeigt die Berechnungen der linken und rechten Randlinie.
Nachdem der Ursprungspunkt der Fotografie (linke obere Ecke) ermittelt worden ist, werden die Bildabmessungen (Breite und Höhe) und die Schräglage jeder er­ kannten Fotografie aus dem Abtastvorgang des gesamten Vorlagenglases mit niedriger Auflösung berechnet. Die Bildrandkoordinaten, wie in Fig. 17 gezeigt, werden neu justiert (maßstäblich hochgerechnet), und die Koordinaten eines ge­ wünschten Abtastvorgangs mit hoher Auflösung eingepaßt.
Anschließend wird eine gewünschte Fotografie ausgewählt und eine Abtastung der ausgewählten Fotografie mit hoher Auflösung vorgenommen. Nach der Ab­ tastung mit hoher Auflösung wird das hoch aufgelöste Bild mit einer bekannten standardmäßigen, bilinearen Bildinterpolation gerade ausgerichtet.
Fig. 24 zeigt schematisch das gerade Ausrichten und das Beseitigen von Rand­ fehlern durch Auswahl eines Bildausschnitts. Nachdem das Bild gerade ausge­ richtet worden ist, können die oberen, unteren und seitlichen Randfehler leicht beseitigt werden. Das Bild läßt sich dann auf einer Speicherplatte in bekannter Weise speichern oder als Fotografie ausdrucken.
Obwohl die Erfindung unter Bezug auf eine bevorzugte Ausführungsform be­ schrieben wurde, ist die Erfindung natürlich nicht auf diese Ausführungsform be­ schränkt, sondern kann zahlreichen, Fachleuten bekannten Änderungen und Ab­ wandlungen unterzogen werden, ohne vom Gegenstand und Geltungsbereich der Erfindung abzuweichen.
Bezugszeichenliste
11
Scanner
12
Fotografie
14
Scanner-Vorlagenglas
16
obere Anlageschiene
18
seitliche Anlageschiene
19
Ursprungspunkt
20
weißer Rand
21
Eingabeschirm (Touchscreen)
22
Randfehler
24
Transformationstabelle
30
Aufbau von Vektorsegmenten
32
Fotografien auf einem Scanner
34
Abtastung mit niedriger Auflösung
36
Erkennen von Fotografien
38
Bestimmen der Anzahl von Fotografien
40
Erkennen der Überlagerung
42
Meldung an den Benutzer
44
Anzeige von Fotografien
46
Auswahl über Berührungsbildschirm (Touchscreen)
48
Berechnung der Bitmap-Koordinaten
50
Abtastung mit hoher Auflösung
52
Bildausrichtung
54
Randfehlerbeseitigung
56
Ausdruck oder Speicherung des Bildes
58
Graustufenbild
60
Schwellenwertoperation
61
binäres Bild
62
ermittelte Pixelintensität
64
Berechnung der Gradientenstärke
66
ermittelte Gradationsschwelle
70
Konturenvektorisierung
78
Ermittlung von Schräglage, Position, Breite und Höhe der Fotografie
80
3 × 3-Matrix
82
Bildbereich
90
Abtastlinien
92
obere Randlinie
93
untere Randlinie
94
linke Randlinie
95
rechte Randlinie
96
linker oberer Schnittpunkt
97
rechter oberer Schnittpunkt
98
unterer Schnittpunkt
99
unterer Schnittpunkt
102
Codierung
104
Transformationstabelle
106
Extrahieren von Konturenpixeln

Claims (16)

1. Verfahren zum Abtasten und Erkennen mehrerer Fotografien und zum Besei­ tigen von Randfehlern mit folgenden Schritten:
Anordnen einer Vielzahl von Fotografien (12) auf einen Scanner (11);
Abtasten mit niedriger Auflösung, um eine Vielzahl niedrig aufgelöster Bilder zu erzeugen;
Herstellen einer Vielzahl von Vielecken, wobei jedes Vieleck mindestens eines der niedrig aufgelösten Bilder enthält;
Ermitteln einer Anzahl von Vielecken;
Vergleichen dieser ermittelten Anzahl von Vielecken mit der Anzahl der Foto­ grafien (12),
und wenn die Anzahl der Vielecke kleiner als die Anzahl der Fotografien ist Neupositionieren sich überlagernder Fotografien (12) und Wiederholen der Abtastung mit niedriger Auflösung sowie der nachfolgenden Schritte;
Bestimmen der Schräglage und Position jeder Fotografie;
Auswählen einer ersten Fotografie;
Abtasten dieser ersten Fotografie mit hoher Auflösung, um ein Bild mit hoher Auflösung zu erzeugen;
gerades Ausrichten des Bildes mit hoher Auflösung und
Ausschneiden des Bildes mit hoher Auflösung, um die Randfehler zu beseiti­ gen.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß Bilder mit niedriger Auflösung vor Herstellen der Vielzahl von Vielecken in binäre Bilder umge­ setzt werden.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Anzahl von Vielecken dadurch ermittelt wird, daß kleinere Vielecke, die innerhalb der Grenzen eines größeren Vielecks passen, als ein einzelnes fotografisches Vieleck gruppiert werden.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Position der ersten Fotografie vor dem Bestimmen der Schräglage bestimmt wird.
5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß Höhe und Breite der Fotografie vor Bestimmen der Schräglage bestimmt werden.
6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das ausgeschnit­ tene Bild mit hoher Auflösung auf einer Festplatte gespeichert wird.
7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das ausgeschnit­ tene Bild mit hoher Auflösung gedruckt wird.
8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß eine zweite Foto­ grafie (12) nach Ausschneiden des Bildes mit hoher Auflösung ausgewählt wird.
9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Bilder an einem Berührungsbildschirm (21) angezeigt werden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß die gewünschte Fotografie durch Berühren des Berührungsbildschirms (21) ausgewählt wird.
11. Verfahren zum Abtasten und Erkennen von Fotografien (12) mit folgenden Schritten:
Anordnen von mindestens einer Fotografie auf einem Scanner (11);
Durchführen einer Abtastung mit niedriger Auflösung zum Herstellen eines Bildes mit niedriger Auflösung;
Bestimmen von Schräglage und Position der Fotografie;
Durchführen einer Abtastung mit hoher Auflösung, um ein Bild mit hoher Auf­ lösung zu erzeugen;
gerades Ausrichten des Bildes mit hoher Auflösung und Beseitigen von Randfehlern.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß die Bilder an einem Berührungsbildschirm (21) angezeigt werden.
13. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß das Bild mit nied­ riger Auflösung vor Herstellen des Vielecks in ein binäres Bild umgesetzt wird.
14. Verfahren zum Abtasten und Erkennen mehrerer Fotografien (12) durch Her­ stellen von Vielecken aus linearen Liniensegmenten, die von einem Bild ab­ geleitet wurden, das durch Abtasten der Fotografien erzeugt wurde, mit fol­ genden Schritten:
Erkennen binärer Pixelwerte aus diesem Bild;
Positionieren jedes der binären Werte in einer zugewiesenen und geordneten Position, wodurch eine Folge binärer Werte für jedes Bild entsteht, und wobei jede Folge binärer Werte eine ganze Zahl bildet;
Eingeben der gebildeten ganzen Zahl auf eine Transformationstabelle, die jede ganze Zahl in eine oder mehrere Ausgabe-Vorlagenbefehle umsetzt;
Verbinden linearer Liniensegmente zu mindestens einem Vieleck in Anspre­ chen auf einen oder mehrere Ausgabe-Vorlagenbefehle;
Drehen mindestens eines Vielecks derart, daß ein Rand des Vielecks parallel zu einer Scanner-Vorlagenführung verläuft; und
Ausschneiden des Bildes, um Randfehler zu beseitigen.
15. Verfahren nach Anspruch 14, das folgende weitere Schritte umfaßt:
Bestimmen der Anzahl von Vielecken;
Vergleichen der Anzahl von Vielecken mit einer Anzahl, die gleich der Vielzahl von Fotografien ist;
wenn die Anzahl von Vielecken kleiner als die Anzahl der von Fotografien ist, Neupositionieren sich überlagernder Fotografien und Wiederholen der Ab­ tastung.
16. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß die Anzahl von Vielecken bestimmt wird durch Gruppieren kleinerer Vielecke, die in die Gren­ zen eines größeren Vielecks passen, zu einem einzelnen fotografischen Viel­ eck.
DE19814075A 1997-03-31 1998-03-30 Verfahren zum Abtasten und Erkennen mehrerer Fotografien und zum Beseitigen von Randfehlern Expired - Lifetime DE19814075B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US831,272 1992-02-07
US08/831,272 US5974199A (en) 1997-03-31 1997-03-31 Method for scanning and detecting multiple photographs and removing edge artifacts

Publications (2)

Publication Number Publication Date
DE19814075A1 true DE19814075A1 (de) 1998-10-01
DE19814075B4 DE19814075B4 (de) 2009-12-03

Family

ID=25258697

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19814075A Expired - Lifetime DE19814075B4 (de) 1997-03-31 1998-03-30 Verfahren zum Abtasten und Erkennen mehrerer Fotografien und zum Beseitigen von Randfehlern

Country Status (3)

Country Link
US (1) US5974199A (de)
JP (1) JP3883696B2 (de)
DE (1) DE19814075B4 (de)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6201901B1 (en) * 1998-06-01 2001-03-13 Matsushita Electronic Industrial Co., Ltd. Border-less clock free two-dimensional barcode and method for printing and reading the same
US6456732B1 (en) 1998-09-11 2002-09-24 Hewlett-Packard Company Automatic rotation, cropping and scaling of images for printing
US6271935B1 (en) * 1998-09-23 2001-08-07 Xerox Corporation Method to remove edge artifacts from skewed originals
US6377703B1 (en) * 1998-11-10 2002-04-23 Seiko Epson Corporation Apparatus and method for determining an area encompassing an image for scanning the image
AUPQ027799A0 (en) 1999-05-10 1999-06-03 Canon Information Systems Research Australia Pty Ltd Altering the shape of an artwork
US6728005B1 (en) * 1999-09-10 2004-04-27 Hewlett-Packard Development Company, L.P. Method for automatic removal of image artifacts
US6683984B1 (en) 2000-07-31 2004-01-27 Hewlett-Packard Development Company, L.P. Digital imaging device with background training
JP3878401B2 (ja) * 2000-09-14 2007-02-07 シャープ株式会社 画像処理装置、画像処理方法およびそれを記録した記録媒体
AUPR788101A0 (en) * 2001-09-24 2001-10-18 Canon Information Systems Research Australia Pty Ltd Scanning and detecting a number of images
US6914597B2 (en) * 2001-10-17 2005-07-05 Hewlett-Packard Development Company, L.P. System for bi-directional video signal transmission
US6970606B2 (en) * 2002-01-16 2005-11-29 Eastman Kodak Company Automatic image quality evaluation and correction technique for digitized and thresholded document images
US7068855B2 (en) * 2002-07-16 2006-06-27 Hewlett-Packard Development Company, L.P. System and method for manipulating a skewed digital image
US7027666B2 (en) * 2002-10-01 2006-04-11 Eastman Kodak Company Method for determining skew angle and location of a document in an over-scanned image
KR20060012634A (ko) * 2003-05-20 2006-02-08 코닌클리케 필립스 일렉트로닉스 엔.브이. 에지 오리엔테이션 추정
EP1629435A1 (de) * 2003-05-20 2006-03-01 Koninklijke Philips Electronics N.V. Kantenorientierungsschätzung
JP2005115417A (ja) 2003-10-02 2005-04-28 Canon Inc 画像読取処理装置、画像読取処理方法、プログラムおよび記憶媒体
US6956587B1 (en) * 2003-10-30 2005-10-18 Microsoft Corporation Method of automatically cropping and adjusting scanned images
JP4033198B2 (ja) * 2004-02-27 2008-01-16 カシオ計算機株式会社 画像処理装置、画像投影装置、画像処理方法及びプログラム
JP4277768B2 (ja) * 2004-05-14 2009-06-10 セイコーエプソン株式会社 写真イメージ領域抽出装置およびコピー装置
US7574071B2 (en) * 2004-10-05 2009-08-11 Seiko Epson Corporation Method and apparatus for resizing images
KR100777462B1 (ko) * 2005-01-19 2007-11-21 삼성전자주식회사 스캐닝장치, 그것을 구비하는 스캐닝시스템 및 스캐닝방법
US20070002375A1 (en) * 2005-06-30 2007-01-04 Lexmark International, Inc. Segmenting and aligning a plurality of cards in a multi-card image
JP2007020122A (ja) * 2005-07-11 2007-01-25 Canon Inc 画像処理装置、画像処理装置の制御方法およびプログラム
JP4945962B2 (ja) * 2005-08-30 2012-06-06 富士ゼロックス株式会社 電子文書管理システム、廃棄処理装置、および廃棄処理方法
US8619313B2 (en) * 2005-10-28 2013-12-31 Hewlett-Packard Development Company, L.P. Scanning device with plural image capture zones on a platen
US7742659B2 (en) * 2006-05-09 2010-06-22 Arcsoft, Inc. Edge based auto order supporting rotation algorithm
JP2008059081A (ja) * 2006-08-29 2008-03-13 Sony Corp 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
JP5241631B2 (ja) * 2008-07-04 2013-07-17 キヤノン株式会社 画像処理方法、画像処理装置及びプログラム
US9547799B2 (en) * 2008-07-17 2017-01-17 Sharp Laboratories Of America, Inc. Methods and systems for content-boundary detection
US8326078B2 (en) * 2009-01-27 2012-12-04 Hewlett-Packard Development Company, L.P. System and method for removing artifacts from a digitized document
US8873864B2 (en) * 2009-12-16 2014-10-28 Sharp Laboratories Of America, Inc. Methods and systems for automatic content-boundary detection
US8682075B2 (en) 2010-12-28 2014-03-25 Hewlett-Packard Development Company, L.P. Removing character from text in non-image form where location of character in image of text falls outside of valid content boundary
WO2012166982A2 (en) * 2011-05-31 2012-12-06 Polyvision Corporation Document unbending systems and methods
JP2013090177A (ja) * 2011-10-19 2013-05-13 Shimoda Oa System Corp 画像処理プログラムおよび画像処理装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2834457B2 (ja) * 1988-11-25 1998-12-09 キヤノン株式会社 画像レイアウト装置
EP0461817A3 (en) * 1990-06-15 1993-11-18 American Telephone & Telegraph Image segmenting apparatus and methods
JPH067360U (ja) * 1991-07-30 1994-01-28 大日本スクリーン製造株式会社 画像読取装置
JPH08153209A (ja) * 1994-11-29 1996-06-11 Dainippon Printing Co Ltd 一括画像入力による印刷用画像データの作成方法および作成装置

Also Published As

Publication number Publication date
JP3883696B2 (ja) 2007-02-21
US5974199A (en) 1999-10-26
JPH118755A (ja) 1999-01-12
DE19814075B4 (de) 2009-12-03

Similar Documents

Publication Publication Date Title
DE19814075B4 (de) Verfahren zum Abtasten und Erkennen mehrerer Fotografien und zum Beseitigen von Randfehlern
DE3716787C2 (de)
DE3633743C2 (de)
DE19960555B4 (de) Verfahren zum Auffinden und Lesen eines zweidimensionalen Strichcodes
DE3926327C2 (de) Verfahren und System zum Erkennen von Zeichen auf einem Medium
DE69929572T2 (de) Verfahren zum Lesen eines zweidimensionalen Strichcode ohne Taktsignal und ohne Ränder
DE69432585T2 (de) Verfahren und Gerät zur Auswahl von Text und/oder Non-Text-Blöcken in einem gespeicherten Dokument
DE69723220T2 (de) Gerät und Verfahren zur Extrahierung von Tabellengeraden innerhalb normaler Dokumentbilder
EP0131676B1 (de) Verfahren zum automatischen Digitalisieren des Umrisses von Strichgraphiken z.B. Buchstaben
DE69721941T2 (de) Gerät und Verfahren zum Extrahieren von Mustern
EP1260933B1 (de) Verfahren zum Erfassen von zweidimensionalen Codes
DE69835358T2 (de) Verfahren zur Korrektur der Verzerrung beim Abtasten eines optischen Codes
DE69926205T2 (de) Artefaktentfernungstechnik für schiefenkorrigierte bilder
DE60204005T2 (de) Verfahren und einrichtung zur erkennung eines handschriftlichen musters
DE3425449A1 (de) Verfahren und vorrichtung zur alphanumerischen handschriftenerkennung
DE3722444A1 (de) Verfahren und vorrichtung zum erzeugen von entwurfsmusterdaten
DE3923449A1 (de) Verfahren zum bestimmen von kanten in bildern
DE1549930B2 (de) Einrichtung zum Erkennen vorzugsweise handgeschriebener Schriftzeichen
EP0402868B1 (de) Verfahren zur Erkennung von vorab lokalisierten, in digitalen Grauwertbildern vorliegenden Zeichen, insbesondere zum Erkennen von in Metalloberflächen eingeschlagenen Zeichen
DE112010001320T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bilderverarbeitungsprogramm und Speichermedium
CH708993B1 (de) Verfahren und Vorrichtung zum Identifizieren eines zweidimensionalen Punktcodes.
DE2829808A1 (de) Verfahren und vorrichtung zum lesen von zeichen
DE69929110T2 (de) Einrichtung und Verfahren zur Erzeugung von Druckdaten des zweidimensionalen Koden und zugehöriges Aufzeichnungsmedia
DE10141876A1 (de) Verfahren zur Erkennung eines Codes
DE69813416T2 (de) Vorrichtungen zur Linienrichtungsbestimmung, Bildschrägeerfassung und Bildschrägekorrektur.

Legal Events

Date Code Title Description
8128 New person/name/address of the agent

Representative=s name: WAGNER & GEYER PARTNERSCHAFT PATENT- UND RECHTSANW

8110 Request for examination paragraph 44
8364 No opposition during term of opposition
R082 Change of representative

Representative=s name: WAGNER & GEYER PARTNERSCHAFT PATENT- UND RECHT, DE

R081 Change of applicant/patentee

Owner name: KODAK ALARIS INC., ROCHESTER, US

Free format text: FORMER OWNER: EASTMAN KODAK CO., ROCHESTER, N.Y., US

Effective date: 20141028

R082 Change of representative

Representative=s name: WAGNER & GEYER PARTNERSCHAFT PATENT- UND RECHT, DE

Effective date: 20141028

Representative=s name: WAGNER & GEYER PARTNERSCHAFT MBB PATENT- UND R, DE

Effective date: 20141028

R071 Expiry of right