DE60311748T2 - Verfahren zur Bestimmung von Rändern zwischen Bildbereichen mit verschiedenen Bildmerkmalen - Google Patents

Verfahren zur Bestimmung von Rändern zwischen Bildbereichen mit verschiedenen Bildmerkmalen Download PDF

Info

Publication number
DE60311748T2
DE60311748T2 DE60311748T DE60311748T DE60311748T2 DE 60311748 T2 DE60311748 T2 DE 60311748T2 DE 60311748 T DE60311748 T DE 60311748T DE 60311748 T DE60311748 T DE 60311748T DE 60311748 T2 DE60311748 T2 DE 60311748T2
Authority
DE
Germany
Prior art keywords
edge
area
original
image data
unit area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60311748T
Other languages
English (en)
Other versions
DE60311748D1 (de
Inventor
Shinichi c/o Fujitsu Frontech Ltd. Inagi-shi Eguchi
Naoko c/o Fujitsu Frontech Ltd. Inagi-shi Suzuki
Yutaka c/o Fujitsu Frontech Ltd. Inagi-shi Katsumata
Kouichi c/o Fujitsu Frontech Ltd. Inagi-shi Kanamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Ltd
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fujitsu Frontech Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of DE60311748D1 publication Critical patent/DE60311748D1/de
Publication of DE60311748T2 publication Critical patent/DE60311748T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30176Document
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Description

  • Hintergrund der Erfindung
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Bildverarbeitungstechnologie, und genauer auf eine Bildverarbeitungstechnologie der Detektierens der Position, an der das Merkmal einer Fläche sich in Bilddaten ändert.
  • Beschreibung des verwandten Standes der Technik Ein Bildleser zum optischen Lesen von Daten, wie etwa ein Scanner, ein Kopiergerät, etc., ist wohlbekannt als eine Vorrichtung, die in der Lage ist, ein Original (zum Beispiel ein Papiermedium, etc.) durch optisches Lesen des Originals in Daten zu konvertieren. Ein Lesen des Originals im Bildleser wird normalerweise durchgeführt, indem die Vorderseite des Originals (die Oberfläche, von der Daten gelesen werden sollen) der Leseoberfläche des Bildlesers zugewandt angeordnet wird, und indem die Hinterseite des Originals mit einer Originalabdeckung zum Abdecken des Originals abgedeckt wird. Wenn ein Bild praktisch von dem Original gelesen wird, wird Licht von der Leseoberfläche zu der Vorderseite des Originals, während es, wie oben beschrieben, der Leseoberfläche zugewandt ist, emittiert, das von der Vorderseite des Originals reflektierte Licht wird Zeile für Zeile durch eine optische Lesevorrichtung gelesen (z.B. ein CCD (Charged Coupled Device), etc.), die auf der Leseoberfläche ausgebildet ist, und die von der Vorderseite gelesene Information wird in ein elektrisches Signal konvertiert, wodurch letztendlich die Bilddaten des Originals gebildet werden.
  • Wenn das Original kleiner ist als der Lesebereich der Leseoberfläche, erscheint die Hinterseite (die die Leseoberfläche der Originalabdeckung ist, der Hintergrund des Originals sein kann, und daher die Hintergrundtafel genannt wird) der Originalabdeckung von der Leseoberfläche her gesehen um das Origi nal herum. Im Ergebnis wird, wenn ein Bild gelesen wird, die Hintergrundtafel, wie auch die Vorderseite des Originals gelesen. Somit zeigen die Bilddaten in diesem Falle die Hintergrundtafel um das Original.
  • So gebildete Bilddaten werden zum Beispiel auf Papier gedruckt, durch OCR-Verarbeitung (Optical Character Recognition, optische Zeichenerkennung) der Zeichenfläche in den Bilddaten bearbeitet, und teilweise die Bilddaten ausgeschnitten werden, nach der Drehung der Bilddaten werden Korrekturen durchgeführt, die Bilddaten werden unverändert in einer Datenbank abgespeichert, etc., für verschiedene Verwendungen.
  • Normalerweise ist es, wenn die OCR-Verarbeitung durchgeführt wird, zweckmäßig, wenn ein zu verarbeitendes Original einem Standarddokument folgt, bei dem Druckpositionen wie in einer Liste vorbestimmt sind.
  • Wenn das Standarddokument bei der OCR-Verarbeitung verwendet wird, wird das Standarddokument in Bilddaten konvertiert, und die Bilddaten des Standarddokuments (hiernach auch als ein Standarddokumentbild bezeichnet) werden angemessen bei Korrekturverarbeitung, wie etwa einer Drehungsänderung, etc., bearbeitet. Wenn die Druckpositionen im Vorhinein auf dem Standarddokumentbild als eine Grundlage der Referenzpositionen auf dem Standarddokumentbild eingestellt sind, dann kann die Druckposition von dem angepassten Standarddokumentbild abgeschätzt werden. Dann wird durch die auf der geschätzten Druckposition durchgeführte OCR-Verarbeitung eine Zeichenerkennungsverarbeitung auf den geschätzten Druckpositionen durchgeführt, wodurch gewünschte Zeicheninformation abgerufen wird.
  • Jedoch gibt es eine Reihe von Fällen, bei denen die Rahmen des Originals eines Standarddokuments, wie etwa die oben erwähnte Liste, etc., weiße Ränder aufweisen. Wenn ein Original eines Standarddokument, das kleiner ist als ein Lesebereich des Bildlesers ist, gelesen wird, wobei die Hintergrundtafel in der selben oder einer ähnlichen Farbe wie der Rand verwendet wird, dann werden die gewonnenen und gebildeten Bilddaten keinen Rand zwischen dem Original eines Standarddokuments und der Hintergrundtafel anzeigen. Das heißt, der Rand, der erscheinen soll, erscheint tatsächlich wie der Randabschnitt und der umgebende Abschnitt in derselben Farbe. Des weiteren sind, da die Anordnung zur Leseoberfläche des Originals eines Standarddokuments, das der Leseoberfläche des Bildlesers zugewandt angeordnet ist, jedes Mal anders ist, wenn das Original angeordnet wird, der Winkel und die Anordnung eines in den gebildeten Bilddaten erfassten Standarddokuments unter den Bilddaten verschieden. Um die OCR-Verarbeitung auf den Bilddaten durchzuführen, wird daher ein neuer Schritt der Angabe des Zustands (Winkel und Anordnung) des Originals eines in den Bilddaten erfassten Standarddokuments benötigt.
  • Herkömmlicherweise ist der Bildleser eine sehr teure Vorrichtung für eine spezielle Verwendung, und er ist ausgelegt, den Zustand eines Original eines in den Bilddaten erfassten Standarddokuments zu detektieren, in dem er im Vorhinein eine schwarze Hintergrundtafel einstellt.
  • Somit wird, indem jedes Original eines Standarddokuments unter Verwendung der Hintergrundtafel gelesen wird, der Zustand des Originals eines Standarddokuments basierend auf dem Rand, der die bestimmte Grauskaladifferenz zwischen dem Schwarz der Hintergrundtafel, das in den gelesenen Bilddaten des Originals eines Standarddokuments angezeigt wird, und dem Weiß der Rahmen des Originals eines Standarddokument anzeigt, angegeben.
  • Eine der oben erwähnten Technologie ähnliche Technologie wird bei einem Kopiergerät angewendet. Sie ist verschieden von der Technologie der Verwendung verschiedener Farben zwischen den Rahmen eines Originals und der Hintergrundtafel, aber ist dafür ausgelegt, die Fläche eines Originals, das in der RGB-Anordnung von der Hintergrundtafel verschieden ist, anzugeben, indem sie es dem Bildleser erlaubt, die voreingestellte RGB-Anordnung der Hintergrundtafel beliebig neu anzuordnen.
  • US-A-5 577 131 offenbart eine Vorrichtung zum Segmentieren von aus Texturen bestehenden Bildern basierend auf Digitalsignalen, die für die Bilder repräsentativ sind, indem jede Textur charakterisiert wird, indem repräsentative Parameter verwendet werden und jedes Bild in Regionen zerlegt wird, die mit verschiedenen Texturen assoziiert sind. Für diese Charakterisierung umfasst die Vorrichtung eine Unterbaugruppe zur direktionalen morphologischen Filterung und eine Unterbaugruppe zur Bestimmung der Texturparameter, und, am Ausgang dieser Unterbaugruppe, eine Unterbaugruppe zur Segmentierung in Regionen durch die Technik des Extrahierens von Wasserscheidelinien in einem Texturparameterbild, das in Blöcke einer gegebenen Größe unterteilt ist. Eine Sequenzierungsstufe stellt die verschiedenen Steuersignale der Unterbaugruppen bereit.
  • Eine so genannte Übersegmentierung kann reduziert werden, indem ein Verfahren durchgeführt wird, bei dem möglicherweise benachbarte Regionen umgruppiert werden, was hier durch eine Unterbaugruppe zum Zusammenfügen der Regionen verwirklicht wird. Die in dieser Unterbaugruppe verwirklichte Zusammenfügungsbehandlung umfasst die folgenden Schritte:
    • (a) etablieren einer hierarchischen Klassifikation der Regionen, deren aufeinander folgende Elemente Paare benachbarter Regionen in der Reihenfolge abnehmender Nähe sind;
    • (b) für jedes der Paare von Regionen dieser Klassifizierung, Zuordnung (mit jeder der beiden verglichenen Regionen) einer Größe, die repräsentativ ist für die Verteilung ihrer Pixel;
    • (c) Entscheidung über Zusammenführung oder Nichtzusammenführung der beiden Regionen als eine Funktion eines Kriteriums, das mit den repräsentativen Werten in Beziehung steht.
  • US-A-5 331 442 offenbart eine Technik zur Identifizierung von Grafik- und Zeichenflächen in einem Farbbildverarbeiter, wie etwa einem digitalen Farbkopiergerät, so dass die Zeichenflächen und Halbtonflächen, oder schwarze Flächen und farbige Zeichen separat verarbeitet werden können.
  • Ein Blockbeurteilungsabschnitt beurteilt, ob ein Subjektblock, der eine Vielzahl von Subjektpixeln enthält, ein weißer Block, ein schwarzer Zeichenblock, oder ein Grafik-/Farbblock ist, auf der Basis der Häufigkeit weißer Subjektpixel und der Dichteverteilung von grauen Subjektpixeln. Ein Makrokorrekturabschnitt korrigiert einen Beurteilungswert eines Zeichens auf den eines Grafikblocks, oder umgekehrt, auf der Basis einer ersten Beurteilung, ob es in den den Subjektblock umgebenden Blocks eine Grafikfläche gibt, die größer ist als eine vorbestimmte Größe, und einer zweiten Beurteilung über das Verhältnis zwischen Zeichenblocks und Grafikblocks in den direkt dem Subjektblock angrenzenden Blocks. Der makrokorrigierte Beurteilungswert des Subjektblocks wird verwendet, um Bilddaten einer Entwicklungsfarbe oder -farben auszuwählen, die notwendig sind, um den Subjektblock zu reproduzieren.
  • WO-A-94/03871 offenbart eine Technik zum Aufteilen eines Bildes in Regionen durch Texturanalyse.
  • Dieses Verfahren umfasst einen ersten Schritt des Unterteilens eines Bildes in Zellen, Berechnen des Parameters des Texturmerkmals jeder Zelle, Herausgreifen einer Zelle aus den Zellen in Reihenfolge, Auswählen von Zellen, die der herausgegriffenen Zelle benachbart sind, und deren Parameter denen der herausgegriffenen Zelle angenähert sind, und Zusammenführen der ausgewählten Zellen in die herausgegriffene Zelle, um das Bild in Regionen aufzuteilen, mit den Zellen als Einheiten; und einen zweiten Schritt des Herausgreifens einer Region aus den Regionen in Reihenfolge und der Randzellen, die Texturkanten enthalten und den Regionen in Reihenfolge benachbart sind, um durch Analogieschluss die Positionen und Richtungen der Texturkanten in den Randzellen aus der Beziehung zwischen der Anordnung der Randzellen und den aufgeteilten Regionen und den Parametern der Texturmerkmale zu bestimmen; einen dritten Schritt der Bestimmung der repräsentativen Koordinaten der Texturkanten auf der Basis der Positionen und Richtungen der durch Analogieschluss bestimmten Texturkanten; und einen vierten Schritt der Wiederherstellung der Texturkantenkonfiguration durch Interpolieren der berechneten repräsentativen Koordinaten der mehreren Texturkanten durch die Verwendung einer Interpolationsfunktion. Somit ist es möglich, ein Bild in Regionen mit hoher Auflösung mit einer vergleichsweise geringen Menge Berechnung aufzuteilen, unabhängig von den Größen und Konfigurationen der Zellen.
  • Zusammenfassung der Erfindung
  • Die vorliegende Erfindung zielt darauf ab, die Technologie bereitzustellen, die Kante eines Originals aus den Bilddaten zu detektieren, die das Original und die um das Original erfasste Hintergrundtafel umfassen, und die aus einer beliebigen Kombination eines Originals und einer Hintergrundtafel gelesen werden, die unter mehreren Typen von Originalen und Hintergrundtafeln ausgewählt wurden. Die Technologie wird bereitgestellt als ein Randdetektionsverfahren, ein computerlesbares, handliches Speichermedium, dass sein Programm speichert, eine Bildverarbeitungsvorrichtung, und ein Kopiergerät, auf der Basis der Detektion des Randes zwischen Flächen, die verschiedene Merkmale aufweisen, unter beliebigen benachbarten Flächen in den Bilddaten, und sie wird verwirklicht, indem Merkmalsinformation, die von allen Pixeln in einer Einheitsfläche für jede Einheitsfläche der Bilddaten abhängt, extrahiert wird, wodurch eine Differenz zwischen den Merkmalsinformationen zwischen benachbarten Einheitsflächen für eine beliebige Einheitsfläche gewonnen wird und die Einheitsfläche, deren Differenz bei einem vorbestimmten Niveau oder darüber liegt, als der Rand bestimmt wird.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm der Bildverarbeitungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 zeigt ein Beispiel des Anzeigens eines gerahmten Originalbilds;
  • 3 zeigt ein Beispiel eines Ablaufes der Operationen, die durch eine Druckflächenausschlusseinheit 100 durchgeführt werden;
  • 4A und 4B zeigen den Vergleich zwischen der durch die Druckflächenausschlusseinheit 100 angegebenen Druckfläche und dem Originalbild;
  • 5 zeigt ein Beispiel der Operation, die durch eine Merkmalshervorhebungseinheit 102 durchgeführt wird;
  • 6 zeigt ein Beispiel des Falles, bei dem ein gerahmtes Originalbild A gescannt wird, nachdem es in Einheits-Pixelflächen unterteilt wurde;
  • 7 zeigt gemessene Daten der Merkmalsmenge, die in der in 2 gezeigten rechteckigen Fläche 210 gewonnen wurde;
  • 8 ist ein Graph des Hochfrequenzelements, basierend auf den in 7 gezeigten gemessenen Daten;
  • 9 ist ein Graph des Niedrigfrequenzelements, basierend auf den in 7 gezeigten gemessenen Daten;
  • 10 ist ein Graph des Gleichstromelements, basierend auf den in 7 gezeigten gemessenen Daten;
  • 11 zeigt ein Beispiel eines Ablaufes der Operationen, die durch eine Einheit 104 zur vorläufigen Bestimmung einer Kante durchgeführt werden;
  • 12 zeigt die Anordnung von Pixelflächen eines Objekts, dessen Merkmalsmengendurchschnitt zu gewinnen ist;
  • 13 zeigt die Anordnung einer vorläufig bestimmten Kante für ein gerahmten Originalbild A;
  • 14 zeigt einen Operationsablauf in einem Wichtungsbestimmungsprozess;
  • 15 zeigt einen Operationsablauf in einem Spitzendetektionsprozess;
  • 16 zeigt eine Niveauverteilung einer vorbestimmten Linie;
  • 17 zeigt einen Ablauf von Operationen, die durch eine Kantenbestimmungseinheit 106 durchgeführt werden;
  • Die 18A, 18B, und 18C zeigen den Bereich des durch die Kantenbestimmungseinheit 106 auf einem gerahmten Originalbild A durchgeführten Prozesses;
  • 19 zeigt einen Ablauf der Robustheitskorrekturverarbeitung;
  • 20 zeigt ein Beispiel eines Ablaufs des gesamten Prozesses für die Festlegung der Kante eines Originals;
  • 21 ist ein Blockdiagramm eines Kopiergeräts;
  • 22 zeigt ein Beispiel (1) der Hardware, für die die Bildverarbeitungstechnologie verwendet wird;
  • 23 zeigt ein Beispiel (2) der Hardware, für die die Bildverarbeitungstechnologie verwendet wird;
  • 24 zeigt ein Beispiel (1) eines Operationsablaufs in der in 23 gezeigten Hardware;
  • 25 zeigt ein Beispiel (2) eines Operationsablaufs in der in 23 gezeigten Hardware;
  • 26 zeigt ein Beispiel einer Anwendung der Bildverarbeitungstechnologie gemäß der vorliegenden Erfindung; und
  • 27 zeigt einen Ablauf der Erzeugung eines schwarzen Hintergrundtafelbildes.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Das Randdetektionsverfahren gemäß einer Ausführungsform der vorliegenden Erfindung basiert darauf, in den eingegebenen Bilddaten eines Originals, dessen vorderes Bild mit einer Hintergrundtafel als seinem Hintergrund eingegeben wird, den Rand zwischen der Hintergrundtafel und dem Original für die eingegebenen Bilddaten eines Bildes eines Teils der Hintergrundtafel und die Kante des in der gleichen Farbe eingegebenen Originals zu detektieren, und wird verwirklicht durch die Durchführung einer Fouriertransformation auf jeder ersten Einheitsfläche der eingegebenen Bilddaten, Extraktion erster Bildfrequenzinformation vorbestimmter Typen, die durch die Fouriertransformationsverarbeitung erhalten wurde, Definieren eines Wertes, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten ersten Bildfrequenzinformation addiert wird, als repräsentative Merkmalsinformation für jede der ersten Einheitsflächen, vorläufiges Bestimmen einer entsprechenden Fläche auf einer Näherungslinie als den Rand, wobei die Näherungslinie erhalten wird, indem eine Liniennäherung auf einer ersten Einheitsfläche durchgeführt wird, deren Varianz von der repräsentativen Merkmalsinformation über eine angrenzende erste Einheitsfläche auf einem vorbestimmten Niveau oder größer als dieses in einer beliebigen ersten Einheitsfläche ist, Durchführen einer Fouriertransformation auf jeder zweiten Einheitsfläche, die kleiner ist als die erste Einheitsfläche, in der vorläufig als der Rand bestimmten ersten Einheitsfläche und einer der ersten Einheitsfläche benachbarten Fläche, Extrahieren von zweiter Bildfrequenzinformation von vorbestimmten Typen, die durch die Fouriertransformation erhalten wurde, Definieren eines Wertes, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten zweiten Bildfrequenzinformation addiert wird, als repräsentative Merkmalsinformation für jede zweite Einheitsfläche, Durchführen einer Wavelettransformation auf der repräsentativen Merkmalsinformation, Durchführen einer Liniennäherung auf einer zweiten Einheitsfläche, deren Wert für jede zweiten Einheitsfläche, der durch die Wavelettransformation erhalten wurde, bei einem vorbestimmten Niveau oder größer als dieses ist, und Bestimmen der Position auf der Näherungslinie, die durch die Liniennäherung als der Rand erhalten wurde.
  • Bei dem obigen Randdetektionsverfahren wird gewünscht, eine Druckfläche für die Bilddaten oder eingegebenen Bilddaten anzugeben, und im folgenden Schritt die Bilddaten oder eingegebenen Bilddaten ausschließlich der Druckfläche zu nutzen.
  • Es wird ebenfalls gewünscht, dass die Merkmalsinformation oder die Bildfrequenzinformation ein Hochfrequenzelement, ein Niedrigfrequenzelement, ein Gleichstromelement und eine Frequenzverteilung sind, die in der Einheitsfläche enthalten sind, aus der Merkmalsinformation oder die Bildfrequenzinformation extrahiert werden.
  • Das Programms gemäß einer Ausführungsform der vorliegenden Erfindung basiert darauf, es einem Computer zu erlauben, in den eingegebenen Bilddaten eines Originals, dessen vorderes Bild mit einer Hintergrundtafel als seinem Hintergrund eingegeben wird, den Rand zwischen der Hintergrundtafel und dem Original für die eingegebenen Bilddaten eines Bildes eines Teils der Hintergrundtafel und die Kante des in der gleichen Farbe eingegebenen Originals zu detektieren, und wird verwirklicht durch die Funktion der Durchführung einer Fouriertransformation auf jeder ersten Einheitsfläche der eingegebenen Bilddaten, die Funktion des Extrahierens erster Bildfrequenzinformation vorbestimmter Typen, die durch die Fouriertransformationsverarbeitung erhalten wurde, die Funktion des Definierens eines Wertes, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten ersten Bildfrequenzinformation addiert wird, als repräsentative Merkmalsinformation für jede der ersten Einheitsflächen, die Funktion des vorläufigen Bestimmens einer entsprechenden Fläche auf ei ner Näherungslinie als den Rand, wobei die Näherungslinie erhalten wird, indem eine Liniennäherung auf einer ersten Einheitsfläche durchgeführt wird, deren Varianz von der repräsentativen Merkmalsinformation über eine angrenzende erste Einheitsfläche auf einem vorbestimmten Niveau oder größer als dieses in einer beliebigen ersten Einheitsfläche ist, die Funktion des Durchführens einer Fouriertransformation auf jeder zweiten Einheitsfläche, die kleiner ist als die erste Einheitsfläche, in der vorläufig als der Rand bestimmten ersten Einheitsfläche und einer der ersten Einheitsfläche benachbarten Fläche, die Funktion des Extrahierens von zweiter Bildfrequenzinformation von vorbestimmten Typen, die durch die Fouriertransformation erhalten wurde, die Funktion des Definierens eines Wertes, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten zweiten Bildfrequenzinformation addiert wird, als repräsentative Merkmalsinformation für jede zweite Einheitsfläche, die Funktion des Durchführens einer Wavelettransformation auf der repräsentativen Merkmalsinformation, die Funktion des Durchführens einer Liniennäherung auf einer zweiten Einheitsfläche, deren Wert für jede zweiten Einheitsfläche, der durch die Wavelettransformation erhalten wurde, bei einem vorbestimmten Niveau oder größer als dieses ist, und der Funktion des Bestimmens der Position auf der Näherungslinie, die durch die Liniennäherung als der Rand erhalten wurde.
  • Bei dem obigen Programm wird gewünscht, die Funktionen zu verwirklichen, eine Druckfläche für die Bilddaten oder eingegebenen Bilddaten anzugeben, und dann die Bilddaten oder eingegebenen Bilddaten ausschließlich der Druckfläche zu nutzen.
  • Es wird ebenfalls gewünscht, dass die Merkmalsinformation oder die Bildfrequenzinformation ein Hochfrequenzelement, ein Niedrigfrequenzelement, ein Gleichstromelement und eine Frequenzverteilung sind, die in der Einheitsfläche enthalten sind, aus der Merkmalsinformation oder die Bildfrequenzinformation extrahiert werden.
  • Die Bildverarbeitungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung basiert darauf, in den eingegebenen Bilddaten eines Originals, dessen vorderes Bild mit einer Hintergrundtafel als seinem Hintergrund eingegeben wird, den Rand zwischen der Hintergrundtafel und dem Original für die eingegebenen Bilddaten eines Bildes eines Teils der Hintergrundtafel und eine Kante des in einer gleichen Farbe eingegebenen Originals zu detektieren, und umfasst eine Merkmalshervorhebungseinheit zur Durchführung einer Fouriertransformation auf jeder ersten Einheitsfläche der eingegebenen Bilddaten, und zum Extrahieren erster Bildfrequenzinformation vorbestimmter Typen, die durch die Fouriertransformationsverarbeitung erhalten wurde, eine Einheit zur vorläufigen Bestimmung des Randes, die einen Wert, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten ersten Bildfrequenzinformation addiert wird, als repräsentative Merkmalsinformation für jede der ersten Einheitsfläche definiert, und die vorläufig eine entsprechende Fläche auf einer Näherungslinie, die erhalten wird, indem eine Liniennäherung auf einer ersten Einheitsfläche durchgeführt wird, deren Varianz von der repräsentativen Merkmalsinformation über eine angrenzende erste Einheitsfläche auf einem vorbestimmten Niveau oder größer als dieses in einer beliebigen ersten Einheitsfläche ist, als den Rand bestimmt, und eine Randbestimmungseinheit zur Durchführung einer Fouriertransformation auf jeder zweiten Einheitsfläche, die kleiner ist als die erste Einheitsfläche, in der vorläufig als der Rand bestimmten ersten Einheitsfläche und einer der ersten Einheitsfläche benachbarten Fläche, und zur Extrahierung zweiter Bildfrequenzinformation von vorbestimmten Typen, die durch die Fouriertransformation erhalten wurde, und die einen Wert als repräsentative Merkmalsinformation für jede zweite Einheitsfläche definiert, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten zweiten Bildfrequenzinformation addiert wird, die eine Wavelettransformation auf der repräsentativen Merkmalsinformation durchführt, die eine Liniennäherung auf einer zweiten Einheitsfläche durchführt, deren Wert für jede zweite Einheitsfläche, der durch die Wavelettransformation erhalten wurde, bei einem vorbestimmten Niveau oder größer als dieser ist, und die eine Position auf der Näherungslinie bestimmt, die durch die Liniennäherung als der Rand erhalten wurde.
  • Bei der obigen Bildverarbeitungsvorrichtung ist weiter gewünscht, eine Druckflächenausschlusseinheit zu umfassen, um eine Druckfläche der Bilddaten auszuschließen.
  • Es wird ebenfalls gewünscht, dass die Merkmalsinformation oder die Bildfrequenzinformation ein Hochfrequenzelement, ein Niedrigfrequenzelement, ein Gleichstromelement und eine Frequenzverteilung sind, die in der Einheitsfläche enthalten sind, aus der Merkmalsinformation oder die Bildfrequenzinformation extrahiert werden.
  • Die Bildverarbeitungsvorrichtung kann weiterhin eine Bildleseeinheit zum optischen Einlesen eines Originals und Erzeugen der Bilddaten des Originals umfassen.
  • Gemäß einer solchen Ausführungsform der vorliegenden Erfindung wird Merkmalsinformation, wie etwa Bildfrequenz, usw., die für die gesamten Einheitspixel bestimmt wurden, für jede Einheitsfläche von Bilddaten extrahiert. Wenn somit zwei Blätter Papier, die unterschiedliche Oberflächenzustände aufweisen, in den Bilddaten erfasst wurden, können die beiden Blätter Papier als mit unterschiedlichen Merkmalsinformationen über ihre Zustände versehen extrahiert werden, obwohl die beiden Blätter Papier von gleicher Farbe sind.
  • Wenn die Varianz zwischen den benachbarten Flächen gemäß der extrahierten Merkmalsinformation erhalten wurde, vergrößert sich dann die Varianz an dem Rand zwischen den beiden Blättern Papier, die verschiedene Oberflächezustände aufweisen. Somit kann die Position der Steigerung der Varianz des Bildes als der Rand zwischen den beiden Blättern Papier festgelegt werden.
  • Wenn es des Weiteren ein weißes Original mit schwarzen gedruckten Zeichen und ein weiteres Original der selben Farbe, benachbart zu dem weißen, in den Bilddaten erfassten, Original gibt, ist es möglich, zunächst eine dunklere Druckfläche auszuschließen. Somit kann die Position des Randes zwischen ihnen leicht festgelegt werden.
  • Die Ausführungsform der vorliegenden Erfindung wird unten detailliert unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
  • Die Bildverarbeitungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung ist ein Bildleser zum Lesen eines Originalbildes mit einer Hintergrundtafel (das Element, das in eine Originalabdeckung zum Halten eines Originals von der Hinterseite des Originals eingebaut ist, wenn das Original mit der Vorderseite in Kontakt mit der optischen Leseoberfläche angeordnet wird, und dann angeordnet wird, die Hinterseite der Originalabdeckung in Kontakt zu stehen), der für einen Scanner, ein Kopiergerät, usw. bereitgestellt wird.
  • Gemäß der Ausführungsform der vorliegenden Erfindung wird der Rand zwischen einem Originalbild und einem Hintergrundtafelbild in einem gerahmten Originalbild detektiert (hiernach werden das Originalbild und das um das Originalbild gebildete Hintergrundtafelbild kollektiv als das gerahmte Originalbild bezeichnet), das das Originalbild und das Bild der Hinter grundtafel (hiernach als Hintergrundtafelbild bezeichnet), das durch den Bildleser um das Originalbild gelesen wurde, aufweist.
  • Es wird angenommen, dass das durch den Bildleser gelesene Original eine weiße Umrandungsfläche um sich herum aufweist, und dass die Farbe der Hintergrundtafel weiß ist, das heißt, dieselbe Farbe wie die Umrandungsfläche.
  • Aus Gründen der Bequemlichkeit wird angenommen, dass das Original ein recheckiges Papier ist, und eine Druckfläche in ihrer Gesamtheit (zum Beispiel eine Liste, usw.), auf der Zeichen und Netzlinien gedruckt sind, außer auf der Umrandungsfläche des Originals.
  • 1 ist ein Blockdiagramm der Bildverarbeitungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Wie in 1 gezeigt, umfasst die Bildverarbeitungsvorrichtung, eine Druckflächenausschlusseinheit 100, eine Merkmalshervorhebungseinheit 102, eine Einheit 104 zur vorläufigen Bestimmung einer Kante, und eine Kantenbestimmungseinheit 106. Die Druckflächenausschlusseinheit 100 empfängt ein gerahmtes Originalbild A als Eingabeinformation, und die Kantenbestimmungseinheit 106 gibt Kanteninformation B als die Ausgabeinformation als Reaktion auf die Eingabeinformation aus.
  • Das in 1 gezeigte Originalbild wird durch Lesen der Vorderseite des Originals in einer Pixeleinheit durch eine bekannte, nicht in den beigefügten Zeichnungen gezeigte Bildlesereinheit und anschließendes elektrisches Wandeln der gelesenen Information erzeugt. Das erzeugte gerahmte Originalbild A weist die Graustufeninformation über R (rot), G (grün) und B (blau) für jedes Pixel auf, oder die Bildinformation basierend auf der Verwaltung einer Verweistabelle.
  • Vor der Erklärung jeder der oben erwähnten Einheiten wird zunächst das Merkmal des gerahmten Originals unter Bezugnahme auf 2 erklärt.
  • 2 zeigt ein Beispiel des gerahmten in 1 gezeigten Originalbildes A, das, wie oben beschrieben auf dem Anzeigebildschirm (hiernach als X-Y-Koordinatenebene oder eine Bildebene bezeichnet) erzeugt wurde, wobei die horizontale Richtung durch eine X-Achse und die vertikale Richtung durch eine Y-Achse auf dem Anzeigebildschirm dargestellt, der in den beigefügten Zeichnungen nicht gezeigt wird.
  • Aus Gründen der Verständlichkeit zeigt das gerahmte Originalbild A, das in 2 gezeigt wird, ein Originalbild rechts von der durchbrochenen Linie an, und ein Hintergrundtafelbild, das von einem Teil der Hintergrundtafel außerhalb der Fläche des Originals gelesen wurde, links von der durchbrochenen Linie. Die in 2 gezeigte durchbrochene Linie ist die Kante des zur Erklärung gezeigten Originals. In der Praxis existiert die durchbrochene Linie nicht als der Rand zwischen dem Originalbild und dem Hintergrundtafelbild.
  • In 2 wird die Fläche, die Zeichen, Netzlinien, Symbole usw. enthält, als eine Druckfläche 200 bezeichnett, der Umrandungsabschnitt der Originalbildes um die Druckfläche 200 wird als Umrandungsfläche 202 bezeichnet, und die Fläche, die die Hintergrundtafel enthält, wird als eine Hintergrundtafelfläche 204 bezeichnet. Die in 2 gezeigte Druckfläche 200 enthält japanische Zeichen. Es ist jedoch nicht notwendig, diese Zeichen zu verstehen, um die Ausführungsformen der vorliegenden Erfindung zu verstehen. Daher können die Ausführungsformen der vorliegenden Erfindung genügend verstanden werden, wenn man diese Zeichen mit Zeichen anderer Sprachen und mit Symbolen ersetzt. Dies gilt ebenso für die japanischen Wörter und Zei chen, die in den 4A und 18A gezeigt werden, und auf die später Bezug genommen wird.
  • Wenn die Kante eines Originalbildes spezifiziert wird kann der Unterschied mit Bestimmtheit in einem Abschnitt 206 detektiert werden, in dem der Schatten der Kante erfasst wurde, und die Kante des Originalbildes kann in dieser Position festgelegt werden.
  • Jedoch ist an der Position der Kante, an der kein Schatten einer Kante in dem gerahmten, in 2 gezeigten Originalbild A erfasst ist (der Abschnitt mit der durchbrochenen Linie, die sich von dem Abschnitt 206, in dem der Schatten einer Kante in der 2 erfasst ist, nach unten erstreckt), die Farbe der Hintergrundtafel der Farbe der Umrandung ähnlich, wie deutlich in 2 gezeigt ist, und es gibt eine Reihe von Daten, bei denen es keinen Farbunterschied zwischen den benachbarten Pixeln an dem Rand gibt. Somit kann eine Kante nicht in ihrer Position basierend auf dem Unterschied im Grauskalenwert festgelegt werden.
  • Jedoch ist der Zustand der Hintergrundtafel (zum Beispiel ist die Oberfläche rau, die Oberfläche ist glatt, die Art von Material ist unterschiedlich, usw.) gewöhnlich verschieden vom Zustand der Umrandung eines Originals (zum Beispiel ist die Oberfläche rau, die Oberfläche ist glatt, die Art von Material ist unterschiedlich, usw.).
  • Daher kann die Position einer Kante wie folgt festgelegt werden, indem der Unterschied im Zustand als einige Merkmalsmengen extrahiert werden.
  • Eine in 2 gezeigte vergrößerte Ansicht 208 ist ein teilvergrößertes Bild einer rechteckigen Fläche 210 und der Umgebung der rechteckigen Fläche, wenn die rechteckige Fläche 210, die die Hintergrundtafelfläche 204 des gerahmten Originalbildes A und die Umrandungsfläche 202, welche den Rand zwischen ihnen enthält, umfasst, und die Umgebung der rechteckigen Fläche gezeigt werden, wobei die Chroma hervorgehoben ist, um den Unterschied zwischen den oben erwähnten Zuständen deutlich anzuzeigen.
  • Indem die Chroma des gerahmten Originalbildes A hervorgehoben wird, wird der Unterschied in der RGB-Anordnung, der von dem Unterschied zwischen den oben erwähnten Zuständen zwischen der Umrandungsfläche 202 und der Hintergrundtafelfläche 204 abhängt, hervorgehoben, und der Rand kann visuell basierend auf dem Unterschied in der Fläche unterschieden werden, wie in 2 gezeigt.
  • Indem das oben erwähnte Merkmal genutzt wird, wird daher jede Einheit der Bildverarbeitungsvorrichtung, die in der Lage ist, den Rand zwischen der Originalfläche eines gerahmten Originalbildes und der Hintergrundtafelfläche festzulegen, unten unter Bezugnahme auf das in 2 gezeigte, gerahmte Originalbild A beschrieben.
  • Die in 1 gezeigte Druckflächenausschlusseinheit 100 scannt jedes Pixel des gerahmten Originalbildes A, legt die in 2 gezeigte Druckfläche 200 fest, indem sie als eine Druckfläche die Pixel bestimmt, deren Grauskalenwerte 200 oder kleiner sind in den Grauskalenwerten des RGB, die durch das Scannen gewonnen wurden, und schließt die Pixel von wahrscheinlichen Pixeln, die die Kante bilden, aus.
  • Die in 1 gezeigte Merkmalshervorhebungseinheit 102 extrahiert eine Merkmalsmenge (zum Beispiel die in der Pixelfläche enthaltene Bildfrequenz (oder ein Spektrum), die Frequenzverteilung, usw.), abhängig von einem spezifizierten Bereich (auch Block genannt) aus dem gerahmten Originalbilds A. Zum Beispiel wird eine schnelle, zweidimensionale Fouriertransformation in einer 32 Pixel langen mal 4 Pixel breiten Einheit durchgeführt, das Spektrum jeder Fläche wird gewonnen, und jeder Durchschnittswert des Hochfrequenzelements, des Niedrigfrequenzelements, und des Gleichstromelements des erhaltenen Spektrums, und die Frequenzverteilung des Spektrums kann als die Merkmalsmenge der Fläche definiert werden.
  • Der vorbestimmte Bereich kann zum Beispiel 1 Pixel lang und m Pixel breit sein (1 und m sind ganze Zahlen), usw.
  • Die Einheitsfläche jedes für den vorbestimmten Bereich des gerahmten Originalbildes auf der Bildebene spezifizierten Pixels wird als Pixelfläche bezeichnet.
  • Die Merkmalshervorhebungseinheit 102 kann auch die Merkmalsmenge jeder Pixelfläche außer der in 2 gezeigten und durch die Druckflächenausschlusseinheit 100 festgelegten Druckfläche 200 extrahieren.
  • Die Einheit 104 zur vorläufigen Bestimmung einer Kante bestimmt vorläufig die Position, die der Kante des Originals auf dem gerahmten Originalbildes entspricht, basierend auf der durch die Merkmalshervorhebungseinheit 102 für jede Pixelfläche extrahierten Merkmalsmenge (zum Beispiel wird der Wert, der erhalten wird, indem man die Merkmalsmengen der Pixelfläche unter Verwendung einer vorbestimmten Wichtung aufaddiert, als Differenzwert definiert, die Spitze des Endes der Differenzwerte wird als eine Kante definiert, die erhaltene Kante wird bei der Liniennäherung verwendet, und die erhaltene Linie wird vorläufig als die Kante bestimmt).
  • Die in 1 gezeigte Kantenbestimmungseinheit 106 extrahiert verschiedene Merkmalsmengen in einer Einheit einer Pixelfläche, die einen engeren Bereich aufweist, als die Pixel fläche, die definiert wird als eine Einheit des Extrahierens einer Merkmalsmenge durch die Merkmalshervorhebungseinheit 102 aus der durch die Einheit 104 zur vorläufigen Bestimmung einer Kante vorläufig bestimmten Position der Kante und der benachbarten Fläche auf der Bildebene, und bestimmt schlussendlich die Kantenposition des Originals auf dem gerahmten Originalbild, basierend auf der Merkmalsmenge (zum Beispiel wird eine eindimensionale, schnelle Fouriertransformation in einer Einheit von 32 Pixeln Länge mal 1 Pixel Breite auf der vorläufig bestimmten Kantenposition und der benachbarten Fläche durchgeführt, eine Wavelettransformation wird auf der in der oben erwähnten Transformation extrahierten Merkmalsmenge durchgeführt, Liniennäherung wird des Weiteren auf der Position der Spitze, die auf dem in der obigen Transformation erhaltenen Wert basiert, durchgeführt, und Position auf der Näherungslinie wird als die Kantenposition definiert, usw.).
  • Somit wird die wie in 1 gezeigte Kanteninformation B ausgegeben.
  • Unten wird ein Beispiel eines Operationsablaufs jeder Einheit der Bildverarbeitungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung beschrieben.
  • Bei dem Scanverfahren, das bei der Verarbeitung eines Bildes im vorliegenden Beispiel verwendet wird, wird, falls nicht anders angegeben, jedes Pixel des gerahmten, in 2 gezeigten Originalbildes A, horizontal nach rechts auf derselben Pixelkette gescannt. Wenn die Pixelkette verarbeitet wird, wird die darunterliegende Reihe in ähnlicher Weise horizontal auf derselben Pixelkette in einer Einheit von 32 Pixeln Länge verarbeitet, und der ähnliche Prozess geht weiter bis die unterste Reihe des gerahmten Originalbildes A verarbeitet wurde.
  • Zum Verständnis des Operationsablaufs wird die Erklärung unter Bezugnahme auf die Diagramme, die die Messergebnisse zeigen, geliefert.
  • 3 zeigt ein Beispiel eines Operationsablaufs, der durch die in 1 gezeigte Druckflächenausschlusseinheit 100 durchgeführt wird.
  • In dem in 3 gezeigten Operationsablauf ist die Position der Startlinie, von der die Daten zuerst gelesen werden, auf der Bildebene des gerahmten, in 2 gezeigten Originalbildes A als die Position der oberen Grenze des in 2 gezeigten Bildes A eingestellt (S300).
  • Dann wird das Pixel an der äußerst linken Seite der eingestellten Linie, wie in 2 gezeigt, als ein Leseziel eingestellt (S302).
  • Der RGB-Grauskalenwert des eingestellten Pixels wird gelesen, und es wird bestimmt, ob es einen gelesenen Wert gibt, der nicht über einen Referenz-RGB-Grauskalenwert von 200 hinausgeht, zum Ausschluss einer Druckfläche (S304).
  • Der Referenz-Grauskalenwert für die Bestimmung kann entsprechend abhängig von dem Original eingestellt werden.
  • Falls der RGB-Grauskalenwert des gelesenen Pixels in Schritt S304 über 200 hinausgeht, wird bestimmt, dass der Pixel sich nicht auf eine Druckfläche bezieht, und der rechte Pixel in derselben Linie wird als das nächste Leseziel eingestellt (S306).
  • Wenn andererseits der RGB-Grauskalenwert des gelesenen Pixels gleich oder kleiner 200 in Schritt S304 ist, dann wird vorläufig bestimmt, dass es eine Druckfläche in der Fläche gibt, und die Steuerung wird an den Rauschbestimmungsprozess in Schritt S308 weitergegeben.
  • In Schritt S308 wird bei den in Schritt S304 vorläufig als eine Druckfläche umfassend eingestellten Pixel bestimmt, ob es Pixel gibt oder nicht, die sich kontinuierlich auf einer Bildebene befinden, die vorläufig als ein Druckbereich bestimmt wurde.
  • Wenn in Schritt S308 bestimmt wird, dass es keine kontinuierlichen Pixel gibt, dann wird die Steuerung an Schritt S306 weitergegeben, und der Pixel neben dem gegenwärtigen Verarbeitungszielpixel in derselben Linie wird als ein Leseziel eingestellt, und der Prozess wird in den oben erwähnten Schritten durchgeführt.
  • Die, die keine zwei kontinuierlichen Pixels sind, die vorläufig als eine Druckfläche eingestellt sind, dort gibt es die Möglichkeit, dass das Pixel sich auf Rauschen aufgrund von Staub usw. bezieht, und nichts mit einer Druckfläche zu tun hat. Und die Anzahl kontinuierlicher Pixel zur Bestimmungsreferenz kann entsprechend eingestellt werden.
  • Wenn im Schritt S308 bestimmt wird, dass es kontinuierliche Pixel gibt, dann wird das entsprechende Pixel als eine Druckfläche 200 eingestellt, die zuerst von dem äußersten linken Pixel des in 2 (S310) gezeigten Bildes A detektiert wird.
  • Anschließend wird. in Schritt S312 bestimmt, ob es unverarbeitete Pixel in der gegenwärtigen Linie gibt oder nicht.
  • Wenn in Schritt S312 bestimmt wird, dass es in der gegenwärtigen Linie noch immer zu verarbeitende Pixels gibt, dann wird die Steuerung an Schritt S306 weitergegeben, und die ähnlichen Prozesse werden an den verbleibenden Pixels durchgeführt.
  • Wenn in Schritt S312 bestimmt wird, dass es in der gegenwärtigen Linie keine zu verarbeitende Pixels gibt, dann wird bestimmt, ob die gegenwärtige Linie die letzte Linie des untersten Abschnitts des in 2 gezeigten Bildes A ist oder nicht (S314).
  • Wenn in Schritt S314 bestimmt wird, dass die gegenwärtige Linie nicht die letzte Linie ist, dann wird eine Linie in der Position direkt unterhalb der gegenwärtigen Linie auf der Bildebene eingestellt (S316), und die Prozesse in und nach Schritt S302 werden wiederholt von der äußersten linken Seite der eingestellten Linie an.
  • Wenn das Scannen bis zur letzten Linie, bei der der Scanbetrieb auf dem in 2 gezeigten Bild A abgeschlossen ist, durchgeführt wurde, wird in Schritt S314 bestimmt, dass die gegenwärtige Linie die letzte Linie ist, wodurch der Prozess beendet wird.
  • 4A und 4B zeigen den Vergleich zwischen der in dem obigen Operationsablauf festgelegten Druckfläche und dem Originalbild.
  • 4A zeigt das gerahmte Originalbild A, das in 2 gezeigt wird, bevor der oben erwähnte Operationsablauf in Gang gesetzt wird. 4B zeigt die in dem obigen Operationsablauf festgelegte Druckfläche in Schwarz.
  • Wie in 4B gezeigt, werden die Druckfläche 200 und der Abschnitt 206, in dem der Schatten der Kante, die in 2 gezeigt wird, erfasst werden, als eine Druckfläche 400 festgelegt.
  • Somit wird in dem gerahmten Originalbild A, das in die in 1 gezeigte Druckflächenausschlusseinheit 100 eingegeben wird, die Druckfläche 200 und der Abschnitt 206, in dem der Schatten der Kante erfasst ist, in diesem Beispiel als Druckfläche festgelegt.
  • In den nachfolgenden Prozessen kann die in 4B gezeigte festgelegte Druckfläche 400 ausgeschlossen werden.
  • 5 zeigt ein Beispiel eines Operationsablaufs, der von der in 1 gezeigten Merkmalshervorhebungseinheit 102 verfolgt wird.
  • Dieser Operationsablauf wird auf dem Bild A, in dem die in 1 gezeigte Druckflächenausschlusseinheit 100 eine Druckfläche festlegt, verfolgt.
  • Des Weiteren wird bei dem vorliegenden Operationsablauf jede Pixelfläche, die erhalten wurde, indem das gerahmte, auf der Bildebene angezeigte Originalbild A in eine Einheit einer Fläche eines Bereichs 600 (in diesem Beispiel, ein Block von 32 Pixel Länge × 4 Pixel Breite) unterteilt wird, die in 6 gezeigt wird, als eine Einheit eines Prozesses verwendet, wenn nicht anders angegeben.
  • In dem in 5 gezeigten Operationsablauf wird eine Pixelfläche 602, die durch den Bereich 600 an der oberen linken Ecke des gerahmten, in 6 gezeigten Originalbildes A, angegeben wird, als ein zu verarbeitender Startblock eingestellt (S500).
  • Dann wird anhand der Information über die in 4B gezeigte Druckfläche 400 des durch die in 1 gezeigte Druckflächenausschlusseinheit 100 festgelegten Pixels bestimmt, ob die Pixelfläche (die Pixelfläche 602 in dem vorliegenden Sta dium, und den nachfolgenden Stadien) die in 4B gezeigte Druckfläche 400 beinhaltet oder nicht (S502).
  • Wenn in Schritt S502 bestimmt wird, dass die in 4B gezeigte Druckfläche 400 in der Pixelfläche enthalten ist, dann wird wieder eine Pixelfläche, die der Pixelfläche in der Scanrichtung der Pixelfläche des in 6 gezeigten Bildes A benachbart liegt, als eine zu verarbeitende Fläche eingestellt (S504).
  • Wenn in Schritt S502 bestimmt wird, dass die in 4B gezeigte Druckfläche 400 nicht in der Pixelfläche enthalten ist, dann wird die bekannte zweidimensionale schnelle Fouriertransformation (hiernach kurz als 2DFFT bezeichnet) auf jeder Pixelfläche durchgeführt, und das Spektrum der Pixelfläche wird erhalten (S506).
  • Dann wird ein Durchschnittswert der Hochfrequenzelemente (1/2π ≤ ω < 3/4π im vorliegenden Beispiel, wobei ω eine eine Frequenz angebende Variable ist) des in der Pixelfläche erhaltenen Spektrums erhalten (S508).
  • Ein Durchschnittswert der Niedrigfrequenzelemente (0 ≤ ω < 1/2π im vorliegenden Beispiel) des in der Pixelfläche erhaltenen Spektrums wird erhalten (S510).
  • Dann wird ein Durchschnittswert der Gleichstromelements (ω = 0 im vorliegenden Beispiel) des in der Pixelfläche erhaltenen Spektrums erhalten (S512).
  • 7 sind die gemessenen Daten der Durchschnittswerte verschiedener Elemente, die für jede Pixelfläche in einer Einheit von 32 Pixeln Länge mal 4 Pixeln Breite in der recheckigen Fläche 210 (32 Pixel Länge × 144 Pixel Breite) erhalten wurden. Die gemessenen Daten werden für jede der RGB-Daten er rechnet, und die Varianz jeder der RGB-Daten wird einfach überprüft.
  • Die in 7 gezeigte x-Koordinate entspricht der Richtung der x-Achse des in 2 gezeigten Bildes A, und der Wert der Anzahl von Pixeln wird gezeigt, der nach rechts hin gezählt wird, wobei der äußerst linke Punkt der in der 2 gezeigten rechteckigen Fläche 210 als der Ursprung der x-Koordinate definiert ist.
  • In 7, den Positionen entsprechend, die durch die x-Koordinaten angegeben werden, die die Positionen der Anzahl der Pixel vom äußerst linken Ende der in 2 gezeigten rechteckigen Fläche 210 angeben, zeigt ein Grauskalenwert das Gleichstromelement (Gleichstromelement R, Gleichstromelement G, und Gleichstromelement B) jeder der RGB Daten an, der Spektrumswert zeigt das Niedrigfrequenzelement (Niedrigfrequenzelement R, Niedrigfrequenzelement G, und Niedrigfrequenzelement B) jeder der RGB Daten an, und der Spektrumswert zeigt das Hochfrequenzelement (Hochfrequenzelement R, Hochfrequenzelement G, und Hochfrequenzelement B) jeder der RGB Daten an.
  • Wenn der Wert jedes Elements in einem Kurvendiagramm gezeigt wird, werden die in den 8 bis 10 gezeigten Diagramme erhalten.
  • 8 ist ein Diagramm, dass sich auf das Hochfrequenzelement bezieht, bei dem die horizontale Achse die Positionen der Anzahl von Pixeln (Positionen der Anzahl von Pixeln am äußersten linken Ende jeder Pixelfläche) anzeigt, die vertikale Achse einen Spektrumswert anzeigt, und die Varianz eines Spektrums für jede der RGB-Daten gezeigt wird.
  • 9 ist ein Diagramm, dass sich auf das Niedrigfrequenzelement bezieht, bei dem, wie in dem auf das Hochfrequenzele ment bezogene Diagramm, die horizontale Achse die Positionen der Anzahl von Pixeln (Positionen der Anzahl von Pixeln am äußersten linken Ende jeder Pixelfläche) anzeigt, die vertikale Achse einen Spektrumswert anzeigt, und die Varianz eines Spektrums für jede der RGB-Daten gezeigt wird.
  • 10 ist ein Diagramm, dass sich auf das Gleichstromelement bezieht, bei dem die horizontale Achse die Positionen der Anzahl von Pixeln (Positionen der Anzahl von Pixeln am äußersten linken Ende jeder Pixelfläche) anzeigt, die vertikale Achse einen Grauskalenwert anzeigt, und die Varianz eines Grauskalenwerts für jede der RGB-Daten gezeigt wird.
  • Wie durch das in den 8 bis 10 gezeigten Kurvendiagramm angezeigt, zeigt die Position der x-Koordinate von 136 die schärfste Schwankung. Auch in den 7 bis 10, wie durch die durchgezogenen Linie an der Position der x-Koordinate von 136 angezeigt, kann die Kante des Originals an dieser Position erwartet werden.
  • Die Steuerung wird an die Erklärung des in 5 gezeigten Operationsablaufs zurückgeführt.
  • In den oben genannten Schritten werden Durchschnittswerte der 3 Typen von Elementen erhalten. Des weiteren wird aus dem Spektrum in der Pixelfläche eine Halbwertsbreite erhalten, und die erhaltene Halbwertsbreite wird als die Frequenzverteilung der Pixelfläche eingestellt (S514).
  • Die Halbwertsbreite zeigt das Intervall zweier Perioden in der Nähe der Spitzenperiode an, die die Intensität der Hälfte des Spitzenwertes in dem Frequenzverteilungsdiagramm anzeigt, das erhalten wird, wenn die horizontale Achse eine Periode und die vertikale Achse die Intensität des Spektrums anzeigt.
  • Dann werden ein Durchschnittswert jedes Elements, der in den Schritten S508 bis S512 erhalten wurde, und die in Schritt S514 eingestellte Frequenzverteilung, als die Merkmalsmenge der Pixelfläche eingestellt (S516).
  • Es wird bestimmt, ob die oben erwähnten Prozesse auf allen Pixelflächen der gerahmten, in 6 gezeigten Originalbildes A durchgeführt werden oder nicht (S518).
  • Wenn in Schritt S518 bestimmt wird, dass es eine als nächstes zu scannende Pixelfläche gibt, dann wird die Steuerung an Schritt S504 weitergegeben, und die als nächstes zu scannende Pixelfläche wird als eine zu verarbeitenden Fläche eingestellt, und die Prozesse werden in den oben erwähnten Schritten durchgeführt.
  • Dann werden die Prozesse beendet, wenn in Schritt S518 bestimmt wird, dass es keine nachfolgenden, als nächstes zu scannenden Pixelflächen gibt, da die oben erwähnten Prozesse auf allen Pixelflächen des Bildes A durchgeführt werden.
  • Bei diesem Operationsablauf werden vier Merkmalsmengen erhalten, aber Merkmalsmengen sind nicht auf sie beschränkt, und andere Merkmalsmengen können hinzugefügt werden.
  • Somit kann die in 1 gezeigte Merkmalshervorhebungseinheit 102 jeden Typ von Merkmalsmenge in einer Einheit einer vorbestimmten Größe einer Pixelfläche von dem gerahmten Original Bild A extrahieren, auf dem die Druckflächenausschlusseinheit 100 einen Prozess durchgeführt hat.
  • 11 zeigt ein Beispiel eines Operationsablaufs, der durch eine in 1 gezeigte Einheit 104 zur vorläufigen Bestimmung einer Kante durchgeführt wird.
  • Der Operationsablauf wird verfolgt, basierend auf jedem Typ von Merkmalsmenge, der durch die Merkmalshervorhebungseinheit 102 extrahiert wurde.
  • Bei dem Operationsablauf wird der Prozesszielbereich eines gerahmten Originalbildes in einer Einheit einer Pixelfläche bestimmt, die durch den in 6 gezeigten Bereich 600 angegeben wird, angezeigt durch Unterteilen der Fläche des gerahmten, in 2 gezeigten Originalbildes A, und der entsprechende Prozessbereich wird eingestellt (S1100).
  • Die Bestimmung des Prozessbereiches in der vorliegenden Ausführungsform wird durchgeführt durch Definieren eines Bereichs von dem äußersten linken Ende zu der Druckfläche 400 des Bildes A, der als ein Prozesszielbereich angezeigt wird, indem die Druckfläche, wie in 4B, schwarz gemalt wird.
  • Indem man den Prozessbereich wie oben beschrieben bestimmt, wird die obere Begrenzungslinie des gerahmten, in 6 gezeigten, Originalbildes A als eine Startlinie eingestellt, von der eine Pixelfläche gelesen wird (S1102).
  • Der Wichtungsbestimmungsprozess, der später detailliert beschrieben wird, wird auf jeder Merkmalsmenge durchgeführt (S1104).
  • Die am äußersten linken Ende der eingestellten Linie befindliche Pixelfläche wird als eine als erstes zu lesenden Pixelfläche eingestellt (S11006).
  • Dann, auf einem Durchschnittswert für jede für benachbarte Pixelflächen erhaltene Merkmalsmengen (im vorliegenden Beispiel, bis zu zwei Pixelflächen, die links der Pixelfläche benachbart liegen), die der Pixelfläche in dem in 5 gezeigten Operationsablauf benachbart liegen (Schritte S508 bis S514), wird ein Durchschnittswert der zwei Pixelflächen für jede Merkmalsmenge berechnet (S1108).
  • 12 zeigt die Anordnung von Pixelflächen, die für einen Durchschnittswert in der zu verarbeitenden Pixelfläche zu verarbeiten sind.
  • 12 zeigt eine Pixelfläche 604 als ein Prozessziel, die als eine in dem gerahmten, in 6 gezeigten Originalbild A zu verarbeitende Pixelfläche angegeben ist, und in diesem Fall, zwei Pixelflächen, das heißt, eine Pixelfläche 1202, die links an der Pixelfläche 604 angrenzt, und eine Pixelfläche 1204, die weiter links angrenzt, werden als eine Pixelfläche angegeben, um einen Durchschnittswert für jede Merkmalsmenge der angrenzenden Pixelfläche für die als zu verarbeiten angegebene Pixelfläche 604 zu berechnen.
  • Ein Durchschnittswert für jede Merkmalsmenge, der wie oben beschreiben erhalten wird, wird bei den kontinuierlichen Prozessen (Schritt S1110), die in 11 gezeigt werden, verwendet.
  • In dem in 11 gezeigten Schritt S1110 wird eine Varianz für jede Merkmalsmenge zwischen jeder Merkmalsmenge der zu verarbeitenden Pixelfläche und dem Durchschnittswert jeder in Schritt S1108 erhaltenen Merkmalsmenge erhalten.
  • Die Varianz jedes Typs von Merkmalsmenge, die wie oben beschrieben erhalten wurde, wird zu der Wichtung jedes Typs von Merkmalsmenge, die in dem Wichtungsbestimmungsprozess S1104 erhalten wurde, addiert, oder die Wichtung (es wird bevorzugt, dass das Hochfrequenzelement 1 ist, das Niedrigfrequenzelement 2 ist, das Gleichstromelement 1 ist und die Frequenzverteilung 1 ist) wird zuvor statistisch erhalten, und der Wert wird als eine Merkmalsvarianz in der Pixelfläche eingestellt (S1112).
  • Dann wird der Prozess des Erhaltens der Spitze der Merkmalsvarianz, die in Schritt S1112 für jede Pixelfläche eingestellt wurde, durchgeführt (S1114).
  • Der Prozess (Spitzendetektionsprozess) des Erhaltens eines Spitzenwertes wird später detailliert beschrieben.
  • Dann wird ein Spitzenwert für Merkmalsvarianz der Pixelfläche basierend auf dem Spitzendetektionsprozess bestimmt (S1116).
  • Wenn in Schritt S1116 bestimmt wird, dass es keinen Spitzenwert gibt, dann wird bestimmt, ob die als nächstes zu scannende Pixelfläche (Pixelfläche 1206 in 12) eine Druckfläche ist oder nicht (S1118).
  • Wenn in Schritt S1118 bestimmt wird, dass die als nächstes zu scannende Pixelfläche keine Druckfläche ist, dann wird bestimmt, ob die Pixelfläche (Pixelfläche 1206) in 12) eine Pixelfläche ist, die eine Pixelfläche neben der mittleren Pixelfläche in der Scanrichtung ist (S1120).
  • Wenn in Schritt S1120 bestimmt wird, dass die Pixelfläche eine Pixelfläche ist, die eine Pixelfläche neben der mittleren Pixelfläche in der Scanrichtung ist, dann wird bestimmt, ob die zu verarbeitende Pixelfläche sich in der letzten Linie befindet oder nicht (S1122).
  • Wenn es in dem Prozess in Schritt S1116 umgekehrt bestimmt wird, dann wird der folgenden Prozess durchgeführt.
  • Wenn in Schritt S1116 bestimmt wird, dass es eine Spitze gibt, dann wird bestimmt, dass die zu verarbeitende Pixelfläche eine Pixelfläche ist, die einer Kante entspricht, und es wird vorläufig bestimmt, dass die Pixelfläche die äußerst linke Kante des Originalbildes ist (S1124). Dann wird die Steuerung an den Prozess in Schritt S1122 weitergegeben.
  • Wenn in Schritt S1188 bestimmt wird, dass die zu verarbeitende Pixelfläche eine Druckfläche ist, dann wird die Steuerung an den Prozess in Schritt S1122 übergeben.
  • Wenn in Schritt S1120 bestimmt wird, dass die Pixelfläche (die Pixelfläche 1206 in 12) nicht eine Pixelfläche neben der mittleren Pixelfläche in der Scanrichtung ist, dann wird die Steuerung an den Prozess in Schritt S1126 weitergegeben, und die als nächstes zu scannende Pixelfläche ist eine zu verarbeitende Pixelfläche, und die Prozesse werden wiederholt in der oben erwähnten Reihenfolge von Schritt S1108 an durchgeführt.
  • Wenn in Schritt S1122 bestimmt wird, dass die zu verarbeitende Pixelfläche sich nicht in der letzten Linie befindet, dann wird die Steuerung an Schritt S1126 weitergegeben, und die Prozesse werden in der oben erwähnten Schrittabfolge durchgeführt.
  • Wenn in Schritt S1122 bestimmt wird, dass die zu verarbeitende Pixelfläche sich in der letzten Linie befindet, dann wird die Steuerung an die Prozesse in Schritt S1128 weitergegeben.
  • Bei Schritt S1128 wird die Liniennäherung auf der Bildebene auf allen Pixelflächen durchgeführt, die einer in Schritt S1124 detektierten Kante entsprechen, und das erhaltene Pixel auf der genäherten Linie wird vorläufig als der Kantenabschnitt an dem äußersten linken Abschnitt des Originalbildes bestimmt, wodurch der Prozess beendet wird.
  • Der oben genannte Operationsablauf (11) kann nur für die Farbe verfolgt werden, deren Merkmal in dem Spektrumswert jeder der RGB-Farben am klarsten hervorgehoben ist, und kann für zwei oder mehr Farben verfolgt werden, die erhalten werden, indem die RGB-Farben beliebig kombiniert werden.
  • 13 zeigt die Anordnung der in dem oben erwähnten Prozess vorläufig bestimmten Kante in Bezug auf das gerahmte, in 2 gezeigte Originalbild A.
  • Eine für das Bild A in 13 gezeigte Linie 1300 ist eine Näherungslinie, die in Schritt S1128 erhalten wurde, und das Pixel, das der Linie 1300 entspricht, wird vorläufig als die äußerste linke Kante des Originalbildes bestimmt.
  • In 13 ist die Linie ein wenig vom tatsächlichen Rand zwischen der Umrandungsfläche 202 und der Hintergrundtafelfläche 204, die in 2 gezeigt wird, verschoben, aber die Kante eines Originalbildes kann in der Position in der Nähe des Randes eingestellt werden.
  • Somit kann die in 1 gezeigte Einheit 104 zur vorläufigen Bestimmung des Randes grob die Position der Kante bestimmen, indem sie die Position der Kante vorläufig in der Position bestimmt, die näher an der Position der tatsächlichen Kante ist.
  • Unten werden nun sequentiell der Wichtungsbestimmungsprozess (Schritt S1104) und der Spitzendetektionsprozess (Schritt S1114), der in 11 gezeigt wird, beschrieben.
  • 14 zeigt den Operationsablauf des Wichtungsbestimmungsprozesses.
  • Bei dem Wichtungsbestimmungsprozess wird jedes Element (das Hochfrequenzelement, das Niedrigfrequenzelement und das Gleichstromelement) des in Schritt S506 erhaltenen Spektrums jeder Pixelfläche und die Frequenzverteilung jedes in 5 gezeigten Schrittes, die den Operationsablauf der in 1 gezeigten Merkmalshervorhebungseinheit 102 zeigt, mit einfacher Durchschnittsbildung normalisiert, usw., unter Bezugnahme auf die Pixelfläche links und rechts (S1400).
  • Bei der Normalisierung kann der Fehler jedes Elements des Spektrums und der Frequenzverteilung aufgrund kleiner Schwankungen absorbiert werden.
  • Dann wird der Durchschnittswert jedes Elements und der Frequenzverteilung in dem Prozessbereich (vom äußersten linken Ende des gerahmten Originalbildes bis zur Startposition der Druckfläche), der in dem in 11 gezeigten Schritt S1100 bestimmt wurde, erhalten, und basierend auf dem erhaltenen Durchschnittswert kann die Varianz jedes Elementes und die Frequenzverteilung in dem oben genannten vorbestimmten Bereich berechnet werden (S1402).
  • Es wird für jedes Element und Frequenzverteilung individuell bestimmt, ob die berechnete Varianz gleich oder größer ist als ein vorbestimmter Schwellenwert (S1404) oder nicht.
  • Der oben genannte Schwellenwert ist ein Wert, der auf zum Beispiel 0,2 mal einen Varianzdurchschnitt gestellt werden kann.
  • Wenn in Schritt S1404 bestimmt wird, dass es einen Varianzwert gibt, der gleich oder größer einem vorbestimmten Schwellenwert ist, dann wird der größte Wert der Varianz des Elementes und der Frequenzverteilung erhalten, und der Wert wird als die Varianz des Elements und der Frequenzverteilung eingestellt (S1406).
  • Wenn in Schritt S1404 bestimmt wird, dass die Varianz nicht gleich oder größer ist als der vorbestimmte Schwellenwert ist, wird bestimmt, dass es keine Varianz gibt (S1408).
  • Zuletzt wird der Kehrwert des Verhältnisses der eingestellten Varianz des Elementes und der Frequenzverteilung erhalten, und der Wert wird als die Wichtung des Elements und der Frequenzverteilung definiert (S1410), wodurch der Prozess beendet wird.
  • 15 zeigt den Operationsablauf des Spitzendetektionsprozesses.
  • Bei dem Spitzendetektionsprozess wird eine zu verarbeitende Pixelfläche angegeben (S1500).
  • Dann wird ein Niveaudurchschnittswert für alle Pixelflächen erhalten, die von der angegebenen Pixelfläche gesehen auf derselben Linie in der entgegengesetzten Scanrichtung liegen (S1502).
  • 16 zeigt das Niveauverteilungsdiagramm einer Linie an, wobei die horizontale Achse die x-Achse des gerahmten, in 12 gezeigten Originalbildes A anzeigt und die vertikale Achse das oben erwähnte Niveau anzeigt.
  • Weiße Kreise 1600 zeigen die repräsentativen Werte in einer Einheit einer vorbestimmten Pixelfläche an.
  • Angenommen, dass ein weißer Kreis 1602, der in der 16 hervorsticht, das Niveau der in dem Spitzendetektionsprozess zu behandelnden Pixelfläche ist, dann ist der Mittelwert der Niveaus 1604 aller Pixelflächen zur Linken zu berechnen.
  • Das Niveau, das durch den Niveaudurchschnittswert angezeigt wird, bezieht sich auf die Merkmalsvarianz bei dem in 11 gezeigten Prozess der vorläufigen Kantenbestimmung.
  • Der Spitzendetektionsprozess wird ebenso in dem unten beschriebenen Operationsablauf der in 1 gezeigten Kantenbestimmungseinheit 106 verwendet. Da die Merkmalsvarianz nicht in dem Prozess in Schritt S1502 verwendet wird, wird der Niveaudurchschnittswert aus Bequemlichkeit für die Erklärung des Spitzendetektionsprozesses verwendet.
  • Wenn der Niveaudurchschnittswert in Schritt S1502 erhalten wird, wird die Spitze für die zu verarbeitenden Pixelfläche bestimmt (S1504).
  • Die Bestimmung wird durchgeführt, indem der oben erwähnte Niveaudurchschnittswert mit einer statistisch im voraus berechneten Konstante α multipliziert wird (beim horizontalen Scannen in diesem Beispiel ist es das meist Bevorzugte, α = 2,5 zu verwenden, und wenn verschiedenen Prozesse durchgeführt werden, während vertikal die Pixelflächen in einer Einheit einer Pixelfläche von 4 Pixeln Länge mal 32 Pixel Breite gescannt werden, ist es das am meisten Bevorzugte, α = 2,0 zu verwenden), und Überprüfen, ob das Niveau (die Merkmalsvarianz in dem in 11 gezeigten vorläufigen Kantenbestimmungsprozess) der zu verarbeitenden Pixelfläche die Spitze ist oder nicht, die den Niveaudurchschnittswert überschreitet, der durch Multiplikation mit dem oben erwähnten α erhalten wurde.
  • Wenn in Schritt S1504 bestimmt wird, dass das zu verarbeitende Niveau nicht die Spitze ist, dann wird die als nächstes zu scannende Pixelfläche wieder eingestellt (S1506), und die Prozesse werden in Reihenfolge von Schritt S1502 an wiederholt.
  • Wenn bestimmt wird, dass das zu verarbeitende Niveau die Spitze ist, dann endet der Spitzendetektionsprozess.
  • Das Folgende ist eine Erklärung des Prozesses der in 1 gezeigten Kantenbestimmungseinheit 106, der die korrekte Position der Kante bestimmt, basierend auf der Kante, die durch die in 1 gezeigte Einheit 104 zur vorläufigen Bestimmung der Kante vorläufig bestimmt wurde.
  • Für eine einfachere Erklärung wird angenommen, dass die Position der Kante, die durch die in 1 gezeigte Einheit 104 zur vorläufigen Bestimmung der Kante vorläufig bestimmt wurde, durch die Pixel angezeigt werden, die in derselben Pixelkette in einer Einheit von 32 Pixeln Länge angeordnet sind.
  • 17 ist ein Operationsablauf der Kantenbestimmungseinheit 106.
  • Bei diesem Operationsablauf wird jeder der 16-Pixel-Bereiche, die sich vor und hinter der Pixelkette (32 Pixel Länge mal 1 Pixel Breite) befinden, die vorläufig als die Position der Kante der obersten Linie des gerahmten, in 13 gezeigten Originalbildes in der Scanrichtung eingestellt ist, als Ziel des Prozesses (S1700) eingestellt.
  • Dann wird die Einheit der Pixelfläche in diesem Prozess als die Pixelkette eines Bereichs von 32 Pixeln Länge mal 1 Pixel Breite definiert, und die eindimensionale schnelle Fouriertransformation wird auf dem oben erwähnten Bereich in der Pixelketteneinheit durchgeführt, wodurch das Spektrum jeder Pixelkette erhalten wird (S1702).
  • 18A zeigt den Bereich des Prozessziels für eine Linie.
  • 18A zeigt den Bereich eines Prozessziels einer Linie einschließlich der Pixelkette der Näherungslinie 1300, die in 13 gezeigt wird.
  • Obwohl eine in 18A gezeigte rechteckige Fläche 1800 in dem zu verarbeitenden Bereich auf einer Linie 1802 ist, die durch durchbrochene Linien angezeigt ist, und in den beigefügten Zeichnungen nicht gezeigt wird, wird ein Prozesszielbereich ähnlich für die anderen Linien eingestellt.
  • 18B ist eine vergrößerte Ansicht der rechteckigen Fläche 1800 und zeigt die relative Position zwischen der vorläufig bestimmten Position als die Position der Kante und dem zu verarbeitenden Bereich.
  • In 18B wird um eine durch die Linie in der Mitte der 18B gezeigte vorläufige Kante 1804 jede Pixelkette 1806 (32 Pixel lang mal 1 Pixel breit), die in 18C eine der vorangehenden und nachfolgenden 16 Pixel in der Scanrichtung anzeigt, die durch den Pfeil in der horizontalen Richtung angezeigt wird, als der Bereich des Prozesszieles definiert.
  • Wenn in Schritt S1702 ein Spektrum erhalten wird, wird in der oben erwähnten Pixelketten-1806-Einheit der Durchschnittswert jedes Elementes des Spektrums (Hochfrequenzelement, Niedrigfrequenzelement und Gleichstromelement) und die Frequenzverteilung erhalten (S1704).
  • Unter Verwendung der Wichtung, die in dem in 11 gezeigten Schritt S1104 oder zuvor statistisch erhalten wurde, werden das Element und die Frequenzverteilung für jede Pixelkette 1806 aufaddiert, und der erhaltene Wert wird als ein Merkmalswert der Pixelkette definiert (S1706).
  • Zu diesem Zeitpunkt wird die bekannte Wavelettransformation auf dem Merkmalswert durchgeführt (S1708).
  • Der durch die Wavelettransformation erhaltene Wert wird in einer Linieneinheit in dem oben unter Bezugnahme auf die 15 und 16 erklärten Spitzendetektionsprozess verwendet.
  • Der in Schritt 51710 durchgeführte Spitzendetektionsprozess wird unten unter Bezugnahme auf 15 beschreiben.
  • Bei dem Spitzendetektionsprozessablauf in Schritt S1710 wird die Startpixelkette der zu verarbeitenden Pixelketten in der Linie als die äußerste linke Pixelkette in dem in 18B gezeigten Beispiel angegeben (S1500).
  • Dann wird ein Niveaudurchschnittswert (in diesem Beispiel, der Durchschnittswert der Wavelettransformation) für alle Pixelketten erhalten, die von der angegebenen Pixelkette gesehen auf derselben Linie in der entgegengesetzten Scanrichtung liegen (S1502).
  • Basierend auf dem Durchschnittswert der Wavelettransformation wird eine Spitzenbestimmung auf der zu verarbeitenden Pixelkette durchgeführt (S1504).
  • Sie wird durchgeführt, indem der Durchschnittswert der Wavelettransformation mit einer statistisch im voraus berechneten Konstante α multipliziert wird, und dann wird bestimmt, ob das Ergebnis der Wavelettransformation auf der zu verarbeitenden Pixelkette eine Spitze ist oder nicht, die den Durchschnittswert der Ergebnisse der Wavelettransformation, multipliziert mit α, überschreitet.
  • Wenn in Schritt S1504 bestimmt wird, dass das zu erzielende Wavelettransformationsergebnis nicht die Spitze ist, dann wird die als nächstes zu scannende Pixelkette wieder eingestellt (S1506), und die Prozesse werden in Reihenfolge von Schritt 51502 an wiederholt.
  • Wenn bestimmt wird, dass das zu erzielende Wavelettransformationsergebnis die Spitze ist, dann endet der Spitzendetektionsprozess.
  • Wenn der Spitzendetektionsprozess in Schritt S1710 endet, dann wird bestimmt, ob die zu verarbeitende Linie die letzte Linie ist, die als eine vorläufige Kante angegeben wird (S1712).
  • Wenn es nicht die letzte Linie ist, wird die als nächstes zu scannende Linie eingestellt (S1714), und die Prozesse werden von Schritt S1702 an wiederholt.
  • Wenn in Schritt S1712 bestimmt wird, dass die Linie die letzte Linie ist, dann wird die Liniennäherung auf der Bildebene auf allen Pixelketten, deren Spitzen in Schritt S1710 detektiert wurden, auf die Weise wie bei dem Prozess in dem in 11 gezeigten Schritt S1128 durchgeführt, und das Pixel auf der erhaltenen Näherungslinie wird als der äußerst linke Kantenabschnitt des Originalbildes definiert (S1716).
  • Dann wird abschließend die Robustheitskorrektur durchgeführt, wodurch der Prozess beendet wird (S1718).
  • Die Robustheitskorrektur wird gemäß dem unten beschriebenen Ablauf durchgeführt.
  • 19 zeigt den Prozessablauf der Robustheitskorrektur.
  • Wie in 19 gezeigt wird die Neigung der Kante erhalten, in dem die Differenz (Δx) der x-Achse auf der Bildebene zwischen den Pixelketten, die als Kanten bestimmt wurden, berechnet wird (S1900).
  • Dann wird der Durchschnittswert und die Varianz für jede der erhaltenen Neigungswerte (S1902) berechnet.
  • Die Pixelkette, deren in Schritt S1900 erhaltene Differenz (Δx) den oben erwähnten Durchschnittswert und Varianz überschreitet, wird ausgeschlossen (S1904).
  • Des Weiteren wird die Pixelkette ausgeschlossen, deren Differenz (Δx) die Minus-Richtung anzeigt (S1906).
  • Dann wird die Liniennäherung in der Methode der kleinsten Quadrate durchgeführt (S1908).
  • Im nächsten Schritt S1910 wird die Anzahl der Male, die die vorliegenden Prozesse abgeschlossen wurden, bestimmt. Sofern die vorliegenden Prozesse nicht dreimal abgeschlossen wurden, wird die Steuerung an den Schritt S1912 weitergegeben, und die Entfernung zwischen der in Schritt S1908 erhaltenen Näherungslinie und der in der Berechnung der Linie verwendeten Pixelkette wird berechnet. Wenn es eine Pixelkette gibt, deren Wert einen vorbestimmten Schwellenwert überschreitet, dann wird die Pixelkette, die den Schwellenwert überschreitet, ausgeschlossen (S1912).
  • Im nachfolgenden Prozess wird die Schwelle geändert (S1914), und die Prozesse in den oben erwähnten Schritten werden sequentiell durchgeführt.
  • Wenn abschließend in Schritt S1910 bestimmt wird, dass der vorliegende Prozess dreimal durchgeführt wurde, wird abschlie ßend das Pixel auf der letzten bisher erhaltenen Näherungslinie als der äußerst linke Kantenabschnitt der Originalbildes bestimmt, wodurch alle Prozesse beendet werden.
  • Der oben genannte Operationsablauf (17) kann nur auf der Farbe durchgeführt werden, deren Merkmal in den Spektrumswerten jeder der RGB-Farben am klarsten hervorgehoben ist, oder kann auf zwei oder mehr Farben durchgeführt werden, die erhalten werden, indem die RGB-Farben beliebig kombiniert werden.
  • Somit soll die in 1 gezeigte Kantenbestimmungseinheit 106 den Kantenfestlegungsprozess nur auf der Kantenposition, die durch die in 1 gezeigte Einheit 104 zur vorläufigen Bestimmung der Kante vorläufig bestimmt wurde, und dem benachbarten Bereich durchführen.
  • Da nur die Umgebung des Abschnittes, der als eine Kante vorausgesagt wurde, als ein Prozessziel verarbeitet werden kann, kann eine Kantenposition korrekter detektiert werden in einer Zielfläche mit geringem Rauschen, mit einem engen Bereich von anderen Bildflächen, die keine Kanten umfassen, obwohl die auf Rauschen (andere Bildinformation) sensible Wavelettransformation in einer Bildfläche angewandt wird, die nichts mit einer Kante zu tun hat.
  • Alle der oben erwähnten Prozesse werden auf den äußersten linken Kanten der Originals aus Gründen der Verständlichkeit der Erklärung durchgeführt, jedoch kann jede der anderen Kanten (die oberste Kante, die äußerste rechte Kante oder die unterste Kante eines Originals) durch Scannen in der entgegengesetzten Richtung von jedem Punkt bestimmt werden, und die Prozessergebnisse können integriert werden, so dass alle Kanten um ein Original herum, die Größe eines Originals, usw., bestimmt werden kann.
  • 20 zeigt ein Beispiel des gesamten Prozessablaufs für die Festlegung der Kanten um das Original herum, indem die vier Kanten (die äußerst linke Kante, die äußerst rechte Kante, die oberste Kante, und die unterste Kante) detektiert werden.
  • Jeder Prozess wird links in 20 gezeigt, und das Prozessbild des gerahmten Originalbildes (als eine schattierte Originalfläche angezeigt), das jedem der Prozesse entspricht, wird rechts auf der 20 gezeigt.
  • Bei diesem Prozess wird angenommen, dass die in dem gerahmten Originalbild A enthaltene Druckfläche ausgeschlossen wird, indem ein Zeichenflächeausschlussprozess durchgeführt wird, und die vertikale Kante zuerst detektiert wird, und dann die horizontale Kante detektiert wird.
  • Zunächst wird, um eine vertikale Kante zu detektieren, eine Merkmalsmenge (zum Beispiel die Bildfrequenz (oder das Spektrum), die Frequenzverteilung, usw., die in der Fläche enthalten ist) aus dem gerahmten Originalbild A extrahiert, in einer Einheit einer Linie von 32 Pixel Länge, wie durch die horizontale Linie in dem gerahmten Originalbild gezeigt, für jede Pixelfläche von 32 Pixel Länge mal 4 Pixel breit, in diesem Beispiel (S2000).
  • Dann wird, basierend auf dem Scannen von der äußersten linken Seite der 20 zu der rechten, um die linke Kante zu detektieren, die Position, die der äußersten linken Kante entspricht, vorläufig aus der extrahierten Merkmalsmenge bestimmt, wobei die Merkmalsmengen in der vorläufig bestimmten Position der äußerst linken Kante und der Umgebung (der Pixelfläche benachbarte Pixelfläche) extrahiert werden, und die Kantenposition, die basierend auf der Merkmalsmenge detektiert wird, als die Position der äußerst linken Kante bestimmt wird (S2002).
  • Dann wird, basierend auf dem Scannen von der rechten Seite der 20 zu der linken, um die rechte Kante zu detektieren, die Position, die der äußersten rechten Kante entspricht, vorläufig aus der extrahierten Merkmalsmenge bestimmt, wobei die Merkmalsmengen in der vorläufig bestimmten Position der äußerst rechten Kante und der Umgebung (der Pixelfläche benachbarte Pixelfläche) extrahiert werden, und die Kantenposition, die basierend auf der Merkmalsmenge detektiert wird, als die Position der äußerst rechten Kante bestimmt wird (S2004).
  • Dann wird eine horizontale Kante detektiert.
  • Zunächst wird, um eine horizontale Kante zu detektieren, eine Merkmalsmenge (zum Beispiel die Bildfrequenz (oder das Spektrum), die Frequenzverteilung, usw., die in der Fläche enthalten ist) aus dem gerahmten Originalbild A extrahiert, in einer Einheit einer Linie von 32 Pixel Breite, wie durch die vertikale Linie in dem gerahmten Originalbild gezeigt, für jede Pixelfläche von 32 Pixel Länge mal 4 Pixel breit, in diesem Beispiel (S2006).
  • Dann wird, basierend auf dem Scannen von der obersten Seite der 20 zu der untersten, um die oberste Kante zu detektieren, die Position, die der obersten Kante entspricht, vorläufig aus der extrahierten Merkmalsmenge bestimmt, wobei die Merkmalsmengen in der vorläufig bestimmten Position der obersten Kante und der Umgebung (der Pixelfläche benachbarte Pixelfläche) extrahiert werden, und die Kantenposition, die basierend auf der Merkmalsmenge detektiert wird, als die Position der obersten Kante bestimmt wird (S2008).
  • Dann wird, basierend auf dem Scannen von der untersten Seite der 20 zu der obersten, um die unterste Kante zu detektieren, die Position, die der untersten Kante entspricht, vorläufig aus der extrahierten Merkmalsmenge bestimmt, wobei die Merkmalsmengen in der vorläufig bestimmten Position der untersten Kante und der Umgebung (der Pixelfläche benachbarte Pixelfläche) extrahiert werden, und die Kantenposition, die basierend auf der Merkmalsmenge detektiert wird, als die Position der untersten Kante bestimmt wird (S2010).
  • Wenn das vertikale Scannen durchgeführt wird, um die oberste oder die unterste Kante zu detektieren, ist gewünscht, dass die Pixeleinstellungen auf der oben erwähnten Linie und dem Bereich eine Pixelfläche mit den vertikalen und horizontalen Pixeleinstellungen beim horizontalen Scannen vertauscht werden.
  • Somit können die vier Kanten des Originals festgelegt werden, indem die Prozesse in den vier Richtungen durchgeführt werden.
  • Bei der obigen Erklärung wird angenommen, dass das Original eine umgebende Umrandungsfläche aufweist, und dass die Farbe der Hintergrundtafel so weiß ist, wie die Umrandungsfläche. Jedoch ist die vorliegenden Erfindung nicht auf diese Anwendung beschränkt, und jede andere Farbe kann angewandt werden.
  • Des weiteren wird in der obigen Erklärung aus Bequemlichkeit der Abschnitt außer der Begrenzungsfläche des Originals durch eine Druckfläche besetzt, die mit Zeichen gefüllt und liniert ist. Jedoch kann der oben erwähnte Zeichenflächeausschlussprozess für ein Original weggelassen werden, dass keine Druckflächen enthält.
  • Jede in dem Operationsablauf enthaltene Funktion ist in dem Speicher, wie etwa ein RAM (Random Access Memory) und ROM (Read Only Memory) usw. gespeichert, in dem Bildverarbeitungsgerät als ein Programmcode konfiguriert, der durch die CPU (Central Processing Unit) lesbar ist, und wird dadurch verwirklicht, dass die CPU durch einen Bus mit dem Speicher verbunden ist.
  • Ein Beispiel, bei dem die oben erwähnte Bildverarbeitungsvorrichtung konfiguriert ist, ist ein Kopiergerät.
  • 21 ist ein Blockdiagramm eines Kopiergeräts.
  • Ein in 21 gezeigtes Kopiergerät 2100 stellt die Oberfläche (Lesezieloberfläche) des Originals C der auf einer Bildlesereinheit 2102 gebildeten Leseoberfläche 2104 zugewandt angeordnet ein, und ein Bild kann gelesen werden, wobei das Original mit einer Originalabdeckung 2106 das Original von der Hinterseite des Originals abdeckt.
  • Die Bildleseeinheit 2102 liest ein Bild, indem sie ein Licht von einer Leseoberfläche 2104 emittiert, eine optischer Lesevorrichtung 2108 (CCD), die in der Bildleseeinrichtung konfiguriert ist, liest das reflektierte Licht Linie für Linie, wandelt die gelesene Information über die Oberfläche des Originals in ein elektrisches Signal um, und übermittelt die gewandelte Bildinformation an eine Bildverarbeitungseinheit 2110 zur Durchführung des oben erwähnten Kantendetektionsprozesses.
  • Da die Bildverarbeitungseinheit 2110 den Rand zwischen dem Hintergrundbild und der Umrandung des Originals gleicher Farbe wie oben beschrieben detektieren kann, kann eine Kopie des Originals C einer festgelegten Originalgröße von einer Druckeinheit 2114 an einen Ausgabetisch 2116 eines Kopiergerätes gedruckt werden, indem die durch den Detektionsprozess erhal tene Kanteninformation an eine Originalgrößendetektionseinheit 2112 übermittelt wird, und die Größe des Originals festgelegt wird.
  • 22 zeigt ein Beispiel der Hardware für die oben erwähnte Bildverarbeitungstechnologie.
  • In 22 sind ein Scanner 2200 und ein Personalcomputer (PC) 2202 zur Bildverarbeitung durch ein Kabel 2204 verbunden.
  • Bei der oben erwähnten Konfiguration speichert Speicher, wie etwa ein RAM (Random Access Memory, ROM (Read Only Memory) usw. das oben erwähnte Programm in dem PC 2202, ist jedoch nicht in den beigefügten Zeichnungen gezeigt, und die CPU, die durch einen Bus mit dem Speicher verbunden ist, führt das Programm aus, wodurch die Originalkanteninformation aus den Bilddaten extrahiert wird, die durch den Scanner 2200 gelesen und durch das Kabel 2204 an den PC 2202 übermittelt wird.
  • 23 zeigt ein Beispiel der Hardware für die oben erwähnte Bildverarbeitungstechnologie.
  • Zusätzlich zu dem Scanner 2200 und dem Personalcomputer (PC) 2202 sind in 23 durch das Kabel 2204 eine Bilddatensammeleinheit 2300 zum Sammeln editierter Bilddaten und ein Datenablage-PC verbunden, wodurch ein Bildablagesystem gebildet wird.
  • Mit der Konfiguration werden die Bilddaten, die vom Scanner 2200 gelesen werden, durch das Betreiben eines Scannertreibers 2304 des PCs 2202 auf den PC geholt, ein Originalkantendetektionsprozess 2306 der Kante eines Originals wird auf den geholten Bilddaten durchgeführt, das Hintergrundtafelbild wird basierend auf den erhaltenen Kanteninformationen segmentiert, um die Bildgröße zu optimieren, und ein Bildeditierprozess 2308 wird durchgeführt, indem Daten gemäß der erhaltenen Information gedreht werden, um die Schräglage zu korrigieren, wodurch die editierten Bilddaten in der Bilddatensammeleinheit 2300 gesammelt werden.
  • Zu dieser Zeit wird es dem Ablage-PC 2302 erlaubt, die Bilddaten mit der relevanten Information über die in der Bilddatensammeleinheit 2300 gesammelten Bilddaten zu verwalten, die mit der in den beigefügten Zeichnungen des Ablage-PCs 2302 nicht gezeigten Verwaltungstabelle für jedes Bilddatenstück assoziiert sind.
  • 24 zeigt ein Beispiel eines Operationsablaufs mit der Konfiguration der in 23 gezeigten Hardware.
  • Zunächst werden die Bilddaten, die durch den Scanner 2200 gelesen wurden, indem der Scannertreiber 2304 betrieben wurde, in den PC 2202 (S2400) geholt.
  • Dann wird auf den Bilddaten der Kantendetektionsprozess durchgeführt, der oben im Detail erklärt wurde (S2402), als Ergebnis wird die Kanteninformation über das Original erhalten (S2404).
  • Es wird bestimmt, ob es beim Editieren der Bilddaten eine Bildfläche ist, die von vier Kanten umgeben ist (S2406), und nur die Bildfläche (Originalbild), die von vier Kanten umgeben ist, wird extrahiert (S2408).
  • Dann wird das optimierte Originalbild in der Bilddatensammeleinheit 2300 aufgenommen (S2410).
  • 25 zeigt ein Beispiel eines Operationsablaufs mit der Konfiguration der in 23 gezeigten Hardware.
  • Zunächst wird der Scannertreiber 2304 betrieben, um die Bilddaten, die von der Druckfläche 200 gelesen wurden, in den PC 2202 (S2500) zu holen.
  • Dann wird auf den Bilddaten der Kantendetektionsprozess durchgeführt, der oben im Detail erklärt wurde (S2502), als Ergebnis wird die Kanteninformation über das Original erhalten (S2504).
  • Dann wird zum Beispiel die kleinste Neigung der erhaltenen Kante relativ zur Achse (x-Achse oder y-Achse) auf der Bildebene beim Editieren der Bilddaten detektiert (S2506), und die Bilddaten werden so gedreht, dass die Neigung durch Korrektur der Schräglage entfernt werden kann (S2508).
  • Somit wird das korrigierte Bildoriginal in der Bilddatensammeleinheit 2300 aufgenommen (S2510).
  • Es ist auch möglich, die in den 24 und 25 gezeigten Operationsflüsse zu kombinieren. Zum Beispiel können die Prozesse in den Schritten S2506 und S2508 zwischen den Prozessen in den in 24 gezeigten Schritten S2404 und S2406 durchgeführt werden.
  • Somit kann die Nachverarbeitung leicht durch die Schräglagenkorrektur durchgeführt werden.
  • Des Weiteren können redundante Daten entfernt werden, indem die Hintergrundbilddaten entfernt werden, und eine kleinere Menge Daten wird benötigt, wodurch eine geringere Menge an Datenspeicher bei Durchführung eines Prozesses bei höherer Geschwindigkeit benötigt wird.
  • 26 zeigt ein Beispiel des Erweiterns des durch den PC 2202 durchgeführten Prozesses mit den beiden oben erwähnten Konfigurationen.
  • In 26 wird der Prozess durch den PC 2202 durchgeführt, der eine Windows (eingetragene Marke) Umgebung aufweist, unter der das gerahmte Originalbild A von dem Scanner gelesen wird, indem der Scannertreiber 2304 betrieben wird, und auf den PC 2202 geholt wird, wobei der Originalkantendetektionsprozess 2306 auf dem Bild A durchgeführt wird, ein schwarzes Hintergrundtafelbild E erzeugt wird mit dem Hintergrundtafelbild außerhalb der auf der Basis der erhaltenen Kanteninformation schwarz gefärbten erhaltenen Kante, wobei das Ergebnis des auf dem Bild E durchgeführten Bilderkennungsprozesses 2308 an eine Anwendung 2310 übermittelt wird, und Zeichen-erkannte Information (Codedaten, usw.) können von der Anwendung 2310 abgerufen werden.
  • 27 ist ein Ablaufdiagramm der Erzeugung des oben erwähnten schwarzen Hintergrundtafelbildes E.
  • Zunächst werden die Bilddaten A, die durch den Scanner 2200 gelesen wurden, indem der Scannertreiber 2304 betrieben wurde, auf den PC 2202 (S2700) geholt.
  • Dann wird auf den Bilddaten der Kantendetektionsprozess durchgeführt, der oben im Detail erklärt wurde (S2702), als Ergebnis wird die Kanteninformation über das Original erhalten (S2704).
  • Eine andere Bildfläche als die von vier Kanten umgebene Bildfläche wird auf den Bilddaten bestimmt (S2706), und die andere Bildfläche als die von vier Kanten umgebene Bildfläche (Originalbild) wird so verändert, dass ihr Grauskalenniveau schwarz anzeigt (S2708).
  • Zuletzt wird der Startpunkt (zum Beispiel die Position der oberen linken Ecke des Originalbildes auf der Bildebene) des Originalbildes festgelegt, und ein Zeichenerkennungprozess wird durchgeführt, zum Beispiel durch das Segmentieren eines Bildes von der Druckposition auf eine vorbestimmte Position vom Startpunkt und Analysieren des Bildes, Extrahieren des in dem Bild enthaltenen Zeichens basierend auf dem Mustererkennungsprozess, usw. (S2710).
  • Der Ablauf des vorliegenden Prozesses kann auch mit dem in 25 gezeigten Operationsablauf kombiniert werden. Zum Beispiel können die Prozesse in den Schritten S2506 und S2508 zwischen den Prozessen in den in 27 gezeigten Schritten S2404 und S2406 durchgeführt werden.
  • Da Bilddaten derselben Spezifikation wie das herkömmliche Bild, das ein schwarzes Hintergrundtafelbild um die Kanten des Originalbildes aufweist, das durch den herkömmlichen Scanner der schwarzen Hintergrundtafel geholt wurde, erzeugt werden kann, indem man das Hintergrundtafelbild schwarz färbt, kann man es der Vorrichtung (zum Beispiel einer OCR-Verarbeitungseinheit) zum Editieren der Bilddaten, die den herkömmlichen schwarzen Hintergrund aufweist, erlauben, die Bilddaten zu verwenden, die durch die Bildverarbeitungsvorrichtung der vorliegenden Erfindung erhalten wurden.
  • Jeder der oben erwähnten Prozesse (natürlich inklusive des Kantendetektionsprozesses) kann als ein Programm verteilt werden.
  • In diesem Falle kann das oben erwähnte Programm verteilt werden, nachdem es auf dem Aufnahmemedium, wie etwa einer Floppydisk (eingetragene Marke), CD-ROM, einer DVD, usw. (zum Beispiel die CD-ROM, die in eine in 22 gezeigte CD-ROM- Einführeinheit 2206 eingeführt ist), aufgenommen wurde, oder das gesamte oder ein Teil des Programms kann durch ein Übertragungsmedium, das in einem öffentlichen Netzwerk usw. verwendet wird verteilt werden.
  • Der Nutzer der das oben erwähnte verteilte Programm erhält, erlaubt es, dass das Programm in den Speicher wie etwa RAM, ROM etc. gelesen wird, die über einen Bus verbunden sind, der eine Leseeinheit zum Einlesen von Informationen verwendet, die auf dem Aufnahmemedium aufgenommen sind, in das Datenverarbeitungsgerät, wie etwa einen Computer usw., und eine Kommunikationseinheit usw., zur Datenkommunikation mit fremden Equipment, und durch die CPU (Central Processing Unit) extrahiert zu werden, die mit dem Speicher über einen Bus verbunden ist, wodurch die oben erwähnte Bildverarbeitung in der Datenverarbeitungsvorrichtung des Nutzers verwirklicht wird.
  • Wie oben beschrieben kann gemäß der Ausführungsform der vorliegenden Erfindung, da das Prozessziel grob mit dem ersten Ausschluss der Druckfläche vorausgesagt wird, der nachfolgende Prozess mit hoher Geschwindigkeit durchgeführt werden.
  • Da des Weiteren di Varianz in der Merkmalsinformation von der benachbarten Fläche, die der Druckfläche entspricht, ignoriert werden kann, kann der Rand zwischen der Hintergrundtafel und dem Original leicht festgelegt werden.
  • Des Weiteren kann gemäß der Ausführungsform der vorliegenden Erfindung, die Einheitsfläche eines Bildes etwas breit eingestellt werden, die Randposition zwischen der Hintergrundtafel auf dem Bild und dem Original kann vorläufig bestimmt werden, basierend auf der Merkmalsmenge, die bei der zweidimensionalen schnellen Fouriertransformation (2DFFT) erhalten wurde, die eindimensionale schnelle Fouriertransformation (1DFFT) wird auf einer Einheit einer Fläche durchgeführt, die kleiner ist als die oben erwähnte Einheitsfläche, und dann wird eine Wavelettransformation durchgeführt, wodurch der Prozess bis zum Detektieren des Randes mit hoher Geschwindigkeit durchgeführt wird, und die Position des Randes mit Präzision detektiert wird.
  • Des Weiteren kann die vorliegende Erfindung auf jedes Originalbild angewendet werden, das von einem Scanner jeden Typs von Hintergrundtafel gelesen wird, da die oben erwähnte Bildverarbeitung durchgeführt werden kann, indem man die Materialien der Hintergrundtafel und des Originals frei kombiniert.
  • Wie oben beschrieben kann gemäß der Ausführungsform der vorliegenden Erfindung die Kante eines Originals detektiert werden aus den Bilddaten, die aus jeder Kombination eines Originals und einer Hintergrundtafel gelesen wurden.
  • Des Weiteren kann die OCR-Verarbeitung durchgeführt werden, wobei der Vorteil der Lesevorrichtung zum Lesen eines weißen Hintergrundes beibehalten wird, das heißt, das Merkmal starken Kontrasts, das Merkmal des erfolgreichen Lesens von Daten auf dünnem Papier, und das Merkmal des Nichtvorhandenseins einer Hinterkopie.
  • Die vorliegende Erfindung kann in den oben genannten Kombinationen von Ausführungsformen und in verschiedenen Aspekten verkörpert sein, ohne den Hauptmerkmalen der vorliegenden Erfindung abzuweichen. Daher sind die oben erwähnten Ausführungsformen nur Beispiele der vorliegenden Erfindung, jedoch ist die vorliegende Erfindung nicht auf sie beschränkt. Der Umfang der vorliegenden Erfindung ist in den Patentansprüchen beschrieben, und ist nicht durch den Körper der Spezifikationen eingeschränkt. Des weiteren sind alle Variationen und Änderungen, die zum Umfang der Patentansprüche gehören, im Umfang der vorliegenden Erfindung enthalten.

Claims (27)

  1. Randdetektionsverfahren, um in eingegebenen Bilddaten (A) eines Originals (C), dessen vorderes Bild (200, 202) mit einer Hintergrundtafel (2106) als seinem Hintergrund (204) eingegeben wird, einen Rand zwischen der Hintergrundtafel (204) und dem Original (202) für die eingegebenen Bilddaten (A) eines Bildes eines Teils der Hintergrundtafel und eine Kante des in einer gleichen Farbe eingegebenen Originals zu detektieren, umfassend: Durchführen einer Fouriertransformation auf jeder ersten Einheitsfläche (602) der eingegebenen Bilddaten; Extrahieren von erster Bildfrequenzinformation von vorbestimmten Typen, die durch die Fouriertransformationsverarbeitung erhalten wurde; Definieren eines Wertes, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten ersten Bildfrequenzinformation addiert wird, als repräsentative Merkmalsinformation für jede erste Einheitsfläche; Vorläufiges Bestimmen einer entsprechenden Fläche auf einer Näherungslinie (1300) als den Rand, wobei die Näherungslinie erhalten wird, indem eine Liniennäherung auf einer ersten Einheitsfläche durchgeführt wird, deren Varianz von der repräsentativen Merkmalsinformation über eine angrenzende erste Einheitsfläche auf einem vorbestimmten Niveau oder größer als dieses in einer beliebigen ersten Einheitsfläche ist; Durchführen einer Fouriertransformation auf jeder zweiten Einheitsfläche (1806), die kleiner ist als die erste Einheitsfläche, in der vorläufig als der Rand bestimmten ersten Einheitsfläche (1800), und einer der ersten Einheitsfläche benachbarten Fläche (1800); Extrahieren von zweiter Bildfrequenzinformation von vorbestimmten Typen, die durch die Fouriertransformation erhalten wurde; Definieren eines Wertes, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten zweiten Bildfrequenzinformation addiert wird, als repräsentative Merkmalsinformation für jede zweite Einheitsfläche; Durchführen einer Wavelettransformation auf der repräsentativen Merkmalsinformation; Durchführen einer Liniennäherung auf einer zweiten Einheitsfläche, deren Wert für jede zweite Einheitsfläche, der durch die Wavelettransformation erhalten wurde, bei einem vorbestimmten Niveau oder größer als dieses ist, und Bestimmen einer Position auf der Näherungslinie, die durch die Liniennäherung als der Rand erhalten wurde.
  2. Verfahren nach Anspruch 1, wobei in Bilddaten, in denen das Original von der Hintergrundtafel umgeben ist, der Rand aus vier verschiedenen Richtungen detektiert wird, die auf den Bilddaten parallel oder orthogonal zueinander sind.
  3. Verfahren nach Anspruch 1, wobei eine Druckfläche (400) zuerst für die eingegebenen Bilddaten festgelegt wird, und eingegebene Bilddaten, von denen die Druckfläche ausgeschlossen ist, werden als ein Ziel zum Detektieren des Randes definiert.
  4. Verfahren nach Anspruch 1, wobei die Merkmalsinformation ein Hochfrequenzelement, ein Niedrigfrequenzelement, ein Gleichstromelement, und eine Frequenzverteilung umfasst.
  5. Verfahren nach Anspruch 2, wobei, wenn der bestimmte Rand ein Rechteck bildet, eine Schräglagenkorrektur auf einer Fläche, die in dem Rechteck enthalten ist, basierend auf dem Rand durchgeführt wird.
  6. Verfahren nach Anspruch 2, wobei basierend auf dem bestimmten Rand eine an den Rand angrenzende Fläche (200, 202) oder ein Originalabschnitt (200, 202) der Bilddaten beibelassen wird, und die andere Fläche (204) oder eine Hintergrundtafel (204) der Bilddaten (A) entfernt wird.
  7. Verfahren nach Anspruch 5, wobei basierend auf dem bestimmten Rand eine an den Rand angrenzende Fläche (200, 202) oder ein Originalabschnitt (200, 202) der Bilddaten beibelassen wird, und die andere Fläche (204) oder eine Hintergrundtafel (204) der Bilddaten entfernt wird.
  8. Verfahren nach Anspruch 2, wobei: basierend auf der bestimmten Fläche, eine dem Rand benachbarte Fläche (204) oder ein Hintergrundtafelabschnitt (204) der Bilddaten (A) schwarz gefärbt wird; und ein Zeichen, das in der dem Rand benachbarten anderen Fläche (200, 202), außer der schwarz gefärbten Fläche (204), enthalten ist, erkannt wird.
  9. Verfahren nach Anspruch 5, wobei: basierend auf der bestimmten Fläche eine dem Rand benachbarte Fläche (204) oder ein Hintergrundtafelabschnitt (204) der Bilddaten (A) schwarz gefärbt wird; und ein Zeichen, das in einer dem Rand benachbarten Fläche (200, 202), außer der schwarz gefärbten Fläche (204), enthalten ist, erkannt wird.
  10. Computerlesbares, handliches Speichermedium, das ein Programm speichert, das verwendet wird, um einen Computer anzuleiten, einen Prozess durchzuführen, um in eingegebenen Bilddaten (A) eines Originals (C), dessen vorderes Bild mit einer Hintergrundtafel (2106) als seinem Hintergrund eingegeben wird, einen Rand zwischen den Hintergrundtafeln und dem Original für die eingegebenen Bilddaten eines Bildes (204) eines Teils der Hintergrundtafel und eine Kante (202) des in der gleichen Farbe eingegebenen Originals zu detektieren; umfassend die Funktionen: Durchführen einer Fouriertransformation auf jeder ersten Einheitsfläche (602) der eingegebenen Bilddaten; Extrahieren von erster Bildfrequenzinformation von vorbestimmten Typen, die durch die Fouriertransformationsverarbeitung erhalten wurde; Definieren eines Wertes, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten ersten Bildfrequenzinformation addiert wird, als repräsentative Merkmalsinformation für jede der ersten Einheitsflächen; vorläufiges Bestimmen einer entsprechenden Fläche auf einer Näherungslinie (1300) als den Rand, wobei die Näherungslinie erhalten wird, indem eine Liniennäherung auf einer ersten Einheitsfläche durchgeführt wird, deren Varianz von der repräsentativen Merkmalsinformation über eine angrenzende erste Einheitsfläche auf einem vorbestimmten Niveau oder größer als dieses in einer beliebigen ersten Einheitsfläche ist; Durchführen einer Fouriertransformation auf jeder zweiten Einheitsfläche (1806), die kleiner ist als die erste Einheitsfläche, in der vorläufig als der Rand bestimmten ersten Einheitsfläche (1800) und einer der ersten Einheitsfläche benachbarten Fläche (1800); Extrahieren von zweiter Bildfrequenzinformation von vorbestimmten Typen, die durch die Fouriertransformation erhalten wurde; Definieren eines Wertes, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten zweiten Bildfrequenzinformation addiert wird, als repräsentative Merkmalsinformation für jede zweite Einheitsfläche; Durchführen einer Wavelettransformation auf der repräsentativen Merkmalsinformation; Durchführen einer Liniennäherung auf einer zweiten Einheitsfläche, deren Wert für jede zweiten Einheitsfläche, der durch die Wavelettransformation erhalten wurde, bei einem vorbestimmten Niveau oder größer als dieses ist; und Bestimmen einer Position auf der Näherungslinie, die durch die Liniennäherung als der Rand erhalten wurde.
  11. Speichermedium nach Anspruch 10, wobei das Programm weiterhin den Computer anleitet, die Funktion zu verwirklichen, in Bilddaten, in denen das Original von der Hintergrundtafel umgeben ist, den Rand aus vier verschiedenen Richtungen, die auf den Bilddaten parallel oder orthogonal zueinander sind, zu detektieren.
  12. Speichermedium nach Anspruch 10, wobei das Programm weiterhin den Computer anleitet, die Funktion zu verwirklichen, zuerst eine Druckfläche (400) für die eingegebenen Bilddaten festzulegen, und eingegebene Bilddaten, von denen die Druckfläche ausgeschlossen ist, als ein Ziel zum Detektieren des Randes zu definieren.
  13. Speichermedium nach Anspruch 10, wobei die Merkmalsinformation ein Hochfrequenzelement, ein Niedrigfrequenzelement, ein Gleichstromelement, und eine Frequenzverteilung umfasst.
  14. Speichermedium nach Anspruch 11, wobei das Programm weiterhin den Computer anleitet, eine Schräglagenkorrektur auf einer Fläche, die in dem Rechteck enthalten ist, basierend auf dem Rand durchzuführen, wenn der bestimmte Rand ein Rechteck bildet.
  15. Speichermedium nach Anspruch 10, wobei das Programm weiterhin den Computer anleitet, eine an den Rand angrenzende Fläche (200, 202) oder einen Originalabschnitt (200, 202) der Bilddaten (A) beizubelassen, und die andere Fläche (204) oder eine Hintergrundtafel (204) der Bilddaten (A) zu entfernen, basierend auf dem bestimmten Rand.
  16. Speichermedium nach Anspruch 10, wobei das Programm weiterhin den Computer anleitet, die folgenden Funktionen durchzuführen: schwarz Färben einer dem Rand benachbarten Fläche (204) oder eines Hintergrundabschnitts (204) der Bilddaten, basierend auf dem bestimmten Rand; und Erkennen eines Zeichens, das in einer dem Rand benachbarten Fläche (200, 202), außer der schwarz gefärbten Fläche (204), enthalten ist.
  17. Bildverarbeitungsvorrichtung, um in eingegebenen Bilddaten (A) eines Originals (C), dessen vorderes Bild (200, 202) mit einer Hintergrundtafel (2106) als seinem Hintergrund (204) eingegeben wird, einen Rand zwischen der Hintergrundtafel und dem Original für die eingegebenen Bilddaten eines Bildes eines Teils der Hintergrundtafel und eine Kante des in einer gleichen Farbe eingegebenen Originals zu detektieren, umfassend: eine Merkmalshervorhebungseinheit (102), die eine Fouriertransformation auf jeder ersten Einheitsfläche (602) der eingegebenen Bilddaten durchführt, und erste Bildfrequenzinformation vorbestimmter Typen extrahiert, die durch die Fouriertransformationsverarbeitung erhalten wurde; eine Einheit zur vorläufigen Bestimmung des Randes (104), die einen Wert, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten ersten Bildfrequenzinformation addiert wird, als repräsentative Merkmalsinformation für jede erste Einheitsfläche definiert, und die vorläufig eine entsprechende Fläche auf einer Näherungslinie (1300), die erhalten wird, indem eine Liniennäherung auf einer ersten Einheitsfläche durchgeführt wird, deren Varianz von der repräsentativen Merkmalsinformation über eine angrenzende erste Einheitsfläche auf einem vorbestimmten Niveau oder größer als dieses in einer beliebigen ersten Einheitsfläche ist, als den Rand bestimmt; und eine Randbestimmungseinheit (106), die eine Fouriertransformation auf jeder zweiten Einheitsfläche (1806) durchführt, die kleiner ist als die erste Einheitsfläche, in der vorläufig als der Rand bestimmten ersten Einheitsfläche (1800) und einer der ersten Einheitsfläche benachbarten Fläche (1800), und die zweite Bildfrequenzinformation von vorbestimmten Typen, die durch die Fouriertransformation erhalten wurde, extrahiert, und die einen Wert als repräsentative Merkmalsinformation für jede zweite Einheitsfläche definiert, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten zweiten Bildfrequenzinformation addiert wird, die eine Wavelettransformation auf der repräsentativen Merkmalsinformation durchführt, die eine Liniennäherung auf einer zweiten Einheitsfläche durchführt, deren Wert für jede zweite Einheitsfläche, der durch die Wavelettransformation erhalten wurde, bei einem vorbestimmten Niveau oder größer als dieser ist, und die eine Position auf der Näherungslinie bestimmt, die durch die Liniennäherung als der Rand erhalten wurde.
  18. Vorrichtung nach Anspruch 17, wobei jede der Einheiten in vier verschiedenen Richtungen funktioniert, die auf den Bilddaten, in denen ein Original von der Hintergrundtafel umgeben ist, parallel oder orthogonal zueinander sind.
  19. Vorrichtung nach Anspruch 17, weiterhin umfassend: eine Druckflächenausschlusseinheit (100), die eine Druckfläche (400) der Bilddaten von Zielen (A), von denen ein Rand zwischen Flächen mit unterschiedlichen Merkmalen detektiert wird, ausschließt.
  20. Vorrichtung nach Anspruch 17, wobei die Merkmalsinformation ein Hochfrequenzelement, ein Niedrigfrequenzelement, ein Gleichstromelement, und eine Frequenzverteilung umfasst.
  21. Die Vorrichtung nach Anspruch 17, weiterhin umfassend: eine Bildleseeinheit (2102, 2200, 2304), die optisch ein Original einliest und die Bilddaten (A) des Originals erzeugt.
  22. Vorrichtung nach Anspruch 18, weiterhin umfassend: eine Schräglagenkorrektureinheit (2308) für die Schräglagenkorrektur einer Fläche, die in dem Rechteck enthalten ist, wenn der bestimmte Rand das Rechteck bildet.
  23. Vorrichtung nach Anspruch 17, weiterhin umfassend: eine Bildausschlusseinheit (2308), die eine an den Rand angrenzende Fläche (200, 202) oder einen Originalabschnitt (200, 202) der Bilddaten beibelässt, und die andere Fläche (204) oder eine Hintergrundtafel (204) der Bilddaten basierend auf dem bestimmten Rand entfernt.
  24. Vorrichtung nach Anspruch 17, weiterhin umfassend: eine Bildeinfärbeeinheit (2306), die eine dem Rand benachbarte Fläche (204) oder einen Hintergrundtafelabschnitt (204) der Bilddaten (A) basierend auf dem bestimmten Rand schwarz färbt; und eine Zeichenerkennungseinheit (2308), die ein Zeichen, das in einer dem Rand benachbarten anderen Fläche (200, 202), außer der schwarz gefärbten Fläche (204), enthalten ist, erkennt.
  25. Kopiergerät, das eine Hintergrundtafel (2106) auf der Hinterseite eines Originals (C) bereitstellt, Bildinformation über das Original ausliest, und eine Kopie des Originals mit einer Größe des Originals ausgibt, die basierend auf der Detektion eines Randes zwischen der Hintergrundtafel und dem Original festgelegt wird, eine Druckflächenausschlusseinheit (2110), die eine Druckfläche von Bildinformation ausschließt; eine Merkmalshervorhebungseinheit (2110), die eine Fouriertransformation auf jeder ersten Einheitsfläche der eingegebe nen Bildinformation durchführt, und erste Bildfrequenzinformation vorbestimmter Typen, die durch die Fouriertransformationsverarbeitung erhalten wurde, extrahiert; eine Einheit (2110) zur vorläufigen Bestimmung des Randes, die einen Wert, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten ersten Bildfrequenzinformation addiert wird, als repräsentative Merkmalsinformation für jede der ersten Einheitsflächen definiert, und die vorläufig eine entsprechende Fläche auf einer Näherungslinie, die erhalten wird, indem eine Liniennäherung auf einer ersten Einheitsfläche außer der Druckfläche durchgeführt wird, deren Varianz von der repräsentativen Merkmalsinformation über eine angrenzende erste Einheitsfläche auf einem vorbestimmten Niveau oder größer als dieses in einer beliebigen ersten Einheitsfläche ist, als den Rand bestimmt; und eine Randbestimmungseinheit (2110), die eine Fouriertransformation auf jeder zweiten Einheitsfläche durchführt, die kleiner ist als die erste Einheitsfläche, in der vorläufig als der Rand bestimmten ersten Einheitsfläche und einer der ersten Einheitsfläche benachbarten Fläche, und die zweite Bildfrequenzinformation von vorbestimmten Typen, die durch die Fouriertransformation erhalten wurde, extrahiert, und die als repräsentative Merkmalsinformation für jede zweiten Einheitsfläche einen Wert definiert, der erhalten wird, indem eine vorbestimmte Wichtung zu jedem Typ der extrahierten zweiten Bildfrequenzinformation addiert wird, die eine Wavelettransformation auf der repräsentativen Merkmalsinformation durchführt, die eine Liniennäherung auf einer zweiten Einheitsfläche durchführt, deren Wert für jede zweite Einheitsfläche, der durch die Wavelettransformation erhalten wurde, bei einem vorbestimmten Niveau oder größer als dieser ist, und die eine Position auf der Näherungslinie bestimmt, die durch die Liniennäherung als der Rand erhalten wurde.
  26. Kopiergerät nach Anspruch 25, wobei jede der Einheiten in vier verschiedenen Richtungen funktioniert, die auf den Bilddaten, in denen ein Original von der Hintergrundtafel umgeben ist, parallel oder orthogonal zueinander sind.
  27. Kopiergerät nach Anspruch 25, wobei eine Druckfläche der Bildinformation basierend auf einem Grauskalenwert ausgeschlossen wird.
DE60311748T 2002-12-20 2003-12-17 Verfahren zur Bestimmung von Rändern zwischen Bildbereichen mit verschiedenen Bildmerkmalen Expired - Lifetime DE60311748T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002370596A JP4067957B2 (ja) 2002-12-20 2002-12-20 境界検出方法、プログラム、及び画像処理装置
JP2002370596 2002-12-20

Publications (2)

Publication Number Publication Date
DE60311748D1 DE60311748D1 (de) 2007-03-29
DE60311748T2 true DE60311748T2 (de) 2007-06-14

Family

ID=32376342

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60311748T Expired - Lifetime DE60311748T2 (de) 2002-12-20 2003-12-17 Verfahren zur Bestimmung von Rändern zwischen Bildbereichen mit verschiedenen Bildmerkmalen

Country Status (7)

Country Link
US (1) US7539344B2 (de)
EP (1) EP1431913B1 (de)
JP (1) JP4067957B2 (de)
KR (1) KR101011865B1 (de)
CN (1) CN1324873C (de)
DE (1) DE60311748T2 (de)
TW (1) TWI295137B (de)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4598426B2 (ja) * 2004-03-30 2010-12-15 富士通株式会社 境界抽出方法、プログラムおよびこれを用いた装置
JP4645498B2 (ja) * 2006-03-27 2011-03-09 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4885789B2 (ja) * 2007-05-14 2012-02-29 富士通株式会社 画像処理方法、画像領域検出方法、画像処理プログラム、画像領域検出プログラム、画像処理装置、および、画像領域検出装置
US8174737B2 (en) 2007-12-28 2012-05-08 Brother Kogyo Kabushiki Kaisha Image reading apparatus
US8284463B2 (en) 2007-12-28 2012-10-09 Brother Kogyo Kabushiki Kaisha Image reading apparatus
JP2009246620A (ja) * 2008-03-31 2009-10-22 Brother Ind Ltd イメージデータ作成装置
JP2009303164A (ja) 2008-06-17 2009-12-24 Canon Inc 画像読取装置及び画像読取装置の制御方法
JP5507962B2 (ja) 2009-11-05 2014-05-28 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP5723809B2 (ja) * 2011-06-20 2015-05-27 京セラドキュメントソリューションズ株式会社 画像形成装置及び画像形成方法
US11321772B2 (en) 2012-01-12 2022-05-03 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US8989515B2 (en) 2012-01-12 2015-03-24 Kofax, Inc. Systems and methods for mobile image capture and processing
EP2810427A4 (de) * 2012-01-31 2015-10-14 Hewlett Packard Development Co Merkmalssatz für druckmuster
US11620733B2 (en) 2013-03-13 2023-04-04 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
US10127636B2 (en) 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US10783615B2 (en) 2013-03-13 2020-09-22 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
KR101338138B1 (ko) * 2013-10-18 2013-12-06 주식회사 아나패스 전환 영역 검출 방법 및 이를 이용한 영상 처리 장치
WO2015167446A2 (en) * 2014-04-29 2015-11-05 Hewlett-Packard Development Company, L.P. Scanner with a background
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
US10467465B2 (en) 2015-07-20 2019-11-05 Kofax, Inc. Range and/or polarity-based thresholding for improved data extraction
JP6634899B2 (ja) * 2016-03-11 2020-01-22 コニカミノルタ株式会社 原稿読み取り装置、画像処理装置、原稿読み取り方法及びプログラム
CN105868751B (zh) * 2016-03-28 2019-02-05 山东东港彩意网络科技有限公司 即开票兑奖区定位方法
CN107368829B (zh) * 2016-05-11 2020-08-14 富士通株式会社 确定输入图像中的矩形目标区域的方法和设备
JP6600090B2 (ja) 2016-05-31 2019-10-30 株式会社Pfu 画像処理装置、画像処理方法、および、プログラム
JP6869076B2 (ja) 2017-03-30 2021-05-12 キヤノン株式会社 画像読取装置
JP2018198386A (ja) * 2017-05-24 2018-12-13 セイコーエプソン株式会社 読取装置および画像生成方法
US10803350B2 (en) * 2017-11-30 2020-10-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
CN110502205B (zh) * 2019-08-29 2023-08-01 百度在线网络技术(北京)有限公司 图片显示边缘处理方法、装置、电子设备和可读存储介质
CN111008969B (zh) * 2019-12-06 2023-07-18 浙江蓝鸽科技有限公司 黑板板书提取与智能识别方法及系统
JP2021124843A (ja) * 2020-02-03 2021-08-30 富士フイルムビジネスイノベーション株式会社 文書処理装置およびプログラム
CN112489129A (zh) * 2020-12-18 2021-03-12 深圳市优必选科技股份有限公司 位姿识别模型训练方法、装置、位姿识别方法和终端设备
CN113393387A (zh) * 2021-05-26 2021-09-14 房超 一种数学形态学自适应结构元素构造方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03170924A (ja) 1989-11-29 1991-07-24 Mita Ind Co Ltd 原稿サイズ検知装置
US5173788A (en) * 1990-02-07 1992-12-22 Brother Kogyo Kabushiki Kaisha Image reading device having moire depressing unit
JP2564959B2 (ja) * 1990-03-07 1996-12-18 富士ゼロックス株式会社 画像処理装置の絵文字領域識別方式
JPH06121161A (ja) * 1991-05-14 1994-04-28 Fuji Xerox Co Ltd カラー画像処理装置の文字処理方式
JPH0760462B2 (ja) 1991-07-08 1995-06-28 株式会社エイ・ティ・アール通信システム研究所 画像領域分割装置
JPH05110779A (ja) 1991-10-16 1993-04-30 Fuji Xerox Co Ltd 原稿認識装置
JPH0637987A (ja) 1992-07-20 1994-02-10 Canon Inc 原稿検知装置
JPH0660182A (ja) 1992-08-04 1994-03-04 Komatsu Ltd テクスチャ解析を用いた領域分割方法及び装置
JP3353968B2 (ja) 1992-09-25 2002-12-09 オリンパス光学工業株式会社 画像処理装置
DE69434131T2 (de) * 1993-05-05 2005-11-03 Koninklijke Philips Electronics N.V. Vorrichtung zur Segmentierung von aus Texturen bestehenden Bildern
JPH07115514A (ja) 1993-10-18 1995-05-02 Canon Inc 画像読取装置
JP3147278B2 (ja) * 1994-11-09 2001-03-19 キヤノン株式会社 原稿検知方法及び装置
JP3006466B2 (ja) * 1995-09-28 2000-02-07 日本電気株式会社 文字入力装置
JPH1023191A (ja) 1996-07-08 1998-01-23 Ricoh Co Ltd 画像評価方法および画像評価装置
US5889559A (en) * 1997-01-14 1999-03-30 Intel Coproration Method and apparatus for minimally-shifted wavelet decomposition and recomposition
US5767978A (en) * 1997-01-21 1998-06-16 Xerox Corporation Image segmentation system

Also Published As

Publication number Publication date
CN1324873C (zh) 2007-07-04
TWI295137B (en) 2008-03-21
US20040170324A1 (en) 2004-09-02
JP2004201240A (ja) 2004-07-15
KR20040055686A (ko) 2004-06-26
US7539344B2 (en) 2009-05-26
EP1431913A1 (de) 2004-06-23
KR101011865B1 (ko) 2011-01-31
DE60311748D1 (de) 2007-03-29
EP1431913B1 (de) 2007-02-14
JP4067957B2 (ja) 2008-03-26
CN1525733A (zh) 2004-09-01
TW200414750A (en) 2004-08-01

Similar Documents

Publication Publication Date Title
DE60311748T2 (de) Verfahren zur Bestimmung von Rändern zwischen Bildbereichen mit verschiedenen Bildmerkmalen
DE60030798T2 (de) Identifizierung von eigentlichen Pixelfarben im Bereich mit unsicheren Pixeln
DE69333694T2 (de) Verfahren und Anordnung zur Bildverarbeitung
DE69720399T2 (de) Digitale Komposition eines mosaikähnlichen Bildes
DE60109278T2 (de) Verfahren und Gerät zur Lokalisierung von Schriftzeichen in Bildern aus einer Digitalkamera
DE60303202T2 (de) System und verfahren zum identifizieren und extrahieren von zeichenketten aus erfassten bilddaten
DE60118240T2 (de) Methode zur bildanalyse
DE69629888T2 (de) Bildverarbeitungsverfahren und Bilderkennungs- und Pixelverarbeitungssystem
EP0014857B1 (de) Verfahren zum automatischen Markieren von Zellen und zur Bestimmung der Merkmale von Zellen aus zytologischen Abstrichpräparaten
DE3722444C2 (de) Verfahren und Vorrichtung zum Erzeugen von Entwurfsmusterdaten
DE60020038T2 (de) Verfahren zum Verarbeiten eines numerischen Bildes
DE10157958B4 (de) Bildverarbeitungsverfahren und-vorrichtung
DE69533054T2 (de) Mehrfenstertechnik zur Schwellenwertverarbeitung eines Bildes unter Verwendung lokaler Bildeigenschaften
DE10317917B4 (de) System und Verfahren zum Umgrenzen und Klassifizieren von Regionen innerhalb einer graphischen Abbildung
DE60114469T2 (de) Methode und Gerät zur Bestimmung von interessanten Bildern und zur Bildübermittlung
DE60012859T2 (de) Bestimmung der Orientierung von Bildern die einen blauen Himmel enthalten
DE112015000964T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE102007035884B4 (de) Linienrauschunterdrückungsvorrichtung, -verfahren und -programm
DE102007013971B4 (de) Verfahren und Vorrichtung zur Ermittlung einer Zellkontur einer Zelle
DE112005000205T5 (de) System und Verfahren zur automatischen Knochenextraktion von einem medizinischen Bild
DE112007002904T5 (de) Vorrichtung und Verfahren zum Erzeugen photorealistischer Bild-Thumbnails
DE3306442A1 (de) Verfahren zur farberfassung und farbmodifikation und einrichtung zur durchfuehrung des verfahrens
DE10246102A1 (de) Verfahren und Vorrichtung zum Filtern von Rauschen von einem digatalen Bild
EP2433245A1 (de) Vorrichtung und verfahren zur identifizierung des urhebers eines kunstwerkes
DE60217748T2 (de) Verfahren und Gerät zur Anzeige eines Bildraumes

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: SEEGER SEEGER LINDNER PARTNERSCHAFT PATENTANWAELTE