DE112010001320T5 - Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bilderverarbeitungsprogramm und Speichermedium - Google Patents

Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bilderverarbeitungsprogramm und Speichermedium Download PDF

Info

Publication number
DE112010001320T5
DE112010001320T5 DE112010001320T DE112010001320T DE112010001320T5 DE 112010001320 T5 DE112010001320 T5 DE 112010001320T5 DE 112010001320 T DE112010001320 T DE 112010001320T DE 112010001320 T DE112010001320 T DE 112010001320T DE 112010001320 T5 DE112010001320 T5 DE 112010001320T5
Authority
DE
Germany
Prior art keywords
image
line segments
angle
inclination
angles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112010001320T
Other languages
English (en)
Inventor
Toshiyuki Soutsuka
Tomoki Suruga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Machinery Ltd
Original Assignee
Murata Machinery Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2009093222A external-priority patent/JP5477542B2/ja
Priority claimed from JP2009093220A external-priority patent/JP5477541B2/ja
Application filed by Murata Machinery Ltd filed Critical Murata Machinery Ltd
Publication of DE112010001320T5 publication Critical patent/DE112010001320T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3877Image rotation
    • H04N1/3878Skew detection or correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1475Inclination or skew detection or correction of characters or of image to be recognised
    • G06V30/1478Inclination or skew detection or correction of characters or of image to be recognised of characters or characters lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30176Document

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Die Koordinaten von Punkten in einem Bild werden in Distanzen (ρ) und Winkel (θ) transformiert. Das Abstimmen wird in eine Stimmtabelle unter Verwendung der Distanzen (ρ) und Winkel (θ) als Anfangsblöcke ausgeführt. Eine vorbestimmte Anzahl von Punkten, deren Stimmzahlen hochrangig sind, wird aus der Stimmtabelle extrahiert. Extraktionswinkel (θx) sind derart definiert, dass die Kompatibilität zwischen den Extraktionswinkeln (θx) und den Winkeln (θ) der vorbestimmten Anzahl von Punkten maximiert ist. Ein Neigungswinkel des Bildes wird basierend auf den definierten Extraktionswinkeln (θx) bestimmt.

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf die Erfassung eines Neigungswinkels eines Eingangsbildes.
  • Hintergrund der Technik
  • Manchmal, wenn ein Bild durch einen Scanner gelesen wird, ist das gelesene Bild etwas geneigt. Bei einem herkömmlichen Ansatz, um die Neigung zu korrigieren, werden z. B. Kanten eines Druckvorlagepapiers erfasst. Wenn das Druckvorlagepapier eine rechteckige Form hat, müssen die Kanten parallel zu einer Hauptabtast- oder Hauptscanrichtung oder einer Hilfsabtastrichtung ausgerichtet sein und eine Abweichung von diesen Richtungen zeigt eine Neigung des Druckvorlagepapiers. Bei diesem Ansatz jedoch kann die Neigung nur beim Abtasten erfasst werden und eine Neigung von gespeicherten Bildern oder Bildern, die von Außen übertragen werden, kann nicht erfasst werden. Ferner, wenn eine Neigung des Druckvorlagepapiers erfasst wird, wenn das Papier kein Standardtyppapier ist, wie z. B. ein Auszug, kann die Neigung nicht erfasst werden. Ferner, in dem Fall des Abtastens von zwei sich zugewandten Seiten eines gebundenen Buches können die zwei sich zugewandten Seiten geneigt sein sogar wenn der Einband nicht geneigt ist. Auch in diesem Fall ist die Erfassung der Neigung schwierig. Um diese Probleme zu lösen, ist es erforderlich, die Neigung des Bildes selbst zu erfassen und nicht die Neigung des Druckvorlagepapiers zu erfassen.
  • Diesbezüglich wird nachfolgend die verwandte Technik erwähnt. Patentdokument 1 ( JPH10-283476A ) beschreibt die Erfassung von geraden Linien in einem Bild durch eine Hough-Transformation. Patentdokument 1 zeigt jedoch nicht die Erfassung einer Neigung des Bildes selbst durch Hough-Transformation. Ferner, gemäß Experimenten, die durch den Erfinder ausgeführt werden, war in einer Abstimmtabelle, die durch Hough-Transformation eines Bildes erhalten wurde, wenn gerade Linien mit der größten Anzahl von Stimmen als gerade Linien parallel zu der Neigung des Bildes bestimmt wurden, die Neigung der geraden Linie mit der größten Anzahl von Stimmen häufig wesentlich unterschiedlich zu der Neigung des tatsächlichen Bildes. Wenn z. B. ein Fotobild oder ein Grafikmuster in dem Bild vorhanden ist, und das Fotobild oder das Grafikmuster schräge Linien umfasst, werden die schrägen Linien eher durch Hough-Transformation extrahiert werden, und Winkel von schrägen Linien, die sich von der Neigung des Bildes selbst unterscheiden, werden eher erfasst zu werden.
  • Verwandtes technisches Dokument
  • Patentdokument
    • Patentdokument 1: JPH10-283476A
  • Zusammenfassung der Erfindung
  • Probleme, die durch die Erfindung gelöst werden sollen
  • Es ist eine Aufgabe der Erfindung, einen Neigungswinkel eines Bildes genau unter Verwendung des Wesens des Bildes selbst zu bestimmen.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, einen Neigungswinkel eines Bildes zu bestimmen, ahne durch den Einfluss von schrägen Linien oder Ähnliches beeinflusst zu werden.
  • Einrichtungen zum Lösen der Probleme
  • Gemäß der vorliegenden Erfindung, zum Zweck der Bestimmung eines Neigungswinkels eines Bildes, umfasst die Bildverarbeitungsvorrichtung Folgendes:
    eine Hough-Transformationseinheit zum Transformieren von Koordinaten von Punkten in dem Bild jeweils in eine Distanz ρ und einen Winkel θ, und das Abgeben von Stimmen in
    eine Stimmtabelle mit der Distanz ρ und dem Winkel θ als Kopfzeile zum Extrahieren von geraden Linien in dem Bild;
    eine Extraktionseinheit zum Extrahieren einer vorbestimmten Anzahl von Punkten mit einer Anzahl von Stimmen mit hohem Rang aus der Stimmtabelle; und
    eine Neigungswinkelbestimmungseinheit zum Bestimmen eines Extraktionswinkels θx, um eine maximale Konsistenz mit Winkeln θ an der vorbestimmten Anzahl von Punkten zu erreichen, und zum Bestimmen der Neigungswinkel des Bildes basierend auf dem bestimmten Extraktionswinkel θx.
  • Bei einem Verfahren zum Verarbeiten eines Bildes gemäß der vorliegenden Erfindung wird eine Informationsverarbeitungsvorrichtung zum Ausführen der folgenden Schritte verwendet:
    Anwenden einer Hough-Transformation zum Transformieren von Koordinaten von Punkten in dem Bild jeweils in eine Distanz ρ und einen Winkel θ und Abgeben von Stimmen in eine Stimmtabelle mit der Distanz ρ und dem Winkel θ als Kopfzeilen, um gerade Linien in dem Bild zu extrahieren;
    Extrahieren einer vorbestimmten Anzahl von Punkten mit einer Anzahl von hochrangigen Stimmen aus der Stimmtabelle; und
    Bestimmen eines Extraktionswinkels θx, um eine maximale Konsistenz mit Winkeln θ an der vorbestimmten Anzahl von Punkten zu erreichen, und Bestimmen der Neigungswinkel des Bildes basierend auf dem bestimmten Extraktionswinkel θx.
  • Ferner wird ein Bildverarbeitungsprogramm gemäß der Erfindung wiedergewonnen durch eine Informationsverarbeitungsvorrichtung, um der Informationsverarbeitungsvorrichtung zu ermöglichen, folgende Funktionen aufzuweisen:
    Anwenden einer Hough-Transformation zum Transformieren von Koordinaten von Punkten in dem Bild jeweils in eine Distanz ρ und einen Winkel θ und Abgeben von Stimmen in eine Stimmtabelle mit der Distanz ρ und dem Winkel θ als Kopfzeilen;
    Extrahieren einer vorbestimmten Anzahl von Punkten mit einer Anzahl von hochrangigen Stimmen aus der Stimmtabelle; und
    Bestimmen eines Extraktionswinkels θx, zum Erreichen einer maximalen Konsistenz mit Winkeln θ an der vorbestimmten Anzahl von Punkten, und Bestimmen der Neigungswinkel des Bildes basierend auf dem bestimmten Extraktionswinkel θx.
  • In der Spezifikation ist die Beschreibung im Hinblick auf die Bildverarbeitungsvorrichtung direkt an das Bildverarbeitungsverfahren und das Bildverarbeitungsprogramm anwendbar. Umgekehrt ist die Beschreibung im Hinblick auf das Bildverarbeitungsverfahren direkt auf die Bildverarbeitungsvorrichtung und das Bildverarbeitungsprogramm anwendbar. Das Bild als ein Ziel der Verarbeitung ist z. B. ein Bild direkt nachdem es durch einen Scanner gelesen wurde. Alternativ kann ein Bild, das durch ein Faksimile, Dateiübertragung und eine Email oder Ähnliches empfangen wurde oder ein Bild, das in einem Speicher gespeichert ist, als das Ziel der Verarbeitung verwendet werden. Ferner haben die gerade Linie und das Liniensegment dieselbe Bedeutung. Zum Beispiel wird das Bildverarbeitungsprogramm von einem Speicherungsmedium zu der Bildverarbeitungsvorrichtung geliefert oder wird durch eine Trägerwelle zu der Bildverarbeitungsvorrichtung geliefert.
  • Die Bedeutung der maximalen Konsistenz hierin wird beschrieben. Für jeden Punkt wird bestimmt, ob der Punkt innerhalb eines zulässigen Bereichs von dem Extraktionswinkel θx ist. Wenn ja, wird 1 zugewiesen, ansonsten wird 0 zugewiesen. Wenn die Summe dieser Werte das Maximum ist, ist die Konsistenz das Maximum. Ohne den Wert von 0 oder 1 zuzuweisen, kann der Wert schrittweise verändert werden, abhängig von der Differenz von dem Extraktionswinkel θx. Ferner kann als Gewicht der Konsistenz die Anzahl von Stimmen, die an jedem Punkt erhalten werden, verwendet werden, und die Gesamtzahl der Anzahl von Stimmen, die an den entsprechenden Punkten innerhalb des zulässigen Bereichs von dem Extraktionswinkel θx erhalten werden, kann als die Konsistenz verwendet werden.
  • Bei der Hough-Transformation kann eine Zeile aus Zeichen in einem Bild als gerade Linien betrachtet werden, die unterbrochene Abschnitte umfasst. Daher kann bei der vorliegenden Erfindung ein Neigungswinkel in dem Bild bestimmt werden z. B. aus den Orientierungen der Linie aus Zeichen, mit Lineal gezeichnete Linien, unterstrichene Linien oder Ähnlichem. Somit kann der oder die Neigungswinkel basierend auf dem Wesen des Bildes selbst bestimmt werden.
  • Bei der Hough-Transformation sind Koordinaten (x, y) eines Punkts in einem Bild dargestellt als ρ = xcosθ + ysinθ, und in eine Distanz ρ und einen Winkel θ transformiert. Ein Punkt in dem Bild wird in eine Mehrzahl von Punkten im (ρ, θ) Raum transformiert. Nach der Transformation von jedem Punkt wird eine Stimme in die Stimmtabelle mit ρ und θ als Kopfzeilen abgegeben. Die Punkte von ρ und θ, die eine große Anzahl von Stimmen haben, stellen die gerade Linie in dem Bild dar. Gemäß der Erfahrung des Erfinders jedoch, wenn die Neigung des Bildes basierend auf dem Punkt mit der größten Anzahl von Stimmen bestimmt wurde, war die Orientierung bzw. Ausrichtung der erfassten Neigungswinkel häufig wesentlich unterschiedlich von der Orientierung der Linie. Die meisten der erfassten, geneigten Winkel waren z. B. gerade Linien von Grafikmusterabschnitten oder Fotobildern oder schräge Linien von Handschriften, die in dem Bild umfasst sind. Im Gegensatz dazu, wenn bestimmt wird, dass der Extraktionswinkel θx eine maximale Konsistenz mit den Winkeln θ an einer vorbestimmten Anzahl von Punkten mit einer Anzahl von Stimmen mit hohem Rang erreicht, und die Neigungswinkel basierend auf dem bestimmten Extraktionswinkel θx bestimmt werden, wurde die Erfassung erfolgreich mit verbesserter Zuverlässigkeit ausgeführt, da die Neigungswinkel aus einer Mehrzahl von wesentlichen geraden Linien in dem Bild bestimmt werden können.
  • Vorzugsweise werden die Neigungswinkel des Bildes basierend auf einem Mittel der Winkel θ an Punkten innerhalb eines zulässigen Bereichs von dem Extraktionswinkel θx bestimmt, aus der vorbestimmten Anzahl von Punkten. Auf diese Weise, da die Neigungswinkel basierend auf dem Durchschnitt bzw. Mittelwert der Daten von Punkten in dem zulässigen Bereich bestimmt werden können, kann eine Erfassung zuverlässig ausgeführt werden.
  • Ferner werden vorzugsweise die Neigungswinkel des Bildes basierend auf einem gewichteten Mittel der Winkel θ an Punkten innerhalb eines zulässigen Bereichs aus dem Winkel ex entsprechend einer Anzahl von Stimmen von jedem Winkel θ bestimmt, aus der vorbestimmten Anzahl von Punkten. Zum Beispiel bedeutet der gewichtete Mittelwert entsprechend einer Anzahl von Stimmen hierin den gewichteten Mittelwert unter Verwendung der Anzahl von Stimmen als das Gewicht, wobei der gewichtete Mittelwert die Wurzel oder Quadratwurzel der Anzahl von Stimmen als das Gewicht verwendet. Auf diese Weise können die Neigungswinkel dadurch bestimmt werden, dass entsprechend eine Bedeutung auf Punkte mit einer großen Anzahl von Stimmen gesetzt wird.
  • Vorzugsweise ist die Bildverarbeitungsvorrichtung konfiguriert, nicht die Neigungswinkel des Bildes zu bestimmen, wenn ein Verhältnis einer Anzahl von Punkten, wo die Winkel θ innerhalb eines zulässigen Bereichs von dem Winkel θx sind, aus der vorbestimmten Anzahl von Punkten, zu der vorbestimmten Anzahl von Punkten kleiner ist als ein vorbestimmter Wert. Die Tatsache, dass nur eine geringe Anzahl von Punkten in einem zulässigen Winkelbereich von dem Extraktionswinkel θx vorhanden ist, bedeutet aus der vorbestimmten Anzahl von Punkten, dass Winkel an den extrahierten Punkten stark verteilt sind und die Zuverlässigkeit niedrig ist. Daher kann in einem solchen Fall durch Stoppen der Erfassung der Neigungswinkel die Erfassung mit niedriger Zuverlässigkeit vermieden werden.
  • Vorzugsweise ist die Bildverarbeitungsvorrichtung konfiguriert, die Neigungswinkel des Bildes nicht zu bestimmen, wenn die vorbestimmte Anzahl von Punkten jeden Punkt mit einer Anzahl von Stimmen umfasst, deren Verhältnis zu der größten Anzahl von Stimmen aus der vorbestimmten Anzahl von Punkten kleiner ist als ein zulässiger Bereich. In dem Fall der Erfassung einer Linie aus Zeichen oder einer mit Lineal gezeichneten Linie als gerade Linie darf kein wesentlicher Unterschied zwischen der Anzahl von Stimmen an der vorbestimmten Anzahl von Punkten vorhanden sein. Nichtsdestotrotz, wenn die vorbestimmte Anzahl von Punkten jeglichen Punkt mit einer Anzahl von Stimmen aufweist, deren Verhältnis zu der größten Anzahl von Stimmen aus der vorbestimmten Anzahl von Punkten kleiner ist als ein zulässiger Bereich, ist es wahrscheinlich, dass eine lange gerade Linie in einem Grafikmusterabschnitt oder einem Fotobildabschnitt in dem Bild erfasst wird. Daher kann in einem solchen Fall durch Stoppen der Erfassung der Neigungswinkel eine Erfassung mit niedriger Zuverlässigkeit vermieden werden.
  • Vorzugsweise ist die Bildverarbeitungsvorrichtung konfiguriert, um einen Bereich um jeden der extrahierten Punkte in der Stimmtabelle zu der Zeit zu maskieren, zu der die vorbestimmte Anzahl von Punkten extrahiert wird, um zu Verhindern, dass andere Punkte in dem maskierten Bereich aus der Stimmtabelle extrahiert werden. Auf diese Weise wird es möglich, gerade Linien aus einem großen Bereich des Zielbildes zu extrahieren. Daher wird die Chance des erfolgreichen Extrahierens gerader Linien der Line aus Zeichen, der mit Lineal gezeichneten Linien, Unterstreichungen oder Ähnlichem erhöht.
  • Vorzugsweise wird eine Degeneration zum Vereinfachen von Liniensegmenten in Punkte an das Bild durch eine Degenerationseinheit angewendet, und eine Hough-Verarbeitung wird an das Bild mit Degeneration angewendet. In der Spezifikation ist der Punkt nicht auf das eine Pixel begrenzt und kann eine Mehrzahl von Pixeln umfassen, die als ein Punkt erscheinen. Durch eine Degeneration werden Liniensegmente in einfache Punkte transformiert. Die Zeichenlinie wird jedoch beibehalten. Auf diese Weise können Neigungswinkel basierend auf der Zeichenlinie in dem Bild bestimmt werden. Ferner, da die Anzahl von gültigen Pixeln in dem Bild durch Degeneration reduziert wird, kann eine Hough-Transformation mit höherer Geschwindigkeit ausgeführt werden.
  • Vorzugsweise sind die Hough-Transformationseinheit, die Extraktionseinheit und die Neigungswinkel-Bestimmungseinheit konfiguriert, um einen ersten Neigungswinkel durch Hough-Transformation zu dem Bild mit Degeneration zu bestimmen, und einen zweiten Neigungswinkel durch Hough-Transformation zu dem Bild ohne Degeneration zu bestimmen. Ferner ist eine Komparatoreinheit vorgesehen zum Vergleichen der ersten Neigungswinkel mit den zweiten Neigungswinkeln. Wenn ein Unterschied zwischen den ersten Neigungswinkeln und den zweiten Neigungswinkeln innerhalb eines vorbestimmten Bereichs ist, werden die zweiten Neigungswinkel als die Neigungswinkel des Bildes bestimmt, und wenn die Differenz zwischen den ersten Neigungswinkeln und den zweiten Neigungswinkeln nicht innerhalb des vorbestimmten Bereichs ist, werden die ersten Neigungswinkel als Neigungswinkel des Bildes bestimmt.
  • Die ersten Neigungswinkel stellen Neigungswinkel dar, die ausschließlich unter Verwendung von Linien aus Zeichen erhalten werden, und die zweiten Neigungswinkel stellen Neigungswinkel dar, die unter Verwendung von Tabellen, Unterstreichungen, schrägen Linien oder Ähnlichem zusätzlich zu der Linie aus Zeichen erhalten werden. Wenn die ersten Neigungswinkel ähnlich zu den zweiten Neigungswinkeln sind, kann angenommen werden, dass Beiträge von Liniensegmenten von Tabellen oder Unterstreichungen vorhanden sind, parallel zu oder senkrecht zu Linien aus Zeichen. Sogar wenn sowohl die ersten Neigungswinkel als auch die zweiten Neigungswinkel basierend auf Linien aus Zeichen bestimmt werden, da die zweiten Neigungswinkel nicht durch die Änderung des Bildes beeinflusst werden, die durch eine Degeneration verursacht werden kann, kann davon ausgegangen werden, dass die Genauigkeit der zweiten Neigungswinkel höher ist als die Genauigkeit der ersten Neigungswinkel. Auf diese Weise können die Neigungswinkel mit einem hohen Grad an Genauigkeit bestimmt werden.
  • Wenn sich die ersten Neigungswinkel wesentlich von den zweiten Neigungswinkeln unterscheiden, werden die ersten Neigungswinkel als die Neigungswinkel des Bildes bestimmt. Auf diese Weise können die Neigungswinkel bestimmt werden, ohne durch den Einfluss von schrägen Linien in dem Grafikmusterabschnitt, dem Fotobildabschnitt oder Ähnlichem in dem Bild beeinflusst zu werden.
  • Wenn die Konsistenz zwischen den ersten Neigungswinkeln und den zweiten Neigungswinkeln in einem Zwischengrad ist, wird z. B. eine Mehrzahl von Liniensegmenten als ein erster Satz aus einem Bild extrahiert, was durch Hough-Transformation zu dem Bild mit Degeneration erhalten wird, und eine Mehrzahl von Liniensegmenten als ein zweiter Satz wird aus einem Bild extrahiert, was durch Hough-Transformation zu dem Bild erhalten wird, das keiner Degeneration unterzogen wurde. Aus dem zweiten Satz aus Liniensegmenten werden Liniensegmente mit Orientierungsunterschieden innerhalb eines vorbestimmten Bereichs in dem ersten Satz aus Liniensegmenten, vorzugsweise Liniensegmente mit der Orientierungsdifferenz innerhalb eines ersten vorbestimmten Bereichs, und mit Distanzunterschieden bei der Hough-Transformation innerhalb eines zweiten vorbestimmten Bereichs in dem ersten Satz aus Liniensegmenten extrahiert, um die Neigungswinkel zu bestimmen. Die Anzahl solcher Liniensegmente kann eins sein. Jedoch sollten die Neigungswinkel basierend auf einer Mehrzahl von Liniensegmenten bestimmt werden, für eine verbesserte Zuverlässigkeit. Daher, wenn die Anzahl von extrahierten Liniensegmenten klein ist, um die Zuverlässigkeit zu verbessern, werden aus dem ersten Satz aus Liniensegmenten Liniensegmente, die nicht dem zweiten Satz aus Liniensegmenten entsprechen, zu den extrahierten Liniensegmenten hinzugefügt. Basierend auf der Neigung dieser Liniensegmente werden die Neigungswinkel des Bildes bestimmt.
  • Wenn die Differenz nicht innerhalb des vorbestimmten Bereichs ist, vorzugsweise wenn keine Liniensegmente mit ähnlicher Neigung vorhanden sind, zwischen einer ersten Gruppe aus Liniensegmenten, die durch Hough-Transformation aus dem Bild mit Degeneration extrahiert werden und einer zweiten Gruppe aus Liniensegmenten, die durch Hough-Transformation aus dem Bild ohne Degeneration extrahiert werden, werden die ersten Neigungswinkel als die Neigungswinkel des Bildes bestimmt. Wenn jegliche Liniensegmente mit ähnlicher Neigung vorhanden sind, zwischen der ersten Gruppe aus Liniensegmenten und der zweiten Gruppe aus Liniensegmenten, werden die Neigungswinkel des Bildes zumindest basierend auf der Neigung der Liniensegmente der zweiten Gruppe aus Liniensegmenten bestimmt, die ähnlich ist zu der Neigung der Liniensegmenten der ersten Gruppe aus Liniensegmenten.
  • Die Extraktionseinheit kann die erste Gruppe aus Liniensegmenten aus dem Eingangsbild extrahieren, die einer Degeneration unterzogen wurde, und die zweite Gruppe aus Liniensegmenten aus dem Eingangsbild ohne Degeneration extrahieren, ohne die ersten Neigungswinkel und die zweiten Neigungswinkel zu bestimmen. Die Neigungswinkelbestimmungseinheit kann die Neigungswinkel des Eingangsbildes zumindest basierend auf der Neigung des Liniensegments der zweiten Gruppe aus Liniensegmenten bestimmen, die ähnlich ist zu der Neigung des Liniensegments der ersten Gruppe aus Liniensegmenten.
  • Wiederum vorzugsweise, in der zweiten Gruppe aus Liniensegmenten, wenn eine vorbestimmte Anzahl oder mehr Liniensegmente mit einer Neigung ähnlich zu der Neigung der ersten Gruppe aus Liniensegmenten vorhanden ist, bestimmt die Neigungswinkelbestimmungseinheit die Neigungswinkel des Bildes basierend auf der Neigung der vorbestimmten Anzahl oder mehr der Liniensegmente, und in der zweiten Gruppe aus Liniensegmenten, wenn weniger als die vorbestimmte Anzahl von Liniensegmenten vorhanden ist mit einer Neigung ähnlich zu der Neigung der ersten Gruppe aus Liniensegmenten, bestimmt die Neigungswinkelbestimmungseinheit die Neigungswinkel des Bildes basierend auf der Neigung einer Gruppe von Liniensegmenten, die die erste Gruppe aus Liniensegmenten umfasset, zusätzlich zu den Liniensegmenten, die kleiner ist als die vorbestimmte Anzahl.
  • Vorzugsweise ist eine Binarisierungseinheit vorgesehen zum Binarisieren des Bildes in gültige Pixel und ungültige Pixel, und ein Filter wird verwendet zum Ersetzen gültiger Pixel, die miteinander in dem binarisierten Bild verbunden sind, durch ungültige Pixel, von einem Ende der verbundenen Pixel. Auf diese Weise kann eine Degeneration einfach ausgeführt werden.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm, das eine Multifunktionsmaschine in einem Ausführungsbeispiel zeigt.
  • 2 ist ein Blockdiagramm, das eine Vorverarbeitungseinheit in dem Ausführungsbeispiel zeigt.
  • 3 ist ein Diagramm, das ein Filter zeigt, das bei der Degeneration bei dem Ausführungsbeispiel verwendet wird.
  • 4 ist ein Diagramm, das einen Algorithmus zum Bestimmen zeigt, ob Neigungswinkel basierend auf Tabellen oder Unterstreichungen bestimmt werden sollten oder Neigungswinkel unter Verwendung von Zeichen bei dem Ausführungsbeispiel bestimmt werden sollten.
  • 5 ist eine Ansicht, die einen Vorverarbeitungsalgorithmus bei dem Ausführungsbeispiel zeigt.
  • 6 ist ein Blockdiagramm, das Komponenten zeigt, die die Hough-Transformationseinheit und eine Bildrotationseinheit bei dem Ausführungsbeispiel umfassen.
  • 7 ist eine Ansicht, die schematisch eine Stimmtabelle bei dem Ausführungsbeispiel zeigt.
  • 8 ist ein Diagramm, das einen Algorithmus zum Erfassen von Neigungswinkeln in dem Ausführungsbeispiel zeigt.
  • 9 ist eine Ansicht, wo Linien aus Zeichen als gerade Linien bei dem Ausführungsbeispiel betrachtet werden.
  • 10 ist eine Ansicht, wo ein Eingangsbild direkt binarisiert wird.
  • 11 ist eine Ansicht, die ein reduziertes Bild eines Eingangsbildes bei dem Ausführungsbeispiel zeigt.
  • 12 ist eine Ansicht, die ein Bild zeigt, nachdem Rauschen aus dem reduzierten Bild bei dem Ausführungsbeispiel entfernt wurde.
  • 13 ist eine Ansicht, die Kanten bzw. Ränder zeigt, die aus dem Bild extrahiert wurden, nach einer Rauschentfernung bei dem Ausführungsbeispiel.
  • 14 ist eine Ansicht, die ein Kantenextraktionsfilter zeigt, das bei dem Ausführungsbeispiel verwendet wird.
  • 15 ist eine Ansicht, die ein binarisiertes Bild zeigt, das durch Binarisieren von Rändern des Bildes bei dem Ausführungsbeispiel erhalten wird.
  • 16 ist eine Ansicht, die ein Bild nach der Entfernung von isolierten Punkten aus dem binarisierten Bild bei dem Ausführungsbeispiel zeigt.
  • 17 ist eine Ansicht, die ein Bild zeigt, das durch eine Degeneration nach der Entfernung der isolierten Punkte bei dem Ausführungsbeispiel erhalten wird.
  • 18 ist eine Ansicht, die eine falsche Linie zeigt, basierend auf der größten Anzahl von Stimmen.
  • 19 ist eine Ansicht, die einen Zustand zeigt, wo eine Mehrzahl von benachbarten Punkten in einer Stimmtabelle als gültige Linien ausgewählt wird.
  • 20 ist eine Ansicht, die einen Zustand zum Extrahieren einer gültigen Linie zeigt, nachdem Bereiche um die extrahierten Linien bei dem Ausführungsbeispiel maskiert wurden. Die Leuchtdichte zeigt die Anzahl von Stimmen in der Stimmtabelle.
  • 21 ist eine Ansicht, die schematisch gültige Linien zeigt, die bei dem Ausführungsbeispiel extrahiert werden.
  • 22 ist eine Ansicht, die schematisch ein Verfahren zeigt zum Bestimmen eines Neigungswinkels bei dem Ausführungsbeispiel.
  • 23 ist ein Diagramm, das schematisch eine Funktion zeigt zum Bewerten der Konsistenz, wenn Kandidaten der Neigungswinkel bei dem Ausführungsbeispiel extrahiert werden.
  • Ausführungsbeispiel zum Ausführen der Erfindung
  • Hierin nachfolgend wird ein Ausführungsbeispiel in der bevorzugtesten Form zum Ausführen der vorliegenden Erfindung beschrieben. Der Schutzbereich des Ausführungsbeispiels in der bevorzugtesten Form kann auf eine Weise verändert werden, die für einen Fachmann auf dem Gebiet bei Betrachtung der Techniken offensichtlich ist, die auf diesem technischen Gebiet bekannt sind.
  • Ausführungsbeispiele
  • 1 bis 22 zeigen ein Ausführungsbeispiel einer Multifunktionsmaschine 2, die als Beispiel genommen wird. Ein Bezugszeichen 4 bezeichnet ein LAN, und ein Bezugszeichen 6 bezeichnet einen Personalcomputer. Der Personalcomputer 6 ist ein Beispiel einer Informationsverarbeitungsvorrichtung. Ein Bezugszeichen 8 bezeichnet einen Router zur Verbindung des Internets 10 mit der Multifunktionsmaschine 2 und dem Personalcomputer 6. Die Erfassung und Korrektur der Neigungswinkel bei dem Ausführungsbeispiel wird durch die Multifunktionsmaschine 2 ausgeführt. Alternativ kann die Erfassung und Korrektur des Neigungswinkels bei dem Ausführungsbeispiel durch den Personalcomputer 6 ausgeführt werden. Zum Beispiel kann ein Bild, das durch einen Scanner 20 der Multifunktionsmaschine 2 gelesen wird, zu dem Personalcomputer 6 übertragen werden und die Neigungswinkel können erfasst werden und durch den Personalcomputer 6 korrigiert werden.
  • Die Struktur der Multifunktionsmaschine 2 wird beschrieben. Ein Bezugszeichen 12 bezeichnet eine LAN-Schnittstelle, ein Bezugszeichen 14 bezeichnet einen Bus, und ein Bezugszeichen 16 bezeichnet einen Bildspeicher als einen Seitenspeicher zum Speichern von Bilddaten. Ein Speicher 18 ist ein Allzweckspeicher zum Speichern von Programmen, Interimsdaten oder Ähnlichem. Ein Speicherungsmedium 19, wie z. B. eine CD-ROM, speichert ein Bildverarbeitungsprogramm bei dem Ausführungsbeispiel, und der Speicher 18 speichert das Bildverarbeitungsprogramm oder Ähnliches, das von einem Plattenlaufwerk (nicht gezeigt) oder der LAN-Schnittstelle 12 oder Ähnlichem geliefert wird. Der Scanner 20 liest ein Bild von dem Druckvorlagepapier in einer monochromatischen Grauskala oder Vollfarben, ein Drucker 22 druckt das Bild und eine G3-Faksimileeinheit 24 führt die G3-Faksimileübertragung und den Empfang des Bildes aus. Eine Email-Verarbeitungseinheit 26 führt die Übertragung und den Empfang der Bilder aus, die als Dateien an Emails angehängt sind, und eine Netzwerkservereinheit 28 betreibt die Multifunktionsmaschine 2, die als Dokumentverwaltungsserver, entfernter Drucker oder Ähnliches verwendet werden soll. Eine Benutzerschnittstelle 30 empfängt manuelle Eingaben von einem Benutzer und eine Bildverarbeitungsverfahren 32 führt verschiedene Arten einer Bildverarbeitung aus. Eine Vorverarbeitungseinheit 40, eine Hough-Transformationseinheit 50 und eine Neigungswinkelbestimmungseinheit 60 sind vorgesehen zum Erfassen von Neigungswinkeln eines abgetasteten Bildes, eines empfangenen Bildes oder eines gespeicherten Bildes. Ferner dreht eine Bildrotationseinheit 70 das Bild in einem Winkel gleich den erfassten Neigungswinkeln entgegen dem Uhrzeigersinn, um die Neigung zu korrigieren.
  • 2 zeigt die Struktur der Vorverarbeitungseinheit 40. Bilddaten werden aus dem Bildspeicher 16 in eine Reduktionsverarbeitungseinheit 41 eingegeben und eine Auflösung des Bildes wird reduziert auf 1/n (n ist eine natürliche Zahl von 2 oder mehr, vorzugsweise 4 bis 8, wiederum vorzugsweise 4 bis 6). Somit wird die Datenmenge auf 1/n2 reduziert. Zum Beispiel kann die Reduktion der Bilddaten ausgeführt werden durch Bestimmen eines Durchschnittswerts der Pixelwerte des Bildes für jeden n × n Pixelblock. Ferner, einfacher, können bei der Reduktionsverarbeitungseinheit 41 entsprechende Punkte in den n × n Pixelblöcken, z. B. Daten von einem Pixel an dem oberen linken Scheitel von jedem Block direkt ausgegeben werden. Auf diese Weise kann eine Hough-Transformation n2 mal schneller ausgeführt werden. Sogar wenn dieselben Bilddaten verwendet wurden und der Dateninhalt und die Auflösung sich nicht verändert hat, wenn eine unterschiedliche Erfassungsreduktionsrate bei der Reduktionsverarbeitungseinheit 41 verwendet wurde, wurde manchmal ein unterschiedliches Ergebnis der Neigungswinkel erhalten. Daher, unabhängig von der Auflösung beim Scannen bzw. Abtasten, durch Degradieren bzw. Verschlechtern der Auflösung bis zu einer bestimmten Auflösung unter Verwendung der Reduktionsverarbeitungseinheit 41, kann der Unterschied bei dem Erfassungswert der Neigungswinkel aufgrund des Unterschieds bei der Auflösung beseitigt werden.
  • Sogar wenn das Bild durch die Multifunktionsmaschine 2 abgetastet wird, wie in dem Fall von Faksimileempfangsdaten oder Ähnlichem, wenn die Auflösung beim Scannen oder Abtasten bekannt ist, wird auf dieselbe Weise das Bild auf eine bestimmte Auflösung reduziert. Die Auflösung beim Abtasten kann aus Kommunikationsprotokollen, Anfangsblöcken von Bilddateien oder Ähnlichem erfasst werden. Wenn keine Auflösung in dem Anfangsblock beschrieben ist, wie in dem Fall von JPEG-Bildern, wird das Bild auf eine bestimmte Auflösungsrate reduziert, wie z. B. 1/4 oder 1/8.
  • Eine Glättungseinheit 42 beseitigt Rauschen aus einem reduzierten Bild unter Verwendung eines Glättungsfilters oder Ähnlichem, um keine Zufallsdaten in dem Bild als gerade Linien durch Hough-Transformation zu extrahieren. Als Nächstes extrahiert eine Kantenextraktionseinheit 43 Kanten oder Ähnliches aus dem geglätteten Bild unter Verwendung eines Kantenextraktionsfilters, wie z. B. eines Laplace-Filters oder eines Sobel-Filters. Der Einfluss von Hintergrundfarben kann beseitigt werden, und sogar in dem Fall von Umrisszeichen, können die Kanten, die dem Umriss der Zeichen entsprechen, erfasst werden.
  • Eine Binarisierungseinheit 44 binarisiert die extrahierten Kanten. Der Schwellenwert der Binarisierung kann ein fester Wert sein oder kann bestimmt werden basierend auf der Leuchtdichte oder Luminanz der extrahierten Kanten, der Verteilung der Farbwerte oder Ähnlichem. Ferner ist es nicht erforderlich, alle Kanten zu binarisieren. Wenn z. B. Zeichenabschnitte, Fotobildabschnitte und Grafikmusterabschnitte in dem Bild identifiziert werden können, ist es erwünscht, nur die Zeichenabschnitte zu binarisieren.
  • Das Bild, das bei dem Ausführungsbeispiel gehandhabt wird, ist ein monochromatisches Grauskalabild. Alternativ kann ein RGB-Bild gehandhabt werden. In diesem Fall können die RGB-Daten in ein Luminanzbild umgewandelt werden, um den Neigungswinkel zu erfassen. Ferner können die Neigungswinkel für jede der R-, G-, B-Komponenten erfasst werden und der Durchschnittswert der Neigungswinkel kann verwendet werden.
  • Eine Entfernungseinheit 45 für isolierte Punkte beseitigt isolierte Punkte aus dem binarisierten Bild. Alternativ kann die Entfernungseinheit 45 für isolierte Punkte isolierte Punkte aus dem Kantenbild vor der Binarisierung entfernen. Durch Entfernung von isolierten Punkten wird der Datenbetrag reduziert und die Wahrscheinlichkeit einer Erfassung der falschen Neigungswinkel wird verringert. Die Anzahl von isolierten Punkten ist besonders groß in dem Fall eines Fotobildes. Die isolierten Punkte sind Daten, die sich nicht auf die Neigung des Originalbildes beziehen.
  • Eine Degenerationseinheit 46 wendet eine Degeneration an das binarisierte Bild nach der Entfernung der isolierten Punkte an. Es sollte darauf hingewiesen werden, dass die Entfernung der isolierten Punkte weg gelassen werden kann. Die Degeneration hierin ist ein Prozess zum Entfernen gültiger Pixel von dem Ende des Kopplungsabschnitts, wenn gültige Pixel kontinuierlich in einer vertikalen Richtung, in einer Links-Rechts-Richtung und in einer diagonalen Richtung angeordnet sind, d. h. wenn die gültigen Pixel in einer vertikalen Richtung, in einer horizontalen Richtung oder in einer diagonalen Richtung verbunden sind. Bei der Degeneration, wenn die gültigen Pixel verbunden sind, um Liniensegmente zu bilden, werden die gültigen Pixel von dem Ende des Liniensegments gelöscht und das Liniensegment wird in Punkte vereinfacht, die z. B. aus einem Pixel oder zwei Pixeln bestehen. Die gültigen Pixel sind Pixel mit Daten in dem binarisierten Bild, unabhängig davon, ob die Pixel weiße oder schwarze Pixel sind. Durch die Degeneration z. B. wird das Liniensegment auf zwei Pixel vereinfacht. Wenn ein kreisförmiges Muster, ein rechteckiges Muster oder ein durchkreuztes Muster durch Koppeln gültiger Pixel gebildet wird, kann das Muster in zwei Pixel, vier Pixel oder Ähnliches vereinfacht werden. Folglich verschwinden praktisch die schrägen Linien in den Grafikmusterabschnitten und den Fotobildabschnitten und eine Erfassung kann ausgeführt werden, ohne durch den Einfluss der Grafikmusterabschnitte und der Fotobildabschnitte beeinflusst zu werden. Bei der Degeneration, obwohl die Anzahl von gültigen Pixeln in den Zeichen reduziert wird, gehen gerade Linien, die aus Linien aus Zeichen bestehen, nicht verloren. Ferner wird durch die Degeneration die Anzahl der Pixel als das Ziel der Hough-Transformation reduziert, um eine Hough-Transformation bei hoher Geschwindigkeit auszuführen. Wenn mit Lineal gezeichnete Linien und Unterstreichungen zur Erfassung der Neigungswinkel verwendet werden, kann die Degenerationseinheit 46 weggelassen sein. Wenn z. B. mit Lineal gezeichnete Linien in einem Bild umfasst sind, kann es erwünscht sein, die Orientierung der mit Lineal gezeichneten Linien zur Erfassung der Neigung zu verwenden. In diesem Fall ist eine Degeneration nicht erforderlich.
  • 3 zeigt die Filter 34 bis 38, die für eine Degeneration verwendet werden. Das Bild als ein Ziel der Verarbeitung wurde bereits binarisiert. Pixel mit hexagonalen Markierungen sind Zielpixel. Für jedes Zielpixel wird betrachtet, ob ein Ersatz von einem gültigen Pixel zu einem ungültigen Pixel (nicht gültiges Pixel) ausgeführt werden sollte oder nicht. Wenn Pixel mit kreisförmigen Markierungen gültige Pixel sind, und Pixel mit dreieckigen Markierungen jegliche gültigen Pixel umfassen, wird das Zielpixel durch ein ungültiges Pixel ersetzt. Bei der Degeneration, nachdem eine Linie entlang einer Hauptabtastrichtunng verarbeitet ist, wird die Linie um ein Pixel in einer Hilfsabtastrichtung verschoben, zur Degeneration zu der nächsten Linie. Bei der Degeneration werden z. B. fünf Filter 34 bis 38 zur parallelen Verarbeitung verwendet. Zielpixel, die jeglichen Filtermustern entsprechen, werden durch ungültige Pixel ersetzt. Die Reihenfolge und die Orientierung der Verarbeitung kann beliebig bestimmt werden.
  • Durch die Filter 34 bis 38 wird ein Pixel an einem Ende von drei gültigen Pixeln, die vertikal, lateral oder diagonal verbunden sind, in ein ungültiges Pixel verarbeitet. Im Allgemeinen verarbeiten die Filter, die bei der Degeneration verwendet werden, zumindest ein Pixel an einem Ende einer Mehrzahl von gültigen Pixeln, die vertikal, lateral oder diagonal verbunden sind, in ein ungültiges Pixel. Bei der Degeneration kann ein Pixel von zwei verbundenen gültigen Pixeln in ein ungültiges Pixel verarbeitet werden. Alternativ können ein oder mehrere Pixel an einem Ende von vier oder mehr gültigen Pixeln, die in einer beliebigen Richtung verbunden sind, in ungültige Pixel verarbeitet werden, unabhängig davon, ob die Pixel vertikal, lateral oder diagonal verbunden sind.
  • Es ist einfach, das binarisierte Bild zu degenerieren. Alternativ kann die Degeneration an ein Bild vor der Binarisierung angewendet werden, z. B. nach der Glättung oder Kantenextraktion. Als ein Beispiel sei angenommen, dass die Leuchtdichte p als ein Schwellenwert für die Binarisierung verwendet wird, und Pixel mit einer Leuchtdichte von p oder kleiner gültige Pixel sind.
  • Die Filter 34 bis 38 sollten Pixel mit einer Leuchtdichte p oder weniger an den Zielpixelpositionen als Zielpixel handhaben. In den Zeichnungen, wenn Pixel an Positionen von Kreisen und Dreiecken eine Leuchtdichte von p oder weniger aufweisen, sollten solche Pixel als gültige Pixel gehandhabt werden. Auf diese Weise kann der Prozess der Erosion und Binarisierung insgesamt gehandhabt werden. Im Hinblick auf die Reduzierung bei der Anzahl von Pixeln hat eine Degeneration dieselbe Wirkung wie die einer Kantenextraktion. Eine Degeneration kann an das Bild nach der Glättung angewendet werden. In diesem Fall kaue eine Kantenextraktion weggelassen werden. Ferner kann eine Degeneration an das Bild vor dem Glätten nach der Reduktion der Bilddaten angewendet werden. In einem extremen Fall wird eine Degeneration an das Bild vor der Reduktion der Bilddaten angewendet und dann wird eine Binarisierung und ein Hough-Transformation angewendet. In diesem Fall wird eine Reduktion, Glättung, Kantenextraktion und Entfernung von isolierten Punkten weggelassen.
  • Durch eine Degeneration können ein Neigungswinkel A, bestimmt aus geraden Linien in dem Bild, und ein Neigungswinkel B, bestimmt aus Linien aus Zeichen, miteinander verglichen werden. Wenn der Winkel A im Wesentlichen derselbe ist wie der Winkel B, zeigt der Winkel A eine Orientierung einer mit Lineal gezeichneten Linie parallel oder senkrecht zu der Linie aus Zeichen an, einer Orientierung einer unterstrichenen Linie, eine Orientierung der Linie aus Zeichen in dem Bild. Im Gegensatz dazu zeigt der Winkel B nur die Orientierung der Linie aus Zeichen in dem Bild an. Wenn der Winkel A und der Winkel B im Wesentlichen dieselben sind, z. B. wenn der Winkel A die Orientierung der Tabelle oder die Orientierung der Unterstreichung anzeigt, ist der Winkel A bedeutend im Vergleich zu dem Winkel B. Ein Algorithmus zum Vergleichen des Winkels A und des Winkels B zum Bestimmen eines Neigungswinkels ist in 4 gezeigt.
  • Bei Schritt S1 wird ein Bild binarisiert und bei Schritt S2 wird eine Hough-Transformation ausgeführt. Bei Schritt S3 wird eine Mehrzahl von Liniensegmenten in dem Bild extrahiert (z. B. acht Liniensegmente oder 16 Liniensegmente werden extrahiert), und die extrahierten Liniensegmente werden als Satz A der Liniensegmente bezeichnet. Bei Schritt S4 werden die Neigungswinkel A des Bildes bestimmt. In der Zwischenzeit wird bei Schritt S5 eine Degeneration an das binarisierte Bild angewendet und dann wird bei Schritt S6 eine Hough-Transformation ausgeführt. Bei Schritt S7 wird eine Mehrzahl von Liniensegmenten in dem Bild extrahiert (z. B. acht Liniensegmente oder 16 Liniensegmente werden extrahiert), und die extrahierten Liniensegmente werden als Satz B der Liniensegmente bezeichnet. Bei Schritt S8 werden die Neigungswinkel B des Bildes bestimmt. Bei Schritt S8 wird bestimmt, ob der Winkel A und der Winkel B im Wesentlichen die gleichen sind oder nicht. Zum Beispiel wird bestimmt, ob die Differenz zwischen dem Winkel A und dem Winkel B innerhalb ±1° ist oder nicht oder innerhalb ±3° oder nicht. Wenn der Winkel A und der Winkel B im Wesentlichen dieselben sind, wird der Winkel A als der Neigungswinkel des Bildes betrachtet (Schritt S10). Wenn der Winkel A und der Winkel B nicht im Wesentlichen dieselben sind, wird bei Schritt S11 und S12 bestimmt, ob eine vorbestimmte Anzahl oder mehr, z. B. drei oder mehr ähnliche Liniensegmente zwischen dem Bild mit Degeneration und dem Bild ohne Degeneration vorhanden sind. Die ähnlichen Liniensegmente hierin bedeuten Liniensegmente mit einer Differenz bei θ innerhalb 1° und einer Differenz bei ρ innerhalb eines vorbestimmten Werts, z. B. innerhalb zehn Pixeln.
  • Wenn eine vorbestimmte Anzahl oder mehr von ähnlichen Liniensegmenten vorhanden ist, werden die Neigungswinkel basierend auf dem Winkel des ähnlichen Liniensegments des Bildes ohne Degeneration bestimmt (Schritt S13). Bei Schritt S13 werden vorzugsweise die Liniensegmente in dem Bild ohne Degeneration verwendet, und die Anzahl der abgegebenen Stimmen für jedes Liniensegment wird für das Gewicht oder Ähnliches berücksichtigt, um den Winkel zu bestimmen. Wenn ähnliche Liniensegmente vorhanden sind, aber die Anzahl der ähnlichen Liniensegmente eine vorbestimmte Anzahl oder weniger ist, wird der Neigungswinkel basierend auf den Winkeln der ähnlichen Liniensegmente in dem Bild ohne Degeneration bestimmt, und anderen Segmenten in dem Bild mit Degeneration (Schritt S14). Vorzugsweise jedoch sollten unter den Liniensegmenten in dem Bild mit Degeneration Liniensegmente, die ähnlich zu den Liniensegmenten in dem Bild ohne Degeneration sind, nicht verwendet werden, um die wiederholte Verwendung von ähnlichen Daten zu vermeiden. Ferner werden bei Schritt S14 z. B. das Produkt des Parameters, der davon abhängt, ob die Liniensegmente zu dem Bild mit Degeneration gehören oder nicht, und der Anzahl der Stimmen von jedem Liniensegment, als das Gewicht von jedem Liniensegment verwendet. Das Gewicht z. B. im Bereich von zweimal bis viermal wird als ein Parameter zu den Liniensegmenten in dem Bild ohne Degeneration hinzugefügt. Wenn keine ähnlichen Liniensegmente vorhanden sind, wird der Winkel B als Ergebnis der Extraktion von schrägen Linien in dem Grafikmusterabschnitt oder Photobildabschnitt in dem Bild ohne Degeneration ausgegeben (Schritt S15). 8 zeigt einen Algorithmus zum Bestimmen der Winkel A und B selbst. Wenn Liniensegmente, die zum Bestimmen des Winkels verwendet werden, bei Schritten S13 und S14 bestimmt werden, wird der Algorithmus, der in 4 gezeigt ist, erneut ausgeführt. Das Liniensegment in 4 entspricht den Punkten (ρ, θ) im Raum in 8.
  • Bei dem Ausführungsbeispiel gemäß dem Algorithmus in 8 können die Neigungswinkel basierend auf einer Mehrzahl von Liniensegmenten bestimmt werden, um die Zuverlässigkeit zu verbessern. Die vorliegende Erfindung ist jedoch nicht diesbezüglich eingeschränkt. Die Neigungswinkel können basierend auf einem Liniensegment bestimmt werden. In diesem Fall, wenn die Bestimmung bei Schritt S11 „Ja” ist, werden die Neigungswinkel bestimmt, z. B. basierend auf einem Liniensegment auf der Winkel-A-Seite (wo keine Degeneration angewendet wird). In diesem Fall sind Schritte S12 und S14 nicht erforderlich.
  • Schritt S11 kann nach den Schritten S3 und S7 in 4 ausgeführt werden, ohne die Winkel A und B zu bestimmen. In diesem Fall werden die Schritte S4, S8, S9, S10 und S15 in 4 weggelassen. Wenn keine Liniensegmente ähnlich zu A und B bei Schritt S11 vorhanden sind, wird Schritt 58 erstmals ausgeführt und der Winkel B wird ausgegeben.
  • 5 zeigt einen Algorithmus zum Steuern einer Vorverarbeitungseinheit 40. Bei Schritt S21 wird ein Bild durch den Scanner 20 gelesen. Bei Schritt S22 wird das Bild auf eine bestimmte Auflösung reduziert. Somit wird die Verarbeitungsgeschwindigkeit für eine Hough-Transformation n2 Mal erhöht. Bei Schritt S23 wird Rauschen durch Glätten reduziert. Bei Schritt S24 werden Kanten extrahiert, um den Einfluss der Hintergrundfarben zu beseitigen, und es möglich zu machen, Umrisszeichen zu erfassen. Bei Schritt S25 wird eine Binarisierung ausgeführt, und bei Schritt S26 werden isolierte Punkte entfernt. Auf diese Weise wird der Einfluss von isolierten Punkten in dem Fotobild oder Ähnlichem auf die Erfassung der Neigungswinkel reduziert. Die Entfernung der isolierten Punkte kann vor der Binarisierung ausgeführt werden. Bei Schritt S27 werden Daten durch Degeneration vereinfacht. Genauer gesagt wird jede der geraden Linien in dem Fotobildabschnitt und dem Grafikmusterabschnitt vereinfacht, z. B. in zwei Pixel. Schritt S27 kann vor jedem der Schritte S22 bis S26 ausgeführt werden.
  • Schritte S22 bis Schritt S27 werden als Vorverarbeitungsschritte werden in Synchronisation mit dem Abtasten des Bildes ausgeführt. Ferner kann eine Hough-Transformation in der Hough-Transformationseinheit 50, eine Erfassung der Neigungswinkel in der Neigungswinkelbestimmungseinheit 60 und eine Korrektur der Neigungswinkel in der Bildrotationseinheit 70 in Synchronisation mit dem Abtasten ausgeführt werden. Synchronisation hierin bedeutet, dass die Verarbeitungsgeschwindigkeiten dieser Prozesse nicht geringer sind als die Lesegeschwindigkeit des Scanners bzw. der Abtasteinrichtung 20. Auf diese Weise kann die Neigung des Bildes in Echtzeit korrigiert werden, gleichzeitig zu dem Abtasten des Bildes.
  • 6 zeigt die Struktur von Komponenten einschließlich der Hough-Transformationseinheit 50 und der Bildrotationseinheit 70. Zum Beispiel umfasst die Hough-Transformationseinheit 50 16 bis 32 Ausführungseinheiten 51 zum parallelen Ausführen der Hough-Transformation. Ferner wird die Hough-Transformation sowohl an das Bild mit Degeneration als auch das Bild vor der Degeneration angewendet. Jede der Ausführungseinheiten 51 besteht aus einer p-Wert-Rechnereinheit 52 und einer Tabelle 53, die Daten aus Sinus und Kosinus speichert. Um den Winkel im Bereich von 0° bis 180° unter Verwendung von 32 Tabellen 53 abzudecken, speichert eine Tabelle 53 Winkeldaten, z. B. im Bereich von 5,625° (180/32), und speichert die Daten in Einheiten von z. B. 0,176° (180°/1024). Die p-Wert-Rechnereinheit 52 gewinnt Werte von sinθ und cosθ aus der Tabelle 53 wieder und berechnet den p-Wert an der Position (x, y) des gültigen Pixels, das aus der Degenerationseinheit 46 und der Isolierter-Punkt-Entfernungseinheit 45 ausgegeben wird, als ρ = xcosθ + ysinθ. Die Stimmtabelle 54 ist eine zweidimensionale Tabelle aus θ und ρ. Eine Steuereinheit 55 steuert eine Mehrzahl der Ausführungseinheiten 51.
  • 7 zeigt die Beziehung zwischen der p-Wert-Rechnereinheit 52 und der Stimmtabelle 54. Jeder Punkt in der Tabelle 54 bezeichnet eine Kombination aus ρ und θ, und diese Kombination zeigt Liniensegmente an. Es sei angenommen, dass ρ und θ in 1024 Ebenen oder Teilungen unterteilt sind. Wenn die Werte von x und y eingegeben werden, wird der p-Wert für jedes θ berechnet und die Daten an der entsprechenden Position in der Tabelle werden um 1 inkrementiert. Zum Beispiel wird der Winkel θ im Bereich von 180° in 256 bis 4096 Teilungen unterteilt, vorzugsweise 1024 bis 2048 Teilungen, um es möglich zu machen, die Neigungswinkel mit der Genauigkeit von ungefähr 0,05° bis 0,3°, vorzugsweise ungefähr 0,1° bis 0,2° zu erfassen. Ferner kann die Auflösung von ρ niedriger sein als die Auflösung von θ. Zum Beispiel gibt es 32 Ausführungseinheiten 51 Jede der ρ-Wert-Rechnereinheiten 52 handhabt 0 von 32 Teilungen (1024/32). Als Ergebnis, wie durch Kreise in der dritten Spalte von links gezeigt ist, wird über Werte von (ρ, θ) abgestimmt. Ein Bezugszeichen 57 bezeichnet eine Maske zum Maskieren eines Bereichs um einen Punkt, extrahiert als eine gültige Linie (extrahierte gerade Linie) aus der Tabelle 54, um zu erlauben, dass die nächste gültige Linie von der Außenseite der Maske 57 extrahiert wird.
  • Bezug nehmend zurück auf 6 extrahiert eine Gültige-Linie-Extraktionseinheit 61 „m” Punkte mit hohem Rang aus der Stimmtabelle 54. Es ist wahrscheinlich, dass die Punkte mit einer großen Anzahl von Stimmen in der Stimmtabelle 54 gültige Linien in dem Bild bezeichnen. Das Maskieren wird an einen Bereich um jeden der extrahierten Punkte angewendet, um zu verhindern, dass andere Punkte in der Maske 57 extrahiert werden. Eine Kandidatenwinkelextraktionseinheit 62 extrahiert Kandidaten (k Kandidaten, z. B. m/2 oder mehr Kandidaten) der Neigungswinkel aus der extrahierten, gültigen Linie. Eine Bestimmungseinheit 63 bestimmt einen Neigungswinkel θd basierend auf diesen Kandidatenwinkeln. Die bestimmten Neigungswinkel θd werden in eine Koordinatenrechnereinheit 71 eingegeben und Koordinaten (Adressen) nach einer Neigungskorrektur werden für jedes der Pixel des Bildes berechnet, das in dem Bildspeicher 16 gespeichert ist. Ein Adressgenerator 72 erzeugt eine Adresse zum Lesen des Bildspeichers 16 basierend auf den Koordinaten vor der Neigungskorrektur. Eine bikubische Verarbeitungseinheit 73 interpoliert die wiedergewonnenen Daten und schreibt die Daten nach der Interpolation zurück in den Bildspeicher 16 basierend auf den Koordinaten nach der Neigungskorrektur. Als ein Ergebnis dieser Prozesse wird das Bild in dem Bildspeicher 16 rotiert bzw. gedreht, um die Neigung zu korrigieren. Eine einfache affine Transformation kann zur Drehung verwendet werden.
  • 8 zeigt einen Algorithmus in der Neigungswinkelbestimmungseinheit 60. Hochrangige Punkte (ρ, θ) bis zu dem m-ten Rang, z. B. bis zu den 16. Rang oder 8. Rang werden aus der Stimmtabelle extrahiert (Schritt S31). Das Maskieren wird an einen benachbarten Bereich um jeden der extrahierten Punkte angewendet, z. B. einen benachbarten Bereich mit einer Quadratform, bei der jede Seite die Größe von 5 bis 40 Teilungen aufweist (Schritt S32), um zu verhindern, dass zwei oder mehr Punkte aus demselben benachbarten Bereich extrahiert werden. Nur Punkte (ρ, θ) mit einer Anzahl von Stimmen gleich oder mehr als 1/2 der größten Anzahl von Stimmen werden extrahiert. Daher, wenn die Anzahl der Stimmen an dem Punkt des m-ten Rangs kleiner ist als 1/2 der größten Anzahl von Stimmen, wird in Betracht gezogen, dass ein Fehler aufgetreten ist. Somit werden die Neigungswinkel nicht erfasst und die Bildrotationseinheit 70 dreht das Bild nicht (Schritt S33). Schritte S32 und S33 sind Hilfsprozesse zum Ausführen von Schritt S31. Auf diese Weise werden m Punkte, die nicht in dem benachbarten Bereich von beliebigen der anderen Punkte vorhanden sind, mit einer Anzahl von Stimmen von 1/2 oder mehr der größten Anzahl von Stimmen, extrahiert. Das hierin erwähnte „1/2 oder mehr” ist nur ein Beispiel. Der Bereich von „2/3 oder mehr”, „0,4 oder mehr” kann angewendet werden. Schritte S31 bis S33 entsprechen den Prozessender Gültige-Linie-Extraktionseinheit 61.
  • Als Nächstes wird ein Winkel zum Bestimmen von Kandidatenneigungswinkeln bestimmt als θx und ein Winkel senkrecht zu dem Winkel θx wird bestimmt als Φx. Der Winkel θx hat einen positiven Wert oder θ und Φx = θx + π/2 oder Φx – π/2. δ wird als ein zulässiger Bereich bestimmt. Zum Beispiel ist δ 1°, 0,5° oder Ähnliches. θx wird bestimmt, um die Anzahl von Punkten (ρ, θ) innerhalb der Bereiche von θx ± δ und Φx ± δ zu maximieren. Dann werden die Punkte innerhalb der Bereiche von θx ± δ und Φx ± δ ausgegeben (Schritt S34). Anders ausgedrückt, im Hinblick auf „m” Punkte, wird der Winkel, der die maximale Anzahl von übereinstimmenden Punkten mit Winkel-θ-Komponenten innerhalb des Bereichs von ± δ erreicht, bestimmt als θx. Einfach ausgedrückt, anstatt die Anzahl von übereinstimmenden Punkten mit θ Komponenten innerhalb des Bereichs von ± δ zu betrachten, kann die Summe der Anzahl der Stimmen an Punkten innerhalb des Bereichs von θx ± δ und der Anzahl der Stimmen an Punkten innerhalb des Bereichs von Φx ± δ maximiert werden. Wenn die Anzahl dieser Punkte k kleiner ist als ein Schwellenwert, z. B. wenn die Anzahl dieser Punkte k kleiner ist als m/2 oder m/3, wird davon ausgegangen, dass ein Fehler bei Schritt S35 aufgetreten ist. In diesem Fall dreht die Bildrotationseinheit 70 das Bild nicht ahne Erfassen der Neigungswinkel. Schritte S34 und S35 entsprechen den Prozessen der Kandidatenwinkelextraktionseinheit 62.
  • Schritt S36 entspricht der Bestimmungseinheit 63. Im Hinblick auf k Punkte (ρ, θ), die bei Schritt S34 bestimmt werden, wird z. B. der einfache Durchschnittswert des Winkels θ ausgegeben als Neigungswinkel θd. Alternativ kann das gewichtete Mittel der Winkel θ an k Punkten verwendet werden. Die Anzahl von Stimmen vi kann als das Gewicht verwendet werden. Ferner kann alternativ unter k Kandidaten θ1 bis θk von θ ein Winkel θ mit der größten Anzahl von Stimmen vi als Neigungswinkel θd verwendet werden. Bei Schritt S36 wird θd ausgegeben. Wenn θd π/2 überschreitet, wird θd – π/2, d. h. Φd ausgegeben.
  • 9 bis 22 zeigen eine Operation des Ausführungsbeispiels. Ein Druckvorlagebild oder Manuskriptbild ist auf der oberen Seite in 9 gezeigt. Die Linien der Zeichen in dem Bild werden als gerade Linien betrachtet und die Neigung der geraden Linien wird erfasst. Daher ist es ein Ziel des Ausführungsbeispiels, ein Bild auf der oberen Seite von 9 in ein Bild auf der unteren Seite von 9 zu transformieren und es wendet eine Hough-Transformation an das Bild auf der unteren Seite an.
  • 10 zeigt ein Beispiel, wo die Binarisierung des Eingangsbildes (Bild des Bildspeichers 16) ohne jegliche Reduktion, Glättung oder Kantenextraktion ausgeführt wird. Wie durch einen Kreis markiert ist, ist eine große Anzahl von schwarzen Pixeln (gültige Pixel in diesem Fall) in einem Fotobildabschnitt vorhanden, der keine Zeichen umfasst, und die Last auf die Hough-Transformation wird erhöht. Ferner, da der Einfluss der schrägen Linien oder Ähnlichem in dem Fotobildabschnitt stark ist, ist die Erfassungsgenauigkeit niedrig. Daher wird das Eingangsbild durch Grauskala gehandhabt und eine Binarisierung wird nach der Bildverarbeitung ausgeführt, wie z. B. Reduktion, Glättung und Kantenextraktion. Um eine Hough-Transformation bei Hochgeschwindigkeit auszuführen, wird das Eingangsbild auf 1/n reduziert. Somit wird die nachfolgende Berechnungszeit auf 1/n2 reduziert (11).
  • Dann wird Rauschen durch Glättung beseitigt (12) und Kanten werden extrahiert, um ein Bild zu erhalten, wie in 13 gezeigt ist. Durch Kantenextraktion wird der Einfluss der Hintergrundfarben beseitigt und Zeichenumrisse können gehandhabt werden. Ferner werden die Daten vereinfacht, um eine Hough-Transformation zu ermöglichen.
  • 14 zeigt ein Kantenextraktionsfilter 80. Durch Anwenden des Filters 80 an ein Zielbild 81 von der oberen linken Seite, werden Kanten 82 auf der unteren Seite und auf der rechten Seite extrahiert. Somit, im Vergleich zu dem Fall, wo alle Kanten des Zielbilds 81 erfasst werden, kann die Menge der Kanten auf 1/2 reduziert werden. Wie oben beschrieben wurde, werden aus vier Typen von Kanten, d. h. obere, untere, linke und rechte Kante, zwei Typen von Kanten, d. h. untere und rechte Kante, untere und linke Kante, obere und rechte Kante oder obere und linke Kante extrahiert. Durch Binarisieren des Bildes nach der Kantenextraktion wird ein Bild erhalten, wie in 15 gezeigt ist. Durch Entfernen isolierter Punkte aus dem Bild von 15 wird ein Bild von 16 erhalten. Die isolierten Punkte können aus dem Kantenbild von 13 entfernt werden.
  • Wie in 15 und 16 gezeigt ist, wenn Linien eines Grafikmusterabschnitts oder des Fotobildabschnitts in dem Bild verbleiben, können die Neigungswinkel fehlerhaft erfasst werden. Daher wird durch Ausführen einer Degeneration ein Bild erhalten, wie in 17 gezeigt ist. Linien in dem Fotobild und dem Grafikmuster werden in isolierte Punkte umgewandelt und Linien von Zeichenfolgen werden gespeichert. Somit können durch Anwenden einer Hough-Transformation an das Bild mit Degeneration nur gerade Linien bestehend aus Zeilen von Zeichen erfasst werden. Wie bei Schritt S10 von 4 gezeigt ist, wenn die Linien und Orientierungen der Zeichen in der Tabelle ausgerichtet sind, oder in den Unterstreichungen, ist es bevorzugt, die Neigungswinkel unter Verwendung der Tabelle oder der Unterstreichungen zu erfassen. Daher ist es in der Praxis bevorzugt, eine Hough-Transformation sowohl an das Bild mit Degeneration als auch das Bild vor Degeneration anzuwenden.
  • Durch Anwenden einer Hough-Transformation werden Daten in der Stimmtabelle gespeichert. Wenn nur ein Punkt mit der größten Anzahl von Stimmen einfach extrahiert wird, kann eine fehlerhafte Erfassung auftreten. 18 zeigt ein Beispiel von einem solchen Fall. Da 18 das Bild teilweise zeigt, ist es schwierig zu erkennen, aus welchem Abschnitt des Bildes die „gerade Linie basierend auf der größten Anzahl von Stimmen” extrahiert wird. Es sollte jedoch darauf hingewiesen werden, dass die „gerade Linie basierend auf der größten Anzahl von Stimmen” aus dem Fotobildabschnitt oder Ähnlichem in dem Bild extrahiert wird. Sogar wenn das Beispiel kein extremer Fall ist wie 18, kann die größte Anzahl von Stimmen auf eine durchgezogene Linie in dem Grafikmuster oder eine schräge Linie in dem Fotobildabschnitt abgegeben werden. Die lateralen Linien in dem Grafikabschnitt auf der unteren Seite in 15 sind parallel zu der Neigung des Bildes. Dies ist jedoch ein Zufall. Eine Mehrzahl von Punkten mit einer Anzahl von hochrangigen Stimmen wird extrahiert, um nicht gerade Linien zu extrahieren, die nicht der inhärenten Neigung des entsprechenden Bildes entsprechen, wie oben erwähnt wurde. In dem Fall des einfachen Extrahierens von Punkten mit einer Anzahl von Stimmen bis zu den m-ten Rang, wird eher eine Mehrzahl von benachbarten Punkten in der Stimmtabelle extrahiert. Diesbezüglich wird der Punkt an der Position des höchsten Rangs aus der Stimmtabelle 54 extrahiert, und ein Bereich um jeden der extrahierten Punkte wird maskiert, und der Punkt an der Position des zweithöchsten Rangs wird extrahiert. Auf dieselbe Weise werden Punkte um diesen Punkt extrahiert. Somit werden die Punkte mit einer Anzahl von Stimmen bis zu den m-ten Rang extrahiert. Unter den extrahierten Punkten mit einer Anzahl von Stimmen bis zu den m-ten Rang, wenn der Punkt an dem niedrigsten Rang z. B. nicht die Hälfte der Anzahl von Stimmen an dem Punkt des höchsten Rangs aufweist, wird davon ausgegangen, dass ein Fehler bei der Erfassung aufgetreten ist. In dem Fall des Extrahierens von Linien, die aus Zeichen bestehen, muss kein großer Unterschied bei der Anzahl von Stimmen zwischen dem Punkt mit der größten Anzahl von Stimmen an dem höchsten Rang und dem Punkt an dem m-ten Rang vorliegen. Wenn jedoch eine große Differenz vorhanden ist, ist es wahrscheinlich, dass der Punkt mit der größten Anzahl, von Stimmen an dem höchsten Rang ein geradliniger Abschnitt oder Ähnliches in dem Grafikmuster ist. Ansonsten werden unter den Punkten bis zu hinauf zu den m-ten Rang (z. B. 16-ten Rang) Punkte mit einem bestimmten Verhältnis oder mehr (z. B. 1/2 oder mehr) der Stimmen zu der größten Anzahl von Stimmen an dem Punkt des höchsten Rangs extrahiert. Wenn die Anzahl der extrahierten Punkte einen vorbestimmten Wert k (z. B. 4) oder weniger aufweist, kann in Betracht gezogen werden, dass ein Fehler aufgetreten ist. Das heißt, die Neigungswinkel wurden nicht erfasst.
  • 20 zeigt schematisch einen Zustand einer Stimmtabelle. In 20 ist die Anzahl der Stimmen durch Leuchtdichte angezeigt. Bereiche um die ausgewählten Punkte sind unter Verwendung schwarzer rechteckiger Masken abgedeckt. In 20 wurden Punkte mit einer Anzahl von Stimmen mit hohem Rang bis zu dem achten Rang extrahiert.
  • Die Neigungswinkel werden für die extrahierten Punkte bis zu dem m-ten Rang bestimmt. Dieser Prozess ist schematisch in 21 und 22 gezeigt. In dem Fall der Erfassung einer Link aus Zeichen, da Zeichenfolgen unter und über den Zeichenblöcken erfasst werden können, weisen die Neigungswinkel θd und der Winkel Φd senkrecht zu dem Winkel θd eine Signifikanz auf. Ferner wird der zulässige Fehler beim Extrahieren von Kandidaten als δ bestimmt (ungefähr 0,5° oder 1°), und θx wird bestimmt, um die Anzahl von Punkten k in den Bereichen von θx ± δ und Φx ± δ zu maximieren. Wenn der Wert von k kleiner ist als der Schwellenwert (z. B. m/2), wird in Betracht gezogen, dass ein Fehler aufgetreten ist. Wenn der Winkel θx, der Punkte mit der Anzahl des Schwellenwerts oder mehr umfasst, erhalten wird, wird der Kandidatenwinkel basierend auf dem einfachen Durchschnittswert oder dem gewichteten Durchschnittswert der Winkel der umfassten Punkte bestimmt. Dies ist der Prozess von Schritt S36 in 8.
  • Auf diese Weise wird der Neigungswinkel θd mit der Genauigkeit von ungefähr ± 0,1° bestimmt und das Bild wird durch eine Bilddrehungseinheit 70 gedreht, um eine Neigung zu korrigieren. Die Drehung des Bildes selbst kann einfach ausgeführt werden. Zum Beispiel kann das Bild in Synchronisation mit dem Scannen gedreht werden.
  • 23 zeigt Bewertungsfunktionen 101 und 102 zum Bewerten der Konsistenz. Die laterale Achse bezeichnet die Abweichung von dem Extraktionswinkel θx und die vertikale Achse zeigt Gewichte der Bewertungsfunktionen 101, 102.
  • Weiter bezeichnen Bezugszeichen 105 bis 110 extrahierte Daten unter Verwendung von Winkeln. Die Höhen der Daten 105 bis 110 bezeichnen die Anzahl der Stimmen. Bei dem Ausführungsbeispiel wird die Bewertungsfunktion 101 mit dem Gewicht von 0/1 verwendet. Alternativ, wie die Bewertungsfunktion 102, kann das Gewicht entsprechend der Abweichung von θx verringert werden. Bei jeglicher der Bewertungsfunktionen 101, 102 kann die Anzahl der Stimmen reflektiert werden, um die Konsistenz zu bewerten, z. B. wie die Summe, die in der Bewertungsfunktion enthalten ist von (Gewichte der Daten 105 bis 110x die Anzahl der Stimmen der entsprechenden Daten).
  • Bei dem Prozess von 8 wird der Neigungswinkel θd basierend auf dem einfachen Mittel oder dem gewichteten Mittel der Winkel θ bestimmt, basierend auf den Daten 105 bis 109 als Ziele, unter Verwendung des Gewichts von 1, das die Bewertungsfunktion 101 passiert hat. Anstelle direkt die Anzahl von Stimmen bei denn gewichteten Mittel zu verwenden, kann die Quadratwurzel oder das Quadrat der Anzahl von Stimmen verwendet werden. Das gewichtete Mittel, das die Anzahl der Stimmen reflektiert, kann verwendet werden, um das Gewicht gemäß dem Anstieg bei der Anzahl von Stimmen zu erhöhen.
  • Bei dem Ausführungsbeispiel wird θx vorher bestimmt und dann werden Daten 101 bis 105 oder Ähnliches extrahiert. Nachfolgend wird der Winkel θd unter Verwendung der Daten 105 bis 109 bestimmt. Somit können die Daten 105 bis 109 bei der Bestimmung des Winkels θd ausreichend reflektiert werden. Wiederum einfacher kann der Winkel θx selbst als Neigungswinkel θd verwendet werden. Wenn jedoch der Winkel θx selbst als der Neigungswinkel θd verwendet wird, da bestimmt ist, dass der Winkel θx die Daten 109 an der Endposition umfasst, werden die Neigungswinkel θd eher durch den Einfluss der Daten 109 an der Endposition beeinflusst. Daher ist es wie in dem Fall des Ausführungsbeispiels bevorzugt, die zwei Schritte zum Bestimmen des Winkels θx und zum Bestimmen der Neigungswinkel θd zu integrieren.
  • Bei dem Ausführungsbeispiel werden Drehung und Korrektur der Neigungswinkel innerhalb der Multifunktionsmaschine 2 ausgeführt. Alternativ kann die Drehung und Korrektur der Neigungswinkel durch den Personalcomputer 6 oder Ähnliches ausgeführt werden. In diesem Fall, wenn das Bildverarbeitungsprogramm gemäß dem Ausführungsbeispiel durch eine Informationsverarbeitungsvorrichtung ausgeführt wird, wie z. B. einen Personalcomputer, wird die Informationsverarbeitungsvorrichtung gemäß der vorliegenden Erfindung als die Bildverarbeitungsvorrichtung betrachtet.
  • Wenn die Neigung der zwei einander zugewandten Seiten eines Buchs erfasst wird, z. B. wenn Informationen im Hinblick darauf, dass der Typ des Druckvorlagepapiers zwei einander zugewandte Seiten umfasst, eingegeben werden, können Neigungswinkel der rechten Seite und der linken Seite separat erfasst werden. Ansonsten kann das Eingangsbild in die linke Seite und die rechte Seite unterteilt werden, um die Neigungswinkel jeder Seite zu bestimmen, und wenn die linken Neigungswinkel und die rechten Neigungswinkel unterschiedlich sind, kann angenommen werden, dass dies ein Bild von zwei einander zugewandten Seiten ist.
  • Bei dem Ausführungsbeispiel werden die folgenden Vorteile erhalten.
    • 1) Bei der Hough-Transformation, wenn die Neigung des Bildes basierend auf dem Punkt bestimmt wird, der die größte Anzahl von Stimmen hat, kann die Orientierung der erfassten Neigungswinkel wesentlich unterschiedlich von der Orientierung der Linie bzw. Zeile sein. Wenn jedoch bestimmt wird, dass der Extraktionswinkel θx die maximale Konsistenz mit den Winkeln θ an der vorbestimmten Anzahl von Punkten mit der Anzahl von hochrangigen Stimmen erreicht und die Neigungswinkel basierend auf den bestimmten Extraktionswinkel θx bestimmt werden, kann die Erfassung zuverlässig ausgeführt werden.
    • 2) Wenn die Neigungswinkel des Bildes basierend auf einem Durchschnitt der Winkel θ an Punkten innerhalb eines zulässigen Bereichs von dem Extraktionswinkel θx bestimmt werden, aus der vorbestimmten Anzahl von Punkten, kann die Erfassung mit einer größeren Zuverlässigkeit ausgeführt werden.
    • 3) Wenn die Neigungswinkel des Bildes basierend auf einem gewichteten Mittel der Winkel θ bestimmt werden, an Punkten innerhalb eines zulässigen Bereichs aus dem Winkel θx entsprechend einer Anzahl von Stimmen jedes Winkels θ, aus der vorbestimmten Anzahl von Punkten, können die Neigungswinkel bestimmt werden durch geeignetes Legen der Wichtigkeit auf Punkte mit einer großen Anzahl von Stimmen.
    • 4) Wenn nur eine geringe Anzahl von Punkten innerhalb eines zulässigen Bereichs aus Winkeln von dem Extraktionswinkel θx vorhanden ist, kann durch Stoppen der Erfassung der Neigungswinkel die Erfassung mit niedriger Zuverlässigkeit vermieden werden.
    • 5) Wenn die vorbestimmte Anzahl von Punkten jeden Punkt mit einer Anzahl von Stimmen umfasst, deren Verhältnis zu der größten Anzahl von Stimmen aus der vorbestimmten Anzahl von Punkten kleiner ist als ein zulässiger Bereich, ist es wahrscheinlich, dass eine lange gerade Linie in einem Grafikmusterabschnitt oder einem Fotobildabschnitt in dem Bild erfasst wird. Daher kann in einem solchen Fall durch Stoppen der Erfassung der Neigungswinkel die Erfassung mit niedriger Zuverlässigkeit vermieden werden.
    • 6) Wenn ein Bereich um jeden der extrahierten Punkte in der Stimmtabelle maskiert ist, wird es möglich, gerade Linien aus einem breiten Bereich des Zielbildes zu extrahieren. Daher wird die Wahrscheinlichkeit des erfolgreichen Extrahierens gerader Linien der Linien aus Zeichen, mit Lineal gezeichneten Linien, Unterstreichungen oder Ähnlichem erhöht.
    • 7) Durch Anwenden einer Degeneration werden Liniensegmente in einfache Punkte transformiert. Die Linie aus Zeichen wird jedoch beibehalten und die Neigungswinkel können bestimmt werden basierend auf der Linie aus Zeichen in dem Bild. Da jedoch die Anzahl von gültigen Pixeln in dem Bild durch Degeneration reduziert wird, kann eine Hough-Transformation bei der höheren Geschwindigkeit ausgeführt werden.
    • 8) Wenn eine Degeneration angewendet wird, wird ein erster Neigungswinkel basierend auf Linien aus Zeichen erhalten. Wenn eine Degeneration angewendet wird, wird ein zweiter Neigungswinkel hauptsächlich basierend auf Tabellen, Unterstreichungen, schrägen Linien oder Ähnlichem erhalten. Wenn der erste Neigungswinkel ähnlich zu dem zweiten Neigungswinkel ist, kann unter Verwendung der zweiten Neigungswinkel basierend auf den Tabellen, Unterstreichungen, schrägen Linien oder Ähnlichem der Neigungswinkel mit einem hohen Grad an Genauigkeit bestimmt werden.
    • 9) Wenn der erste Neigungswinkel wesentlich unterschiedlich zu dem zweiten Neigungswinkel ist, können durch Verwenden der ersten Neigungswinkel die Neigungswinkel ohne Beeinflussung durch den Einfluss von schrägen Linien bestimmt werden.
    • 10) Wenn die Konsistenz zwischen den ersten Neigungswinkeln und den zweiten Neigungswinkeln in einem Zwischengrad ist, wird z. B. eine Mehrzahl von Liniensegmenten als ein erster Satz aus einem Bild extrahiert, erhalten durch Anwenden einer Hough-Transformation an das Bild mit Degeneration. Ferner wird eine Mehrzahl von Liniensegmenten als ein zweiter Satz aus einem Bild extrahiert, erhalten durch Anwenden einer Hough-Transformation an das Bild, das keiner Degeneration unterzogen wurde. Unter dem zweiten Satz aus Liniensegmenten werden Liniensegmente mit Ausrichtungsunterschieden innerhalb eines vorbestimmten Bereichs in dem ersten Satz aus Liniensegmenten extrahiert, um die Neigungswinkel zu bestimmen. Auf diese Weise kann sogar wenn die Konsistenz in dem Zwischengrad ist der Neigungswinkel bestimmt werden.
    • 11) Wenn das Bild in gültige Pixel und ungültige Pixel binarisiert ist und die gültigen Pixel, die miteinander in dem binarisierten Bild verbunden sind, durch ungültige Pixel ersetzt werden, kann von dem Ende der verbundenen Pixel unter Verwendung eines Filters einfach eine Degeneration ausgeführt werden.
  • Bezugszeichenliste
  • 2
    Multifunktionsmaschine
    4
    LAN
    6
    Personalcomputer
    8
    Router
    10
    Internet
    12
    LAN-Schnittstelle
    14
    Bus
    16
    Bildspeicher
    18
    Speicher
    19
    Speicherungsmedium
    20
    Scanner
    22
    Drucker
    24
    G3-Faksimileeinheit
    26
    Email-Verarbeitungseinheit
    28
    Netzwerkservereinheit
    30
    Benutzerschnittstelle
    32
    Bildverarbeitungseinheit
    34 bis 38
    Filter
    40
    Vorverarbeitungseinheit
    41
    Reduktionsverarbeitungseinheit
    42
    Glättungseinheit
    43
    Kantenextraktionseinheit
    44
    Binarisierungseinheit
    45
    Isolierter-Punkt-Entfernungseinheit
    46
    Degenerationseinheit
    50
    Hough-Transformationseinheit
    51
    Ausführungseinheit
    52
    p-Wert-Rechnereinheit
    53
    Tabelle
    54
    Stimmtabelle
    55
    Steuereinheit
    56
    Daten
    57
    Maske
    60
    Neigungswinkelbestimmungseinheit
    61
    Gültige-Linie-Extraktionseinheit
    62
    Kandidatenwinkelextraktionseinheit
    63
    Bestimmungseinheit
    70
    Bildrotationseinheit
    71
    Koordinatenrechnereinheit
    72
    Adressgeneratoreinheit
    73
    kubische Verarbeitungseinheit
    80
    Filter
    81
    Zielbild
    82
    Kante
    101, 102
    Bewertungsfunktion
    105 bis 110
    Daten
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 10-283476 A [0003, 0003]

Claims (17)

  1. Eine Bildverarbeitungsvorrichtung, die einen Neigungswinkel eines Bildes bestimmt, wobei die Bildverarbeitungsvorrichtung folgende Merkmale aufweist: eine Hough-Transformationseinheit zum Transformieren von Koordinaten von Punkten in dem Bild jeweils in eine Distanz ρ und einen Winkel θ, und Abgeben von Stimmen in eine Stimmtabelle, die die Distanz ρ und den Winkel θ als Anfangsblöcke aufweist, um gerade Linien in dem Bild zu extrahieren; eine Extraktionseinheit zum Extrahieren einer vorbestimmten Anzahl von Punkten mit einer Anzahl von hochrangigen Stimmen aus der Stimmtabelle; und eine Neigungswinkelbestimmungseinheit zum Bestimmen eines Extraktionswinkel θx, um eine maximale Konsistenz mit Winkeln θ an der vorbestimmten Anzahl von Punkten zu erreichen, und zum Bestimmen der Neigungswinkel des Bildes basierend auf dem bestimmten Extraktionswinkel θx.
  2. Die Bildverarbeitungsvorrichtung gemäß Anspruch 1, bei der die Neigungswinkelbestimmungseinheit konfiguriert ist, um die Neigungswinkel des Bildes basierend auf einem Mittel der Winkel θ innerhalb eines zulässigen Bereichs von dem Extraktionswinkel θx zu bestimmen, an Punkten aus der vorbestimmten Anzahl von Punkten.
  3. Die Bildverarbeitungsvorrichtung gemäß Anspruch 1, bei der die Neigungswinkelbestimmungseinheit konfiguriert ist, um die Neigungswinkel des Bildes basierend auf einem gewichteten Mittel der Winkel θ innerhalb eines zulässigen Bereichs aus dem Extraktionswinkel θx zu bestimmen, entsprechend einer Anzahl von Stimmen von jedem Winkel θ, an Punkten aus der vorbestimmten Anzahl von Punkten.
  4. Die Bildverarbeitungsvorrichtung gemäß Anspruch 1, bei der die Neigungswinkelbestimmungseinheit konfiguriert ist, die Neigungswinkel des Bildes nicht zu bestimmen, wenn ein Verhältnis einer Anzahl von Punkten, wo die Winkel θ innerhalb eines zulässigen Bereichs von dem Extraktionswinkel θx sind, aus der vorbestimmten Anzahl von Punkten, zu der vorbestimmten Anzahl von Punkten kleiner ist als ein vorbestimmter Wert.
  5. Die Bildverarbeitungsvorrichtung gemäß Anspruch 1, bei der die Neigungswinkelbestimmungseinheit konfiguriert ist, den Neigungswinkel des Bildes nicht zu bestimmen, wenn die vorbestimmte Anzahl von Punkten jeglichen Punkt mit einer Anzahl von Stimmen umfasst, deren Verhältnis zu der größten Anzahl von Stimmen aus der vorbestimmten Anzahl von Punkten kleiner ist als ein zulässiger Bereich.
  6. Die Bildverarbeitungsvorrichtung gemäß Anspruch 1, bei der die Extraktionseinheit konfiguriert ist, um einen Bereich um jeden der extrahierten Punkte in der Stimmtabelle zu der Zeit zu maskieren, zu der die vorbestimmte Anzahl von Punkten extrahiert wird, um zu verhindern, dass andere Punkte in dem maskierten Bereich aus der Stimmtabelle extrahiert werden.
  7. Die Bildverarbeitungsvorrichtung gemäß Anspruch 1, die ferner eine Degenerationseinheit zum Vereinfachen von Liniensegmenten in dem Bild in Punkte aufweist, wobei das Verarbeiten des Bildes durch eine Hough-Transformationseinheit nach dem Verarbeiten des Bildes durch die Degenerationseinheit ausgeführt wird.
  8. Die Bildverarbeitungsvorrichtung gemäß Anspruch 7, bei der die Hough-Transformationseinheit, die Extraktionseinheit und die Neigungswinkelbestimmungseinheit konfiguriert sind, um einen ersten Neigungswinkel zu bestimmen durch Anwenden einer Hough-Transformation an das Bild mit Degeneration, und einen zweiten Neigungswinkel zu bestimmen durch Anwenden einer Hough-Transformation an das Bild ohne Degeneration, wobei die Bildverarbeitungsvorrichtung ferner eine Komparatoreinheit aufweist zum Vergleichen der ersten Neigungswinkel mit den zweiten Neigungswinkeln; wenn ein Unterschied zwischen den ersten Neigungswinkeln und den zweiten Neigungswinkeln innerhalb eines vorbestimmten Bereichs ist, die Neigungswinkelbestimmungseinheit konfiguriert ist, die zweiten Neigungswinkel als die Neigung des Bildes zu bestimmen, und wenn die Differenz zwischen den ersten Neigungswinkeln und den zweiten Neigungswinkeln nicht innerhalb des vorbestimmten Bereichs ist, die Neigungswinkelbestimmungseinheit konfiguriert ist, die ersten Neigungswinkel als die Neigungswinkel zu bestimmen.
  9. Die Bildverarbeitungsvorrichtung gemäß Anspruch 8, bei der, wenn die Differenz nicht innerhalb des vorbestimmten Bereichs ist, wenn keine Liniensegmente mit ähnlicher Neigung vorhanden sind, zwischen einer ersten Gruppe aus Liniensegmenten, die durch Hough-Transformation aus einem Eingangsbild extrahiert werden, das einer Degeneration unterzogen wurde, und einer zweiten Gruppe aus Liniensegmenten, die durch Hough-Transformation aus einem Eingangsbild ohne Degeneration extrahiert wurden, die Neigungswinkelbestimmungseinheit konfiguriert ist, die ersten Neigungswinkel als die Neigungswinkel des Eingangsbildes zu bestimmen, und wenn jegliche Liniensegmente mit ähnlicher Neigung vorhanden sind, zwischen der ersten Gruppe aus Liniensegmenten und der zweiten Gruppen aus Liniensegmenten, die Neigungswinkelbestimmungseinheit konfiguriert ist, die Neigungswinkel des Eingangsbildes zu bestimmen, zumindest basierend auf der Neigung der Liniensegmente der zweiten Gruppe aus Liniensegmenten, die ähnlich zu der Neigung der Liniensegmente der ersten Gruppe aus Liniensegmenten ist.
  10. Die Bildverarbeitungsvorrichtung gemäß Anspruch 7, bei der die Extraktionseinheit konfiguriert ist, um eine erste Gruppe aus Liniensegmenten aus einem Eingangsbild zu extrahieren, das einer Degeneration unterzogen wurde, und eine zweite Gruppe aus Liniensegmenten aus einem Eingangsbild ohne Degeneration zu extrahieren; und bei der die Neigungswinkelbestimmungseinheit konfiguriert ist zum Bestimmen der Neigungswinkel des Eingangsbildes zumindest basierend auf der Neigung von Liniensegmenten der zweiten Gruppe aus Liniensegmenten, die ähnlich ist zu der Neigung der Liniensegmente der ersten Gruppe aus Liniensegmenten.
  11. Die Bildverarbeitungsvorrichtung gemäß Anspruch 10, bei der in der zweiten Gruppe aus Liniensegmenten, wenn eine vorbestimmte Anzahl oder mehr von Liniensegmenten mit einer Neigung ähnlich zu der Neigung der ersten Gruppe aus Liniensegmenten vorhanden ist, die Neigungswinkelbestimmungseinheit konfiguriert ist, um die Neigungswinkel des Eingangsbildes zu bestimmen, basierend auf der Neigung der vorbestimmten Anzahl oder mehr aus Liniensegmenten, und in der zweiten Gruppe aus Liniensegmenten, und bei der, wenn weniger als die vorbestimmte Anzahl aus Liniensegmenten vorhanden ist mit einer Neigung ähnlich zu der Neigung der ersten Gruppe aus Liniensegmenten, die Neigungswinkelbestimmungseinheit konfiguriert ist, um die Neigungswinkel des Eingangsbildes zu bestimmen, basierend auf der Neigung einer Gruppe aus Liniensegmenten, die die erste Gruppe aus Liniensegmente umfasst zusätzlich zu den Liniensegmenten, die geringer ist als die vorbestimmte Anzahl.
  12. Die Bildverarbeitungsvorrichtung gemäß Anspruch 7, die ferner eine Binarisierungseinheit aufweist zum Binarisieren des Eingangsbildes in gültige Pixel und ungültige Pixel, und die ferner ein Filter aufweist zum Ersetzen gültiger Pixel, die miteinander in dem binarisierten Bild verbunden sind, durch ungültige Pixel, von einem Ende der verbundenen Pixel.
  13. Ein Bildverarbeitungsverfahren zum Bestimmen eines Neigungswinkels in einem Bild durch eine Bildverarbeitungsvorrichtung, wobei die Informationsverarbeitungsvorrichtung folgende Schritte ausführt: Anwenden einer Hough-Transformation zum Transformieren von Koordinaten von Punkten in dem Bild jeweils in eine Distanz ρ und einen Winkel θ, und Abgeben von Stimmen in eine Stimmtabelle, die die Distanz ρ und den Winkel θ als Anfangsblöcke aufweist, um gerade Linien in dem Bild zu extrahieren; Extrahieren einer vorbestimmten Anzahl von Punkten mit einer Anzahl von hochrangigen Stimmen aus der Stimmtabelle; und Bestimmen eines Extraktionswinkels θx, um eine maximale Konsistenz mit Winkeln θ an der vorbestimmten Anzahl von Punkten zu erreichen, und Bestimmen des Neigungswinkels des Bildes basierend auf dem vorbestimmten Extraktionswinkel θx.
  14. Das Bildverarbeitungsverfahren gemäß Anspruch 13, das ferner den Schritt der Degeneration an dem Bild aufweist, zum Vereinfachen von Liniensegmenten in Punkte, um eine Hough-Transformation an das Bild ohne Degeneration anzuwenden.
  15. Ein Bildverarbeitungsprogramm, das durch eine Informationsverarbeitungsvorrichtung wiedergewonnen wird, um es der Informationsverarbeitungsvorrichtung zu ermöglichen, folgende Funktion auszuführen: Transformieren von Koordinaten von Punkten in dem Bild jeweils in eine Distanz ρ und einen Winkel θ, und Abgeben von Stimmen in eine Stimmtabelle mit der Distanz ρ und dem Winkel θ als Anfangsblöcke; Extrahieren einer vorbestimmten Anzahl von Punkten mit einer Anzahl von hochrangigen Stimmen aus der Stimmtabelle; und Bestimmen eines Extraktionswinkels θx, um eine maximale Konsistenz mit Winkeln θ an der vorbestimmten Anzahl von Punkten zu erreichen, und Bestimmen der Neigungswinkel des Bildes basierend auf dem bestimmten Extraktionswinkel θx.
  16. Das Bildverarbeitungsprogramm gemäß Anspruch 15, das es der Bildverarbeitungsvorrichtung ferner erlaubt, die Funktion der Degeneration an dem Bild zum Vereinfachen von Liniensegmenten in Punkte auszuführen, um eine Hough-Transformation an das Bild mit Degeneration anzuwenden.
  17. Ein Speicherungsmedium, das das Bildverarbeitungsprogramm gemäß Anspruch 15 speichert.
DE112010001320T 2009-04-07 2010-01-25 Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bilderverarbeitungsprogramm und Speichermedium Ceased DE112010001320T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2009-093220 2009-04-07
JP2009-093222 2009-04-07
JP2009093222A JP5477542B2 (ja) 2009-04-07 2009-04-07 画像処理装置と処理方法、及び処理プログラム
JP2009093220A JP5477541B2 (ja) 2009-04-07 2009-04-07 画像処理装置と処理方法、及び処理プログラム
PCT/JP2010/050876 WO2010116774A1 (ja) 2009-04-07 2010-01-25 画像処理装置と処理方法、処理プログラム、及び記憶媒体

Publications (1)

Publication Number Publication Date
DE112010001320T5 true DE112010001320T5 (de) 2012-06-21

Family

ID=42936063

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112010001320T Ceased DE112010001320T5 (de) 2009-04-07 2010-01-25 Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bilderverarbeitungsprogramm und Speichermedium

Country Status (4)

Country Link
US (1) US8682080B2 (de)
CN (1) CN102282588A (de)
DE (1) DE112010001320T5 (de)
WO (1) WO2010116774A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2449531B1 (de) 2009-07-02 2017-12-20 Hewlett-Packard Development Company, L.P. Versatzdetektion
JP5822664B2 (ja) 2011-11-11 2015-11-24 株式会社Pfu 画像処理装置、直線検出方法及びコンピュータプログラム
JP5871571B2 (ja) * 2011-11-11 2016-03-01 株式会社Pfu 画像処理装置、矩形検出方法及びコンピュータプログラム
JP5854774B2 (ja) 2011-11-11 2016-02-09 株式会社Pfu 画像処理装置、直線検出方法及びコンピュータプログラム
CN102646194B (zh) * 2012-02-22 2013-10-16 大连理工大学 一种利用字符边缘特征进行打印机类型取证的方法
JP5929368B2 (ja) * 2012-03-16 2016-06-01 コニカミノルタ株式会社 超音波画像診断装置
KR20160027862A (ko) * 2014-09-02 2016-03-10 삼성전자주식회사 이미지 데이터를 처리하는 방법과 이를 지원하는 전자 장치
CN104331876B (zh) * 2014-10-09 2020-12-08 北京配天技术有限公司 直线检测、图像处理的方法及相关装置
JP6468463B2 (ja) * 2015-07-30 2019-02-13 京セラドキュメントソリューションズ株式会社 画像処理装置
KR102599958B1 (ko) 2016-09-28 2023-11-09 (주)아모레퍼시픽 (r)-n-[4-(1-아미노-에틸)-2,6-다이플루오로-페닐]-메테인설폰아마이드의 제조방법
CN107705287B (zh) * 2017-08-24 2019-10-18 长春理工大学 一种具有中心对称分布规律的工业产品缺损检测方法
CN113965420B (zh) * 2021-12-23 2022-03-11 西安道法数器信息科技有限公司 一种基于人工智能的网络安全加密方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10283476A (ja) 1997-04-04 1998-10-23 Minolta Co Ltd 画像処理方法及び装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6157737A (en) 1997-04-04 2000-12-05 Minolta Co., Ltd. Method of and apparatus for image processing
JP4170441B2 (ja) * 1997-11-28 2008-10-22 富士通株式会社 文書画像傾き検出装置および文書画像傾き検出プログラムの記憶媒体
JP3677711B2 (ja) 1997-12-08 2005-08-03 凸版印刷株式会社 チョッパー折り機およびチョッパー折り状態判別方法
JPH11328408A (ja) 1998-05-12 1999-11-30 Advantest Corp データ処理装置および方法、情報記憶媒体
JP4219542B2 (ja) * 2000-09-07 2009-02-04 富士ゼロックス株式会社 画像処理装置、画像処理方法および画像処理プログラムが格納された記録媒体
JP2002228423A (ja) 2001-01-31 2002-08-14 Matsushita Electric Ind Co Ltd タイヤ検出方法および装置
EP1591960A1 (de) * 2002-07-01 2005-11-02 Mitsubishi Electric Information Technology Centre Europe B.V. Verfahren und Gerät zur Bildverarbeitung
CA2535828C (en) * 2003-08-15 2011-02-08 Scape A/S Computer-vision system for classification and spatial localization of bounded 3d-objects
CN100382097C (zh) * 2004-08-10 2008-04-16 明基电通股份有限公司 文件倾斜角度的估算方法及其装置
US7406212B2 (en) * 2005-06-02 2008-07-29 Motorola, Inc. Method and system for parallel processing of Hough transform computations
US7706978B2 (en) * 2005-09-02 2010-04-27 Delphi Technologies, Inc. Method for estimating unknown parameters for a vehicle object detection system
JP2007074578A (ja) * 2005-09-08 2007-03-22 Casio Comput Co Ltd 画像処理装置、撮影装置、及びプログラム
JP5002497B2 (ja) * 2008-03-11 2012-08-15 株式会社Pfu 画像処理装置、画像処理方法および画像処理プログラム
JP5132438B2 (ja) * 2008-06-19 2013-01-30 キヤノン株式会社 画像処理装置および画像処理方法
US7850171B2 (en) * 2008-10-23 2010-12-14 Igt Gaming system, device and method involving a plurality of rotors interchangeably operable in a decoupled mode and a coupled mode

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10283476A (ja) 1997-04-04 1998-10-23 Minolta Co Ltd 画像処理方法及び装置

Also Published As

Publication number Publication date
US8682080B2 (en) 2014-03-25
WO2010116774A1 (ja) 2010-10-14
US20120008874A1 (en) 2012-01-12
CN102282588A (zh) 2011-12-14

Similar Documents

Publication Publication Date Title
DE112010001320T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bilderverarbeitungsprogramm und Speichermedium
DE19814075B4 (de) Verfahren zum Abtasten und Erkennen mehrerer Fotografien und zum Beseitigen von Randfehlern
DE69926205T2 (de) Artefaktentfernungstechnik für schiefenkorrigierte bilder
DE69732326T2 (de) Zweidimensionaler Farbkode, Herstellungs- und Wiederherstellungsverfahren für den Kode und Gerät dafür
DE10036110B4 (de) Verfahren zur Bestimmung des Schrägwinkels eines zweidimensionalen Barcodes
DE69432585T2 (de) Verfahren und Gerät zur Auswahl von Text und/oder Non-Text-Blöcken in einem gespeicherten Dokument
DE60222722T2 (de) Verfahren und Vorrichtung zur Korrektur von perspektivischen Verzerrungen in Dokumentbildern und zur Summierung von Bildzeilen
DE69628723T2 (de) Gradientengestütztes Verfahren zur Erzeugung von Werten für unbekannte Pixel in einem Digitalbild
EP0131676B1 (de) Verfahren zum automatischen Digitalisieren des Umrisses von Strichgraphiken z.B. Buchstaben
DE69929572T2 (de) Verfahren zum Lesen eines zweidimensionalen Strichcode ohne Taktsignal und ohne Ränder
DE69728546T2 (de) Automatisierte Bildqualitätsanalyse und -verbesserung beim Abtasten und Reproduzieren von Dokumentvorlagen
DE10311715A1 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Speichermedium für das Bildverarbeitungsprogramm
DE10346690B4 (de) Verfahren und Vorrichtung zum Detektieren eines Linearobjekts
DE112020006492T5 (de) Verfahren zum Erzeugen eines Quick-Response-Codes und Druckvorrichtung
DE3110222A1 (de) Verfahren zur partielle glaettenden retusche bei der elektronischen farbbildreproduktion
DE102007035884A1 (de) Linienrauschunterdrückungsvorrichtung, -verfahren und -programm
DE102008013789A1 (de) Vorrichtung, Verfahren und Programm zum Eliminieren von Zeichenstörungen
DE19924144A1 (de) Schiefekorrekturapparat und Verfahren für die Verwendung selbiges
DE102011051934A1 (de) Verfahren und Vorrichtung zur OCR-Erfassung von Wertdokumenten mittels einer Matrixkamera
DE69722605T2 (de) Verfahren und vorrichtung zur bilderkennung sowie ihre anwendung in einem kopiergerät und einem drucker
WO2010133204A1 (de) Vorrichtung und verfahren zur identifizierung des urhebers eines kunstwerkes
DE112021000371T5 (de) Digitale bildbearbeitung
DE69929110T2 (de) Einrichtung und Verfahren zur Erzeugung von Druckdaten des zweidimensionalen Koden und zugehöriges Aufzeichnungsmedia
CH708994B1 (de) Verfahren und Vorrichtung zum Identifizieren eines zweidimensionalen Punktcodes.
DE102012201024B4 (de) Verfahren zum Verarbeiten eines Bildes zur Verdeutlichung von Text in dem Bild

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final