DE602004006682T2 - Extraktion von Metadaten aus gekennzeichneten Bereichen eines Dokuments - Google Patents

Extraktion von Metadaten aus gekennzeichneten Bereichen eines Dokuments Download PDF

Info

Publication number
DE602004006682T2
DE602004006682T2 DE602004006682T DE602004006682T DE602004006682T2 DE 602004006682 T2 DE602004006682 T2 DE 602004006682T2 DE 602004006682 T DE602004006682 T DE 602004006682T DE 602004006682 T DE602004006682 T DE 602004006682T DE 602004006682 T2 DE602004006682 T2 DE 602004006682T2
Authority
DE
Germany
Prior art keywords
metadata
user
image
area
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602004006682T
Other languages
English (en)
Other versions
DE602004006682D1 (de
Inventor
Jodocus F. Jager
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Production Printing Netherlands BV
Original Assignee
Oce Technologies BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oce Technologies BV filed Critical Oce Technologies BV
Publication of DE602004006682D1 publication Critical patent/DE602004006682D1/de
Application granted granted Critical
Publication of DE602004006682T2 publication Critical patent/DE602004006682T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/93Document management systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/416Extracting the logical structure, e.g. chapters, sections or page numbers; Identifying elements of the document, e.g. authors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Character Input (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

  • Die Erfindung betrifft ein Verfahren zur Extraktion von Metadaten aus einem aus Pixeln aufgebauten Bild eines Dokuments, wobei die Pixel einen Wert haben, der die Intensität und/oder Farbe eines Bildelements repräsentiert, und Vordergrundpixel umfassen, die auf der Grundlage ihrer Werte eine Vordergrundeigenschaft haben, welches Verfahren die Anzeige wenigstens eines Teils des Bildes auf einem Anzeigeschirm für einen Benutzer, den Empfang eines von einem Benutzer gegebenen Auswahlbefehls für eine Metadaten enthaltendes Gebiet des Bildes, die Bestimmung eines Extraktionsbereiches innerhalb des Bildes auf der Grundlage des Auswahlbefehls des Benutzers, und die Extraktion der Metadaten durch Verarbeitung der Pixel in dem Extraktionsbereich umfaßt.
  • Die Erfindung bezieht sich weiterhin auf ein Computerprogrammprodukt und eine Vorrichtung, in denen das Verfahren implementiert ist.
  • In Umgebungen, in denen große Anzahlen von digitalen Dokumenten verarbeitet werden, besteht häufig Bedarf, beschreibende Daten zu erzeugen, die einem Dokument zugeordnet werden können, um dessen weitere Behandlung zu erleichtern. Solche beschreibenden Daten, die im folgenden als "Metadaten" bezeichnet werden sollen, können irgendwelche Daten umfassen, die das Dokument beschreiben, z.B. ein Titel, ein Autor, ein Dokumenttyp, ein Stichwort, eine Inhaltszusammenfassung usw..
  • Die Metadaten können z.B. als Eingabedaten zum Aufrufen von Dokumenten verwendet werden, die in einer Datenbank gespeichert sind. Sie können auch in Scanner-Anwendungen zur Erzeugung von Dateinamen sowie in vielen anderen Situationen verwendet werden. Metadaten können von menschlichen Bearbeitern erstellt werden, die das Dokument lesen und es mit wenigen bedeutungshaltigen Wörtern beschreiben. Dies ist ein anspruchsvoller, jedoch extrem zeitraubender Weg, Metadaten zu erzeugen. In vielen Fällen sind jedoch Metadaten, die sich verwenden lassen, bereits in dem Dokument selbst enthalten, z.B. der Titel, der Autor, etc., und es wäre oftmals völlig akzeptabel, eines von ihnen als beschreibendes Kennzeichnen zu verwenden.
  • Wenn Dokumente in digital codierter Form vorliegen, etwa als MS WORDTM Dokumente, können sie durch spezialisierte Programme, die das Dokument durchsuchen und vorprogrammierte Stichwörter extrahieren, automatisch indiziert werden. Dokumente, die jedoch als Bilder vorliegen, d.h., als Zusammenstellungen von schwarzen (farbigen) und weißen Pixeln, müssen zunächst durch OCR in die digital codierte Form umgewandelt werden, ein Prozeß der viel Rechenleistung benötigt und dennoch nicht immer einwandfrei arbeitet. Auch das Indizierprogramm benötigt eine beträchtliche Zeit zur Verarbeitung eines Dokuments.
  • Die automatische Interpretation von Dokumentbildern ist für stark strukturierte Dokumente wie etwa Patentdokumente bekannt. Solche Dokumente haben eine streng vorgeschriebene Form, und ein Computer kann dazu programmiert werden, spezielle vorbestimmte Informationselemente in dem Dokumentbild zu finden und zu verarbeiten. Dokumente mit frei gewähltem Format können jedoch nicht auf diese Weise verarbeitet werden.
  • Menschliche Bearbeiter haben den Vorteil, daß sie ein Dokumentbild leicht überblicken und relevante Elemente darin finden können. Es wäre deshalb vorteilhaft, einen Bearbeiter Metadaten in dem Dokumentbild auswählen zu lassen, die dann durch ein Computersystem automatisch extrahiert und dem Dokument zugeordnet werden.
  • Ein Verfahren und eine Vorrichtung zur Extraktion von Metadaten aus einem Dokument sind aus EP 1 136 938 bekannt. Dokumente werden zunächst mit Hilfe eines an einen Computer angeschlossenen Scanners abgetastet, um ein Bild aus Pixeln zu erzeugen. In der genannten Veröffentlichung zum Stand der Technik haben die abgetasteten Dokumente ein strukturiertes Layout, in dem Textzeichenketten, die Metadaten repräsentieren, in Kästen positioniert sind, die die Textzeichenketten mit gezeichneten Linien umschließen. Insbesondere technische Zeichnungen haben solche Kästen, die Metadaten, wie etwa Titel, Kalenderdaten, Versionen usw. enthalten. Der Benutzer bedient ein Zeigeinstrument des Computers, um einen beliebigen Punkt in wenigstens einem Kasten der Dokumente zu bezeichnen. Nachdem der Punkt durch den Benutzer bezeichnet worden ist, wird der diesen Punkt enthaltende Kasten identifiziert, indem die umgebenden Linien detektiert werden. Anschließend werden die Zeichnen in diesem Kasten durch optische Schriftzeichenerken nung (OCR) erkannt, um die Metadaten zu gewinnen und in einer Datenbank zu speichern, die mit dem Computer verbunden ist, damit die in dieser Weise abgetasteten Dokumente indiziert werden können. Somit wird die Kastenstruktur der Metadaten für die Identifizierung der Metadaten vorausgesetzt. Das Problem des bekannten Verfahrens besteht darin, daß das Verfahren nur Metadaten aus Dokumenten extrahieren kann, die strukturierte Kästen aufweisen, die die Metadaten als Textzeichenketten enthalten.
  • Ein Verfahren und eine Vorrichtung zur Extraktion von Metadaten aus einem Dokument gemäß dem Oberbegriff wird in EP 1 256 900 beschrieben. Bei diesem bekannten System, das für die Eingabe von digitalen Dokumenten in eine Datenbank und zur Extraktion von Metadaten für die Zwecke des Wiederaufrufs vorgesehen ist, muß ein Bearbeiter mit einer Maus oder dergleichen eine "Hülle" um das Metadatenobjekt in dem Bild zeichnen. Dann konvertiert das System die in der Hülle enthaltene Bitmap-Bildinformation durch OCR in das Textformat. In dieser Veröffentlichung bezeichnet der Bearbeiter den Extraktionsbereich, was eine sorgfältige Arbeitsweise erfordert, und selbst dann können durch ungenaue Mausbewegungen leicht Fehler entstehen.
  • US 6 323 876 beschreibt ein System zum Analysieren eines Dokumentbildes, zum Erkennen unterschiedlicher Gebiete (etwa Gebiete mit Schriftzeichen, Gebiete mit Fotografien und leere Gebiete) in dem Bild und um es einem Bearbeiter zu erlauben, ein Gebiet leicht zu bezeichnen, indem er darauf zeigt. Das bezeichnete Gebiet kann dann bearbeitet werden.
  • Das in diesem bekannten System angewandte Verfahren beruht auf einer recht komplizierten mehrstufigen Prozedur, die die Erstellung und Analyse von Projektions-Pixelhistogrammen, das Analysieren von Bitmaps nach 8-benachbart zusammenhängenden Komponenten von Vordergrundpixeln, das Etikettieren von Komponenten und das Vereinigen von Komponenten zur Identifizierung von Schriftzeichen einschließt, gefolgt von Bildbereichsunterscheidung einschließlich Bestimmung von Attributen und Layoutanalyse.
  • Es ist eine Aufgabe der Erfindung, ein relativ einfaches Verfahren und eine relativ einfache Vorrichtung zur Extraktion von Metadaten aus Dokumenten zu schaffen, bei denen die Metadaten nicht in strukturierten Kästen oder extern definierten Bereichsbegrenzungen enthalten zu sein brauchen.
  • Gemäß einem ersten Aspekt der Erfindung wird diese Aufgabe gelöst durch ein Verfahren, wie es im einleitenden Absatz beschrieben wurde, das dadurch gekennzeichnet ist, daß der Schritt der Bestimmung eines Extraktionsbereiches innerhalb des Bildes den Aufbau des Extraktionsbereiches als ein zusammenhängendes Gebiet aus Vordergrundpixeln umfaßt, wobei in einer einstufigen Prozedur, beginnend mit einem Auswahlpunkt, der als Teil des Auswahlbefehls des Benutzers in dem angezeigten Teil des Bildes angegeben wird, fortschreitend alle Vordergrundpixel einbezogen werden, die innerhalb eines vorbestimmten Verbindungsabstands zu wenigstens einem anderen in das verbundene Gebiet einbezogenen Vordergrundpixel liegen.
  • Gemäß einem zweiten Aspekt der Erfindung wird die Aufgabe durch eine Vorrichtung zur Extraktion von Metadaten aus einem aus Pixeln aufgebauten Dokumentbild gelöst, bei dem die Pixel einen Wert haben, der die Intensität und/oder Farbe eines Bildelements repräsentiert, und Vordergrundpixel umfassen, die auf der Grundlage ihrer Werte eine Vordergrundeigenschaft haben, welche Vorrichtung eine Eingabeeinrichtung zum Empfang des Bildes, eine Anzeigeeinrichtung zur Anzeige wenigstens eines Teils des Bildes für einen Benutzer, eine Benutzerschnittstelle zum Empfang eines von einem Benutzer gegebenen Auswahlbefehls für ein Metadaten enthaltendes Gebiet des Bildes, und eine Verarbeitungseinheit zur Bestimmung eines Extraktionsbereiches innerhalb des Bildes auf der Grundlage des Auswahlbefehls des Benutzers und zur Extraktion der Metadaten durch Verarbeitung von Pixeln in dem Extraktionsbereich umfaßt, welche Vorrichtung dadurch gekennzeichnet ist, daß die Verarbeitungseinheit dazu ausgebildet ist, den Extraktionsbereich als ein verbundenes Gebiet aus Vordergrundpixeln aufzubauen, in einer einstufigen Prozedur, bei der, beginnend mit einem Auswahlpunkt, der als Teil des Auswahlbefehls des Benutzers in dem angezeigten Teil des Bildes angegeben wird, fortschreitend alle Vordergrundpixel einbezogen werden, die innerhalb eines vorbestimmten Verbindungsabstands zu wenigstens einem anderen in das verbundene Gebiet einbezogenen Vordergrundpixel liegen.
  • Gemäß einem dritten Aspekt der Erfindung wird die Aufgabe mit einem Computerprogrammprodukt zur Ausführung des Verfahrens gelöst.
  • Über eine Benutzerschnittstelle, etwa einen berührungsempfindlichen Bildschirm (Touch Screen) oder eine Maus, gibt der Benutzer einen Auswahlpunkt in dem Metadatenelement an, das er extrahiert haben möchte. Ein erstes Vordergrundpixel wird dadurch gefunden, daß es durch den Auswahlpunkt angegeben wird, d.h., das Vordergrundpixel, das dem Ort des Auswahlpunktes entspricht oder nahe bei dem Auswahlpunkt liegt, wenn der Auswahlpunkt sich auf einem Hintergrundpixel in dem Metadatenelement befindet. Ein dem Metadatenelement entsprechender Extraktionsbereich wird dann konstruiert, indem, beginnend mit dem angegebenen ersten Vordergrundpixel, Vordergrundpixel mit diesem ersten Vordergrundpixel verbunden werden. Es wird ein Verbindungsabstand eingeführt, um nicht signifikante Hintergrundpixel zu ignorieren und so sicherzustellen, daß sich ein Extraktionsbereich ungeachtet der Zwischenräume zwischen den Schriftzeichen über ein ganzes Wort erstrecken kann.
  • Dann wird der Extraktionsbereich auf der Grundlage des verbundenen Gebietes bestimmt. Der Vorteil des Extraktionsbereiches besteht darin, daß er nur auf dem Metadatenelement selbst basiert, gewöhnlich einem Textelement. Zum Lenken des Extraktionsprozesses für die Metadaten wird keine vordefinierte Struktur in dem Bild, wie etwa ein Kasten um den Text herum, benötigt,
  • Das Verfahren gemäß der Erfindung hat den Vorteil, daß das Wachsen des verbundenen Gebietes auf der Grundlage des Verbindungsabstands ein robuster und einfacher Weg zur Berechnung eines Schätzwertes für das Extraktionsgebiet ist. Es ist zu bemerken, daß der Extraktionsbereich gewöhnlich parallele Seiten haben wird, aber nicht rechteckig zu sein braucht. In Textdokumenten wird eine rechteckige Form am praktischsten sein, doch kann in größeren Textfragmenten die Form des Extraktionsbereiches angepaßt werden. Für Symbole oder graphische Elemente kann eine andere Form des Extraktionsbereiches verwendet werden.
  • In einer Ausführungsform der Erfindung umfaßt die Erzeugung des verbundenes Gebietes das Einstellen des Verbindungsabstands in Abhängigkeit von einer Verbindungsrichtung, wobei die Verbindungsrichtung insbesondere horizontal, vertikal oder eine angenommene Leserichtung ist. Durch Einstellen des Verbindungsabstands auf einen Wert, der die Distanz zwischen erwarte ten Metadatenelementen, etwa Schriftzeichen in einem Wort oder Wörtern in einem Satz, überbrückt, wird der Extraktionsbereich sich über Metadatenelemente erstrecken, für die es wahrscheinlich ist, daß der Benutzer sie angeben will. Durch Annahme oder Ableitung einer Leserichtung erlaubt es das Verfahren dem Benutzer, den Beginn eines Textfragments in einem größeren Textabschnitt einfach anzugeben, weil das Wachstum die Textelemente in dieser Leserichtung verbinden wird.
  • In einer weiteren Ausführungsform des Verfahrens wird das eingegebene Dokumentbild zunächst auf eine niedrigere Auflösung konvertiert, und die Schritte der Klassifizierung von Pixeln und der Bestimmung eines Extraktionsbereiches werden an dem Bild mit geringerer Auflösung ausgeführt. Dies hat den Vorteil, daß weniger Rechenleistung benötigt wird, während eine moderate Absenkung der Auflösung normalerweise die Genauigkeit des Verfahrens nicht beeinträchtigt.
  • In einer Ausführungsform des Verfahrens umfaßt die Bestimmung des Extraktionsbereiches die Anzeige eines vorgeschlagenen Extraktionsbereiches. Das hat den Vorteil, daß der Benutzer eine visuelle Rückkopplung für den berechneten Extraktionsbereich hat.
  • In einer weiteren Ausführungsform umfaßt das Verfahren außerdem den Empfang einer Ergänzung zu dem Auswahlbefehl, zur Anpassung des Verbindungsabstands. Das hat den Vorteil, daß der Benutzer den vorgeschlagenen Extraktionsbereich leicht bestätigen, verwerfen oder verändern kann.
  • In einer weiteren Ausführungsform umfaßt das Verfahren außerdem die automatische Anpassung des Verbindungsabstands als Reaktion auf die Ergänzung des Auswahlbefehls, wobei die Ergänzung des Auswahlbefehls umfaßt, daß der Benutzer einen weiteren Auswahlpunkt angibt. Der Benutzer kontrolliert den Verbindungsabstand durch Angabe des zu verbindenden weiteren Punktes. Das hat den Vorteil, daß der Benutzer den Extraktionsbereich intuitiv auf die gewünschte Größe erweitern kann.
  • In noch einer weiteren Ausführungsform umfaßt das Verfahren außerdem die automatische Anpassung des Verbindungsabstands in Abhängigkeit von einer Auswahlrichtung, die über eine Ergänzung des Auswahlbefehls empfangen wird, wobei diese Auswahlrichtung dadurch definiert wird, daß der Benutzer ein Auswahlmittel über den Anzeigeschirm zieht. Der Benutzer kontrolliert den Verbindungsabstand durch Ziehen eines Zeigers wie etwa eines mausgesteuerten Cursors. Das hat den Vorteil, daß der Benutzer den Extraktionsbereich intuitiv auf die gewünschte Größe erweitern kann.
  • In noch einer weiteren Ausführungsform des Verfahrens umfaßt die Bestimmung des Extraktionsbereiches außerdem die Anpassung des vorgeschlagenen Extraktionsbereiches an einen Benutzerbefehl. Das hat den Vorteil, daß der Benutzer die Metadatenelemente einfach auswählen kann. Zum Beispiel umfaßt die Anpassung der Form des Extraktionsbereiches das Bereitstellen von steuerbaren Elementen für den vorgeschlagenen Extraktionsbereich, insbesondere Seiten und/oder Ränder, und den Empfang eines Zugbefehls in der Form einer Befehlserweiterung von der Angabeeinrichtung zum Bewegen eines der steuerbaren Elemente. Durch Bewegen der steuerbaren Elemente kann der Benutzer die Form des Extraktionsbereiches leicht anpassen. Alternativ umfaßt die Anpassung der Form des Extraktionsbereiches das Vergrößern oder Verkleinern des Extraktionsbereiches über ein ergänzendes Benutzer-Steuerereignis wie etwa das Anklicken einer Maustaste oder die Betätigung eines Mausrades. Durch Klicken kann die Größe um einen bestimmten Betrag vergrößert werden, z.B. durch Vergrößerung des Verbindungsabstands, so daß ein größerer Extraktionsbereich angezeigt wird. Ein Mausrad oder ein ähnlicher stetiger Steuerungsmechanismus kann die Größe graduell verändern. Durch Anpassung des Verbindungsabstands in einem Textdokument kann die Größe des Extraktionsbereiches sichtbar von der Größe eines Wortes auf einen Satz oder Absatz zunehmen.
  • In einer Ausführungsform des Verfahrens umfaßt der Auswahlbefehl eine Ergänzung zum Zuweisen eines Metadaten-Typs zu den extrahierten Metadaten.
  • Dies hat den Vorteil, daß der Benutzer direkt den Typ der Metadaten steuern kann, der zugewiesen werden soll. Eine gute Möglichkeit, dem Benutzer die Eingabe einer solchen Befehlserweiterung zu ermöglichen, besteht darin, daß dem Benutzer wenigstens ein Steuerelement, insbesondere ein Knopf oder ein Aufklappmenü für die Auswahl eines Metadatentyps angezeigt wird.
  • Alternativ kann das System eine vorbestimmte Reihenfolge der Eingabe unterschiedlicher Typen von Metadaten annehmen oder erzwingen, was die Bedienungsgeschwindigkeit erhöht. Das System kann die Eingabereihenfolge anhand der Präferenzen des Benutzers lernen.
  • In einer Ausführungsform des Verfahrens werden die extrahierten Metadaten und zugewiesenen Typen als Indexdaten für ein Dokument in eine Datenbank eingegeben. Das hat den Vorteil, daß Dokumente auf der Grundlage der extahierten Metadaten aus der Datenbank aufgerufen werden können.
  • In einer Ausführungsform umfaßt das Verfahren, daß als Metadaten eine Textzeichenkette extrahiert wird und die Textzeichenkette zugewiesen wird, um einen Namen für eine das Bild enthaltende Datei oder Nachricht zu bilden. Traditionell werden beim Abtasten automatisch Dateinamen zugewiesen, z.B. eine Folge von Zahlen, oder es wird eine manuelle Eingabe verlangt. Durch Verwendung der Metadaten wird ein mit dem Dokument selbst im Zusammenhang stehender Name erzeugt. Ein auf Metadaten basierender Dateiname macht den Aufruf einer Datei leichter. Ebenso kann eine eingescannte Datei als e-Mail, z.B. als Anhang, versandt werden. Der erfindungsgemäße Prozeß zur Extraktion von Metadaten kann auch dazu benutzt werden, einen "Betreff" für die e-Mail-Nachricht zu erzeugen, so daß der Inhalt leicht erkannt werden kann.
  • In dieser Beschreibung kann der Begriff "Dokumentbild" auch so verstanden werden, daß er einen Satz von Bildern einzelner physikalischer Dokumentseiten umfaßt. Im allgemeinen ist der auf dem Display gezeigte Teil des Dokuments die erste Seite, da es normalerweise diese Seite ist, die die wichtigste Information für die Extraktion von Metadaten enthält. Die Erfinder haben jedoch auch daran gedacht, das Gerät mit einer Browserfunktion zum Navigieren durch das gesamte Dokumentbild, d.h., durch den Satz von Bildern physikalischer Dokumentseiten, auszustatten.
  • Weitere bevorzugte Ausführungsformen der Vorrichtung gemäß der Erfindung sind in den weiteren Ansprüchen angegeben.
  • Diese und weitere Aspekte der Erfindung werden in der nachstehenden Beschreibung verdeutlicht und weiter ausgeführt unter Bezugnahme auf die als Beispiel beschriebenen Ausführungsformen und mit Bezug auf die beigefügten Zeichnungen, in denen zeigen:
  • 1 ein eingescanntes Dokumentbild und einen Extraktionsbereich für Metadaten;
  • 2 eine Vorrichtung zur Verarbeitung eines Dokuments und zur Extraktion von Metadaten;
  • 3 ein Verfahren zur Extraktion von Metadaten;
  • 4 das Wachstum eines Gebiets von einem Auswahlpunkt aus;
  • 4A ein Gebiet, das mit einem Verbindungsabstand von einem Pixel wächst;
  • 4B ein Gebiet, das mit einem Verbindungsabstand von zwei Pixeln wächst;
  • 4C ein Gebiet, das mit einem Verbindungsabstand von drei Pixeln wächst;
  • 5 die Anpassung eines Extraktionsbereiches für Metadaten;
  • 6 die Anpassung der Form eines nicht-rechteckigen Extraktionsbereiches; und
  • 7 eine Anzeige eines Bildes, eines Extraktionsbereiches und eines Menüs.
  • Die Figuren sind schematisch und nicht maßstäblich. In den Figuren haben Elemente, die bereits beschriebenen Elementen entsprechen, die gleichen Bezugszeichen.
  • 1 zeigt ein eingescanntes Dokumentbild und einen Extraktionsbereich für Metadaten. Ein Dokument 13 ist eingescannt worden, um ein aus Pixeln bestehendes Bild zu generieren. Die Pixel (Kurzform für Picture Elements) sind eine numerische Repräsentation des Dokuments und haben Werte, die die Intensität und/oder Farbe der Bildelemente repräsentieren. Ein Teil des Bildes wird auf einem Display 12 (schematisch eingezeichnet) einem Benutzer gezeigt, damit er Metadaten interaktiv bestimmen kann. Eine Bilddatei für ein Dokument kann getrennte Bilder für jede Seite des Dokuments umfassen. Eine Titelseite, gewöhnlich die erste Seite, enthält relevante Information über den Inhalt des Dokuments, beispielsweise den Titel, den Typ des Dokuments, den Autor, das Publikationsdatum und dergleichen. Diese Information wird in dieser Beschreibung als Metadaten bezeichnet. Der Benutzer kann die Option haben, das Display zu steuern, um, z. B. durch Rollen, den relevanten Teil der Bilddatei zu zeigen. Alternativ kann das Display eine vollständige Seite eines einseitigen Dokuments zeigen.
  • Ein Beispiel für ein Metadatendokument ist eine Dokumentnummer 11, die Teil des Dokumenttyps ist. Das Metadatenelement kann ein einzelnes Wort sein, wie etwa die Dokumentnummer 11, oder kann aus einer oder mehreren Textzeilen bestehen. Zum Beispiel enthält die in der Figur dargestellte Zusammenfassung (Abstract) etwa sechs Zeilen Text.
  • Auf dem Display ist um den Dokumenttyp einschließlich der Dokumentnummer 11 herum ein Extraktionsbereich 14 gezeigt. Dieser Extraktionsbereich ist ein Bereich des Bildes, der von einer Verarbeitungseinheit dazu benutzt werden soll, die Metadaten zu finden und zu erkennen. Gewöhnlich handelt es sich bei den Metadaten um Text, und der Extraktionsbereich wird analysiert, um die Schriftzeichen und Wörter zu erkennen, was gemeinhin als optische Zeichenerkennung (OCR) bekannt ist. Bei den Metadaten kann es sich auch um bestimmte Bildelemente handeln, etwa Symbole oder Logos, die für die Verwendung als Metadaten kategorisiert werden können.
  • Um den Extraktionsbereich zu konstruieren, gibt der Benutzer zunächst einen Auswahlpunkt in dem Metadatenelement an, das er als relevant ansieht, z. B. in der Dokumentnummer 11. Die Angabe des Auswahlpunktes ist der erste Schritt in einem Auswahlbefehl. Zur Angabe des Auswahlpunktes kann das Display auf einem berührungsempfindlichen Schirm, etwa einem Touch Screen, ausgebildet sein. Der Benutzer kann den Auswahlpunkt mit einem Finger oder durch Verwendung eines geeigneten Zeigestocks angeben. Alternativ kann das Display einen Cursor zeigen, der durch den Benutzer z. B. mit Hilfe einer Maus, eines Trackballs oder dergleichen gesteuert wird. Der Auswahlpunkt kann dann durch Positionieren des Cursors und Aktivieren einer Taste, etwa durch einen Mausklick, angegeben werden.
  • Die Verarbeitungseinheit wird dann Pixel in der Nähe des Auswahlpunktes analysieren, um Pixel zu finden, die Teil des Metadatenelements sind, wie nachstehend näher beschrieben werden wird. Pixel werden auf der Grundlage der Werte, die eine Vordergrundeigenschaft haben, auf einem Dokument mit weißem Hintergrund ist dies gewöhnlich der Wert, der Schwarz repräsentiert, als Vordergrundpixel klassifiziert. In einem Farbbild kann die Vordergrundeigenschaft der Wert sein, der eine bestimmte Farbe repräsentiert, z. B. eine Farbe, die interaktiv anhand der Farbe des Pixels bestimmt wird, das durch den Auswahlpunkt angegeben wird, oder eine von der Hintergrundfarbe verschiedene Farbe. Verfahren zur Unterscheidung zwischen Vordergrund- und Hintergrundpixeln sind im Stand der Technik hinreichend bekannt, Z. B. EP 1 182 605 A .
  • Als erstes Vordergrundpixel wird ein Pixel gefunden, das durch den Auswahlpunkt angegeben wird, d. h. das Vordergrundpixel, das dem Ort des Auswahlpunktes entspricht oder in der Nähe des Auswahlpunktes liegt, wenn der Auswahlpunkt auf einem Hintergrundpixel in dem Metadatenelement liegt. Wenn der Auswahlpunkt auf einem Hintergrundpixel innerhalb eines vorbestimmten Abstands zu Vordergrundpunkten liegt, kann das System das angegebene Pixel zum Zweck der Auffindung von Pixeln, die das gewünschte Metadatenelement konstituieren, als ein Vordergrundpixel betrachten, d. h., den Auswahlpunkt aufgrund der Tatsache, daß er durch den Benutzer angegeben worden ist, als ein Vordergrundpixel (um)klassifizieren. Alternativ kann das System das nächstgelegene Vordergrundpixel als Auswahlpunkt auswählen. Wenn der Auswahlpunkt auf einem weit von Vordergrundpunkten entfernten Hintergrundpixel liegt, kann das System diese Auswahl als einen Befehl auffassen, einen aktuell ausgewählten Auswahlbereich für Metadaten zu löschen.
  • Auf der Grundlage des ersten Vordergrundpixels wird ein Bereich von Pixeln detektiert und als Teil der Metadaten aufgefaßt, und ein Extraktionsbereich wird um diesen Bereich herum gezeichnet und dem Benutzer angezeigt. Meta daten werden extrahiert, indem Pixel in dem Extraktionsbereich verarbeitet werden.
  • In einer Ausführungsform wird ein einziger Typ von Metadaten detektiert, z. B. Text, der für die Erzeugung eines Dateinamens für das eingescannte Dokument verwendet werden soll. Der Dateiname kann automatisch erzeugt werden, nachdem der Benutzer den Auswahlpunkt angegeben hat. Alternativ können die erkannten Metadaten und/oder der vorgeschlagene Dateiname dem Benutzer angezeigt werden, und es kann ein Bestätigungsbefehl verlangt werden, um die Metadaten endgültig zu akzeptieren.
  • 2 zeigt eine Vorrichtung zur Verarbeitung eines Dokuments und zur Extraktion von Metadaten. Die Vorrichtung umfaßt eine Eingabeeinheit 21 zur Eingabe eines digitalen Bildes. Die Eingabeeinheit kann eine Abtasteinheit zum Abtasten eines Bildes von physikalischen Dokumenten einschließen, etwa einen elektro-optischen Scanner, und/oder eine digitale Kommunikationseinheit zum Empfang des Bildes von einem Netzwerk wie etwa einem lokalen Netzwerk (LAN) oder dem Internet, und/oder eine Wiedergabeeinheit zur Wiedergabe von digitaler Information von einem Aufzeichnungsträger wie etwa einem optischen Plattenlaufwerk. Die Eingabeeinheit 21 ist mit einer Verarbeitungseinheit 24 verbunden, die mit einer Speichereinheit 22 zusammenwirkt. Die Speichereinheit kann eine Aufzeichnungseinheit beinhalten, zur Speicherung des Bildes und/oder der Metadaten auf einem Aufzeichnungsträger wie einem Magnetband oder einer optischen Platte. Die Verarbeitungseinheit kann eine zentrale Verarbeitungseinheit (CPU) eines Vielzweckrechners und unterstützende Schaltungen umfassen, die mit Software zur Ausführung der oben beschriebenen Metadatenextraktion arbeitet. Die Verarbeitungseinheit ist mit einer Benutzerschnittstelle 25 verbunden, die wenigstens eine Zeigeeinheit zur Angabe eines Auswahlpunktes in dem Bild aufweist. Die Benutzerschnittstelle kann Bedienungseinrichtungen wie etwa eine Tastatur, eine Maus oder Bedienungstasten umfassen. Die Verarbeitungseinheit ist mit einer Anzeigeeinheit 23 verbunden. Die Anzeigeeinheit umfaßt einen Anzeigeschirm zur Anzeige des Bildes und des Extraktionsbereiches, wie oben im Zusammenhang mit 1 erläutert wurde. Insbesondere können die Anzeigeeinheit und die Zeigeeinheit durch einen Touch Screen gebildet werden, der darauf reagiert, daß der Benutzer mit einem Finger auf das Metadatenelement in dem angezeigten Bild zeigt, um den Auswahlpunkt anzuge ben. Die Verarbeitungseinheit kann mit einer Druckereinheit zur Ausgabe eines verarbeiteten Bildes oder der Metadaten auf Papier verbunden sein. Die extrahierten Metadaten können mit dem Bild in einer Datenbank gespeichert werden, z. B. in der Speichereinheit 22 oder in einem gesonderten Computersystem.
  • Es ist zu bemerken, daß die Vorrichtung mit Hilfe von standardmäßigen Hardwarekomponenten für einen Computer und einem Computerprogramm aufgebaut sein kann, um den den Prozeß der Metadatenextraktion auszuführen, wie nachstehend beschrieben wird. Alternativ kann die Vorrichtung eine spezialisierte Hardwareeinrichtung sein, die eine Abtasteinheit, eine Verarbeitungseinheit und ein Display zur Ausführung der Metadatenextraktion enthält. Weiterhin kann der Abtastprozeß von dem interaktiven Prozeß der Metadatenextraktion getrennt sein, z. B. kann eine Abtasteinheit in einem Posteingangsraum über ein LAN mit einer Indizierstelle verbunden sein, die das Display und das Bedienungssystem enthält.
  • 3 zeigt ein Verfahren zur Extraktion von Metadaten. In einem ersten Schritt EINGABEBILD VORBEREITEN S31 wird das Bild als eine digitale Datei von Pixelwerten von z. B. einer Abtasteinrichtung empfangen. Der Schritt kann eine weitere Bildverarbeitung auf der Grundlage vorbestimmter Kenntnisse oder detektierter Eigenschaften des Bildes einschließen, etwa Verstärkung des Kontrasts, Bestimmung von Vordergrund- oder Hintergrundeigenschaften anhand einer globalen Statistik des Bildes, Drehen des Bildes und dergleichen. Dieser Schritt kann auch die Vorbereitung eines zusätzlichen Eingabebildes, das eine geringere Auflösung hat, für den Gebrauch bei der Bildanalyse in Schritt 34 einschließen (wird später beschrieben). Da das eingescannte Bild eine relativ hohe Auflösung hat, wird eine moderate Verringerung der Auflösung, Z. B. um einen Faktor von 2 bis 4, die Analyse normalerweise nicht verschlechtern, während sie die benötigte Verarbeitungsleistung reduziert. Das ursprüngliche hochaufgelöste Eingabebild wird immer noch für die Anzeige und die Zwecke der Datenextraktion verwendet.
  • In einem nächsten Schritt BILD ANZEIGEN S32 wird das Bild einem Benutzer auf einem Display gezeigt. Der Schritt kann das Auffinden eines relevanten Teils des Bildes für die Anzeige einschließen, z. B. den Teil des Bildes, der die ersten Textzeilen auf einer Seite enthält, die mit einem großen weißen Gebiet beginnt. In einem nächsten Schritt AUSWAHLPUNKT S33 wird eine Benutzeraktion erwartet, um einen Auswahlpunkt in dem Bild anzugeben, insbesondere in einem Metadatenelement. Eine symbolische Warteschleife L33 in der Zeichnung gibt an, daß das System auf eine Benutzeraktion wartet.
  • In einem nächsten Schritt VERBUNDENES GEBIET FINDEN S34 werden die Pixel um den Auswahlpunkt herum analysiert, um die Vordergrundpixel zu finden, die innerhalb eines Verbindungsbereiches liegen, wie nachstehend in Verbindung mit 4 erläutert werden wird. In einem nächsten Schritt EXTRAKTIONSBEREICH ANZEIGEN S35 wird ein Extraktionsbereich angezeigt, der das verbundene Gebiet abdeckt. Der Extraktionsbereich kann als eine rechteckige Fläche dargestellt werden, die gerade das verbundene Gebiet enthält, eine hervorgehobene Fläche, oder irgendein anderes geeignetes Anzeigemerkmal. Der Extraktionsbereich kann auch an den Typ der Metadaten angepaßt sein, etwa als eine Grenze auf Wörtern in einem größeren Textfragment, wie mit Bezug auf 6 beschrieben werden wird.
  • Es ist zu bemerken, daß der Benutzer einen Auswahlpunkt aktiv eingeben kann, z. B. durch Klicken einer Maustaste, wenn sich der Cursor auf dem gewünschten Metadatenelement befindet, oder durch Tippen mit einem Finger auf einen Touch Screen. Das System kann jedoch auch automatisch einen vorgeschlagenen Extraktionsbereich anzeigen, sobald der Benutzer ein Zeigeelement (etwa einen Cursor) in der Nähe eines Vordergrundobjekts positioniert, oder nach einer bestimmten (kurzen) Wartezeit. In dem automatischen Modus sind die Schritte AUSWAHLPUNKT S33, VERBUNDENES GEBIET FINDEN S34 und EXTRAKTIONSBEREICH ANZEIGEN S35 kombiniert. Der Cursor kann als ein spezielles Symbol dargestellt werden, das den automatischen Modus anzeigt, z. B. durch Hinzufügen eines kleinen Rechtecks zu dem Cursorsymbol. Der Benutzer kann den Auswahlpunkt auf der Grundlage der visuellen Rückkopplung durch den vorgeschlagenen Extraktionsbereich bestimmen.
  • Auf der Grundlage des angezeigten Extraktionsbereiches kann der Benutzer verifizieren, daß der Extraktionsbereich die gewünschten Metadatenelemente abdeckt. In einem nächsten Schritt ENDGÜLTIGER BEREICH S36 bestätigt der Benutzer den angezeigten Extraktionsbereich, z. B. durch einen Mausbefehl oder implizit durch Eingabe eines nächsten Dokuments.
  • Wie durch eine symbolische Schleife L36 angedeutet wird, kann der Benutzer den vorgeschlagenen Extraktionsbereich auch anpassen, wie in Verbindung mit 5 oder 6 erläutert wird. Zum Beispiel kann der Benutzer einen zweiten Punkt angeben, der ebenfalls in dem Extraktionsbereich enthalten sein muß, oder der Benutzer gibt eine Erweiterung des vorgeschlagenen Extraktionsbereiches an, indem er mit dem Zeigeelement von dem Auswahlpunkt in eine Richtung zieht, in der er den Extraktionsbereich erweitern möchte. Als Reaktion auf die Anpassung kann das Display den endgültigen Bereich zeigen.
  • In einem nächsten Schritt METADATEN EXTRAHIEREN S37 wird der endgültig bestätigte Extraktionsbereich verarbeitet, um die Metadatenelemente zu detektieren und zu erkennen, z. B. Wörter durch OCR. Das Resultat kann auf dem Display in einem Textfeld angezeigt werden. Der Schritt S37 METADATEN EXTRAHIEREN kann einschließen, daß eine Ergänzung des Auswahlbefehls empfangen wird, mit welcher der Benutzer angibt, daß ein bestimmter Metadatentyp zugewiesen werden soll, wie z. B. "Titel", "Autor", "Zusammenfassung", etc. Zum Beispiel kann der Benutzer einen bestimmten Knopf aktivieren, um Metadaten in dem Extraktionsbereich als den Titel des Dokuments einzugeben.
  • 4A, B und C zeigen das Wachstum eines Gebietes von dem Auswahlpunkt aus. Der Benutzer gibt den Auswahlpunkt in dem Bild an, und dann wird ein Gebiet wie folgt gebildet. Ein Anfangs-Vordergrundpixel wird am Auswahlpunkt ausgewählt. Wenn der Auswahlpunkt auf einem Hintergrundpixel, jedoch innerhalb eines vorbestimmten Abstands zu einem Vordergrundpixel liegt, so kann dieses Vordergrundpixel als ein Anfangspixel verwendet werden.
  • 4A zeigt ein Gebiet, das mit einem Verbindungsabstand von einem Pixel wächst. Ein detaillierter Teil eines Bildes 41 ist in vier Wachstumsphasen des Gebietes dargestellt, wobei einzelne Pixel als weiß (Hintergrund) oder grau (Vordergrund) erscheinen. Der Benutzer hat einen Auswahlpunkt 40 angegeben, der durch einen schwarzen Punkt dargestellt ist. Das Gebietswachstum beginnt an dem Pixel, das dem Auswahlpunkt 40 entspricht, und zunächst ist ein Anfangsgebiet 42 mit nur einem Pixel gezeigt. Es wird angenommen, daß der Verbindungsabstand für das Wachstum ein Pixel beträgt, d. h. es werden keine zwischenliegenden Hintergrundpixel zugelassen. In der zweiten Wachstumsphase ist ein zweites Gebiet 43 gezeigt, das nach unten erweitert ist, um direkt verbundene Pixel einzuschließen. In einer dritten Wachstumsphase ist ein drittes Gebiet 44 gezeigt, das nach rechts erweitert ist, um direkt verbundene Pixel einzuschließen. In einer vierten Wachstumsphase ist ein viertes Gebiet 45 gezeigt, das wiederum nach rechts erweitert ist, um direkt verbundene Pixel einzuschließen. Da keine weiteren Vordergrundpixel innerhalb des Verbindungsabstands (= 1) liegen, hält das Gebietswachstum an. Es ist zu bemerken, daß ein rechteckiger Bereich als eine gestrichelte Linie um die Wachstumsgebiete 42, 43, 44 und 45 herum gezeichnet ist. Dieser Bereich enthält auch Hintergrundpixel. Nach Abschluß des Gebietswachstumsprozesses kann der gezeichnete Bereich der vorgeschlagene Extraktionsbereich sein.
  • 4B zeigt ein Gebietswachstum mit einem Verbindungsabstand von zwei Pixeln. Es ist das gleiche Detail eines Bildes wie in 4A gezeigt. Der Verbindungsabstand ist auf zwei Pixel erhöht, und deshalb werden einzelne zwischenliegende Hintergrundpixel überbrückt. Der resultierende rechteckige Bereich 46 enthält die Vordergrundpixel, die einen Verbindungsabstand von zwei haben. Der Benutzer kann den resultierenden Bereich bestätigen oder entscheiden, daß der rechteckige Bereich zu klein ist. In dem Fall ergänzt der Benutzer seinen Auswahlbefehl. Dazu kann der Benutzer einen zweiten Auswahlpunkt 47 in einem weiteren Vordergrundteil des Bildes angeben, z. B. indem er auf die neue Stelle zeigt oder von dem Auswahlpunkt 46 zu dem zweiten Auswahlpunkt 47 zieht. Die Ergänzung des Auswahlbefehls wird von der Verarbeitungseinheit 24 in einen größeren Verbindungsabstand übersetzt, der gerade genügt, den zweiten Auswahlpunkt 47 zu dem Auswahlbereich hinzuzufügen. Das kann dazu führen, daß der Auswahlbereich auch in anderen Richtungen erweitert wird.
  • In einer Ausführungsform kann der Benutzer wiederholt auf dieselbe Stelle klicken oder zeigen, um den Verbindungsabstand zu vergrößern.
  • 4C zeigt ein Gebietswachstum mit einem Verbindungsabstand von drei Pixeln. Es ist das gleiche Detail eines Bildes wie in 4B gezeigt. Der Verbindungsabstand ist auf drei Pixel erhöht, und deshalb werden bis zu zwei zwischenliegende Hintergrundpixel überbrückt. Der resultierende rechteckige Bereich 48 enthält den zweiten Auswahlpunkt 47. Es ist zu bemerken, daß der Gebietswachstumsprozeß auch an die erhaltenen Resultate angepaßt werden kann oder Lernoptionen enthalten kann, z. B., daß ein größerer Verbindungsabstand benutzt wird, wenn der Benutzer in den meisten Fällen den Bereich vergrößern muß. Ebenso kann der Prozeß einschließen, daß, wenn ein verbundenes Gebiet unterhalb einer vorbestimmten Größe gefunden wird, der Verbindungsabstand automatisch vergrößert wird, um mindestens die vorbestimmte Größe zu erreichen.
  • In einer weiteren Ausführungsform des Gebietswachstumsprozesses ist der Verbindungsabstand für unterschiedliche Richtungen verschieden. Zum Beispiel kann der Verbindungsabstand in horizontaler Richtung größer sein als der Verbindungsabstand in vertikaler Richtung. Für gewöhnliche Textdokumente führt dies dazu, daß Wörter in einer Textzeile robuster verbunden werden, ohne daß die Textzeile mit der nächsten oder vorherigen Zeile verbunden wird. In einem Verarbeitungsschritt kann eine Leserichtung bestimmt werden, z. B. durch Analyse des Layouts von Hintergrundpixeln. Der Verbindungsabstand kann von der Leserichtung, z. B. von links nach rechts, abhängig sein, und vom Auswahlpunkt aus nach rechts kann der Verbindungsabstand größer sein.
  • In einer Ausführungsform des Gebietswachstumsprozesses wird der Verbindungsabstand in Abhängigkeit von einer Auswahlrichtung angepaßt, die über die Ergänzung des Auswahlbefehls eingegeben wird. Der vorgeschlagene Extraktionsbereich wird dem Benutzer angezeigt, und der Benutzer wird leicht erkennen, daß der Extraktionsbereich in einer bestimmten Richtung erweitert werden muß. Der Benutzer kann die Auswahlrichtung angeben, indem er ein Auswahlmittel (Cursor oder einen Finger auf einem Touch Screen) von dem Auswahlpunkt aus in der Auswahlrichtung zieht. Es ist zu bemerken, daß die Zunahme des Verbindungsabstands aus der Weite des Zuges vom ersten Auswahlpunkt aus abgeleitet werden kann.
  • Zusätzlich zur Steuerung des Extraktionsbereiches auf der Grundlage des Gebietswachstums kann die Vorrichtung weitere Optionen zur Anpassung des Extraktionsbereiches bieten. Die Auswahl des Extraktionsbereiches kann eine Anpassung der Form des Extraktionsbereiches über die Ergänzung des Auswahlbefehls einschließen, wie im folgenden beschrieben wird.
  • 5 zeigt die Anpassung eines Extraktionsbereiches für Metadaten. Anfangs wird dem Benutzer ein rechteckiger Extraktionsbereich 50 gezeigt. Die Form des Extraktionsbereiches kann durch steuerbare Elemente 52, 53 des vorgeschlagenen Extraktionsbereiches verändert werden. Der Benutzer gibt eine Ergänzung des Auswahlbefehls ein, indem er eines der steuerbaren Elemente bewegt. Die steuerbaren Elemente werden dem Benutzer durch zusätzliche Symbole angezeigt, z. B. kleine Quadrate, die zu den Seiten und Ecken des Extraktionsbereiches 50 hinzugefügt werden. Der Benutzer kann z. B. die obere Seite des Extraktionsbereiches 50 ziehen. Das Resultat kann darin bestehen, daß der Extraktionsbereich nur nach oben erweitert wird. Durch Manipulation der steuerbaren Ecke 53 werden die entsprechenden linken und unteren Seiten bewegt. Mögliche neue Positionen der Seiten und Ecken können während der Manipulation als gestrichelte Linien 51 angezeigt werden. Nach der endgültigen Auswahl des Bereiches wird die neue Position der Seiten und Ecken in durchgezogenen Linien dargestellt. Es ist zu bemerken, daß andere visuelle Elemente dazu eingesetzt werden können, die Steueroptionen darzustellen, z. B. Farben, Blinken und dergleichen.
  • In einer Ausführungsform können alle vier Seiten simultan erweitert oder geschrumpft werden, Z. B. durch Manipulation eines dafür vorgesehenen Symbols. Die Form des Extraktionsbereiches kann angepaßt werden, indem die Größe des Extraktionsbereiches über ein ergänzendes Benutzer-Steuerereignis wie etwa das Klicken einer Maustaste vergrößert oder verkleinert wird.
  • 6 zeigt die Anpassung der Form eines nicht rechteckigen Extraktionsbereiches. Es ist ein Extraktionsbereich 60 gezeigt, der für die Auswahl eines Teils eines Textfragments konstruiert ist. Diese Auswahl beginnt an einem Wort in der Mitte einer Zeile und endet auch in der Mitte einer Zeile. Es wird ein Spaltenlayout des Texts angenommen. Vertikale Seiten können leicht detektiert werden und mögen nicht einmal durch den Benutzer steuerbar sein. Die untere Seite 61 hat zwei horizontale Teile und einen mittleren vertikalen Teil. Insbesondere kann der mittlere vertikale Teil zu einer Stelle in den Textzeilen hinter dem letzten Wort gezogen werden, das in die Metadaten einbezogen werden soll.
  • Nachdem der Extraktionsbereich endgültig festgelegt worden ist, können die Metadaten durch OCR (Optical Character Recognition) extrahiert und verar beitet werden. Der Benutzer kann einen Typ von Metadaten zuweisen, z.B. durch Betätigen einer Taste oder durch Auswahl einer Menüoption, wie in 7 gezeigt ist und weiter unten erläutert wird. Die extrahierten Metadaten und zugewiesenen Typen werden in eine Datenbank eingegeben und können zum Indizieren und/oder zum Erkennen der Dokumente in der Datenbank benutzt werden.
  • In einer Ausführungsform dient die Festlegung des Extraktionsbereiches und die Extraktion der Metadaten dazu, einen Dateinamen zu bestimmen, der an ein gescanntes Dokument angehängt werden soll. Der Extraktionsbereich kann unter Berücksichtigung der Anforderungen an einen Dateinamen vorgeschlagen werden, z. B. daß er eine minimale und eine maximale Länge haben muß. Der Extraktionsprozeß kann einschließen, daß die Textzeichenkette so angepaßt wird, daß sie mit Regeln für Dateinamen in Übereinstimmung gebracht wird, z.B. Beseitigung von verbotenen Zeichen und Verhindern, daß derselbe Dateiname erneut verwendet wird. Weitere Identifizierungsdaten wie ein Kalenderdatum oder eine Zeit können hinzugefügt werden. Ein eingescanntes Dokument kann unter Verwendung des gebildeten Dateinamens automatisch gespeichert werden.
  • 7 zeigt ein Display eines Bildes, eines Extraktionsbereiches und eines Menüs. Ein Bild 70 eines eingescannten Dokuments wird einem Benutzer angezeigt. Es ist ein Extraktionsbereich 71 ausgewählt worden, insbesondere ist ein Textfragment, das eine Zusammenfassung ("Abstract") zu sein scheint, in dem Extraktionsbereich 71 eingeschlossen. Der Benutzer hat den Extraktionsbereich bestätigt, und nun wird ein neues Steuerelement angezeigt, z. B. ein Aufklappmenü 72, das durch einen Klick auf die rechte Maustaste aktiviert wird. Das Menü bietet zusätzlich zu weiteren Befehlen wie etwa "Löschen der Auswahl" (Unselect) verschiedene Typen von Metadaten an, die zugewiesen werden können. Durch Verwendung der <Control> Taste auf einer Tastatur können auch Kurzbefehle bereitgestellt werden.
  • Die Auswahl des Typs der Metadaten beendet den interaktiven Prozeß der Metadatenextraktion. Die Metadaten können nun für die weitere Verarbeitung verfügbar gemacht werden, z. B. zum Speichern in einer Datenbank.
  • Obgleich die Erfindung in der Hauptsache durch Ausführungsformen erläutert wurde, bei denen Textelemente verwendet werden, die die Metadaten in dem digitalen Bild repräsentieren, ist die Erfindung auch für irgendeine Wiedergabe von Metadateninformation geeignet, etwa durch Symbole, Logos oder andere Bildelemente, die sich kategorisieren lassen, wie z. B. Portraits.

Claims (28)

  1. Verfahren zur Extraktion von Metadaten aus einem Dokumentbild aus Pixeln, bei dem die Pixel einen Wert haben, der die Intensität und/oder Farbe eines Bildelements repräsentiert, und Vordergrundpixel umfassen, die auf der Grundlage ihrer Werte eine Vordergrundeigenschaft haben, welches Verfahren umfaßt: – Anzeigen wenigstens eines Teils des Bildes auf einem Anzeigeschirm für einen Benutzer, – Empfangen eines Auswahlbefehls für einen Bereich des Bildes von einem Benutzer, wobei dieser Bereich Metadaten enthält, – Bestimmen eines Extraktionsbereiches innerhalb des Bildes auf der Grundlage des Auswahlbefehls des Benutzers und – Extrahieren der Metadaten durch Verarbeitung von Pixeln in dem Extraktionsbereich, dadurch gekennzeichnet, daß der Schritt der Bestimmung eines Extraktionsbereiches innerhalb des Bildes umfaßt, daß der Extraktionsbereich als ein verbundenes Gebiet aus Vordergrundpixeln in einer einstufigen Prozedur aufgebaut wird, mit, beginnend an einem Auswahlpunkt, der als Teil des Auswahlbefehls des Benutzers in dem angezeigten Teil des Bildes angegeben wird, fortschreitendem Einbeziehen aller Vordergrundpixel, die innerhalb eines vorbestimmten Verbindungsabstands zu wenigstens einem anderen Vordergrundpixel liegen, das in das verbundene Gebiet einbezogen ist.
  2. Verfahren nach Anspruch 1, bei dem der Verbindungsabstand in Abhängigkeit von einer Verbindungsrichtung eingestellt wird, wobei die Verbindungsrichtung insbesondere horizontal, vertikal oder eine angenommene Leserichtung ist.
  3. Verfahren nach Anspruch 1 oder 2, bei dem das eingegebene Dokumentbild auf eine geringere Auflösung konvertiert wird und die Schritte der Klassifikation der Pixel und der Bestimmung eines Extraktionsbereiches an dem Bild mit geringerer Auflösung vorgenommen werden.
  4. Verfahren nach Anspruch 1, 2 oder 3, bei dem die Bestimmung des Extraktionsbereiches die Anzeige eines vorgeschlagenen Extraktionsbereiches einschließt.
  5. Verfahren nach Anspruch 1, mit Empfang einer Ergänzung zu dem Auswahlbefehl, zur Anpassung des Verbindungsabstands.
  6. Verfahren nach Anspruch 5, mit automatischer Anpassung des Verbindungsabstands in Abhängigkeit von der Ergänzung des Auswahlbefehls, wobei die Ergänzung des Auswahlbefehls einschließt, daß der Benutzer einen weiteren Auswahlpunkt angibt.
  7. Verfahren nach Anspruch 6, mit automatischer Anpassung des Verbindungsabstands in Abhängigkeit von einer Auswahlrichtung, die als Ergänzung des Auswahlbefehls empfangen wird, wobei die Auswahlrichtung dadurch definiert wird, daß der Benutzer ein Auswahlmittel über dem Anzeigeschirm zieht.
  8. Verfahren nach Anspruch 4, bei dem die Bestimmung eines Extraktionsbereiches die Anpassung des vorgeschlagenen Extraktionsbereiches auf einen Benutzerbefehl hin einschließt.
  9. Verfahren nach Anspruch 8, mit Bereitstellen von steuerbaren Elementen des vorgeschlagenen Extraktionsbereiches, insbesondere Seiten und/oder Ecken, wobei der Benutzerbefehl das Bewegen der steuerbaren Elemente einschließt.
  10. Verfahren nach Anspruch 8, bei dem die Einstellung des vorgeschlagenen Extraktionsbereiches das Vergrößern oder Verringern der Größe des Extraktionsbereiches durch ein ergänzendes Benutzer-Steuerereignis wie etwa das Klicken einer Maustaste oder die Betätigung eines Mausrades einschließt.
  11. Verfahren nach Anspruch 1, bei dem der Auswahlbefehl eine Ergänzung des Auswahlbefehls zum Zuweisen eines Metadatentyps zu den extrahierten Metadaten einschließt.
  12. Verfahren nach Anspruch 11, bei dem die extrahierten Metadaten und die zugewiesenen Typen als Indexdaten für ein Dokument in eine Datenbank eingegeben werden.
  13. Verfahren nach Anspruch 1, mit: – Extrahieren von Metadaten als eine Textzeichenkette und – Zuweisen der Textzeichenkette zur Bildung eines Dateinamens für eine Datei oder eines Betreff-Namens für eine das Bild enthaltende e-Mail-Nachricht.
  14. Computerprogrammprodukt zur Extraktion von Metadaten aus einem aus Pixeln bestehenden Dokumentbild, welches Programm einen Prozessor dazu veranlaßt, das Verfahren nach einem der Ansprüche 1 bis 13 auszuführen.
  15. Vorrichtung zur Extraktion von Metadaten aus einem Dokumentbild aus Pixeln, bei dem die Pixel einen Wert haben, der die Intensität und/oder Farbe eines Bildelements repräsentiert, und Vordergrundpixel umfassen, die auf der Grundlage ihrer Werte eine Vordergrundeigenschaft haben, welches Vorrichtung umfaßt: – eine Eingabeeinrichtung (21) zum Empfang des Bildes, – ein Display (23) zur Anzeige wenigstens eines Teils des Bildes für einen Benutzer, – eine Benutzerschnittstelle zum Empfang eines Auswahlbefehls für einen Bereich (14) des Bildes von einem Benutzer, wobei dieser Bereich (14) Metadaten (11) enthält, und – eine Verarbeitungseinheit (24) zum – Bestimmen eines Extraktionsbereiches innerhalb des Bildes auf der Grundlage des Auswahlbefehls des Benutzers und – Extrahieren der Metadaten durch Verarbeitung von Pixeln in dem Extraktionsbereich, dadurch gekennzeichnet, daß die Verarbeitungseinheit (24) dazu ausgebildet ist, den Extraktionsbereich als ein verbundenes Gebiet aus Vordergrundpixeln in einer einstufigen Prozedur aufzubauen, wobei beginnend an einem Auswahlpunkt, der als Teil des Auswahlbefehls des Benutzers in dem angezeigten Teil des Bildes angegeben wird, fortschreitend aller Vordergrundpixel einbezogen werden, die innerhalb eines vorbestimmten Verbindungsabstands zu wenigstens einem anderen Vordergrundpixel liegen, das in das verbundene Gebiet einbezogen ist.
  16. Vorrichtung nach Anspruch 15, bei der die Verarbeitungseinheit (24) dazu ausgebildet ist, den Verbindungsabstand in Abhängigkeit von einer Verbindungsrichtung einzustellen, wobei die Verbindungsrichtung insbesondere horizontal, vertikal oder eine angenommene Leserichtung ist.
  17. Vorrichtung nach Anspruch 15 oder 16, bei der die Verarbeitungseinheit (24) dazu ausgebildet ist, das eingegebene Dokumentbild auf eine geringere Auflösung zu konvertieren und die Klassifikation der Pixel und die Bestimmung eines Extraktionsbereiches an dem Bild mit geringerer Auflösung vorzunehmen.
  18. Vorrichtung nach einem der Ansprüche 15 bis 17, bei der die Verarbeitungseinheit (24) dazu ausgebildet ist, den Extraktionsbereich durch Anzeige eines vorgeschlagenen Extraktionsbereiches auf dem Display (23) zu bestimmen.
  19. Vorrichtung nach Anspruch 15, bei der die Verarbeitungseinheit (24) dazu ausgebildet ist, eine Ergänzung zu dem Auswahlbefehl zur Anpassung des Verbindungsabstands zu empfangen.
  20. Vorrichtung nach Anspruch 19, bei der die Verarbeitungseinheit (24) den Verbindungsabstand in Abhängigkeit von der Ergänzung des Auswahlbefehls, insbesondere einem von dem Benutzer angegebenen weiteren Auswahlpunkt, anpaßt.
  21. Vorrichtung nach Anspruch 20, bei der die Verarbeitungseinheit (24) den Verbindungsabstand in Abhängigkeit von einer Auswahlrichtung anpaßt, die als Ergänzung des Auswahlbefehls empfangen wird, wobei die Auswahlrichtung dadurch definiert wird, daß der Benutzer ein Auswahlmittel über dem Anzeigeschirm zieht.
  22. Vorrichtung nach Anspruch 18, bei der die Verarbeitungseinheit (24) die Form des vorgeschlagenen Extraktionsbereiches auf einen Benutzerbefehl hin anpaßt.
  23. Vorrichtung nach Anspruch 22, bei der die Verarbeitungseinheit (24) den vorgeschlagenen Extraktionsbereich auf dem Display (23) mit steuerbaren Elementen bereitstellt, insbesondere Seiten und/oder Ecken, um es dem Benutzer zu ermöglichen, die Form des vorgeschlagenen Extraktionsbereiches anzupassen.
  24. Vorrichtung nach Anspruch 22, bei der die Verarbeitungseinheit (24) die Größe des vorgeschlagenen Extraktionsbereiches als Reaktion auf ein ergänzendes Benutzer-Steuerereignis wie etwa das Klicken einer Maustaste vergrößert oder verringert.
  25. Vorrichtung nach Anspruch 15, bei der die Benutzerschnittstelle (25) dazu ausgebildet ist, eine Ergänzung des Auswahlbefehls zum Zuweisen eines Metadatentyps zu den extrahierten Metadaten zu empfangen.
  26. Vorrichtung nach Anspruch 25, bei der die Verarbeitungseinheit (24) dazu ausgebildet ist, die extrahierten Metadaten und die zugewiesenen Typen als Indexdaten für ein Dokument in eine Datenbank einzugeben.
  27. Vorrichtung nach Anspruch 15, bei der die Verarbeitungseinheit (24) dazu ausgebildet ist, – Metadaten als eine Textzeichenkette zu extrahieren und – die Textzeichenkette zur Bildung eines Dateinamens für eine Datei zuzuweisen.
  28. Vorrichtung nach Anspruch 15, bei der die Eingabeeinrichtung (21) eine elektro-optische Abtasteinrichtung einschließt.
DE602004006682T 2003-08-20 2004-08-13 Extraktion von Metadaten aus gekennzeichneten Bereichen eines Dokuments Active DE602004006682T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP03077643 2003-08-20
EP03077643 2003-08-20

Publications (2)

Publication Number Publication Date
DE602004006682D1 DE602004006682D1 (de) 2007-07-12
DE602004006682T2 true DE602004006682T2 (de) 2008-01-31

Family

ID=34178536

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004006682T Active DE602004006682T2 (de) 2003-08-20 2004-08-13 Extraktion von Metadaten aus gekennzeichneten Bereichen eines Dokuments

Country Status (6)

Country Link
US (1) US7756332B2 (de)
EP (1) EP1510962B1 (de)
JP (2) JP4970714B2 (de)
CN (2) CN100382096C (de)
AT (1) ATE363700T1 (de)
DE (1) DE602004006682T2 (de)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10342594B4 (de) 2003-09-15 2005-09-15 Océ Document Technologies GmbH Verfahren und System zum Erfassen von Daten aus mehreren maschinell lesbaren Dokumenten
US20060004745A1 (en) * 2004-06-04 2006-01-05 Agfa Corporation Structured reporting report data manager
US7475336B2 (en) * 2004-08-11 2009-01-06 Kabushiki Kaisha Toshiba Document information processing apparatus and document information processing program
JP4536461B2 (ja) * 2004-09-06 2010-09-01 株式会社沖データ 画像処理装置
US8495061B1 (en) 2004-09-29 2013-07-23 Google Inc. Automatic metadata identification
EP1729235A1 (de) * 2005-06-03 2006-12-06 Agfa Corporation Berichtdatenmanager mit strukturierten Berichten
US20060290789A1 (en) * 2005-06-22 2006-12-28 Nokia Corporation File naming with optical character recognition
DE102005032046A1 (de) * 2005-07-08 2007-01-11 Océ Document Technologies GmbH Verfahren, System und Computerprogramm-Produkt zum Übertragen von Daten aus einer Dokumentenanwendung in eine Datenanwendung
US20070035780A1 (en) * 2005-08-02 2007-02-15 Kabushiki Kaisha Toshiba System and method for defining characteristic data of a scanned document
US7765184B2 (en) * 2005-09-22 2010-07-27 Nokia Corporation Metadata triggered notification for content searching
JP4856925B2 (ja) * 2005-10-07 2012-01-18 株式会社リコー 画像処理装置、画像処理方法及び画像処理プログラム
JP2007249429A (ja) * 2006-03-14 2007-09-27 Ricoh Co Ltd 電子メール編集装置、画像形成装置、電子メール編集方法、およびその方法をコンピュータに実行させるプログラム
JP5078413B2 (ja) * 2006-04-17 2012-11-21 株式会社リコー 画像閲覧システム
US10380231B2 (en) * 2006-05-24 2019-08-13 International Business Machines Corporation System and method for dynamic organization of information sets
US8768983B2 (en) * 2006-10-04 2014-07-01 International Business Machines Corporation Dynamic configuration of multiple sources and source types in a business process
US20080162602A1 (en) * 2006-12-28 2008-07-03 Google Inc. Document archiving system
JP4501016B2 (ja) * 2007-03-22 2010-07-14 村田機械株式会社 原稿読取装置
EP2015554B1 (de) 2007-07-13 2012-05-16 Ricoh Company, Ltd. Verfahren zur Erzeugung von Benutzerschnittstellen, Bildgebungsvorrichtung und Computerprogrammprodukt
US8144988B2 (en) * 2007-09-06 2012-03-27 Ricoh Company, Ltd. Document-image-data providing system, document-image-data providing device, information processing device, document-image-data providing method, information processing method, document-image-data providing program, and information processing program
US8194982B2 (en) * 2007-09-18 2012-06-05 Ricoh Company, Ltd. Document-image-data providing system, document-image-data providing device, information processing device, document-image-data providing method, information processing method, document-image-data providing program, and information processing program
US8510312B1 (en) * 2007-09-28 2013-08-13 Google Inc. Automatic metadata identification
US8009316B2 (en) * 2007-10-26 2011-08-30 Ricoh Production Print Solutions LLC Methods and apparatus for efficient sheetside bitmap processing using meta-data information
JP4604100B2 (ja) * 2008-03-21 2010-12-22 シャープ株式会社 画像処理方法、画像処理装置、画像形成装置、プログラムおよび記憶媒体
JP4909311B2 (ja) * 2008-03-31 2012-04-04 富士通フロンテック株式会社 文字認識装置
KR101023309B1 (ko) 2008-03-31 2011-03-18 후지츠 프론테크 가부시키가이샤 문자 인식 장치
CN101577832B (zh) * 2008-05-06 2012-03-21 联咏科技股份有限公司 用于加强文字显示效果的图像处理电路及其方法
US20090279127A1 (en) * 2008-05-08 2009-11-12 Infoprint Solutions Company Llc Mechanism for data extraction of variable positioned data
TWI423052B (zh) * 2008-07-04 2014-01-11 Hon Hai Prec Ind Co Ltd 資料庫主動掃描系統及方法
US8682072B2 (en) * 2008-12-30 2014-03-25 Yahoo! Inc. Image segmentation
JP2010252266A (ja) * 2009-04-20 2010-11-04 Olympus Imaging Corp 画像整理装置
JP5340847B2 (ja) * 2009-07-27 2013-11-13 株式会社日立ソリューションズ 文書データ処理装置
US8542198B2 (en) * 2009-08-24 2013-09-24 Xerox Corporation Multi-touch input actual-size display screen for scanned items
KR101164353B1 (ko) * 2009-10-23 2012-07-09 삼성전자주식회사 미디어 콘텐츠 열람 및 관련 기능 실행 방법과 장치
KR20120033718A (ko) * 2010-09-30 2012-04-09 삼성전자주식회사 화상형성장치 및 그 장치에서의 이메일 전송 방법
CN102147684B (zh) * 2010-11-30 2014-04-23 广东威创视讯科技股份有限公司 一种触摸屏屏幕扫描方法及其系统
CN102253746B (zh) * 2011-06-23 2017-05-03 中兴通讯股份有限公司 用于具有触控屏的电子设备的信息处理方法及设备
CN102855264B (zh) * 2011-07-01 2015-11-25 富士通株式会社 文档处理方法及其装置
US9292537B1 (en) 2013-02-23 2016-03-22 Bryant Christopher Lee Autocompletion of filename based on text in a file to be saved
JP2014174923A (ja) * 2013-03-12 2014-09-22 Ricoh Co Ltd 文書処理装置、文書処理方法、および文書処理プログラム
JP6163839B2 (ja) 2013-04-09 2017-07-19 富士通株式会社 電子機器および複写制御プログラム
US10325511B2 (en) 2015-01-30 2019-06-18 Conduent Business Services, Llc Method and system to attribute metadata to preexisting documents
US20170039683A1 (en) * 2015-08-06 2017-02-09 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium
US10810240B2 (en) 2015-11-06 2020-10-20 RedShred LLC Automatically assessing structured data for decision making
CN107229932B (zh) * 2016-03-25 2021-05-28 阿里巴巴集团控股有限公司 一种图像文本的识别方法和装置
JP6891073B2 (ja) * 2017-08-22 2021-06-18 キヤノン株式会社 スキャン画像にファイル名等を設定するための装置、その制御方法及びプログラム
JP7043929B2 (ja) * 2018-03-29 2022-03-30 株式会社リコー 情報処理システムおよび情報処理方法
US11210507B2 (en) 2019-12-11 2021-12-28 Optum Technology, Inc. Automated systems and methods for identifying fields and regions of interest within a document image
US11227153B2 (en) 2019-12-11 2022-01-18 Optum Technology, Inc. Automated systems and methods for identifying fields and regions of interest within a document image
KR20210094483A (ko) * 2020-01-21 2021-07-29 캐논 가부시끼가이샤 문서를 전자화하는 화상 처리 시스템, 그 제어 방법, 및 저장 매체
JP7434001B2 (ja) 2020-03-13 2024-02-20 キヤノン株式会社 情報処理装置、プログラム、情報処理方法
CN111949230B (zh) * 2020-08-10 2022-07-05 智业软件股份有限公司 一种基于LibreOffice文档的覆盖打印方法、终端设备及存储介质
US11960816B2 (en) 2021-01-15 2024-04-16 RedShred LLC Automatic document generation and segmentation system

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04276855A (ja) 1991-03-04 1992-10-01 Nippon Telegr & Teleph Corp <Ntt> 文書保管方式
JPH04276885A (ja) * 1991-03-04 1992-10-01 Sumitomo Electric Ind Ltd 文字切出し装置
JP3285686B2 (ja) * 1993-06-29 2002-05-27 株式会社リコー 領域分割方法
JPH08166959A (ja) * 1994-12-12 1996-06-25 Canon Inc 画像処理方法
JPH09128479A (ja) * 1995-11-01 1997-05-16 Ricoh Co Ltd 領域分割方法及び領域分割装置
US5761686A (en) * 1996-06-27 1998-06-02 Xerox Corporation Embedding encoded information in an iconic version of a text image
CN1266646C (zh) * 1997-09-19 2006-07-26 王永民 名片管理器及其操作系统
JP3773642B2 (ja) * 1997-12-18 2006-05-10 株式会社東芝 画像処理装置および画像形成装置
AUPP400998A0 (en) * 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
US6353823B1 (en) * 1999-03-08 2002-03-05 Intel Corporation Method and system for using associative metadata
JP2001084332A (ja) * 1999-09-10 2001-03-30 Toshiba Corp 読取装置と読取方法
US6360951B1 (en) * 1999-12-16 2002-03-26 Xerox Corporation Hand-held scanning system for heuristically organizing scanned information
FR2806814B1 (fr) * 2000-03-22 2006-02-03 Oce Ind Sa Procede de reconnaissance et d'indexation de documents
NL1015943C2 (nl) 2000-08-16 2002-02-19 Ocu Technologies B V Interpretatie van gekleurde documenten.
KR100411894B1 (ko) * 2000-12-28 2003-12-24 한국전자통신연구원 문서영상 영역해석 방법
US6804684B2 (en) * 2001-05-07 2004-10-12 Eastman Kodak Company Method for associating semantic information with multiple images in an image database environment
EP1256900A1 (de) * 2001-05-09 2002-11-13 Requisite Technology Inc. Datenbankeingabesystem und -methode mit optischer Zeichenerkennung
US7432940B2 (en) * 2001-10-12 2008-10-07 Canon Kabushiki Kaisha Interactive animation of sprites in a video production
US7043474B2 (en) * 2002-04-15 2006-05-09 International Business Machines Corporation System and method for measuring image similarity based on semantic meaning
US7050629B2 (en) * 2002-05-31 2006-05-23 Intel Corporation Methods and systems to index and retrieve pixel data
GB2399245B (en) * 2003-03-03 2005-07-27 Motorola Inc Method for segmenting an image and an image transmission system and image transmission unit therefor
US7236632B2 (en) * 2003-04-11 2007-06-26 Ricoh Company, Ltd. Automated techniques for comparing contents of images

Also Published As

Publication number Publication date
JP4970714B2 (ja) 2012-07-11
CN100382096C (zh) 2008-04-16
JP2005071349A (ja) 2005-03-17
DE602004006682D1 (de) 2007-07-12
US7756332B2 (en) 2010-07-13
EP1510962A1 (de) 2005-03-02
CN1839396A (zh) 2006-09-27
US20050041860A1 (en) 2005-02-24
EP1510962B1 (de) 2007-05-30
ATE363700T1 (de) 2007-06-15
CN1604120A (zh) 2005-04-06
CN100476859C (zh) 2009-04-08
JP2012053911A (ja) 2012-03-15

Similar Documents

Publication Publication Date Title
DE602004006682T2 (de) Extraktion von Metadaten aus gekennzeichneten Bereichen eines Dokuments
DE602004005216T2 (de) Dokumentenscanner
DE10135445B4 (de) Integriertes Verfahren für das Schaffen einer aktualisierbaren Netzabfrage
DE60312572T2 (de) Verfahren und Gerät zum Konvertieren digitaler Bilder von Handzeichnungen zur weiteren Verwendung in einem strukturierten Text/Graphik Editor.
DE69837772T2 (de) Browser für hierarchische Strukturen
DE69933404T2 (de) System und Verfahren zum gemeinsamen Benutzen von Fonts und Speichermedium für das Programm zum Ausführen des Verfahrens
DE60314563T2 (de) Überlagerung mit elektronischer Tinte
DE60318377T2 (de) Unterstützung für Navigation und kontinuierliche Navigation von verknüpften Inhaltsdaten
DE602005001787T2 (de) Vorrichtung und Verfahren zum Editieren von Druckdaten
DE69434434T2 (de) Verfahren und gerät um text- und bilddaten zu synchronisieren, anzeigen und manipulieren
DE69721424T2 (de) Vorrichtung und Verfahren zum Edieren einer graphischen Benutzerschnittstelle
DE69937029T2 (de) Signalverarbeitungsverfahren und Vorrichtung für Grauskala-Videosignal in einer Matrix-Anzeigevorrichtung
DE10308014A1 (de) System und Verfahren zum Lokalisieren eines nichttextlichen Bereichs eines elektronischen Dokumentes oder Bildes, der mit einer benutzerdefinierten Beschreibung des Bereichs übereinstimmt
DE19859180A1 (de) Automatisches adaptives Dokumenten-Hilfesystem
DE10105941A1 (de) System und Verfahren zum automatischen Zuweisen eines Dateinamens zu einem gescannten Dokument
DE60319586T2 (de) Elektronisches wörterbuch mit beispielsätzen
EP1669852A2 (de) Verfahren und Computerprogramm zum Umwandeln eines Eingangs-Dokumentendatenstroms mit einem oder mehreren Dokumenten in eine strukturierte Datendatei
DE102021004260A1 (de) Textuelles Bearbeiten von digitalen Bildern
DE102010020829A1 (de) System und Verfahren zum Generieren von Suchtermen
WO2005119580A1 (de) Verfahren und einrichtung zur strukturanalyse eines dokuments
DE102008050725A1 (de) Bildprozessor und Bildverarbeitungsverfahren
DE69907831T2 (de) Programmprodukt, Gerät und Drucker zur Bilddatenerzeugung
DE10011664B4 (de) Dokumentenanalysesystem und Verfahren zum Analysieren von Dokumenten
DE69816200T2 (de) Bildverarbeitungsgerät zur Anzeige eines Katalogs von verschiedenen Datenarten auf verschiedene Weise
DE69630086T2 (de) Dokumentenverarbeitungsvorrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition