DE69727320T2 - Aufnahmeverfahren und gerät - Google Patents

Aufnahmeverfahren und gerät Download PDF

Info

Publication number
DE69727320T2
DE69727320T2 DE1997627320 DE69727320T DE69727320T2 DE 69727320 T2 DE69727320 T2 DE 69727320T2 DE 1997627320 DE1997627320 DE 1997627320 DE 69727320 T DE69727320 T DE 69727320T DE 69727320 T2 DE69727320 T2 DE 69727320T2
Authority
DE
Germany
Prior art keywords
characters
pen
image
images
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE1997627320
Other languages
English (en)
Other versions
DE69727320D1 (de
Inventor
Christer F Hraeus
Jan Nilsson
Patrik Söderlund
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TECHNOLOGIES LUND C AB
Anoto Group AB
Original Assignee
TECHNOLOGIES LUND C AB
C Technologies AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TECHNOLOGIES LUND C AB, C Technologies AB filed Critical TECHNOLOGIES LUND C AB
Publication of DE69727320D1 publication Critical patent/DE69727320D1/de
Application granted granted Critical
Publication of DE69727320T2 publication Critical patent/DE69727320T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • H04N1/107Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with manual scanning
    • H04N1/1075Arrangements for facilitating holding of the scanner, e.g. shapes, grips
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • H04N1/107Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with manual scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/195Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/0402Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
    • H04N2201/0414Scanning an image in a series of overlapping zones

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Character Input (AREA)
  • Image Input (AREA)
  • Position Input By Displaying (AREA)
  • Application Of Or Painting With Fluid Materials (AREA)
  • Vehicle Body Suspensions (AREA)
  • Manufacturing Of Electric Cables (AREA)
  • Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
  • Printers Characterized By Their Purpose (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Sewing Machines And Sewing (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Power Steering Mechanism (AREA)

Description

  • Erfindungsfeld
  • Die vorliegende Erfindung betrifft einen Stift zum Aufzeichnen einer ausgewählten Sequenz von Zeichen nach dem Oberbegriff von Anspruch 1 sowie ein Verfahren zum Durchführen einer derartigen Aufzeichnung nach dem Oberbegriff von Anspruch 7.
  • Hintergrund der Erfindung
  • Ein Leser, der einen Text liest, möchte häufig die wichtigsten Abschnitte des Textes markieren, um diese einfach wiederfinden zu können, wenn er den Text erneut durchsicht, sodass er die nicht relevanten Teile des Textes nicht mehr zu lesen braucht. Es ist bekannt, zu diesem Zweck sogenannte Markierungsstifte zu verwenden.
  • Ein Leser muss unter Umständen auch ausgewählte Teile eines Textes zu einem neuen Dokument zusammenstellen, das in einem Textverarbeitungsprogramm in einem Computer bearbeitet werden kann. Ein bekanntes Verfahren zum Eingeben von Text in einen Computer sieht die Verwendung eines Scanners vor. Es gibt stationäre und tragbare Scanner. Ein stationärer Scanner wird verwendet, um ganze Textseiten zu scannen, wobei der Scanner automatisch mit einer konstanten Geschwindigkeit über den Text geführt wird. Dieser Typ von Scanner ist nicht für das Scannen von ausgewählten Teilen eines Textes auf einer Seite geeignet. Zu diesem Zweck kann jedoch ein tragbarer Scanner verwendet werden.
  • US 5,301,243 gibt einen Handscanner zum Lesen von Zeichen aus einer Zeichenkette auf einem Substrat an. Der Scanner, der über die zu lesenden Zeichen in Kontakt mit dem Substrat geführt wird, weist ein optisches System auf, das einen kleinen Teil des Substrates „sieht". Das optische System umfasst einen Zeilensensor des CCD-Typs, der eine Vielzahl von in einer Reihe angeordneten lichtempfindlichen Elementen aufweist. Wenn der Scanner über die Zeichen auf dem Substrat geführt wird, wird eine Sequenz von vertikalen „Abschnitten" der Zeichen und der Zwischenräume zwischen denselben aufgezeichnet. Die „Abschnitte" werden in dem Scanner in der Form einer digitalen Bitmap gespeichert. Daraufhin wird eine OCR-Software (OCR: Optical Character Recognition = Optische Zeichenerkennung) verwendet, um die gescannten Zeichen zu identifizieren und in einem zeichencodierten Format, d. h. mit Hilfe des ASCII-Codes, im Speicher zu speichern. Die Zeichenerkennung kann entweder in dem Scanner oder in einem externen Computer durchgeführt werden, zu dem die in eine Bitmap umgewandelten Zeichen übertragen werden.
  • Ein mit der Verwendung von tragbaren Scannern assoziiertes Problem besteht darin, dass der Scanner den Abstand zwischen den gescannten „Abschnitten" kennen muss, um die Zeichen korrekt erkennen zu können. Das bedeutet, dass der Scanner entweder mit einer konstanten Geschwindigkeit über die Zeichen geführt werden muss, was manuell sehr schwer zu bewerkstelligen ist, oder aber einen sehr genauen Distanzmesser umfassen muss.
  • In dem oben genannten US-Patent 5,301,243 wird das Abstandsproblem mit Hilfe eines mechanischen Distanzmessers in der Form eines Rades gelöst. Ein mechanischer Distanzmesser umfasst jedoch bewegliche Teile, was einen Nachteil in Bezug auf die Dauerhaftigkeit und die Herstellung darstellt. Weiterhin erschwert der Distanzmesser die Aufzeichnung von Informationen aus einer Zeitung oder ähnlichem, wenn diese nicht auf einer harten Oberfläche aufliegt. Außerdem beeinträchtigt der Distanzmesser die Möglichkeit, die aufzuzeichnenden Informationen einzusehen, weil das Rad die Oberfläche, von der die Informationen aufzuzeichnen sind, kontaktieren muss, sodass das die Oberfläche kontaktierende Ende des Scanners größere Abmessungen aufweist.
  • Ein weiteres mit bekannten tragbaren Scannern verbundenes Problem besteht darin, dass diese stets im wesentlichen in einer vorbestimmten Richtung ausgerichtet bleiben müssen. Insbesondere muss der Sensor senkrecht zu der Bewegungsrichtung des Stiftes ausgerichtet sein, d. h. senkrecht zu der Zeichensequenz. Wenn ein Scanner in einer anderen Richtung gehalten wird oder während der Aufzeichnung einer Sequenz von Zeichen um seine Längsachse gedreht wird, kann der Scanner Schwierigkeiten bei der Erkennung der aufgezeichneten Zeichen aufweisen, weil keine Richtungsinformationen in den gescannten „Abschnitten" enthalten sind. Dies stellt einen schwerwiegenden Nachteil des Standes der Technik dar, weil verschiedene Individuen einen Scanner häufig auf unterschiedliche Weise halten. Weiterhin ändert ein Individuum häufig die Position seiner Hände, während sich der Scanner entlang einer Linie bewegt. Dies ist insbesondere ein Problem, wenn ein Buch oder ähnliches in einer Hand gehalten wird und Text aufgezeichnet werden soll.
  • US 4,949,391 gibt einen optischen Scanner ohne Distanzmesser an. Insbesondere umfasst dieser optische Scanner einen zweidimensionalen Sensor, der Bilder mit teilweise überlappendem Inhalt eines Textes aufzeichnet, über den der Scanner geführt wird. Der Handscanner ist jedoch tatsächlich nur eine „unintelligente" Aufzeichnungseinheit, die Zeichen aufzeichnet, ohne sie zu interpretieren. Statt dessen wird die OCR-Verarbeitung in einem Computer durchgeführt, der mit dem Scanner verbunden ist. Der Scanner korreliert jeweils nacheinander aufgezeichnete Bilder, um Spalten mit redundanten Informationen aus den Bildern zu entfernen, sodass diese weniger Speicherplatz erfordern. Der Scanner kann nur in einer vorbestimmten Richtung bewegt werden, die durch ein Rad definiert wird.
  • Zusammenfassung der Erfindung
  • Es ist eine Aufgabe der vorliegenden Erfindung, die oben beschriebenen Probleme des Standes der Technik vollständig oder wenigstens teilweise zu beseitigen und insbesondere ein Verfahren und einen Stift, der zum Aufzeichnen einer ausgewählten Sequenz von Zeichen verwendet werden kann, ohne Hilfe eines Distanzmessers und ohne die Anforderung einer konstanten Bewegungsgeschwindigkeit anzugeben.
  • In diesem Zusammenhang ist es eine weitere Aufgabe, ein derartiges Verfahren und einen derartigen Stift anzugeben, der beliebig um seine Längsachse gedreht werden kann, während eine ausgewählte Sequenz von Zeichen aufgezeichnet wird, ohne dass die Zuverlässigkeit der Identifikation der aufgezeichneten Zeichen wesentlich reduziert wird.
  • Diese Aufgaben werden durch einen Stift und ein Verfahren zum Aufzeichnen einer ausgewählten Zeichensequenz mit den Merkmalen von jeweils den Ansprüchen 1 und 7 gelöst.
  • Wie oben erwähnt, werden der Stift und das Verfahren gemäß der Erfindung zum Aufzeichnen einer ausgewählten Sequenz von Zeichen durch das Führen des Stiftes über die Zeichensequenz verwendet. Die ausgewählte Sequenz kann zum Beispiel eines oder mehrere Wörter oder eine oder mehrere ausgewählte Sätze aus einem längeren Text umfassen. Die Zeichen können Buchstaben, Ziffern oder andere geschriebene Zeichen oder Symbole sein. Die Zeichen können von einem Papier oder einem anderen Medium, das sich optisch scannen lässt, gescannt werden.
  • Der Stift umfasst einen lichtempfindlichen Sensor mit einer zweidimensionalen Sensoroberfläche. In diesem Kontext ist unter einer zweidimensionalen Sensoroberfläche eine Sensoroberfläche zu verstehen, die mehr als ein Pixel in zwei senkrecht zueinander ausgerichteten Richtungen aufzeichnen kann. Der Sensor ist vorzugsweise vom CCD-Typ.
  • Er kann zweidimensionale Bilder in Graustufen oder Farbe aufzeichnen. Das Bild besteht aus einer Vielzahl von Pixeln, die jeweils durch einen Intensitätswert definiert werden. Die Höhe der Bilder sollte derart beschaffen sein, dass diese Raum für das höchste aufzuzeichnende Zeichen aufweisen. Die Breite der Bilder kann auf der Basis der gewünschten Bildaufzeichnungsfrequenz und der verfügbaren Sensoren gewählt werden.
  • Weiterhin umfasst der Stift eine Signalverarbeitungseinheit, die wenigstens eine zentrale Verarbeitungseinheit, einen Speicher, Ein-/Ausgabeschaltungen und Programmanweisungen für die Implementierung des Verfahrens gemäß der Erfindung umfasst. Die Signalverarbeitungseinheitumfasst vorzugsweise einen entsprechend programmierten Mikroprozessor. Die Signalverarbeitungseinheit verwendet die teilweise überlappenden Inhalte der Bilder, um die aufgezeichneten Bilder zu einem Bild zusammenzusetzen. Das Zusammensetzen wird sowohl vertikal als auch horizontal vorgenommen, sodass vertikale und horizontale Richtungsinformationen in dem Bild verwendet werden. Daraus resultiert, dass keine Duplizierung in dem zusammengesetzten Bild auftritt.
  • Wenn ein Bild zusammengesetzt wurde, identifiziert die Signalverarbeitungseinheit die Zeichen in dem Bild und speichert diese in einem zeichencodierten Format in einem Speicher des Stiftes. Das bedeutet, dass der Stift eine Einrichtung des Standalone-Typs ist. Der Stift ist jedoch in geeigneter Weise mit einem externen Computer verbunden, sodass die Informationen zu diesem übertragen werden können. Ein zusammengesetztes Bild weist vorzugsweise eine vorbestimmte Maximallänge auf. Um die Geschwindigkeit zu erhöhen und die Speicheranforderungen für aufgezeichnete, aber noch nicht zusammengesetzte Bilder zu reduzieren, wird das Zusammensetzen sequentiell während der Aufzeichnung der Bilder durchgeführt. Durch die Tatsache, dass das Zusammensetzen in Echtzeit durchgeführt werden kann, werden die Speicheranforderungen für die aufgezeichneten Bilder reduziert. Das Zusammensetzen wird normalerweise fortgesetzt, bis alle aufgezeichneten Bilder zusammengesetzt wurden. Es wird jedoch unterbrochen, wenn die vorbestimmte maximale Länge des zusammengesetzten Bilder erreicht wurde. Alternativ hierzu kann das Zusammensetzen erst durchgeführt werden, nachdem die Aufzeichnung abgeschlossen wurde, wobei in diesem Fall eine vorbestimmte maximale Anzahl von Bildern aufgezeichnet werden kann, die dann zu einem Bild zusammengesetzt werden. Der Stift kann eine Angabeeinrichtung umfassen, die angibt, wann der Stift zur Wiederaufnahme der Aufzeichnung bereit ist.
  • Indem ein Sensor mit einer zweidimensionalen Sensoroberfläche verwendet wird, mit der Bilder mit teilweise überlappendem Inhalt aufgezeichnet werden können, und indem die Bilder zu einem Bild zusammengesetzt werden, kann die Anforderung einer konstanten Bewegungsgeschwindigkeit oder das Erfordernis eines Distanzmessers beseitigt werden. Wegen des Inhalts der teilweise überlappenden Bilder enthalten die Bilder selbst Informationen zu ihrer relativen Position, d. h. Distanzinformationen, sodass diese Informationen nicht unter Verwendung eines Distanzmessers aufgezeichnet zu werden brauchen. Außerdem kann der Benutzer einen Stift mit einem optionalen Rotationswinkel relativ zu dem Text halten und kann den Stift sogar während der Aufzeichnung drehen, ohne dass die Zeichenerkennung beeinträchtigt wird, weil die überlappenden Bilder Richtungsinformationen enthalten, die ihre relativen Positionen angeben. Dadurch wird die Benutzerfreundlichkeit wesentlich verbessert.
  • Vorzugsweise weist der Stift ein Display auf, sodass der Benutzer die aufgezeichnete Zeichensequenz lesen kann, ohne diese zuerst zu einem gewöhnlichen Computer übertragen zu müssen.
  • Damit die Zusammensetzung wie oben genannt durchgeführt werden kann, muss eine bestimmte Überlappung des Inhalts der aufgezeichneten Bilder vorhanden sein. Der Grad der Überlappung sollte größer als 20% und vorzugsweise größer als 50% sein.
  • Um den Kontrast in den aufgezeichneten Bildern ausreichend groß vorzusehen und um eine Unschärfe aufgrund der Bewegung des Stiftes relativ zu der Zeichensequenz zu vermeiden, werden die aufzuzeichnenden Zeichen vorzugsweise mit Lichtimpulsen beleuchtet, während der Stift über die Zeichensequenz geführt wird. Die Beleuchtung kann in geeigneter Weise mittels einer Beleuchtungseinrichtung wie zum Beispiel einer LED vorgesehen werden, die in oder an der Vorrichtung angebracht ist. Die Frequenz der Lichtimpulse sollte der Frequenz der Aufzeichnungsbilder, d. h. der Frequenz zum Lesen des Inhalts des lichtempfindlichen Sensors entsprechen und mit dieser synchronisiert sein. Es kann auch ein schneller mechanischer Verschluss anstelle der gepulsten Beleuchtung verwendet werden. Dafür ist jedoch eine komplexere Vorrichtung erforderlich.
  • Wenn die Bilder zusammengesetzt werden, werden die nacheinander aufgezeichneten Bilder vorzugsweise paarweise in Bezug auf mögliche Überlappungspositionen untersucht, um die Überlappungsposition zu bestimmen, die die beste Entsprechung des Inhalts jedes Paares ergibt. Die auf diese Weise bestimmte Überlappungsposition wird bei der Zusammensetzung der Bildes des Paares verwendet.
  • Wenn die beste Überlappungsposition bestimmt wurde, wird vorzugsweise in Pixelintensitätswert für jedes überlappende Pixel bestimmt. Der Pixelintensitätswert basiert auf den Intensitätswerten des betreffenden Pixels in den Bildern des Paares. Die auf diese Weise bestimmten Pixelintensitätswerte werden in dem zusammengesetzten Endbild verwendet.
  • Wenn das Gesamtbild zusammengesetzt wurde, wird das Bild vorzugsweise in eine Vielzahl von Teilbildern unterteilt, die jeweils ein Zeichen umfassen. Diese Unterteilung, die keine physikalische Unterteilung zu sein braucht, sondern auf dem Gesamtbild durchgeführt wird, dient zur Vorbereitung auf die eigentliche Zeichenerkennung, wobei vorzugsweise jedes Zeichen separat interpretiert wird. Alternativ hierzu werden ganze Wörter oder Teile derselben interpretiert.
  • Die Unterteilung des Bildes in Teilbilder kann vorgenommen werden, indem die Intensität der Pixel zeilen- und spaltenweise in dem zusammengesetzten Bild addiert werden, um eine Vielzahl von Zeilensummen und eine Vielzahl von Spaltensummen zu erhalten, wobei dann die lokalen Minima aus den erhaltenen Zeilensummen und Spaltensummen identifiziert werden.
  • Die Identifikation der Zeichen in dem zusammengesetzten Bild wird vorzugsweise mithilfe eines neuronalen Netzes bewerkstelligt.
  • Vorzugsweise wird in diesem Zusammenhang der Intensitätswert jedes Pixel in einem Teilbild bestimmt und als Eingabesignal in das neuronale Netz eingegeben, das dafür ausgebildet ist, das Zeichen in dem Teilbild anhand der Eingabesignale zu identifizieren.
  • Vor der Identifizierung der Zeichen kann das zusammengesetzte Bild bei Bedarf gedreht werden, sodass die Zeichen in dem Bild eine horizontale Zeile bilden. Dies erleichtert die Identifizierung.
  • Der Stift gemäß der Erfindung kann zum Beispiel zum Aufzeichnen von Text während des Studiums, zum Scannen von Zahlenwerten, zum Zusammensetzen von neuen Dokumenten auf der Basis alter Dokumente, die nur in Papierform vorhanden sind, sowie für viele andere Anwendung verwendet werden.
  • Kurzbeschreibung der Zeichnungen
  • Die vorliegende Erfindung wird im Folgenden anhand von Beispielen beschrieben, die zeigen, wie die Erfindung realisiert und verwendet werden kann. Die Beschreibung nimmt auf die beigefügten Zeichnungen Bezug.
  • 1 zeigt in schematischer Weise eine Ausführungsform eines Markierungsstiftes gemäß der Erfindung,
  • 2 ist ein Blockdiagramm der elektronischen Schaltung in einer Ausführungsform des Markierungsstiftes gemäß der Erfindung,
  • 3 ist ein Flussdiagramm, das eine Implementierung des Verfahrens gemäß der Erfindung zeigt,
  • 4a4e zeigt ein Beispiel einer Implementierung des Verfahrens gemäß der Erfindung,
  • 5a5c zeigt ein anderes Beispiel einer Implementierung des Verfahrens gemäß der Erfindung, und
  • 6a6c zeigt ein weiteres Beispiel einer Implementierung des Verfahrens gemäß der Erfindung.
  • Beschreibung einer bevorzugten Ausführungsform
  • In der in 1 gezeigten Ausführungsform des Stiftes gemäß der Erfindung weist dieser ein Gehäuse 1 mit annähernd der Form eines herkömmlichen Markierungsstiftes auf. Ein kurzes Ende des Gehäuses 1 weist ein Fenster 2 auf, das gegen ein Speichermedium – gewöhnlich ein Papierblatt – oder mit einer kurzen Distanz zu dem Speichermedium, von dem Zeichen aufzuzeichnen sind, gehalten wird. Die Breite des Fensters 2 wird auf der Basis der gewünschten Bildaufzeichnungsfrequenz, der gewünschten maximalen Bewegungsgeschwindigkeit und der verfügbaren Sensoren gewählt. Die Höhe des Fensters 2 ist etwas größer als die höchsten aufzuzeichnenden Zeichen. Das Fenster 2 bildet einen spitzen Winkel zu der Längsachse des Stiftes, sodass der Benutzer geführt wird, den Stift mit einem vorbestimmten Winkel zu dem Papierblatt zu halten. Außerdem ist das Fenster etwas in das Gehäuse zurückgezogen, sodass es nicht aufgrund des Kontaktes mit dem Papier verschleißt.
  • Das Gehäuse 1 umfasst im wesentlichen einen optischen Teil 3, einen elektronischen Teil 4 und eine Stromversorgung 5.
  • Der optische Teil 3 umfasst eine LED 6, ein Linsenssystem 7 und einen lichtempfindlichen Sensor 8, der eine Schnittstelle zu dem elektronischen Teil 4 bildet.
  • Die LED 6 hat die Aufgaben, den Teil des Speichermediums zu beleuchten, der sich gerade unter dem Fenster befindet. Eine Streueinrichtung 9 ist vor der LED 6 angebracht, um das Licht zu streuen.
  • Das Linsensystem 7 hat die Aufgabe, ein Bild des Teils des Speichermediums, das sich unter dem Fenster 2 des lichtempfindlichen Sensors 8 befindet, so genau wie möglich zu projizieren. Wenn der Sensor 8 einen lichtempfindlichen Bereich aufweist, der kleiner als das Fenster 2 ist, muss das Linsensystem 7 das Bild auch verkleinern. Der Fachmann sollte in der Lage sein, eine Anzahl von verschiedenen Linsensystemen zur Erfüllung dieser Aufgabe zu konstruieren.
  • In diesem Beispiel besteht der lichtempfindliche Sensor 8 aus einer zweidimensionalen, quadratischen CCD-Einheit (CCD = ladungsgekoppeltes Element) mit einem integrierten A/D-Wandler. Derartige Sensoren sind auf dem Markt erhältlich. Dabei ist der Sensor 8 mit einem kleinen Winkel zu dem Fenster 2 auf einer eigenen Leiterplatte 11 montiert.
  • Die Stromversorgung für den Stift wird von einer Batterie 12 erhalten, die in einem separaten Fach 13 im Gehäuse untergebracht ist.
  • Das Blockdiagramm von 2 zeigt in schematischer Weise den elektronischen Teil 4. Dieser umfasst einen Prozessor 20, der über einen Bus 21 mit einem ROM 22, in dem die Programme des Prozessors gespeichert sind, einem Lese-/Schreibspeicher 23, der den Arbeitsspeicher des Prozessors bildet und in dem die Bilder von den Sensoren sowie die identifizierten und interpretierten Zeichen gespeichert sind, einer Steuerlogikeinheit 24 sowie einem Sensor 8 und der LED 6 verbunden. Die Steuerlogikeinheit 24 ist wiederum mit einer Anzahl von Peripherieeinheiten verbunden: mit einem Display 2 im Gehäuse, einem IR-Sendeempfänger zum Übertragen von Informationen zu/von einem externen Computer, Tasten 27, über die der Benutzer die Vorrichtung steuern kann, einer Verfolgungs-LED 28, die einen Lichtstrahl emittiert, der es dem Benutzer erleichtert, dem Text zu folgen, und einer Angabeeinrichtung 29 wie z. B. einer LED, die angibt, dass der Stift zum Aufzeichnen von Zeichen bereit ist. Steuersignale für die Speicher, den Sensor und die Peripherieeinheiten werden in der Steuerlogikeinheit 24 erzeugt. Die Steuerlogikeinheit handhabt auch die Erzeugung und Prioritätenvergabe für Unterbrechungen des Prozessors. Auf die Tasten 27, den IR-Sendeempfänger 26, die Anzeige 25, die Verfolgungs-LED 38 sowie die LED 6 wird durch den Prozessor zugegriffen, der in dem Register in der Steuerlogikeinheit schreibt und liest. Die Tasten 27 erzeugen Unterbrechungen für den Prozessor 20, wenn sie betätigt werden.
  • Der Stift wird wie folgt betrieben. Ein Benutzer hält den Stift gegen ein Papierblatt mit Text an der Position, wo er die Aufzeichnung einer Zeichensequenz beginnen möchte. Er drückt eine Taste 27, um den Stift zu aktivieren, und führt den Stift über den aufzuzeichnenden Text, wobei er dem Text wie beim Lesen folgt. Die Verfolgungs-LED 28 emittierte einen Lichtstrahl, der das Verfolgen der Zeilen erleichtert. Wenn der Benutzer den Stift aktiviert, weist der Prozessor 20 die LED 6 an, mit dem Ausgeben von Lichtimpulsen mit einer vorbestimmten Frequenz von 25 Hz zu beginnen, wobei die durch den Sensor aufgezeichneten Bilder mit derselben Frequenz in dem Lese-/Schreibspeicher 23 gespeichert werden. Der in der Form von Bildern gespeicherte Text erfordert jedoch einen großen Speicherplatz und kann nicht unmittelbar durch einen Computer in beispielsweise einem Textverarbeitungsprogramm verwendet werden. Folglich werden die Zeichen in den Bildern identifiziert und als ASCII-Code gespeichert. Wenn der Benutzer den Stift über eine ausgewählte Sequenz von Zeichen geführt hat oder zum Ende einer Zeile gelangt ist, hebt er den Stift vom Papier und lässt die Aktivierungstaste los, worauf der Prozessor 20 die LED 6 ausschaltet. Wenn die ausgewählten Zeichensequenzen aufgezeichnet wurden, kann der Benutzer den Stift steuern, um den aufgezeichneten Text auf dem Display 25 anzuzeigen oder den Text über den IR-Sendeempfänger 12 zu einem externen Computer zu senden. Die Möglichkeit zum direkten Anzeigen der gescannten Zeicheninformationen auf dem Display hat sich als sehr nützlich erwiesen, weil ein Benutzer häufig prüfen will, ob das richtige Zeichen gescannt wurde.
  • Das Flussdiagramm von 3 zeigt eine Implementierung des Verfahrens gemäß der Erfindung. In Schritt 301 werden Bilder mit überlappendem Inhalt mithilfe des oben beschriebenen Stiftes gescannt und in einem aktuellen Bildbereich des Lese-/Schreibspeichers 23 gespeichert. Die Bilder werden als Bilder gespeichert, d. h. als Informationen zu einer Vielzahl von Pixeln, die jeweils einen Graustufenwert in einem Bereich von Weiß bis Schwarz aufweisen.
  • Sobald ein ganzes Bild in dem aktuellen Bildbereich gespeichert ist, wird in Schritt 302 unmittelbar das Zusammensetzen des Bildes mit dem vorausgehenden Bild begonnen, wenn ein solches Bild verfügbar ist. Wenn kein vorausgehendes Bild vorhanden ist, wird das aktuelle Bild direkt in einen Zeilenbildbereich des Lese-/Schreibspeichers eingegeben.
  • Um zu bestimmen, wie das aktuelle Bild mit dem vorausgehenden Bild zusammengesetzt werden soll, sodass die beste Entsprechung zwischen dem Inhalt der Bilder erhalten wird, wird jede mögliche Überlappungsposition zwischen den Bildern auf Pixelebene untersucht und wird eine Überlappungsmessung wie folgt bestimmt:
    • 1) Für jede überlappende Pixelposition werden die Graustufenwerte der zwei enthaltenen Pixel addiert, wenn diese nicht weiß sind. Eine Pixelposition, bei der keines der Pixel weiß ist, wird als eine Plusposition bezeichnet.
    • 2) Die Graustufensummen für alle Pluspositionen werden addiert.
    • 3) Die Nachbarn jeder Pixelposition werden untersucht. Wenn eine überlappende Pixelposition kein Nachbar einer Plusposition ist und aus einem weißen und einem nichtweißen Pixel besteht, wird der – möglicherweise mit einer Konstante multiplizierte – Graustufenwert des nicht-weißen Pixels von der Summe in Punkt 2 subtrahiert.
    • 4) Die Überlappungsposition, die das höchste Überlappungsmaß aufweist, wird wie oben genannt ausgewählt. In dem resultierenden zusammengesetzten Bild wird der Mittelwert des Graustufenwertes der überlappenden Pixel verwendet. Auf diese Weise kann ein Rauschen in dem Überlappungsbereich unterdrückt werden. Das Zusammensetzen wird auf diese Weise sowohl vertikal und vertikal durchgeführt. Wenn festgestellt wird, dass Bilder nach dem Zusammensetzen keine horizontale Linie ergeben, wird das zusammengesetzte Bild in geeigneter Weise angepasst, sodass es horizontal wird, indem das zusammengesetzte Bilde beispielsweise gedreht wird.
  • Das zusammengesetzte Bild entwickelt sich nach und nach in dem Zeilenbildbereich des Lese-/Schreibspeichers. Vorzugsweise ist der Zeilenbildbereich ausreichend groß, um eine A4-Zeile eines normal geschriebenen Textes zu speichern.
  • In Schritt 303 unterteilt die Software des Prozessors 20 das zusammengesetzte Bild in dem Zeilenbildspeicherbereich in Teilbilder, die jeweils nur ein Zeichen enthalten. Dies geschieht, um Eingabesignale für eine neuronale Netzsoftware zur Interpretation der Zeichen zu erzeugen. Die Unterteilung wird vorgenommen, indem die Graustufenwerte der Pixel für jede Pixelzeile und jede Pixelspalte in dem zusammengesetzten Bild addiert werden. Indem die erhaltenen lokalen Intensitätsminima für die Zeilensummen und Spaltensummen untersucht werden, können Grenzen für die Ausdehnung jedes Zeichens in dem Bild bestimmt werden.
  • Wenn das zusammengesetzte Bild mehr als eine Textzeile enthält, was der Fall sein kann, wenn der Text klein ist, müssen die Textzeilen getrennt werden und muss die betreffende Zeile ausgewählt werden, bevor die Unterteilung in Teilbilder durchgeführt wird. Die Trennung kann unter Verwendung einer Technik durchgeführt werden, die derjenigen für die Unterteilung in Teilbilder ähnlich ist.
  • In Schritt 304 wird jedes der Teilbilder auf ein vorbestimmtes Pixelformat herunterskaliert, indem das Teilbild in eine Gruppe von Pixeln unterteilt wird, die jeweils durch ein Pixel ersetzt werden, dessen Graustufenwert dem Mittelwert der Graustufenwerte der in der Gruppe enthaltenen Pixel entspricht. Falls erforderlich, kann eine ähnliche Herunterskalierung zwischen anderen Schritten in dem Verfahren gemäß der Erfindung durchgeführt werden. Weiterhin wird das Zeichen mit Bezug auf seinen Balancepunkt zentriert und werden die Graustufenwerte normalisiert, sodass die Summe des Quadrats des Graustufenwertes jedes Pixels ein fixer Wert ist.
  • Dann wird in Schritt 305 jedes Zeichen in dem zusammengesetzten Bild der Zeichensequenz interpretiert. Die Graustufenwerte der Pixel, die zusammen ein Teilbild mit nur einem Zeichen bilden, werden als Eingabesignale in ein neuronales Netz eingegeben. Jede Ausgabe aus dem neuronalen Netz gibt ein Zeichen wieder, das das Netz identifizieren kann. Die Ausgabe aus dem Netz mit dem höchsten Ausgabesignal wird gewählt, und das derart ausgewählte Zeichen wird in Schritt 306 unter Verwendung eines vorbestimmten Zeichencodeformats wie beispielsweise dem ASCII-Code in dem Lese-/Schreibspeicher 23 in einem Speicherbereich für interpretierte Zeichen gespeichert. Wenn das Identifizieren und Speichern der Zeichen im zeichencodierten Format abgeschlossen ist, aktiviert der Prozessor in Schritt 307 die Angabeeinrichtung 29, um den Benutzer darüber zu informieren, dass der Stift zum Aufzeichnen einer neuen Zeichensequenz bereit ist. Daraufhin wird zu Schritt 301 zurückgekehrt.
  • Die oben beschriebenen Schritte werden durch den Prozessor 20 mithilfe der assoziierten Einheiten und einer geeigneten Software ausgeführt. Eine derartige Software kann durch einen Fachmann mithilfe der oben beschriebenen Erläuterungen erstellt werden. Die Zeichenerkennung wird mithilfe der neuronalen Netzsoftware durchgeführt, die in entsprechender Weise trainiert wird. Eine derartige neuronale Netzsoftware ist zum Beispiel von MATLAB Neural Network Toolbox, The MathWorks Inc., 24 Prime Park Way, Natick, MA 02760, USA erhältlich.
  • 4a4e zeigen, wie das Verfahren gemäß der Erfindung arbeitet, wenn die Zeichensequenz „Flygande bäckasiner" gescannt wird. 4a zeigt den Text auf einem Papierblatt, das auch einen bestimmten Grad von „Punktrauschen" in der Form von kleinen schwarzen Punkten aufweist. 4b zeigt die mithilfe des Sensors aufgezeichneten Bilder. Wie aus dieser Figur deutlich wird, überlappt der Inhalt der Bilder teilweise. Der Buchstabe 1 erscheint vollständig in Bild Nr. 1 und teilweise in Bild Nr. 2. Der Grad der Überlappung hängt von der Bewegungsgeschwindigkeit ab, d. h. von der Geschwindigkeit, mit der der Benutzer die Vorrichtung über den Text relativ zu der Frequenz, mit der der Inhalt aus dem Sensor ausgelesen wird, führt. 4c zeigt, wie das ganze zusammengesetzte Bild aussieht. Dabei ist zu beachten, dass das Bild noch in der Form von Pixeln gespeichert ist. 4d zeigt die Unterteilung des ganzen Bildes in Teilbilder. 4e zeigt die skalierten und normalisierten Buchstaben, die als Eingabesignale in das neuronale Netz verwendet werden. Wenn das Verfahren implementiert wurde, wird der Text „Flygande bäckasiner" als ASCII-Code in dem Lese-/Schreibspeicher des Stiftes gespeichert.
  • In dem gezeigten Beispiel wurde der Stift gerade gehalten und während der Aufzeichnung der Zeichensequenz überhaupt nicht gedreht. Wenn der Stift mit einem konstanten Winkel um seine Längsachse gedreht worden wäre, würden die Bilder wie diejenigen von 5a aussehen. Wenn in diesem Fall die Bilder zusammengesetzt werden, wird das in 5b gezeigte schiefe Bild erhalten, das gedreht werden muss, um die horizontale Zeichensequenz von 5c zu erhalten. Um zu bestimmen, wie groß die durchzuführende Drehung sein muss, wird die Position der Zeichen in dem zusammengesetzten Bild an einer Reihe von Stellen festgestellt.
  • Wenn der Stift währen der Aufzeichnung um seine Längsachse gedreht wird, ist die Neigung der Bilder anders. Ein Beispiel hierfür ist in 6a gezeigt. Wenn die Bilder zusammengesetzt werden, wird wie in 6b eine gewellte Zeichensequenz erhalten. Diese kann zu einer horizontalen Zeile geglättet werden, indem die Position der Zeichen in dem zusammengesetzten Bild an einer Vielzahl von Stellen festgestellt wird und in dem verschiedene Segmente in unterschiedlicher Stärke gedreht werden (siehe 6c).

Claims (15)

  1. Stift zum Aufzeichnen einer ausgewählten Sequenz von Zeichen, indem der Stift über die Zeichensequenz geführt wird, wobei der Stift einen lichtempfindlichen Sensor (8) zum Abbilden der Zeichen und eine Signalverarbeitungseinheit (2024) zum Identifizieren der abgebildeten Zeichen sowie zum Speichern derselben in einem zeichencodierten Format in dem Stift umfasst, dadurch gekennzeichnet, dass der lichtempfindliche Sensor (8) eine zweidimensionale Sensoroberfläche aufweist, wobei der Sensor dafür ausgebildet ist, die ausgewählte Zeichensequenz mithilfe einer Vielzahl von Bildern mit teilweise überlappendem Inhalt abzubilden, sodass der Inhalt jedes Bildes teilweise den Inhalt des vorausgehenden Bildes überlappt, und dadurch, dass die Signalverarbeitungseinheit (2024) dafür ausgebildet ist, mithilfe von nur dem überlappenden Inhalt jedes Bild sowohl vertikal als auch horizontal mit dem vorausgehenden Bild zusammenzusetzen, sodass ein zusammengesetztes Bild aus der Vielzahl von Bildern erzeugt wird und sodass eine Kompensation für unterschiedliche Bewegungsgeschwindigkeiten und unterschiedliche Drehwinkel des Stiftes erhalten wird, und dadurch, dass die Identifizierung der abgebildeten Zeichen auf der Basis des zusammengesetzten Bildes durchgeführt wird.
  2. Stift nach Anspruch 1, der weiterhin eine Beleuchtungseinrichtung (6) aufweist, die dafür ausgebildet ist, Lichtimpulse für die Beleuchtung der aufzuzeichnenden Zeichen zu emittieren.
  3. Stift nach einem der vorstehenden Ansprüche, wobei die Signalverarbeitungseinheit (2024) ein neuronales Netz zur Identifizierung der Zeichen umfasst.
  4. Stift nach einem der vorstehenden Ansprüche, wobei die Signalverarbeitungseinheit dafür ausgebildet ist, das zusammengesetzte Bild in eine Vielzahl von Bilder zu unterteilen, die jeweils nur ein Zeichen enthalten.
  5. Stift nach einem der vorstehenden Ansprüche, der weiterhin eine Angabeeinrichtung (29) umfasst, um anzugeben, dass der Stift für das Scannen der Zeichensequenz bereit ist.
  6. Stift nach einem der vorstehenden Ansprüche, der weiterhin ein Display (25) zum Anzeigen der identifizierten Zeichen umfasst.
  7. Verfahren zum Aufzeichnen einer ausgewählten Sequenz von Zeichen mithilfe eines Stiftes mit folgenden Schritten: Führen des Stiftes über die ausgewählte Zeichensequenz und gleichzeitiges Abbilden der ausgewählten Zeichensequenz mithilfe einer Vielzahl von Bildern, sodass der Inhalt jedes Bildes teilweise den Inhalt des vorausgehenden Bildes überlappt, Verwenden einer Signalverarbeitungseinheit in dem Stift, um unter Verwendung von nur dem überlappenden Inhalt jedes Bild mit dem vorausgehenden Bild in sowohl der vertikalen als auch der horizontalen Richtung zusammenzusetzen, sodass ein zusammengesetztes Bild aus der Vielzahl von Bildern erzeugt wird und sodass eine Kompensation für unterschiedliche Bewegungsgeschwindigkeiten und unterschiedliche Drehwinkel des Stiftes erhalten wird, Identifizieren der Zeichen in dem zusammengesetzten Bild, und Speichern der identifizierten Zeichen in dem Stift in einem vorbestimmten Zeichencodeformat.
  8. Verfahren nach Anspruch 7, das weiterhin einen Schritt zum Beleuchten der aufzuzeichnenden Zeichen mit Lichtimpulsen umfasst, wenn der Stift über dieselben geführt wird.
  9. Verfahren nach Anspruch 7 oder 8, wobei der Schritt zum Zusammensetzen der Vielzahl von Bildern das paarweise Untersuchen der nacheinander aufgezeichneten Bilder in Bezug auf mögliche Überlappungspositionen umfasst, um die Überlappungsposition zu bestimmen, die die beste Entsprechung zwischen den Inhalten jedes Paares von nacheinander aufgezeichneten Bildern ergibt, wobei die derart bestimmte Überlappungsposition für das Zusammensetzen der Bilder des Paares verwendet wird.
  10. Verfahren nach einem der Ansprüche 7 bis 9, wobei das Zusammensetzen der aufgezeichneten Bilder in Echtzeit durchgeführt wird.
  11. Verfahren nach Anspruch 9, wobei die aufgezeichneten Bilder aus einer Vielzahl von Pixeln bestehen, die jeweils durch einen Intensitätswert definiert werden, und wobei das Verfahren weiterhin folgende Schritte umfasst: beim Zusammensetzen der Bilder des Paares nach der Bestimmung der besten Überlappungsposition, Bestimmen eines Pixelintensitätswertes, der vorzugsweise ein Mittelwert ist, für jedes überlappende Pixel, wobei der Pixelintensitätswert auf den Intensitätswerten der betreffenden Pixel in den Bildern des Paares basiert, und Verwenden der auf diese Weise bestimmten Pixelintensitätswerte in dem zusammengesetzten Bild.
  12. Verfahren nach einem der Ansprüche 7 bis 11, wobei der Schritt zum Identifizieren der Zeichen das Unterteilen des zusammengesetzten Bildes in eine Vielzahl von Teilbildern umfasst, die jeweils nur ein Zeichen enthalten.
  13. Verfahren nach Anspruch 12, wobei das zusammengesetzte Bild aus einer Vielzahl von Pixeln besteht, die jeweils durch einen Intensitätswert definiert werden, und wobei der Schritt zum Unterteilen des zusammengesetzten Bildes in eine Vielzahl von Teilbildern das zeilenweise und spaltenweise Addieren der Intensität der Pixel in dem zusammengesetzten Bild, um eine Vielzahl von Zeilensummen und Spaltensummen zu erhalten, sowie das Identifizieren von lokalen Minima in den erhaltenen Zeilensummen und Spaltensummen zum Unterteilen des zusammengesetzten Bildes in Teilbilder umfasst.
  14. Verfahren nach Anspruch 12 oder 13, wobei jedes Teilbild aus einer Vielzahl von Pixeln besteht, die jeweils durch einen Intensitätswert definiert werden, und wobei der Schritt zum Identifizieren der Zeichen in den aufgezeichneten Bildern das Bestimmen des Intensitätswertes jedes Pixels in einem Teilbild sowie das Eingeben desselben als Eingabesignal in ein neuronales Netz umfasst, das dafür ausgebildet ist, die Zeichen in dem Teilbild mithilfe der Eingabesignale zu identifizieren.
  15. Verfahren nach einem der Ansprüche 7 bis 14, das vor dem Identifizieren der Zeichen weiterhin einen Schritt zum Drehen des zusammengesetzten Bildes umfasst, sodass die Zeichen in dem Bild eine horizontale Zeile bilden.
DE1997627320 1996-11-01 1997-11-03 Aufnahmeverfahren und gerät Expired - Lifetime DE69727320T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SE9604008 1996-11-01
SE9604008A SE509327C2 (sv) 1996-11-01 1996-11-01 Sätt och anordning för registrering av tecken med hjälp av en penna
PCT/SE1997/001827 WO1998020446A1 (en) 1996-11-01 1997-11-03 Recording method and apparatus

Publications (2)

Publication Number Publication Date
DE69727320D1 DE69727320D1 (de) 2004-02-26
DE69727320T2 true DE69727320T2 (de) 2004-11-18

Family

ID=20404465

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1997627320 Expired - Lifetime DE69727320T2 (de) 1996-11-01 1997-11-03 Aufnahmeverfahren und gerät

Country Status (20)

Country Link
US (1) US6529645B2 (de)
EP (1) EP1010131B1 (de)
JP (1) JP3641485B2 (de)
KR (1) KR20010033610A (de)
CN (1) CN1160657C (de)
AT (1) ATE258323T1 (de)
AU (1) AU719267B2 (de)
BG (1) BG63478B1 (de)
BR (1) BR9712470A (de)
CA (1) CA2270477C (de)
CZ (1) CZ151999A3 (de)
DE (1) DE69727320T2 (de)
ES (1) ES2210502T3 (de)
ID (1) ID21362A (de)
IL (1) IL129663A0 (de)
PL (1) PL333022A1 (de)
RU (1) RU2198428C2 (de)
SE (1) SE509327C2 (de)
WO (1) WO1998020446A1 (de)
YU (1) YU49124B (de)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL118914A0 (en) 1996-07-22 1996-10-31 Zohar Argamanit Ltd Hand-holdable optical scanner particularly useful as electronic translator
JP3821267B2 (ja) * 1999-01-18 2006-09-13 富士通株式会社 文書画像結合装置、文書画像結合方法及び文書画像結合プログラムを記録した記録媒体
EP1214681A1 (de) * 1999-06-28 2002-06-19 C Technologies AB Lesegerät
SE516561C2 (sv) 1999-06-28 2002-01-29 C Technologies Ab Läspenna för inläsning och behandling av text
WO2001001263A1 (en) * 1999-06-28 2001-01-04 C Technologies Ab Recording of information
CA2381980C (en) 1999-08-30 2011-10-11 Anoto Ab Notepad
SE517445C2 (sv) 1999-10-01 2002-06-04 Anoto Ab Positionsbestämning på en yta försedd med ett positionskodningsmönster
US20030061188A1 (en) 1999-12-23 2003-03-27 Linus Wiebe General information management system
US7295193B2 (en) 1999-12-23 2007-11-13 Anoto Ab Written command
US6992655B2 (en) 2000-02-18 2006-01-31 Anoto Ab Input unit arrangement
US7054487B2 (en) 2000-02-18 2006-05-30 Anoto Ip Lic Handelsbolag Controlling and electronic device
SE0000949L (sv) 2000-03-21 2001-09-22 Anoto Ab Positionsinformation
US8418052B2 (en) 2000-03-21 2013-04-09 Anoto Aktiebolag (Anoto Ab) Processing of documents
US7143952B2 (en) 2000-03-21 2006-12-05 Anoto Ab Apparatus and methods relating to image coding
US7050653B2 (en) 2000-04-05 2006-05-23 Anoto Ab Identification of virtual raster pattern
US6586688B2 (en) 2000-04-05 2003-07-01 Anoto Ab Information-related devices and methods
SE519145C2 (sv) 2000-06-02 2003-01-21 C Technologies Ab Förfarande och anordning för registrering av information
SE516567C2 (sv) * 2000-06-07 2002-01-29 Anoto Ab Förfarande och anordning för säker trådlös överföring av information
US6722574B2 (en) 2000-09-07 2004-04-20 Anoto Ab Business card
US7333947B2 (en) 2000-11-13 2008-02-19 Anoto Ab Network-based system
US7221810B2 (en) 2000-11-13 2007-05-22 Anoto Group Ab Method and device for recording of information
SE0004144L (sv) * 2000-11-13 2002-05-14 C Technologies Ab Textpussling
WO2002093467A1 (en) 2001-05-11 2002-11-21 Anoto Ab Electronic pen with actuation through removal of cap
US7916124B1 (en) 2001-06-20 2011-03-29 Leapfrog Enterprises, Inc. Interactive apparatus using print media
EP1271393B1 (de) * 2001-06-25 2005-04-20 CSEM Centre Suisse d'Electronique et de Microtechnique S.A. - Recherche et Développement Lichtgriffel
SE0102232L (sv) 2001-06-25 2003-02-06 Anoto Ab Förfarande och anordning i ett digitalt kommunikationssystem
US7202963B2 (en) 2001-06-28 2007-04-10 Anoto Ab Method for processing information
JP2004118563A (ja) * 2002-09-26 2004-04-15 Fuji Photo Film Co Ltd 文字画像処理方法および装置並びにプログラム
US7200560B2 (en) * 2002-11-19 2007-04-03 Medaline Elizabeth Philbert Portable reading device with display capability
US20050060644A1 (en) * 2003-09-15 2005-03-17 Patterson John Douglas Real time variable digital paper
SE0303370D0 (sv) 2003-12-16 2003-12-16 Anoto Ab Method, apparatus, computer program and storage medium for recording a movement of a user unit
ATE556646T1 (de) * 2004-01-13 2012-05-15 Univ Toledo Noninvasive, doppelbrechungskompensierte messpolarimeter
US20060078866A1 (en) * 2004-03-17 2006-04-13 James Marggraff System and method for identifying termination of data entry
US20060067576A1 (en) * 2004-03-17 2006-03-30 James Marggraff Providing a user interface having interactive elements on a writable surface
US20060077184A1 (en) * 2004-03-17 2006-04-13 James Marggraff Methods and devices for retrieving and using information stored as a pattern on a surface
US7327868B2 (en) * 2004-06-04 2008-02-05 Hewlett-Packard Development Company, L.P. Magnetic stripline scanner
US7565034B2 (en) * 2004-06-17 2009-07-21 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Determination of a navigation window in an optical navigation system
JP2006301941A (ja) * 2005-04-20 2006-11-02 Hitachi Maxell Ltd ペン型入力装置のフレーム構造、ペンのフレーム構造、電子ペンのフレーム構造および電子ペン
JP4881584B2 (ja) * 2005-06-28 2012-02-22 株式会社ブリヂストン 凹凸図形検査のためのマスターデータの作成方法
US7922099B1 (en) 2005-07-29 2011-04-12 Leapfrog Enterprises, Inc. System and method for associating content with an image bearing surface
CN100446536C (zh) * 2005-09-30 2008-12-24 中国科学院长春光学精密机械与物理研究所 采用面阵探测器的便携式电子记录笔及扫描方法
RU2457532C2 (ru) * 2006-03-10 2012-07-27 Кенджи Йошида Система обработки ввода для устройства обработки информации
US8261967B1 (en) 2006-07-19 2012-09-11 Leapfrog Enterprises, Inc. Techniques for interactively coupling electronic content with printed media
US8054512B2 (en) * 2007-07-30 2011-11-08 Palo Alto Research Center Incorporated System and method for maintaining paper and electronic calendars
JP5305757B2 (ja) * 2008-06-30 2013-10-02 株式会社東芝 画像処理装置、超音波診断装置、および画像処理プログラム
US8582182B2 (en) * 2009-05-20 2013-11-12 Dacuda Ag Automatic sizing of images acquired by a handheld scanner
US9300834B2 (en) * 2009-05-20 2016-03-29 Dacuda Ag Image processing for handheld scanner
US8441695B2 (en) * 2009-05-20 2013-05-14 Dacuda Ag Handheld scanner with high image quality
CN101882212B (zh) * 2010-06-01 2012-12-12 福建新大陆电脑股份有限公司 一种条码图像的获取方法
EP2660754A4 (de) 2010-12-27 2018-01-17 Hanwang Technology Co., Ltd. Vorrichtung und verfahren zum abtasten und erkennen
CN102222222A (zh) * 2011-05-27 2011-10-19 汉王科技股份有限公司 跳帧扫描识别装置和方法
CN102393903B (zh) * 2011-07-15 2013-10-30 汉王科技股份有限公司 基于三轴加速计的扫描识别装置和方法
JP5745091B2 (ja) * 2011-12-07 2015-07-08 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 電子文書の表示を行う方法、並びにその装置及びコンピュータ・プログラム
US10068153B2 (en) 2012-08-21 2018-09-04 Cognex Corporation Trainable handheld optical character recognition systems and methods
US8873892B2 (en) * 2012-08-21 2014-10-28 Cognex Corporation Trainable handheld optical character recognition systems and methods
EP2701057B1 (de) 2012-08-23 2018-05-02 Samsung Electronics Co., Ltd. Informationsübertragung
EP3703001A1 (de) 2013-08-31 2020-09-02 ML Netherlands C.V. Benutzerfeedback zur echtzeitüberwachung und verbesserung der qualität eines abgetasteten bildes
WO2015082572A2 (en) 2013-12-03 2015-06-11 Dacuda Ag User feedback for real-time checking and improving quality of scanned image
EP3092603B1 (de) 2014-01-07 2022-05-11 ML Netherlands C.V. Dynamische aktualisierung von zusammengesetzten bildern
EP3748953B1 (de) 2014-01-07 2024-04-17 ML Netherlands C.V. Adaptive kamerasteuerung zur verminderung der bewegungsunschärfe während der bildaufnahme in echtzeit
EP3696774A1 (de) 2014-05-12 2020-08-19 ML Netherlands C.V. Verfahren und vorrichtung zum abtasten eines 3d-objekts
BE1023388B1 (fr) * 2015-08-31 2017-03-01 I.R.I.S. S.A. Procédé et système pour corriger une image provenant d'un dispositif de numérisation à main
US9692929B2 (en) 2015-08-31 2017-06-27 I.R.I.S. Method and system for correction of an image from a hand-held scanning device
US9679179B2 (en) 2015-08-31 2017-06-13 I.R.I.S. Method for processing information from a hand-held scanning device
BE1023380B1 (fr) * 2015-08-31 2017-03-01 I.R.I.S. S.A. Procédé de traitement d'informations provenant d'un dispositif de numérisation à main
DE102016119510B4 (de) * 2015-10-16 2024-06-27 Cognex Corporation Lernfähige tragbare Systeme zur optischen Zeichenerkennung und Verfahren
CN108182433B (zh) * 2017-12-29 2020-07-14 北京易达图灵科技有限公司 一种表计读数识别方法及系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4441205A (en) * 1981-05-18 1984-04-03 Kulicke & Soffa Industries, Inc. Pattern recognition system
US5023922A (en) * 1985-06-07 1991-06-11 Soricon Corporation Optical character reader
US4949391A (en) * 1986-09-26 1990-08-14 Everex Ti Corporation Adaptive image acquisition system
US5280545A (en) * 1988-12-29 1994-01-18 Canon Kabushiki Kaisha Image information processing apparatus capable of synthesizing front- and back-surface information
US5301243A (en) * 1990-12-21 1994-04-05 Francis Olschafskie Hand-held character-oriented scanner with external view area
US5251268A (en) * 1991-08-09 1993-10-05 Electric Power Research Institute, Inc. Integrated method and apparatus for character and symbol recognition
US5657402A (en) 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
JP3647885B2 (ja) * 1993-05-07 2005-05-18 日本電信電話株式会社 画像処理装置
GB2288512B (en) * 1994-04-14 1998-08-26 Matsushita Electric Ind Co Ltd Image processing apparatus
US5787194A (en) * 1994-11-08 1998-07-28 International Business Machines Corporation System and method for image processing using segmentation of images and classification and merging of image segments using a cost function
US5812704A (en) * 1994-11-29 1998-09-22 Focus Automation Systems Inc. Method and apparatus for image overlap processing
US6148118A (en) * 1995-07-05 2000-11-14 Minolta Co., Ltd. Image processing apparatus capable of reproducing large-sized document

Also Published As

Publication number Publication date
ID21362A (id) 1999-05-27
CN1160657C (zh) 2004-08-04
ES2210502T3 (es) 2004-07-01
ATE258323T1 (de) 2004-02-15
IL129663A0 (en) 2000-02-29
AU719267B2 (en) 2000-05-04
SE9604008D0 (sv) 1996-11-01
DE69727320D1 (de) 2004-02-26
BG103367A (en) 2000-02-29
JP3641485B2 (ja) 2005-04-20
JP2001508204A (ja) 2001-06-19
CA2270477A1 (en) 1998-05-14
YU49124B (sh) 2004-03-12
YU20699A (sh) 2000-03-21
EP1010131B1 (de) 2004-01-21
PL333022A1 (en) 1999-11-08
SE9604008L (sv) 1998-05-02
US20020001418A1 (en) 2002-01-03
WO1998020446A1 (en) 1998-05-14
CA2270477C (en) 2007-07-31
KR20010033610A (ko) 2001-04-25
AU4890597A (en) 1998-05-29
SE509327C2 (sv) 1999-01-11
BG63478B1 (bg) 2002-02-28
CZ151999A3 (cs) 1999-08-11
BR9712470A (pt) 1999-12-21
CN1239563A (zh) 1999-12-22
US6529645B2 (en) 2003-03-04
EP1010131A1 (de) 2000-06-21
RU2198428C2 (ru) 2003-02-10

Similar Documents

Publication Publication Date Title
DE69727320T2 (de) Aufnahmeverfahren und gerät
DE69838899T2 (de) Verfahren und Gerät zum visuellen Identifizieren eines Bereichs auf einem Foto oder Bild, in dem digitale Daten gespeichert sind
DE4202579C2 (de) System zur Bearbeitung von Dokumenten
DE3785440T2 (de) Optische abtastvorrichtung mit ortungsfuehlern.
DE10255926C5 (de) Verarbeitungssystem zum Herstellen von Indikatoren mit einer Verarbeitungsvorrichtung und einer Ausgabevorrichtung, das die Indikatoren verwendet
DE69118970T2 (de) Bildverarbeitungssystem für dokumentarische Daten
DE19960555B4 (de) Verfahren zum Auffinden und Lesen eines zweidimensionalen Strichcodes
EP1984851B1 (de) Verfahren zur bewertung der qualität eines bildes, verfahren zur herstellung eines dokuments computerprogrammprodukt, nutzer-schnittstelle, datei und elektronisches gerät
DE3750543T2 (de) Elektronisches Wörterbuch.
DE69914659T2 (de) Eingabevorrichtung für Rechner in Form eines Stiftes
DE3033193C2 (de)
DE69631670T2 (de) Handabtaster mit drehpositionsdetektor
DE102004033145A1 (de) Medienerfassung über Digitalbildverarbeitung
DE69535640T2 (de) Bestimmung der absoluten optischen position
EP0131676A2 (de) Verfahren zum automatischen Digitalisieren des Umrisses von Strichgraphiken z.B. Buchstaben
EP0343786A3 (de) Verfahren und Gerät zum Lesen und Speichern von Text in digitaler Form
DE69218272T2 (de) Bildeingabegerät
DE3718620C2 (de)
DE3904235C2 (de) Verfahren und Einrichtung zur Festlegung eines rechteckförmigen Bereiches auf einer Vorlage
DE3720489A1 (de) Verfahren zum lesen von text- und druckvorlagen
DE60216999T2 (de) Lesevorrichtung für kodierte Bilder
EP1333402A1 (de) Redundanter zweidimensionaler Code und Decodierverfahren
DE10027737A1 (de) Digitaler Bildverarbeitungsapparat
DE60123730T2 (de) Gerät und Verfahren zur Bestimmung des Formats von Dokumenten
DE60217450T2 (de) Verfahren und Anordnung zur vorherigen Anmerkung von Dokumente und zur Erstellung einer Zusammenfassung anhand von Dokumentbilddaten

Legal Events

Date Code Title Description
8364 No opposition during term of opposition