DE69608262T2 - System und verfahren zur bildabtastung - Google Patents

System und verfahren zur bildabtastung

Info

Publication number
DE69608262T2
DE69608262T2 DE69608262T DE69608262T DE69608262T2 DE 69608262 T2 DE69608262 T2 DE 69608262T2 DE 69608262 T DE69608262 T DE 69608262T DE 69608262 T DE69608262 T DE 69608262T DE 69608262 T2 DE69608262 T2 DE 69608262T2
Authority
DE
Germany
Prior art keywords
image
band
navigation
original
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69608262T
Other languages
English (en)
Other versions
DE69608262D1 (de
Inventor
Bernard Pollard
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Co filed Critical Hewlett Packard Co
Application granted granted Critical
Publication of DE69608262D1 publication Critical patent/DE69608262D1/de
Publication of DE69608262T2 publication Critical patent/DE69608262T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/047Detection, control or error compensation of scanning velocity or position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • H04N1/107Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with manual scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/191Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
    • H04N1/192Simultaneously or substantially simultaneously scanning picture elements on one main scanning line
    • H04N1/193Simultaneously or substantially simultaneously scanning picture elements on one main scanning line using electrically scanned linear arrays, e.g. linear CCD arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/024Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
    • H04N2201/02406Arrangements for positioning elements within a head
    • H04N2201/02439Positioning method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/0402Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
    • H04N2201/0414Scanning an image in a series of overlapping zones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/0402Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
    • H04N2201/043Viewing the scanned area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/0471Detection of scanning velocity or position using dedicated detectors
    • H04N2201/04712Detection of scanning velocity or position using dedicated detectors using unbroken arrays of detectors, i.e. detectors mounted on the same substrate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/04729Detection of scanning velocity or position in the main-scan direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/04731Detection of scanning velocity or position in the sub-scan direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/04734Detecting at frequent intervals, e.g. once per line for sub-scan control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/04737Detection of scanning velocity or position by detecting the scanned medium directly, e.g. a leading edge
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/04743Detection of scanning velocity or position by detecting the image directly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04753Control or error compensation of scanning position or velocity
    • H04N2201/04758Control or error compensation of scanning position or velocity by controlling the position of the scanned image area
    • H04N2201/04787Control or error compensation of scanning position or velocity by controlling the position of the scanned image area by changing or controlling the addresses or values of pixels, e.g. in an array, in a memory, by interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04753Control or error compensation of scanning position or velocity
    • H04N2201/04794Varying the control or compensation during the scan, e.g. using continuous feedback or from line to line

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Input (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Character Input (AREA)

Description

    Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich allgemein auf Vorrichtungen und Verfahren zum Erzeugen abgetasteter elektronischer Bilder von Originalen und spezieller auf Abtast-Vorrichtungen und -Verfahren, die eine Rekonstruktion von Bildern aus Bildbändern, die während einer Bildaufnahme erhalten werden, ermöglichen.
  • Hintergrundtechnik
  • Scanner zum elektronischen Erzeugen eines Bilds aus einem Original sind bekannt. Typischerweise ist das aufgenommene Bild, das durch einen Scanner geliefert wird, ein Pixeldatenarray, das in einem digitalen Format in einem Speicher gespeichert wird. Ein verzerrungsfreies Bild erfordert eine naturgetreue Abbildung des ursprünglichen Bilds auf das Pixeldatenarray. Scanner umfassen typischerweise zumindest eine Einrichtung zum Aufbürden einer mechanischen Beschränkung während des Bildaufnahmeprozesses, um die Wahrscheinlichkeit einer naturgetreuen Abbildung zu maximieren. Die vier Typen von Scannern, die in der Technik bekannt sind, sind Trommelscanner, Flachbettscanner, Scanner mit zweidimensionalem Array und Handscanner. Trommelscanner bringen das Original an der Oberfläche einer zylindrischen Trommel an, die sich mit einer im wesentlichen festen Geschwindigkeit dreht. Während der Drehung der Trommel wird ein Bildsensor in einer Richtung parallel zu der Drehachse der Trommel bewegt. Die Kombination der linearen Verschiebung des Bildsensors und der Drehung des Originals auf der Trommel ermöglicht, daß das gesamte Original abgetastet wird. Bei jeder Bewegung während des Abtastprozesses kann die momentane Position in dem Pixeldatenarray relativ zu dem Original durch Messen der Winkelposition der Trommel und der Transla tionsposition des Sensors bestimmt werden. Die Position des Pixeldatenarrays bezüglich des Originals ist festgelegt, solange das Original ordnungsgemäß an der Trommel befestigt ist, die Trommeldrehung ordnungsgemäß gesteuert wird, und der Sensor ordnungsgemäß bezüglich seiner Verschiebung entlang des linearen Wegs gesteuert wird.
  • Flachbettscanner umfassen einen Lineararraysensor, der relativ zu dem Original entlang einer Achse bewegt wird, die senkrecht zu der Achse des Arrays ist. Folglich kann die Position des Sensors in einer Dimension durch das Verfolgen der Relativbewegung des Sensors bekannt sein. Die Position des Sensors in der senkrechten Richtung ist durch das Adressieren eines speziellen Arrayelements, an dem die Intensität gemessen werden soll, implizit festgelegt. Bei einem Ausführungsbeispiel eines Flachbettscanners wird das Original auf einer transparenten Auflageplatte plaziert, wobei der Sensor zusammen mit einer Bildbeleuchtungsquelle auf einer Seite der Auflageplatte plaziert wird, die dem Original gegenüberliegt. Solange das Original nicht relativ zu der Auflageplatte bewegt wird, wird das Pixeldatenarray bezüglich des Bilds, das aufgenommen werden soll, festgelegt sein. Bei einem weiteren Ausführungsbeispiel wird das Original bewegt und nicht der Sensor. Dieses zweite Ausführungsbeispiel ist typisch für Faxgeräte. Präzisionspapiertransportvorrichtungen liefern einen hohen Grad einer Positionsgenauigkeit während des Bildaufnahmeprozesses.
  • Vorteile der Trommel- und Flachbett-Scanner umfassen die Fähigkeit, Dokumente einer Größe von zumindest A4 aufzunehmen, oder Papier mit 8, 5 Zoll · 11 Zoll. Überdies können einige dieser Scanner Al-Papier in einer einzelnen Einstellung handhaben. Jedoch sind die Scanner im allgemeinen nicht tragbar, da dieselben einen Host-Computer für eine Steuerung, eine Datenspeicherung und eine Bildmanipulation erfordern.
  • Scannner mit zweidimensionalem Array können beim Fehlen me chanischer Codierungsbeschränkungen verwendet werden und erfordern lediglich, daß das Array und das Original während einer Belichtungsperiode bewegungslos gehalten werden. Ein zweidimensionales Array von photoempfindlichen Elementen erreicht direkt die Abbildung des Bilds des Originals in ein Pixeldatenarray. Da jedoch eine einzige 300-dpi-Abbildung eines Originals mit 8,5 Zoll · 11 Zoll einen Bildsensor mit einem Array von 2.500 · 3.300 Elementen erfordert, d. h. 8,25 Millionen Pixel, sind diese Scanner bei den meisten Anwendungen kostenmäßig untragbar.
  • Herkömmliche Handscanner erfordern, daß ein Benutzer ein lineares Array von elektrooptischen Sensorelementen über ein Original bewegt. Die Bewegung findet durch eine Handmanipulation statt. Arraypositionsinformationen werden unter Verwendung von Verfahren bestimmt, wie z. B. denen, die beim Betrieb einer Computer-"Maus" verwendet werden. Während ein lineares Sensorarray bewegt wird, wird die Drehung von Rädern, Kugeln oder Rollen, die in Kontakt mit dem Original sind, erfaßt, wobei die Positionsinformationen aus den mechanischen Details der Drehung bestimmt werden. Allgemein besitzt die Oberfläche des mechanischen Elements, das in Kontakt mit dem Original ist, einen hohen Reibungskoeffizienten, beispielsweise Gummi, um einem Gleiten und Rutschen entgegen zu wirken. Eine zylindrische Rolle oder zwei Räder, die durch eine starre Achse verbunden sind, können verwendet werden, um während des Abtastprozesses einen einzigen Translationsfreiheitsgrad zu erzwingen. Eine gerade Kante oder eine andere Festlegungseinrichtung wird häufig verwendet, um die Abtastrichtung bezüglich des Originals festzulegen und die Translationsbeschränkung, die durch das Paar von Rädern oder die Rolle geliefert wird, weiter zu erzwingen. Trotzdem ist der Positionscodierer-Lösungsansatz ein solcher, der häufig anfällig für Gleiten und Rutschen ist, so daß das Pixeldatenarray seine Zuordnung zu dem Bild auf dem Original verliert.
  • Handscanner sind typischerweise direkt mit einem separaten Computer für eine Bilddatenspeicherung, eine Verarbeitung und die Verwendung verbunden. Datenraten von dem Bildsensor begrenzen tendenziell die Abtastgeschwindigkeit. Die Scanner liefern eine Rückkopplung zu dem Benutzer, typischerweise mittels grüner oder roter lichtemittierender Dioden, um die geeignete Geschwindigkeit für die gewünschte Bildauflösung beizubehalten. Bestimmte Handscanner verwenden elektromagnetische Bremsen, um zu verhindern, daß der Benutzer den Scanner zu schnell über das Bild zieht, wobei mit einer Zunahme der Abtastgeschwindigkeit der mechanische Widerstand zunimmt.
  • Handscanner benutzen relativ kleine Bilderzeugungsarrays und können im allgemeinen in einem einzelnen Durchlauf größere Dokumente als A6 nicht handhaben. Dies erfordert Nähalgorithmen, um mehrere Bänder eines größeren Dokuments miteinander zu verbinden. Eine Bandvernähung kann bei einer getrennten Operation durch einen getrennten Computer durchgeführt werden. Das Abtasten eines mehrseitigen Geschäfts-Dokuments oder -Berichts mit einem Handscanner ist ein langwieriges Verfahrens, das häufig Ergebnisse geringer Qualität ergibt.
  • Wie vorher angemerkt wurde, wird mit einem Handscanner typischerweise ein bestimmter Typ einer Festlegungseinrichtung verwendet. Beim Fehlen einer Festlegungseinrichtung existiert eine Tendenz, eine bestimmte Drehung zu bewirken, während der Handscanner über ein Original bewegt wird. Wenn der Ellbogen des Benutzers während der Bewegung des Scanners auf einer flachen Oberfläche aufliegt, besitzt die Drehung wahrscheinlich einen Radius, der durch den Abstand zwischen dem Scanner und dem Ellbogen des Benutzers definiert ist. Folglich wird das abgetastete elektronische Bild verzerrt sein. Andere krummlinige Bewegungen während eines Durchlaufs des Scanners werden ebenfalls Verzerrungen bewirken. Techniken zum Vernähen von Bildbändern sind in der Abtasttechnik bekannt. Diese Techniken erfordern typischerweise ein Paar von vollständigen Bildbändern und erzeugen eine einzelne globale Transformation, die die zwei Bänder in Ausrichtung bringt. Ein Beispiel einer bekannten Technik zum Vernähen von Bildbändern ist die, die in dem U. S. -Patent 5,355,146 (äquivalent zu DE-A-41 07 018) gelehrt wird, die das Vernähen benachbarter Bänder lehrt, indem kleine Regionen ausgewählt werden, die um einen Abstand beabstandet sind, und indem eine Kreuzkorrelation dieser Regionen durchgeführt wird, um die Korrektur, die erforderlich ist, um eine Ausrichtung zu erreichen, zu bestimmen.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, eine Abtast-Vorrichtung und ein -Verfahren zu schaffen, die eine zusammengesetzte Reproduktion eines Bilds von abgetasteten Teilen eines Originalbilds mit einem hohen Grad einer Entsprechung zwischen dem Originalbild und dem reproduzierten Bild erzeugen.
  • Zusammenfassung der Erfindung
  • Gemäß der vorliegenden Erfindung schaffen wir ein Verfahren zum Erhalten und Rekonstruieren eines Bilds aus abgetasteten Teilen eines Originalbilds, die durch eine Relativbewegung zwischen einer Abtastvorrichtung und dem ursprünglichen Bild erhalten werden, so daß sich benachbarte abgetastete Bildbänder überlappen, wobei die Abtastvorrichtung eine Navigationseinrichtung aufweist, um die Position der Abtastvorrichtung relativ zu dem ursprünglichen Bild zu bestimmen, wobei das Verfahren folgende Schritte aufweist: Schreiben eines ersten Bands in das rekonstruierte Bild; Abbilden und nachfolgend Schreiben eines zweiten Bands fortlaufend in das rekonstruierte Bild, was das Benutzen der Bilddaten, die von den überlappenden Abschnitten des ersten und des zweiten Bands erhalten werden, um aufeinanderfolgende Abschätzungen eines Navigationsfehlers abzuleiten, und die kontinuierliche Verwendung der Fehlerabschätzungen, um Navigationsfehler während der fortlaufenden Rekonstruktion des Bilds zu korrigieren, umfaßt; dadurch gekennzeichnet, daß der Schritt des Schreibens eines ersten Bands in das rekonstruierte Bild ferner das Definieren von Ausrichtungsmerkmalen in dem ersten Band in einem erwarteten Überlappungsbereich mit einem nächsten Band, das gesammelt werden soll, aufweist; daß aufeinanderfolgende Abschätzungen des Navigationsfehlers durch Vergleichen der Positionen der Ausrichtungsmerkmale mit der Position der Reproduktionen derselben in dem zweiten Band unter Verwendung von Navigationsdaten, die während des Abtastens empfangen werden, erhalten werden, und daß jede Fehlerabschätzung räumlich vor einem nachfolgenden Schreiben des relevanten Teils des zweiten Bands in das rekonstruierte Bild geliefert wird.
  • Auf diese Weise involviert die vorliegende Erfindung die Berechnung aufeinanderfolgender Fehlerabschätzungen, die dann verwendet werden, um die Qualität des Bilds, das rekonstruiert wird, zu verbessern. Dies steht im Gegensatz zu dem oben genannten bekannten Lösungsansatz, bei dem eine einzelne globale Transformation verwendet wird, um benachbarte Bildbänder in Ausrichtung zu bringen. Das Verfahren der Erfindung besitzt den Vorteil, daß dasselbe ein genaueres Vernähen der Bildbänder liefert als bekannte Lösungsansätze, da dasselbe Navigationsfehler korrigiert.
  • Die Bilddaten, die von den überlappenden Abschnitten benachbarter Bänder erhalten werden, können auf unterschiedliche Arten verwendet werden, um Fehlerabschätzungen abzuleiten.
  • Lokale Korrelationen können entweder im Raum- oder Frequenz-Bereich durchgeführt werden und können auf entweder der inhärenten Bildstruktur oder einer bestimmten abgeleiteten, beispielsweise gefilterten, Version basieren. Alternativ kann ein Satz von strukturellen "Kanten"- oder "Eck"- Elementen durch eine bekannte Einrichtung erhalten werden und in Verbindung mit einem bekannten Übereinstimmungsprüfalgorithmus verwendet werden, um einen Satz von entsprechenden Orten zu erhalten, wobei ein Vergleich derselben eine Abschätzung des Fehlers liefert. Es ist ferner möglich, das Problem als eines einer lokalen parametrischen Optimierung hinzustellen, bei der die Parameter eines lokalen Modells (sprich Affinität) ausgewählt werden, um die Abbildung zwischen Versionen am besten zu beschreiben.
  • Bei den zu beschreibenden Ausführungsbeispielen umfaßt das Verfahren folgende Schritte: Identifizieren von Ausrichtungsmerkmalen in einem ersten Band in einem erwarteten Überlappungsbereich mit dem nächsten zu sammelnden Band; Vergleichen der Positionen der Ausrichtungsmerkmale mit der Position der Reproduktionen derselben in dem nächsten Band unter Verwendung von Navigationsdaten, die während des Abtastens empfangen werden; Verwenden dieser Vergleiche, um die Fehlerabschätzungen abzuleiten.
  • Bei einem der Ausführungsbeispiele, das beschrieben werden soll, umfaßt das Verfahren folgende Schritte: Ableiten der Fehlerabschätzungen durch Vergleichen der Position der Ausrichtungsmerkmale in dem ersten Band mit den Positionen in dem rekonstruierten Bild der Reproduktionen derselben in dem nächsten Band; und Verwenden der Fehlerabschätzungen, um Navigationsfehler in Teilen des Bilds, das nachfolgend rekonstruiert wird, zu korrigieren.
  • Bei diesem (Ein-Phasen-) Lösungsansatz werden Fehler identifiziert und Korrekturen auf nachfolgende Teile des Bilds, das rekonstruiert wird, angewendet. Dieser Lösungsansatz kann gute Ergebnisse ergeben, solange Navigationsfehler nicht zu groß sind. Dieser Lösungsansatz kann wie folgt implementiert werden: temporäres Speichern von Informationen, die sich auf die Ausrichtungsmerkmale, die in dem ersten Band identifiziert werden, beziehen; Abbilden des nächsten Bands in das rekonstruierte Bild; Vergleichen der gespeicherten Informationen mit Informationen, die sich auf die Reproduktionen in dem rekonstruierten Bild der Ausrichtungsmerkmale in dem nächsten Band beziehen.
  • Bei einem bevorzugten Ausführungsbeispiel, das beschrieben werden soll, umfaßt das Verfahren folgende Schritte: Speichern von Informationen, die sich auf einleitende Positionen der Ausrichtungsmerkmale in dem nächsten Band beziehen; Berechnen der Fehlerabschätzungen basierend auf den einleitenden Positionen; Anwenden der Fehlerabschätzungen während des Abbildens des nächsten Bands in das rekonstruierte Bild.
  • Bei diesem Ausführungsbeispiel wird ein zweiphasiges Verfahren verwendet, um Fehler an dem Punkt, an dem dieselben auftreten, in dem rekonstruierten Bild zu identifizieren und zu korrigieren, wobei ein Vernähen mit einem hohen Genauigkeitsgrad durchgeführt werden kann.
  • Dieser Lösungsansatz kann wie folgt implementiert werden: Speichern von Informationen, die sich auf die Position eines Ausrichtungsmerkmals in dem ersten Band beziehen; Verwenden der Positionsinformationen, um einen Teil der Bilddaten von dem nächsten Band zu lokalisieren; Vergleichen des lokalisierten Teils der Bilddaten von dem nächsten Band mit dem Ausrichtungsmerkmal aus dem ersten Band in dem rekonstruierten Bild; Verwenden dieses Vergleichs, um eine Fehlerabschätzung abzuleiten; Speichern der Fehlerabschätzung und einer Positionskennung, die anzeigt, auf welchen Teil des nächsten Bands sich die Fehlerabschätzung bezieht; Anwenden der Fehlerabschätzung, wenn der relevante Teil des nächsten Bands in das rekonstruierte Bild abgebildet wird.
  • Wenn die vorliegende Erfindung in einem Handscanner implementiert ist, der ausreichend Rechenleistung aufweist, um die gesamte Verarbeitung durchzuführen, umfaßt das Verfahren die Verwendung der Fehlerabschätzungen, um Korrekturen zu der Navigationsvorrichtung zurückzukoppeln. Folglich werden Fehler in Echtzeit identifiziert und verwendet, um die Navigationsvorrichtung selbst zu korrigieren, und um Fehler in dem Bild, das rekonstruiert wird, zu korrigieren.
  • Alternativ kann die vorliegende Erfindung in einer Abtastvorrichtung zum Sammeln von Bilddaten implementiert sein, die für eine Verbindung mit einem Computersystem zur Durchführung eines Verfahrens gemäß der vorliegenden Erfindung entworfen ist.
  • Die vorliegende Erfindung kann unterschiedliche Abtasttypen unterbringen. Um zu ermöglichen, daß der Benutzer die Abtastrichtung am Anfang auswählt, kann eine Einrichtung zum Identifizieren und Speichern von Informationen, die sich auf Ausrichtungsmerkmale auf zwei gegenüberliegenden Seiten jedes Bildbands beziehen, existieren. Um Änderungen der Abtastrichtung während einer Abtastung zu ermöglichen, kann eine Einrichtung zum Berechnen von Fehlerabschätzungen und zur Verwendung dieser, um Navigationsfehler bezüglich zweier gegenüberliegender Seiten eines Bands zu korrigieren, wenn ein Bild rekonstruiert wird, existieren.
  • Gemäß einem weiteren Aspekt schafft die Erfindung ein Abtastsystem zum Abtasten eines Originalbilds in Teilen und zum Erhalten und Rekonstruieren eines Bilds aus den abgetasteten Teilen des Originalbilds mit folgenden Merkmalen: einer Abtastvorrichtung zum Abtasten eines Originalbilds in Teilen, wobei die abgetasteten Teile durch eine Relativbewegung zwischen der Abtastvorrichtung und dem Originalbild erhalten werden, so daß benachbarte abgetastete Bildbänder einander überlappen, wobei die Abtastvorrichtung eine Navigationseinrichtung zum Bestimmen der Position der Abtastvorrichtung relativ zu dem Originalbild aufweist; einer Speichereinrichtung zum Speichern eines rekonstruierten Bilds; einer Einrichtung zum Schreiben eines Bildbands in das rekonstruierte Bild; einer Erkennungseinrichtung zum Definieren von Registrierungsmerkmalen in einem ersten Bildband in einem erwarteten Überlappungsbereich mit einem nächsten Band, das gesammelt werden soll; und einer Einrichtung zum Abbilden eines zweiten Bands fortlaufend in das rekonstruierte Bild, die angepaßt ist, um die Bilddaten, die von den überlappenden Abschnitten des ersten und des zweiten Bands erhalten werden, zu benutzen, um aufeinanderfolgende Abschätzungen eines Navigationsfehlers durch das Vergleichen der Positionen der Ausrichtungsmerkmale mit der Position der Reproduktionen derselben in dem zweiten Band unter Verwendung von Navigationsdaten, die während des Abtastens empfangen werden, abzuleiten, und um die Fehlerabschätzungen, die von diesen Vergleichen abgeleitet werden, kontinuierlich zu verwenden, um Navigationsfehler während einer fortlaufenden Rekonstruktion des Bilds zu korrigieren, wobei jede Fehlerabschätzung räumlich vor einem nachfolgenden Schreiben des relevanten Teils des zweiten Bands in das rekonstruierte Bild geliefert wird.
  • Eine Abtastvorrichtung gemäß diesem Aspekt wird beschrieben. Die Vorrichtung kann die Rechenleistung besitzen, um die Verarbeitung, die durch ein Verfahren gemäß der vorliegenden Erfindung erforderlich ist, durchzuführen, wobei die Vorrichtung alternativ für eine Verbindung mit einem Computersystem zum Durchführen eines Verfahrens gemäß der vorliegenden Erfindung entworfen sein kann.
  • Bei dem zu beschreibenden Ausführungsbeispiel umfassen eine Abtastvorrichtung und ein Verfahren zum Erzeugen eines abgetasteten elektronischen Bilds die Verwendung von Navigationsinformationen, die zusammen mit Bilddaten aufgenommen werden, und dann das Berichtigen der Bilddaten basierend auf den Navigations- und Bild-Informationen. Bei einem bevorzugten Ausführungsbeispiel werden die Navigationsinformationen mittels zumindest eines Navigationssensors aufgenommen, der inhärente strukturbezogene Eigenschaften eines Originals, das abgetastet wird, erfaßt. Die Bewegung eines Bildsensors entlang des Originals kann durch die Überwachung von Änderungen der inhärenten strukturbezogenen Eigenschaften, während der Bildsensor relativ zu dem Original bewegt wird, verfolgt werden. Die inhärenten, strukturbezogenen Eigenschaften, die überwacht werden, sind inhärente Strukturmerkmale, beispielsweise Papierfasern oder andere Bestandteile des Originals. Die Navigation kann auch auf einer Maserung basieren (speckle-based), wobei die Bewegung des Bildsensors entlang des Originals durch die Überwachung von Variationen des Maserungsmusters, das unter Verwendung einer kohärenten Beleuchtung zur Aufnahme der Navigationsinformationen erzeugt wird, verfolgt wird.
  • "Inhärente strukturbezogene Eigenschaften" sind Eigenschaften des Originals, die Faktoren zuweisbar sind, die unabhängig von der Erzeugung von Bilddaten und/oder von systematischen Ausrichtungsdaten auf dem Original sind. Die Navigationsinformationen können durch die Erzeugung eines Positionssignals gebildet werden, die ansprechend auf die Erfassung von inhärenten strukturbezogenen Eigenschaften erfolgt, wie z. B. ein Positionssignal von Maserungsinformationen oder ein Positionssignal, das eine Verfolgung einzelner inhärenter Strukturmerkmale ermöglicht. "Inhärente Strukturmerkmale" sind diejenigen Merkmale eines Originals, die charakteristisch für Prozesse des Erzeugens des Originals und unabhängig vom Erzeugen von Bilddaten und/oder systematischen Ausrichtungsdaten auf dem Original sind. Wenn das Medium, auf dem das Original aufgezeichnet ist, beispielsweise ein Papierprodukt ist, können die interessierenden inhärenten Strukturmerkmale Papierfasern sein. Als ein weiteres Beispiel kann die Navigation des Bildsensors über ein glänzendes Original oder einen Overhead-Transparentfilm bestimmt werden, indem Oberflächentexturvariationen, die Spiegelfelder beeinflussen, verfolgt werden. Typischerweise sind die inhärenten Strukturmerkmale mikroskopische Merkmale der Oberflächentextur, beispielsweise eine Größe zwischen 10 und 40 um.
  • Folglich variieren die betrachteten Lösungsansätze zum Aufnehmen von Navigationsinformationen hinsichtlich des Umfangs. Bei dem breitesten Lösungsansatz existiert keine Begrenzung hinsichtlich der Quellen der Navigationsinformationen, die verwendet werden sollen, um Verzerrungsartefakte einer krummlinigen und Dreh-Bewegung der Abtastvorrichtung entlang eines Abtastwegs zu beseitigen. Das Navigationssignal kann daher die Form eines Positionssignals aufweisen, das auf die Erfassung von Bilddaten auf dem Original (bei spielsweise der Identifizierung von Kanten von Textzeichen) anspricht, wobei das Positionssignal dann bei der Manipulation eines Bildsignals verwendet wird. Ein zweiter Lösungsansatz ist ein solcher, bei dem ein Positionssignal auf die Erfassung von inhärenten strukturbezogenen Eigenschaften anspricht, beispielsweise den Eigenschaften, die Maserungsmuster bestimmen. Der dritte Lösungsansatz besteht darin, die Navigation der Abtastvorrichtung durch das Überwachen der Positionen einzelner inhärenter Strukturmerkmale (beispielsweise Papierfasern) während der Zeit zu überwachen.
  • Bei den zu beschreibenden Ausführungsbeispielen ist der Bildsensor ein lineares Array von elektrooptischen Elementen, während der Navigationslösungsansatz zumindest ein zweidimensionales Array von Navigationssensorelementen verwendet. Indem ein separates zweidimensionales Navigationsarray an jedem Ende des Bildsensors plaziert wird, werden dem Scanner drei Bewegungsfreiheitsgrade geboten. Wenn das Original eben ist, sind zwei der Freiheitsgrade translierend und in der Ebene des Originals senkrecht zueinander, während der dritte Freiheitsgrad um die Senkrechte der Ebene des Originals rotierend ist. Die Genauigkeit der Rotationsverfolgung wird durch die Verwendung von zwei Navigationsarrays verbessert, wobei jedes Array eine kleinere Arraygröße aufweist, als notwendig wäre, wenn nur ein einzelnes Navigationsarray verwendet werden würde. Obwohl das beschriebene Ausführungsbeispiel ein solches ist, bei dem ein Navigationssensor ein zweidimensionales Array ist, können auch lineare Arrays verwendet werden. Wie jedoch ausführlicher nachfolgend beschrieben wird, könnten außerdem Navigationsinformationen zum Berichtigen von Bilddaten praktikabel durch das Befestigen einer anderen Positionsverfolgungseinrichtung an der Abtastvorrichtung aufgenommen werden, einschließlich Codierungs-Rädern und -Kugeln, Computer-Maus- Trackballs, Ausrichtungsgitter-Detektoren, Beschleunigungsmessern, mechanischen Verbindungen und Zeitverzögerungs-Integrations-Sensorarrays. Bei vielen dieser alternativen Ausführungsbeispiele werden Navigationsinformationen zum Be richtigen der Bilddaten auf Arten aufgenommen, die unabhängig von jeglichen inhärenten strukturbezogenen Eigenschaften des Originals sind, da die Positionsverfolgung keine Bilderfassung beinhaltet.
  • Die Navigationssensoren befinden sich an einer bekannten Position relativ zu dem Bildsensor. Vorzugsweise befinden sich die Navigationssensoren so nahe bei den Endpunkten der Bildsensoren wie möglich, so daß die Navigationssensoren weniger anfällig für eine Bewegung über die Kante eines Originals hinaus sind, während das Bildarray bewegt wird. Der Bildsensor erzeugt ein Signal, das ein interessierendes Bild darstellt. Gleichzeitig erzeugt jeder Navigationssensor ein Signal, das die inhärenten strukturbezogenen Eigenschaften des Originals darstellt. Die Abtastvorrichtung kann in einem Freihand-Meandermuster bewegt werden, beispielsweise einem aus abwechselnden Links-Nach-Rechts- und Rechts-Nach-Links- Bewegungen mit einer Abwärtsbewegung entlang des Originals, wobei die Vorrichtung in Berührung mit dem Original bleibt. Jedes der nebeneinanderliegenden Bänder sollte einen Abschnitt des vorherigen Bands überlappen, so daß das Bild bezüglich der Position manipuliert werden kann und entweder während oder nach dem Abtastprozeß vernäht werden kann. Die Manipulation des Bildsignals ist eine Berichtigung von Bilddaten, wobei die Berichtigung basierend auf der Relativbewegung zwischen dem Navigationssensor oder den Sensoren und den inhärenten strukturbezogenen Eigenschaften, die durch die Navigationssensoren erfaßt werden, basiert. Die Manipulation ist eine "Berichtigung" des Bildsignals, d. h. eine Operation des Anordnens und Modifizierens von aufgenommenen Bilddaten basierend auf Navigationsdaten, um eine Übereinstimmung zwischen dem ursprünglichen und dem ausgegebenen Bild zu erreichen. Das Vernähen wird verwendet, um Bilddaten, die während aufeinanderfolgender Durchläufe aufgenommen werden, zu verbinden.
  • Jeder Navigationssensor kann eine oder mehrere Lichtquellen aufweisen, die entworfen sind, um abhängig von den inhären ten strukturbezogenen Eigenschaften des Originals einen Kontrast zu liefern. Das emittierte Licht kann im sichtbaren Bereich liegen, wobei dies jedoch nicht notwendig ist. Beispielsweise wird "streifendes" Licht, das große Einfallswinkel relativ zu der Oberflächensenkrechten aufweist, mit Papierfasern an oder in der Nähe der Oberfläche eines Originals, das ein Papierprodukt ist, in Wechselwirkung treten, wobei zwischen den Fasern kontrastverbessernde Schatten erzeugt werden. Andererseits wird, wenn das Original eine glänzende Oberfläche besitzt, wie z. B. ein photographischer Druck, ein tonbeschichtetes Papier oder ein Overhead-Transparentfilm, senkrecht einfallendes Licht ein Bild in dem Spiegelfeld erzeugen, das Bildkontrastmerkmale aufweist, die zu Zwecken der Navigation ausreichen. Optische Elemente, wie z. B. Filter und eine oder mehrere Abbildungslinsen, können die Erfassung inhärenter strukturbezogener Eigenschaften weiter verbessern.
  • Ein Vorteil der beschriebenen Ausführungsbeispiele besteht darin, daß die Abtast-Vorrichtung und das -Verfahren drei Bewegungsfreiheitsgrade der Abtastvorrichtung ermöglichen, während noch eine Qualitätsbildaufnahme erreicht wird. Folglich kann beim Fehlen von anderen mechanischen Beschränkungen als denen, die durch die Berührung mit der Oberfläche des Originals während des Bildaufnahmeprozesses geliefert werden, eine tragbare Abtastvorrichtung im Taschenformat hergestellt und verwendet werden. Tatsächlich kann für Ausführungsbeispiele, bei denen die Bildberichtigung durch eine Korrelation von Navigationsbildern geliefert wird, die Vorrichtung-Zu-Original-Berührungsbeschränkung beseitigt sein. Ein weiterer Vorteil besteht darin, daß, da die Abtastvorrichtung der beschriebenen Ausführungsbeispiele ein elektronisches Bild basierend auf der Erfassung von inhärenten Strukturmerkmalen erzeugt, große Bereiche eines "weißen Raums" zwischen Bildmerkmalen des Originals beibehalten werden und daher nicht zur Folge haben, daß die Bildmerkmale während eines Vernähungsschritts näher zueinander bewegt werden.
  • Kurze Beschreibung der Zeichnungen
  • Fig. 1 ist eine perspektivische Ansicht einer Handabtastvorrichtung gemäß der Erfindung, die einem Meanderweg auf einem Original folgt.
  • Fig. 2 ist eine rückseitige Ansicht von Bilderzeugungs- und Navigations-Sensoren der Abtastvorrichtung von Fig. 1.
  • Fig. 3 ist eine perspektivische Ansicht der Abtastvorrichtung von Fig. 1, wobei die Bilderzeugungs- und Navigationssensoren freiliegend gezeigt sind.
  • Fig. 4 ist eine schematische Seitenansicht eines Beleuchtungssystems für einen der Navigationssensoren von Fig. 3.
  • Fig. 5 ist eine schematische Seitenansicht einer lichtemittierenden Diode und von optischen Elementen zum Liefern der Beleuchtung, die bezugnehmend auf Fig. 4 beschrieben ist.
  • Fig. 6 ist eine Konzeptansicht der Bildaufnahmeoperation der Abtastvorrichtung von Fig. 1.
  • Fig. 7 ist ein Flußdiagramm eines Ausführungsbeispiels der Navigationsverarbeitung der Abtastvorrichtung von Fig. 1.
  • Fig. 8 ist eine schematische Ansicht ausgewählter Schritte von Fig. 7.
  • Fig. 9 ist ein Blockdiagramm der Komponenten zum Durchführen der Schritte von Fig. 8.
  • Fig. 10a ist eine Darstellung eines Inkrements eines Positionsmarkierten Datenstroms, der typisch für das Ausgangssignal von dem Navigationsprozessor von Fig. 9 ist.
  • Fig. 10b ist eine Darstellung eines Puffers, der eine Mehrzahl von Positions-markierten Dateninkrementen speichert.
  • Fig. 11 zeigt einen Geradliniges-Bild-Puffer, der den Ort der Endpunkte der Abtastwerte von dem linearen Bildsensor zeigt.
  • Fig. 12 ist eine Darstellung von Bändern, die durch die Abtastvorrichtung von Fig. 1 gesammelt werden.
  • Fig. 13 zeigt die Puffer, die bei einem einphasigen Prozeß gemäß der vorliegenden Erfindung verwendet werden.
  • Fig. 14 zeigt Bänder, die gesammelt werden, wenn der einphasige Prozeß verwendet wird.
  • Fig. 15 ist eine Darstellung eines Ausrichtungsfelds, das verwendet werden kann, um ein Vernähen aufeinanderfolgender Bänder zu erreichen.
  • Fig. 16 zeigt die Puffer, die bei einem zweiphasigen Prozeß verwendet sind, um ein Vernähen von aufeinanderfolgenden Bändern zu erreichen.
  • Fig. 17 zeigt Bänder, die gesammelt werden, wenn der zweiphasige Prozeß von Fig. 16 verwendet wird.
  • Beste Art zum Durchführen der Erfindung
  • In Fig. 1, auf die nun Bezug genommen wird, ist eine tragbare Handabtastvorrichtung 10 gezeigt, die einem meanderför migen Weg 12 entlang eines Originals 14 gefolgt ist. Das Original kann ein Blatt Papier, ein Overhead-Transparentfilm oder jegliche andere ein Bild tragende Oberfläche sein. Die inhärenten strukturbezogenen Eigenschaften des Originals können verwendet werden, um während einer Navigation entlang des Meanderwegs Positionsinformationen zu liefern. Bei diesem Lösungsansatz werden die Positionen der inhärenten Strukturmerkmale verfolgt, wobei die Positionsinformationen verwendet werden, um Bilddaten zu berichtigen, wobei jedoch auch andere Ausführungsbeispiele beschrieben werden. Die Abtastvorrichtung ist vorzugsweise unabhängig und batteriebetrieben, kann jedoch eine Verbindung zu einer externen Leistungsquelle oder zu Datentoren von Computern oder Netzwerken aufweisen.
  • Die Abtastvorrichtung 10 von Fig. 1 umfaßt eine Bildanzeige 16, um die Betrachtung eines aufgenommenen Bilds zu ermöglichen. Jedoch ist eine Anzeige für die Verwendung der Abtastvorrichtung nicht essentiell.
  • Bezugnehmend nun auf die Fig. 1 bis 3 weist die Vorderseite 18 der Abtastvorrichtung 10 ein Schwenkbauglied 20 auf, das die Beibehaltung einer ordnungsgemäßen Berührung zwischen dem Original 14 und einem Bilderzeugungssensor 22 unterstützt. Der Bilderzeugungssensor 22 umfaßt ein lineares Array von Bildsensorelementen. Navigationssensoren 24 und 26 sind an den gegenüberliegenden Enden des Bilderzeugungssensors angeordnet. Die Navigationssensoren 24, 26 sind auf dem Schwenkbauglied befestigt, so daß sich die Navigationssensoren an einem festgelegten Ort relativ zu dem Bilderzeugungssensor befinden.
  • Die Abtastvorrichtung 10 ermöglicht drei Freiheitsgrade, von denen zwei translierend und einer rotierend ist. Der erste Grad ist die Seite-Zu-Seite-Bewegung (X-Achsenbewegung) entlang des Originals 14. Der zweite Freiheitsgrad ist die Bewegung entlang des Originals nach oben und nach unten (Y- Achsenbewegung). Der dritte Freiheitsgrad ist die Fähigkeit, die Vorrichtung mit einer Rotationsfehlausrichtung des Bilderzeugungssensors 22 relativ zu einer Kante des Originals 14 zu betreiben. Das heißt, daß der Bilderzeugungssensor 22 einen Angriffswinkel aufweisen kann, der nicht senkrecht zu der Richtung der Vorrichtungstranslation ist.
  • Aus Gründen einer physischen Kompaktheit ist der Bilderzeugungssensor 22 vorzugsweise eine Berührungsbildvorrichtung, wobei jedoch bei Anwendungen, bei denen eine Kompaktheit von geringerer Bedeutung ist, oder ein kleineres Bild gewünscht ist, Sensoren, die Projektionsoptiken mit einer Vergrößerung von weniger als 1 verwenden, verwendet werden können. Bei solchen Anwendungen sollten die Elemente des Bilderzeugungssensors 22 kleiner und näher zusammen gepackt sein. Berührungsbilderzeugungsvorrichtungen verwenden typischerweise Linsen, die unter der Marke SELFOC verkauft werden, die eine Marke der Nippon Sheet Glass Company Limited ist. Weniger üblich kann eine Berührungsbilderzeugung unter Verwendung von verschachtelten Arrayelementen von Quellen und Proximalsensoren erhalten werden, ohne irgendwelche Abbildungslinsen. Herkömmliche Bilderzeugungssensoren für Abtastanwendungen können verwendet werden. Der Bilderzeugungssensor kann Teil einer Einheit sein, die ebenfalls eine Beleuchtungsquelle, Beleuchtungsoptiken und Bildübertragungsoptiken enthält.
  • Der Bilderzeugungssensor 22 ist als ein lineares Array von diskreten, optisch empfindlichen Elementen gezeigt. Die Beabstandung der Elemente spielt eine Rolle bei der Bestimmung der räumlichen Auflösung des Scanners 10. Beispielsweise erfordert ein lineares Array mit einer Länge von 101,6 mm 1.200 Sensorelemente, um eine Auflösung von 300 dpi zu erreichen. Der Sensor kann eine ladungsgekoppelte Vorrichtung, ein Photodiodenarray aus amorphem Silizium oder jeglicher andere Typ eines Lineararraysensors, der in der Technik bekannt ist, sein.
  • Eine Schlüsselbetrachtung beim Entwurf der Bilderzeugungs sensoreinheit ist die Geschwindigkeit. Der Bilderzeugungssensor 22 ist vorzugsweise in der Lage, jedes Pixel mit näherungsweise 10K Abtastwerten pro Sekunde abzubilden. Lineare Bilderzeugungsarrays erzeugen allgemein einen seriellen Datenstrom, in dem Pixelwerte, d. h. Ladungen, in einem Schieberegister plaziert und dann herausgeschoben werden. Das Erreichen der gewünschten Geschwindigkeit erfordert entweder sehr schnelle serielle Übertragungsraten aus dem gesamten Bildarray oder mehrere Abgriffstellen, so daß es möglich ist, die Pixelwerte durch eine geringere Anzahl von Zellen zu schieben. Dies führt einen Parallelismus ein, der für eine digitale Verarbeitung vorteilhaft ist.
  • Eine weitere Folge der Geschwindigkeitsanforderung besteht darin, daß die Produkte von Pixelbereichen an der Oberfläche des Originals und deren Raumwinkel von emittiertem Licht, das gesammelt und zu jedem Arrayelement befördert wird, ausreichend groß sein sollten, um ein erfaßbares Signal bei Integrationszeiten in der Größenordnung von 100 Mikrosekunden zu erzeugen. Eine Verbesserungsoption besteht darin, ein optisches Element zu dem Sensor hinzuzufügen, um den wirksamen Bruchteil der Sensorneigung, auf den jedes Sensorelement anspricht, zu erhöhen. Da typischerweise eine unbenutzte Fläche in der Arraymatrix existiert, erhöhen derartige Lichtsammeloptiken die Empfindlichkeit.
  • Eine einfache Modifikation des Bilderzeugungssensors 22 ermöglicht die Erfassung von Farbbildern. Drei lineare Arrays parallel zueinander, von denen jedes zumindest ein eingebettetes Filterelement, das selektiv rote, grüne bzw. blaue Komponenten des einfallenden Lichts durchläßt, ermöglichen eine Farbbilderzeugung. Alternativ kann ein einzelnes Array mit einer Breitbandempfindlichkeit sequentiell durch eine rote, eine grüne und eine blaue Lichtquelle beleuchtet werden.
  • Hinsichtlich der Beleuchtung zur Verbesserung des Betriebs des Bilderzeugungssensors 22 kann ein lineares Array von lichtemittierenden Dioden hoher Intensität bei der Bernsteinwellenlänge verwendet werden. Jedoch hängt die Auswahl der bevorzugten Beleuchtungsquelle und jeglicher optischer Elemente von dem Medium des Originals ab. Die Wellenlänge des Lichts wird ausgewählt, um den Kontrast der Bilddaten, die während des Abtastens eines gegebenen Bereichs des Originals 14 aufgenommen werden, zu maximieren, während ungewollte Signale mißachtet werden. Beleuchtungsoptiken können aus LED-Domlinsen bestehen oder können eine Lichtröhre umfassen, die aus einem präzise geformten optischen Element besteht, das die Beleuchtung mit einem minimalen Lichtverlustbetrag auf das Original kanalisiert. Ein solcher Entwurf kann eine relativ gleichmäßige Beleuchtung eines Zielbereichs des Originals mit einem breiten Bereich von Winkeln bieten, blockiert jedoch senkrecht einfallende Strahlen, um Spiegeloberflächenreflexionen zu vermeiden.
  • Gemäß der Darstellung von Fig. 1 besitzt der Meanderweg 12 vier Bänder und einen Bruchteil eines Bands, d. h. Durchläufe von Seite zu Seite über das Original 14. Ein brauchbarer Bilderzeugungssensor 22 für die meisten denkbaren Anwendungen besitzt eine Länge in einem Bereich von 25,4 mm und 101,6 mm. Wenn der Sensor 22 eine Länge von 63,5 mm besitzt, kann ein A4-Papier in vier oder fünf Bändern abgetastet werden. Wie ausführlicher nachfolgend erklärt wird, sollten die Bänder Regionen eines Überlappens beinhalten, so daß ein Vernähungsverfahren verwendet werden kann, um eine naturgetreue Reproduktion des ursprünglichen Bilds zu erzeugen.
  • Die Abtastvorrichtung 10 umfaßt typischerweise zumindest einen Navigationssensor 24 oder 26. Bei dem bevorzugten Ausführungsbeispiel umfaßt die Vorrichtung ein Paar von Navigationssensoren, wobei sich die Sensoren an gegenüberliegenden Enden des Bilderzeugungssensors 22 befinden. Obwohl ein eindimensionales Array von optoelektronischen Elementen verwendet werden kann, besteht bei dem bevorzugten Ausführungsbeispiel jeder Navigationssensor aus einem zweidimensionalen Array von Elementen. Die Navigationssensoren 24 und 26 wer den verwendet, um eine Bewegung der Abtastvorrichtung 10 relativ zu dem Original 14 zu verfolgen.
  • Bei dem bevorzugten Ausführungsbeispiel nimmt jeder Navigationssensor 24 und 26 Bilder auf, die sich auf inhärente, strukturbezogene Eigenschaften des Originals beziehen, um Informationen zu erzeugen, die sich auf die Position der Abtastvorrichtung 10 beziehen. Bei den meisten bekannten Abtastvorrichtungen werden inhärente Strukturmerkmale als Rauschen betrachtet. Bei der Abtastvorrichtung 10 der Fig. 1 bis 3 sind derartige Merkmale bezüglich des Bilderzeugungssensors 22 Rauschen, können jedoch verwendet werden, um für die Navigationssensoren 24 und 26 eine Basis zu liefern, um Positionsinformationen zu erzeugen. Durch die Erfassung struktureller Variationen, die inhärent für das Medium sind, oder die auf dem Medium gebildet sind, beispielsweise Text, können brauchbare Hochkontrastbilder einer Oberflächentextur erzeugt werden. Zum Beispiel können Bilder basierend auf dem Kontrast zwischen Schatten in Tälern und hellen Punkten an den Spitzen inhärenter Strukturmerkmale erzeugt werden. Derartige Merkmale besitzen typischerweise eine mikroskopische Beschaffenheit, häufig in einem Größenbereich von 10 um und 40 um auf üblichen bedruckten Medien. Alternativ kann eine Maserung verwendet werden, da eine Spiegelreflexion eines kohärenten Strahls ein Kontrastmuster von hellen und dunklen Bereichen erzeugt. Eine dritte Quelle von Kontrastinformationen ist die Farbe. Der Farbkontrast ist unabhängig von einer Oberflächentextur. Selbst wenn eine texturfreie Oberfläche mit Licht in dem sichtbaren Bereich beleuchtet wird, existiert ein Farbkontrast zwischen Regionen unterschiedlicher Farben, beispielsweise zwischen unterschiedlichen Grauschattierungen.
  • Jedoch wird die Verwendung der Erfindung für Anwendungen, bei denen Navigationsinformationen unabhängig von inhärenten, strukturbezogenen Eigenschaften des Originals sind, betrachtet. Beispielsweise kann einer oder beide der Navigationssensoren 24 und 26 von Fig. 2 verwendet werden, um auf einanderfolgende Bilder des Drucks auf dem Original zu erzeugen, wobei eine Korrelation der aufeinanderfolgenden Bilder verwendet wird, um die Position und die Ausrichtung des Bildsensors 22 entlang des Originals 14 zu bestimmen. Bei diesem Ausführungsbeispiel bilden alle drei Sensoren 22, 24 und 26 Text auf dem Original ab, wobei jedoch nur das Signal von dem Sensor 22 verwendet wird, um Bilddaten aufzunehmen. Die Signale von den Navigationssensoren 24 und 26 werden verwendet, um Navigationsinformationen auf Bildbasis aufzunehmen.
  • Nicht-Bilderzeugungslösungsansätze können ebenfalls verwendet werden, um X-, Y- und Winkel-Positionsinformationen aufzunehmen und zu verarbeiten. Ungünstigerweise bewirken viele der alternativen Einrichtungen verschiedene Begrenzungen hinsichtlich der Kompaktheit, der Bequemlichkeit der Verwendung, der Geschwindigkeit, der Bewegungsfreiheit, des Leistungsverbrauchs, der Genauigkeit, der Exaktheit und/oder der Kosten. Eine abbildungsunabhängige Alternative, die zum Aufnehmen von Positionsinformationen verfügbar ist, besteht darin, ein oder mehrere Codierungsräder anstelle der Navigationssensoren vorzusehen. Die Codierungsräder können dann ohne ein Gleiten auf der abgetasteten Oberfläche rollen, was ermöglicht, daß sich die Abtastvorrichtung entlang gerader oder gekrümmter Bahnen bewegt. Es ist kein wesentliches Merkmal, daß sich die Codierungsräder auf einer gemeinsamen Achse befinden. Die Räder können an einem Drehgelenk befestigt sein. Codierer, die gekoppelt sind, um Rotationen zu überwachen, würden die Eingangsdaten liefern, aus denen die Position und die Ausrichtung eines Bilderzeugungssensors relativ zu einer Anfangs-Position und zu einer -Ausrichtung berechnet werden.
  • Ein weiterer bildfreier Lösungsansatz, um Navigationsinformationen aufzunehmen, besteht darin, Trackballs ähnlich denen für eine Computermaus zu verwenden. Ein Trackball könnte anstelle jedes Codiererrads, das oben beschrieben ist, verwendet werden. Codierer würden verwendet werden, um zweidi mensionale Verschiebungsinformationen von jedem Trackball zu erhalten. Bei einem weiteren Lösungsansatz können optische oder elektronische (kapazitive, resistive oder induktive) Sensoren anstelle der Navigationssensoren von Fig. 2 verwendet werden, um die Position und die Ausrichtung relativ zu einem mitwirkenden (aktiven oder passiven) Gitter oder einer anderen Referenz, die in einer darunterliegenden Auflage gebildet ist, die wiederum als ein Träger für das Original, das abgetastet wird, dient, zu erfassen.
  • Ein weiterer bildfreier Lösungsansatz, um Positions- und Ausrichtungs-Informationen aufzunehmen, besteht darin, einen Geschwindigkeitsmesser vorzusehen. Eine eingebaute Trägheitsnavigationsplattform kann verwendet werden, wobei Beschleunigungen erfaßt werden und entweder einmal integriert werden, um Geschwindigkeiten zu erhalten, oder zweimal, um Positionen zu erhalten. Bei einem weiteren alternativen Lösungsansatz könnten Geschwindigkeiten von federaufgehängten Massen erfaßt und einmal integriert werden, um Positionen zu erhalten. Gyroskope könnten bei einer direkten Erfassung der Ausrichtung verwendet werden.
  • Noch ein weiterer alternativer Lösungsansatz bestünde darin, eine beliebige einer Vielzahl von mechanischen Verbindungen zu verwenden, um damit die Position und die Ausrichtung relativ zu Referenzkoordinaten, die bezüglich des Mediums, das abgetastet wird, festgelegt sind, zu verfolgen. Positions- und Ausrichtungs-Informationen könnten mittels Sensoren erhalten werden, die gekoppelt sind, um die Relativbewegung der mechanischen Bauglieder zu messen. Diese Sensoren könnten entweder vom relativen oder absoluten Typ sein und könnten auf einer direkten Positions- und Ausrichtungs-Erfassung basieren, oder der Erfassung von Beschleunigungen oder Geschwindigkeiten, wobei dann eine einfache oder doppelte Integration bezüglich der Zeit erfolgen würde, um Positionen zu erhalten. Eine Nicht-Berührungs-Fernerfassung könnte ebenfalls verwendet werden, um die Position und die Ausrichtung der Abtastvorrichtung relativ zu Bezugskoordinaten, die bezüglich des abgetasteten Originals festgelegt sind, zu messen. Beispiele einer derartigen Nicht-Berührungs-Erfassung würden diejenigen beinhalten, die elektromagnetische Felder, Wellen oder Strahlen verwenden (beispielsweise bei optischen Frequenzen oder Hochfrequenzen); elektrische Effekte (beispielsweise den kapazitiven); und/oder magnetische Effekte (beispielsweise den induktiven). Diese Lösungsansätze könnten herkömmliche oder differentielle GPS-Technologien (globale Positionierungstechnologien) ausnutzen und könnten möglicherweise Satelliten verwenden. Diese Lösungsansätze können ferner herkömmliche Navigations/Beförderungs-Verfahren, wie z. B. Triangulationen, umfassen. Dieselben könnten auch Techniken beinhalten, die bei Robotertechnologien verwendet werden, beispielsweise die Verwendung von geformten Lichtstrahlen und die Interpretierung der Position aus Bildern der Orte, an denen diese Strahlen das sich bewegende Objekt schneiden.
  • Die Navigationssensoren 22 und 26 von Fig. 2 beobachten wirksam sich bewegende Fenster des Bilds des Originals 14 und erzeugen eine Anzeige der Verschiebung in zwei ebenen Dimensionen zwischen aufeinanderfolgenden Beobachtungen. Wie nachfolgend detaillierter erklärt wird, werden Pixelwerte von den Navigationssensoren verarbeitet, um eine ordnungsgemäße Abbildung von Bilddaten von dem Bilderzeugungssensor 22 zu bestimmen. Werte eines speziellen Pixels und seiner nächsten Nachbarn werden verwendet, um an jedem Pixelstandort ein Array von Korrelationswerten zu erzeugen. Die Korrelationswerte basieren auf Vergleichen zwischen einem momentanen Bild der Oberflächenstruktur und einem gespeicherten Bild, das eine bekannte Position inhärenter Strukturmerkmale darstellt, wobei das gespeicherte Bild als eine Positionsreferenz dient. Jedoch können andere Operationen als der Korrelierungsprozeß bei der Manipulation der Eingangsbilddaten verwendet werden, um das Ausgangsbild zu erzeugen.
  • In den Fig. 4 und 5, auf die nun Bezug genommen wird, ist der Navigationssensor 24 in Wirkverbindung mit Beleuchtungs optiken gezeigt. Wenn das Original 14 ein Papierprodukt ist, für das Papierfasern durch den Navigationssensor 24 zu erfassen sind, ist das Einführen von Licht in einem streifenden Einfallswinkel bevorzugt. Obwohl es nicht wesentlich ist, können eine oder mehrere lichtemittierende Dioden (LEDs) 28 verwendet werden. Der streifende Winkel 30, der das Komplement des Einfallswinkels ist, liegt vorzugsweise in dem Bereich von 0 Grad und 15 Grad, wobei dies jedoch abhängig von den Eigenschaften des Originals 14 variieren kann. In Fig. 5 ist die Quelle 28 mit einer Beleuchtungsoptik 34 gezeigt. Die Optik kann ein einzelnes Elementoder eine Kombination von Linsen, Filtern und/oder holographischen Elementen aufweisen, um eine geeignete kollimierte und allgemein gleichmäßige Beleuchtung der Zieloberfläche zu erreichen. Die Wellenlänge des Lichts, das durch die Quelle 28 emittiert wird, sollte ausgewählt sein, um die räumlichen Frequenzinformationen, die für eine Navigation verfügbar sind, zu verbessern. Ein Festmusterrauschen in dem Beleuchtungsfeld sollte minimiert sein. Das Ausgangssignal der Quelle 28 kann eine Einstellung erfordern, um breite Dynamikbereiche eines Reflexionsvermögens des Mediums aufzunehmen, während sich die Abtastvorrichtung über bedruckte Materialien mit absorbierenden oder reflektierenden Tinten oder anderen Markierungsmitteln weiterbewegt.
  • In Fig. 4 wird Licht von einer Quelle 35 an einer Beleuchtungsoptik 36 parallel gerichtet und dann durch einen Amplituden-Aufteilungs-Strahlteiler 37 umgeleitet. Der Teil der Lichtenergie, der von der LED direkt durch den Strahlteiler transmittiert wird, ist in Fig. 4 nicht gezeigt. Die Lichtenergie von dem Strahlteiler beleuchtet das Original 14 entlang der Senkrechten zu der Oberfläche.
  • In Fig. 4 ist ebenfalls der Teil der Lichtenergie dargestellt, der von dem Original 14 reflektiert oder gestreut und für eine Blendenbehandlung und eine Filterung an einem Element 38 und eine Fokussierung auf ein Bild an dem Element 39 durch den Strahlteiler 37 fällt. Der Teil der Lichtener gie, der von dem Original zu dem Strahlteiler gelangt und von dem Strahlteiler reflektiert wird, ist nicht gezeigt. Die Vergrößerung der Navigationsbilderzeugungsoptik sollte über das Betrachtungsfeld des zweidimensionalen Sensorarrays 24, das das fokussierte Licht erfaßt, konstant sein. Bei vielen Anwendungen müssen die Modulationsübertragungsfunktionen, d. h. das Amplitudenmaß der optischen Frequenzantwort, der Navigationsoptik solche sein, um eine Dämpfung vor der Nyquist-Frequenz zu liefern, die durch die Neigung der Sensorelemente des Navigationssensors und durch die Verstärkung der optischen Elemente bestimmt ist. Die optischen Elemente sollten ferner entworfen sein, um zu verhindern, daß eine Hintergrundbeleuchtung Rauschen erzeugt. Es sei angemerkt, daß ebenfalls ein Wellenfrontteilungs-Strahlteiler verwendet werden könnte.
  • Die Auswahl des Einfallswinkels hängt von den Materialeigenschaften des Originals ab. Streifende Beleuchtungswinkel erzeugen längere Schatten und einen erkennbareren Kontrast, oder ein AC-Signal, wenn die Oberfläche des Originals nicht glänzend ist. Der DC-Signalpegel nimmt jedoch zu, wenn sich der Beleuchtungswinkel der Senkrechten zu dem Original nähert.
  • Das Beleuchten der Zielregion des Originals 14 mit einem streifenden Winkel 30 ist für Anwendungen gut geeignet, bei denen die Oberfläche des Originals auf einer mikroskopischen Ebene einen großen Unebenheitsgrad aufweist. Beispielsweise liefert das Einführen von Licht von der Quelle 28 mit einem streifenden Winkel ein hohes Signal/Rausch-Verhältnis von Daten, die auf inhärente Strukturmerkmale bezogen sind, wenn das Original Schreibpapier, Karton, Gewebe oder die menschliche Haut ist. Andererseits kann die Verwendung eines inkohärenten Lichts mit einem senkrechten Einfallswinkel bei Anwendungen bevorzugt sein, bei denen Positionsdaten benötigt werden, um eine Scannerbewegung entlang derartiger Originale, wie z. B. Photographien, glänzenden Magazinseiten und Overhead-Transparentfilmen, zu verfolgen. Bei einer senk rechten Beleuchtung unter Verwendung eines inkohärenten Lichts wird die Betrachtung des Originals hinsichtlich des spiegelmäßig reflektierten Felds ein Bild liefern, das ausreichend reich an Texturgehalt ist, um eine Navigation auf Bild- und Korrelations-Basis zu ermöglichen. Die Oberfläche des Originals besitzt ein mikroskopisches Relief, derart, daß die Oberfläche Licht reflektiert, als wenn die Oberfläche ein Mosaik von Feldern (Kacheln) oder Facetten wäre. Viele der "Felder" eines Originals reflektieren Licht in Richtungen, die hinsichtlich der normalen leicht abgelenkt sind. Ein Sichtfeld, das das gestreute Licht und das spiegelmäßig reflektierte Licht enthält, kann folglich modelliert werden, als ob die Oberfläche aus vielen derartigen Feldern zusammengesetzt wäre, von denen jedes bezüglich der Senkrechten etwas unterschiedlich geneigt ist. Diese Modellierung ist ähnlich der von W. W. Barkas in dem Artikel mit dem Titel "Analysis of Light Scattered from a Surface of Low Gloss into Its Specular and Diffuse Components", in Proc. Phys. Soc., Bd. 51, S. 274-292 (1939).
  • Fig. 4 zeigt eine Beleuchtung durch eine Quelle 35 von inkohärentem Licht, das entlang der Senkrechten der Oberfläche des Originals 14 geleitet wird. Fig. 5 beschreibt die Beleuchtung in einem streifenden Winkel 30. Bei einem dritten Ausführungsbeispiel wird keine Beleuchtung geliefert. Statt dessen werden die Navigationsinformationen unter Verwendung eines Hintergrundlichts gesammelt, d. h. von Licht aus der Umgebung.
  • Bei einem vierten Ausführungsbeispiel wird eine kohärente Beleuchtung mit einem senkrechten Einfall eingebracht, um eine Navigation auf Maserungsbasis zu ermöglichen. Eine Relativbewegung zwischen einer Abtastvorrichtung und einem Original kann verfolgt werden, indem die Bewegung einer Maserung relativ zu den Navigationssensoren überwacht wird. Wenn eine kohärente Beleuchtung verwendet wird, ohne Abbildungsoptiken zu verwenden, sind, indem eine kleine Beleuchtungsfläche ausgewählt wird, und indem eine relativ große Trennung zwischen der Oberfläche des Originals und dem Photodetektorarray des Navigationssenors 24 vorgesehen wird, die resultierenden überwiegenden Maserungszellengrößen bei einer kohärenten Beleuchtung ausreichend groß, um dem Nyquist-Abtastkriterium zu genügen. Die Verwendung eines Strahlteilers ermöglicht, daß die Richtung sowohl der einfallenden Beleuchtung als auch der erfaßten Streuung in der Nähe der Senkrechten zu der Oberfläche des Originals sind, wie es in gleicher Weise bei Fig. 4 erreicht wird.
  • In Fig. 6, auf die nun Bezug genommen wird, ist der Scanner 10, wie er über ein Original 44 bewegt wird, gezeigt, das einen Block 46 aufweist, der auf die Oberfläche des Originals aufgedruckt ist. Da der Scanner 10 keinen kinematischen Beschränkungen in der Ebene des Originals unterworfen ist, besteht die Tendenz, daß ein Benutzer einem krummlinigen Weg über das Original folgt, als wenn die Hand und der Unterarm des Benutzers um den Ellbogen drehen. In Fig. 6 ist die Abtastvorrichtung einem gekrümmten Weg über den Block 46 folgend gezeigt. Wenn die untere Kante der Abtastvorrichtung die Kante ist, die sich näher am Ellbogen befindet, der die Rotationsachse definiert, wird die untere Kante einen kleineren Radius besitzen. Folglich werden die Bilderzeugungselemente eines Bilderzeugungssensors bezüglich der Zeit und der Strecke, die erforderlich sind, um den Block 46 zu überqueren, variieren. Ein verzerrtes Bild 50 des Blocks wird aufgenommen, wenn die Vorrichtung in die zweite Position 52, die in gestrichelten Linien gezeigt ist, bewegt wird.
  • Das aufgenommene Bild 50 würde beim Fehlen der Verarbeitung, die nachfolgend beschrieben wird, das gespeicherte Bild sein. Jedoch werden, während der Bilderzeugungssensor Daten, die sich auf den Block 46 beziehen, aufnimmt, Navigationsinformationen erfaßt. Bei dem beschriebenen Ausführungsbeispiel nehmen einer oder mehrere Navigationssensoren Daten, die sich auf inhärente Strukturmerkmale des Originals 44 beziehen, auf. Eine Bewegung der inhärenten Strukturmerkmale relativ zu der Abtastvorrichtung 10 wird verfolgt, um eine Verschiebung des Bilderzeugungssensors relativ zu dem Block 46 zu bestimmen. Ein naturgetreu aufgenommenes Bild 54 kann dann erzeugt werden. Das Bild 54 wird hierin als das "berichtigte" Bild definiert.
  • In Fig. 7 ist ein Ausführungsbeispiel einer Navigationsverarbeitung gezeigt. Die Navigationsverarbeitung wird durchgeführt, indem aufeinanderfolgende Rahmen von Navigationsinformationen, beispielsweise Daten, die sich auf inhärente Strukturmerkmale beziehen, korreliert werden. Die Korrelationen vergleichen die Positionen der inhärenten Strukturmerkmale in aufeinanderfolgenden Rahmen, um Informationen zu liefern, die sich auf die Position eines Navigationssensors zu einem speziellen Zeitpunkt beziehen. Die Navigationsinformationen werden dann verwendet, um die Bilddaten zu berichtigen. Die Verarbeitung von Fig. 7 wird typischerweise für jeden Navigationssensor durchgeführt.
  • In einem ersten Schritt 56 wird ein Referenzrahmen erfaßt. Tatsächlich ist der Referenzrahmen eine Startposition. Die Position eines Navigationssensors zu einem späteren Zeitpunkt kann bestimmt werden, indem ein Abtastwertrahmen von Positionsdaten von dem Navigationssensor zu dem späteren Zeitpunkt erfaßt wird 58, und indem dann Korrelationen zwischen dem Referenzrahmen und dem später erfaßten Abtastwertrahmen berechnet werden 60.
  • Das Erfassen des anfänglichen Referenzrahmens 56 kann auf eine Einleitung des Bilderzeugungsprozesses hin stattfinden. Beispielsweise kann die Erfassung durch lediglich die Plazierung der Abtastvorrichtung in Berührung mit dem Original ausgelöst werden. Alternativ kann die Abtastvorrichtung einen Startknopf aufweisen, der das Bilderzeugungsverfahren und das Navigationsverfahren einleitet. Die Einleitung kann auch durch eine periodische Pulsgebung des Beleuchtungssystems jedes Navigators stattfinden. Wenn ein reflektiertes Signal existiert, das eine vorgeschriebene Reflexionsschwelle überschreitet, oder ein Korrelationssignal, das eine Be wegung anzeigt, wird der Referenzrahmen erfaßt.
  • Obwohl die Navigationsverarbeitung berechnungsmäßig durchgeführt wird, können die Konzepte dieses Ausführungsbeispiels bezugnehmend auf die Fig. 7 und 8 beschrieben werden. Ein Referenzrahmen 62 ist als ein Bild eines T-förmigen inhärenten Strukturmerkmals 64 aufweisend gezeigt. Die Größe des Referenzrahmens hängt von Faktoren, wie z. B. der maximalen Abtastgeschwindigkeit der Abtastvorrichtung, der dominanten räumlichen Frequenz bei der Bilderzeugung der Strukturmerkmale und der Bildauflösung des Sensors ab. Eine praktische Größe des Referenzrahmens für einen Navigationssensor, der 32 Pixel (N) · 64 Pixel (M) aufweist, beträgt 24 · 56 Pixel.
  • Zu einem späteren Zeitpunkt (dt) erfaßt ein Navigationssensor einen Abtastwertrahmen 66, der bezüglich des Rahmens 62 verschoben ist, der jedoch im wesentlichen die gleichen inhärenten Strukturmerkmale zeigt. Die Dauer dt ist vorzugsweise derart eingestellt, daß die relative Verschiebung des T-förmigen Merkmals 64 bei der Bewegungsgeschwindigkeit der Abtastvorrichtung geringer ist als ein Pixel des Navigationssensors. Eine annehmbare Zeitperiode ist 50 us für Geschwindigkeiten von 0,45 m/s bei 600 dpi. Diese relative Verschiebung wird hierin als ein "Mikroschritt" bezeichnet.
  • Wenn sich die Abtastvorrichtung während der Zeitperiode zwischen dem Erfassen 56 des Referenzrahmens 62 und dem Erfassen 58 des Abtastwertrahmens 60 bewegt hat, werden das erste und das zweite Bild des T-förmigen Merkmals solche sein, bei denen sich das Merkmal verschoben hat. Obwohl das bevorzugte Ausführungsbeispiel ein solches ist, bei dem dt geringer ist als die Zeit, die eine Voll-Pixel-Bewegung ermöglicht, ist die schematische Darstellung von Fig. 8 eine solche, bei der es möglich ist, daß das Merkmal 64 um ein Pixel nach oben und rechts verschoben wird. Die Verschiebung um ein volles Pixel wird hier lediglich zur Vereinfachung der Darstellung angenommen.
  • Das Element 70 in Fig. 8 stellt eine sequentielle Verschiebung der Pixelwerte des Rahmens 68 in die acht nächstliegenden Nachbarpixel dar. Das heißt, daß der Schritt "0" keine Verschiebung umfaßt, der Schritt "1" eine diagonale Verschiebung nach links oben darstellt, der Schritt "2" eine Aufwärtsverschiebung darstellt, usw.. Auf diese Weise können die pixelverschobenen Rahmen mit dem Abtastwertrahmen 66 kombiniert werden, um das Array 72 von Positionsrahmen zu erzeugen. Der Positionsrahmen, der mit "Position 0" bezeichnet ist, umfaßt keine Verschiebung, so daß das Ergebnis lediglich eine Kombination der Rahmen 66 und 68 ist. "Position 3" besitzt die minimale Anzahl von schattierten Pixeln und ist daher der Rahmen mit der höchsten Korrelation. Basierend auf den Korrelationsergebnissen wird die Position des T-förmigen Merkmals 64 in dem Abtastwertrahmen 66 als relativ zu der Position des gleichen Merkmals in einem früher erfaßten Referenzrahmen 62 diagonal nach rechts und oben verschoben bestimmt, was impliziert, daß sich die Abtastvorrichtung während der Zeit dt nach links und unten bewegt hat.
  • Obwohl andere Korrelationslösungsansätze verwendet werden können, ist ein annehmbarer Lösungsansatz eine Korrelation der "Summe der quadrierten Differenzen". Für das Ausführungsbeispiel von Fig. 8 existieren neun Korrelationskoeffizienten (Ck = C&sub0;, C&sub1;, ..., C&sub8;), die aus den neun Versätzen bei dem Element 70 gebildet werden, wobei die Korrelationskoeffizienten durch folgende Gleichung bestimmt werden:
  • Ck = ΣiΣj (Sij - R(ij)+k)²
  • wobei Sij den vom Navigationssensor gemessenen Wert an der Position ij des Abtastwertrahmens 66 bezeichnet, und Rij den vom Navigationssensor gemessenen Wert bei dem Rahmen 68, wie er bei dem Element 70 in der k-Richtung verschoben ist, bezeichnet, wobei k der Identifizierer der Verschiebung bei dem Element 70 ist. In Fig. 8 liefert k = 3 den Korrelationskoeffizienten mit dem geringsten Wert.
  • Die Korrelationen werden verwendet, um die Orte identischer Merkmale in aufeinanderfolgenden Rahmen zu finden, um die Verschiebungen der Merkmale von Rahmen zu Rahmen zu bestimmen. Die Summierung oder Integration dieser Verschiebungen und das Korrigieren von Skalierungsfaktoren, die durch den Entwurf der relevanten Optiken eingebracht werden, bestimmen die Verschiebungen des Bildsensors, während das Abtastverfahren fortgesetzt wird.
  • Wie vorher erwähnt wurde, werden die Rahmen-Zu-Rahmen-Korrelationen als "Mikroschritte" bezeichnet, da Rahmenraten gewählt sind, um ausreichend hoch zu sein, um sicherzustellen, daß die Verschiebungen die Abmessung eines einzelnen Pixels nicht überschreiten. Eine Überabtastung kann eine Unter- Pixel-Verschiebungsgenauigkeit liefern. Bezugnehmend auf Fig. 7 wird eine Bestimmung 74, ob ein Mikroschritt zu unternehmen ist, nach jeder Berechnung 64 der Korrelationen getroffen. Wenn ein Mikroschritt erforderlich ist, wird der Referenzrahmen bei 76 verschoben. In diesem Schritt wird der Abtastwertrahmen 66 von Fig. 8 der Referenzrahmen und ein neuer Abtastwertrahmen wird erfaßt. Die Korrelationsberechnung wird dann wiederholt.
  • Während das Verfahren einen hohen Grad einer Korrelationsübereinstimmung liefert, werden sich sämtliche Fehler, die nicht erscheinen, mit jeder nachfolgenden Verschiebung 76 eines Abtastwertrahmens 66 zu der Referenzrahmenbestimmung akkumulieren. Um eine Beschränkung auf der Wachstumsrate dieses "Zufallsgang"-Fehlers zu plazieren, wird ein Abtastwertrahmen in einem getrennten Pufferspeicher gespeichert. Dieser getrennt gespeicherte Abtastwertrahmen wird für eine nachfolgende Reihe von Korrelationsberechnungen ein neuer Referenzrahmen. Die letztgenannte Korrelation wird als ein "Makroschritt" bezeichnet.
  • Durch die Verwendung von Makroschritten kann eine exaktere Bestimmung der Scannerverschiebung über eine Strecke von m Bildrahmenverschiebungen, d. h. m Mikroschritten, erhalten werden. Der Fehler in einem Makroschritt ist ein Ergebnis einer einzelnen Korrelationsberechnung, wohingegen der äquivalente Fehler von m Mikroschritten m1/2-mal der Fehler in einem einzelnen Mikroschritt ist. Obwohl sich der Durchschnitt der Fehler in m Mikroschritten Null nähert, wenn m zunimmt, wächst die Standardabweichung in dem Durchschnitt von Fehlern als m². Folglich ist es vorteilhaft, die Standardabweichung des akkumulierten Fehlers durch die Verwendung von Makroschritten, deren m so groß wie durchführbar ist, zu reduzieren, solange die zwei Rahmen, die einen Mikroschritt definieren, nicht so weit voneinander beabstandet sind, daß dieselben keine signifikante Region eines gemeinsamen Bildinhalts aufweisen.
  • Die Abtastperiode dt muß nicht konstant sein. Die Abtastperiode kann als eine Funktion vorheriger Messungen bestimmt werden. Ein Verfahren, das eine variable Abtastperiode dt verwendet, besteht darin, die Genauigkeit der Verschiebungsberechnung zu verbessern, indem die Relativverschiebung zwischen aufeinanderfolgenden Referenzrahmen in bestimmten Grenzen gehalten wird. Beispielsweise kann die obere Grenze eine Ein-Pixel-Verschiebung sein, während die untere Grenze durch numerische Abrundungsbetrachtungen bei der Verarbeitung der Navigationsdaten bestimmt ist.
  • Bezugnehmend auf Fig. 9 kann das Bildsignal, das an dem Bilderzeugungssensor 22 erzeugt wird, dann basierend auf den Navigationsdaten "Positions-markiert" werden. Bei einem Ausführungsbeispiel werden Pixelwerte von den zwei Navigationssensoren 24 und 26 durch einen Navigationsprozessor 80 empfangen, um die Operationen der Fig. 7 und 8 durchzuführen. Basierend auf den berechneten Korrelationen werden Koordinaten für die momentane Position des ersten Navigationssensors 24 (X&sub1;, Y&sub1;) und für die monentane Position des zweiten Navigationssensors 26 (X&sub2;, Y&sub2;) bestimmt. Jeder Navigator liefert individuell nur die lokale Translationskomponente seiner Position. Die Daten von beiden Navigatoren müssen integriert werden, um eine absolute Positionsabschätzung zu erhalten, die eine Rotation des Abtastkopfs berücksichtigt. Es ist ferner geeignet, die Positionsabschätzungen in Äquivalente zu übersetzen, die den physikalischen Endpunkten des Bildsensors entsprechen, und nicht den einzelnen Navigationssensoren. Dies geschieht unter Verwendung von Kalibrierungsdaten, die sich auf die physikalischen Orte der Navigations- und Bildsensoren beziehen. Der Navigationsprozessor 80 empfängt ferner N Pixelwerte des Bildsensors 22 über einen Pixelverstärker 82 und einen Analog/Digital-Wandler 84. Obwohl Fig. 9 nur einen einzelnen Abgriff von dem Bildsensor 22 und einen einzelnen A/D-Wandler 84 zeigt, liegen mehrere Abgriffe, jeder mit einem A/D-Wandler, in dem Schutzbereich der Erfindung. Die momentanen Positionskoordinaten werden am Ende einer Linie von Daten, die der Anzahl von Pixeln in dem Bilderzeugungssensor entspricht, "markiert". Das Ausgangssignal 86 des Navigationsprozessors 80 ist daher ein Positionsmarkierter Datenstrom. In Fig. 10a ist ein Inkrement 88 des Datenstroms als Positionskoordinatenzellen 90, 92, 94 und 96 an gegenüberliegenden Enden von N Pixelzellen aufweisend gezeigt, obwohl diese Anordnung nicht wesentlich ist.
  • Der Positions-markierte Datenstrom am Ausgang 86 des Navigationsprozessors 80 wird gepuffert, wie in Fig. 10b gezeigt ist. Ein Puffer B hält eine Mehrzahl von Inkrementen 88 von Fig. 10a. Der Puffer B kann verwendet werden, um eine gesamte Abtastung aufzunehmen, wobei in diesem Fall eine Datenkomprimierung verwendet werden kann. Diese Daten werden dann in geradlinige Koordinaten abgebildet, um ein endgültiges, berichtigtes, rekonstruiertes Bild zu erzeugen, wie nun beschrieben wird.
  • Fig. 11 zeigt den Geradliniges-Bild-Puffer 100, H Pixel in der Höhe mal W Pixel in der Breite, auf den der Strom von Inkrementen 88 abgebildet wird, um das endgültige geradlinige Bild zu erzeugen. Ein einfaches zweidimensionales Array eines geeigneten Datentyps (hier eine 8-Bit-Grauskala; könnte jedoch in gleicher Weise farbig 24 Bit oder binär 1 Bit sein) wird als eine Darstellung für das geradlinige Bild ausreichen. Die X- und Y-Koordinaten der Positionskennungen, die jedem Inkrement zugeordnet sind, entsprechen der horizontalen und vertikalen Abmessung (Spalten- und Zeilen-Indizes) des geradlinigen Bildraums. Ferner sind die Orte der Positionskennungen (die in der Teilansicht für einen kleinen Abschnitt rechts vergrößert gezeigt sind) für jeden Endpunkt des linearen Bildsensors gezeigt, die einem Strom von Inkrementen zugeordnet sind. Unter diesen ist ein Paar von Inkrementen (Inkrement #1 und Inkrement #2) hervorgehoben, in dem die Positionskennungen derselben mit geraden Linien verbunden sind. Diese sind als sich beinahe in der Überlappungsregion schneidend ausgewählt, wo die Abtastung auf sich selbst zurückkehrt.
  • Der Bilderzeugungssensor 22 wird getaktet, während sich die Abtastvorrichtung über ein Original bewegt. Die Taktgebung stellt sicher, daß das sich am schnellsten bewegende Element des Sensors zumindest einmal pro Pixelverschiebung abtastet.
  • Die nächste Operation besteht darin, die Positionsmarkierten Bildinkremente in einem Band in den Geradliniges-Bild- Puffer 100 abzubilden. Bei einem Ausführungsbeispiel werden die Endpunkte (Pixel&sub1; und PixelN) der Inkremente durch eine Linie verbunden. Da der Abstand zwischen jedem Pixel des Bilderzeugungssensors 22 festgelegt ist, kann der physikalische Ort der Pixel relativ zu der Linie berechnet werden. Ein Lösungsansatz zum Bestimmen der physikalischen Orte jedes Pixels ist eine Modifizierung der Bresenham Raster Line Technique. Die Modifikation besteht darin, daß die Linienschleife bei der gleichen Anzahl festgelegt sein wird, da das Array von Pixeln in dem Bilderzeugungssensor festgelegt ist. Das heißt, daß der übliche Bresenham-Algorithmus ein solcher ist, bei dem die Anzahl von Iterationen in der Linienschleife größer als delta_x und delta_y ist, d. h. max (delta_x, delta_y), wobei jedoch für den modifizierten Algorithmus die Anzahl (N) von Pixeln entlang dem Array verwendet wird, wobei max(delta_x, delta_y) kundenspezifisch verwendet wird, so daß die Schleife N-mal abläuft. Das folgende Programmelement beschreibt diesen Algorithmus:
  • /*********************************************************** Lade Pixelwerte mit set pixel() unter Verwendung von Standortpaaren (xa,ya) und (xb,yb) der Endpunkte eines N-Element-Arrays von Pixelwerten unter Verwendung eines modifizierten Bresenham-Linienzug-Algorithmusses
  • Folglich besteht bei zwei gegebenen Punkten auf einem Raster (xa, ya) und (xb, yb), die die Endpunkte eines Bilderzeugungsinkrements von N Pixeln sind, der Zweck darin, aufeinanderfolgend die Punkte (x, y) auf dem Raster zu finden, wo jedes Pixel gelesen werden soll. Diese Punkte bilden die beste Näherung einer geraden Linie, die die Endpunkte bei a und b verbindet. Nimm die Unterschiede in x und y. Von dem Vorzeichen der Abstände zwischen a und b bestimme, ob x und y inkrementiert oder dekrementiert werden, während die Linie überquert wird. Beginne bei x = xa, y = ya, wobei zwei Fehlerregister x_err und y_err auf Null eingestellt sind, und beginne die Schleife. Als nächstes lies den Wert bei (x, y) und schreibe denselben unter Verwendung von set_pixel() in den Geradliniges-Bild-Puffer. Unter der Annahme eines linearen Bildsensors mit der Hälfte der Auflösung der Navigation verwende i/2, x/2, y/2 für die Pixelanzahl in dem Sensor und die Position in dem Geradliniges-Bild-Puffer. Addiere delta_x und delta_y zu den jeweiligen Fehlerregistern, dann teste beide Fehlerregister, um zu sehen, ob dieselben N überschreiten. Wenn dies der Fall ist, subtrahiere N von denselben und ändere x und/oder y um das Inkrement. Wenn ein Fehlerregister N nicht überschreitet, verwende fortgesetzt den momentanen Wert von x oder y. Dieser Prozeß setzt sich fort, bis die Schleife N mal abgelaufen ist.
  • Wie vorher bezugnehmend auf Fig. 6 erwähnt wurde, wird in dem Fall einer wesentlichen Krümmung des Wegs der Abtastvorrichtung 10 während der Bildaufnahme ein Ende des Bilderzeugungsarrays schneller translatiert als das andere Ende, was bewirkt, daß Pixel an dem langsameren Ende überabgetastet werden, d. h. mehr als einmal geschrieben werden. Diese Situation kann gehandhabt werden, indem entweder das jüngste Lesen aufgezeichnet wird (für Grauskalen), oder indem in einem logischen ODER-Modus (für binäre Bilder) an einem spezifischen Pixelstandort in dem Bildraum aufgezeichnet wird.
  • Der Geradliniges-Bild-Puffer 100 ist groß genug, um eine einzelne Seite einer Letter-Größe oder einer A4-Größe bei der Auflösung des linearen Sensors (typischerweise entweder 200 oder 300 dpi) aufzunehmen. Es wird angenommen, daß die Position und die Ausrichtung des Abtastungsursprungs von vornherein bekannt sind. Inkremente, die entweder teilweise oder vollständig außerhalb des Bilds abbilden, können um die horizontalen oder vertikalen Grenzen gewickelt werden (unter Verwendung einer Modulo-Arithmetik bezüglich W und H für X- bzw. Y-Komponenten), um an der gegenüberliegenden Seite des geradlinigen Puffers fortzusetzen. Nach dem Abschluß der Abtastung kann der Geradliniges-Bild-Pufferspeicher 100 sowohl horizontal als auch vertikal verschoben werden, um die abgetastete Region zu zentrieren. Unter der Voraussetzung, daß die abgetastete Region weder die Gesamt-Höhe noch die -Breite des geradlinigen Puffers 100 überschreitet, wird das endgültige Bild unabhängig von der anfänglichen Startposition gut erzeugt. Um eine ordnungsgemäße Ausrichtung zu erhalten, muß entweder die Abtastung mit der angenommenen Orientierung (beispielsweise immer parallel zu der Seite der Seite) begonnen werden, oder die Orientierung muß aus dem Inhalt der Abtastung wiedergewonnen und verwendet werden, um das endgültige Bild neu auszurichten. Verfahren zum automatischen Bestimmen der vorherrschenden Orientierung von Text auf einer Seite, die als eine Basis für die letztgenannte Vorgehensweise verwendet werden können, sind in der Literatur bekannt, beispielsweise "The Skew Angle of Printed Documents" von H. S. Baird. Proc 4th SPSE Conference Symposium on Hybrid Image Systems, Rochester, New York 1987.
  • Der nächste Schritt besteht darin, aufeinanderfolgende Bildbänder mit ihren Überlappungsregionen gemäß der vorliegenden Erfindung zu vernähen. Das Ziel besteht darin, mehrere Bänder in dem Puffer 100, der ein endgültiges berichtigtes rekonstruiertes Bild enthält, zu kombinieren. Dies sollte auf eine solche Weise erfolgen, um den größten Teil des akkumulierten Navigationsfehlers zu identifizieren und zu korrigieren und jeglichen restlichen Fehler zu maskieren.
  • Bei den Ausführungsbeispielen der zu beschreibenden Erfin dung liefert der Strom von Navigationsdaten die Ausrichtungsinformationen, die für ein Vernähen benötigt werden. Da das Navigationssignal tendenziell Fehler akkumuliert, wird es kontinuierlich durch die Rückkopplung eines Korrektursignals, das aus einer Analyse der Merkmalversätze abgeleitet wird, geändert.
  • Jedoch beschreiben wir zuerst ein Verfahren zum Vernähen von Bildbändern, das davon ausgeht, daß keine Navigationsfehler existieren.
  • Ein bestimmter Überlappungsbereich ist notwendig, um zwei Bildbänder zu vernähen. Bänder sind durch eine Umkehr des Wegs der Abtastvorrichtung zurück über eine Region des Originals, von der ein Teil gerade abgetastet wurde, begrenzt. Ein Band umfaßt die Bilddaten, die während einer Abtastbewegung über ein Original, das abgetastet wird, aufgenommen wurden. In der folgenden Beschreibung wird der Ausdruck "Band" auch manchmal verwendet, um sich auf den Teil des rekonstruierten Bilds zu beziehen, der aus dem Abbilden derartiger Daten erzeugt wird.
  • Die Abtastung, die durch die Orte der Endpunkte der Inkremente in Fig. 11 dargestellt ist, erzeugt zwei überlappende Bänder. In Fig. 12 wird der Abschnitt, der in den Geradliniges-Bild-Puffer 100 abgebildet wird, der Band #1 aufweist, partiell bei der Rückkehr durch den Abschnitt der Abtastung, der Band #2 entspricht, wiederum abgebildet, wobei der Überlappungsbereich 102 ausgefüllt gezeigt ist. Zu einem Zeitpunkt T wurde bis hier ein Teilband abgetastet. Ein zufriedenstellendes Vernähen kann in diesem Fall erreicht werden, indem einfach fortgefahren wird, Band #2 über Band #1 in den Geradliniges-Bild-Puffer 100 abzubilden. Zurückkehrend zu Fig. 11 kann Inkrement #2 entlang seiner gesamten Länge exakt auf die gleiche Weise wie für Inkrement #1 abgebildet werden und in gleicher Weise für jedes Pixel in der Überlappungsregion 102 in Fig. 12. Die endgültige Aufbereitung in dem Geradliniges-Bild-Puffer 100, die aus Band #1 resultier te, wird einfach durch die ersetzt, die aus Band #2 resultiert.
  • In gleicher Weise wird sich ein Schema, bei dem Pixel in dem Überlappungsbereich 102, die als Teil von Band #1 abgebildet wurden, nicht durch diejenigen, die durch Band #2 abgebildet werden, ersetzt werden, ebenfalls als zufriedenstellend erweisen, vorausgesetzt, daß alle Pixel, die durch Band #2 abgebildet werden, die nicht Teil der Überlappung sind (d. h. nicht ebenfalls durch Band #1 abgebildet werden), ordnungsgemäß abgebildet werden. Das heißt, daß die Region, die durch Band #1 abgebildet wird, verwendet wird, um die Region, die durch Band #2 abgebildet wird, abzuschneiden. Tatsächlich können die Pixel in der Überlappungsregion in gleicher Weise entweder von Band #1 oder Band #2 oder einer Kombination derselben erhalten werden, vorausgesetzt, daß Band #1 und Band #2 korrekt alle Pixel, die außerhalb der Überlappungsregion liegen, abbilden.
  • Aufgrund der Akkumulation von Fehlern zwischen den Positionskennungen von Band #1 und Band #2 ergibt in der Praxis dieser einfache Lösungsansatz, der keine Navigationsfehler annimmt, keine sehr guten Ergebnisse.
  • Ein erstes Ausführungsbeispiel der vorliegenden Erfindung wird nun bezugnehmend auf die Fig. 13 und 14 beschrieben.
  • Fig. 13 zeigt die involvierten Verarbeitungsstufen und Datenpuffer, während sich Fig. 14 auf den Prozeß bezieht, der bezüglich Band #1 und Band #2 verwendet wird. Die Bildinkrementdaten in dem Inkrementpuffer B werden in den Geradliniges-Bild-Puffer 100 abgebildet, wie vorher beschrieben wurde. Fig. 14 zeigt, daß ein Teil des Bilds, das in Band #1 aufgenommen wird, durch den Rückkehrdurchlauf, Band #2, in den Geradliniges-Bild-Puffer 100 neu abgebildet wird. Eine Navigationskorrektur wird berechnet, indem Merkmale in dem Überlappungsbereich zwischen Band #1 und Band #2 korreliert werden.
  • In Fig. 14 ist dieser Überlappungsbereich, der in zwei Teile 104 und 105 unterteilt ist, hervorgehoben. Wie in Fig. 14 gezeigt ist, werden während der Sammlung von Band #1 vierseitige Bildsegmente (die von nun an als "Ausrichtungsfelder" bezeichnet werden), von denen drei 106, 108 und 110 gezeigt sind, periodisch entlang der unteren Kante des Bands in dem Überlappungsbereich 105 markiert. Bei einem späteren Durchlauf (Band #2) wird der Überlappungsbereich 104 des Bands #2 über dem Bereich 105, der die Ausrichtungsfelder 106, 108 und 110 des Bands #1 enthält, abgeschnitten, d. h. entfernt, während Band #2 erfaßt wird, indem nicht erlaubt wird, daß diese Pixel von Band #1 überschrieben werden. Das Ausrichtungsfeld 106 des Bands #1 ist über dem Bereich von Band #2 angeordnet, der verbleibt, nachdem der Überlappungsbereich 104 abgeschnitten wurde. Wenn die Navigationsdaten perfekt sind, wird kein Versatz zwischen dem Ort des Ausrichtungsfelds 106 und dem Ort des neu abgetasteten Bilds dieses Felds in Band #2 existieren. Realistischer wird sich ein bestimmter Navigationsfehler akkumuliert haben, seit die letzte Ausrichtung durchgeführt wurde. Der Versatz zwischen dem Erscheinungsbild dieses Felds in den zwei Bändern erzeugt einen Korrekturfaktor, der dann verwendet wird, um zukünftige Navigations-Positionskennungen, die den Bilddaten zugeordnet sind, zu aktualisieren, um den gesamten akkumulierten Fehler zu minimieren. Auf diese Weise wird verhindert, daß der gesamte akkumulierte Fehler der Navigationsdaten so stark anwächst, daß derselbe eine erkennbare Verzerrung in der Region, in der die Bänder überlappen, einführt.
  • Die Verarbeitungsstufen zum Vernähen von Band #1 mit Band #2 werden nun bezugnehmend auf die Fig. 13 und 14 beschrieben. Fig. 13 zeigt den Bildinkrementpuffer B und den Geradliniges-Bild-Puffer 100. Fig. 13 zeigt ferner einen Merkmalstandortpuffer 113 und einen Merkmalpuffer 114. Die Verarbeitungsstufen sind wie folgt:
  • 1. Wie oben erwähnt wurde, werden während der Sammlung von Band #1 Ausrichtungsfelder (106, 108 und 110) periodisch entlang der unteren Kante des Bands in dem Überlappungsbereich 105 markiert. Ein gesamtes Ausrichtungsfeld könnte für die oben beschriebene Korrelation verwendet werden, wobei jedoch bei dem bevorzugten Ausführungsbeispiel ein kleiner Bereich eines Hochfrequenzkontrasts (der im folgenden als ein "Ausrichtungsmerkmal" bezeichnet wird), der aus einem rechteckigen Feld (beispielsweise 15 · 15 Pixel) eines Grauskalenbilds besteht, innerhalb eines Registrierungsfelds, das Teil des Bilds, das in dem Geradliniges-Bild-Puffer 100 als ein Ergebnis der Aufnahme von Band #1 rekonstruiert wird, bildet, lokalisiert wird.
  • 2. Die Positionskennungen der Ausrichtungsmerkmale (die die Position jedes Ausrichtungsmerkmals in dem Geradliniges-Bild-Puffer 100 definieren) werden vor dem Beginn der Abbildung von Band #2 in den Geradliniges-Bild-Puffer 100 in dem Merkmalstandortpuffer 113 gespeichert.
  • 3. Während Band #2 abgebildet wird, werden Ausrichtungsmerkmalstandorte identifiziert, bevor dieselben in dem Geradliniges-Bild-Puffer 100 durch Band #2 überschrieben werden. Dies wird erreicht, indem ein rechteckiges Aufnahmefenster 107, das in Fig. 14 mit einer Länge gleich einem Bildinkrement und einer Breite einiger Pixel gezeigt ist, definiert wird, was dem Bildinkrement von Band #2, das momentan einer Abbildung in den Geradliniges-Bild-Puffer 100 unterworfen wird, vorausgeht. Wenn ein Ausrichtungsmerkmalstandort, der in dem Merkmalstandortpuffer 113 gespeichert ist, in das Aufnahmefenster 107 fällt, wird der Ausrichtungsmerkmalstandort ausgewählt (nur ein Ausrichtungsmerkmalstandort kann zu jeder beliebigen Zeit ausgewählt sein).
  • 4. Das Ergebnis des Auswählens eines Ausrichtungsmerkmalstandorts besteht darin, das relevante Ausrichtungsmerkmal (d. h. das Ausrichtungsmerkmal, das an diesem Ort in dem Geradliniges-Bild-Puffer 100 angeordnet ist) in den Merkmalpuffer 114 zu kopieren. Der Merkmalpuffer 114 speichert eine Kopie des Ausrichtungsmerkmals temporär zusammen mit der Po sitionskennung desselben.
  • 5. Nachdem Band #2 in den Geradliniges-Bild-Puffer 100 abgebildet wurde, um den Ort (und einen kleinen benachbarten Bereich) des Ausrichtungsmerkmals, von dem eine Kopie in dem Merkmalpuffer 114 gespeichert ist, zu überschreiben, werden der Inhalt des Merkmalpuffers 114 und der neu geschriebene Teil des Geradliniges-Bild-Puffers 100 verglichen, um ein Navigationskorrektursignal zu erzeugen, d. h. die Translation, die erforderlich ist, um die zwei Bildfragmente in eine enge Entsprechung zu bringen.
  • 6. Dieses Korrektursignal wird zu dem Navigationsprozessor 80, der in Fig. 9 gezeigt ist, zurückgeführt. Um erkennbare Verzerrungen in dem endgültigen repräsentativen Bild zu verhindern, wird die Fehlerabschätzung allmählich angewendet, d. h. die "Positionskennungen" werden in kleinen festgelegten Größenschritten modifiziert, während jede neue Zeile von Linearsensordaten in den Speicher geladen wird, bis der gesamte Fehler berücksichtigt wurde.
  • Während andere Korrelationslösungsansätze verwendet werden könnten, ist ein annehmbarer Lösungsansatz für die Berechnung des Versatzes zwischen zwei Bildfragmenten eine "Summe-Der-Quadrierten-Differenz"-Korrelation. Ein kleiner Suchbereich wird um den ursprünglichen Ort des Merkmals definiert, wobei Korrelationskoeffizienten durch folgende Gleichung bestimmt werden:
  • Gk,l = ΣiΣj (Tij - Ii+k,j+1)²
  • wobei Tij die Grauskalenwerte des Merkmals von Band #1 bezeichnet, und Ii+k,j+1 die Grauskalenwerte des neu erfaßten Merkmals von Band #2 bezeichnet. Die Indizes i und j spezifizieren Pixelstandorte in den Merkmalen, während k und 1 die Größe des vorgeschlagenen Translationsversatzes spezifizieren (beschränkt, um in dem Suchraum zu bleiben). Das kleinste Element in dem resultierenden Korrelationsarray be zeichnet den Versatz zwischen den zwei Merkmalen.
  • Das Ausrichtungsmerkmal in dem Ausrichtungsfeld wird ausgewählt, um die Bildvarianz zu maximieren, da dies die Genauigkeit des Korrelationsverfahrens verbessert. Bei einem möglichen Ausführungsbeispiel wird nur ein Teilsatz der Orte in der Region berücksichtigt. Diese Orte 116, 118, 120, 122 und 124 sind in Fig. 15 als entlang der Hauptachsen 126 und 128 des Ausrichtungsfelds liegend gezeigt (Linien, die gegenüberliegende Mittelpunkte von Linien verbinden, die die Region definieren) und werden an dem Schnittpunkt und auf halbem Weg zwischen dem Schnittpunkt und jedem Endpunkt der Achse abgetastet. Für jeden Ort 116, 118, 120, 122 und 124 wird die Varianz VARk,l unter Verwendung folgender Gleichungen berechnet:
  • SUMk,l = ΣiΣj Ik+i,1+j
  • SUM2k,l = ΣiΣj (Ik+i,1+j)²
  • VARk,l = SUM2k,l/N - (SUMk,l)²/N²
  • Wenn die Navigationsfehler relativ groß sind, kann das oben beschriebene Verfahren noch ungewollte Artefakte in das rekonstruierte Bild einbringen, speziell am Anfang von Bändern. Dies ist der Fall, da der Fehler zwischen den berechneten Positionen an der Oberseite und der Unterseite der Bildinkremente entlang der Länge eines Bands akkumuliert und am Anfang eines neuen Bands auf einem Maximum ist.
  • Ein weiteres bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung wird nun bezugnehmend auf die Fig. 16 und 17 beschrieben.
  • Fig. 16 zeigt den Bildinkrementpuffer B und den Geradliniges-Bild-Puffer 100. Wie bei dem Ausführungsbeispiel, das bezugnehmend auf die Fig. 13, 14 und 15 beschrieben wurde, ist ein Merkmalstandortpuffer 131 verwendet, um Positions kennungen für Ausrichtungsmerkmale, die in Band #1 identifiziert sind, zu speichern. Es existiert ferner ein spezieller Bildpuffer 132 zum Speichern von Bildfragmenten aus dem Puffer B, wie beschrieben wird.
  • Fig. 17 zeigt wiederum, daß ein Teil des Bilds, das in Band #1 aufgenommen ist, durch den Rückkehrdurchlauf, Band #2, erneut abgebildet wird. Ausrichtungsfelder sind bei 130 gezeigt. Jedoch existieren bei diesem Ausführungsbeispiel zwei Verarbeitungsphasen für das Vernähen von Band #2 mit Band #1. Die Verarbeitungsstufen bei der ersten Verarbeitungsphase lauten wie folgt:
  • 1. Wie bei dem Ausführungsbeispiel, das oben beschrieben ist, werden während der Sammlung von Band #1 Ausrichtungsfelder 130 periodisch entlang der unteren Kante von Band #1 in dem Überlappungsbereich zwischen benachbarten Bändern markiert, wobei ein kleiner Bereich eines Hochfrequenzkontrasts (ein "Ausrichtungsmerkmal") in einem Ausrichtungsfeld, das Teil des Bilds bildet, das in dem Geradliniges- Bild-Puffer 100 als ein Ergebnis der Aufnahme von Band #1 rekonstruiert wird, lokalisiert wird.
  • 2. Die Positionskennungen der Ausrichtungsmerkmale (die die Position jedes Ausrichtungsmerkmals in dem Geradliniges-Bild-Puffer 100 definieren) werden vor dem Beginn der Abbildung von Band #2 in dem Merkmalstandortpuffer 131 gespeichert.
  • 3. Während Band #2 abgebildet wird, werden Ausrichtungsmerkmalstandorte identifiziert, bevor dieselben (später in der Phase 2) in dem Geradliniges-Bild-Puffer 100 durch Band #2 überschrieben werden. Dies wird erreicht, indem ein Aufnahmefenster 133 definiert wird, das dem Bildinkrement 138 von Band #2 vorausgeht, das um einen bestimmten Weg vor dem Bildinkrement 133 ist, das momentan einer Abbildung in den Geradliniges-Bild-Puffer 100 unterzogen wird. Wenn ein Ausrichtungsmerkmalstandort, der in dem Merkmalstandortpuffer 131 gespeichert ist, in das Aufnahmefenster 133 fällt, wird der Ausrichtungsmerkmalstandort ausgewählt (nur ein Ausrichtungsmerkmalstandort kann zu jeder Zeit ausgewählt sein).
  • 4. Der ausgewählte Ausrichtungsmerkmalstandort wird verwendet, um den vorhergesagten Standort des Ausrichtungsmerkmals zu definieren, wenn Band #2 in den Geradliniges-Bild- Puffer 100 abgebildet wird. Navigationsfehler, die bezüglich vorheriger Ausrichtungsmerkmale gefunden wurden, werden berücksichtigt, indem die momentane Fehlerabschätzung (die in einem Fehlerpuffer 134 gespeichert ist) verwendet wird, um den Standort des momentanen Ausrichtungsmerkmals vorherzusagen. Daher muß der Suchbereich, der verwendet wird, um das momentane Ausrichtungsmerkmal zu lokalisieren, nur groß genug sein, um das mögliche Fehlerinkrement zu berücksichtigen.
  • 5. Der spezielle Bildpuffer 132 wird verwendet, um temporär direkt von dem Puffer B eine geradlinige Bildabbildung der Bilddaten von Band #2, die um den ausgewählten Ausrichtungsmerkmalstandort angeordnet sind, zu speichern, ebenso wie den Ausrichtungsmerkmalstandort zu speichern. In anderen Worten heißt das, daß zu dem Zeitpunkt T das Bildinkrement 138, das in Fig. 17 gezeigt ist, in den Puffer 132 abgebildet wird. Die Größe des speziellen Bildpuffers 132 muß ausreichend sein, um das Ausrichtungsmerkmal plus den erforderlichen Suchbereich zu speichern, wobei die Größe desselben gemäß bekannten Fehlerabschätzungsalgorithmen berechnet wird.
  • 6. Das Bildfragment von Band #2, das in dem speziellen Bild-Puffer 132 gespeichert ist, wird dann mit dem entsprechenden Bildfragment, das an dem Ausrichtungsmerkmalstandort in dem Geradliniges-Bild-Puffer 100 gespeichert ist, verglichen. Auf diese Weise wird ein Versatz erhalten, der, wenn er mit der vorherigen Fehlerabschätzung akkumuliert wird, eine aktualisierte Abschätzung des Navigationsfehlers ergibt. Diese aktualisierte Abschätzung wird zusammen mit ei ner Positionskennung in dem Fehlerpuffer 134 gespeichert.
  • Die Positionskennung der Fehlerabschätzung ist einfach der Standort des Zentrums des momentanen Ausrichtungsmerkmals bezüglich des Geradliniges-Bild-Puffers 100. Dieselbe wird wiederum verwendet, um das Inkrement in dem Inkrementpuffer B zu bestimmen, auf das sich die Fehlerabschätzung bezieht (d. h. das erste Inkrement, das Band #2 zugeordnet ist, das auf den Bildstandort abbildet). Dies zeigt das Inkrement an, um das die gemessene Abschätzung vollständig angepaßt werden sollte.
  • Bei einer zweiten Verarbeitungsphase werden die Bilddaten von Band #2 in den Geradliniges-Bild-Puffer 100 geschrieben, wobei die Fehlerabschätzungen an den aufgezeichneten Positionen berücksichtigt werden, um diese Fehler aus dem endgültigen rekonstruierten Bild zu beseitigen. Dies geschieht, indem die Positionsdaten, die den Endpunkten der einzelnen Bildinkremente der Sensordaten zugeordnet sind, modifiziert werden.
  • Dieser bevorzugte Lösungsansatz ergibt ein verbessertes Vernähen, da Fehler der Positionen des Navigationssensors, der sich durch die Überlappungsregion bewegt, zwischen Bändern identifiziert und korrigiert werden, bevor das endgültige Bild rekonstruiert wird. Zusätzlich kann ein Fehler zwischen den berechneten Positionen der Oberseite und der Unterseite der Bildinkremente, der während einer Sammlung des vorherigen Bands akkumuliert wurde, gleichzeitig am Anfang des nächsten Bands absorbiert werden, ohne ungewollte Artefakte einzuführen. Dies ist in Fig. 17 durch die Diskontinuität zwischen der rechten Kante des Umkehrpunkts zwischen Band #1 und Band #2 angezeigt, die aus der ersten und der zweiten Verarbeitungsphase, die oben beschrieben sind, abgeleitet ist.
  • Die vorliegende Erfindung kann auf unterschiedliche Arten bezüglich der Beschaffenheit der erforderlichen Abtastung implementiert werden. Eine Alternative besteht darin, zu fordern, daß eine Abtastung von der Oberseite einer Seite zu der Unterseite durchgeführt wird, wobei in diesem Fall ein Vernähen immer nur zwischen der Unterseite eines Bands und der Oberseite des nächsten durchgeführt werden muß. Ein weiterer Lösungsansatz besteht darin, zu ermöglichen, daß ein Abtasten in einem beliebigen Teil der Seite beginnt, jedoch zu fordern, daß die anfängliche Abtastrichtung beibehalten wird. In diesem Fall muß die Fähigkeit existieren, Ausrichtungsmerkmale auf beiden Kanten von Bändern zu identifizieren, wobei jedoch sobald die Abtastrichtung festgelegt ist, Fehlerabschätzungen nur für eine Seite des momentanen Bands beibehalten werden müssen. Bei einem weiteren Lösungsansatz kann ein Abtasten in jeder Richtung erlaubt sein, wobei Änderungen der Abtastrichtung ebenfalls untergebracht werden können, beispielsweise eine spiralförmige Abtastung. Bei diesem dritten Lösungsansatz muß nicht nur die Fähigkeit bestehen, Ausrichtungsmerkmale auf beiden Kanten von Bändern zu identifizieren, sondern müssen Fehlerabschätzungen sowohl für die Oberseite als auch die Unterseite jedes Bands beibehalten werden, falls die Abtastrichtung sich ändern sollte. Der letztgenannte Lösungsansatz ergibt die größte Flexibilität für den Benutzer, weist jedoch einen höheren Berechnungsgesamtaufwand auf.
  • Bei dem bevorzugten Ausführungsbeispiel befindet sich die Verarbeitungselektronik für die Bildrekonstruktion, das Vernähen und die Bildverwaltung in dem Gehäuse, das die Abtastvorrichtung 10 von Fig. 1 definiert. Folglich kann das abgetastete Bild unmittelbar auf der Bildanzeige 16 präsentiert werden. Jedoch kann die Abtastvorrichtung einen Speicher enthalten, um die Positions-markierten Bilddaten zu speichern, jedoch ohne Verarbeitungs- und Dateiverwaltungs-Elektronik und -Firmware.
  • Wie bezugnehmend auf Fig. 3 angegeben wurde, sind die Navigations- und Bilderzeugungssensoren 22, 24 und 26 vorzugsweise auf einem Schwenkbauglied 20 befestigt. Bei einem Aus führungsbeispiel ist das Schwenkbauglied durch zumindest ein Elastomer mit dem Rest des Gehäuses verbunden, wobei ein Ende des Elastomers mit dem stationären Abschnitt des Gehäuses verbunden ist, während das andere Ende mit dem Schwenkbauglied verbunden ist. Das Elastomer wirkt als ein Gelenk. Folglich ist es möglich, daß der Schwenkabschnitt "schwebt", ohne Reibungselemente zu verwenden. Leistungs-, Steuer- und Daten-Signale können über flexible Kabel zu den Sensoren geleitet werden, die abgeschirmt sind, um eine elektromagnetische Störung zu minimieren. Andere Verfahren zum schwenkbaren Befestigen des Schwenkbauglieds können verwendet werden. Wenn das Schwenkbauglied beseitigt ist und die Sensoren an einer festen Position auf dem Gehäuse angeordnet sind, muß darauf geachtet werden, daß die Abtastvorrichtung 10 während der Bildaufnahme nicht übermäßig geneigt wird. Bei diesem Ausführungsbeispiel muß eine erhöhte Aufmerksamkeit auf den Entwurf der Beleuchtungs- und Optikelemente gelegt werden.
  • Obwohl die Erfindung als eine solche, bei der ein ebenes Original abgetastet wird, beschrieben und dargestellt wurde, ist dies kein wesentliches Merkmal. Tatsächlich werden Fachleute ohne weiteres verstehen, wieviele der Techniken zur Abtastung von dreidimensionalen Bildern verwendet werden können. Jedoch ist das bevorzugte Ausführungsbeispiel ein solches, bei dem ein interessierendes Bild auf einem Medium, beispielsweise einem Blatt Papier, einem Transparent oder einer Photographie gebildet ist, wobei die Abtastvorrichtung in Berührung mit dem Medium ist.

Claims (12)

1. Ein Verfahren zum Erhalten und Rekonstruieren eines Bilds aus abgetasteten Teilen eines Originalbilds, die durch eine Relativbewegung zwischen einer Abtastvorrichtung und dem Originalbild erhalten werden, so daß benachbarte abgetastete Bildbänder überlappen, wobei die Abtastvorrichtung eine Navigationseinrichtung zum Bestimmen der Position der Abtastvorrichtung relativ zu dem Originalbild aufweist, wobei das Verfahren folgende Schritte aufweist:
Schreiben eines ersten Bands in das rekonstruierte Bild;
Abbilden und nachfolgendes Schreiben eines zweiten Bands fortlaufend in das rekonstruierte Bild, was die Verwendung der Bilddaten, die von den überlappenden Abschnitten des ersten und des zweiten Bands erhalten werden, um aufeinanderfolgende Abschätzungen eines Navigationsfehlers abzuleiten, und die kontinuierliche Verwendung der Fehlerabschätzungen, um Navigationsfehler während der fortlaufenden Rekonstruktion des Bilds zu korrigieren, umfaßt;
dadurch gekennzeichnet, daß der Schritt des Schreibens eines ersten Bands in das rekonstruierte Bild ferner das Definieren von Ausrichtungsmerkmalen in dem ersten Band in einem erwarteten Überlappungsbereich mit einem nächsten Band, das gesammelt werden soll, umfaßt; daß aufeinanderfolgende Abschätzungen des Navigationsfehlers erhalten werden, indem die Positionen der Ausrichtungsmerkmale mit der Position von Reproduktionen derselben in dem zweiten Band unter Verwendung von Navigationsdaten, die während der Abtastung empfangen werden, verglichen werden, und daß jede Fehlerabschätzung räumlich vor einem nachfolgenden Schreiben des relevanten Teils des zweiten Bands in das rekonstruierte Bild geliefert wird.
2. Ein Verfahren gemäß Anspruch 1, bei dem jedes Ausrichtungsmerkmal ein Bereich eines Hochfrequenzkontrasts in einem Band ist.
3. Ein Verfahren gemäß Anspruch 1 oder 2 mit folgenden Schritten:
Speichern von Informationen, die sich auf die Ausrichtungsmerkmale, die in dem ersten Band identifiziert sind, beziehen, separat von dem rekonstruierten Bild;
Verwenden der gespeicherten Informationen, um die Fehlerabschätzungen zu erhalten.
4. Ein Verfahren gemäß Anspruch 3 mit folgenden Schritten:
Speichern von Informationen, die sich auf die Position eines Ausrichtungsmerkmals in dem ersten Band beziehen;
Verwenden der Positionsinformationen, um einen Teil der Bilddaten aus dem zweiten Band zu lokalisieren;
Vergleichen des lokalisierten Teils der Bilddaten aus dem nächsten Band mit dem Ausrichtungsmerkmal aus dem ersten Band;
Verwenden des Vergleichs, um eine Fehlerabschätzung abzuleiten;
Speichern der Fehlerabschätzung und einer Positionskennung, die anzeigt, auf welchen Teil des zweiten Bands sich die Fehlerabschätzung bezieht;
Anwenden der Fehlerabschätzung, wenn der relevante Teil des zweiten Bands nachfolgend in das rekonstruierte Bild geschrieben wird.
5. Ein Verfahren gemäß Anspruch 4, das nach dem Schritt des Lokalisierens des Teils der Bilddaten aus dem zweiten Band das Speichern des Teils der Bilddaten aus dem zweiten Band getrennt von dem rekonstruierten Bild aufweist.
6. Ein Verfahren gemäß einem beliebigen vorhergehenden Anspruch, bei dem der Schritt des Korrigierens des Navigationsfehlers inkremental zwischen Ausrichtungsmerkmalen bei der Rekonstruktion des Bilds implementiert wird.
7. Ein Verfahren gemäß einem beliebigen der Ansprüche 1 bis 6, das die Verwendung der Fehlerabschätzungen aufweist, um Korrekturen zu der Navigationsvorrichtung zurückzukoppeln.
8. Ein Verfahren gemäß einem beliebigen vorhergehenden Anspruch, das das Identifizieren und Speichern von Informationen, die sich auf Ausrichtungsmerkmale auf zwei gegenüberliegenden Seiten des ersten Bands beziehen, aufweist.
9. Ein Verfahren gemäß Anspruch 8, das das Berechnen von Fehlerabschätzungen und die Verwendung derselben, um Navigationsfehler bezüglich zweier gegenüberliegender Seiten eines Bands zu korrigieren, wenn ein Bild rekonstruiert wird, aufweist.
10. Ein Abtastsystem zum Abtasten eines Originalbilds in Teilen und zum Erhalten und Rekonstruieren eines Bilds aus den abgetasteten Teilen des Originalbilds, mit folgenden Merkmalen:
einer Abtastvorrichtung (10) zum Abtasten eines Originalbilds in Teilen, wobei die abgetasteten Teile durch eine Relativbewegung zwischen der Abtastvorrichtung und dem Originalbild, so daß benachbarte abgetastete Bildbänder überlappen, erhalten werden, wobei die Abtastvorrichtung eine Navigationseinrichtung (24, 26, 80) zum Bestimmen der Position der Abtastvorrichtung relativ zu dem Originalbild aufweist;
einer Speichereinrichtung (100) zum Speichern eines rekonstruierten Bilds; und
einer Einrichtung zum Schreiben eines Bildbands in das rekonstruierte Bild;
wobei die Erfindung dadurch gekennzeichnet ist, daß das Abtastsystem ferner folgende Merkmale aufweist:
eine Erkennungseinrichtung zum Definieren von Ausrichtungsmerkmalen in einem ersten Bildband in einem erwarteten Überlappungsbereich mit einem nächsten zu sammelnden Band; und
eine Einrichtung zum Abbilden eines zweiten Bands fortlaufend in das rekonstruierte Bild, die angepaßt ist, um die Bilddaten, die von den überlappenden Abschnitten des ersten und des zweiten Bands erhalten werden, zu benutzen, um aufeinanderfolgende Abschätzungen eines Navigationsfehlers durch das Vergleichen der Positionen der Ausrichtungsmerkmale mit der Position von Reproduktionen derselben in dem zweiten Band unter Verwendung von Navigationsdaten, die während der Abtastung empfangen werden, abzuleiten, und um die Fehlerabschätzungen, die aus diesen Vergleichen abgeleitet werden, kontinuierlich zu verwenden, um Navigationsfehler während einer fortlaufenden Rekonstruktion des Bilds zu korrigieren, wobei jede Fehlerabschätzung räumlich vor einem nachfolgenden Schreiben des relevanten Teils des zweiten Bands in das rekonstruierte Bild geliefert wird.
11. Ein Abtastsystem gemäß Anspruch 10, bei dem die Erkennungseinrichtung angepaßt ist, um als Ausrichtungsmerkmale nur Bereiche eines Hochfrequenzkontrasts in einem Band zu definieren.
12. Ein Abtastsystem gemäß Anspruch 10 oder 11, bei dem die Speichereinrichtung eine Einrichtung (114) zum Speichern der Ausrichtungsmerkmale getrennt von dem rekonstruierten Bild aufweist.
DE69608262T 1995-03-02 1996-03-04 System und verfahren zur bildabtastung Expired - Lifetime DE69608262T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/396,826 US5578813A (en) 1995-03-02 1995-03-02 Freehand image scanning device which compensates for non-linear movement
PCT/GB1996/000492 WO1996027257A2 (en) 1995-03-02 1996-03-04 Image scanning device and method

Publications (2)

Publication Number Publication Date
DE69608262D1 DE69608262D1 (de) 2000-06-15
DE69608262T2 true DE69608262T2 (de) 2001-02-08

Family

ID=23568777

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69609096T Expired - Lifetime DE69609096T2 (de) 1995-03-02 1996-02-07 Bildabtastungssystem
DE69608262T Expired - Lifetime DE69608262T2 (de) 1995-03-02 1996-03-04 System und verfahren zur bildabtastung

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE69609096T Expired - Lifetime DE69609096T2 (de) 1995-03-02 1996-02-07 Bildabtastungssystem

Country Status (9)

Country Link
US (4) US5578813A (de)
EP (2) EP0730366B1 (de)
JP (2) JP3860242B2 (de)
KR (1) KR100463947B1 (de)
CN (2) CN1120444C (de)
AU (1) AU719574B2 (de)
CA (1) CA2166904A1 (de)
DE (2) DE69609096T2 (de)
WO (1) WO1996027257A2 (de)

Families Citing this family (486)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6631842B1 (en) * 2000-06-07 2003-10-14 Metrologic Instruments, Inc. Method of and system for producing images of objects using planar laser illumination beams and image detection arrays
GB2288512B (en) * 1994-04-14 1998-08-26 Matsushita Electric Ind Co Ltd Image processing apparatus
US5578813A (en) * 1995-03-02 1996-11-26 Allen; Ross R. Freehand image scanning device which compensates for non-linear movement
JPH08298568A (ja) * 1995-04-27 1996-11-12 Brother Ind Ltd 入出力機器
US5786804A (en) 1995-10-06 1998-07-28 Hewlett-Packard Company Method and system for tracking attitude
US6950094B2 (en) 1998-03-30 2005-09-27 Agilent Technologies, Inc Seeing eye mouse for a computer system
US5729008A (en) * 1996-01-25 1998-03-17 Hewlett-Packard Company Method and device for tracking relative movement by correlating signals from an array of photoelements
US6345116B1 (en) * 1996-05-31 2002-02-05 Matsushita Electric Industrial Co., Ltd. Image processing apparatus
IL118914A0 (en) * 1996-07-22 1996-10-31 Zohar Argamanit Ltd Hand-holdable optical scanner particularly useful as electronic translator
EP0873003B1 (de) * 1997-04-14 2007-03-21 Hewlett-Packard Company, A Delaware Corporation Verfahren und Vorrichtung zur Bildabtastung
US6256016B1 (en) 1997-06-05 2001-07-03 Logitech, Inc. Optical detection system, device, and method utilizing optical matching
US6104979A (en) * 1997-06-11 2000-08-15 Starlink, Inc. Integrated swath guidance system
EP0884890B1 (de) * 1997-06-12 2003-07-09 Hewlett-Packard Company, A Delaware Corporation Bildverarbeitungsverfahren und -vorrichtung
DE69816185T2 (de) 1997-06-12 2004-04-15 Hewlett-Packard Co. (N.D.Ges.D.Staates Delaware), Palo Alto Bildverarbeitungsverfahren und -vorrichtung
US6002815A (en) * 1997-07-16 1999-12-14 Kinetic Sciences, Inc. Linear sensor imaging method and apparatus
JPH1158844A (ja) * 1997-08-08 1999-03-02 Hewlett Packard Co <Hp> ハンディ・プリンタ・システム
US6249591B1 (en) * 1997-08-25 2001-06-19 Hewlett-Packard Company Method and apparatus for control of robotic grip or for activating contrast-based navigation
US6466701B1 (en) 1997-09-10 2002-10-15 Ricoh Company, Ltd. System and method for displaying an image indicating a positional relation between partially overlapping images
US7028899B2 (en) * 1999-06-07 2006-04-18 Metrologic Instruments, Inc. Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target
US6201903B1 (en) * 1997-09-30 2001-03-13 Ricoh Company, Ltd. Method and apparatus for pen-based faxing
US6611629B2 (en) 1997-11-03 2003-08-26 Intel Corporation Correcting correlation errors in a composite image
US6233368B1 (en) * 1998-03-18 2001-05-15 Agilent Technologies, Inc. CMOS digital optical navigation chip
US6002124A (en) * 1998-03-20 1999-12-14 Hewlett-Packard Company Portable image scanner with optical position sensors
US6366317B1 (en) * 1998-03-27 2002-04-02 Intel Corporation Motion estimation using intrapixel logic
US6151015A (en) * 1998-04-27 2000-11-21 Agilent Technologies Pen like computer pointing device
US5994710A (en) * 1998-04-30 1999-11-30 Hewlett-Packard Company Scanning mouse for a computer system
US6033086A (en) * 1998-04-30 2000-03-07 Hewlett-Packard Company Compact illumination system for image scanner
US6173213B1 (en) 1998-05-11 2001-01-09 Ellison Machinery Company Motorized inbound laser orientation and wheel recognition station
US6064062A (en) * 1998-06-02 2000-05-16 Hewlett-Packard Company Optical stray light baffle for image scanner
USD421418S (en) * 1998-07-13 2000-03-07 Hewlett-Packard Company Battery cover for hand held apparatus such as an optical scanner
USD420344S (en) * 1998-07-13 2000-02-08 Hewlett-Packard Company Hand held optical scanner
USD422995S (en) * 1998-07-13 2000-04-18 Hewlett-Packard Company Hand held optical scanner front face portion
US6043503A (en) * 1998-07-22 2000-03-28 Hewlett-Packard Company Hand held scanning device
IT1306266B1 (it) * 1998-07-24 2001-06-04 Gd Spa Metodo di controllo di un oggetto stampato
US6232973B1 (en) * 1998-08-07 2001-05-15 Hewlett-Packard Company Appliance and method for navigating among multiple captured images and functional menus
US6611291B1 (en) * 1998-08-07 2003-08-26 Hewlett-Packard Development Company Appliance and method for communicating and viewing multiple captured images
US6160926A (en) * 1998-08-07 2000-12-12 Hewlett-Packard Company Appliance and method for menu navigation
JP2000069243A (ja) * 1998-08-24 2000-03-03 Matsushita Electric Ind Co Ltd 画像処理方法及び画像処理装置
US6330082B1 (en) 1998-08-28 2001-12-11 Hewlett-Packard Company Converter for optical scanner
US6229137B1 (en) 1998-09-14 2001-05-08 Hewlett-Packard Company Scan line illumination system utilizing hollow reflector
US6195475B1 (en) 1998-09-15 2001-02-27 Hewlett-Packard Company Navigation system for handheld scanner
US6118132A (en) * 1998-09-17 2000-09-12 Agilent Technologies System for measuring the velocity, displacement and strain on a moving surface or web of material
US6188058B1 (en) 1998-09-17 2001-02-13 Agilent Technologies Inc. System for taking displacement measurements having photosensors with imaged pattern arrangement
US6459823B2 (en) * 1998-10-28 2002-10-01 Hewlett-Packard Company Apparatus and method of increasing scanner resolution
US6403941B1 (en) 1998-10-29 2002-06-11 Hewlett-Packard Company Image scanner with real time pixel resampling
US6427022B1 (en) * 1998-11-10 2002-07-30 Western Research Company, Inc. Image comparator system and method for detecting changes in skin lesions
US6292274B1 (en) 1998-12-11 2001-09-18 Hewlett-Packard Company Portable scanner with tilting body design
US6878922B1 (en) 1998-12-23 2005-04-12 Hewlett-Packard Development Company, L.P. Optical system for compensating for non-uniform illumination of an object
US6388773B1 (en) 1999-02-24 2002-05-14 Hewlett-Packard Company Simultaneous multi-mode capture button behavior
US6222174B1 (en) 1999-03-05 2001-04-24 Hewlett-Packard Company Method of correlating immediately acquired and previously stored feature information for motion sensing
US6246050B1 (en) 1999-03-08 2001-06-12 Hewlett-Packard Company Optical encoders using non-patterned targets
US6160250A (en) 1999-03-31 2000-12-12 Hewlett-Packard Company Integrated optical imaging assembly
US6584214B1 (en) 1999-04-23 2003-06-24 Massachusetts Institute Of Technology Identification and verification using complex, three-dimensional structural features
US6633332B1 (en) 1999-05-13 2003-10-14 Hewlett-Packard Development Company, L.P. Digital camera system and method capable of performing document scans
US6816272B2 (en) 1999-05-13 2004-11-09 Hewlett-Packard Development Company, L.P. System and method for selectively downloading data files from an optical scanner
AUPQ439299A0 (en) * 1999-12-01 1999-12-23 Silverbrook Research Pty Ltd Interface system
US6737591B1 (en) * 1999-05-25 2004-05-18 Silverbrook Research Pty Ltd Orientation sensing device
US7170499B1 (en) * 1999-05-25 2007-01-30 Silverbrook Research Pty Ltd Handwritten text capture via interface surface
IT1309271B1 (it) * 1999-05-27 2002-01-16 Gd Spa Metodo di controllo di banconote
US6362465B1 (en) 1999-06-14 2002-03-26 Hewlett-Packard Company Optical scanning system and method capable of receiving inputs from a user
US6207945B1 (en) 1999-06-30 2001-03-27 Hewlett-Packard Company Integral positioning and imaging device
US6242731B1 (en) 1999-06-30 2001-06-05 Hewlett Packard Company Imaging device having an integrated position sensing device
GB2387734B (en) * 1999-07-12 2004-01-07 Hewlett Packard Co Edge to edge image sensor and navigator for portable scanner
US6265706B1 (en) * 1999-07-12 2001-07-24 Hewlett-Packard Company Edge to edge image sensor and navigator for portable scanner
US6556315B1 (en) 1999-07-30 2003-04-29 Hewlett-Packard Company Digital image scanner with compensation for misalignment of photosensor array segments
US6300645B1 (en) 1999-08-25 2001-10-09 Hewlett-Packard Company Position sensing device having a single photosensing element
US6350980B1 (en) 1999-08-27 2002-02-26 Hewlett-Packard Company Imaging assembly with a side mounted optical detector for a scanner
US6555812B1 (en) 1999-09-29 2003-04-29 Hewlett Packard Development Company, L.P. Optics device dust seal
US6380529B1 (en) * 1999-09-29 2002-04-30 Hewlett-Packard Company Position sensing device having a movable photosensing element
EP1091560A1 (de) 1999-10-05 2001-04-11 Hewlett-Packard Company Verfahren und Gerät zum Abtasten von Übergrössendokumenten
US6376834B1 (en) * 1999-10-26 2002-04-23 Hewlett-Packard Company Moire interference pattern reduction for scanning of half-toned images
US6312124B1 (en) 1999-10-27 2001-11-06 Hewlett-Packard Company Solid and semi-flexible body inkjet printing system
US6455840B1 (en) 1999-10-28 2002-09-24 Hewlett-Packard Company Predictive and pulsed illumination of a surface in a micro-texture navigation technique
US6429422B1 (en) 1999-11-12 2002-08-06 Hewlett-Packard Company Scanner navigation system with variable aperture
US6414293B1 (en) 1999-11-12 2002-07-02 Hewlett-Packard Company Optical position sensing device and method using a contoured transparent sheet
US6568777B1 (en) * 1999-11-16 2003-05-27 Agilent Technologies, Inc. Optical navigation system and method
US6303921B1 (en) 1999-11-23 2001-10-16 Hewlett-Packard Company Method and system for capturing large format documents using a portable hand-held scanner
DE19956467A1 (de) * 1999-11-24 2001-06-07 Wincor Nixdorf Gmbh & Co Kg Verfahren, Datenverarbeitungsanlage und Programm zum Korrigieren von Abtastfehlern sowie zugehöriges Texterkennungssystem
GB2357209B (en) 1999-12-07 2004-04-14 Hewlett Packard Co Hand-held image capture apparatus
US6418372B1 (en) 1999-12-10 2002-07-09 Siemens Technology-To-Business Center, Llc Electronic visitor guidance system
US6538243B1 (en) 2000-01-04 2003-03-25 Hewlett-Packard Company Contact image sensor with light guide having least reflectivity near a light source
US6346699B1 (en) 2000-01-04 2002-02-12 Hewlett-Packard Company Optical assembly having a reduced width
US6563101B1 (en) 2000-01-19 2003-05-13 Barclay J. Tullis Non-rectilinear sensor arrays for tracking an image
US7133068B2 (en) * 2000-03-06 2006-11-07 Sony Corporation System and method for creating still images by utilizing a video camera device
US6912076B2 (en) * 2000-03-17 2005-06-28 Accu-Sort Systems, Inc. Coplanar camera scanning system
US6426498B1 (en) 2000-04-03 2002-07-30 Hewlett-Packard Co. Optics module for optical scanning device
US6377888B1 (en) 2000-04-03 2002-04-23 Disney Enterprises, Inc. System for controlling movement of a vehicle
US6525306B1 (en) 2000-04-25 2003-02-25 Hewlett-Packard Company Computer mouse with integral digital camera and method for using the same
WO2001082586A2 (en) * 2000-04-26 2001-11-01 Raja Tuli Document scanning apparatus integrated with a writing device
US6930703B1 (en) 2000-04-29 2005-08-16 Hewlett-Packard Development Company, L.P. Method and apparatus for automatically capturing a plurality of images during a pan
US6618038B1 (en) 2000-06-02 2003-09-09 Hewlett-Packard Development Company, Lp. Pointing device having rotational sensing mechanisms
US7161578B1 (en) 2000-08-02 2007-01-09 Logitech Europe S.A. Universal presentation device
US7289649B1 (en) * 2000-08-10 2007-10-30 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Fingerprint imager
US6781570B1 (en) 2000-11-09 2004-08-24 Logitech Europe S.A. Wireless optical input device
US7164810B2 (en) * 2001-11-21 2007-01-16 Metrologic Instruments, Inc. Planar light illumination and linear imaging (PLILIM) device with image-based velocity detection and aspect ratio compensation
US20030098352A1 (en) * 2000-11-24 2003-05-29 Metrologic Instruments, Inc. Handheld imaging device employing planar light illumination and linear imaging with image-based velocity detection and aspect ratio compensation
US6711501B2 (en) * 2000-12-08 2004-03-23 Satloc, Llc Vehicle navigation system and method for swathing applications
JP2002196877A (ja) * 2000-12-25 2002-07-12 Hitachi Ltd イメージセンサを用いた電子機器
US6357939B1 (en) 2001-02-02 2002-03-19 Hewlett-Packard Company Method of and apparatus for handheld printing of images on a media
US6621483B2 (en) 2001-03-16 2003-09-16 Agilent Technologies, Inc. Optical screen pointing device with inertial properties
US6977645B2 (en) 2001-03-16 2005-12-20 Agilent Technologies, Inc. Portable electronic device with mouse-like capabilities
US7184026B2 (en) * 2001-03-19 2007-02-27 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Impedance sensing screen pointing device
US6478415B2 (en) 2001-03-21 2002-11-12 Hewlett-Packard Company Rejuvenation station and printer cartridge therefore
US6677929B2 (en) 2001-03-21 2004-01-13 Agilent Technologies, Inc. Optical pseudo trackball controls the operation of an appliance or machine
US20020140677A1 (en) * 2001-03-28 2002-10-03 Misek Brian J. Optical mouse having an integrated processor
US6603108B2 (en) * 2001-04-09 2003-08-05 Syscan Technology (Shenzhen) Co. Limited Image sensing modules for portable optical scanners
US6719467B2 (en) 2001-04-30 2004-04-13 Hewlett-Packard Development Company, L.P. Floor printer
US7333083B1 (en) 2001-05-10 2008-02-19 Logitech Europe S.A. Optical based performance improvement for an optical illumination configuration
US6809723B2 (en) 2001-05-14 2004-10-26 Agilent Technologies, Inc. Pushbutton optical screen pointing device
US6937135B2 (en) * 2001-05-30 2005-08-30 Hewlett-Packard Development Company, L.P. Face and environment sensing watch
GB2376283B (en) * 2001-06-04 2005-03-16 Hewlett Packard Co Foot activated user input
US20020184196A1 (en) * 2001-06-04 2002-12-05 Lehmeier Michelle R. System and method for combining voice annotation and recognition search criteria with traditional search criteria into metadata
SE519352C2 (sv) * 2001-07-13 2003-02-18 Print Dreams Europe Ab Handhållen och handmanövrerad slumprörelseskrivanordning samt förfarande för skrivning med sådan.
SE523273C2 (sv) 2001-07-13 2004-04-06 Print Dreams Europe Ab Anordning och förfarande
US6795056B2 (en) 2001-07-24 2004-09-21 Agilent Technologies, Inc. System and method for reducing power consumption in an optical screen pointing device
US6935564B2 (en) * 2001-07-30 2005-08-30 Bayer Healthcare Llc Circuit and method for correcting influence of AC coupling
US6823077B2 (en) * 2001-07-30 2004-11-23 Agilent Technologies, Inc. Simplified interpolation for an optical navigation system that correlates images of one bit resolution
US6664948B2 (en) 2001-07-30 2003-12-16 Microsoft Corporation Tracking pointing device motion using a single buffer for cross and auto correlation determination
US6847353B1 (en) 2001-07-31 2005-01-25 Logitech Europe S.A. Multiple sensor device and method
US6703633B2 (en) 2001-08-16 2004-03-09 Hewlett-Packard Development Company, L.P. Method and apparatus for authenticating a signature
US7126585B2 (en) * 2001-08-17 2006-10-24 Jeffery Davis One chip USB optical mouse sensor solution
US6773177B2 (en) 2001-09-14 2004-08-10 Fuji Xerox Co., Ltd. Method and system for position-aware freeform printing within a position-sensed area
US6772000B2 (en) * 2001-10-19 2004-08-03 Scimed Life Systems, Inc. Magnetic resonance imaging devices with a contrast medium for improved imaging
US6657184B2 (en) * 2001-10-23 2003-12-02 Agilent Technologies, Inc. Optical navigation upon grainy surfaces using multiple navigation sensors
US6770863B2 (en) 2001-10-26 2004-08-03 Agilent Technologies, Inc. Apparatus and method for three-dimensional relative movement sensing
US6937357B1 (en) 2001-10-30 2005-08-30 Hewlett-Packard Development Company, L.P. Hard copy system including rewritable media
US7034805B2 (en) * 2001-11-02 2006-04-25 Kye Systems Corp. Optical trackball
US6859199B2 (en) 2001-11-06 2005-02-22 Omnivision Technologies, Inc. Method and apparatus for determining relative movement in an optical mouse using feature extraction
US7042439B2 (en) * 2001-11-06 2006-05-09 Omnivision Technologies, Inc. Method and apparatus for determining relative movement in an optical mouse
US6765555B2 (en) 2001-11-07 2004-07-20 Omnivision Technologies, Inc. Passive optical mouse using image sensor with optional dual mode capability
TWI263942B (en) * 2001-12-05 2006-10-11 Em Microelectronic Marin Sa Method and sensing device for motion detection in an optical pointing device, such as an optical mouse
US7583293B2 (en) * 2001-12-06 2009-09-01 Aptina Imaging Corporation Apparatus and method for generating multi-image scenes with a camera
US6646244B2 (en) 2001-12-19 2003-11-11 Hewlett-Packard Development Company, L.P. Optical imaging device with speed variable illumination
US6806453B1 (en) 2002-01-17 2004-10-19 Hewlett-Packard Development Company, L.P. Scanning, copying, and printing with rewritable media
US7333250B2 (en) * 2002-01-31 2008-02-19 Hewlett-Packard Development Company, L.P. Image scanner with a single motor providing two-dimensional movement of photosensors
AUPS049402A0 (en) * 2002-02-13 2002-03-07 Silverbrook Research Pty. Ltd. Methods and apparatus (ap55)
US7948769B2 (en) 2007-09-27 2011-05-24 Hemisphere Gps Llc Tightly-coupled PCB GNSS circuit and manufacturing method
SE527211C2 (sv) * 2002-03-11 2006-01-17 Printdreams Europ Ab Sensor- och skrivhuvudenhet hos en handmanövrerad handskrivanordning
SE527212C2 (sv) * 2002-03-11 2006-01-17 Printdreams Europ Ab Anordning och förfarande för en handhållen handmanövrerad skrivare
SE527210C2 (sv) * 2002-03-11 2006-01-17 Printdreams Europ Ab Sensor- och skrivhuvudenhet samt förfarande för en handmanövrerad handskrivanordning
US6788875B1 (en) 2002-04-08 2004-09-07 Logitech Europe S.A. Suspension system for use in an optical displacement detection system
US6974947B2 (en) * 2002-04-08 2005-12-13 Agilent Technologies, Inc. Apparatus and method for sensing rotation based on multiple sets of movement data
US7131751B1 (en) 2002-04-12 2006-11-07 Logitech, Inc. Attachment system for use in an optical illumination system
DE10316208A1 (de) * 2002-04-12 2003-11-20 Samsung Electro Mech Navigationssystem und Navigationsverfahren
US7362480B2 (en) * 2002-04-24 2008-04-22 Transpacific Ip, Ltd. Method and system for changing a scanning resolution
US7045763B2 (en) * 2002-06-28 2006-05-16 Hewlett-Packard Development Company, L.P. Object-recognition lock
US6983080B2 (en) * 2002-07-19 2006-01-03 Agilent Technologies, Inc. Resolution and image quality improvements for small image sensors
US7167604B2 (en) * 2002-08-07 2007-01-23 Hewlett-Packard Development Company, L.P. Portable document scan accessory for use with a wireless handheld communications device
US7015448B2 (en) * 2002-08-22 2006-03-21 Micron Technology, Inc. Dark current reduction circuitry for CMOS active pixel sensors
EP2241896B1 (de) * 2002-09-23 2012-03-14 Stefan Reich Stabilisierungssystem für Flugkörper
US8077568B2 (en) * 2002-11-12 2011-12-13 Spencer Charles A Method and system for synchronizing information specific to a location on a surface with an external source
US6881949B2 (en) 2002-11-12 2005-04-19 Charles A. Spencer Method and system for synchronizing information specific to a location on a surface with an external source
US6956500B1 (en) 2002-11-29 2005-10-18 M & M Systems, Inc. Real-time residential energy monitor
US7689354B2 (en) * 2003-03-20 2010-03-30 Hemisphere Gps Llc Adaptive guidance system and method
US7162348B2 (en) 2002-12-11 2007-01-09 Hemisphere Gps Llc Articulated equipment position control system and method
US7142956B2 (en) * 2004-03-19 2006-11-28 Hemisphere Gps Llc Automatic steering system and method
US7885745B2 (en) 2002-12-11 2011-02-08 Hemisphere Gps Llc GNSS control system and method
US6924812B2 (en) * 2002-12-24 2005-08-02 Intel Corporation Method and apparatus for reading texture data from a cache
US6995748B2 (en) * 2003-01-07 2006-02-07 Agilent Technologies, Inc. Apparatus for controlling a screen pointer with a frame rate based on velocity
US7295186B2 (en) 2003-01-14 2007-11-13 Avago Technologies Ecbuip (Singapore) Pte Ltd Apparatus for controlling a screen pointer that distinguishes between ambient light and light from its light source
EP1439689A1 (de) * 2003-01-15 2004-07-21 Siemens Aktiengesellschaft Mobiltelefon mit einer Scan-Hilfe
US20040165224A1 (en) * 2003-02-21 2004-08-26 Allen Ross R. Compact optical scanner
US7129929B1 (en) 2003-03-07 2006-10-31 Microsoft Corporation Computer input device with multi-purpose light guide
US7009598B1 (en) 2003-03-07 2006-03-07 Microsoft Corporation Multiple channel light guide for optically tracking pointing and input devices
US8265826B2 (en) * 2003-03-20 2012-09-11 Hemisphere GPS, LLC Combined GNSS gyroscope control system and method
US8271194B2 (en) 2004-03-19 2012-09-18 Hemisphere Gps Llc Method and system using GNSS phase measurements for relative positioning
US8140223B2 (en) 2003-03-20 2012-03-20 Hemisphere Gps Llc Multiple-antenna GNSS control system and method
US9002565B2 (en) 2003-03-20 2015-04-07 Agjunction Llc GNSS and optical guidance and machine control
US8634993B2 (en) 2003-03-20 2014-01-21 Agjunction Llc GNSS based control for dispensing material from vehicle
US8190337B2 (en) 2003-03-20 2012-05-29 Hemisphere GPS, LLC Satellite based vehicle guidance control in straight and contour modes
US20040212533A1 (en) * 2003-04-23 2004-10-28 Whitehead Michael L. Method and system for satellite based phase measurements for relative positioning of fixed or slow moving points in close proximity
US8138970B2 (en) 2003-03-20 2012-03-20 Hemisphere Gps Llc GNSS-based tracking of fixed or slow-moving structures
US8214111B2 (en) 2005-07-19 2012-07-03 Hemisphere Gps Llc Adaptive machine control system and method
US8594879B2 (en) 2003-03-20 2013-11-26 Agjunction Llc GNSS guidance and machine control
US8686900B2 (en) * 2003-03-20 2014-04-01 Hemisphere GNSS, Inc. Multi-antenna GNSS positioning method and system
SE0300913D0 (sv) * 2003-03-31 2003-03-31 Print Dreams Europe Ab Method for navigation with optical sensors, and a device utilizing the method
US20040189849A1 (en) * 2003-03-31 2004-09-30 Hofer Gregory V. Panoramic sequence guide
US7164782B2 (en) * 2003-04-18 2007-01-16 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. System and method for time-space multiplexing in finger-imaging applications
US7274808B2 (en) * 2003-04-18 2007-09-25 Avago Technologies Ecbu Ip (Singapore)Pte Ltd Imaging system and apparatus for combining finger recognition and finger navigation
US7158659B2 (en) * 2003-04-18 2007-01-02 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. System and method for multiplexing illumination in combined finger recognition and finger navigation module
TW576534U (en) * 2003-04-23 2004-02-11 Sunplus Technology Co Ltd Light-guiding apparatus of optical mouse
US7994877B1 (en) 2008-11-10 2011-08-09 Hrl Laboratories, Llc MEMS-based quartz hybrid filters and a method of making the same
US8766745B1 (en) 2007-07-25 2014-07-01 Hrl Laboratories, Llc Quartz-based disk resonator gyro with ultra-thin conductive outer electrodes and method of making same
CN100373310C (zh) * 2003-05-09 2008-03-05 凌阳科技股份有限公司 光学鼠标的导光装置
US20040227954A1 (en) * 2003-05-16 2004-11-18 Tong Xie Interferometer based navigation device
US7321359B2 (en) * 2003-07-30 2008-01-22 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Method and device for optical navigation
US7116427B2 (en) * 2003-10-30 2006-10-03 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Low power consumption, broad navigability optical mouse
US7161585B2 (en) * 2003-07-01 2007-01-09 Em Microelectronic-Marin Sa Displacement data post-processing and reporting in an optical pointing device
US7161586B2 (en) * 2003-07-01 2007-01-09 Em Microelectronic-Marin Sa Method of operating an optical motion sensing device and optical motion sensing device implementing this method
US6963059B2 (en) * 2003-07-01 2005-11-08 Em Microelectronic-Marin Sa Method and system for optimizing illumination power and integration time in an optical sensing device
JP4169661B2 (ja) * 2003-07-24 2008-10-22 オリンパス株式会社 撮像装置
US7466356B2 (en) * 2003-07-25 2008-12-16 Hewlett-Packard Development Company, L.P. Method and apparatus for setting a marker on an object and tracking the position of the object
JP2005041623A (ja) * 2003-07-25 2005-02-17 Fuji Xerox Co Ltd 搬送装置および画像形成装置
US20050022686A1 (en) * 2003-07-28 2005-02-03 Dreampatch, Llc Apparatus, method, and computer program product for animation pad transfer
US6934037B2 (en) * 2003-10-06 2005-08-23 Agilent Technologies, Inc. System and method for optical navigation using a projected fringe technique
US20050024346A1 (en) * 2003-07-30 2005-02-03 Jean-Luc Dupraz Digital pen function control
US20050024690A1 (en) * 2003-07-31 2005-02-03 Picciotto Carl E. Pen with tag reader and navigation system
US7205521B2 (en) * 2003-07-31 2007-04-17 Avage Technologies Ecbu Ip (Singapore) Pte. Ltd. Speckle based sensor for three dimensional navigation
US7227531B2 (en) * 2003-08-15 2007-06-05 Microsoft Corporation Data input device for tracking and detecting lift-off from a tracking surface by a reflected laser speckle pattern
US7161582B2 (en) * 2003-08-29 2007-01-09 Microsoft Corporation Data input device for tracking and detecting lift-off from a tracking surface by a reflected laser speckle pattern
US7423227B2 (en) * 2003-09-04 2008-09-09 Avago Technologies Ecbu Ip Pte Ltd Apparatus for optical navigation
DE60320254T2 (de) * 2003-09-22 2009-05-14 Xitact S.A. Optische Vorrichtung zur Bestimmung der longitudinalen Position und des Drehwinkels eines rotationssymmetrischen Körpers
US7034279B2 (en) 2003-09-25 2006-04-25 Hewlett-Packard Development Company, L.P. Method and system for printhead rotation detection using photosensors
KR100683248B1 (ko) 2003-10-29 2007-02-15 주식회사 애트랩 한 픽셀 이하 움직임 연산 방법 및 이를 이용한 위치 추적센서
US7167162B2 (en) * 2003-12-12 2007-01-23 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Apparatus and method for controlling a screen pointer
US7869078B2 (en) * 2003-12-18 2011-01-11 Xerox Corporation Reference marking system and tracking system for large area printing
KR100545066B1 (ko) * 2004-02-16 2006-01-24 삼성전기주식회사 위치 추적용 광센서 장치 및 이를 이용한 위치 추정 방법
US7221356B2 (en) * 2004-02-26 2007-05-22 Microsoft Corporation Data input device and method for detecting an off-surface condition by a laser speckle size characteristic
US7613329B2 (en) * 2004-03-08 2009-11-03 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Apparatus for controlling the position of a screen pointer that detects defective pixels
EP1574825A1 (de) * 2004-03-12 2005-09-14 Xitact S.A. vorrichtung zur bestimmung der longitudianl- und winkelstellung eines rotationssymmetrischen bauteils
TW200531724A (en) * 2004-03-17 2005-10-01 Zeroplus Technology Co Ltd Game controlling system with displacement detecting capability
US8583315B2 (en) 2004-03-19 2013-11-12 Agjunction Llc Multi-antenna GNSS control system and method
US7474297B2 (en) 2004-03-22 2009-01-06 Avago Technologies Ecbu Ip (Singapore) Pte. Contaminant-resistant optical mouse and cradle
US7446756B2 (en) * 2004-03-22 2008-11-04 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Apparatus for controlling the position of a screen pointer with low sensitivity to particle contamination
DE102004014994A1 (de) * 2004-03-26 2005-10-13 Hofmann Mess- Und Auswuchttechnik Gmbh & Co. Kg Verfahren und Vorrichtung zur Erfassung einer Relativbewegung zwischen einem Detektor und einem Körpers mit einer Oberflächenstruktur
US7242466B2 (en) * 2004-03-31 2007-07-10 Microsoft Corporation Remote pointing system, device, and methods for identifying absolute position and relative movement on an encoded surface by remote optical method
US7174260B2 (en) * 2004-04-01 2007-02-06 Blue Line Innovations Inc. System and method for reading power meters
US7439954B2 (en) * 2004-04-15 2008-10-21 Logitech Europe S.A. Multi-light-source illumination system for optical pointing devices
US8325140B2 (en) 2004-04-20 2012-12-04 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Illumination spot alignment
US7292232B2 (en) * 2004-04-30 2007-11-06 Microsoft Corporation Data input devices and methods for detecting movement of a tracking surface by a laser speckle pattern
TWI238358B (en) * 2004-05-12 2005-08-21 Sunplus Technology Co Ltd Optical mouse with shielding compensation, and the method for shielding compensation
US7268341B2 (en) * 2004-05-21 2007-09-11 Silicon Light Machines Corporation Optical position sensing device including interlaced groups of photosensitive elements
US7285766B2 (en) * 2004-05-21 2007-10-23 Silicon Light Machines Corporation Optical positioning device having shaped illumination
US20050259097A1 (en) * 2004-05-21 2005-11-24 Silicon Light Machines Corporation Optical positioning device using different combinations of interlaced photosensitive elements
US20050259078A1 (en) * 2004-05-21 2005-11-24 Silicon Light Machines Corporation Optical positioning device with multi-row detector array
US7773070B2 (en) * 2004-05-21 2010-08-10 Cypress Semiconductor Corporation Optical positioning device using telecentric imaging
US20050258346A1 (en) * 2004-05-21 2005-11-24 Silicon Light Machines Corporation Optical positioning device resistant to speckle fading
US7042575B2 (en) * 2004-05-21 2006-05-09 Silicon Light Machines Corporation Speckle sizing and sensor dimensions in optical positioning device
TWI240207B (en) * 2004-06-11 2005-09-21 Sunplus Technology Co Ltd Method and system for real-time determining abnormality of pixel values for captured image
US7653260B2 (en) * 2004-06-17 2010-01-26 Carl Zeis MicroImaging GmbH System and method of registering field of view
US7565034B2 (en) * 2004-06-17 2009-07-21 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Determination of a navigation window in an optical navigation system
US7315013B2 (en) * 2004-06-17 2008-01-01 Avago Technologies Ecbu Ip (Singapore) Pte Ltd. Optical navigation using one-dimensional correlation
US8532338B2 (en) * 2004-07-06 2013-09-10 Hewlett-Packard Development Company, L.P. System and method for compensating for motion blur in optical navigation
US20060015804A1 (en) * 2004-07-15 2006-01-19 Microsoft Corporation Method and system for presenting editable spreadsheet page layout view
US7656395B2 (en) * 2004-07-15 2010-02-02 Microsoft Corporation Methods and apparatuses for compound tracking systems
US20060204061A1 (en) * 2004-07-16 2006-09-14 Atmel Grenoble S.A. Method for the acquisition of an image of a finger print
US7057148B2 (en) * 2004-07-29 2006-06-06 Ami Semiconductor, Inc. Optical tracking sensor method
US20060023970A1 (en) * 2004-07-29 2006-02-02 Chinlee Wang Optical tracking sensor method
US7176442B2 (en) * 2004-08-13 2007-02-13 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Optical navigation device with optical navigation quality detector
US7423633B2 (en) * 2004-09-01 2008-09-09 Avago Technologies Ec Buip Pte Ltd Apparatus for controlling the position of a screen pointer with low sensitivity to fixed pattern noise
US7166831B2 (en) * 2004-09-01 2007-01-23 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Optical mouse with replaceable contaminant barrier
US7126586B2 (en) * 2004-09-17 2006-10-24 Microsoft Corporation Data input devices and methods for detecting movement of a tracking surface by detecting laser doppler self-mixing effects of a frequency modulated laser light beam
US20060060653A1 (en) * 2004-09-23 2006-03-23 Carl Wittenberg Scanner system and method for simultaneously acquiring data images from multiple object planes
TWI290221B (en) * 2004-10-29 2007-11-21 Silicon Light Machines Corp Two-dimensional motion sensor
US7138620B2 (en) 2004-10-29 2006-11-21 Silicon Light Machines Corporation Two-dimensional motion sensor
US7189985B2 (en) * 2004-10-30 2007-03-13 Avago Technologies General Ip (Singapore) Pte. Ltd. Tracking separation between an object and a surface using a reducing structure
US7248345B2 (en) * 2004-11-12 2007-07-24 Silicon Light Machines Corporation Signal processing method for use with an optical navigation system
US7405389B2 (en) 2004-11-19 2008-07-29 Silicon Light Machines Corporation Dense multi-axis array for motion sensing
US7435942B2 (en) * 2004-12-02 2008-10-14 Cypress Semiconductor Corporation Signal processing method for optical sensors
US7313271B2 (en) 2004-12-07 2007-12-25 Avago Technologies Ecbuip (Singapore) Pte. Ltd. Color detection using grayscale and position information
US7379049B2 (en) 2004-12-13 2008-05-27 Avago Technologies Ecbu Ip Pte Ltd Apparatus for controlling the position of a screen pointer based on projection data
US7619612B2 (en) * 2004-12-20 2009-11-17 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Pointing device with light source for providing visible light through a moveable puck
US7557796B2 (en) * 2004-12-22 2009-07-07 Delphi Technologies, Inc. Joystick sensor with two-dimensional image sensing
US20060149425A1 (en) * 2004-12-22 2006-07-06 Davis Raymond A Motion sensor system
TWI288353B (en) * 2004-12-24 2007-10-11 Lite On Semiconductor Corp Motion detection method
US7114383B2 (en) * 2005-01-07 2006-10-03 Bridgestone Firestone North American Tire, Llc Method and apparatus for monitoring tire performance
US7215493B2 (en) * 2005-01-27 2007-05-08 Psc Scanning, Inc. Imaging system with a lens having increased light collection efficiency and a deblurring equalizer
US7499090B2 (en) * 2005-01-27 2009-03-03 Datalogic Scanning, Inc. Rolling-reset imager with optical filter
US7224540B2 (en) * 2005-01-31 2007-05-29 Datalogic Scanning, Inc. Extended depth of field imaging system using chromatic aberration
US20060219863A1 (en) * 2005-03-11 2006-10-05 Burch Jefferson B Obtaining data from a utility meter using image-based movement tracking
US20090306509A1 (en) * 2005-03-30 2009-12-10 Worcester Polytechnic Institute Free-hand three-dimensional ultrasound diagnostic imaging with position and angle determination sensors
JP4616692B2 (ja) * 2005-04-21 2011-01-19 株式会社ミツトヨ 変位検出装置
US7656428B2 (en) * 2005-05-05 2010-02-02 Avago Technologies General Ip (Singapore) Pte. Ltd. Imaging device employing optical motion sensor as gyroscope
US7474848B2 (en) * 2005-05-05 2009-01-06 Hewlett-Packard Development Company, L.P. Method for achieving correct exposure of a panoramic photograph
CN100420260C (zh) * 2005-05-25 2008-09-17 光宝科技股份有限公司 图像接合方法
US7898524B2 (en) 2005-06-30 2011-03-01 Logitech Europe S.A. Optical displacement detection over varied surfaces
US8179967B2 (en) * 2005-07-05 2012-05-15 Stmicroelectronics S.A. Method and device for detecting movement of an entity provided with an image sensor
US8300015B2 (en) * 2005-07-05 2012-10-30 Stmicroelectronics S.A. Method of detecting the movement of an entity equipped with an image sensor and device for implementing same
US20070023997A1 (en) * 2005-07-28 2007-02-01 Ertel John P System and method for optically detecting media feeding malfunctions in an image forming apparatus
US20070032318A1 (en) * 2005-08-04 2007-02-08 Nishimura Ken A Motion sensor in sporting equipment
US7522746B2 (en) * 2005-08-12 2009-04-21 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Object tracking using optical correlation and feedback
US7399954B2 (en) * 2005-08-16 2008-07-15 Avago Technologies Ecbu Ip Pte Ltd System and method for an optical navigation device configured to generate navigation information through an optically transparent layer and to have skating functionality
WO2007030731A2 (en) * 2005-09-07 2007-03-15 Nr Laboratories, Llc Positional sensing system and method
US7598979B2 (en) * 2005-09-21 2009-10-06 Aptina Imaging Corporation Imaging device with blur reduction system including a primary array and at least one navigation array
US7293459B2 (en) * 2005-09-22 2007-11-13 Avago Technologies General Ip (Singapore) Pte. Ltd. Image-based sensing of acceleration
US20070076082A1 (en) * 2005-09-30 2007-04-05 Lexmark International, Inc. Methods and apparatuses for measuring print area using hand-held printer
US7500732B2 (en) * 2005-09-30 2009-03-10 Lexmark International, Inc. Maintenance and docking station for a hand-held printer
US7388539B2 (en) 2005-10-19 2008-06-17 Hemisphere Gps Inc. Carrier track loop for GNSS derived attitude
US20070109271A1 (en) * 2005-11-14 2007-05-17 Phison Electronics Corp. [a portable storage device with handwritten input device]
US7735951B2 (en) * 2005-11-15 2010-06-15 Lexmark International, Inc. Alignment method for hand-operated printer
US20070120937A1 (en) * 2005-11-30 2007-05-31 Lexmark International, Inc. System and method for hand-held printing
TW200722835A (en) * 2005-12-09 2007-06-16 Ind Tech Res Inst Polymer dispersed liquid crystal emulsion and polymer dispersed liquid crystal composite film
US7567235B2 (en) 2005-12-12 2009-07-28 Cypress Semiconductor Corporation Self-aligning optical sensor package
US8072502B2 (en) * 2005-12-12 2011-12-06 Sony Ericsson Mobile Communications Ab Multi-mega pixel resolution with small sensor
US8471191B2 (en) 2005-12-16 2013-06-25 Cypress Semiconductor Corporation Optical navigation system having a filter-window to seal an enclosure thereof
US7765251B2 (en) * 2005-12-16 2010-07-27 Cypress Semiconductor Corporation Signal averaging circuit and method for sample averaging
US7399129B2 (en) * 2005-12-20 2008-07-15 Lexmark International, Inc. User interface for a hand-operated printer
US7524051B2 (en) 2005-12-20 2009-04-28 Lexmark International, Inc. Hand-operated printer having a user interface
US7737948B2 (en) * 2005-12-20 2010-06-15 Cypress Semiconductor Corporation Speckle navigation system
TWI287828B (en) * 2005-12-30 2007-10-01 Ind Tech Res Inst Method for printing a pattern and data processing method thereof
US7298460B2 (en) * 2006-01-03 2007-11-20 Silicon Light Machines Corporation Method for determining motion using a velocity predictor
US20070181785A1 (en) * 2006-02-09 2007-08-09 Helbing Rene P Compact optical navigation module and microlens array therefore
US7884801B1 (en) 2006-02-16 2011-02-08 Cypress Semiconductor Corporation Circuit and method for determining motion with redundant comb-arrays
US7593833B2 (en) * 2006-03-03 2009-09-22 At&T Intellectual Property I, L.P. System and method for determining performance of network lines
US7557338B2 (en) * 2006-03-14 2009-07-07 Avago Technologies General Ip (Singapore) Pte. Ltd. Electronic device with integrated optical navigation module and microlens array therefore
US7297912B1 (en) 2006-03-27 2007-11-20 Silicon Light Machines Corporation Circuit and method for reducing power consumption in an optical navigation system having redundant arrays
US7721609B2 (en) 2006-03-31 2010-05-25 Cypress Semiconductor Corporation Method and apparatus for sensing the force with which a button is pressed
US7809035B2 (en) * 2006-03-31 2010-10-05 Cypress Semiconductor Corporation Eye-safe laser navigation sensor
US20070237561A1 (en) * 2006-04-11 2007-10-11 Lexmark International Inc. Methods and apparatuses for sensing a print area using a hand-held printer
US7378643B2 (en) * 2006-04-24 2008-05-27 Avago Technologies General Ip Pte Ltd Optical projection encoder with patterned mask
US7748839B2 (en) 2006-05-09 2010-07-06 Lexmark International, Inc. Handheld printing with reference indicia
US7682017B2 (en) 2006-05-10 2010-03-23 Lexmark International, Inc. Handheld printer minimizing printing defects
US7470887B2 (en) * 2006-05-23 2008-12-30 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Collapsible structure for optical navigation system
US7492445B1 (en) 2006-06-05 2009-02-17 Cypress Semiconductor Corporation Method and apparatus for robust velocity prediction
US7755604B2 (en) 2006-06-19 2010-07-13 Cypress Semiconductor Corporation Optical navigation sensor with tracking and lift detection for optically transparent contact surfaces
US7787145B2 (en) * 2006-06-29 2010-08-31 Lexmark International, Inc. Methods for improving print quality in a hand-held printer
US7728816B2 (en) * 2006-07-10 2010-06-01 Cypress Semiconductor Corporation Optical navigation sensor with variable tracking resolution
US20080030534A1 (en) * 2006-08-02 2008-02-07 Adam Jude Ahne Hand Held Micro-fluid Ejection Devices Configured to Eject Fluid without Referential Position Information and Method of Ejecting Fluid
US7555824B2 (en) * 2006-08-09 2009-07-07 Hrl Laboratories, Llc Method for large scale integration of quartz-based devices
US7442916B2 (en) * 2006-08-25 2008-10-28 Avago Technologies General Ip (Singapore) Pte. Ltd. Lift detection adapted for navigation on a transparent structure
US7675020B2 (en) * 2006-08-28 2010-03-09 Avago Technologies General Ip (Singapore) Pte. Ltd. Input apparatus and methods having diffuse and specular tracking modes
US20080059069A1 (en) * 2006-08-30 2008-03-06 Trutna William R System and method for detecting an object in the path of a vehicle
US7889178B2 (en) 2006-09-08 2011-02-15 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Programmable resolution for optical pointing device
US20080079956A1 (en) * 2006-09-21 2008-04-03 Mahesan Chelvayohan Hand-Held Printer Having An Integrated Digital Camera Scanner
US20080075511A1 (en) * 2006-09-21 2008-03-27 William Henry Reed Method for Position Acquisition for Use with a Hand-operated Printer
US8210758B2 (en) * 2006-09-21 2012-07-03 Lexmark International, Inc. Guiding a hand-operated printer
US20080075513A1 (en) * 2006-09-26 2008-03-27 Douglas Laurence Robertson Methods for a Maintenance Algorithm in Hand Held Printers
US7748840B2 (en) 2006-09-27 2010-07-06 Lexmark International, Inc. Methods and apparatus for handheld printing with optical positioning
US7938531B2 (en) 2006-09-27 2011-05-10 Lexmark International, Inc. Methods and apparatus for handheld printing with optical positioning
US7918519B2 (en) 2006-09-27 2011-04-05 Lexmark International, Inc. Methods and apparatus for handheld printing with optical positioning
US7742514B1 (en) 2006-10-31 2010-06-22 Cypress Semiconductor Corporation Laser navigation sensor
US7570348B2 (en) 2006-12-18 2009-08-04 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Methods and apparatus for navigating a surface
US7514668B2 (en) * 2006-12-19 2009-04-07 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Optical navigation device that utilizes a vertical cavity surface emitting laser (VCSEL) configured to emit visible coherent light
US8072429B2 (en) * 2006-12-22 2011-12-06 Cypress Semiconductor Corporation Multi-axial touch-sensor device with multi-touch resolution
US9052759B2 (en) * 2007-04-11 2015-06-09 Avago Technologies General Ip (Singapore) Pte. Ltd. Dynamically reconfigurable pixel array for optical navigation
US7567341B2 (en) * 2006-12-29 2009-07-28 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Optical navigation device adapted for navigation on a transparent structure
US7965278B2 (en) * 2006-12-29 2011-06-21 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Optical navigation device adapted for navigation on a transparent plate
US9411431B2 (en) * 2006-12-29 2016-08-09 Marvell World Trade Ltd. Tracking a position in relation to a surface
US8226194B1 (en) 2007-01-02 2012-07-24 Marvell International Ltd. Printing on planar or non-planar print surface with handheld printing device
US8632266B1 (en) 2007-01-03 2014-01-21 Marvell International Ltd. Printer for a mobile device
US8000740B1 (en) 2007-01-03 2011-08-16 Marvell International Ltd. Image translation device for a mobile device
US8077343B1 (en) 2007-01-03 2011-12-13 Marvell International Ltd. Determining end of print job in handheld image translation device
US7949370B1 (en) 2007-01-03 2011-05-24 Marvell International Ltd. Scanner for a mobile device
US7835832B2 (en) 2007-01-05 2010-11-16 Hemisphere Gps Llc Vehicle control system
US8768558B2 (en) 2007-01-05 2014-07-01 Agjunction Llc Optical tracking vehicle control system and method
US8311696B2 (en) 2009-07-17 2012-11-13 Hemisphere Gps Llc Optical tracking vehicle control system and method
USRE48527E1 (en) 2007-01-05 2021-04-20 Agjunction Llc Optical tracking vehicle control system and method
US8472066B1 (en) 2007-01-11 2013-06-25 Marvell International Ltd. Usage maps in image deposition devices
US8342627B1 (en) 2007-01-11 2013-01-01 Marvell International Ltd. Adaptive filtering scheme in handheld positioning device
US8396654B1 (en) 2007-01-18 2013-03-12 Marvell International Ltd. Sensor positioning in handheld image translation device
US7675630B2 (en) * 2007-01-24 2010-03-09 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. System and method for selectively setting optical navigation resolution
US7938532B2 (en) 2007-02-16 2011-05-10 Lexmark International, Inc. Hand held printer with vertical misalignment correction
US20080204489A1 (en) * 2007-02-22 2008-08-28 Mckinley Patrick A Self-propelled image translation device
JP2010522650A (ja) 2007-02-23 2010-07-08 マーベル ワールド トレード リミテッド ハンドヘルド画像並進デバイスの位置把握法
US8223384B1 (en) 2007-02-23 2012-07-17 Marvell International Ltd. Defining a print image in memory for handheld image translation devices
US8351062B2 (en) 2007-02-26 2013-01-08 Marvell World Trade Ltd. Bit selection from print image in memory of handheld image translation device
US8000381B2 (en) 2007-02-27 2011-08-16 Hemisphere Gps Llc Unbiased code phase discriminator
US8107108B1 (en) 2007-02-28 2012-01-31 Marvell International Ltd. Providing user feedback in handheld device
US20080213018A1 (en) * 2007-03-02 2008-09-04 Mealy James Hand-propelled scrapbooking printer
WO2008109557A1 (en) * 2007-03-02 2008-09-12 Marvell World Trade Ltd. Dynamic image dithering
US7845748B2 (en) * 2007-03-02 2010-12-07 Marvell World Trade Ltd. Handheld image translation device
US8096713B1 (en) 2007-03-02 2012-01-17 Marvell International Ltd. Managing project information with a hand-propelled device
US9294649B2 (en) * 2007-03-02 2016-03-22 Marvell World Trade Ltd. Position correction in handheld image translation device
US8083422B1 (en) * 2007-03-02 2011-12-27 Marvell International Ltd. Handheld tattoo printer
US8079765B1 (en) 2007-03-02 2011-12-20 Marvell International Ltd. Hand-propelled labeling printer
US20080219737A1 (en) * 2007-03-07 2008-09-11 Michael David Stilz Hand Held Printer Having A Doppler Position Sensor
US20080231600A1 (en) 2007-03-23 2008-09-25 Smith George E Near-Normal Incidence Optical Mouse Illumination System with Prism
US9180686B1 (en) * 2007-04-05 2015-11-10 Marvell International Ltd. Image translation device providing navigational data feedback to communication device
GB2462711B (en) * 2007-04-09 2010-04-14 Schlumberger Holdings Autonomous depth control for wellbore equipment
US7933166B2 (en) * 2007-04-09 2011-04-26 Schlumberger Technology Corporation Autonomous depth control for wellbore equipment
US8509487B2 (en) * 2007-04-19 2013-08-13 Avago Technologies General Ip (Singapore) Pte. Ltd. System and method for optically measuring a parameter of an object
US20080257962A1 (en) * 2007-04-23 2008-10-23 Chiu Lihu M Acceleration-corrected barcode verification
US8123322B1 (en) 2007-06-11 2012-02-28 Marvell International Ltd. Manually operated image translation device
US8705117B1 (en) 2007-06-18 2014-04-22 Marvell International Ltd. Hand-held printing device and method for tuning ink jet color for printing on colored paper
US20090015875A1 (en) * 2007-06-20 2009-01-15 Ctb/Mcgraw-Hill Companies, Inc. Image manipulation of digitized images of documents
EP2171641A4 (de) * 2007-06-21 2012-11-14 Univ Johns Hopkins Manipulationseinrichtung zum navigieren in schaubildern der virtuellen mikroskopie bzw. digitalbildern und diesbezügliche verfahren
US8092006B2 (en) 2007-06-22 2012-01-10 Lexmark International, Inc. Handheld printer configuration
US8314774B1 (en) 2007-07-09 2012-11-20 Cypress Semiconductor Corporation Method and apparatus for quasi-3D tracking using 2D optical motion sensors
US10266398B1 (en) 2007-07-25 2019-04-23 Hrl Laboratories, Llc ALD metal coatings for high Q MEMS structures
US8263921B2 (en) 2007-08-06 2012-09-11 Cypress Semiconductor Corporation Processing methods for speckle-based motion sensing
US9555645B1 (en) 2007-08-07 2017-01-31 Marvell International Ltd. Controlling a plurality of nozzles of a handheld printer
US20090040286A1 (en) * 2007-08-08 2009-02-12 Tan Theresa Joy L Print scheduling in handheld printers
US8119975B2 (en) * 2007-09-26 2012-02-21 Crowsocs, Inc. High speed deterministic, non-contact, 3-axis free trajectory measurement device and free trajectory imaging device
US7808428B2 (en) 2007-10-08 2010-10-05 Hemisphere Gps Llc GNSS receiver and external storage device system and GNSS data processing method
US20090102793A1 (en) * 2007-10-22 2009-04-23 Microsoft Corporation Optical mouse
US8244062B2 (en) * 2007-10-22 2012-08-14 Hewlett-Packard Development Company, L.P. Correction of distortion in captured images
US20090135140A1 (en) * 2007-11-27 2009-05-28 Logitech Europe S.A. System and method for accurate lift-detection of an input device
US8847888B2 (en) * 2007-12-18 2014-09-30 Microsoft Corporation Optical mouse with limited wavelength optics
US20090160772A1 (en) * 2007-12-20 2009-06-25 Microsoft Corporation Diffuse optics in an optical mouse
US20090160773A1 (en) * 2007-12-20 2009-06-25 Microsoft Corporation Optical mouse
US8259069B1 (en) 2008-01-11 2012-09-04 Cypress Semiconductor Corporation Speckle-based optical navigation on curved tracking surface
US8031176B1 (en) 2008-01-22 2011-10-04 Cypress Semiconductor Corporation Optical navigation system using a single-package motion sensor
US8151640B1 (en) * 2008-02-05 2012-04-10 Hrl Laboratories, Llc MEMS on-chip inertial navigation system with error correction
US9002566B2 (en) 2008-02-10 2015-04-07 AgJunction, LLC Visual, GNSS and gyro autosteering control
US7802356B1 (en) 2008-02-21 2010-09-28 Hrl Laboratories, Llc Method of fabricating an ultra thin quartz resonator component
JP5033247B2 (ja) * 2008-03-18 2012-09-26 マーベル ワールド トレード リミテッド 印刷表面にリアルタイムにインライン式タグ付け可能なハンドヘルド型携帯印刷装置
WO2009126587A1 (en) 2008-04-08 2009-10-15 Hemisphere Gps Llc Gnss-based mobile communication system and method
US8238639B2 (en) 2008-04-09 2012-08-07 Cognex Corporation Method and system for dynamic feature detection
DE102008024104A1 (de) * 2008-05-17 2010-05-27 Robert Bosch Gmbh Materialmarkensensor und Verfahren zum Erfassen einer Markierung auf oder in einem Material
US20100060592A1 (en) * 2008-09-10 2010-03-11 Jeffrey Traer Bernstein Data Transmission and Reception Using Optical In-LCD Sensing
US8541727B1 (en) 2008-09-30 2013-09-24 Cypress Semiconductor Corporation Signal monitoring and control system for an optical navigation sensor
US8212794B2 (en) 2008-09-30 2012-07-03 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Optical finger navigation utilizing quantized movement information
US7723659B1 (en) 2008-10-10 2010-05-25 Cypress Semiconductor Corporation System and method for screening semiconductor lasers
US8265346B2 (en) 2008-11-25 2012-09-11 De La Rue North America Inc. Determining document fitness using sequenced illumination
US8780206B2 (en) * 2008-11-25 2014-07-15 De La Rue North America Inc. Sequenced illumination
US8217833B2 (en) 2008-12-11 2012-07-10 Hemisphere Gps Llc GNSS superband ASIC with simultaneous multi-frequency down conversion
US8217334B1 (en) 2008-12-24 2012-07-10 Cypress Semiconductor Corporation Optical navigation sensor including a spatial frequency filter
JP2011029832A (ja) * 2009-01-06 2011-02-10 Seiko Epson Corp 原稿読み取り装置
US8315434B2 (en) 2009-01-06 2012-11-20 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Absolute tracking in a sub-pixel range
US8386129B2 (en) 2009-01-17 2013-02-26 Hemipshere GPS, LLC Raster-based contour swathing for guidance and variable-rate chemical application
US8797298B2 (en) * 2009-01-23 2014-08-05 Avago Technologies General Ip (Singapore) Pte. Ltd. Optical fingerprint navigation device with light guide film
US20100188332A1 (en) 2009-01-23 2010-07-29 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Thin-film transistor imager
US8259068B2 (en) 2009-02-24 2012-09-04 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Light beam shaping element for an optical navigation input device
US8085196B2 (en) 2009-03-11 2011-12-27 Hemisphere Gps Llc Removing biases in dual frequency GNSS receivers using SBAS
US8711096B1 (en) 2009-03-27 2014-04-29 Cypress Semiconductor Corporation Dual protocol input device
US8339467B2 (en) * 2010-03-25 2012-12-25 Dacuda Ag Synchronization of navigation and image information for handheld scanner
US8582182B2 (en) * 2009-05-20 2013-11-12 Dacuda Ag Automatic sizing of images acquired by a handheld scanner
US9300834B2 (en) 2009-05-20 2016-03-29 Dacuda Ag Image processing for handheld scanner
US20100296133A1 (en) * 2009-05-20 2010-11-25 Dacuda Ag Mode switching in a handheld scanner
US8441695B2 (en) * 2009-05-20 2013-05-14 Dacuda Ag Handheld scanner with high image quality
US8441696B2 (en) 2009-05-20 2013-05-14 Dacuda Ag Continuous scanning with a handheld scanner
GB2470925A (en) * 2009-06-09 2010-12-15 Neopost Technologies Automatically Adjusting Scanner Carrier Apparatus
US8401704B2 (en) 2009-07-22 2013-03-19 Hemisphere GPS, LLC GNSS control system and method for irrigation and related applications
US8174437B2 (en) 2009-07-29 2012-05-08 Hemisphere Gps Llc System and method for augmenting DGNSS with internally-generated differential correction
US8611584B2 (en) * 2009-08-17 2013-12-17 Avago Technologies General Ip (Singapore) Pte. Ltd. System and method for performing optical navigation using portions of captured frames of image data
US8749767B2 (en) 2009-09-02 2014-06-10 De La Rue North America Inc. Systems and methods for detecting tape on a document
US8334804B2 (en) 2009-09-04 2012-12-18 Hemisphere Gps Llc Multi-frequency GNSS receiver baseband DSP
US8664548B2 (en) 2009-09-11 2014-03-04 Apple Inc. Touch controller with improved diagnostics calibration and communications support
US8649930B2 (en) 2009-09-17 2014-02-11 Agjunction Llc GNSS integrated multi-sensor control system and method
CN102022981B (zh) * 2009-09-22 2013-04-03 重庆工商大学 测量亚像素位移的峰谷运动探测方法及装置
US8176607B1 (en) 2009-10-08 2012-05-15 Hrl Laboratories, Llc Method of fabricating quartz resonators
US8194237B2 (en) 2009-10-15 2012-06-05 Authentix, Inc. Document sensor
US8548649B2 (en) 2009-10-19 2013-10-01 Agjunction Llc GNSS optimized aircraft control system and method
JP5359783B2 (ja) * 2009-10-28 2013-12-04 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN102052900B (zh) * 2009-11-02 2013-09-25 重庆工商大学 快速测量亚像素位移的峰谷运动探测方法及装置
US8687060B1 (en) 2009-12-28 2014-04-01 Cognex Corporation System and method for providing distance-based pulses relative to motion of a surface scanned by a vision system
US8583326B2 (en) 2010-02-09 2013-11-12 Agjunction Llc GNSS contour guidance path selection
US8497840B2 (en) * 2010-03-25 2013-07-30 Dacuda Ag Computer peripheral for scanning
WO2011123758A1 (en) * 2010-04-03 2011-10-06 Centeye, Inc. Vision based hover in place
US8912711B1 (en) 2010-06-22 2014-12-16 Hrl Laboratories, Llc Thermal stress resistant resonator, and a method for fabricating same
US9851849B2 (en) 2010-12-03 2017-12-26 Apple Inc. Touch device communication
US9710155B2 (en) * 2010-12-08 2017-07-18 Nokia Technologies Oy User interface
EP2661311B8 (de) 2011-01-05 2019-12-11 Sphero, Inc. Selbstangetriebene vorrichtung mit aktiv betätigtem antriebssystem
US9218316B2 (en) 2011-01-05 2015-12-22 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
US9090214B2 (en) 2011-01-05 2015-07-28 Orbotix, Inc. Magnetically coupled accessory for a self-propelled device
US9429940B2 (en) 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
TWI432009B (zh) * 2011-01-14 2014-03-21 Genesys Logic Inc 手持式掃描系統及其掃描方法
WO2012173640A1 (en) 2011-06-16 2012-12-20 Cypress Semiconductor Corporaton An optical navigation module with capacitive sensor
KR101830870B1 (ko) * 2011-06-22 2018-02-21 엘지전자 주식회사 스캔 이미지 표시 방법, 이의 표시기기 및 스캔 영역 지정 방법 및 이의 입력 기기
US9223440B2 (en) 2011-06-28 2015-12-29 Avago Technologies General Ip (Singapore) Pte. Ltd. Optical navigation utilizing speed based algorithm selection
US8730518B2 (en) * 2011-08-18 2014-05-20 Raytheon Company Application of color imagery to a rewritable color surface
US8896553B1 (en) 2011-11-30 2014-11-25 Cypress Semiconductor Corporation Hybrid sensor module
CN103295005B (zh) * 2012-03-01 2016-08-10 汉王科技股份有限公司 字符序列的扫描方法与扫描装置
DE102012005650A1 (de) * 2012-03-22 2013-09-26 Burkhard Büstgens Beschichtung von Flächen im Druckverfahren
US9827487B2 (en) 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
US9280717B2 (en) * 2012-05-14 2016-03-08 Sphero, Inc. Operating a computing device by detecting rounded objects in an image
US9292758B2 (en) 2012-05-14 2016-03-22 Sphero, Inc. Augmentation of elements in data content
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
US8781685B2 (en) 2012-07-17 2014-07-15 Agjunction Llc System and method for integrating automatic electrical steering with GNSS guidance
US9053596B2 (en) 2012-07-31 2015-06-09 De La Rue North America Inc. Systems and methods for spectral authentication of a feature of a document
CN103791912A (zh) * 2012-10-30 2014-05-14 大陆汽车投资(上海)有限公司 支持手绘路径的导航路径规划装置
US10278584B2 (en) 2013-03-11 2019-05-07 Carestream Dental Technology Topco Limited Method and system for three-dimensional imaging
EP2973417B1 (de) 2013-03-11 2020-07-15 Carestream Dental Technology Topco Limited Verfahren und system für dreidimensionale bildgebung
US9250074B1 (en) 2013-04-12 2016-02-02 Hrl Laboratories, Llc Resonator assembly comprising a silicon resonator and a quartz resonator
EP3703001A1 (de) 2013-08-31 2020-09-02 ML Netherlands C.V. Benutzerfeedback zur echtzeitüberwachung und verbesserung der qualität eines abgetasteten bildes
US9599470B1 (en) 2013-09-11 2017-03-21 Hrl Laboratories, Llc Dielectric high Q MEMS shell gyroscope structure
DE102013110581B4 (de) * 2013-09-24 2018-10-11 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung und Vorrichtung hierzu
EP3540683A1 (de) 2013-12-03 2019-09-18 ML Netherlands C.V. Benutzerfeedback zur echtzeitüberwachung und verbesserung der qualität eines abgetasteten bildes
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
WO2015104236A1 (en) 2014-01-07 2015-07-16 Dacuda Ag Adaptive camera control for reducing motion blur during real-time image capture
EP4113457A1 (de) 2014-01-07 2023-01-04 ML Netherlands C.V. Dynamische aktualisierung von zusammengestzten bildern
TWI534453B (zh) * 2014-02-18 2016-05-21 原相科技股份有限公司 相對位置定位系統與追蹤系統
US9977097B1 (en) 2014-02-21 2018-05-22 Hrl Laboratories, Llc Micro-scale piezoelectric resonating magnetometer
US9991863B1 (en) 2014-04-08 2018-06-05 Hrl Laboratories, Llc Rounded and curved integrated tethers for quartz resonators
EP3143596B1 (de) 2014-05-12 2020-04-08 ML Netherlands C.V. Verfahren und vorrichtung zum abtasten und drucken eines 3d-objekts
US10308505B1 (en) 2014-08-11 2019-06-04 Hrl Laboratories, Llc Method and apparatus for the monolithic encapsulation of a micro-scale inertial navigation sensor suite
KR102309863B1 (ko) * 2014-10-15 2021-10-08 삼성전자주식회사 전자 장치, 그 제어 방법 및 기록 매체
US10031191B1 (en) 2015-01-16 2018-07-24 Hrl Laboratories, Llc Piezoelectric magnetometer capable of sensing a magnetic field in multiple vectors
US10110198B1 (en) 2015-12-17 2018-10-23 Hrl Laboratories, Llc Integrated quartz MEMS tuning fork resonator/oscillator
CN105630206B (zh) * 2015-12-23 2018-10-16 广州中国科学院先进技术研究所 一种基于dic的触摸定位方法及系统
US10175307B1 (en) 2016-01-15 2019-01-08 Hrl Laboratories, Llc FM demodulation system for quartz MEMS magnetometer
CN107370904A (zh) * 2016-05-13 2017-11-21 菱光科技股份有限公司 取像装置及电子系统
RU169458U1 (ru) * 2016-12-23 2017-03-21 Акционерное общество "НПО "Орион" Формирователь сигналов изображения на основе матричного фотоприемного устройства с градиентной коррекцией неоднородности и дефектов фоточувствительных элементов
EP3367655B1 (de) * 2017-02-28 2021-08-18 Global Scanning Denmark A/S Optischer flashbettscanner mit dokumentenpresserelement
CN111133356B (zh) * 2017-09-20 2022-03-01 富士胶片株式会社 摄像装置、摄像装置主体及摄像装置的对焦控制方法
WO2019109034A1 (en) * 2017-11-30 2019-06-06 Leica Biosystems Imaging, Inc. Impulse rescan system
US10900776B2 (en) * 2018-02-06 2021-01-26 Saudi Arabian Oil Company Sensor device for distance offset measurements
US10679320B1 (en) * 2018-07-23 2020-06-09 Ambarella International Lp High dynamic range sensor system with row increment operation
JP7081520B2 (ja) * 2019-02-06 2022-06-07 コニカミノルタ株式会社 測定装置、走査方向判定システム及び走査方向判定プログラム
DE102019108426A1 (de) 2019-04-01 2020-10-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum dreidimensionalen Erfassen wenigstens eines Objekts
CN111178167B (zh) * 2019-12-12 2023-07-25 咪咕文化科技有限公司 穿帮镜头审核方法、装置、电子设备及存储介质
US11347327B2 (en) * 2020-06-26 2022-05-31 Logitech Europe S.A. Surface classification and sensor tuning for a computer peripheral device
KR102227531B1 (ko) * 2020-07-06 2021-03-15 주식회사 딥노이드 X-ray 보안 장치에 대한 이미지 처리 장치 및 방법
US11736640B1 (en) * 2022-08-22 2023-08-22 Kyocera Document Solutions, Inc. Method and apparatus for detecting sheet-fed scanner double-feeds using neural network classifier
KR102567729B1 (ko) * 2023-03-15 2023-08-17 (주)에이스디이씨 용수로 선형 좌표계산 시스템

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6042990B2 (ja) * 1978-05-22 1985-09-26 株式会社日立製作所 パタ−ン認識方法
FR2504673A1 (fr) * 1981-04-27 1982-10-29 Thomson Csf Indicateur cartographique a enregistrement sur film photographique
US4723297A (en) * 1984-09-27 1988-02-02 Siemens Aktiengesellschaft Method for automatic correction of character skew in the acquisition of a text original in the form of digital scan results
US5023922A (en) * 1985-06-07 1991-06-11 Soricon Corporation Optical character reader
US4819083A (en) * 1986-01-31 1989-04-04 Konishiroku Photo Industry Co., Ltd. Moving type image recording apparatus
DE3781591T2 (de) * 1986-06-11 1993-01-07 Casio Computer Co Ltd Von hand bewegtes druckgeraet.
US4797544A (en) * 1986-07-23 1989-01-10 Montgomery James R Optical scanner including position sensors
US4847786A (en) * 1986-08-20 1989-07-11 The Regents Of The University Of California Object analysis of multi-valued images
US4984287A (en) * 1988-11-15 1991-01-08 Msc Technologies, Inc. Method for orienting a dual mouse optical scanner
US4951214A (en) * 1988-11-18 1990-08-21 Texas Instruments Incorporated Method for passively determining the relative position of a moving observer with respect to a stationary object
US5089712A (en) * 1989-06-08 1992-02-18 Hewlett-Packard Company Sheet advancement control system detecting fiber pattern of sheet
JP2917155B2 (ja) * 1989-12-18 1999-07-12 株式会社日立製作所 画像結合装置及び方法
US5355146A (en) * 1990-03-05 1994-10-11 Bmc Micro-Industries Ltd. Multi-directional hand scanner and mouse
US5675672A (en) * 1990-06-26 1997-10-07 Seiko Epson Corporation Two dimensional linker for character string data
US5185673A (en) * 1991-06-12 1993-02-09 Hewlett-Packard Company Automated image calibration
JP3140782B2 (ja) * 1991-12-10 2001-03-05 ストーム テクノロジー,インコーポレイテッド 画像を自動併合するための装置及び方法
US5686960A (en) * 1992-01-14 1997-11-11 Michael Sussman Image input device having optical deflection elements for capturing multiple sub-images
US5306908A (en) * 1993-03-15 1994-04-26 Hewlett-Packard Company Manually operated hand-held optical scanner with tactile speed control assembly
US5497150A (en) * 1993-04-05 1996-03-05 Smk Corporation Image scanner
GB2288512B (en) * 1994-04-14 1998-08-26 Matsushita Electric Ind Co Ltd Image processing apparatus
US5578813A (en) * 1995-03-02 1996-11-26 Allen; Ross R. Freehand image scanning device which compensates for non-linear movement
US5729008A (en) * 1996-01-25 1998-03-17 Hewlett-Packard Company Method and device for tracking relative movement by correlating signals from an array of photoelements

Also Published As

Publication number Publication date
US6005681A (en) 1999-12-21
JPH11501174A (ja) 1999-01-26
CN1120444C (zh) 2003-09-03
CN1135062A (zh) 1996-11-06
JP3720367B2 (ja) 2005-11-24
JPH08265518A (ja) 1996-10-11
US5578813A (en) 1996-11-26
KR960036517A (ko) 1996-10-28
CN1156143C (zh) 2004-06-30
DE69609096D1 (de) 2000-08-10
AU4046095A (en) 1996-09-12
CN1183873A (zh) 1998-06-03
EP0812505A2 (de) 1997-12-17
EP0730366A3 (de) 1996-10-09
EP0812505B1 (de) 2000-05-10
CA2166904A1 (en) 1996-09-03
JP3860242B2 (ja) 2006-12-20
KR100463947B1 (ko) 2005-05-27
EP0730366A2 (de) 1996-09-04
US5825044A (en) 1998-10-20
DE69608262D1 (de) 2000-06-15
AU719574B2 (en) 2000-05-11
DE69609096T2 (de) 2000-11-16
WO1996027257A2 (en) 1996-09-06
WO1996027257A3 (en) 1997-02-20
EP0730366B1 (de) 2000-07-05
US5644139A (en) 1997-07-01

Similar Documents

Publication Publication Date Title
DE69608262T2 (de) System und verfahren zur bildabtastung
DE69737495T2 (de) Verfahren und Vorrichtung zur Bildabtastung
DE69816185T2 (de) Bildverarbeitungsverfahren und -vorrichtung
DE69513756T2 (de) Anlage zur Umschreibung von Wandtafelbildern mittels eines kamerabasierten Abtasters
US6303921B1 (en) Method and system for capturing large format documents using a portable hand-held scanner
DE69715074T2 (de) Erfassung von Daten, die mit der Oberflächentopographie eines Mediums zusammenhängen
US6195475B1 (en) Navigation system for handheld scanner
DE69526931T2 (de) Elektronischer handflächenleser mit einer unebenen kontaktfläche
US6215914B1 (en) Picture processing apparatus
DE10259329A1 (de) Optische Bilderzeugungsvorrichtung mit geschwindigkeitsvariabler Beleuchtung
DE102021112880A1 (de) Positionierungsverfahren und -system, das eine markierungspunktpositionierung und eine intelligente rückwärtspositionierung kombiniert
DE60020038T2 (de) Verfahren zum Verarbeiten eines numerischen Bildes
DE19730157C2 (de) Bildlesepositionsfehler-Meßeinrichtung
US5909521A (en) Multi-shot still image reader
DE69903030T2 (de) Progressive flächenabtastung in der elektronischen filmentwicklung
DE102011082280A1 (de) Bildmessvorrichtung und Bildmessverfahren
CA2024893C (en) Apparatus and method for scanning by means of a rotatable detector array
EP0884890B1 (de) Bildverarbeitungsverfahren und -vorrichtung
DE60033260T2 (de) Positionsmessvorrichtung und -verfahren
Safonov et al. Distortion-Free Scanning and Copying of Bound Documents
Pathak Restoration of documents with show-through distortion.

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: HEWLETT-PACKARD CO. (N.D.GES.D.STAATES DELAWARE),

8327 Change in the person/name/address of the patent owner

Owner name: HEWLETT-PACKARD DEVELOPMENT CO., L.P., HOUSTON, TE