DE69608262T2 - System und verfahren zur bildabtastung - Google Patents
System und verfahren zur bildabtastungInfo
- Publication number
- DE69608262T2 DE69608262T2 DE69608262T DE69608262T DE69608262T2 DE 69608262 T2 DE69608262 T2 DE 69608262T2 DE 69608262 T DE69608262 T DE 69608262T DE 69608262 T DE69608262 T DE 69608262T DE 69608262 T2 DE69608262 T2 DE 69608262T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- band
- navigation
- original
- error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 63
- 230000033001 locomotion Effects 0.000 claims description 32
- 238000013507 mapping Methods 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 9
- 230000033458 reproduction Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 4
- 239000000872 buffer Substances 0.000 description 62
- 238000003384 imaging method Methods 0.000 description 52
- 238000013459 approach Methods 0.000 description 35
- 238000005286 illumination Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 22
- 239000000123 paper Substances 0.000 description 16
- 238000006073 displacement reaction Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 10
- 238000003491 array Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000009304 pastoral farming Methods 0.000 description 7
- 239000000835 fiber Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000001427 coherent effect Effects 0.000 description 5
- 239000012634 fragment Substances 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 229920001971 elastomer Polymers 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 239000000806 elastomer Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 229930091051 Arenine Natural products 0.000 description 1
- 230000002745 absorbent Effects 0.000 description 1
- 239000002250 absorbent Substances 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 229910021417 amorphous silicon Inorganic materials 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000011111 cardboard Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000005357 flat glass Substances 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000976 ink Substances 0.000 description 1
- 230000005291 magnetic effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 230000000135 prohibitive effect Effects 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/047—Detection, control or error compensation of scanning velocity or position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/10—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
- H04N1/107—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with manual scanning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/19—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
- H04N1/191—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
- H04N1/192—Simultaneously or substantially simultaneously scanning picture elements on one main scanning line
- H04N1/193—Simultaneously or substantially simultaneously scanning picture elements on one main scanning line using electrically scanned linear arrays, e.g. linear CCD arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/024—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
- H04N2201/02406—Arrangements for positioning elements within a head
- H04N2201/02439—Positioning method
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/0402—Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
- H04N2201/0414—Scanning an image in a series of overlapping zones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/0402—Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
- H04N2201/043—Viewing the scanned area
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04701—Detection of scanning velocity or position
- H04N2201/0471—Detection of scanning velocity or position using dedicated detectors
- H04N2201/04712—Detection of scanning velocity or position using dedicated detectors using unbroken arrays of detectors, i.e. detectors mounted on the same substrate
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04701—Detection of scanning velocity or position
- H04N2201/04729—Detection of scanning velocity or position in the main-scan direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04701—Detection of scanning velocity or position
- H04N2201/04731—Detection of scanning velocity or position in the sub-scan direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04701—Detection of scanning velocity or position
- H04N2201/04734—Detecting at frequent intervals, e.g. once per line for sub-scan control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04701—Detection of scanning velocity or position
- H04N2201/04737—Detection of scanning velocity or position by detecting the scanned medium directly, e.g. a leading edge
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04701—Detection of scanning velocity or position
- H04N2201/04743—Detection of scanning velocity or position by detecting the image directly
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04753—Control or error compensation of scanning position or velocity
- H04N2201/04758—Control or error compensation of scanning position or velocity by controlling the position of the scanned image area
- H04N2201/04787—Control or error compensation of scanning position or velocity by controlling the position of the scanned image area by changing or controlling the addresses or values of pixels, e.g. in an array, in a memory, by interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04753—Control or error compensation of scanning position or velocity
- H04N2201/04794—Varying the control or compensation during the scan, e.g. using continuous feedback or from line to line
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Facsimile Scanning Arrangements (AREA)
- Image Input (AREA)
- Facsimile Image Signal Circuits (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Character Input (AREA)
Description
- Die vorliegende Erfindung bezieht sich allgemein auf Vorrichtungen und Verfahren zum Erzeugen abgetasteter elektronischer Bilder von Originalen und spezieller auf Abtast-Vorrichtungen und -Verfahren, die eine Rekonstruktion von Bildern aus Bildbändern, die während einer Bildaufnahme erhalten werden, ermöglichen.
- Scanner zum elektronischen Erzeugen eines Bilds aus einem Original sind bekannt. Typischerweise ist das aufgenommene Bild, das durch einen Scanner geliefert wird, ein Pixeldatenarray, das in einem digitalen Format in einem Speicher gespeichert wird. Ein verzerrungsfreies Bild erfordert eine naturgetreue Abbildung des ursprünglichen Bilds auf das Pixeldatenarray. Scanner umfassen typischerweise zumindest eine Einrichtung zum Aufbürden einer mechanischen Beschränkung während des Bildaufnahmeprozesses, um die Wahrscheinlichkeit einer naturgetreuen Abbildung zu maximieren. Die vier Typen von Scannern, die in der Technik bekannt sind, sind Trommelscanner, Flachbettscanner, Scanner mit zweidimensionalem Array und Handscanner. Trommelscanner bringen das Original an der Oberfläche einer zylindrischen Trommel an, die sich mit einer im wesentlichen festen Geschwindigkeit dreht. Während der Drehung der Trommel wird ein Bildsensor in einer Richtung parallel zu der Drehachse der Trommel bewegt. Die Kombination der linearen Verschiebung des Bildsensors und der Drehung des Originals auf der Trommel ermöglicht, daß das gesamte Original abgetastet wird. Bei jeder Bewegung während des Abtastprozesses kann die momentane Position in dem Pixeldatenarray relativ zu dem Original durch Messen der Winkelposition der Trommel und der Transla tionsposition des Sensors bestimmt werden. Die Position des Pixeldatenarrays bezüglich des Originals ist festgelegt, solange das Original ordnungsgemäß an der Trommel befestigt ist, die Trommeldrehung ordnungsgemäß gesteuert wird, und der Sensor ordnungsgemäß bezüglich seiner Verschiebung entlang des linearen Wegs gesteuert wird.
- Flachbettscanner umfassen einen Lineararraysensor, der relativ zu dem Original entlang einer Achse bewegt wird, die senkrecht zu der Achse des Arrays ist. Folglich kann die Position des Sensors in einer Dimension durch das Verfolgen der Relativbewegung des Sensors bekannt sein. Die Position des Sensors in der senkrechten Richtung ist durch das Adressieren eines speziellen Arrayelements, an dem die Intensität gemessen werden soll, implizit festgelegt. Bei einem Ausführungsbeispiel eines Flachbettscanners wird das Original auf einer transparenten Auflageplatte plaziert, wobei der Sensor zusammen mit einer Bildbeleuchtungsquelle auf einer Seite der Auflageplatte plaziert wird, die dem Original gegenüberliegt. Solange das Original nicht relativ zu der Auflageplatte bewegt wird, wird das Pixeldatenarray bezüglich des Bilds, das aufgenommen werden soll, festgelegt sein. Bei einem weiteren Ausführungsbeispiel wird das Original bewegt und nicht der Sensor. Dieses zweite Ausführungsbeispiel ist typisch für Faxgeräte. Präzisionspapiertransportvorrichtungen liefern einen hohen Grad einer Positionsgenauigkeit während des Bildaufnahmeprozesses.
- Vorteile der Trommel- und Flachbett-Scanner umfassen die Fähigkeit, Dokumente einer Größe von zumindest A4 aufzunehmen, oder Papier mit 8, 5 Zoll · 11 Zoll. Überdies können einige dieser Scanner Al-Papier in einer einzelnen Einstellung handhaben. Jedoch sind die Scanner im allgemeinen nicht tragbar, da dieselben einen Host-Computer für eine Steuerung, eine Datenspeicherung und eine Bildmanipulation erfordern.
- Scannner mit zweidimensionalem Array können beim Fehlen me chanischer Codierungsbeschränkungen verwendet werden und erfordern lediglich, daß das Array und das Original während einer Belichtungsperiode bewegungslos gehalten werden. Ein zweidimensionales Array von photoempfindlichen Elementen erreicht direkt die Abbildung des Bilds des Originals in ein Pixeldatenarray. Da jedoch eine einzige 300-dpi-Abbildung eines Originals mit 8,5 Zoll · 11 Zoll einen Bildsensor mit einem Array von 2.500 · 3.300 Elementen erfordert, d. h. 8,25 Millionen Pixel, sind diese Scanner bei den meisten Anwendungen kostenmäßig untragbar.
- Herkömmliche Handscanner erfordern, daß ein Benutzer ein lineares Array von elektrooptischen Sensorelementen über ein Original bewegt. Die Bewegung findet durch eine Handmanipulation statt. Arraypositionsinformationen werden unter Verwendung von Verfahren bestimmt, wie z. B. denen, die beim Betrieb einer Computer-"Maus" verwendet werden. Während ein lineares Sensorarray bewegt wird, wird die Drehung von Rädern, Kugeln oder Rollen, die in Kontakt mit dem Original sind, erfaßt, wobei die Positionsinformationen aus den mechanischen Details der Drehung bestimmt werden. Allgemein besitzt die Oberfläche des mechanischen Elements, das in Kontakt mit dem Original ist, einen hohen Reibungskoeffizienten, beispielsweise Gummi, um einem Gleiten und Rutschen entgegen zu wirken. Eine zylindrische Rolle oder zwei Räder, die durch eine starre Achse verbunden sind, können verwendet werden, um während des Abtastprozesses einen einzigen Translationsfreiheitsgrad zu erzwingen. Eine gerade Kante oder eine andere Festlegungseinrichtung wird häufig verwendet, um die Abtastrichtung bezüglich des Originals festzulegen und die Translationsbeschränkung, die durch das Paar von Rädern oder die Rolle geliefert wird, weiter zu erzwingen. Trotzdem ist der Positionscodierer-Lösungsansatz ein solcher, der häufig anfällig für Gleiten und Rutschen ist, so daß das Pixeldatenarray seine Zuordnung zu dem Bild auf dem Original verliert.
- Handscanner sind typischerweise direkt mit einem separaten Computer für eine Bilddatenspeicherung, eine Verarbeitung und die Verwendung verbunden. Datenraten von dem Bildsensor begrenzen tendenziell die Abtastgeschwindigkeit. Die Scanner liefern eine Rückkopplung zu dem Benutzer, typischerweise mittels grüner oder roter lichtemittierender Dioden, um die geeignete Geschwindigkeit für die gewünschte Bildauflösung beizubehalten. Bestimmte Handscanner verwenden elektromagnetische Bremsen, um zu verhindern, daß der Benutzer den Scanner zu schnell über das Bild zieht, wobei mit einer Zunahme der Abtastgeschwindigkeit der mechanische Widerstand zunimmt.
- Handscanner benutzen relativ kleine Bilderzeugungsarrays und können im allgemeinen in einem einzelnen Durchlauf größere Dokumente als A6 nicht handhaben. Dies erfordert Nähalgorithmen, um mehrere Bänder eines größeren Dokuments miteinander zu verbinden. Eine Bandvernähung kann bei einer getrennten Operation durch einen getrennten Computer durchgeführt werden. Das Abtasten eines mehrseitigen Geschäfts-Dokuments oder -Berichts mit einem Handscanner ist ein langwieriges Verfahrens, das häufig Ergebnisse geringer Qualität ergibt.
- Wie vorher angemerkt wurde, wird mit einem Handscanner typischerweise ein bestimmter Typ einer Festlegungseinrichtung verwendet. Beim Fehlen einer Festlegungseinrichtung existiert eine Tendenz, eine bestimmte Drehung zu bewirken, während der Handscanner über ein Original bewegt wird. Wenn der Ellbogen des Benutzers während der Bewegung des Scanners auf einer flachen Oberfläche aufliegt, besitzt die Drehung wahrscheinlich einen Radius, der durch den Abstand zwischen dem Scanner und dem Ellbogen des Benutzers definiert ist. Folglich wird das abgetastete elektronische Bild verzerrt sein. Andere krummlinige Bewegungen während eines Durchlaufs des Scanners werden ebenfalls Verzerrungen bewirken. Techniken zum Vernähen von Bildbändern sind in der Abtasttechnik bekannt. Diese Techniken erfordern typischerweise ein Paar von vollständigen Bildbändern und erzeugen eine einzelne globale Transformation, die die zwei Bänder in Ausrichtung bringt. Ein Beispiel einer bekannten Technik zum Vernähen von Bildbändern ist die, die in dem U. S. -Patent 5,355,146 (äquivalent zu DE-A-41 07 018) gelehrt wird, die das Vernähen benachbarter Bänder lehrt, indem kleine Regionen ausgewählt werden, die um einen Abstand beabstandet sind, und indem eine Kreuzkorrelation dieser Regionen durchgeführt wird, um die Korrektur, die erforderlich ist, um eine Ausrichtung zu erreichen, zu bestimmen.
- Die Aufgabe der vorliegenden Erfindung besteht darin, eine Abtast-Vorrichtung und ein -Verfahren zu schaffen, die eine zusammengesetzte Reproduktion eines Bilds von abgetasteten Teilen eines Originalbilds mit einem hohen Grad einer Entsprechung zwischen dem Originalbild und dem reproduzierten Bild erzeugen.
- Gemäß der vorliegenden Erfindung schaffen wir ein Verfahren zum Erhalten und Rekonstruieren eines Bilds aus abgetasteten Teilen eines Originalbilds, die durch eine Relativbewegung zwischen einer Abtastvorrichtung und dem ursprünglichen Bild erhalten werden, so daß sich benachbarte abgetastete Bildbänder überlappen, wobei die Abtastvorrichtung eine Navigationseinrichtung aufweist, um die Position der Abtastvorrichtung relativ zu dem ursprünglichen Bild zu bestimmen, wobei das Verfahren folgende Schritte aufweist: Schreiben eines ersten Bands in das rekonstruierte Bild; Abbilden und nachfolgend Schreiben eines zweiten Bands fortlaufend in das rekonstruierte Bild, was das Benutzen der Bilddaten, die von den überlappenden Abschnitten des ersten und des zweiten Bands erhalten werden, um aufeinanderfolgende Abschätzungen eines Navigationsfehlers abzuleiten, und die kontinuierliche Verwendung der Fehlerabschätzungen, um Navigationsfehler während der fortlaufenden Rekonstruktion des Bilds zu korrigieren, umfaßt; dadurch gekennzeichnet, daß der Schritt des Schreibens eines ersten Bands in das rekonstruierte Bild ferner das Definieren von Ausrichtungsmerkmalen in dem ersten Band in einem erwarteten Überlappungsbereich mit einem nächsten Band, das gesammelt werden soll, aufweist; daß aufeinanderfolgende Abschätzungen des Navigationsfehlers durch Vergleichen der Positionen der Ausrichtungsmerkmale mit der Position der Reproduktionen derselben in dem zweiten Band unter Verwendung von Navigationsdaten, die während des Abtastens empfangen werden, erhalten werden, und daß jede Fehlerabschätzung räumlich vor einem nachfolgenden Schreiben des relevanten Teils des zweiten Bands in das rekonstruierte Bild geliefert wird.
- Auf diese Weise involviert die vorliegende Erfindung die Berechnung aufeinanderfolgender Fehlerabschätzungen, die dann verwendet werden, um die Qualität des Bilds, das rekonstruiert wird, zu verbessern. Dies steht im Gegensatz zu dem oben genannten bekannten Lösungsansatz, bei dem eine einzelne globale Transformation verwendet wird, um benachbarte Bildbänder in Ausrichtung zu bringen. Das Verfahren der Erfindung besitzt den Vorteil, daß dasselbe ein genaueres Vernähen der Bildbänder liefert als bekannte Lösungsansätze, da dasselbe Navigationsfehler korrigiert.
- Die Bilddaten, die von den überlappenden Abschnitten benachbarter Bänder erhalten werden, können auf unterschiedliche Arten verwendet werden, um Fehlerabschätzungen abzuleiten.
- Lokale Korrelationen können entweder im Raum- oder Frequenz-Bereich durchgeführt werden und können auf entweder der inhärenten Bildstruktur oder einer bestimmten abgeleiteten, beispielsweise gefilterten, Version basieren. Alternativ kann ein Satz von strukturellen "Kanten"- oder "Eck"- Elementen durch eine bekannte Einrichtung erhalten werden und in Verbindung mit einem bekannten Übereinstimmungsprüfalgorithmus verwendet werden, um einen Satz von entsprechenden Orten zu erhalten, wobei ein Vergleich derselben eine Abschätzung des Fehlers liefert. Es ist ferner möglich, das Problem als eines einer lokalen parametrischen Optimierung hinzustellen, bei der die Parameter eines lokalen Modells (sprich Affinität) ausgewählt werden, um die Abbildung zwischen Versionen am besten zu beschreiben.
- Bei den zu beschreibenden Ausführungsbeispielen umfaßt das Verfahren folgende Schritte: Identifizieren von Ausrichtungsmerkmalen in einem ersten Band in einem erwarteten Überlappungsbereich mit dem nächsten zu sammelnden Band; Vergleichen der Positionen der Ausrichtungsmerkmale mit der Position der Reproduktionen derselben in dem nächsten Band unter Verwendung von Navigationsdaten, die während des Abtastens empfangen werden; Verwenden dieser Vergleiche, um die Fehlerabschätzungen abzuleiten.
- Bei einem der Ausführungsbeispiele, das beschrieben werden soll, umfaßt das Verfahren folgende Schritte: Ableiten der Fehlerabschätzungen durch Vergleichen der Position der Ausrichtungsmerkmale in dem ersten Band mit den Positionen in dem rekonstruierten Bild der Reproduktionen derselben in dem nächsten Band; und Verwenden der Fehlerabschätzungen, um Navigationsfehler in Teilen des Bilds, das nachfolgend rekonstruiert wird, zu korrigieren.
- Bei diesem (Ein-Phasen-) Lösungsansatz werden Fehler identifiziert und Korrekturen auf nachfolgende Teile des Bilds, das rekonstruiert wird, angewendet. Dieser Lösungsansatz kann gute Ergebnisse ergeben, solange Navigationsfehler nicht zu groß sind. Dieser Lösungsansatz kann wie folgt implementiert werden: temporäres Speichern von Informationen, die sich auf die Ausrichtungsmerkmale, die in dem ersten Band identifiziert werden, beziehen; Abbilden des nächsten Bands in das rekonstruierte Bild; Vergleichen der gespeicherten Informationen mit Informationen, die sich auf die Reproduktionen in dem rekonstruierten Bild der Ausrichtungsmerkmale in dem nächsten Band beziehen.
- Bei einem bevorzugten Ausführungsbeispiel, das beschrieben werden soll, umfaßt das Verfahren folgende Schritte: Speichern von Informationen, die sich auf einleitende Positionen der Ausrichtungsmerkmale in dem nächsten Band beziehen; Berechnen der Fehlerabschätzungen basierend auf den einleitenden Positionen; Anwenden der Fehlerabschätzungen während des Abbildens des nächsten Bands in das rekonstruierte Bild.
- Bei diesem Ausführungsbeispiel wird ein zweiphasiges Verfahren verwendet, um Fehler an dem Punkt, an dem dieselben auftreten, in dem rekonstruierten Bild zu identifizieren und zu korrigieren, wobei ein Vernähen mit einem hohen Genauigkeitsgrad durchgeführt werden kann.
- Dieser Lösungsansatz kann wie folgt implementiert werden: Speichern von Informationen, die sich auf die Position eines Ausrichtungsmerkmals in dem ersten Band beziehen; Verwenden der Positionsinformationen, um einen Teil der Bilddaten von dem nächsten Band zu lokalisieren; Vergleichen des lokalisierten Teils der Bilddaten von dem nächsten Band mit dem Ausrichtungsmerkmal aus dem ersten Band in dem rekonstruierten Bild; Verwenden dieses Vergleichs, um eine Fehlerabschätzung abzuleiten; Speichern der Fehlerabschätzung und einer Positionskennung, die anzeigt, auf welchen Teil des nächsten Bands sich die Fehlerabschätzung bezieht; Anwenden der Fehlerabschätzung, wenn der relevante Teil des nächsten Bands in das rekonstruierte Bild abgebildet wird.
- Wenn die vorliegende Erfindung in einem Handscanner implementiert ist, der ausreichend Rechenleistung aufweist, um die gesamte Verarbeitung durchzuführen, umfaßt das Verfahren die Verwendung der Fehlerabschätzungen, um Korrekturen zu der Navigationsvorrichtung zurückzukoppeln. Folglich werden Fehler in Echtzeit identifiziert und verwendet, um die Navigationsvorrichtung selbst zu korrigieren, und um Fehler in dem Bild, das rekonstruiert wird, zu korrigieren.
- Alternativ kann die vorliegende Erfindung in einer Abtastvorrichtung zum Sammeln von Bilddaten implementiert sein, die für eine Verbindung mit einem Computersystem zur Durchführung eines Verfahrens gemäß der vorliegenden Erfindung entworfen ist.
- Die vorliegende Erfindung kann unterschiedliche Abtasttypen unterbringen. Um zu ermöglichen, daß der Benutzer die Abtastrichtung am Anfang auswählt, kann eine Einrichtung zum Identifizieren und Speichern von Informationen, die sich auf Ausrichtungsmerkmale auf zwei gegenüberliegenden Seiten jedes Bildbands beziehen, existieren. Um Änderungen der Abtastrichtung während einer Abtastung zu ermöglichen, kann eine Einrichtung zum Berechnen von Fehlerabschätzungen und zur Verwendung dieser, um Navigationsfehler bezüglich zweier gegenüberliegender Seiten eines Bands zu korrigieren, wenn ein Bild rekonstruiert wird, existieren.
- Gemäß einem weiteren Aspekt schafft die Erfindung ein Abtastsystem zum Abtasten eines Originalbilds in Teilen und zum Erhalten und Rekonstruieren eines Bilds aus den abgetasteten Teilen des Originalbilds mit folgenden Merkmalen: einer Abtastvorrichtung zum Abtasten eines Originalbilds in Teilen, wobei die abgetasteten Teile durch eine Relativbewegung zwischen der Abtastvorrichtung und dem Originalbild erhalten werden, so daß benachbarte abgetastete Bildbänder einander überlappen, wobei die Abtastvorrichtung eine Navigationseinrichtung zum Bestimmen der Position der Abtastvorrichtung relativ zu dem Originalbild aufweist; einer Speichereinrichtung zum Speichern eines rekonstruierten Bilds; einer Einrichtung zum Schreiben eines Bildbands in das rekonstruierte Bild; einer Erkennungseinrichtung zum Definieren von Registrierungsmerkmalen in einem ersten Bildband in einem erwarteten Überlappungsbereich mit einem nächsten Band, das gesammelt werden soll; und einer Einrichtung zum Abbilden eines zweiten Bands fortlaufend in das rekonstruierte Bild, die angepaßt ist, um die Bilddaten, die von den überlappenden Abschnitten des ersten und des zweiten Bands erhalten werden, zu benutzen, um aufeinanderfolgende Abschätzungen eines Navigationsfehlers durch das Vergleichen der Positionen der Ausrichtungsmerkmale mit der Position der Reproduktionen derselben in dem zweiten Band unter Verwendung von Navigationsdaten, die während des Abtastens empfangen werden, abzuleiten, und um die Fehlerabschätzungen, die von diesen Vergleichen abgeleitet werden, kontinuierlich zu verwenden, um Navigationsfehler während einer fortlaufenden Rekonstruktion des Bilds zu korrigieren, wobei jede Fehlerabschätzung räumlich vor einem nachfolgenden Schreiben des relevanten Teils des zweiten Bands in das rekonstruierte Bild geliefert wird.
- Eine Abtastvorrichtung gemäß diesem Aspekt wird beschrieben. Die Vorrichtung kann die Rechenleistung besitzen, um die Verarbeitung, die durch ein Verfahren gemäß der vorliegenden Erfindung erforderlich ist, durchzuführen, wobei die Vorrichtung alternativ für eine Verbindung mit einem Computersystem zum Durchführen eines Verfahrens gemäß der vorliegenden Erfindung entworfen sein kann.
- Bei dem zu beschreibenden Ausführungsbeispiel umfassen eine Abtastvorrichtung und ein Verfahren zum Erzeugen eines abgetasteten elektronischen Bilds die Verwendung von Navigationsinformationen, die zusammen mit Bilddaten aufgenommen werden, und dann das Berichtigen der Bilddaten basierend auf den Navigations- und Bild-Informationen. Bei einem bevorzugten Ausführungsbeispiel werden die Navigationsinformationen mittels zumindest eines Navigationssensors aufgenommen, der inhärente strukturbezogene Eigenschaften eines Originals, das abgetastet wird, erfaßt. Die Bewegung eines Bildsensors entlang des Originals kann durch die Überwachung von Änderungen der inhärenten strukturbezogenen Eigenschaften, während der Bildsensor relativ zu dem Original bewegt wird, verfolgt werden. Die inhärenten, strukturbezogenen Eigenschaften, die überwacht werden, sind inhärente Strukturmerkmale, beispielsweise Papierfasern oder andere Bestandteile des Originals. Die Navigation kann auch auf einer Maserung basieren (speckle-based), wobei die Bewegung des Bildsensors entlang des Originals durch die Überwachung von Variationen des Maserungsmusters, das unter Verwendung einer kohärenten Beleuchtung zur Aufnahme der Navigationsinformationen erzeugt wird, verfolgt wird.
- "Inhärente strukturbezogene Eigenschaften" sind Eigenschaften des Originals, die Faktoren zuweisbar sind, die unabhängig von der Erzeugung von Bilddaten und/oder von systematischen Ausrichtungsdaten auf dem Original sind. Die Navigationsinformationen können durch die Erzeugung eines Positionssignals gebildet werden, die ansprechend auf die Erfassung von inhärenten strukturbezogenen Eigenschaften erfolgt, wie z. B. ein Positionssignal von Maserungsinformationen oder ein Positionssignal, das eine Verfolgung einzelner inhärenter Strukturmerkmale ermöglicht. "Inhärente Strukturmerkmale" sind diejenigen Merkmale eines Originals, die charakteristisch für Prozesse des Erzeugens des Originals und unabhängig vom Erzeugen von Bilddaten und/oder systematischen Ausrichtungsdaten auf dem Original sind. Wenn das Medium, auf dem das Original aufgezeichnet ist, beispielsweise ein Papierprodukt ist, können die interessierenden inhärenten Strukturmerkmale Papierfasern sein. Als ein weiteres Beispiel kann die Navigation des Bildsensors über ein glänzendes Original oder einen Overhead-Transparentfilm bestimmt werden, indem Oberflächentexturvariationen, die Spiegelfelder beeinflussen, verfolgt werden. Typischerweise sind die inhärenten Strukturmerkmale mikroskopische Merkmale der Oberflächentextur, beispielsweise eine Größe zwischen 10 und 40 um.
- Folglich variieren die betrachteten Lösungsansätze zum Aufnehmen von Navigationsinformationen hinsichtlich des Umfangs. Bei dem breitesten Lösungsansatz existiert keine Begrenzung hinsichtlich der Quellen der Navigationsinformationen, die verwendet werden sollen, um Verzerrungsartefakte einer krummlinigen und Dreh-Bewegung der Abtastvorrichtung entlang eines Abtastwegs zu beseitigen. Das Navigationssignal kann daher die Form eines Positionssignals aufweisen, das auf die Erfassung von Bilddaten auf dem Original (bei spielsweise der Identifizierung von Kanten von Textzeichen) anspricht, wobei das Positionssignal dann bei der Manipulation eines Bildsignals verwendet wird. Ein zweiter Lösungsansatz ist ein solcher, bei dem ein Positionssignal auf die Erfassung von inhärenten strukturbezogenen Eigenschaften anspricht, beispielsweise den Eigenschaften, die Maserungsmuster bestimmen. Der dritte Lösungsansatz besteht darin, die Navigation der Abtastvorrichtung durch das Überwachen der Positionen einzelner inhärenter Strukturmerkmale (beispielsweise Papierfasern) während der Zeit zu überwachen.
- Bei den zu beschreibenden Ausführungsbeispielen ist der Bildsensor ein lineares Array von elektrooptischen Elementen, während der Navigationslösungsansatz zumindest ein zweidimensionales Array von Navigationssensorelementen verwendet. Indem ein separates zweidimensionales Navigationsarray an jedem Ende des Bildsensors plaziert wird, werden dem Scanner drei Bewegungsfreiheitsgrade geboten. Wenn das Original eben ist, sind zwei der Freiheitsgrade translierend und in der Ebene des Originals senkrecht zueinander, während der dritte Freiheitsgrad um die Senkrechte der Ebene des Originals rotierend ist. Die Genauigkeit der Rotationsverfolgung wird durch die Verwendung von zwei Navigationsarrays verbessert, wobei jedes Array eine kleinere Arraygröße aufweist, als notwendig wäre, wenn nur ein einzelnes Navigationsarray verwendet werden würde. Obwohl das beschriebene Ausführungsbeispiel ein solches ist, bei dem ein Navigationssensor ein zweidimensionales Array ist, können auch lineare Arrays verwendet werden. Wie jedoch ausführlicher nachfolgend beschrieben wird, könnten außerdem Navigationsinformationen zum Berichtigen von Bilddaten praktikabel durch das Befestigen einer anderen Positionsverfolgungseinrichtung an der Abtastvorrichtung aufgenommen werden, einschließlich Codierungs-Rädern und -Kugeln, Computer-Maus- Trackballs, Ausrichtungsgitter-Detektoren, Beschleunigungsmessern, mechanischen Verbindungen und Zeitverzögerungs-Integrations-Sensorarrays. Bei vielen dieser alternativen Ausführungsbeispiele werden Navigationsinformationen zum Be richtigen der Bilddaten auf Arten aufgenommen, die unabhängig von jeglichen inhärenten strukturbezogenen Eigenschaften des Originals sind, da die Positionsverfolgung keine Bilderfassung beinhaltet.
- Die Navigationssensoren befinden sich an einer bekannten Position relativ zu dem Bildsensor. Vorzugsweise befinden sich die Navigationssensoren so nahe bei den Endpunkten der Bildsensoren wie möglich, so daß die Navigationssensoren weniger anfällig für eine Bewegung über die Kante eines Originals hinaus sind, während das Bildarray bewegt wird. Der Bildsensor erzeugt ein Signal, das ein interessierendes Bild darstellt. Gleichzeitig erzeugt jeder Navigationssensor ein Signal, das die inhärenten strukturbezogenen Eigenschaften des Originals darstellt. Die Abtastvorrichtung kann in einem Freihand-Meandermuster bewegt werden, beispielsweise einem aus abwechselnden Links-Nach-Rechts- und Rechts-Nach-Links- Bewegungen mit einer Abwärtsbewegung entlang des Originals, wobei die Vorrichtung in Berührung mit dem Original bleibt. Jedes der nebeneinanderliegenden Bänder sollte einen Abschnitt des vorherigen Bands überlappen, so daß das Bild bezüglich der Position manipuliert werden kann und entweder während oder nach dem Abtastprozeß vernäht werden kann. Die Manipulation des Bildsignals ist eine Berichtigung von Bilddaten, wobei die Berichtigung basierend auf der Relativbewegung zwischen dem Navigationssensor oder den Sensoren und den inhärenten strukturbezogenen Eigenschaften, die durch die Navigationssensoren erfaßt werden, basiert. Die Manipulation ist eine "Berichtigung" des Bildsignals, d. h. eine Operation des Anordnens und Modifizierens von aufgenommenen Bilddaten basierend auf Navigationsdaten, um eine Übereinstimmung zwischen dem ursprünglichen und dem ausgegebenen Bild zu erreichen. Das Vernähen wird verwendet, um Bilddaten, die während aufeinanderfolgender Durchläufe aufgenommen werden, zu verbinden.
- Jeder Navigationssensor kann eine oder mehrere Lichtquellen aufweisen, die entworfen sind, um abhängig von den inhären ten strukturbezogenen Eigenschaften des Originals einen Kontrast zu liefern. Das emittierte Licht kann im sichtbaren Bereich liegen, wobei dies jedoch nicht notwendig ist. Beispielsweise wird "streifendes" Licht, das große Einfallswinkel relativ zu der Oberflächensenkrechten aufweist, mit Papierfasern an oder in der Nähe der Oberfläche eines Originals, das ein Papierprodukt ist, in Wechselwirkung treten, wobei zwischen den Fasern kontrastverbessernde Schatten erzeugt werden. Andererseits wird, wenn das Original eine glänzende Oberfläche besitzt, wie z. B. ein photographischer Druck, ein tonbeschichtetes Papier oder ein Overhead-Transparentfilm, senkrecht einfallendes Licht ein Bild in dem Spiegelfeld erzeugen, das Bildkontrastmerkmale aufweist, die zu Zwecken der Navigation ausreichen. Optische Elemente, wie z. B. Filter und eine oder mehrere Abbildungslinsen, können die Erfassung inhärenter strukturbezogener Eigenschaften weiter verbessern.
- Ein Vorteil der beschriebenen Ausführungsbeispiele besteht darin, daß die Abtast-Vorrichtung und das -Verfahren drei Bewegungsfreiheitsgrade der Abtastvorrichtung ermöglichen, während noch eine Qualitätsbildaufnahme erreicht wird. Folglich kann beim Fehlen von anderen mechanischen Beschränkungen als denen, die durch die Berührung mit der Oberfläche des Originals während des Bildaufnahmeprozesses geliefert werden, eine tragbare Abtastvorrichtung im Taschenformat hergestellt und verwendet werden. Tatsächlich kann für Ausführungsbeispiele, bei denen die Bildberichtigung durch eine Korrelation von Navigationsbildern geliefert wird, die Vorrichtung-Zu-Original-Berührungsbeschränkung beseitigt sein. Ein weiterer Vorteil besteht darin, daß, da die Abtastvorrichtung der beschriebenen Ausführungsbeispiele ein elektronisches Bild basierend auf der Erfassung von inhärenten Strukturmerkmalen erzeugt, große Bereiche eines "weißen Raums" zwischen Bildmerkmalen des Originals beibehalten werden und daher nicht zur Folge haben, daß die Bildmerkmale während eines Vernähungsschritts näher zueinander bewegt werden.
- Fig. 1 ist eine perspektivische Ansicht einer Handabtastvorrichtung gemäß der Erfindung, die einem Meanderweg auf einem Original folgt.
- Fig. 2 ist eine rückseitige Ansicht von Bilderzeugungs- und Navigations-Sensoren der Abtastvorrichtung von Fig. 1.
- Fig. 3 ist eine perspektivische Ansicht der Abtastvorrichtung von Fig. 1, wobei die Bilderzeugungs- und Navigationssensoren freiliegend gezeigt sind.
- Fig. 4 ist eine schematische Seitenansicht eines Beleuchtungssystems für einen der Navigationssensoren von Fig. 3.
- Fig. 5 ist eine schematische Seitenansicht einer lichtemittierenden Diode und von optischen Elementen zum Liefern der Beleuchtung, die bezugnehmend auf Fig. 4 beschrieben ist.
- Fig. 6 ist eine Konzeptansicht der Bildaufnahmeoperation der Abtastvorrichtung von Fig. 1.
- Fig. 7 ist ein Flußdiagramm eines Ausführungsbeispiels der Navigationsverarbeitung der Abtastvorrichtung von Fig. 1.
- Fig. 8 ist eine schematische Ansicht ausgewählter Schritte von Fig. 7.
- Fig. 9 ist ein Blockdiagramm der Komponenten zum Durchführen der Schritte von Fig. 8.
- Fig. 10a ist eine Darstellung eines Inkrements eines Positionsmarkierten Datenstroms, der typisch für das Ausgangssignal von dem Navigationsprozessor von Fig. 9 ist.
- Fig. 10b ist eine Darstellung eines Puffers, der eine Mehrzahl von Positions-markierten Dateninkrementen speichert.
- Fig. 11 zeigt einen Geradliniges-Bild-Puffer, der den Ort der Endpunkte der Abtastwerte von dem linearen Bildsensor zeigt.
- Fig. 12 ist eine Darstellung von Bändern, die durch die Abtastvorrichtung von Fig. 1 gesammelt werden.
- Fig. 13 zeigt die Puffer, die bei einem einphasigen Prozeß gemäß der vorliegenden Erfindung verwendet werden.
- Fig. 14 zeigt Bänder, die gesammelt werden, wenn der einphasige Prozeß verwendet wird.
- Fig. 15 ist eine Darstellung eines Ausrichtungsfelds, das verwendet werden kann, um ein Vernähen aufeinanderfolgender Bänder zu erreichen.
- Fig. 16 zeigt die Puffer, die bei einem zweiphasigen Prozeß verwendet sind, um ein Vernähen von aufeinanderfolgenden Bändern zu erreichen.
- Fig. 17 zeigt Bänder, die gesammelt werden, wenn der zweiphasige Prozeß von Fig. 16 verwendet wird.
- In Fig. 1, auf die nun Bezug genommen wird, ist eine tragbare Handabtastvorrichtung 10 gezeigt, die einem meanderför migen Weg 12 entlang eines Originals 14 gefolgt ist. Das Original kann ein Blatt Papier, ein Overhead-Transparentfilm oder jegliche andere ein Bild tragende Oberfläche sein. Die inhärenten strukturbezogenen Eigenschaften des Originals können verwendet werden, um während einer Navigation entlang des Meanderwegs Positionsinformationen zu liefern. Bei diesem Lösungsansatz werden die Positionen der inhärenten Strukturmerkmale verfolgt, wobei die Positionsinformationen verwendet werden, um Bilddaten zu berichtigen, wobei jedoch auch andere Ausführungsbeispiele beschrieben werden. Die Abtastvorrichtung ist vorzugsweise unabhängig und batteriebetrieben, kann jedoch eine Verbindung zu einer externen Leistungsquelle oder zu Datentoren von Computern oder Netzwerken aufweisen.
- Die Abtastvorrichtung 10 von Fig. 1 umfaßt eine Bildanzeige 16, um die Betrachtung eines aufgenommenen Bilds zu ermöglichen. Jedoch ist eine Anzeige für die Verwendung der Abtastvorrichtung nicht essentiell.
- Bezugnehmend nun auf die Fig. 1 bis 3 weist die Vorderseite 18 der Abtastvorrichtung 10 ein Schwenkbauglied 20 auf, das die Beibehaltung einer ordnungsgemäßen Berührung zwischen dem Original 14 und einem Bilderzeugungssensor 22 unterstützt. Der Bilderzeugungssensor 22 umfaßt ein lineares Array von Bildsensorelementen. Navigationssensoren 24 und 26 sind an den gegenüberliegenden Enden des Bilderzeugungssensors angeordnet. Die Navigationssensoren 24, 26 sind auf dem Schwenkbauglied befestigt, so daß sich die Navigationssensoren an einem festgelegten Ort relativ zu dem Bilderzeugungssensor befinden.
- Die Abtastvorrichtung 10 ermöglicht drei Freiheitsgrade, von denen zwei translierend und einer rotierend ist. Der erste Grad ist die Seite-Zu-Seite-Bewegung (X-Achsenbewegung) entlang des Originals 14. Der zweite Freiheitsgrad ist die Bewegung entlang des Originals nach oben und nach unten (Y- Achsenbewegung). Der dritte Freiheitsgrad ist die Fähigkeit, die Vorrichtung mit einer Rotationsfehlausrichtung des Bilderzeugungssensors 22 relativ zu einer Kante des Originals 14 zu betreiben. Das heißt, daß der Bilderzeugungssensor 22 einen Angriffswinkel aufweisen kann, der nicht senkrecht zu der Richtung der Vorrichtungstranslation ist.
- Aus Gründen einer physischen Kompaktheit ist der Bilderzeugungssensor 22 vorzugsweise eine Berührungsbildvorrichtung, wobei jedoch bei Anwendungen, bei denen eine Kompaktheit von geringerer Bedeutung ist, oder ein kleineres Bild gewünscht ist, Sensoren, die Projektionsoptiken mit einer Vergrößerung von weniger als 1 verwenden, verwendet werden können. Bei solchen Anwendungen sollten die Elemente des Bilderzeugungssensors 22 kleiner und näher zusammen gepackt sein. Berührungsbilderzeugungsvorrichtungen verwenden typischerweise Linsen, die unter der Marke SELFOC verkauft werden, die eine Marke der Nippon Sheet Glass Company Limited ist. Weniger üblich kann eine Berührungsbilderzeugung unter Verwendung von verschachtelten Arrayelementen von Quellen und Proximalsensoren erhalten werden, ohne irgendwelche Abbildungslinsen. Herkömmliche Bilderzeugungssensoren für Abtastanwendungen können verwendet werden. Der Bilderzeugungssensor kann Teil einer Einheit sein, die ebenfalls eine Beleuchtungsquelle, Beleuchtungsoptiken und Bildübertragungsoptiken enthält.
- Der Bilderzeugungssensor 22 ist als ein lineares Array von diskreten, optisch empfindlichen Elementen gezeigt. Die Beabstandung der Elemente spielt eine Rolle bei der Bestimmung der räumlichen Auflösung des Scanners 10. Beispielsweise erfordert ein lineares Array mit einer Länge von 101,6 mm 1.200 Sensorelemente, um eine Auflösung von 300 dpi zu erreichen. Der Sensor kann eine ladungsgekoppelte Vorrichtung, ein Photodiodenarray aus amorphem Silizium oder jeglicher andere Typ eines Lineararraysensors, der in der Technik bekannt ist, sein.
- Eine Schlüsselbetrachtung beim Entwurf der Bilderzeugungs sensoreinheit ist die Geschwindigkeit. Der Bilderzeugungssensor 22 ist vorzugsweise in der Lage, jedes Pixel mit näherungsweise 10K Abtastwerten pro Sekunde abzubilden. Lineare Bilderzeugungsarrays erzeugen allgemein einen seriellen Datenstrom, in dem Pixelwerte, d. h. Ladungen, in einem Schieberegister plaziert und dann herausgeschoben werden. Das Erreichen der gewünschten Geschwindigkeit erfordert entweder sehr schnelle serielle Übertragungsraten aus dem gesamten Bildarray oder mehrere Abgriffstellen, so daß es möglich ist, die Pixelwerte durch eine geringere Anzahl von Zellen zu schieben. Dies führt einen Parallelismus ein, der für eine digitale Verarbeitung vorteilhaft ist.
- Eine weitere Folge der Geschwindigkeitsanforderung besteht darin, daß die Produkte von Pixelbereichen an der Oberfläche des Originals und deren Raumwinkel von emittiertem Licht, das gesammelt und zu jedem Arrayelement befördert wird, ausreichend groß sein sollten, um ein erfaßbares Signal bei Integrationszeiten in der Größenordnung von 100 Mikrosekunden zu erzeugen. Eine Verbesserungsoption besteht darin, ein optisches Element zu dem Sensor hinzuzufügen, um den wirksamen Bruchteil der Sensorneigung, auf den jedes Sensorelement anspricht, zu erhöhen. Da typischerweise eine unbenutzte Fläche in der Arraymatrix existiert, erhöhen derartige Lichtsammeloptiken die Empfindlichkeit.
- Eine einfache Modifikation des Bilderzeugungssensors 22 ermöglicht die Erfassung von Farbbildern. Drei lineare Arrays parallel zueinander, von denen jedes zumindest ein eingebettetes Filterelement, das selektiv rote, grüne bzw. blaue Komponenten des einfallenden Lichts durchläßt, ermöglichen eine Farbbilderzeugung. Alternativ kann ein einzelnes Array mit einer Breitbandempfindlichkeit sequentiell durch eine rote, eine grüne und eine blaue Lichtquelle beleuchtet werden.
- Hinsichtlich der Beleuchtung zur Verbesserung des Betriebs des Bilderzeugungssensors 22 kann ein lineares Array von lichtemittierenden Dioden hoher Intensität bei der Bernsteinwellenlänge verwendet werden. Jedoch hängt die Auswahl der bevorzugten Beleuchtungsquelle und jeglicher optischer Elemente von dem Medium des Originals ab. Die Wellenlänge des Lichts wird ausgewählt, um den Kontrast der Bilddaten, die während des Abtastens eines gegebenen Bereichs des Originals 14 aufgenommen werden, zu maximieren, während ungewollte Signale mißachtet werden. Beleuchtungsoptiken können aus LED-Domlinsen bestehen oder können eine Lichtröhre umfassen, die aus einem präzise geformten optischen Element besteht, das die Beleuchtung mit einem minimalen Lichtverlustbetrag auf das Original kanalisiert. Ein solcher Entwurf kann eine relativ gleichmäßige Beleuchtung eines Zielbereichs des Originals mit einem breiten Bereich von Winkeln bieten, blockiert jedoch senkrecht einfallende Strahlen, um Spiegeloberflächenreflexionen zu vermeiden.
- Gemäß der Darstellung von Fig. 1 besitzt der Meanderweg 12 vier Bänder und einen Bruchteil eines Bands, d. h. Durchläufe von Seite zu Seite über das Original 14. Ein brauchbarer Bilderzeugungssensor 22 für die meisten denkbaren Anwendungen besitzt eine Länge in einem Bereich von 25,4 mm und 101,6 mm. Wenn der Sensor 22 eine Länge von 63,5 mm besitzt, kann ein A4-Papier in vier oder fünf Bändern abgetastet werden. Wie ausführlicher nachfolgend erklärt wird, sollten die Bänder Regionen eines Überlappens beinhalten, so daß ein Vernähungsverfahren verwendet werden kann, um eine naturgetreue Reproduktion des ursprünglichen Bilds zu erzeugen.
- Die Abtastvorrichtung 10 umfaßt typischerweise zumindest einen Navigationssensor 24 oder 26. Bei dem bevorzugten Ausführungsbeispiel umfaßt die Vorrichtung ein Paar von Navigationssensoren, wobei sich die Sensoren an gegenüberliegenden Enden des Bilderzeugungssensors 22 befinden. Obwohl ein eindimensionales Array von optoelektronischen Elementen verwendet werden kann, besteht bei dem bevorzugten Ausführungsbeispiel jeder Navigationssensor aus einem zweidimensionalen Array von Elementen. Die Navigationssensoren 24 und 26 wer den verwendet, um eine Bewegung der Abtastvorrichtung 10 relativ zu dem Original 14 zu verfolgen.
- Bei dem bevorzugten Ausführungsbeispiel nimmt jeder Navigationssensor 24 und 26 Bilder auf, die sich auf inhärente, strukturbezogene Eigenschaften des Originals beziehen, um Informationen zu erzeugen, die sich auf die Position der Abtastvorrichtung 10 beziehen. Bei den meisten bekannten Abtastvorrichtungen werden inhärente Strukturmerkmale als Rauschen betrachtet. Bei der Abtastvorrichtung 10 der Fig. 1 bis 3 sind derartige Merkmale bezüglich des Bilderzeugungssensors 22 Rauschen, können jedoch verwendet werden, um für die Navigationssensoren 24 und 26 eine Basis zu liefern, um Positionsinformationen zu erzeugen. Durch die Erfassung struktureller Variationen, die inhärent für das Medium sind, oder die auf dem Medium gebildet sind, beispielsweise Text, können brauchbare Hochkontrastbilder einer Oberflächentextur erzeugt werden. Zum Beispiel können Bilder basierend auf dem Kontrast zwischen Schatten in Tälern und hellen Punkten an den Spitzen inhärenter Strukturmerkmale erzeugt werden. Derartige Merkmale besitzen typischerweise eine mikroskopische Beschaffenheit, häufig in einem Größenbereich von 10 um und 40 um auf üblichen bedruckten Medien. Alternativ kann eine Maserung verwendet werden, da eine Spiegelreflexion eines kohärenten Strahls ein Kontrastmuster von hellen und dunklen Bereichen erzeugt. Eine dritte Quelle von Kontrastinformationen ist die Farbe. Der Farbkontrast ist unabhängig von einer Oberflächentextur. Selbst wenn eine texturfreie Oberfläche mit Licht in dem sichtbaren Bereich beleuchtet wird, existiert ein Farbkontrast zwischen Regionen unterschiedlicher Farben, beispielsweise zwischen unterschiedlichen Grauschattierungen.
- Jedoch wird die Verwendung der Erfindung für Anwendungen, bei denen Navigationsinformationen unabhängig von inhärenten, strukturbezogenen Eigenschaften des Originals sind, betrachtet. Beispielsweise kann einer oder beide der Navigationssensoren 24 und 26 von Fig. 2 verwendet werden, um auf einanderfolgende Bilder des Drucks auf dem Original zu erzeugen, wobei eine Korrelation der aufeinanderfolgenden Bilder verwendet wird, um die Position und die Ausrichtung des Bildsensors 22 entlang des Originals 14 zu bestimmen. Bei diesem Ausführungsbeispiel bilden alle drei Sensoren 22, 24 und 26 Text auf dem Original ab, wobei jedoch nur das Signal von dem Sensor 22 verwendet wird, um Bilddaten aufzunehmen. Die Signale von den Navigationssensoren 24 und 26 werden verwendet, um Navigationsinformationen auf Bildbasis aufzunehmen.
- Nicht-Bilderzeugungslösungsansätze können ebenfalls verwendet werden, um X-, Y- und Winkel-Positionsinformationen aufzunehmen und zu verarbeiten. Ungünstigerweise bewirken viele der alternativen Einrichtungen verschiedene Begrenzungen hinsichtlich der Kompaktheit, der Bequemlichkeit der Verwendung, der Geschwindigkeit, der Bewegungsfreiheit, des Leistungsverbrauchs, der Genauigkeit, der Exaktheit und/oder der Kosten. Eine abbildungsunabhängige Alternative, die zum Aufnehmen von Positionsinformationen verfügbar ist, besteht darin, ein oder mehrere Codierungsräder anstelle der Navigationssensoren vorzusehen. Die Codierungsräder können dann ohne ein Gleiten auf der abgetasteten Oberfläche rollen, was ermöglicht, daß sich die Abtastvorrichtung entlang gerader oder gekrümmter Bahnen bewegt. Es ist kein wesentliches Merkmal, daß sich die Codierungsräder auf einer gemeinsamen Achse befinden. Die Räder können an einem Drehgelenk befestigt sein. Codierer, die gekoppelt sind, um Rotationen zu überwachen, würden die Eingangsdaten liefern, aus denen die Position und die Ausrichtung eines Bilderzeugungssensors relativ zu einer Anfangs-Position und zu einer -Ausrichtung berechnet werden.
- Ein weiterer bildfreier Lösungsansatz, um Navigationsinformationen aufzunehmen, besteht darin, Trackballs ähnlich denen für eine Computermaus zu verwenden. Ein Trackball könnte anstelle jedes Codiererrads, das oben beschrieben ist, verwendet werden. Codierer würden verwendet werden, um zweidi mensionale Verschiebungsinformationen von jedem Trackball zu erhalten. Bei einem weiteren Lösungsansatz können optische oder elektronische (kapazitive, resistive oder induktive) Sensoren anstelle der Navigationssensoren von Fig. 2 verwendet werden, um die Position und die Ausrichtung relativ zu einem mitwirkenden (aktiven oder passiven) Gitter oder einer anderen Referenz, die in einer darunterliegenden Auflage gebildet ist, die wiederum als ein Träger für das Original, das abgetastet wird, dient, zu erfassen.
- Ein weiterer bildfreier Lösungsansatz, um Positions- und Ausrichtungs-Informationen aufzunehmen, besteht darin, einen Geschwindigkeitsmesser vorzusehen. Eine eingebaute Trägheitsnavigationsplattform kann verwendet werden, wobei Beschleunigungen erfaßt werden und entweder einmal integriert werden, um Geschwindigkeiten zu erhalten, oder zweimal, um Positionen zu erhalten. Bei einem weiteren alternativen Lösungsansatz könnten Geschwindigkeiten von federaufgehängten Massen erfaßt und einmal integriert werden, um Positionen zu erhalten. Gyroskope könnten bei einer direkten Erfassung der Ausrichtung verwendet werden.
- Noch ein weiterer alternativer Lösungsansatz bestünde darin, eine beliebige einer Vielzahl von mechanischen Verbindungen zu verwenden, um damit die Position und die Ausrichtung relativ zu Referenzkoordinaten, die bezüglich des Mediums, das abgetastet wird, festgelegt sind, zu verfolgen. Positions- und Ausrichtungs-Informationen könnten mittels Sensoren erhalten werden, die gekoppelt sind, um die Relativbewegung der mechanischen Bauglieder zu messen. Diese Sensoren könnten entweder vom relativen oder absoluten Typ sein und könnten auf einer direkten Positions- und Ausrichtungs-Erfassung basieren, oder der Erfassung von Beschleunigungen oder Geschwindigkeiten, wobei dann eine einfache oder doppelte Integration bezüglich der Zeit erfolgen würde, um Positionen zu erhalten. Eine Nicht-Berührungs-Fernerfassung könnte ebenfalls verwendet werden, um die Position und die Ausrichtung der Abtastvorrichtung relativ zu Bezugskoordinaten, die bezüglich des abgetasteten Originals festgelegt sind, zu messen. Beispiele einer derartigen Nicht-Berührungs-Erfassung würden diejenigen beinhalten, die elektromagnetische Felder, Wellen oder Strahlen verwenden (beispielsweise bei optischen Frequenzen oder Hochfrequenzen); elektrische Effekte (beispielsweise den kapazitiven); und/oder magnetische Effekte (beispielsweise den induktiven). Diese Lösungsansätze könnten herkömmliche oder differentielle GPS-Technologien (globale Positionierungstechnologien) ausnutzen und könnten möglicherweise Satelliten verwenden. Diese Lösungsansätze können ferner herkömmliche Navigations/Beförderungs-Verfahren, wie z. B. Triangulationen, umfassen. Dieselben könnten auch Techniken beinhalten, die bei Robotertechnologien verwendet werden, beispielsweise die Verwendung von geformten Lichtstrahlen und die Interpretierung der Position aus Bildern der Orte, an denen diese Strahlen das sich bewegende Objekt schneiden.
- Die Navigationssensoren 22 und 26 von Fig. 2 beobachten wirksam sich bewegende Fenster des Bilds des Originals 14 und erzeugen eine Anzeige der Verschiebung in zwei ebenen Dimensionen zwischen aufeinanderfolgenden Beobachtungen. Wie nachfolgend detaillierter erklärt wird, werden Pixelwerte von den Navigationssensoren verarbeitet, um eine ordnungsgemäße Abbildung von Bilddaten von dem Bilderzeugungssensor 22 zu bestimmen. Werte eines speziellen Pixels und seiner nächsten Nachbarn werden verwendet, um an jedem Pixelstandort ein Array von Korrelationswerten zu erzeugen. Die Korrelationswerte basieren auf Vergleichen zwischen einem momentanen Bild der Oberflächenstruktur und einem gespeicherten Bild, das eine bekannte Position inhärenter Strukturmerkmale darstellt, wobei das gespeicherte Bild als eine Positionsreferenz dient. Jedoch können andere Operationen als der Korrelierungsprozeß bei der Manipulation der Eingangsbilddaten verwendet werden, um das Ausgangsbild zu erzeugen.
- In den Fig. 4 und 5, auf die nun Bezug genommen wird, ist der Navigationssensor 24 in Wirkverbindung mit Beleuchtungs optiken gezeigt. Wenn das Original 14 ein Papierprodukt ist, für das Papierfasern durch den Navigationssensor 24 zu erfassen sind, ist das Einführen von Licht in einem streifenden Einfallswinkel bevorzugt. Obwohl es nicht wesentlich ist, können eine oder mehrere lichtemittierende Dioden (LEDs) 28 verwendet werden. Der streifende Winkel 30, der das Komplement des Einfallswinkels ist, liegt vorzugsweise in dem Bereich von 0 Grad und 15 Grad, wobei dies jedoch abhängig von den Eigenschaften des Originals 14 variieren kann. In Fig. 5 ist die Quelle 28 mit einer Beleuchtungsoptik 34 gezeigt. Die Optik kann ein einzelnes Elementoder eine Kombination von Linsen, Filtern und/oder holographischen Elementen aufweisen, um eine geeignete kollimierte und allgemein gleichmäßige Beleuchtung der Zieloberfläche zu erreichen. Die Wellenlänge des Lichts, das durch die Quelle 28 emittiert wird, sollte ausgewählt sein, um die räumlichen Frequenzinformationen, die für eine Navigation verfügbar sind, zu verbessern. Ein Festmusterrauschen in dem Beleuchtungsfeld sollte minimiert sein. Das Ausgangssignal der Quelle 28 kann eine Einstellung erfordern, um breite Dynamikbereiche eines Reflexionsvermögens des Mediums aufzunehmen, während sich die Abtastvorrichtung über bedruckte Materialien mit absorbierenden oder reflektierenden Tinten oder anderen Markierungsmitteln weiterbewegt.
- In Fig. 4 wird Licht von einer Quelle 35 an einer Beleuchtungsoptik 36 parallel gerichtet und dann durch einen Amplituden-Aufteilungs-Strahlteiler 37 umgeleitet. Der Teil der Lichtenergie, der von der LED direkt durch den Strahlteiler transmittiert wird, ist in Fig. 4 nicht gezeigt. Die Lichtenergie von dem Strahlteiler beleuchtet das Original 14 entlang der Senkrechten zu der Oberfläche.
- In Fig. 4 ist ebenfalls der Teil der Lichtenergie dargestellt, der von dem Original 14 reflektiert oder gestreut und für eine Blendenbehandlung und eine Filterung an einem Element 38 und eine Fokussierung auf ein Bild an dem Element 39 durch den Strahlteiler 37 fällt. Der Teil der Lichtener gie, der von dem Original zu dem Strahlteiler gelangt und von dem Strahlteiler reflektiert wird, ist nicht gezeigt. Die Vergrößerung der Navigationsbilderzeugungsoptik sollte über das Betrachtungsfeld des zweidimensionalen Sensorarrays 24, das das fokussierte Licht erfaßt, konstant sein. Bei vielen Anwendungen müssen die Modulationsübertragungsfunktionen, d. h. das Amplitudenmaß der optischen Frequenzantwort, der Navigationsoptik solche sein, um eine Dämpfung vor der Nyquist-Frequenz zu liefern, die durch die Neigung der Sensorelemente des Navigationssensors und durch die Verstärkung der optischen Elemente bestimmt ist. Die optischen Elemente sollten ferner entworfen sein, um zu verhindern, daß eine Hintergrundbeleuchtung Rauschen erzeugt. Es sei angemerkt, daß ebenfalls ein Wellenfrontteilungs-Strahlteiler verwendet werden könnte.
- Die Auswahl des Einfallswinkels hängt von den Materialeigenschaften des Originals ab. Streifende Beleuchtungswinkel erzeugen längere Schatten und einen erkennbareren Kontrast, oder ein AC-Signal, wenn die Oberfläche des Originals nicht glänzend ist. Der DC-Signalpegel nimmt jedoch zu, wenn sich der Beleuchtungswinkel der Senkrechten zu dem Original nähert.
- Das Beleuchten der Zielregion des Originals 14 mit einem streifenden Winkel 30 ist für Anwendungen gut geeignet, bei denen die Oberfläche des Originals auf einer mikroskopischen Ebene einen großen Unebenheitsgrad aufweist. Beispielsweise liefert das Einführen von Licht von der Quelle 28 mit einem streifenden Winkel ein hohes Signal/Rausch-Verhältnis von Daten, die auf inhärente Strukturmerkmale bezogen sind, wenn das Original Schreibpapier, Karton, Gewebe oder die menschliche Haut ist. Andererseits kann die Verwendung eines inkohärenten Lichts mit einem senkrechten Einfallswinkel bei Anwendungen bevorzugt sein, bei denen Positionsdaten benötigt werden, um eine Scannerbewegung entlang derartiger Originale, wie z. B. Photographien, glänzenden Magazinseiten und Overhead-Transparentfilmen, zu verfolgen. Bei einer senk rechten Beleuchtung unter Verwendung eines inkohärenten Lichts wird die Betrachtung des Originals hinsichtlich des spiegelmäßig reflektierten Felds ein Bild liefern, das ausreichend reich an Texturgehalt ist, um eine Navigation auf Bild- und Korrelations-Basis zu ermöglichen. Die Oberfläche des Originals besitzt ein mikroskopisches Relief, derart, daß die Oberfläche Licht reflektiert, als wenn die Oberfläche ein Mosaik von Feldern (Kacheln) oder Facetten wäre. Viele der "Felder" eines Originals reflektieren Licht in Richtungen, die hinsichtlich der normalen leicht abgelenkt sind. Ein Sichtfeld, das das gestreute Licht und das spiegelmäßig reflektierte Licht enthält, kann folglich modelliert werden, als ob die Oberfläche aus vielen derartigen Feldern zusammengesetzt wäre, von denen jedes bezüglich der Senkrechten etwas unterschiedlich geneigt ist. Diese Modellierung ist ähnlich der von W. W. Barkas in dem Artikel mit dem Titel "Analysis of Light Scattered from a Surface of Low Gloss into Its Specular and Diffuse Components", in Proc. Phys. Soc., Bd. 51, S. 274-292 (1939).
- Fig. 4 zeigt eine Beleuchtung durch eine Quelle 35 von inkohärentem Licht, das entlang der Senkrechten der Oberfläche des Originals 14 geleitet wird. Fig. 5 beschreibt die Beleuchtung in einem streifenden Winkel 30. Bei einem dritten Ausführungsbeispiel wird keine Beleuchtung geliefert. Statt dessen werden die Navigationsinformationen unter Verwendung eines Hintergrundlichts gesammelt, d. h. von Licht aus der Umgebung.
- Bei einem vierten Ausführungsbeispiel wird eine kohärente Beleuchtung mit einem senkrechten Einfall eingebracht, um eine Navigation auf Maserungsbasis zu ermöglichen. Eine Relativbewegung zwischen einer Abtastvorrichtung und einem Original kann verfolgt werden, indem die Bewegung einer Maserung relativ zu den Navigationssensoren überwacht wird. Wenn eine kohärente Beleuchtung verwendet wird, ohne Abbildungsoptiken zu verwenden, sind, indem eine kleine Beleuchtungsfläche ausgewählt wird, und indem eine relativ große Trennung zwischen der Oberfläche des Originals und dem Photodetektorarray des Navigationssenors 24 vorgesehen wird, die resultierenden überwiegenden Maserungszellengrößen bei einer kohärenten Beleuchtung ausreichend groß, um dem Nyquist-Abtastkriterium zu genügen. Die Verwendung eines Strahlteilers ermöglicht, daß die Richtung sowohl der einfallenden Beleuchtung als auch der erfaßten Streuung in der Nähe der Senkrechten zu der Oberfläche des Originals sind, wie es in gleicher Weise bei Fig. 4 erreicht wird.
- In Fig. 6, auf die nun Bezug genommen wird, ist der Scanner 10, wie er über ein Original 44 bewegt wird, gezeigt, das einen Block 46 aufweist, der auf die Oberfläche des Originals aufgedruckt ist. Da der Scanner 10 keinen kinematischen Beschränkungen in der Ebene des Originals unterworfen ist, besteht die Tendenz, daß ein Benutzer einem krummlinigen Weg über das Original folgt, als wenn die Hand und der Unterarm des Benutzers um den Ellbogen drehen. In Fig. 6 ist die Abtastvorrichtung einem gekrümmten Weg über den Block 46 folgend gezeigt. Wenn die untere Kante der Abtastvorrichtung die Kante ist, die sich näher am Ellbogen befindet, der die Rotationsachse definiert, wird die untere Kante einen kleineren Radius besitzen. Folglich werden die Bilderzeugungselemente eines Bilderzeugungssensors bezüglich der Zeit und der Strecke, die erforderlich sind, um den Block 46 zu überqueren, variieren. Ein verzerrtes Bild 50 des Blocks wird aufgenommen, wenn die Vorrichtung in die zweite Position 52, die in gestrichelten Linien gezeigt ist, bewegt wird.
- Das aufgenommene Bild 50 würde beim Fehlen der Verarbeitung, die nachfolgend beschrieben wird, das gespeicherte Bild sein. Jedoch werden, während der Bilderzeugungssensor Daten, die sich auf den Block 46 beziehen, aufnimmt, Navigationsinformationen erfaßt. Bei dem beschriebenen Ausführungsbeispiel nehmen einer oder mehrere Navigationssensoren Daten, die sich auf inhärente Strukturmerkmale des Originals 44 beziehen, auf. Eine Bewegung der inhärenten Strukturmerkmale relativ zu der Abtastvorrichtung 10 wird verfolgt, um eine Verschiebung des Bilderzeugungssensors relativ zu dem Block 46 zu bestimmen. Ein naturgetreu aufgenommenes Bild 54 kann dann erzeugt werden. Das Bild 54 wird hierin als das "berichtigte" Bild definiert.
- In Fig. 7 ist ein Ausführungsbeispiel einer Navigationsverarbeitung gezeigt. Die Navigationsverarbeitung wird durchgeführt, indem aufeinanderfolgende Rahmen von Navigationsinformationen, beispielsweise Daten, die sich auf inhärente Strukturmerkmale beziehen, korreliert werden. Die Korrelationen vergleichen die Positionen der inhärenten Strukturmerkmale in aufeinanderfolgenden Rahmen, um Informationen zu liefern, die sich auf die Position eines Navigationssensors zu einem speziellen Zeitpunkt beziehen. Die Navigationsinformationen werden dann verwendet, um die Bilddaten zu berichtigen. Die Verarbeitung von Fig. 7 wird typischerweise für jeden Navigationssensor durchgeführt.
- In einem ersten Schritt 56 wird ein Referenzrahmen erfaßt. Tatsächlich ist der Referenzrahmen eine Startposition. Die Position eines Navigationssensors zu einem späteren Zeitpunkt kann bestimmt werden, indem ein Abtastwertrahmen von Positionsdaten von dem Navigationssensor zu dem späteren Zeitpunkt erfaßt wird 58, und indem dann Korrelationen zwischen dem Referenzrahmen und dem später erfaßten Abtastwertrahmen berechnet werden 60.
- Das Erfassen des anfänglichen Referenzrahmens 56 kann auf eine Einleitung des Bilderzeugungsprozesses hin stattfinden. Beispielsweise kann die Erfassung durch lediglich die Plazierung der Abtastvorrichtung in Berührung mit dem Original ausgelöst werden. Alternativ kann die Abtastvorrichtung einen Startknopf aufweisen, der das Bilderzeugungsverfahren und das Navigationsverfahren einleitet. Die Einleitung kann auch durch eine periodische Pulsgebung des Beleuchtungssystems jedes Navigators stattfinden. Wenn ein reflektiertes Signal existiert, das eine vorgeschriebene Reflexionsschwelle überschreitet, oder ein Korrelationssignal, das eine Be wegung anzeigt, wird der Referenzrahmen erfaßt.
- Obwohl die Navigationsverarbeitung berechnungsmäßig durchgeführt wird, können die Konzepte dieses Ausführungsbeispiels bezugnehmend auf die Fig. 7 und 8 beschrieben werden. Ein Referenzrahmen 62 ist als ein Bild eines T-förmigen inhärenten Strukturmerkmals 64 aufweisend gezeigt. Die Größe des Referenzrahmens hängt von Faktoren, wie z. B. der maximalen Abtastgeschwindigkeit der Abtastvorrichtung, der dominanten räumlichen Frequenz bei der Bilderzeugung der Strukturmerkmale und der Bildauflösung des Sensors ab. Eine praktische Größe des Referenzrahmens für einen Navigationssensor, der 32 Pixel (N) · 64 Pixel (M) aufweist, beträgt 24 · 56 Pixel.
- Zu einem späteren Zeitpunkt (dt) erfaßt ein Navigationssensor einen Abtastwertrahmen 66, der bezüglich des Rahmens 62 verschoben ist, der jedoch im wesentlichen die gleichen inhärenten Strukturmerkmale zeigt. Die Dauer dt ist vorzugsweise derart eingestellt, daß die relative Verschiebung des T-förmigen Merkmals 64 bei der Bewegungsgeschwindigkeit der Abtastvorrichtung geringer ist als ein Pixel des Navigationssensors. Eine annehmbare Zeitperiode ist 50 us für Geschwindigkeiten von 0,45 m/s bei 600 dpi. Diese relative Verschiebung wird hierin als ein "Mikroschritt" bezeichnet.
- Wenn sich die Abtastvorrichtung während der Zeitperiode zwischen dem Erfassen 56 des Referenzrahmens 62 und dem Erfassen 58 des Abtastwertrahmens 60 bewegt hat, werden das erste und das zweite Bild des T-förmigen Merkmals solche sein, bei denen sich das Merkmal verschoben hat. Obwohl das bevorzugte Ausführungsbeispiel ein solches ist, bei dem dt geringer ist als die Zeit, die eine Voll-Pixel-Bewegung ermöglicht, ist die schematische Darstellung von Fig. 8 eine solche, bei der es möglich ist, daß das Merkmal 64 um ein Pixel nach oben und rechts verschoben wird. Die Verschiebung um ein volles Pixel wird hier lediglich zur Vereinfachung der Darstellung angenommen.
- Das Element 70 in Fig. 8 stellt eine sequentielle Verschiebung der Pixelwerte des Rahmens 68 in die acht nächstliegenden Nachbarpixel dar. Das heißt, daß der Schritt "0" keine Verschiebung umfaßt, der Schritt "1" eine diagonale Verschiebung nach links oben darstellt, der Schritt "2" eine Aufwärtsverschiebung darstellt, usw.. Auf diese Weise können die pixelverschobenen Rahmen mit dem Abtastwertrahmen 66 kombiniert werden, um das Array 72 von Positionsrahmen zu erzeugen. Der Positionsrahmen, der mit "Position 0" bezeichnet ist, umfaßt keine Verschiebung, so daß das Ergebnis lediglich eine Kombination der Rahmen 66 und 68 ist. "Position 3" besitzt die minimale Anzahl von schattierten Pixeln und ist daher der Rahmen mit der höchsten Korrelation. Basierend auf den Korrelationsergebnissen wird die Position des T-förmigen Merkmals 64 in dem Abtastwertrahmen 66 als relativ zu der Position des gleichen Merkmals in einem früher erfaßten Referenzrahmen 62 diagonal nach rechts und oben verschoben bestimmt, was impliziert, daß sich die Abtastvorrichtung während der Zeit dt nach links und unten bewegt hat.
- Obwohl andere Korrelationslösungsansätze verwendet werden können, ist ein annehmbarer Lösungsansatz eine Korrelation der "Summe der quadrierten Differenzen". Für das Ausführungsbeispiel von Fig. 8 existieren neun Korrelationskoeffizienten (Ck = C&sub0;, C&sub1;, ..., C&sub8;), die aus den neun Versätzen bei dem Element 70 gebildet werden, wobei die Korrelationskoeffizienten durch folgende Gleichung bestimmt werden:
- Ck = ΣiΣj (Sij - R(ij)+k)²
- wobei Sij den vom Navigationssensor gemessenen Wert an der Position ij des Abtastwertrahmens 66 bezeichnet, und Rij den vom Navigationssensor gemessenen Wert bei dem Rahmen 68, wie er bei dem Element 70 in der k-Richtung verschoben ist, bezeichnet, wobei k der Identifizierer der Verschiebung bei dem Element 70 ist. In Fig. 8 liefert k = 3 den Korrelationskoeffizienten mit dem geringsten Wert.
- Die Korrelationen werden verwendet, um die Orte identischer Merkmale in aufeinanderfolgenden Rahmen zu finden, um die Verschiebungen der Merkmale von Rahmen zu Rahmen zu bestimmen. Die Summierung oder Integration dieser Verschiebungen und das Korrigieren von Skalierungsfaktoren, die durch den Entwurf der relevanten Optiken eingebracht werden, bestimmen die Verschiebungen des Bildsensors, während das Abtastverfahren fortgesetzt wird.
- Wie vorher erwähnt wurde, werden die Rahmen-Zu-Rahmen-Korrelationen als "Mikroschritte" bezeichnet, da Rahmenraten gewählt sind, um ausreichend hoch zu sein, um sicherzustellen, daß die Verschiebungen die Abmessung eines einzelnen Pixels nicht überschreiten. Eine Überabtastung kann eine Unter- Pixel-Verschiebungsgenauigkeit liefern. Bezugnehmend auf Fig. 7 wird eine Bestimmung 74, ob ein Mikroschritt zu unternehmen ist, nach jeder Berechnung 64 der Korrelationen getroffen. Wenn ein Mikroschritt erforderlich ist, wird der Referenzrahmen bei 76 verschoben. In diesem Schritt wird der Abtastwertrahmen 66 von Fig. 8 der Referenzrahmen und ein neuer Abtastwertrahmen wird erfaßt. Die Korrelationsberechnung wird dann wiederholt.
- Während das Verfahren einen hohen Grad einer Korrelationsübereinstimmung liefert, werden sich sämtliche Fehler, die nicht erscheinen, mit jeder nachfolgenden Verschiebung 76 eines Abtastwertrahmens 66 zu der Referenzrahmenbestimmung akkumulieren. Um eine Beschränkung auf der Wachstumsrate dieses "Zufallsgang"-Fehlers zu plazieren, wird ein Abtastwertrahmen in einem getrennten Pufferspeicher gespeichert. Dieser getrennt gespeicherte Abtastwertrahmen wird für eine nachfolgende Reihe von Korrelationsberechnungen ein neuer Referenzrahmen. Die letztgenannte Korrelation wird als ein "Makroschritt" bezeichnet.
- Durch die Verwendung von Makroschritten kann eine exaktere Bestimmung der Scannerverschiebung über eine Strecke von m Bildrahmenverschiebungen, d. h. m Mikroschritten, erhalten werden. Der Fehler in einem Makroschritt ist ein Ergebnis einer einzelnen Korrelationsberechnung, wohingegen der äquivalente Fehler von m Mikroschritten m1/2-mal der Fehler in einem einzelnen Mikroschritt ist. Obwohl sich der Durchschnitt der Fehler in m Mikroschritten Null nähert, wenn m zunimmt, wächst die Standardabweichung in dem Durchschnitt von Fehlern als m². Folglich ist es vorteilhaft, die Standardabweichung des akkumulierten Fehlers durch die Verwendung von Makroschritten, deren m so groß wie durchführbar ist, zu reduzieren, solange die zwei Rahmen, die einen Mikroschritt definieren, nicht so weit voneinander beabstandet sind, daß dieselben keine signifikante Region eines gemeinsamen Bildinhalts aufweisen.
- Die Abtastperiode dt muß nicht konstant sein. Die Abtastperiode kann als eine Funktion vorheriger Messungen bestimmt werden. Ein Verfahren, das eine variable Abtastperiode dt verwendet, besteht darin, die Genauigkeit der Verschiebungsberechnung zu verbessern, indem die Relativverschiebung zwischen aufeinanderfolgenden Referenzrahmen in bestimmten Grenzen gehalten wird. Beispielsweise kann die obere Grenze eine Ein-Pixel-Verschiebung sein, während die untere Grenze durch numerische Abrundungsbetrachtungen bei der Verarbeitung der Navigationsdaten bestimmt ist.
- Bezugnehmend auf Fig. 9 kann das Bildsignal, das an dem Bilderzeugungssensor 22 erzeugt wird, dann basierend auf den Navigationsdaten "Positions-markiert" werden. Bei einem Ausführungsbeispiel werden Pixelwerte von den zwei Navigationssensoren 24 und 26 durch einen Navigationsprozessor 80 empfangen, um die Operationen der Fig. 7 und 8 durchzuführen. Basierend auf den berechneten Korrelationen werden Koordinaten für die momentane Position des ersten Navigationssensors 24 (X&sub1;, Y&sub1;) und für die monentane Position des zweiten Navigationssensors 26 (X&sub2;, Y&sub2;) bestimmt. Jeder Navigator liefert individuell nur die lokale Translationskomponente seiner Position. Die Daten von beiden Navigatoren müssen integriert werden, um eine absolute Positionsabschätzung zu erhalten, die eine Rotation des Abtastkopfs berücksichtigt. Es ist ferner geeignet, die Positionsabschätzungen in Äquivalente zu übersetzen, die den physikalischen Endpunkten des Bildsensors entsprechen, und nicht den einzelnen Navigationssensoren. Dies geschieht unter Verwendung von Kalibrierungsdaten, die sich auf die physikalischen Orte der Navigations- und Bildsensoren beziehen. Der Navigationsprozessor 80 empfängt ferner N Pixelwerte des Bildsensors 22 über einen Pixelverstärker 82 und einen Analog/Digital-Wandler 84. Obwohl Fig. 9 nur einen einzelnen Abgriff von dem Bildsensor 22 und einen einzelnen A/D-Wandler 84 zeigt, liegen mehrere Abgriffe, jeder mit einem A/D-Wandler, in dem Schutzbereich der Erfindung. Die momentanen Positionskoordinaten werden am Ende einer Linie von Daten, die der Anzahl von Pixeln in dem Bilderzeugungssensor entspricht, "markiert". Das Ausgangssignal 86 des Navigationsprozessors 80 ist daher ein Positionsmarkierter Datenstrom. In Fig. 10a ist ein Inkrement 88 des Datenstroms als Positionskoordinatenzellen 90, 92, 94 und 96 an gegenüberliegenden Enden von N Pixelzellen aufweisend gezeigt, obwohl diese Anordnung nicht wesentlich ist.
- Der Positions-markierte Datenstrom am Ausgang 86 des Navigationsprozessors 80 wird gepuffert, wie in Fig. 10b gezeigt ist. Ein Puffer B hält eine Mehrzahl von Inkrementen 88 von Fig. 10a. Der Puffer B kann verwendet werden, um eine gesamte Abtastung aufzunehmen, wobei in diesem Fall eine Datenkomprimierung verwendet werden kann. Diese Daten werden dann in geradlinige Koordinaten abgebildet, um ein endgültiges, berichtigtes, rekonstruiertes Bild zu erzeugen, wie nun beschrieben wird.
- Fig. 11 zeigt den Geradliniges-Bild-Puffer 100, H Pixel in der Höhe mal W Pixel in der Breite, auf den der Strom von Inkrementen 88 abgebildet wird, um das endgültige geradlinige Bild zu erzeugen. Ein einfaches zweidimensionales Array eines geeigneten Datentyps (hier eine 8-Bit-Grauskala; könnte jedoch in gleicher Weise farbig 24 Bit oder binär 1 Bit sein) wird als eine Darstellung für das geradlinige Bild ausreichen. Die X- und Y-Koordinaten der Positionskennungen, die jedem Inkrement zugeordnet sind, entsprechen der horizontalen und vertikalen Abmessung (Spalten- und Zeilen-Indizes) des geradlinigen Bildraums. Ferner sind die Orte der Positionskennungen (die in der Teilansicht für einen kleinen Abschnitt rechts vergrößert gezeigt sind) für jeden Endpunkt des linearen Bildsensors gezeigt, die einem Strom von Inkrementen zugeordnet sind. Unter diesen ist ein Paar von Inkrementen (Inkrement #1 und Inkrement #2) hervorgehoben, in dem die Positionskennungen derselben mit geraden Linien verbunden sind. Diese sind als sich beinahe in der Überlappungsregion schneidend ausgewählt, wo die Abtastung auf sich selbst zurückkehrt.
- Der Bilderzeugungssensor 22 wird getaktet, während sich die Abtastvorrichtung über ein Original bewegt. Die Taktgebung stellt sicher, daß das sich am schnellsten bewegende Element des Sensors zumindest einmal pro Pixelverschiebung abtastet.
- Die nächste Operation besteht darin, die Positionsmarkierten Bildinkremente in einem Band in den Geradliniges-Bild- Puffer 100 abzubilden. Bei einem Ausführungsbeispiel werden die Endpunkte (Pixel&sub1; und PixelN) der Inkremente durch eine Linie verbunden. Da der Abstand zwischen jedem Pixel des Bilderzeugungssensors 22 festgelegt ist, kann der physikalische Ort der Pixel relativ zu der Linie berechnet werden. Ein Lösungsansatz zum Bestimmen der physikalischen Orte jedes Pixels ist eine Modifizierung der Bresenham Raster Line Technique. Die Modifikation besteht darin, daß die Linienschleife bei der gleichen Anzahl festgelegt sein wird, da das Array von Pixeln in dem Bilderzeugungssensor festgelegt ist. Das heißt, daß der übliche Bresenham-Algorithmus ein solcher ist, bei dem die Anzahl von Iterationen in der Linienschleife größer als delta_x und delta_y ist, d. h. max (delta_x, delta_y), wobei jedoch für den modifizierten Algorithmus die Anzahl (N) von Pixeln entlang dem Array verwendet wird, wobei max(delta_x, delta_y) kundenspezifisch verwendet wird, so daß die Schleife N-mal abläuft. Das folgende Programmelement beschreibt diesen Algorithmus:
- /*********************************************************** Lade Pixelwerte mit set pixel() unter Verwendung von Standortpaaren (xa,ya) und (xb,yb) der Endpunkte eines N-Element-Arrays von Pixelwerten unter Verwendung eines modifizierten Bresenham-Linienzug-Algorithmusses
- Folglich besteht bei zwei gegebenen Punkten auf einem Raster (xa, ya) und (xb, yb), die die Endpunkte eines Bilderzeugungsinkrements von N Pixeln sind, der Zweck darin, aufeinanderfolgend die Punkte (x, y) auf dem Raster zu finden, wo jedes Pixel gelesen werden soll. Diese Punkte bilden die beste Näherung einer geraden Linie, die die Endpunkte bei a und b verbindet. Nimm die Unterschiede in x und y. Von dem Vorzeichen der Abstände zwischen a und b bestimme, ob x und y inkrementiert oder dekrementiert werden, während die Linie überquert wird. Beginne bei x = xa, y = ya, wobei zwei Fehlerregister x_err und y_err auf Null eingestellt sind, und beginne die Schleife. Als nächstes lies den Wert bei (x, y) und schreibe denselben unter Verwendung von set_pixel() in den Geradliniges-Bild-Puffer. Unter der Annahme eines linearen Bildsensors mit der Hälfte der Auflösung der Navigation verwende i/2, x/2, y/2 für die Pixelanzahl in dem Sensor und die Position in dem Geradliniges-Bild-Puffer. Addiere delta_x und delta_y zu den jeweiligen Fehlerregistern, dann teste beide Fehlerregister, um zu sehen, ob dieselben N überschreiten. Wenn dies der Fall ist, subtrahiere N von denselben und ändere x und/oder y um das Inkrement. Wenn ein Fehlerregister N nicht überschreitet, verwende fortgesetzt den momentanen Wert von x oder y. Dieser Prozeß setzt sich fort, bis die Schleife N mal abgelaufen ist.
- Wie vorher bezugnehmend auf Fig. 6 erwähnt wurde, wird in dem Fall einer wesentlichen Krümmung des Wegs der Abtastvorrichtung 10 während der Bildaufnahme ein Ende des Bilderzeugungsarrays schneller translatiert als das andere Ende, was bewirkt, daß Pixel an dem langsameren Ende überabgetastet werden, d. h. mehr als einmal geschrieben werden. Diese Situation kann gehandhabt werden, indem entweder das jüngste Lesen aufgezeichnet wird (für Grauskalen), oder indem in einem logischen ODER-Modus (für binäre Bilder) an einem spezifischen Pixelstandort in dem Bildraum aufgezeichnet wird.
- Der Geradliniges-Bild-Puffer 100 ist groß genug, um eine einzelne Seite einer Letter-Größe oder einer A4-Größe bei der Auflösung des linearen Sensors (typischerweise entweder 200 oder 300 dpi) aufzunehmen. Es wird angenommen, daß die Position und die Ausrichtung des Abtastungsursprungs von vornherein bekannt sind. Inkremente, die entweder teilweise oder vollständig außerhalb des Bilds abbilden, können um die horizontalen oder vertikalen Grenzen gewickelt werden (unter Verwendung einer Modulo-Arithmetik bezüglich W und H für X- bzw. Y-Komponenten), um an der gegenüberliegenden Seite des geradlinigen Puffers fortzusetzen. Nach dem Abschluß der Abtastung kann der Geradliniges-Bild-Pufferspeicher 100 sowohl horizontal als auch vertikal verschoben werden, um die abgetastete Region zu zentrieren. Unter der Voraussetzung, daß die abgetastete Region weder die Gesamt-Höhe noch die -Breite des geradlinigen Puffers 100 überschreitet, wird das endgültige Bild unabhängig von der anfänglichen Startposition gut erzeugt. Um eine ordnungsgemäße Ausrichtung zu erhalten, muß entweder die Abtastung mit der angenommenen Orientierung (beispielsweise immer parallel zu der Seite der Seite) begonnen werden, oder die Orientierung muß aus dem Inhalt der Abtastung wiedergewonnen und verwendet werden, um das endgültige Bild neu auszurichten. Verfahren zum automatischen Bestimmen der vorherrschenden Orientierung von Text auf einer Seite, die als eine Basis für die letztgenannte Vorgehensweise verwendet werden können, sind in der Literatur bekannt, beispielsweise "The Skew Angle of Printed Documents" von H. S. Baird. Proc 4th SPSE Conference Symposium on Hybrid Image Systems, Rochester, New York 1987.
- Der nächste Schritt besteht darin, aufeinanderfolgende Bildbänder mit ihren Überlappungsregionen gemäß der vorliegenden Erfindung zu vernähen. Das Ziel besteht darin, mehrere Bänder in dem Puffer 100, der ein endgültiges berichtigtes rekonstruiertes Bild enthält, zu kombinieren. Dies sollte auf eine solche Weise erfolgen, um den größten Teil des akkumulierten Navigationsfehlers zu identifizieren und zu korrigieren und jeglichen restlichen Fehler zu maskieren.
- Bei den Ausführungsbeispielen der zu beschreibenden Erfin dung liefert der Strom von Navigationsdaten die Ausrichtungsinformationen, die für ein Vernähen benötigt werden. Da das Navigationssignal tendenziell Fehler akkumuliert, wird es kontinuierlich durch die Rückkopplung eines Korrektursignals, das aus einer Analyse der Merkmalversätze abgeleitet wird, geändert.
- Jedoch beschreiben wir zuerst ein Verfahren zum Vernähen von Bildbändern, das davon ausgeht, daß keine Navigationsfehler existieren.
- Ein bestimmter Überlappungsbereich ist notwendig, um zwei Bildbänder zu vernähen. Bänder sind durch eine Umkehr des Wegs der Abtastvorrichtung zurück über eine Region des Originals, von der ein Teil gerade abgetastet wurde, begrenzt. Ein Band umfaßt die Bilddaten, die während einer Abtastbewegung über ein Original, das abgetastet wird, aufgenommen wurden. In der folgenden Beschreibung wird der Ausdruck "Band" auch manchmal verwendet, um sich auf den Teil des rekonstruierten Bilds zu beziehen, der aus dem Abbilden derartiger Daten erzeugt wird.
- Die Abtastung, die durch die Orte der Endpunkte der Inkremente in Fig. 11 dargestellt ist, erzeugt zwei überlappende Bänder. In Fig. 12 wird der Abschnitt, der in den Geradliniges-Bild-Puffer 100 abgebildet wird, der Band #1 aufweist, partiell bei der Rückkehr durch den Abschnitt der Abtastung, der Band #2 entspricht, wiederum abgebildet, wobei der Überlappungsbereich 102 ausgefüllt gezeigt ist. Zu einem Zeitpunkt T wurde bis hier ein Teilband abgetastet. Ein zufriedenstellendes Vernähen kann in diesem Fall erreicht werden, indem einfach fortgefahren wird, Band #2 über Band #1 in den Geradliniges-Bild-Puffer 100 abzubilden. Zurückkehrend zu Fig. 11 kann Inkrement #2 entlang seiner gesamten Länge exakt auf die gleiche Weise wie für Inkrement #1 abgebildet werden und in gleicher Weise für jedes Pixel in der Überlappungsregion 102 in Fig. 12. Die endgültige Aufbereitung in dem Geradliniges-Bild-Puffer 100, die aus Band #1 resultier te, wird einfach durch die ersetzt, die aus Band #2 resultiert.
- In gleicher Weise wird sich ein Schema, bei dem Pixel in dem Überlappungsbereich 102, die als Teil von Band #1 abgebildet wurden, nicht durch diejenigen, die durch Band #2 abgebildet werden, ersetzt werden, ebenfalls als zufriedenstellend erweisen, vorausgesetzt, daß alle Pixel, die durch Band #2 abgebildet werden, die nicht Teil der Überlappung sind (d. h. nicht ebenfalls durch Band #1 abgebildet werden), ordnungsgemäß abgebildet werden. Das heißt, daß die Region, die durch Band #1 abgebildet wird, verwendet wird, um die Region, die durch Band #2 abgebildet wird, abzuschneiden. Tatsächlich können die Pixel in der Überlappungsregion in gleicher Weise entweder von Band #1 oder Band #2 oder einer Kombination derselben erhalten werden, vorausgesetzt, daß Band #1 und Band #2 korrekt alle Pixel, die außerhalb der Überlappungsregion liegen, abbilden.
- Aufgrund der Akkumulation von Fehlern zwischen den Positionskennungen von Band #1 und Band #2 ergibt in der Praxis dieser einfache Lösungsansatz, der keine Navigationsfehler annimmt, keine sehr guten Ergebnisse.
- Ein erstes Ausführungsbeispiel der vorliegenden Erfindung wird nun bezugnehmend auf die Fig. 13 und 14 beschrieben.
- Fig. 13 zeigt die involvierten Verarbeitungsstufen und Datenpuffer, während sich Fig. 14 auf den Prozeß bezieht, der bezüglich Band #1 und Band #2 verwendet wird. Die Bildinkrementdaten in dem Inkrementpuffer B werden in den Geradliniges-Bild-Puffer 100 abgebildet, wie vorher beschrieben wurde. Fig. 14 zeigt, daß ein Teil des Bilds, das in Band #1 aufgenommen wird, durch den Rückkehrdurchlauf, Band #2, in den Geradliniges-Bild-Puffer 100 neu abgebildet wird. Eine Navigationskorrektur wird berechnet, indem Merkmale in dem Überlappungsbereich zwischen Band #1 und Band #2 korreliert werden.
- In Fig. 14 ist dieser Überlappungsbereich, der in zwei Teile 104 und 105 unterteilt ist, hervorgehoben. Wie in Fig. 14 gezeigt ist, werden während der Sammlung von Band #1 vierseitige Bildsegmente (die von nun an als "Ausrichtungsfelder" bezeichnet werden), von denen drei 106, 108 und 110 gezeigt sind, periodisch entlang der unteren Kante des Bands in dem Überlappungsbereich 105 markiert. Bei einem späteren Durchlauf (Band #2) wird der Überlappungsbereich 104 des Bands #2 über dem Bereich 105, der die Ausrichtungsfelder 106, 108 und 110 des Bands #1 enthält, abgeschnitten, d. h. entfernt, während Band #2 erfaßt wird, indem nicht erlaubt wird, daß diese Pixel von Band #1 überschrieben werden. Das Ausrichtungsfeld 106 des Bands #1 ist über dem Bereich von Band #2 angeordnet, der verbleibt, nachdem der Überlappungsbereich 104 abgeschnitten wurde. Wenn die Navigationsdaten perfekt sind, wird kein Versatz zwischen dem Ort des Ausrichtungsfelds 106 und dem Ort des neu abgetasteten Bilds dieses Felds in Band #2 existieren. Realistischer wird sich ein bestimmter Navigationsfehler akkumuliert haben, seit die letzte Ausrichtung durchgeführt wurde. Der Versatz zwischen dem Erscheinungsbild dieses Felds in den zwei Bändern erzeugt einen Korrekturfaktor, der dann verwendet wird, um zukünftige Navigations-Positionskennungen, die den Bilddaten zugeordnet sind, zu aktualisieren, um den gesamten akkumulierten Fehler zu minimieren. Auf diese Weise wird verhindert, daß der gesamte akkumulierte Fehler der Navigationsdaten so stark anwächst, daß derselbe eine erkennbare Verzerrung in der Region, in der die Bänder überlappen, einführt.
- Die Verarbeitungsstufen zum Vernähen von Band #1 mit Band #2 werden nun bezugnehmend auf die Fig. 13 und 14 beschrieben. Fig. 13 zeigt den Bildinkrementpuffer B und den Geradliniges-Bild-Puffer 100. Fig. 13 zeigt ferner einen Merkmalstandortpuffer 113 und einen Merkmalpuffer 114. Die Verarbeitungsstufen sind wie folgt:
- 1. Wie oben erwähnt wurde, werden während der Sammlung von Band #1 Ausrichtungsfelder (106, 108 und 110) periodisch entlang der unteren Kante des Bands in dem Überlappungsbereich 105 markiert. Ein gesamtes Ausrichtungsfeld könnte für die oben beschriebene Korrelation verwendet werden, wobei jedoch bei dem bevorzugten Ausführungsbeispiel ein kleiner Bereich eines Hochfrequenzkontrasts (der im folgenden als ein "Ausrichtungsmerkmal" bezeichnet wird), der aus einem rechteckigen Feld (beispielsweise 15 · 15 Pixel) eines Grauskalenbilds besteht, innerhalb eines Registrierungsfelds, das Teil des Bilds, das in dem Geradliniges-Bild-Puffer 100 als ein Ergebnis der Aufnahme von Band #1 rekonstruiert wird, bildet, lokalisiert wird.
- 2. Die Positionskennungen der Ausrichtungsmerkmale (die die Position jedes Ausrichtungsmerkmals in dem Geradliniges-Bild-Puffer 100 definieren) werden vor dem Beginn der Abbildung von Band #2 in den Geradliniges-Bild-Puffer 100 in dem Merkmalstandortpuffer 113 gespeichert.
- 3. Während Band #2 abgebildet wird, werden Ausrichtungsmerkmalstandorte identifiziert, bevor dieselben in dem Geradliniges-Bild-Puffer 100 durch Band #2 überschrieben werden. Dies wird erreicht, indem ein rechteckiges Aufnahmefenster 107, das in Fig. 14 mit einer Länge gleich einem Bildinkrement und einer Breite einiger Pixel gezeigt ist, definiert wird, was dem Bildinkrement von Band #2, das momentan einer Abbildung in den Geradliniges-Bild-Puffer 100 unterworfen wird, vorausgeht. Wenn ein Ausrichtungsmerkmalstandort, der in dem Merkmalstandortpuffer 113 gespeichert ist, in das Aufnahmefenster 107 fällt, wird der Ausrichtungsmerkmalstandort ausgewählt (nur ein Ausrichtungsmerkmalstandort kann zu jeder beliebigen Zeit ausgewählt sein).
- 4. Das Ergebnis des Auswählens eines Ausrichtungsmerkmalstandorts besteht darin, das relevante Ausrichtungsmerkmal (d. h. das Ausrichtungsmerkmal, das an diesem Ort in dem Geradliniges-Bild-Puffer 100 angeordnet ist) in den Merkmalpuffer 114 zu kopieren. Der Merkmalpuffer 114 speichert eine Kopie des Ausrichtungsmerkmals temporär zusammen mit der Po sitionskennung desselben.
- 5. Nachdem Band #2 in den Geradliniges-Bild-Puffer 100 abgebildet wurde, um den Ort (und einen kleinen benachbarten Bereich) des Ausrichtungsmerkmals, von dem eine Kopie in dem Merkmalpuffer 114 gespeichert ist, zu überschreiben, werden der Inhalt des Merkmalpuffers 114 und der neu geschriebene Teil des Geradliniges-Bild-Puffers 100 verglichen, um ein Navigationskorrektursignal zu erzeugen, d. h. die Translation, die erforderlich ist, um die zwei Bildfragmente in eine enge Entsprechung zu bringen.
- 6. Dieses Korrektursignal wird zu dem Navigationsprozessor 80, der in Fig. 9 gezeigt ist, zurückgeführt. Um erkennbare Verzerrungen in dem endgültigen repräsentativen Bild zu verhindern, wird die Fehlerabschätzung allmählich angewendet, d. h. die "Positionskennungen" werden in kleinen festgelegten Größenschritten modifiziert, während jede neue Zeile von Linearsensordaten in den Speicher geladen wird, bis der gesamte Fehler berücksichtigt wurde.
- Während andere Korrelationslösungsansätze verwendet werden könnten, ist ein annehmbarer Lösungsansatz für die Berechnung des Versatzes zwischen zwei Bildfragmenten eine "Summe-Der-Quadrierten-Differenz"-Korrelation. Ein kleiner Suchbereich wird um den ursprünglichen Ort des Merkmals definiert, wobei Korrelationskoeffizienten durch folgende Gleichung bestimmt werden:
- Gk,l = ΣiΣj (Tij - Ii+k,j+1)²
- wobei Tij die Grauskalenwerte des Merkmals von Band #1 bezeichnet, und Ii+k,j+1 die Grauskalenwerte des neu erfaßten Merkmals von Band #2 bezeichnet. Die Indizes i und j spezifizieren Pixelstandorte in den Merkmalen, während k und 1 die Größe des vorgeschlagenen Translationsversatzes spezifizieren (beschränkt, um in dem Suchraum zu bleiben). Das kleinste Element in dem resultierenden Korrelationsarray be zeichnet den Versatz zwischen den zwei Merkmalen.
- Das Ausrichtungsmerkmal in dem Ausrichtungsfeld wird ausgewählt, um die Bildvarianz zu maximieren, da dies die Genauigkeit des Korrelationsverfahrens verbessert. Bei einem möglichen Ausführungsbeispiel wird nur ein Teilsatz der Orte in der Region berücksichtigt. Diese Orte 116, 118, 120, 122 und 124 sind in Fig. 15 als entlang der Hauptachsen 126 und 128 des Ausrichtungsfelds liegend gezeigt (Linien, die gegenüberliegende Mittelpunkte von Linien verbinden, die die Region definieren) und werden an dem Schnittpunkt und auf halbem Weg zwischen dem Schnittpunkt und jedem Endpunkt der Achse abgetastet. Für jeden Ort 116, 118, 120, 122 und 124 wird die Varianz VARk,l unter Verwendung folgender Gleichungen berechnet:
- SUMk,l = ΣiΣj Ik+i,1+j
- SUM2k,l = ΣiΣj (Ik+i,1+j)²
- VARk,l = SUM2k,l/N - (SUMk,l)²/N²
- Wenn die Navigationsfehler relativ groß sind, kann das oben beschriebene Verfahren noch ungewollte Artefakte in das rekonstruierte Bild einbringen, speziell am Anfang von Bändern. Dies ist der Fall, da der Fehler zwischen den berechneten Positionen an der Oberseite und der Unterseite der Bildinkremente entlang der Länge eines Bands akkumuliert und am Anfang eines neuen Bands auf einem Maximum ist.
- Ein weiteres bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung wird nun bezugnehmend auf die Fig. 16 und 17 beschrieben.
- Fig. 16 zeigt den Bildinkrementpuffer B und den Geradliniges-Bild-Puffer 100. Wie bei dem Ausführungsbeispiel, das bezugnehmend auf die Fig. 13, 14 und 15 beschrieben wurde, ist ein Merkmalstandortpuffer 131 verwendet, um Positions kennungen für Ausrichtungsmerkmale, die in Band #1 identifiziert sind, zu speichern. Es existiert ferner ein spezieller Bildpuffer 132 zum Speichern von Bildfragmenten aus dem Puffer B, wie beschrieben wird.
- Fig. 17 zeigt wiederum, daß ein Teil des Bilds, das in Band #1 aufgenommen ist, durch den Rückkehrdurchlauf, Band #2, erneut abgebildet wird. Ausrichtungsfelder sind bei 130 gezeigt. Jedoch existieren bei diesem Ausführungsbeispiel zwei Verarbeitungsphasen für das Vernähen von Band #2 mit Band #1. Die Verarbeitungsstufen bei der ersten Verarbeitungsphase lauten wie folgt:
- 1. Wie bei dem Ausführungsbeispiel, das oben beschrieben ist, werden während der Sammlung von Band #1 Ausrichtungsfelder 130 periodisch entlang der unteren Kante von Band #1 in dem Überlappungsbereich zwischen benachbarten Bändern markiert, wobei ein kleiner Bereich eines Hochfrequenzkontrasts (ein "Ausrichtungsmerkmal") in einem Ausrichtungsfeld, das Teil des Bilds bildet, das in dem Geradliniges- Bild-Puffer 100 als ein Ergebnis der Aufnahme von Band #1 rekonstruiert wird, lokalisiert wird.
- 2. Die Positionskennungen der Ausrichtungsmerkmale (die die Position jedes Ausrichtungsmerkmals in dem Geradliniges-Bild-Puffer 100 definieren) werden vor dem Beginn der Abbildung von Band #2 in dem Merkmalstandortpuffer 131 gespeichert.
- 3. Während Band #2 abgebildet wird, werden Ausrichtungsmerkmalstandorte identifiziert, bevor dieselben (später in der Phase 2) in dem Geradliniges-Bild-Puffer 100 durch Band #2 überschrieben werden. Dies wird erreicht, indem ein Aufnahmefenster 133 definiert wird, das dem Bildinkrement 138 von Band #2 vorausgeht, das um einen bestimmten Weg vor dem Bildinkrement 133 ist, das momentan einer Abbildung in den Geradliniges-Bild-Puffer 100 unterzogen wird. Wenn ein Ausrichtungsmerkmalstandort, der in dem Merkmalstandortpuffer 131 gespeichert ist, in das Aufnahmefenster 133 fällt, wird der Ausrichtungsmerkmalstandort ausgewählt (nur ein Ausrichtungsmerkmalstandort kann zu jeder Zeit ausgewählt sein).
- 4. Der ausgewählte Ausrichtungsmerkmalstandort wird verwendet, um den vorhergesagten Standort des Ausrichtungsmerkmals zu definieren, wenn Band #2 in den Geradliniges-Bild- Puffer 100 abgebildet wird. Navigationsfehler, die bezüglich vorheriger Ausrichtungsmerkmale gefunden wurden, werden berücksichtigt, indem die momentane Fehlerabschätzung (die in einem Fehlerpuffer 134 gespeichert ist) verwendet wird, um den Standort des momentanen Ausrichtungsmerkmals vorherzusagen. Daher muß der Suchbereich, der verwendet wird, um das momentane Ausrichtungsmerkmal zu lokalisieren, nur groß genug sein, um das mögliche Fehlerinkrement zu berücksichtigen.
- 5. Der spezielle Bildpuffer 132 wird verwendet, um temporär direkt von dem Puffer B eine geradlinige Bildabbildung der Bilddaten von Band #2, die um den ausgewählten Ausrichtungsmerkmalstandort angeordnet sind, zu speichern, ebenso wie den Ausrichtungsmerkmalstandort zu speichern. In anderen Worten heißt das, daß zu dem Zeitpunkt T das Bildinkrement 138, das in Fig. 17 gezeigt ist, in den Puffer 132 abgebildet wird. Die Größe des speziellen Bildpuffers 132 muß ausreichend sein, um das Ausrichtungsmerkmal plus den erforderlichen Suchbereich zu speichern, wobei die Größe desselben gemäß bekannten Fehlerabschätzungsalgorithmen berechnet wird.
- 6. Das Bildfragment von Band #2, das in dem speziellen Bild-Puffer 132 gespeichert ist, wird dann mit dem entsprechenden Bildfragment, das an dem Ausrichtungsmerkmalstandort in dem Geradliniges-Bild-Puffer 100 gespeichert ist, verglichen. Auf diese Weise wird ein Versatz erhalten, der, wenn er mit der vorherigen Fehlerabschätzung akkumuliert wird, eine aktualisierte Abschätzung des Navigationsfehlers ergibt. Diese aktualisierte Abschätzung wird zusammen mit ei ner Positionskennung in dem Fehlerpuffer 134 gespeichert.
- Die Positionskennung der Fehlerabschätzung ist einfach der Standort des Zentrums des momentanen Ausrichtungsmerkmals bezüglich des Geradliniges-Bild-Puffers 100. Dieselbe wird wiederum verwendet, um das Inkrement in dem Inkrementpuffer B zu bestimmen, auf das sich die Fehlerabschätzung bezieht (d. h. das erste Inkrement, das Band #2 zugeordnet ist, das auf den Bildstandort abbildet). Dies zeigt das Inkrement an, um das die gemessene Abschätzung vollständig angepaßt werden sollte.
- Bei einer zweiten Verarbeitungsphase werden die Bilddaten von Band #2 in den Geradliniges-Bild-Puffer 100 geschrieben, wobei die Fehlerabschätzungen an den aufgezeichneten Positionen berücksichtigt werden, um diese Fehler aus dem endgültigen rekonstruierten Bild zu beseitigen. Dies geschieht, indem die Positionsdaten, die den Endpunkten der einzelnen Bildinkremente der Sensordaten zugeordnet sind, modifiziert werden.
- Dieser bevorzugte Lösungsansatz ergibt ein verbessertes Vernähen, da Fehler der Positionen des Navigationssensors, der sich durch die Überlappungsregion bewegt, zwischen Bändern identifiziert und korrigiert werden, bevor das endgültige Bild rekonstruiert wird. Zusätzlich kann ein Fehler zwischen den berechneten Positionen der Oberseite und der Unterseite der Bildinkremente, der während einer Sammlung des vorherigen Bands akkumuliert wurde, gleichzeitig am Anfang des nächsten Bands absorbiert werden, ohne ungewollte Artefakte einzuführen. Dies ist in Fig. 17 durch die Diskontinuität zwischen der rechten Kante des Umkehrpunkts zwischen Band #1 und Band #2 angezeigt, die aus der ersten und der zweiten Verarbeitungsphase, die oben beschrieben sind, abgeleitet ist.
- Die vorliegende Erfindung kann auf unterschiedliche Arten bezüglich der Beschaffenheit der erforderlichen Abtastung implementiert werden. Eine Alternative besteht darin, zu fordern, daß eine Abtastung von der Oberseite einer Seite zu der Unterseite durchgeführt wird, wobei in diesem Fall ein Vernähen immer nur zwischen der Unterseite eines Bands und der Oberseite des nächsten durchgeführt werden muß. Ein weiterer Lösungsansatz besteht darin, zu ermöglichen, daß ein Abtasten in einem beliebigen Teil der Seite beginnt, jedoch zu fordern, daß die anfängliche Abtastrichtung beibehalten wird. In diesem Fall muß die Fähigkeit existieren, Ausrichtungsmerkmale auf beiden Kanten von Bändern zu identifizieren, wobei jedoch sobald die Abtastrichtung festgelegt ist, Fehlerabschätzungen nur für eine Seite des momentanen Bands beibehalten werden müssen. Bei einem weiteren Lösungsansatz kann ein Abtasten in jeder Richtung erlaubt sein, wobei Änderungen der Abtastrichtung ebenfalls untergebracht werden können, beispielsweise eine spiralförmige Abtastung. Bei diesem dritten Lösungsansatz muß nicht nur die Fähigkeit bestehen, Ausrichtungsmerkmale auf beiden Kanten von Bändern zu identifizieren, sondern müssen Fehlerabschätzungen sowohl für die Oberseite als auch die Unterseite jedes Bands beibehalten werden, falls die Abtastrichtung sich ändern sollte. Der letztgenannte Lösungsansatz ergibt die größte Flexibilität für den Benutzer, weist jedoch einen höheren Berechnungsgesamtaufwand auf.
- Bei dem bevorzugten Ausführungsbeispiel befindet sich die Verarbeitungselektronik für die Bildrekonstruktion, das Vernähen und die Bildverwaltung in dem Gehäuse, das die Abtastvorrichtung 10 von Fig. 1 definiert. Folglich kann das abgetastete Bild unmittelbar auf der Bildanzeige 16 präsentiert werden. Jedoch kann die Abtastvorrichtung einen Speicher enthalten, um die Positions-markierten Bilddaten zu speichern, jedoch ohne Verarbeitungs- und Dateiverwaltungs-Elektronik und -Firmware.
- Wie bezugnehmend auf Fig. 3 angegeben wurde, sind die Navigations- und Bilderzeugungssensoren 22, 24 und 26 vorzugsweise auf einem Schwenkbauglied 20 befestigt. Bei einem Aus führungsbeispiel ist das Schwenkbauglied durch zumindest ein Elastomer mit dem Rest des Gehäuses verbunden, wobei ein Ende des Elastomers mit dem stationären Abschnitt des Gehäuses verbunden ist, während das andere Ende mit dem Schwenkbauglied verbunden ist. Das Elastomer wirkt als ein Gelenk. Folglich ist es möglich, daß der Schwenkabschnitt "schwebt", ohne Reibungselemente zu verwenden. Leistungs-, Steuer- und Daten-Signale können über flexible Kabel zu den Sensoren geleitet werden, die abgeschirmt sind, um eine elektromagnetische Störung zu minimieren. Andere Verfahren zum schwenkbaren Befestigen des Schwenkbauglieds können verwendet werden. Wenn das Schwenkbauglied beseitigt ist und die Sensoren an einer festen Position auf dem Gehäuse angeordnet sind, muß darauf geachtet werden, daß die Abtastvorrichtung 10 während der Bildaufnahme nicht übermäßig geneigt wird. Bei diesem Ausführungsbeispiel muß eine erhöhte Aufmerksamkeit auf den Entwurf der Beleuchtungs- und Optikelemente gelegt werden.
- Obwohl die Erfindung als eine solche, bei der ein ebenes Original abgetastet wird, beschrieben und dargestellt wurde, ist dies kein wesentliches Merkmal. Tatsächlich werden Fachleute ohne weiteres verstehen, wieviele der Techniken zur Abtastung von dreidimensionalen Bildern verwendet werden können. Jedoch ist das bevorzugte Ausführungsbeispiel ein solches, bei dem ein interessierendes Bild auf einem Medium, beispielsweise einem Blatt Papier, einem Transparent oder einer Photographie gebildet ist, wobei die Abtastvorrichtung in Berührung mit dem Medium ist.
Claims (12)
1. Ein Verfahren zum Erhalten und Rekonstruieren eines
Bilds aus abgetasteten Teilen eines Originalbilds, die
durch eine Relativbewegung zwischen einer
Abtastvorrichtung und dem Originalbild erhalten werden, so daß
benachbarte abgetastete Bildbänder überlappen, wobei
die Abtastvorrichtung eine Navigationseinrichtung zum
Bestimmen der Position der Abtastvorrichtung relativ
zu dem Originalbild aufweist, wobei das Verfahren
folgende Schritte aufweist:
Schreiben eines ersten Bands in das rekonstruierte
Bild;
Abbilden und nachfolgendes Schreiben eines zweiten
Bands fortlaufend in das rekonstruierte Bild, was die
Verwendung der Bilddaten, die von den überlappenden
Abschnitten des ersten und des zweiten Bands erhalten
werden, um aufeinanderfolgende Abschätzungen eines
Navigationsfehlers abzuleiten, und die kontinuierliche
Verwendung der Fehlerabschätzungen, um
Navigationsfehler während der fortlaufenden Rekonstruktion des Bilds
zu korrigieren, umfaßt;
dadurch gekennzeichnet, daß der Schritt des Schreibens
eines ersten Bands in das rekonstruierte Bild ferner
das Definieren von Ausrichtungsmerkmalen in dem ersten
Band in einem erwarteten Überlappungsbereich mit einem
nächsten Band, das gesammelt werden soll, umfaßt; daß
aufeinanderfolgende Abschätzungen des
Navigationsfehlers erhalten werden, indem die Positionen der
Ausrichtungsmerkmale mit der Position von Reproduktionen
derselben in dem zweiten Band unter Verwendung von
Navigationsdaten, die während der Abtastung empfangen
werden, verglichen werden, und daß jede
Fehlerabschätzung räumlich vor einem nachfolgenden Schreiben des
relevanten Teils des zweiten Bands in das
rekonstruierte Bild geliefert wird.
2. Ein Verfahren gemäß Anspruch 1, bei dem jedes
Ausrichtungsmerkmal ein Bereich eines Hochfrequenzkontrasts
in einem Band ist.
3. Ein Verfahren gemäß Anspruch 1 oder 2 mit folgenden
Schritten:
Speichern von Informationen, die sich auf die
Ausrichtungsmerkmale, die in dem ersten Band identifiziert
sind, beziehen, separat von dem rekonstruierten Bild;
Verwenden der gespeicherten Informationen, um die
Fehlerabschätzungen zu erhalten.
4. Ein Verfahren gemäß Anspruch 3 mit folgenden
Schritten:
Speichern von Informationen, die sich auf die Position
eines Ausrichtungsmerkmals in dem ersten Band
beziehen;
Verwenden der Positionsinformationen, um einen Teil
der Bilddaten aus dem zweiten Band zu lokalisieren;
Vergleichen des lokalisierten Teils der Bilddaten aus
dem nächsten Band mit dem Ausrichtungsmerkmal aus dem
ersten Band;
Verwenden des Vergleichs, um eine Fehlerabschätzung
abzuleiten;
Speichern der Fehlerabschätzung und einer
Positionskennung, die anzeigt, auf welchen Teil des zweiten
Bands sich die Fehlerabschätzung bezieht;
Anwenden der Fehlerabschätzung, wenn der relevante
Teil des zweiten Bands nachfolgend in das
rekonstruierte Bild geschrieben wird.
5. Ein Verfahren gemäß Anspruch 4, das nach dem Schritt
des Lokalisierens des Teils der Bilddaten aus dem
zweiten Band das Speichern des Teils der Bilddaten aus
dem zweiten Band getrennt von dem rekonstruierten Bild
aufweist.
6. Ein Verfahren gemäß einem beliebigen vorhergehenden
Anspruch, bei dem der Schritt des Korrigierens des
Navigationsfehlers inkremental zwischen
Ausrichtungsmerkmalen bei der Rekonstruktion des Bilds
implementiert wird.
7. Ein Verfahren gemäß einem beliebigen der Ansprüche 1
bis 6, das die Verwendung der Fehlerabschätzungen
aufweist, um Korrekturen zu der Navigationsvorrichtung
zurückzukoppeln.
8. Ein Verfahren gemäß einem beliebigen vorhergehenden
Anspruch, das das Identifizieren und Speichern von
Informationen, die sich auf Ausrichtungsmerkmale auf
zwei gegenüberliegenden Seiten des ersten Bands
beziehen, aufweist.
9. Ein Verfahren gemäß Anspruch 8, das das Berechnen von
Fehlerabschätzungen und die Verwendung derselben, um
Navigationsfehler bezüglich zweier gegenüberliegender
Seiten eines Bands zu korrigieren, wenn ein Bild
rekonstruiert wird, aufweist.
10. Ein Abtastsystem zum Abtasten eines Originalbilds in
Teilen und zum Erhalten und Rekonstruieren eines Bilds
aus den abgetasteten Teilen des Originalbilds, mit
folgenden Merkmalen:
einer Abtastvorrichtung (10) zum Abtasten eines
Originalbilds in Teilen, wobei die abgetasteten Teile durch
eine Relativbewegung zwischen der Abtastvorrichtung
und dem Originalbild, so daß benachbarte abgetastete
Bildbänder überlappen, erhalten werden, wobei die
Abtastvorrichtung eine Navigationseinrichtung (24, 26,
80) zum Bestimmen der Position der Abtastvorrichtung
relativ zu dem Originalbild aufweist;
einer Speichereinrichtung (100) zum Speichern eines
rekonstruierten Bilds; und
einer Einrichtung zum Schreiben eines Bildbands in das
rekonstruierte Bild;
wobei die Erfindung dadurch gekennzeichnet ist, daß
das Abtastsystem ferner folgende Merkmale aufweist:
eine Erkennungseinrichtung zum Definieren von
Ausrichtungsmerkmalen in einem ersten Bildband in einem
erwarteten Überlappungsbereich mit einem nächsten zu
sammelnden Band; und
eine Einrichtung zum Abbilden eines zweiten Bands
fortlaufend in das rekonstruierte Bild, die angepaßt
ist, um die Bilddaten, die von den überlappenden
Abschnitten des ersten und des zweiten Bands erhalten
werden, zu benutzen, um aufeinanderfolgende
Abschätzungen eines Navigationsfehlers durch das Vergleichen
der Positionen der Ausrichtungsmerkmale mit der
Position von Reproduktionen derselben in dem zweiten Band
unter Verwendung von Navigationsdaten, die während der
Abtastung empfangen werden, abzuleiten, und um die
Fehlerabschätzungen, die aus diesen Vergleichen
abgeleitet werden, kontinuierlich zu verwenden, um
Navigationsfehler während einer fortlaufenden Rekonstruktion
des Bilds zu korrigieren, wobei jede Fehlerabschätzung
räumlich vor einem nachfolgenden Schreiben des
relevanten Teils des zweiten Bands in das rekonstruierte
Bild geliefert wird.
11. Ein Abtastsystem gemäß Anspruch 10, bei dem die
Erkennungseinrichtung angepaßt ist, um als
Ausrichtungsmerkmale nur Bereiche eines Hochfrequenzkontrasts in
einem Band zu definieren.
12. Ein Abtastsystem gemäß Anspruch 10 oder 11, bei dem
die Speichereinrichtung eine Einrichtung (114) zum
Speichern der Ausrichtungsmerkmale getrennt von dem
rekonstruierten Bild aufweist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/396,826 US5578813A (en) | 1995-03-02 | 1995-03-02 | Freehand image scanning device which compensates for non-linear movement |
PCT/GB1996/000492 WO1996027257A2 (en) | 1995-03-02 | 1996-03-04 | Image scanning device and method |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69608262D1 DE69608262D1 (de) | 2000-06-15 |
DE69608262T2 true DE69608262T2 (de) | 2001-02-08 |
Family
ID=23568777
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69609096T Expired - Lifetime DE69609096T2 (de) | 1995-03-02 | 1996-02-07 | Bildabtastungssystem |
DE69608262T Expired - Lifetime DE69608262T2 (de) | 1995-03-02 | 1996-03-04 | System und verfahren zur bildabtastung |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69609096T Expired - Lifetime DE69609096T2 (de) | 1995-03-02 | 1996-02-07 | Bildabtastungssystem |
Country Status (9)
Country | Link |
---|---|
US (4) | US5578813A (de) |
EP (2) | EP0730366B1 (de) |
JP (2) | JP3860242B2 (de) |
KR (1) | KR100463947B1 (de) |
CN (2) | CN1120444C (de) |
AU (1) | AU719574B2 (de) |
CA (1) | CA2166904A1 (de) |
DE (2) | DE69609096T2 (de) |
WO (1) | WO1996027257A2 (de) |
Families Citing this family (486)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6631842B1 (en) * | 2000-06-07 | 2003-10-14 | Metrologic Instruments, Inc. | Method of and system for producing images of objects using planar laser illumination beams and image detection arrays |
GB2288512B (en) * | 1994-04-14 | 1998-08-26 | Matsushita Electric Ind Co Ltd | Image processing apparatus |
US5578813A (en) * | 1995-03-02 | 1996-11-26 | Allen; Ross R. | Freehand image scanning device which compensates for non-linear movement |
JPH08298568A (ja) * | 1995-04-27 | 1996-11-12 | Brother Ind Ltd | 入出力機器 |
US5786804A (en) | 1995-10-06 | 1998-07-28 | Hewlett-Packard Company | Method and system for tracking attitude |
US6950094B2 (en) | 1998-03-30 | 2005-09-27 | Agilent Technologies, Inc | Seeing eye mouse for a computer system |
US5729008A (en) * | 1996-01-25 | 1998-03-17 | Hewlett-Packard Company | Method and device for tracking relative movement by correlating signals from an array of photoelements |
US6345116B1 (en) * | 1996-05-31 | 2002-02-05 | Matsushita Electric Industrial Co., Ltd. | Image processing apparatus |
IL118914A0 (en) * | 1996-07-22 | 1996-10-31 | Zohar Argamanit Ltd | Hand-holdable optical scanner particularly useful as electronic translator |
EP0873003B1 (de) * | 1997-04-14 | 2007-03-21 | Hewlett-Packard Company, A Delaware Corporation | Verfahren und Vorrichtung zur Bildabtastung |
US6256016B1 (en) | 1997-06-05 | 2001-07-03 | Logitech, Inc. | Optical detection system, device, and method utilizing optical matching |
US6104979A (en) * | 1997-06-11 | 2000-08-15 | Starlink, Inc. | Integrated swath guidance system |
EP0884890B1 (de) * | 1997-06-12 | 2003-07-09 | Hewlett-Packard Company, A Delaware Corporation | Bildverarbeitungsverfahren und -vorrichtung |
DE69816185T2 (de) | 1997-06-12 | 2004-04-15 | Hewlett-Packard Co. (N.D.Ges.D.Staates Delaware), Palo Alto | Bildverarbeitungsverfahren und -vorrichtung |
US6002815A (en) * | 1997-07-16 | 1999-12-14 | Kinetic Sciences, Inc. | Linear sensor imaging method and apparatus |
JPH1158844A (ja) * | 1997-08-08 | 1999-03-02 | Hewlett Packard Co <Hp> | ハンディ・プリンタ・システム |
US6249591B1 (en) * | 1997-08-25 | 2001-06-19 | Hewlett-Packard Company | Method and apparatus for control of robotic grip or for activating contrast-based navigation |
US6466701B1 (en) | 1997-09-10 | 2002-10-15 | Ricoh Company, Ltd. | System and method for displaying an image indicating a positional relation between partially overlapping images |
US7028899B2 (en) * | 1999-06-07 | 2006-04-18 | Metrologic Instruments, Inc. | Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target |
US6201903B1 (en) * | 1997-09-30 | 2001-03-13 | Ricoh Company, Ltd. | Method and apparatus for pen-based faxing |
US6611629B2 (en) | 1997-11-03 | 2003-08-26 | Intel Corporation | Correcting correlation errors in a composite image |
US6233368B1 (en) * | 1998-03-18 | 2001-05-15 | Agilent Technologies, Inc. | CMOS digital optical navigation chip |
US6002124A (en) * | 1998-03-20 | 1999-12-14 | Hewlett-Packard Company | Portable image scanner with optical position sensors |
US6366317B1 (en) * | 1998-03-27 | 2002-04-02 | Intel Corporation | Motion estimation using intrapixel logic |
US6151015A (en) * | 1998-04-27 | 2000-11-21 | Agilent Technologies | Pen like computer pointing device |
US5994710A (en) * | 1998-04-30 | 1999-11-30 | Hewlett-Packard Company | Scanning mouse for a computer system |
US6033086A (en) * | 1998-04-30 | 2000-03-07 | Hewlett-Packard Company | Compact illumination system for image scanner |
US6173213B1 (en) | 1998-05-11 | 2001-01-09 | Ellison Machinery Company | Motorized inbound laser orientation and wheel recognition station |
US6064062A (en) * | 1998-06-02 | 2000-05-16 | Hewlett-Packard Company | Optical stray light baffle for image scanner |
USD421418S (en) * | 1998-07-13 | 2000-03-07 | Hewlett-Packard Company | Battery cover for hand held apparatus such as an optical scanner |
USD420344S (en) * | 1998-07-13 | 2000-02-08 | Hewlett-Packard Company | Hand held optical scanner |
USD422995S (en) * | 1998-07-13 | 2000-04-18 | Hewlett-Packard Company | Hand held optical scanner front face portion |
US6043503A (en) * | 1998-07-22 | 2000-03-28 | Hewlett-Packard Company | Hand held scanning device |
IT1306266B1 (it) * | 1998-07-24 | 2001-06-04 | Gd Spa | Metodo di controllo di un oggetto stampato |
US6232973B1 (en) * | 1998-08-07 | 2001-05-15 | Hewlett-Packard Company | Appliance and method for navigating among multiple captured images and functional menus |
US6611291B1 (en) * | 1998-08-07 | 2003-08-26 | Hewlett-Packard Development Company | Appliance and method for communicating and viewing multiple captured images |
US6160926A (en) * | 1998-08-07 | 2000-12-12 | Hewlett-Packard Company | Appliance and method for menu navigation |
JP2000069243A (ja) * | 1998-08-24 | 2000-03-03 | Matsushita Electric Ind Co Ltd | 画像処理方法及び画像処理装置 |
US6330082B1 (en) | 1998-08-28 | 2001-12-11 | Hewlett-Packard Company | Converter for optical scanner |
US6229137B1 (en) | 1998-09-14 | 2001-05-08 | Hewlett-Packard Company | Scan line illumination system utilizing hollow reflector |
US6195475B1 (en) | 1998-09-15 | 2001-02-27 | Hewlett-Packard Company | Navigation system for handheld scanner |
US6118132A (en) * | 1998-09-17 | 2000-09-12 | Agilent Technologies | System for measuring the velocity, displacement and strain on a moving surface or web of material |
US6188058B1 (en) | 1998-09-17 | 2001-02-13 | Agilent Technologies Inc. | System for taking displacement measurements having photosensors with imaged pattern arrangement |
US6459823B2 (en) * | 1998-10-28 | 2002-10-01 | Hewlett-Packard Company | Apparatus and method of increasing scanner resolution |
US6403941B1 (en) | 1998-10-29 | 2002-06-11 | Hewlett-Packard Company | Image scanner with real time pixel resampling |
US6427022B1 (en) * | 1998-11-10 | 2002-07-30 | Western Research Company, Inc. | Image comparator system and method for detecting changes in skin lesions |
US6292274B1 (en) | 1998-12-11 | 2001-09-18 | Hewlett-Packard Company | Portable scanner with tilting body design |
US6878922B1 (en) | 1998-12-23 | 2005-04-12 | Hewlett-Packard Development Company, L.P. | Optical system for compensating for non-uniform illumination of an object |
US6388773B1 (en) | 1999-02-24 | 2002-05-14 | Hewlett-Packard Company | Simultaneous multi-mode capture button behavior |
US6222174B1 (en) | 1999-03-05 | 2001-04-24 | Hewlett-Packard Company | Method of correlating immediately acquired and previously stored feature information for motion sensing |
US6246050B1 (en) | 1999-03-08 | 2001-06-12 | Hewlett-Packard Company | Optical encoders using non-patterned targets |
US6160250A (en) | 1999-03-31 | 2000-12-12 | Hewlett-Packard Company | Integrated optical imaging assembly |
US6584214B1 (en) | 1999-04-23 | 2003-06-24 | Massachusetts Institute Of Technology | Identification and verification using complex, three-dimensional structural features |
US6633332B1 (en) | 1999-05-13 | 2003-10-14 | Hewlett-Packard Development Company, L.P. | Digital camera system and method capable of performing document scans |
US6816272B2 (en) | 1999-05-13 | 2004-11-09 | Hewlett-Packard Development Company, L.P. | System and method for selectively downloading data files from an optical scanner |
AUPQ439299A0 (en) * | 1999-12-01 | 1999-12-23 | Silverbrook Research Pty Ltd | Interface system |
US6737591B1 (en) * | 1999-05-25 | 2004-05-18 | Silverbrook Research Pty Ltd | Orientation sensing device |
US7170499B1 (en) * | 1999-05-25 | 2007-01-30 | Silverbrook Research Pty Ltd | Handwritten text capture via interface surface |
IT1309271B1 (it) * | 1999-05-27 | 2002-01-16 | Gd Spa | Metodo di controllo di banconote |
US6362465B1 (en) | 1999-06-14 | 2002-03-26 | Hewlett-Packard Company | Optical scanning system and method capable of receiving inputs from a user |
US6207945B1 (en) | 1999-06-30 | 2001-03-27 | Hewlett-Packard Company | Integral positioning and imaging device |
US6242731B1 (en) | 1999-06-30 | 2001-06-05 | Hewlett Packard Company | Imaging device having an integrated position sensing device |
GB2387734B (en) * | 1999-07-12 | 2004-01-07 | Hewlett Packard Co | Edge to edge image sensor and navigator for portable scanner |
US6265706B1 (en) * | 1999-07-12 | 2001-07-24 | Hewlett-Packard Company | Edge to edge image sensor and navigator for portable scanner |
US6556315B1 (en) | 1999-07-30 | 2003-04-29 | Hewlett-Packard Company | Digital image scanner with compensation for misalignment of photosensor array segments |
US6300645B1 (en) | 1999-08-25 | 2001-10-09 | Hewlett-Packard Company | Position sensing device having a single photosensing element |
US6350980B1 (en) | 1999-08-27 | 2002-02-26 | Hewlett-Packard Company | Imaging assembly with a side mounted optical detector for a scanner |
US6555812B1 (en) | 1999-09-29 | 2003-04-29 | Hewlett Packard Development Company, L.P. | Optics device dust seal |
US6380529B1 (en) * | 1999-09-29 | 2002-04-30 | Hewlett-Packard Company | Position sensing device having a movable photosensing element |
EP1091560A1 (de) | 1999-10-05 | 2001-04-11 | Hewlett-Packard Company | Verfahren und Gerät zum Abtasten von Übergrössendokumenten |
US6376834B1 (en) * | 1999-10-26 | 2002-04-23 | Hewlett-Packard Company | Moire interference pattern reduction for scanning of half-toned images |
US6312124B1 (en) | 1999-10-27 | 2001-11-06 | Hewlett-Packard Company | Solid and semi-flexible body inkjet printing system |
US6455840B1 (en) | 1999-10-28 | 2002-09-24 | Hewlett-Packard Company | Predictive and pulsed illumination of a surface in a micro-texture navigation technique |
US6429422B1 (en) | 1999-11-12 | 2002-08-06 | Hewlett-Packard Company | Scanner navigation system with variable aperture |
US6414293B1 (en) | 1999-11-12 | 2002-07-02 | Hewlett-Packard Company | Optical position sensing device and method using a contoured transparent sheet |
US6568777B1 (en) * | 1999-11-16 | 2003-05-27 | Agilent Technologies, Inc. | Optical navigation system and method |
US6303921B1 (en) | 1999-11-23 | 2001-10-16 | Hewlett-Packard Company | Method and system for capturing large format documents using a portable hand-held scanner |
DE19956467A1 (de) * | 1999-11-24 | 2001-06-07 | Wincor Nixdorf Gmbh & Co Kg | Verfahren, Datenverarbeitungsanlage und Programm zum Korrigieren von Abtastfehlern sowie zugehöriges Texterkennungssystem |
GB2357209B (en) | 1999-12-07 | 2004-04-14 | Hewlett Packard Co | Hand-held image capture apparatus |
US6418372B1 (en) | 1999-12-10 | 2002-07-09 | Siemens Technology-To-Business Center, Llc | Electronic visitor guidance system |
US6538243B1 (en) | 2000-01-04 | 2003-03-25 | Hewlett-Packard Company | Contact image sensor with light guide having least reflectivity near a light source |
US6346699B1 (en) | 2000-01-04 | 2002-02-12 | Hewlett-Packard Company | Optical assembly having a reduced width |
US6563101B1 (en) | 2000-01-19 | 2003-05-13 | Barclay J. Tullis | Non-rectilinear sensor arrays for tracking an image |
US7133068B2 (en) * | 2000-03-06 | 2006-11-07 | Sony Corporation | System and method for creating still images by utilizing a video camera device |
US6912076B2 (en) * | 2000-03-17 | 2005-06-28 | Accu-Sort Systems, Inc. | Coplanar camera scanning system |
US6426498B1 (en) | 2000-04-03 | 2002-07-30 | Hewlett-Packard Co. | Optics module for optical scanning device |
US6377888B1 (en) | 2000-04-03 | 2002-04-23 | Disney Enterprises, Inc. | System for controlling movement of a vehicle |
US6525306B1 (en) | 2000-04-25 | 2003-02-25 | Hewlett-Packard Company | Computer mouse with integral digital camera and method for using the same |
WO2001082586A2 (en) * | 2000-04-26 | 2001-11-01 | Raja Tuli | Document scanning apparatus integrated with a writing device |
US6930703B1 (en) | 2000-04-29 | 2005-08-16 | Hewlett-Packard Development Company, L.P. | Method and apparatus for automatically capturing a plurality of images during a pan |
US6618038B1 (en) | 2000-06-02 | 2003-09-09 | Hewlett-Packard Development Company, Lp. | Pointing device having rotational sensing mechanisms |
US7161578B1 (en) | 2000-08-02 | 2007-01-09 | Logitech Europe S.A. | Universal presentation device |
US7289649B1 (en) * | 2000-08-10 | 2007-10-30 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Fingerprint imager |
US6781570B1 (en) | 2000-11-09 | 2004-08-24 | Logitech Europe S.A. | Wireless optical input device |
US7164810B2 (en) * | 2001-11-21 | 2007-01-16 | Metrologic Instruments, Inc. | Planar light illumination and linear imaging (PLILIM) device with image-based velocity detection and aspect ratio compensation |
US20030098352A1 (en) * | 2000-11-24 | 2003-05-29 | Metrologic Instruments, Inc. | Handheld imaging device employing planar light illumination and linear imaging with image-based velocity detection and aspect ratio compensation |
US6711501B2 (en) * | 2000-12-08 | 2004-03-23 | Satloc, Llc | Vehicle navigation system and method for swathing applications |
JP2002196877A (ja) * | 2000-12-25 | 2002-07-12 | Hitachi Ltd | イメージセンサを用いた電子機器 |
US6357939B1 (en) | 2001-02-02 | 2002-03-19 | Hewlett-Packard Company | Method of and apparatus for handheld printing of images on a media |
US6621483B2 (en) | 2001-03-16 | 2003-09-16 | Agilent Technologies, Inc. | Optical screen pointing device with inertial properties |
US6977645B2 (en) | 2001-03-16 | 2005-12-20 | Agilent Technologies, Inc. | Portable electronic device with mouse-like capabilities |
US7184026B2 (en) * | 2001-03-19 | 2007-02-27 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Impedance sensing screen pointing device |
US6478415B2 (en) | 2001-03-21 | 2002-11-12 | Hewlett-Packard Company | Rejuvenation station and printer cartridge therefore |
US6677929B2 (en) | 2001-03-21 | 2004-01-13 | Agilent Technologies, Inc. | Optical pseudo trackball controls the operation of an appliance or machine |
US20020140677A1 (en) * | 2001-03-28 | 2002-10-03 | Misek Brian J. | Optical mouse having an integrated processor |
US6603108B2 (en) * | 2001-04-09 | 2003-08-05 | Syscan Technology (Shenzhen) Co. Limited | Image sensing modules for portable optical scanners |
US6719467B2 (en) | 2001-04-30 | 2004-04-13 | Hewlett-Packard Development Company, L.P. | Floor printer |
US7333083B1 (en) | 2001-05-10 | 2008-02-19 | Logitech Europe S.A. | Optical based performance improvement for an optical illumination configuration |
US6809723B2 (en) | 2001-05-14 | 2004-10-26 | Agilent Technologies, Inc. | Pushbutton optical screen pointing device |
US6937135B2 (en) * | 2001-05-30 | 2005-08-30 | Hewlett-Packard Development Company, L.P. | Face and environment sensing watch |
GB2376283B (en) * | 2001-06-04 | 2005-03-16 | Hewlett Packard Co | Foot activated user input |
US20020184196A1 (en) * | 2001-06-04 | 2002-12-05 | Lehmeier Michelle R. | System and method for combining voice annotation and recognition search criteria with traditional search criteria into metadata |
SE519352C2 (sv) * | 2001-07-13 | 2003-02-18 | Print Dreams Europe Ab | Handhållen och handmanövrerad slumprörelseskrivanordning samt förfarande för skrivning med sådan. |
SE523273C2 (sv) | 2001-07-13 | 2004-04-06 | Print Dreams Europe Ab | Anordning och förfarande |
US6795056B2 (en) | 2001-07-24 | 2004-09-21 | Agilent Technologies, Inc. | System and method for reducing power consumption in an optical screen pointing device |
US6935564B2 (en) * | 2001-07-30 | 2005-08-30 | Bayer Healthcare Llc | Circuit and method for correcting influence of AC coupling |
US6823077B2 (en) * | 2001-07-30 | 2004-11-23 | Agilent Technologies, Inc. | Simplified interpolation for an optical navigation system that correlates images of one bit resolution |
US6664948B2 (en) | 2001-07-30 | 2003-12-16 | Microsoft Corporation | Tracking pointing device motion using a single buffer for cross and auto correlation determination |
US6847353B1 (en) | 2001-07-31 | 2005-01-25 | Logitech Europe S.A. | Multiple sensor device and method |
US6703633B2 (en) | 2001-08-16 | 2004-03-09 | Hewlett-Packard Development Company, L.P. | Method and apparatus for authenticating a signature |
US7126585B2 (en) * | 2001-08-17 | 2006-10-24 | Jeffery Davis | One chip USB optical mouse sensor solution |
US6773177B2 (en) | 2001-09-14 | 2004-08-10 | Fuji Xerox Co., Ltd. | Method and system for position-aware freeform printing within a position-sensed area |
US6772000B2 (en) * | 2001-10-19 | 2004-08-03 | Scimed Life Systems, Inc. | Magnetic resonance imaging devices with a contrast medium for improved imaging |
US6657184B2 (en) * | 2001-10-23 | 2003-12-02 | Agilent Technologies, Inc. | Optical navigation upon grainy surfaces using multiple navigation sensors |
US6770863B2 (en) | 2001-10-26 | 2004-08-03 | Agilent Technologies, Inc. | Apparatus and method for three-dimensional relative movement sensing |
US6937357B1 (en) | 2001-10-30 | 2005-08-30 | Hewlett-Packard Development Company, L.P. | Hard copy system including rewritable media |
US7034805B2 (en) * | 2001-11-02 | 2006-04-25 | Kye Systems Corp. | Optical trackball |
US6859199B2 (en) | 2001-11-06 | 2005-02-22 | Omnivision Technologies, Inc. | Method and apparatus for determining relative movement in an optical mouse using feature extraction |
US7042439B2 (en) * | 2001-11-06 | 2006-05-09 | Omnivision Technologies, Inc. | Method and apparatus for determining relative movement in an optical mouse |
US6765555B2 (en) | 2001-11-07 | 2004-07-20 | Omnivision Technologies, Inc. | Passive optical mouse using image sensor with optional dual mode capability |
TWI263942B (en) * | 2001-12-05 | 2006-10-11 | Em Microelectronic Marin Sa | Method and sensing device for motion detection in an optical pointing device, such as an optical mouse |
US7583293B2 (en) * | 2001-12-06 | 2009-09-01 | Aptina Imaging Corporation | Apparatus and method for generating multi-image scenes with a camera |
US6646244B2 (en) | 2001-12-19 | 2003-11-11 | Hewlett-Packard Development Company, L.P. | Optical imaging device with speed variable illumination |
US6806453B1 (en) | 2002-01-17 | 2004-10-19 | Hewlett-Packard Development Company, L.P. | Scanning, copying, and printing with rewritable media |
US7333250B2 (en) * | 2002-01-31 | 2008-02-19 | Hewlett-Packard Development Company, L.P. | Image scanner with a single motor providing two-dimensional movement of photosensors |
AUPS049402A0 (en) * | 2002-02-13 | 2002-03-07 | Silverbrook Research Pty. Ltd. | Methods and apparatus (ap55) |
US7948769B2 (en) | 2007-09-27 | 2011-05-24 | Hemisphere Gps Llc | Tightly-coupled PCB GNSS circuit and manufacturing method |
SE527211C2 (sv) * | 2002-03-11 | 2006-01-17 | Printdreams Europ Ab | Sensor- och skrivhuvudenhet hos en handmanövrerad handskrivanordning |
SE527212C2 (sv) * | 2002-03-11 | 2006-01-17 | Printdreams Europ Ab | Anordning och förfarande för en handhållen handmanövrerad skrivare |
SE527210C2 (sv) * | 2002-03-11 | 2006-01-17 | Printdreams Europ Ab | Sensor- och skrivhuvudenhet samt förfarande för en handmanövrerad handskrivanordning |
US6788875B1 (en) | 2002-04-08 | 2004-09-07 | Logitech Europe S.A. | Suspension system for use in an optical displacement detection system |
US6974947B2 (en) * | 2002-04-08 | 2005-12-13 | Agilent Technologies, Inc. | Apparatus and method for sensing rotation based on multiple sets of movement data |
US7131751B1 (en) | 2002-04-12 | 2006-11-07 | Logitech, Inc. | Attachment system for use in an optical illumination system |
DE10316208A1 (de) * | 2002-04-12 | 2003-11-20 | Samsung Electro Mech | Navigationssystem und Navigationsverfahren |
US7362480B2 (en) * | 2002-04-24 | 2008-04-22 | Transpacific Ip, Ltd. | Method and system for changing a scanning resolution |
US7045763B2 (en) * | 2002-06-28 | 2006-05-16 | Hewlett-Packard Development Company, L.P. | Object-recognition lock |
US6983080B2 (en) * | 2002-07-19 | 2006-01-03 | Agilent Technologies, Inc. | Resolution and image quality improvements for small image sensors |
US7167604B2 (en) * | 2002-08-07 | 2007-01-23 | Hewlett-Packard Development Company, L.P. | Portable document scan accessory for use with a wireless handheld communications device |
US7015448B2 (en) * | 2002-08-22 | 2006-03-21 | Micron Technology, Inc. | Dark current reduction circuitry for CMOS active pixel sensors |
EP2241896B1 (de) * | 2002-09-23 | 2012-03-14 | Stefan Reich | Stabilisierungssystem für Flugkörper |
US8077568B2 (en) * | 2002-11-12 | 2011-12-13 | Spencer Charles A | Method and system for synchronizing information specific to a location on a surface with an external source |
US6881949B2 (en) | 2002-11-12 | 2005-04-19 | Charles A. Spencer | Method and system for synchronizing information specific to a location on a surface with an external source |
US6956500B1 (en) | 2002-11-29 | 2005-10-18 | M & M Systems, Inc. | Real-time residential energy monitor |
US7689354B2 (en) * | 2003-03-20 | 2010-03-30 | Hemisphere Gps Llc | Adaptive guidance system and method |
US7162348B2 (en) | 2002-12-11 | 2007-01-09 | Hemisphere Gps Llc | Articulated equipment position control system and method |
US7142956B2 (en) * | 2004-03-19 | 2006-11-28 | Hemisphere Gps Llc | Automatic steering system and method |
US7885745B2 (en) | 2002-12-11 | 2011-02-08 | Hemisphere Gps Llc | GNSS control system and method |
US6924812B2 (en) * | 2002-12-24 | 2005-08-02 | Intel Corporation | Method and apparatus for reading texture data from a cache |
US6995748B2 (en) * | 2003-01-07 | 2006-02-07 | Agilent Technologies, Inc. | Apparatus for controlling a screen pointer with a frame rate based on velocity |
US7295186B2 (en) | 2003-01-14 | 2007-11-13 | Avago Technologies Ecbuip (Singapore) Pte Ltd | Apparatus for controlling a screen pointer that distinguishes between ambient light and light from its light source |
EP1439689A1 (de) * | 2003-01-15 | 2004-07-21 | Siemens Aktiengesellschaft | Mobiltelefon mit einer Scan-Hilfe |
US20040165224A1 (en) * | 2003-02-21 | 2004-08-26 | Allen Ross R. | Compact optical scanner |
US7129929B1 (en) | 2003-03-07 | 2006-10-31 | Microsoft Corporation | Computer input device with multi-purpose light guide |
US7009598B1 (en) | 2003-03-07 | 2006-03-07 | Microsoft Corporation | Multiple channel light guide for optically tracking pointing and input devices |
US8265826B2 (en) * | 2003-03-20 | 2012-09-11 | Hemisphere GPS, LLC | Combined GNSS gyroscope control system and method |
US8271194B2 (en) | 2004-03-19 | 2012-09-18 | Hemisphere Gps Llc | Method and system using GNSS phase measurements for relative positioning |
US8140223B2 (en) | 2003-03-20 | 2012-03-20 | Hemisphere Gps Llc | Multiple-antenna GNSS control system and method |
US9002565B2 (en) | 2003-03-20 | 2015-04-07 | Agjunction Llc | GNSS and optical guidance and machine control |
US8634993B2 (en) | 2003-03-20 | 2014-01-21 | Agjunction Llc | GNSS based control for dispensing material from vehicle |
US8190337B2 (en) | 2003-03-20 | 2012-05-29 | Hemisphere GPS, LLC | Satellite based vehicle guidance control in straight and contour modes |
US20040212533A1 (en) * | 2003-04-23 | 2004-10-28 | Whitehead Michael L. | Method and system for satellite based phase measurements for relative positioning of fixed or slow moving points in close proximity |
US8138970B2 (en) | 2003-03-20 | 2012-03-20 | Hemisphere Gps Llc | GNSS-based tracking of fixed or slow-moving structures |
US8214111B2 (en) | 2005-07-19 | 2012-07-03 | Hemisphere Gps Llc | Adaptive machine control system and method |
US8594879B2 (en) | 2003-03-20 | 2013-11-26 | Agjunction Llc | GNSS guidance and machine control |
US8686900B2 (en) * | 2003-03-20 | 2014-04-01 | Hemisphere GNSS, Inc. | Multi-antenna GNSS positioning method and system |
SE0300913D0 (sv) * | 2003-03-31 | 2003-03-31 | Print Dreams Europe Ab | Method for navigation with optical sensors, and a device utilizing the method |
US20040189849A1 (en) * | 2003-03-31 | 2004-09-30 | Hofer Gregory V. | Panoramic sequence guide |
US7164782B2 (en) * | 2003-04-18 | 2007-01-16 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | System and method for time-space multiplexing in finger-imaging applications |
US7274808B2 (en) * | 2003-04-18 | 2007-09-25 | Avago Technologies Ecbu Ip (Singapore)Pte Ltd | Imaging system and apparatus for combining finger recognition and finger navigation |
US7158659B2 (en) * | 2003-04-18 | 2007-01-02 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | System and method for multiplexing illumination in combined finger recognition and finger navigation module |
TW576534U (en) * | 2003-04-23 | 2004-02-11 | Sunplus Technology Co Ltd | Light-guiding apparatus of optical mouse |
US7994877B1 (en) | 2008-11-10 | 2011-08-09 | Hrl Laboratories, Llc | MEMS-based quartz hybrid filters and a method of making the same |
US8766745B1 (en) | 2007-07-25 | 2014-07-01 | Hrl Laboratories, Llc | Quartz-based disk resonator gyro with ultra-thin conductive outer electrodes and method of making same |
CN100373310C (zh) * | 2003-05-09 | 2008-03-05 | 凌阳科技股份有限公司 | 光学鼠标的导光装置 |
US20040227954A1 (en) * | 2003-05-16 | 2004-11-18 | Tong Xie | Interferometer based navigation device |
US7321359B2 (en) * | 2003-07-30 | 2008-01-22 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Method and device for optical navigation |
US7116427B2 (en) * | 2003-10-30 | 2006-10-03 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Low power consumption, broad navigability optical mouse |
US7161585B2 (en) * | 2003-07-01 | 2007-01-09 | Em Microelectronic-Marin Sa | Displacement data post-processing and reporting in an optical pointing device |
US7161586B2 (en) * | 2003-07-01 | 2007-01-09 | Em Microelectronic-Marin Sa | Method of operating an optical motion sensing device and optical motion sensing device implementing this method |
US6963059B2 (en) * | 2003-07-01 | 2005-11-08 | Em Microelectronic-Marin Sa | Method and system for optimizing illumination power and integration time in an optical sensing device |
JP4169661B2 (ja) * | 2003-07-24 | 2008-10-22 | オリンパス株式会社 | 撮像装置 |
US7466356B2 (en) * | 2003-07-25 | 2008-12-16 | Hewlett-Packard Development Company, L.P. | Method and apparatus for setting a marker on an object and tracking the position of the object |
JP2005041623A (ja) * | 2003-07-25 | 2005-02-17 | Fuji Xerox Co Ltd | 搬送装置および画像形成装置 |
US20050022686A1 (en) * | 2003-07-28 | 2005-02-03 | Dreampatch, Llc | Apparatus, method, and computer program product for animation pad transfer |
US6934037B2 (en) * | 2003-10-06 | 2005-08-23 | Agilent Technologies, Inc. | System and method for optical navigation using a projected fringe technique |
US20050024346A1 (en) * | 2003-07-30 | 2005-02-03 | Jean-Luc Dupraz | Digital pen function control |
US20050024690A1 (en) * | 2003-07-31 | 2005-02-03 | Picciotto Carl E. | Pen with tag reader and navigation system |
US7205521B2 (en) * | 2003-07-31 | 2007-04-17 | Avage Technologies Ecbu Ip (Singapore) Pte. Ltd. | Speckle based sensor for three dimensional navigation |
US7227531B2 (en) * | 2003-08-15 | 2007-06-05 | Microsoft Corporation | Data input device for tracking and detecting lift-off from a tracking surface by a reflected laser speckle pattern |
US7161582B2 (en) * | 2003-08-29 | 2007-01-09 | Microsoft Corporation | Data input device for tracking and detecting lift-off from a tracking surface by a reflected laser speckle pattern |
US7423227B2 (en) * | 2003-09-04 | 2008-09-09 | Avago Technologies Ecbu Ip Pte Ltd | Apparatus for optical navigation |
DE60320254T2 (de) * | 2003-09-22 | 2009-05-14 | Xitact S.A. | Optische Vorrichtung zur Bestimmung der longitudinalen Position und des Drehwinkels eines rotationssymmetrischen Körpers |
US7034279B2 (en) | 2003-09-25 | 2006-04-25 | Hewlett-Packard Development Company, L.P. | Method and system for printhead rotation detection using photosensors |
KR100683248B1 (ko) | 2003-10-29 | 2007-02-15 | 주식회사 애트랩 | 한 픽셀 이하 움직임 연산 방법 및 이를 이용한 위치 추적센서 |
US7167162B2 (en) * | 2003-12-12 | 2007-01-23 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Apparatus and method for controlling a screen pointer |
US7869078B2 (en) * | 2003-12-18 | 2011-01-11 | Xerox Corporation | Reference marking system and tracking system for large area printing |
KR100545066B1 (ko) * | 2004-02-16 | 2006-01-24 | 삼성전기주식회사 | 위치 추적용 광센서 장치 및 이를 이용한 위치 추정 방법 |
US7221356B2 (en) * | 2004-02-26 | 2007-05-22 | Microsoft Corporation | Data input device and method for detecting an off-surface condition by a laser speckle size characteristic |
US7613329B2 (en) * | 2004-03-08 | 2009-11-03 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Apparatus for controlling the position of a screen pointer that detects defective pixels |
EP1574825A1 (de) * | 2004-03-12 | 2005-09-14 | Xitact S.A. | vorrichtung zur bestimmung der longitudianl- und winkelstellung eines rotationssymmetrischen bauteils |
TW200531724A (en) * | 2004-03-17 | 2005-10-01 | Zeroplus Technology Co Ltd | Game controlling system with displacement detecting capability |
US8583315B2 (en) | 2004-03-19 | 2013-11-12 | Agjunction Llc | Multi-antenna GNSS control system and method |
US7474297B2 (en) | 2004-03-22 | 2009-01-06 | Avago Technologies Ecbu Ip (Singapore) Pte. | Contaminant-resistant optical mouse and cradle |
US7446756B2 (en) * | 2004-03-22 | 2008-11-04 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Apparatus for controlling the position of a screen pointer with low sensitivity to particle contamination |
DE102004014994A1 (de) * | 2004-03-26 | 2005-10-13 | Hofmann Mess- Und Auswuchttechnik Gmbh & Co. Kg | Verfahren und Vorrichtung zur Erfassung einer Relativbewegung zwischen einem Detektor und einem Körpers mit einer Oberflächenstruktur |
US7242466B2 (en) * | 2004-03-31 | 2007-07-10 | Microsoft Corporation | Remote pointing system, device, and methods for identifying absolute position and relative movement on an encoded surface by remote optical method |
US7174260B2 (en) * | 2004-04-01 | 2007-02-06 | Blue Line Innovations Inc. | System and method for reading power meters |
US7439954B2 (en) * | 2004-04-15 | 2008-10-21 | Logitech Europe S.A. | Multi-light-source illumination system for optical pointing devices |
US8325140B2 (en) | 2004-04-20 | 2012-12-04 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Illumination spot alignment |
US7292232B2 (en) * | 2004-04-30 | 2007-11-06 | Microsoft Corporation | Data input devices and methods for detecting movement of a tracking surface by a laser speckle pattern |
TWI238358B (en) * | 2004-05-12 | 2005-08-21 | Sunplus Technology Co Ltd | Optical mouse with shielding compensation, and the method for shielding compensation |
US7268341B2 (en) * | 2004-05-21 | 2007-09-11 | Silicon Light Machines Corporation | Optical position sensing device including interlaced groups of photosensitive elements |
US7285766B2 (en) * | 2004-05-21 | 2007-10-23 | Silicon Light Machines Corporation | Optical positioning device having shaped illumination |
US20050259097A1 (en) * | 2004-05-21 | 2005-11-24 | Silicon Light Machines Corporation | Optical positioning device using different combinations of interlaced photosensitive elements |
US20050259078A1 (en) * | 2004-05-21 | 2005-11-24 | Silicon Light Machines Corporation | Optical positioning device with multi-row detector array |
US7773070B2 (en) * | 2004-05-21 | 2010-08-10 | Cypress Semiconductor Corporation | Optical positioning device using telecentric imaging |
US20050258346A1 (en) * | 2004-05-21 | 2005-11-24 | Silicon Light Machines Corporation | Optical positioning device resistant to speckle fading |
US7042575B2 (en) * | 2004-05-21 | 2006-05-09 | Silicon Light Machines Corporation | Speckle sizing and sensor dimensions in optical positioning device |
TWI240207B (en) * | 2004-06-11 | 2005-09-21 | Sunplus Technology Co Ltd | Method and system for real-time determining abnormality of pixel values for captured image |
US7653260B2 (en) * | 2004-06-17 | 2010-01-26 | Carl Zeis MicroImaging GmbH | System and method of registering field of view |
US7565034B2 (en) * | 2004-06-17 | 2009-07-21 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Determination of a navigation window in an optical navigation system |
US7315013B2 (en) * | 2004-06-17 | 2008-01-01 | Avago Technologies Ecbu Ip (Singapore) Pte Ltd. | Optical navigation using one-dimensional correlation |
US8532338B2 (en) * | 2004-07-06 | 2013-09-10 | Hewlett-Packard Development Company, L.P. | System and method for compensating for motion blur in optical navigation |
US20060015804A1 (en) * | 2004-07-15 | 2006-01-19 | Microsoft Corporation | Method and system for presenting editable spreadsheet page layout view |
US7656395B2 (en) * | 2004-07-15 | 2010-02-02 | Microsoft Corporation | Methods and apparatuses for compound tracking systems |
US20060204061A1 (en) * | 2004-07-16 | 2006-09-14 | Atmel Grenoble S.A. | Method for the acquisition of an image of a finger print |
US7057148B2 (en) * | 2004-07-29 | 2006-06-06 | Ami Semiconductor, Inc. | Optical tracking sensor method |
US20060023970A1 (en) * | 2004-07-29 | 2006-02-02 | Chinlee Wang | Optical tracking sensor method |
US7176442B2 (en) * | 2004-08-13 | 2007-02-13 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Optical navigation device with optical navigation quality detector |
US7423633B2 (en) * | 2004-09-01 | 2008-09-09 | Avago Technologies Ec Buip Pte Ltd | Apparatus for controlling the position of a screen pointer with low sensitivity to fixed pattern noise |
US7166831B2 (en) * | 2004-09-01 | 2007-01-23 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Optical mouse with replaceable contaminant barrier |
US7126586B2 (en) * | 2004-09-17 | 2006-10-24 | Microsoft Corporation | Data input devices and methods for detecting movement of a tracking surface by detecting laser doppler self-mixing effects of a frequency modulated laser light beam |
US20060060653A1 (en) * | 2004-09-23 | 2006-03-23 | Carl Wittenberg | Scanner system and method for simultaneously acquiring data images from multiple object planes |
TWI290221B (en) * | 2004-10-29 | 2007-11-21 | Silicon Light Machines Corp | Two-dimensional motion sensor |
US7138620B2 (en) | 2004-10-29 | 2006-11-21 | Silicon Light Machines Corporation | Two-dimensional motion sensor |
US7189985B2 (en) * | 2004-10-30 | 2007-03-13 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Tracking separation between an object and a surface using a reducing structure |
US7248345B2 (en) * | 2004-11-12 | 2007-07-24 | Silicon Light Machines Corporation | Signal processing method for use with an optical navigation system |
US7405389B2 (en) | 2004-11-19 | 2008-07-29 | Silicon Light Machines Corporation | Dense multi-axis array for motion sensing |
US7435942B2 (en) * | 2004-12-02 | 2008-10-14 | Cypress Semiconductor Corporation | Signal processing method for optical sensors |
US7313271B2 (en) | 2004-12-07 | 2007-12-25 | Avago Technologies Ecbuip (Singapore) Pte. Ltd. | Color detection using grayscale and position information |
US7379049B2 (en) | 2004-12-13 | 2008-05-27 | Avago Technologies Ecbu Ip Pte Ltd | Apparatus for controlling the position of a screen pointer based on projection data |
US7619612B2 (en) * | 2004-12-20 | 2009-11-17 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Pointing device with light source for providing visible light through a moveable puck |
US7557796B2 (en) * | 2004-12-22 | 2009-07-07 | Delphi Technologies, Inc. | Joystick sensor with two-dimensional image sensing |
US20060149425A1 (en) * | 2004-12-22 | 2006-07-06 | Davis Raymond A | Motion sensor system |
TWI288353B (en) * | 2004-12-24 | 2007-10-11 | Lite On Semiconductor Corp | Motion detection method |
US7114383B2 (en) * | 2005-01-07 | 2006-10-03 | Bridgestone Firestone North American Tire, Llc | Method and apparatus for monitoring tire performance |
US7215493B2 (en) * | 2005-01-27 | 2007-05-08 | Psc Scanning, Inc. | Imaging system with a lens having increased light collection efficiency and a deblurring equalizer |
US7499090B2 (en) * | 2005-01-27 | 2009-03-03 | Datalogic Scanning, Inc. | Rolling-reset imager with optical filter |
US7224540B2 (en) * | 2005-01-31 | 2007-05-29 | Datalogic Scanning, Inc. | Extended depth of field imaging system using chromatic aberration |
US20060219863A1 (en) * | 2005-03-11 | 2006-10-05 | Burch Jefferson B | Obtaining data from a utility meter using image-based movement tracking |
US20090306509A1 (en) * | 2005-03-30 | 2009-12-10 | Worcester Polytechnic Institute | Free-hand three-dimensional ultrasound diagnostic imaging with position and angle determination sensors |
JP4616692B2 (ja) * | 2005-04-21 | 2011-01-19 | 株式会社ミツトヨ | 変位検出装置 |
US7656428B2 (en) * | 2005-05-05 | 2010-02-02 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Imaging device employing optical motion sensor as gyroscope |
US7474848B2 (en) * | 2005-05-05 | 2009-01-06 | Hewlett-Packard Development Company, L.P. | Method for achieving correct exposure of a panoramic photograph |
CN100420260C (zh) * | 2005-05-25 | 2008-09-17 | 光宝科技股份有限公司 | 图像接合方法 |
US7898524B2 (en) | 2005-06-30 | 2011-03-01 | Logitech Europe S.A. | Optical displacement detection over varied surfaces |
US8179967B2 (en) * | 2005-07-05 | 2012-05-15 | Stmicroelectronics S.A. | Method and device for detecting movement of an entity provided with an image sensor |
US8300015B2 (en) * | 2005-07-05 | 2012-10-30 | Stmicroelectronics S.A. | Method of detecting the movement of an entity equipped with an image sensor and device for implementing same |
US20070023997A1 (en) * | 2005-07-28 | 2007-02-01 | Ertel John P | System and method for optically detecting media feeding malfunctions in an image forming apparatus |
US20070032318A1 (en) * | 2005-08-04 | 2007-02-08 | Nishimura Ken A | Motion sensor in sporting equipment |
US7522746B2 (en) * | 2005-08-12 | 2009-04-21 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Object tracking using optical correlation and feedback |
US7399954B2 (en) * | 2005-08-16 | 2008-07-15 | Avago Technologies Ecbu Ip Pte Ltd | System and method for an optical navigation device configured to generate navigation information through an optically transparent layer and to have skating functionality |
WO2007030731A2 (en) * | 2005-09-07 | 2007-03-15 | Nr Laboratories, Llc | Positional sensing system and method |
US7598979B2 (en) * | 2005-09-21 | 2009-10-06 | Aptina Imaging Corporation | Imaging device with blur reduction system including a primary array and at least one navigation array |
US7293459B2 (en) * | 2005-09-22 | 2007-11-13 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Image-based sensing of acceleration |
US20070076082A1 (en) * | 2005-09-30 | 2007-04-05 | Lexmark International, Inc. | Methods and apparatuses for measuring print area using hand-held printer |
US7500732B2 (en) * | 2005-09-30 | 2009-03-10 | Lexmark International, Inc. | Maintenance and docking station for a hand-held printer |
US7388539B2 (en) | 2005-10-19 | 2008-06-17 | Hemisphere Gps Inc. | Carrier track loop for GNSS derived attitude |
US20070109271A1 (en) * | 2005-11-14 | 2007-05-17 | Phison Electronics Corp. | [a portable storage device with handwritten input device] |
US7735951B2 (en) * | 2005-11-15 | 2010-06-15 | Lexmark International, Inc. | Alignment method for hand-operated printer |
US20070120937A1 (en) * | 2005-11-30 | 2007-05-31 | Lexmark International, Inc. | System and method for hand-held printing |
TW200722835A (en) * | 2005-12-09 | 2007-06-16 | Ind Tech Res Inst | Polymer dispersed liquid crystal emulsion and polymer dispersed liquid crystal composite film |
US7567235B2 (en) | 2005-12-12 | 2009-07-28 | Cypress Semiconductor Corporation | Self-aligning optical sensor package |
US8072502B2 (en) * | 2005-12-12 | 2011-12-06 | Sony Ericsson Mobile Communications Ab | Multi-mega pixel resolution with small sensor |
US8471191B2 (en) | 2005-12-16 | 2013-06-25 | Cypress Semiconductor Corporation | Optical navigation system having a filter-window to seal an enclosure thereof |
US7765251B2 (en) * | 2005-12-16 | 2010-07-27 | Cypress Semiconductor Corporation | Signal averaging circuit and method for sample averaging |
US7399129B2 (en) * | 2005-12-20 | 2008-07-15 | Lexmark International, Inc. | User interface for a hand-operated printer |
US7524051B2 (en) | 2005-12-20 | 2009-04-28 | Lexmark International, Inc. | Hand-operated printer having a user interface |
US7737948B2 (en) * | 2005-12-20 | 2010-06-15 | Cypress Semiconductor Corporation | Speckle navigation system |
TWI287828B (en) * | 2005-12-30 | 2007-10-01 | Ind Tech Res Inst | Method for printing a pattern and data processing method thereof |
US7298460B2 (en) * | 2006-01-03 | 2007-11-20 | Silicon Light Machines Corporation | Method for determining motion using a velocity predictor |
US20070181785A1 (en) * | 2006-02-09 | 2007-08-09 | Helbing Rene P | Compact optical navigation module and microlens array therefore |
US7884801B1 (en) | 2006-02-16 | 2011-02-08 | Cypress Semiconductor Corporation | Circuit and method for determining motion with redundant comb-arrays |
US7593833B2 (en) * | 2006-03-03 | 2009-09-22 | At&T Intellectual Property I, L.P. | System and method for determining performance of network lines |
US7557338B2 (en) * | 2006-03-14 | 2009-07-07 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Electronic device with integrated optical navigation module and microlens array therefore |
US7297912B1 (en) | 2006-03-27 | 2007-11-20 | Silicon Light Machines Corporation | Circuit and method for reducing power consumption in an optical navigation system having redundant arrays |
US7721609B2 (en) | 2006-03-31 | 2010-05-25 | Cypress Semiconductor Corporation | Method and apparatus for sensing the force with which a button is pressed |
US7809035B2 (en) * | 2006-03-31 | 2010-10-05 | Cypress Semiconductor Corporation | Eye-safe laser navigation sensor |
US20070237561A1 (en) * | 2006-04-11 | 2007-10-11 | Lexmark International Inc. | Methods and apparatuses for sensing a print area using a hand-held printer |
US7378643B2 (en) * | 2006-04-24 | 2008-05-27 | Avago Technologies General Ip Pte Ltd | Optical projection encoder with patterned mask |
US7748839B2 (en) | 2006-05-09 | 2010-07-06 | Lexmark International, Inc. | Handheld printing with reference indicia |
US7682017B2 (en) | 2006-05-10 | 2010-03-23 | Lexmark International, Inc. | Handheld printer minimizing printing defects |
US7470887B2 (en) * | 2006-05-23 | 2008-12-30 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Collapsible structure for optical navigation system |
US7492445B1 (en) | 2006-06-05 | 2009-02-17 | Cypress Semiconductor Corporation | Method and apparatus for robust velocity prediction |
US7755604B2 (en) | 2006-06-19 | 2010-07-13 | Cypress Semiconductor Corporation | Optical navigation sensor with tracking and lift detection for optically transparent contact surfaces |
US7787145B2 (en) * | 2006-06-29 | 2010-08-31 | Lexmark International, Inc. | Methods for improving print quality in a hand-held printer |
US7728816B2 (en) * | 2006-07-10 | 2010-06-01 | Cypress Semiconductor Corporation | Optical navigation sensor with variable tracking resolution |
US20080030534A1 (en) * | 2006-08-02 | 2008-02-07 | Adam Jude Ahne | Hand Held Micro-fluid Ejection Devices Configured to Eject Fluid without Referential Position Information and Method of Ejecting Fluid |
US7555824B2 (en) * | 2006-08-09 | 2009-07-07 | Hrl Laboratories, Llc | Method for large scale integration of quartz-based devices |
US7442916B2 (en) * | 2006-08-25 | 2008-10-28 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Lift detection adapted for navigation on a transparent structure |
US7675020B2 (en) * | 2006-08-28 | 2010-03-09 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Input apparatus and methods having diffuse and specular tracking modes |
US20080059069A1 (en) * | 2006-08-30 | 2008-03-06 | Trutna William R | System and method for detecting an object in the path of a vehicle |
US7889178B2 (en) | 2006-09-08 | 2011-02-15 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Programmable resolution for optical pointing device |
US20080079956A1 (en) * | 2006-09-21 | 2008-04-03 | Mahesan Chelvayohan | Hand-Held Printer Having An Integrated Digital Camera Scanner |
US20080075511A1 (en) * | 2006-09-21 | 2008-03-27 | William Henry Reed | Method for Position Acquisition for Use with a Hand-operated Printer |
US8210758B2 (en) * | 2006-09-21 | 2012-07-03 | Lexmark International, Inc. | Guiding a hand-operated printer |
US20080075513A1 (en) * | 2006-09-26 | 2008-03-27 | Douglas Laurence Robertson | Methods for a Maintenance Algorithm in Hand Held Printers |
US7748840B2 (en) | 2006-09-27 | 2010-07-06 | Lexmark International, Inc. | Methods and apparatus for handheld printing with optical positioning |
US7938531B2 (en) | 2006-09-27 | 2011-05-10 | Lexmark International, Inc. | Methods and apparatus for handheld printing with optical positioning |
US7918519B2 (en) | 2006-09-27 | 2011-04-05 | Lexmark International, Inc. | Methods and apparatus for handheld printing with optical positioning |
US7742514B1 (en) | 2006-10-31 | 2010-06-22 | Cypress Semiconductor Corporation | Laser navigation sensor |
US7570348B2 (en) | 2006-12-18 | 2009-08-04 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Methods and apparatus for navigating a surface |
US7514668B2 (en) * | 2006-12-19 | 2009-04-07 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Optical navigation device that utilizes a vertical cavity surface emitting laser (VCSEL) configured to emit visible coherent light |
US8072429B2 (en) * | 2006-12-22 | 2011-12-06 | Cypress Semiconductor Corporation | Multi-axial touch-sensor device with multi-touch resolution |
US9052759B2 (en) * | 2007-04-11 | 2015-06-09 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Dynamically reconfigurable pixel array for optical navigation |
US7567341B2 (en) * | 2006-12-29 | 2009-07-28 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Optical navigation device adapted for navigation on a transparent structure |
US7965278B2 (en) * | 2006-12-29 | 2011-06-21 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Optical navigation device adapted for navigation on a transparent plate |
US9411431B2 (en) * | 2006-12-29 | 2016-08-09 | Marvell World Trade Ltd. | Tracking a position in relation to a surface |
US8226194B1 (en) | 2007-01-02 | 2012-07-24 | Marvell International Ltd. | Printing on planar or non-planar print surface with handheld printing device |
US8632266B1 (en) | 2007-01-03 | 2014-01-21 | Marvell International Ltd. | Printer for a mobile device |
US8000740B1 (en) | 2007-01-03 | 2011-08-16 | Marvell International Ltd. | Image translation device for a mobile device |
US8077343B1 (en) | 2007-01-03 | 2011-12-13 | Marvell International Ltd. | Determining end of print job in handheld image translation device |
US7949370B1 (en) | 2007-01-03 | 2011-05-24 | Marvell International Ltd. | Scanner for a mobile device |
US7835832B2 (en) | 2007-01-05 | 2010-11-16 | Hemisphere Gps Llc | Vehicle control system |
US8768558B2 (en) | 2007-01-05 | 2014-07-01 | Agjunction Llc | Optical tracking vehicle control system and method |
US8311696B2 (en) | 2009-07-17 | 2012-11-13 | Hemisphere Gps Llc | Optical tracking vehicle control system and method |
USRE48527E1 (en) | 2007-01-05 | 2021-04-20 | Agjunction Llc | Optical tracking vehicle control system and method |
US8472066B1 (en) | 2007-01-11 | 2013-06-25 | Marvell International Ltd. | Usage maps in image deposition devices |
US8342627B1 (en) | 2007-01-11 | 2013-01-01 | Marvell International Ltd. | Adaptive filtering scheme in handheld positioning device |
US8396654B1 (en) | 2007-01-18 | 2013-03-12 | Marvell International Ltd. | Sensor positioning in handheld image translation device |
US7675630B2 (en) * | 2007-01-24 | 2010-03-09 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | System and method for selectively setting optical navigation resolution |
US7938532B2 (en) | 2007-02-16 | 2011-05-10 | Lexmark International, Inc. | Hand held printer with vertical misalignment correction |
US20080204489A1 (en) * | 2007-02-22 | 2008-08-28 | Mckinley Patrick A | Self-propelled image translation device |
JP2010522650A (ja) | 2007-02-23 | 2010-07-08 | マーベル ワールド トレード リミテッド | ハンドヘルド画像並進デバイスの位置把握法 |
US8223384B1 (en) | 2007-02-23 | 2012-07-17 | Marvell International Ltd. | Defining a print image in memory for handheld image translation devices |
US8351062B2 (en) | 2007-02-26 | 2013-01-08 | Marvell World Trade Ltd. | Bit selection from print image in memory of handheld image translation device |
US8000381B2 (en) | 2007-02-27 | 2011-08-16 | Hemisphere Gps Llc | Unbiased code phase discriminator |
US8107108B1 (en) | 2007-02-28 | 2012-01-31 | Marvell International Ltd. | Providing user feedback in handheld device |
US20080213018A1 (en) * | 2007-03-02 | 2008-09-04 | Mealy James | Hand-propelled scrapbooking printer |
WO2008109557A1 (en) * | 2007-03-02 | 2008-09-12 | Marvell World Trade Ltd. | Dynamic image dithering |
US7845748B2 (en) * | 2007-03-02 | 2010-12-07 | Marvell World Trade Ltd. | Handheld image translation device |
US8096713B1 (en) | 2007-03-02 | 2012-01-17 | Marvell International Ltd. | Managing project information with a hand-propelled device |
US9294649B2 (en) * | 2007-03-02 | 2016-03-22 | Marvell World Trade Ltd. | Position correction in handheld image translation device |
US8083422B1 (en) * | 2007-03-02 | 2011-12-27 | Marvell International Ltd. | Handheld tattoo printer |
US8079765B1 (en) | 2007-03-02 | 2011-12-20 | Marvell International Ltd. | Hand-propelled labeling printer |
US20080219737A1 (en) * | 2007-03-07 | 2008-09-11 | Michael David Stilz | Hand Held Printer Having A Doppler Position Sensor |
US20080231600A1 (en) | 2007-03-23 | 2008-09-25 | Smith George E | Near-Normal Incidence Optical Mouse Illumination System with Prism |
US9180686B1 (en) * | 2007-04-05 | 2015-11-10 | Marvell International Ltd. | Image translation device providing navigational data feedback to communication device |
GB2462711B (en) * | 2007-04-09 | 2010-04-14 | Schlumberger Holdings | Autonomous depth control for wellbore equipment |
US7933166B2 (en) * | 2007-04-09 | 2011-04-26 | Schlumberger Technology Corporation | Autonomous depth control for wellbore equipment |
US8509487B2 (en) * | 2007-04-19 | 2013-08-13 | Avago Technologies General Ip (Singapore) Pte. Ltd. | System and method for optically measuring a parameter of an object |
US20080257962A1 (en) * | 2007-04-23 | 2008-10-23 | Chiu Lihu M | Acceleration-corrected barcode verification |
US8123322B1 (en) | 2007-06-11 | 2012-02-28 | Marvell International Ltd. | Manually operated image translation device |
US8705117B1 (en) | 2007-06-18 | 2014-04-22 | Marvell International Ltd. | Hand-held printing device and method for tuning ink jet color for printing on colored paper |
US20090015875A1 (en) * | 2007-06-20 | 2009-01-15 | Ctb/Mcgraw-Hill Companies, Inc. | Image manipulation of digitized images of documents |
EP2171641A4 (de) * | 2007-06-21 | 2012-11-14 | Univ Johns Hopkins | Manipulationseinrichtung zum navigieren in schaubildern der virtuellen mikroskopie bzw. digitalbildern und diesbezügliche verfahren |
US8092006B2 (en) | 2007-06-22 | 2012-01-10 | Lexmark International, Inc. | Handheld printer configuration |
US8314774B1 (en) | 2007-07-09 | 2012-11-20 | Cypress Semiconductor Corporation | Method and apparatus for quasi-3D tracking using 2D optical motion sensors |
US10266398B1 (en) | 2007-07-25 | 2019-04-23 | Hrl Laboratories, Llc | ALD metal coatings for high Q MEMS structures |
US8263921B2 (en) | 2007-08-06 | 2012-09-11 | Cypress Semiconductor Corporation | Processing methods for speckle-based motion sensing |
US9555645B1 (en) | 2007-08-07 | 2017-01-31 | Marvell International Ltd. | Controlling a plurality of nozzles of a handheld printer |
US20090040286A1 (en) * | 2007-08-08 | 2009-02-12 | Tan Theresa Joy L | Print scheduling in handheld printers |
US8119975B2 (en) * | 2007-09-26 | 2012-02-21 | Crowsocs, Inc. | High speed deterministic, non-contact, 3-axis free trajectory measurement device and free trajectory imaging device |
US7808428B2 (en) | 2007-10-08 | 2010-10-05 | Hemisphere Gps Llc | GNSS receiver and external storage device system and GNSS data processing method |
US20090102793A1 (en) * | 2007-10-22 | 2009-04-23 | Microsoft Corporation | Optical mouse |
US8244062B2 (en) * | 2007-10-22 | 2012-08-14 | Hewlett-Packard Development Company, L.P. | Correction of distortion in captured images |
US20090135140A1 (en) * | 2007-11-27 | 2009-05-28 | Logitech Europe S.A. | System and method for accurate lift-detection of an input device |
US8847888B2 (en) * | 2007-12-18 | 2014-09-30 | Microsoft Corporation | Optical mouse with limited wavelength optics |
US20090160772A1 (en) * | 2007-12-20 | 2009-06-25 | Microsoft Corporation | Diffuse optics in an optical mouse |
US20090160773A1 (en) * | 2007-12-20 | 2009-06-25 | Microsoft Corporation | Optical mouse |
US8259069B1 (en) | 2008-01-11 | 2012-09-04 | Cypress Semiconductor Corporation | Speckle-based optical navigation on curved tracking surface |
US8031176B1 (en) | 2008-01-22 | 2011-10-04 | Cypress Semiconductor Corporation | Optical navigation system using a single-package motion sensor |
US8151640B1 (en) * | 2008-02-05 | 2012-04-10 | Hrl Laboratories, Llc | MEMS on-chip inertial navigation system with error correction |
US9002566B2 (en) | 2008-02-10 | 2015-04-07 | AgJunction, LLC | Visual, GNSS and gyro autosteering control |
US7802356B1 (en) | 2008-02-21 | 2010-09-28 | Hrl Laboratories, Llc | Method of fabricating an ultra thin quartz resonator component |
JP5033247B2 (ja) * | 2008-03-18 | 2012-09-26 | マーベル ワールド トレード リミテッド | 印刷表面にリアルタイムにインライン式タグ付け可能なハンドヘルド型携帯印刷装置 |
WO2009126587A1 (en) | 2008-04-08 | 2009-10-15 | Hemisphere Gps Llc | Gnss-based mobile communication system and method |
US8238639B2 (en) | 2008-04-09 | 2012-08-07 | Cognex Corporation | Method and system for dynamic feature detection |
DE102008024104A1 (de) * | 2008-05-17 | 2010-05-27 | Robert Bosch Gmbh | Materialmarkensensor und Verfahren zum Erfassen einer Markierung auf oder in einem Material |
US20100060592A1 (en) * | 2008-09-10 | 2010-03-11 | Jeffrey Traer Bernstein | Data Transmission and Reception Using Optical In-LCD Sensing |
US8541727B1 (en) | 2008-09-30 | 2013-09-24 | Cypress Semiconductor Corporation | Signal monitoring and control system for an optical navigation sensor |
US8212794B2 (en) | 2008-09-30 | 2012-07-03 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Optical finger navigation utilizing quantized movement information |
US7723659B1 (en) | 2008-10-10 | 2010-05-25 | Cypress Semiconductor Corporation | System and method for screening semiconductor lasers |
US8265346B2 (en) | 2008-11-25 | 2012-09-11 | De La Rue North America Inc. | Determining document fitness using sequenced illumination |
US8780206B2 (en) * | 2008-11-25 | 2014-07-15 | De La Rue North America Inc. | Sequenced illumination |
US8217833B2 (en) | 2008-12-11 | 2012-07-10 | Hemisphere Gps Llc | GNSS superband ASIC with simultaneous multi-frequency down conversion |
US8217334B1 (en) | 2008-12-24 | 2012-07-10 | Cypress Semiconductor Corporation | Optical navigation sensor including a spatial frequency filter |
JP2011029832A (ja) * | 2009-01-06 | 2011-02-10 | Seiko Epson Corp | 原稿読み取り装置 |
US8315434B2 (en) | 2009-01-06 | 2012-11-20 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Absolute tracking in a sub-pixel range |
US8386129B2 (en) | 2009-01-17 | 2013-02-26 | Hemipshere GPS, LLC | Raster-based contour swathing for guidance and variable-rate chemical application |
US8797298B2 (en) * | 2009-01-23 | 2014-08-05 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Optical fingerprint navigation device with light guide film |
US20100188332A1 (en) | 2009-01-23 | 2010-07-29 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Thin-film transistor imager |
US8259068B2 (en) | 2009-02-24 | 2012-09-04 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Light beam shaping element for an optical navigation input device |
US8085196B2 (en) | 2009-03-11 | 2011-12-27 | Hemisphere Gps Llc | Removing biases in dual frequency GNSS receivers using SBAS |
US8711096B1 (en) | 2009-03-27 | 2014-04-29 | Cypress Semiconductor Corporation | Dual protocol input device |
US8339467B2 (en) * | 2010-03-25 | 2012-12-25 | Dacuda Ag | Synchronization of navigation and image information for handheld scanner |
US8582182B2 (en) * | 2009-05-20 | 2013-11-12 | Dacuda Ag | Automatic sizing of images acquired by a handheld scanner |
US9300834B2 (en) | 2009-05-20 | 2016-03-29 | Dacuda Ag | Image processing for handheld scanner |
US20100296133A1 (en) * | 2009-05-20 | 2010-11-25 | Dacuda Ag | Mode switching in a handheld scanner |
US8441695B2 (en) * | 2009-05-20 | 2013-05-14 | Dacuda Ag | Handheld scanner with high image quality |
US8441696B2 (en) | 2009-05-20 | 2013-05-14 | Dacuda Ag | Continuous scanning with a handheld scanner |
GB2470925A (en) * | 2009-06-09 | 2010-12-15 | Neopost Technologies | Automatically Adjusting Scanner Carrier Apparatus |
US8401704B2 (en) | 2009-07-22 | 2013-03-19 | Hemisphere GPS, LLC | GNSS control system and method for irrigation and related applications |
US8174437B2 (en) | 2009-07-29 | 2012-05-08 | Hemisphere Gps Llc | System and method for augmenting DGNSS with internally-generated differential correction |
US8611584B2 (en) * | 2009-08-17 | 2013-12-17 | Avago Technologies General Ip (Singapore) Pte. Ltd. | System and method for performing optical navigation using portions of captured frames of image data |
US8749767B2 (en) | 2009-09-02 | 2014-06-10 | De La Rue North America Inc. | Systems and methods for detecting tape on a document |
US8334804B2 (en) | 2009-09-04 | 2012-12-18 | Hemisphere Gps Llc | Multi-frequency GNSS receiver baseband DSP |
US8664548B2 (en) | 2009-09-11 | 2014-03-04 | Apple Inc. | Touch controller with improved diagnostics calibration and communications support |
US8649930B2 (en) | 2009-09-17 | 2014-02-11 | Agjunction Llc | GNSS integrated multi-sensor control system and method |
CN102022981B (zh) * | 2009-09-22 | 2013-04-03 | 重庆工商大学 | 测量亚像素位移的峰谷运动探测方法及装置 |
US8176607B1 (en) | 2009-10-08 | 2012-05-15 | Hrl Laboratories, Llc | Method of fabricating quartz resonators |
US8194237B2 (en) | 2009-10-15 | 2012-06-05 | Authentix, Inc. | Document sensor |
US8548649B2 (en) | 2009-10-19 | 2013-10-01 | Agjunction Llc | GNSS optimized aircraft control system and method |
JP5359783B2 (ja) * | 2009-10-28 | 2013-12-04 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
CN102052900B (zh) * | 2009-11-02 | 2013-09-25 | 重庆工商大学 | 快速测量亚像素位移的峰谷运动探测方法及装置 |
US8687060B1 (en) | 2009-12-28 | 2014-04-01 | Cognex Corporation | System and method for providing distance-based pulses relative to motion of a surface scanned by a vision system |
US8583326B2 (en) | 2010-02-09 | 2013-11-12 | Agjunction Llc | GNSS contour guidance path selection |
US8497840B2 (en) * | 2010-03-25 | 2013-07-30 | Dacuda Ag | Computer peripheral for scanning |
WO2011123758A1 (en) * | 2010-04-03 | 2011-10-06 | Centeye, Inc. | Vision based hover in place |
US8912711B1 (en) | 2010-06-22 | 2014-12-16 | Hrl Laboratories, Llc | Thermal stress resistant resonator, and a method for fabricating same |
US9851849B2 (en) | 2010-12-03 | 2017-12-26 | Apple Inc. | Touch device communication |
US9710155B2 (en) * | 2010-12-08 | 2017-07-18 | Nokia Technologies Oy | User interface |
EP2661311B8 (de) | 2011-01-05 | 2019-12-11 | Sphero, Inc. | Selbstangetriebene vorrichtung mit aktiv betätigtem antriebssystem |
US9218316B2 (en) | 2011-01-05 | 2015-12-22 | Sphero, Inc. | Remotely controlling a self-propelled device in a virtualized environment |
US9090214B2 (en) | 2011-01-05 | 2015-07-28 | Orbotix, Inc. | Magnetically coupled accessory for a self-propelled device |
US9429940B2 (en) | 2011-01-05 | 2016-08-30 | Sphero, Inc. | Self propelled device with magnetic coupling |
US10281915B2 (en) | 2011-01-05 | 2019-05-07 | Sphero, Inc. | Multi-purposed self-propelled device |
TWI432009B (zh) * | 2011-01-14 | 2014-03-21 | Genesys Logic Inc | 手持式掃描系統及其掃描方法 |
WO2012173640A1 (en) | 2011-06-16 | 2012-12-20 | Cypress Semiconductor Corporaton | An optical navigation module with capacitive sensor |
KR101830870B1 (ko) * | 2011-06-22 | 2018-02-21 | 엘지전자 주식회사 | 스캔 이미지 표시 방법, 이의 표시기기 및 스캔 영역 지정 방법 및 이의 입력 기기 |
US9223440B2 (en) | 2011-06-28 | 2015-12-29 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Optical navigation utilizing speed based algorithm selection |
US8730518B2 (en) * | 2011-08-18 | 2014-05-20 | Raytheon Company | Application of color imagery to a rewritable color surface |
US8896553B1 (en) | 2011-11-30 | 2014-11-25 | Cypress Semiconductor Corporation | Hybrid sensor module |
CN103295005B (zh) * | 2012-03-01 | 2016-08-10 | 汉王科技股份有限公司 | 字符序列的扫描方法与扫描装置 |
DE102012005650A1 (de) * | 2012-03-22 | 2013-09-26 | Burkhard Büstgens | Beschichtung von Flächen im Druckverfahren |
US9827487B2 (en) | 2012-05-14 | 2017-11-28 | Sphero, Inc. | Interactive augmented reality using a self-propelled device |
US9280717B2 (en) * | 2012-05-14 | 2016-03-08 | Sphero, Inc. | Operating a computing device by detecting rounded objects in an image |
US9292758B2 (en) | 2012-05-14 | 2016-03-22 | Sphero, Inc. | Augmentation of elements in data content |
US10056791B2 (en) | 2012-07-13 | 2018-08-21 | Sphero, Inc. | Self-optimizing power transfer |
US8781685B2 (en) | 2012-07-17 | 2014-07-15 | Agjunction Llc | System and method for integrating automatic electrical steering with GNSS guidance |
US9053596B2 (en) | 2012-07-31 | 2015-06-09 | De La Rue North America Inc. | Systems and methods for spectral authentication of a feature of a document |
CN103791912A (zh) * | 2012-10-30 | 2014-05-14 | 大陆汽车投资(上海)有限公司 | 支持手绘路径的导航路径规划装置 |
US10278584B2 (en) | 2013-03-11 | 2019-05-07 | Carestream Dental Technology Topco Limited | Method and system for three-dimensional imaging |
EP2973417B1 (de) | 2013-03-11 | 2020-07-15 | Carestream Dental Technology Topco Limited | Verfahren und system für dreidimensionale bildgebung |
US9250074B1 (en) | 2013-04-12 | 2016-02-02 | Hrl Laboratories, Llc | Resonator assembly comprising a silicon resonator and a quartz resonator |
EP3703001A1 (de) | 2013-08-31 | 2020-09-02 | ML Netherlands C.V. | Benutzerfeedback zur echtzeitüberwachung und verbesserung der qualität eines abgetasteten bildes |
US9599470B1 (en) | 2013-09-11 | 2017-03-21 | Hrl Laboratories, Llc | Dielectric high Q MEMS shell gyroscope structure |
DE102013110581B4 (de) * | 2013-09-24 | 2018-10-11 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung und Vorrichtung hierzu |
EP3540683A1 (de) | 2013-12-03 | 2019-09-18 | ML Netherlands C.V. | Benutzerfeedback zur echtzeitüberwachung und verbesserung der qualität eines abgetasteten bildes |
US9829882B2 (en) | 2013-12-20 | 2017-11-28 | Sphero, Inc. | Self-propelled device with center of mass drive system |
WO2015104236A1 (en) | 2014-01-07 | 2015-07-16 | Dacuda Ag | Adaptive camera control for reducing motion blur during real-time image capture |
EP4113457A1 (de) | 2014-01-07 | 2023-01-04 | ML Netherlands C.V. | Dynamische aktualisierung von zusammengestzten bildern |
TWI534453B (zh) * | 2014-02-18 | 2016-05-21 | 原相科技股份有限公司 | 相對位置定位系統與追蹤系統 |
US9977097B1 (en) | 2014-02-21 | 2018-05-22 | Hrl Laboratories, Llc | Micro-scale piezoelectric resonating magnetometer |
US9991863B1 (en) | 2014-04-08 | 2018-06-05 | Hrl Laboratories, Llc | Rounded and curved integrated tethers for quartz resonators |
EP3143596B1 (de) | 2014-05-12 | 2020-04-08 | ML Netherlands C.V. | Verfahren und vorrichtung zum abtasten und drucken eines 3d-objekts |
US10308505B1 (en) | 2014-08-11 | 2019-06-04 | Hrl Laboratories, Llc | Method and apparatus for the monolithic encapsulation of a micro-scale inertial navigation sensor suite |
KR102309863B1 (ko) * | 2014-10-15 | 2021-10-08 | 삼성전자주식회사 | 전자 장치, 그 제어 방법 및 기록 매체 |
US10031191B1 (en) | 2015-01-16 | 2018-07-24 | Hrl Laboratories, Llc | Piezoelectric magnetometer capable of sensing a magnetic field in multiple vectors |
US10110198B1 (en) | 2015-12-17 | 2018-10-23 | Hrl Laboratories, Llc | Integrated quartz MEMS tuning fork resonator/oscillator |
CN105630206B (zh) * | 2015-12-23 | 2018-10-16 | 广州中国科学院先进技术研究所 | 一种基于dic的触摸定位方法及系统 |
US10175307B1 (en) | 2016-01-15 | 2019-01-08 | Hrl Laboratories, Llc | FM demodulation system for quartz MEMS magnetometer |
CN107370904A (zh) * | 2016-05-13 | 2017-11-21 | 菱光科技股份有限公司 | 取像装置及电子系统 |
RU169458U1 (ru) * | 2016-12-23 | 2017-03-21 | Акционерное общество "НПО "Орион" | Формирователь сигналов изображения на основе матричного фотоприемного устройства с градиентной коррекцией неоднородности и дефектов фоточувствительных элементов |
EP3367655B1 (de) * | 2017-02-28 | 2021-08-18 | Global Scanning Denmark A/S | Optischer flashbettscanner mit dokumentenpresserelement |
CN111133356B (zh) * | 2017-09-20 | 2022-03-01 | 富士胶片株式会社 | 摄像装置、摄像装置主体及摄像装置的对焦控制方法 |
WO2019109034A1 (en) * | 2017-11-30 | 2019-06-06 | Leica Biosystems Imaging, Inc. | Impulse rescan system |
US10900776B2 (en) * | 2018-02-06 | 2021-01-26 | Saudi Arabian Oil Company | Sensor device for distance offset measurements |
US10679320B1 (en) * | 2018-07-23 | 2020-06-09 | Ambarella International Lp | High dynamic range sensor system with row increment operation |
JP7081520B2 (ja) * | 2019-02-06 | 2022-06-07 | コニカミノルタ株式会社 | 測定装置、走査方向判定システム及び走査方向判定プログラム |
DE102019108426A1 (de) | 2019-04-01 | 2020-10-01 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum dreidimensionalen Erfassen wenigstens eines Objekts |
CN111178167B (zh) * | 2019-12-12 | 2023-07-25 | 咪咕文化科技有限公司 | 穿帮镜头审核方法、装置、电子设备及存储介质 |
US11347327B2 (en) * | 2020-06-26 | 2022-05-31 | Logitech Europe S.A. | Surface classification and sensor tuning for a computer peripheral device |
KR102227531B1 (ko) * | 2020-07-06 | 2021-03-15 | 주식회사 딥노이드 | X-ray 보안 장치에 대한 이미지 처리 장치 및 방법 |
US11736640B1 (en) * | 2022-08-22 | 2023-08-22 | Kyocera Document Solutions, Inc. | Method and apparatus for detecting sheet-fed scanner double-feeds using neural network classifier |
KR102567729B1 (ko) * | 2023-03-15 | 2023-08-17 | (주)에이스디이씨 | 용수로 선형 좌표계산 시스템 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6042990B2 (ja) * | 1978-05-22 | 1985-09-26 | 株式会社日立製作所 | パタ−ン認識方法 |
FR2504673A1 (fr) * | 1981-04-27 | 1982-10-29 | Thomson Csf | Indicateur cartographique a enregistrement sur film photographique |
US4723297A (en) * | 1984-09-27 | 1988-02-02 | Siemens Aktiengesellschaft | Method for automatic correction of character skew in the acquisition of a text original in the form of digital scan results |
US5023922A (en) * | 1985-06-07 | 1991-06-11 | Soricon Corporation | Optical character reader |
US4819083A (en) * | 1986-01-31 | 1989-04-04 | Konishiroku Photo Industry Co., Ltd. | Moving type image recording apparatus |
DE3781591T2 (de) * | 1986-06-11 | 1993-01-07 | Casio Computer Co Ltd | Von hand bewegtes druckgeraet. |
US4797544A (en) * | 1986-07-23 | 1989-01-10 | Montgomery James R | Optical scanner including position sensors |
US4847786A (en) * | 1986-08-20 | 1989-07-11 | The Regents Of The University Of California | Object analysis of multi-valued images |
US4984287A (en) * | 1988-11-15 | 1991-01-08 | Msc Technologies, Inc. | Method for orienting a dual mouse optical scanner |
US4951214A (en) * | 1988-11-18 | 1990-08-21 | Texas Instruments Incorporated | Method for passively determining the relative position of a moving observer with respect to a stationary object |
US5089712A (en) * | 1989-06-08 | 1992-02-18 | Hewlett-Packard Company | Sheet advancement control system detecting fiber pattern of sheet |
JP2917155B2 (ja) * | 1989-12-18 | 1999-07-12 | 株式会社日立製作所 | 画像結合装置及び方法 |
US5355146A (en) * | 1990-03-05 | 1994-10-11 | Bmc Micro-Industries Ltd. | Multi-directional hand scanner and mouse |
US5675672A (en) * | 1990-06-26 | 1997-10-07 | Seiko Epson Corporation | Two dimensional linker for character string data |
US5185673A (en) * | 1991-06-12 | 1993-02-09 | Hewlett-Packard Company | Automated image calibration |
JP3140782B2 (ja) * | 1991-12-10 | 2001-03-05 | ストーム テクノロジー,インコーポレイテッド | 画像を自動併合するための装置及び方法 |
US5686960A (en) * | 1992-01-14 | 1997-11-11 | Michael Sussman | Image input device having optical deflection elements for capturing multiple sub-images |
US5306908A (en) * | 1993-03-15 | 1994-04-26 | Hewlett-Packard Company | Manually operated hand-held optical scanner with tactile speed control assembly |
US5497150A (en) * | 1993-04-05 | 1996-03-05 | Smk Corporation | Image scanner |
GB2288512B (en) * | 1994-04-14 | 1998-08-26 | Matsushita Electric Ind Co Ltd | Image processing apparatus |
US5578813A (en) * | 1995-03-02 | 1996-11-26 | Allen; Ross R. | Freehand image scanning device which compensates for non-linear movement |
US5729008A (en) * | 1996-01-25 | 1998-03-17 | Hewlett-Packard Company | Method and device for tracking relative movement by correlating signals from an array of photoelements |
-
1995
- 1995-03-02 US US08/396,826 patent/US5578813A/en not_active Expired - Lifetime
- 1995-12-14 AU AU40460/95A patent/AU719574B2/en not_active Ceased
-
1996
- 1996-01-10 CA CA002166904A patent/CA2166904A1/en not_active Abandoned
- 1996-02-06 JP JP02013596A patent/JP3860242B2/ja not_active Expired - Fee Related
- 1996-02-07 DE DE69609096T patent/DE69609096T2/de not_active Expired - Lifetime
- 1996-02-07 EP EP96300830A patent/EP0730366B1/de not_active Expired - Lifetime
- 1996-02-26 CN CN96100020A patent/CN1120444C/zh not_active Expired - Fee Related
- 1996-02-29 KR KR1019960005378A patent/KR100463947B1/ko not_active IP Right Cessation
- 1996-03-04 JP JP52611296A patent/JP3720367B2/ja not_active Expired - Lifetime
- 1996-03-04 CN CNB961923040A patent/CN1156143C/zh not_active Expired - Fee Related
- 1996-03-04 WO PCT/GB1996/000492 patent/WO1996027257A2/en active IP Right Grant
- 1996-03-04 US US08/860,652 patent/US6005681A/en not_active Expired - Lifetime
- 1996-03-04 DE DE69608262T patent/DE69608262T2/de not_active Expired - Lifetime
- 1996-03-04 EP EP96904937A patent/EP0812505B1/de not_active Expired - Lifetime
- 1996-08-14 US US08/696,713 patent/US5644139A/en not_active Expired - Lifetime
-
1997
- 1997-02-25 US US08/805,963 patent/US5825044A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
US6005681A (en) | 1999-12-21 |
JPH11501174A (ja) | 1999-01-26 |
CN1120444C (zh) | 2003-09-03 |
CN1135062A (zh) | 1996-11-06 |
JP3720367B2 (ja) | 2005-11-24 |
JPH08265518A (ja) | 1996-10-11 |
US5578813A (en) | 1996-11-26 |
KR960036517A (ko) | 1996-10-28 |
CN1156143C (zh) | 2004-06-30 |
DE69609096D1 (de) | 2000-08-10 |
AU4046095A (en) | 1996-09-12 |
CN1183873A (zh) | 1998-06-03 |
EP0812505A2 (de) | 1997-12-17 |
EP0730366A3 (de) | 1996-10-09 |
EP0812505B1 (de) | 2000-05-10 |
CA2166904A1 (en) | 1996-09-03 |
JP3860242B2 (ja) | 2006-12-20 |
KR100463947B1 (ko) | 2005-05-27 |
EP0730366A2 (de) | 1996-09-04 |
US5825044A (en) | 1998-10-20 |
DE69608262D1 (de) | 2000-06-15 |
AU719574B2 (en) | 2000-05-11 |
DE69609096T2 (de) | 2000-11-16 |
WO1996027257A2 (en) | 1996-09-06 |
WO1996027257A3 (en) | 1997-02-20 |
EP0730366B1 (de) | 2000-07-05 |
US5644139A (en) | 1997-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69608262T2 (de) | System und verfahren zur bildabtastung | |
DE69737495T2 (de) | Verfahren und Vorrichtung zur Bildabtastung | |
DE69816185T2 (de) | Bildverarbeitungsverfahren und -vorrichtung | |
DE69513756T2 (de) | Anlage zur Umschreibung von Wandtafelbildern mittels eines kamerabasierten Abtasters | |
US6303921B1 (en) | Method and system for capturing large format documents using a portable hand-held scanner | |
DE69715074T2 (de) | Erfassung von Daten, die mit der Oberflächentopographie eines Mediums zusammenhängen | |
US6195475B1 (en) | Navigation system for handheld scanner | |
DE69526931T2 (de) | Elektronischer handflächenleser mit einer unebenen kontaktfläche | |
US6215914B1 (en) | Picture processing apparatus | |
DE10259329A1 (de) | Optische Bilderzeugungsvorrichtung mit geschwindigkeitsvariabler Beleuchtung | |
DE102021112880A1 (de) | Positionierungsverfahren und -system, das eine markierungspunktpositionierung und eine intelligente rückwärtspositionierung kombiniert | |
DE60020038T2 (de) | Verfahren zum Verarbeiten eines numerischen Bildes | |
DE19730157C2 (de) | Bildlesepositionsfehler-Meßeinrichtung | |
US5909521A (en) | Multi-shot still image reader | |
DE69903030T2 (de) | Progressive flächenabtastung in der elektronischen filmentwicklung | |
DE102011082280A1 (de) | Bildmessvorrichtung und Bildmessverfahren | |
CA2024893C (en) | Apparatus and method for scanning by means of a rotatable detector array | |
EP0884890B1 (de) | Bildverarbeitungsverfahren und -vorrichtung | |
DE60033260T2 (de) | Positionsmessvorrichtung und -verfahren | |
Safonov et al. | Distortion-Free Scanning and Copying of Bound Documents | |
Pathak | Restoration of documents with show-through distortion. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: HEWLETT-PACKARD CO. (N.D.GES.D.STAATES DELAWARE), |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: HEWLETT-PACKARD DEVELOPMENT CO., L.P., HOUSTON, TE |