DE112010004260T5 - Handgehaltenes abtastgerät und steuerungsverfahren dafür - Google Patents

Handgehaltenes abtastgerät und steuerungsverfahren dafür Download PDF

Info

Publication number
DE112010004260T5
DE112010004260T5 DE112010004260T DE112010004260T DE112010004260T5 DE 112010004260 T5 DE112010004260 T5 DE 112010004260T5 DE 112010004260 T DE112010004260 T DE 112010004260T DE 112010004260 T DE112010004260 T DE 112010004260T DE 112010004260 T5 DE112010004260 T5 DE 112010004260T5
Authority
DE
Germany
Prior art keywords
control unit
image
images
field images
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112010004260T
Other languages
English (en)
Inventor
Myoung-Sool Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of DE112010004260T5 publication Critical patent/DE112010004260T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • H04N1/107Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with manual scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00519Constructional details not otherwise provided for, e.g. housings, covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3876Recombination of partial images to recreate the original image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/0402Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
    • H04N2201/0414Scanning an image in a series of overlapping zones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/0471Detection of scanning velocity or position using dedicated detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/04734Detecting at frequent intervals, e.g. once per line for sub-scan control

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Input (AREA)
  • Facsimiles In General (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)

Abstract

Die vorliegende Erfindung betrifft ein handgehaltenes Abtastgerät und ein Steuerungsverfahren dafür, wobei die Oberfläche eines abgetasteten Objekts, das größer als ein Abtaster ist, in Einheiten von zweidimensionalen Feldbildern abgetastet wird, die jeweils eine vorbestimmte Größe aufweisen, und die fotografierten Bilder gemäß Verlagerungsinformationen zu abschließenden Seitenbildern synthetisiert werden. Insbesondere umfasst eine Abtastungseinheit Folgendes: einen transparenten Fensterabschnitt, der einen Bereich der abzutastenden Feldbilder bildet; einen Gehäuseabschnitt, der das Eindringen von Licht von einer äußeren Quelle verhindert; ein Kameramodul, das einen festen optischen Abstand von dem abgetasteten Objekt einhält und Feldbilder fotografiert; ein Beleuchtungsmodul, das Licht nur während einer voreingestellten Zeitspanne gemäß einem Beleuchtungssignal bereitstellt; und ein Verlagerungsmessmodul, das Verlagerungsinformationen ausgibt. Gemäß der vorliegenden Erfindung wird die Oberfläche des abgetasteten Objekts in Einheiten von zweidimensionalen Feldbildern abgetastet, wobei Positionen von Pixel physisch fixiert sind, um auf diese Weise eine erhöhte Genauigkeit der Position der Pixel zu erreichen. Gemäß der vorliegenden Erfindung wird die Anzahl arithmetischer Operationen, die zur Bildsynthese erforderlich ist, reduziert, so dass eine äußerst schnelle Signalverarbeitung ermöglicht wird, und die Unterseite des Gehäuseabschnitts kann sich eng an den Abtastbereich annähern, um einen abtastbaren Bereich zu maximieren.

Description

  • [Technisches Gebiet]
  • Die vorliegende Erfindung betrifft einen Handabtaster (oder handgehaltenen Abtaster), insbesondere eine Handabtastvorrichtung (oder handgehaltene Abtastvorrichtung) und ein Steuerungsverfahren davon, wenn ein Objekt abgetastet wird, dessen Oberfläche größer als die Lesefläche der Abtastvorrichtung ist.
  • [Allgemeiner Stand der Technik]
  • Ein Abtaster ist eine Vorrichtung, die beliebige Objekte optisch abtastet und das Ergebnis in ein digitales Bild umwandelt (im Folgenden kollektiv als „Abtaster” bezeichnet). Ein Abtaster liest ein optisches Bild auf der Oberfläche eines Objekts und wandelt es in ein Digitalsignal zum Speichern oder Übertragen um. Ein Abtaster kann einen breiten Bereich von Verwendungen in Zusammenarbeit mit der digitalen Bildverarbeitung aufweisen.
  • Ein Verfahren, das allgemein benutzt wird, um ein optisches Bild in ein Digitalsignal umzuwandeln, ist ein lineares Array von zahlreichen Kontaktbildsensoren (CIS).
  • Es gibt zwei verschiedene Arten von Bewegungsquellen eines Abtasters: motorbetriebene automatische Abtaster, bei denen der Abtastungsabschnitt von einem elektrischen Motor bewegt wird, und manuelle Abtaster, bei denen der Abtastungsabschnitt von Hand betätigt wird.
  • Die vorliegende Erfindung betrifft einen kompakten Handabtaster, wobei die Vorrichtung mit der Hand bewegt wird.
  • Ein Handabtaster ist mit einem Navigationssensor ausgestattet, um die Richtung und den Abstand zu verfolgen, wenn sich der Abtaster bewegt.
  • Ein Beispiel für einen oben beschriebenen Handabtasters ist der „Contact Type Image Sensor And Handheld Scanner Using The Same” der koreanischen Patentanmeldung Nr. 2000-68664 , eingereicht am 18. November 2000. Dieser Abtaster des Stands der Technik erfasst ein Bild in Form einer Vielzahl eindimensionaler Bilder und akkumuliert die einzelnen linearen Bilder, um ein zweidimensionales Bild zu erstellen. Aufgrund einer übermäßigen Menge an erzeugten Daten kann dieses Verfahren den Prozess verzögern und die Genauigkeit beim Zusammensetzen linearer Pixel einschränken. Ferner weist der Abtaster einen nachteiligen Aufbau auf, der häufig hinsichtlich der abtastbaren Bildgröße Einschränkungen aufweist.
  • 1 eine Diagrammansicht ist, die die Bauteile eines Handabtasters gemäß dem Stand der Technik darstellt.
  • Unter detaillierter Bezugnahme auf die begleitende Zeichnung umfasst der Handabtaster 10 mit dem üblichen CIS-Verfahren einen Zeilenbildsensor 30 am Boden eines Gehäuses 20; und einen Navigationssensor 40, der die Bewegung des Abtasters computerisiert.
  • Das Gehäuse 20 sichert die Bauteile einschließlich des Zeilenbildsensors 30 und des Navigationssensors 40.
  • Der Kontaktzeilenbildsensor 30 umfasst eine Lichtquelle, die die Oberfläche eines Objekts beleuchtet; und ein lineares Array von Fotodioden und Linsen, die das von der Oberfläche reflektierte Licht aufnehmen; und eine transparente Platte, die für einen flachen Kontakt zwischen dem Sensor und dem Objekt sorgt. Der Kontaktzeilenbildsensor 30 ist am Boden des Gehäuses 20 angebracht, wobei die einzelnen Kanten einen Abstand <a>, <b>, <c> bzw. <d> von der jeweiligen zugewandten Kante des Gehäuses 20 aufweisen.
  • Auf diese Weise lässt der Abstand zwischen dem Gehäuse 20 und dem Kontaktzeilenbildsensor 30 kein Abtasten darunter zu, wenn der Handabtaster 10 auf ein physisches Hindernis stößt.
  • Dieses entscheidende Problem des Handabtasters 10 tritt häufig auf insbesondere wenn ein Buch oder ein Stapel von Dokumenten abgetastet werden, die gut gebunden sind und daher ungleichmäßige Flächen aufweisen. Wörter, die aus der Abtastung ausgelassen werden, können das Verständnis des gesamten auf dem Objekt geschriebenen Textes behindern.
  • Außerdem senkt die eingeschränkte Fokussiertiefe des Zeilenbildsensors 30 die Qualität des Abtastergebnisses stark, selbst wenn der Handabtaster 10 geringfügig vom Objekt entfernt ist (allgemein > 0,5 mm).
  • Der Navigationssensor 40 ist an der Unterseite des Gehäuses 20 angeordnet. Er erkennt die Richtung und den Abstand, wenn sich der Handabtaster 10 bewegt.
  • Eindimensionale Daten, die vom Zeilenbildsensor 30 erfasst werden, werden den Koordinaten zugewiesen, die vom Navigationssensor 40 berechnet werden, um ein zweidimensionales Bild zu erstellen.
  • Ein solcher Prozess, bei dem lineare Bilder zusammengefügt werden, um ein zweidimensionales Bild zu erstellen, ist somit relativ zeitaufwändig, und es ist mühsam, jeden Pixel an den gewünschten Koordinaten zu positionieren.
  • 2 ist ein Ablaufdiagramm für die Verarbeitung abgetasteter Bilddaten gemäß dem Stand der Technik.
  • Abgetastete Bilder von dem Zeilenbildsensor 20 in Zusammenarbeit mit dem Navigationssensor werden einer Reihe von Vorgängen unterzogen, darunter Abtasten (S10), Zusammenfügen von Zeilenbildern (S20) und Zusammenfügen von Feldbildern (S30).
  • Im Abtastschritt S10 sammelt eine Steuereinheit, deren Abbildung nicht eingeschlossen ist, Zeilenbilder (S12) vom Zeilenbildsensor 30, wandelt die Bewegungsdaten vom Navigationssensor 50 in Koordinaten für die einzelnen Zeilenbilder um (S14) und speichert dann nach und nach alle Daten im Zeilenpuffer oder Speicher, der nicht in der Abbildung gezeigt ist (S16).
  • Im nächsten Schritt werden Zeilenbilder zusammengefügt, wobei die Steuereinheit die Zeilenbilder und Koordinaten, die im Zeilenpuffer gespeichert sind, liest, und projiziert die Zeilenbilder nach den einzelnen vordefinierten Flächen auf die entsprechenden Koordinaten (S22). Die Steuereinheit fügt jetzt anhand von berechneten Koordinaten Zeilenbilder zusammen, um Feldbilder zu erstellen (S24), und speichert nach und nach die Feldbilder gemäß zugewiesenen Koordinaten im Feldpuffer (S26).
  • Der gesamte Prozess wird abgeschlossen, indem die Feldbilder zusammengefügt werden (S30), wobei zuvor erzeugte und mit entsprechenden Koordinaten positionierte Daten ein volles Bild erstellen.
  • Das Verfahren des Stands der Technik beinhaltet eine riesige Zahl von Berechnungen zur Bildzusammenfügung. Um eine solche Aufgabe zu erfüllen, muss die Steuereinheit sehr leistungsfähig sein, und die Speicherkapazität muss ausreichend sein, was zu erhöhten Herstellungskosten führt.
  • Außerdem muss der Navigationssensor 50 die Fehlerquote möglichst niedrig halten: Dies kann die Produktivität verändern und den Ausschussanteil erhöhen.
  • Außerdem fällt die Abtasteffizienz aufgrund eines zeitaufwändigen Prozesses beträchtlich ab, wobei ein Abtaster die Bildzusammenfügung mehrmals durchführt, um Digitaldaten zu erstellen. Dies führt auch zu Ungenauigkeit beim Positionieren der einzelnen eindimensionalen Bilder, um ein Feldbild zu erzeugen.
  • Daher besteht Bedarf an einer neuen Technologie, wobei eine Steuereinheit eine reduzierte Anzahl von Bildzusammenfügungen von einem Handabtaster durchführt, während sie die Genauigkeit der Pixelpositionierung maximiert und die Fläche minimiert, die aufgrund des Aufbaus des Abtasters nicht abgetastet werden kann.
  • [Offenbarung]
  • [Technisches Problem]
  • Um die genannten Probleme des Stands der Technik zu lösen, ist es eine Aufgabe der vorliegenden Erfindung, eine Handabtastvorrichtung und ein Steuerverfahren dafür zu schaffen, wobei ein optisches Bild als eine Vielzahl von Feldbildern von bestimmter Größe abgetastet wird, um die Datenverarbeitung zu reduzieren und zugleich die Abtastgeschwindigkeit zu erhöhen.
  • Außerdem zielt die Erfindung darauf ab, den Bereich zu minimieren, die aufgrund des blinden Flecks zwischen dem Gehäuse und dem Bildsensor nicht abgetastet werden kann. Das Anordnen einer Kamera ist wünschenswert, um Bereiche zu erfassen, die mit dem üblichen Verfahren nicht abtastbar sind.
  • Dabei existiert auch der Vorteil, dass sich die Herstellungskosten deutlich senken lassen, indem eine normale Kamera anstelle einer hochauflösenden verwendet wird. Dieser Umstand könnte als benutzerfreundlicher Handabtaster und Steuerungsverfahren dafür für Sehbehinderte vorteilhaft sein.
  • [Technische Lösung]
  • Die vorliegende Erfindung dient dazu, zur Erfüllung dieser Aufgaben einen Handabtaster zu schaffen, der Folgendes umfasst: einen Abtastungsabschnitt, der Feldbilder von einem Objekt erfasst und Abstand, Richtung und Drehung der Abtasterbewegung verfolgt;
    und eine Steuereinheit, die mit dem Abtastungsabschnitt verbunden ist, und in der anhand von Signalen vertikaler Synchronisation, Belichtung und Licht in Kombination mit relevanten Bewegungsdaten Feldbilder zusammengefügt werden, um ein Seitenbild zu erzeugen;
    und ein Bedienfeld, das mit der Steuereinheit verbunden ist, um das Abtasten zu starten und zu beenden;
    und einen Ausgabeabschnitt, der auf einen Befehl entweder vom Bedienfeld oder einem Computer anspricht und verarbeitete Daten in einer passenden Form exportiert: Text, Audio oder Video;
    und einen Speicher, der mit der Steuereinheit verbunden ist und Feldbilder und Bewegungsdaten speichert.
    Bei diesem Abtaster weist der Abtastungsabschnitt ein Fenster auf, in dem eine transparente Platte die Größe des Abtastbereichs begrenzt;
    und ein Gehäuse, das das Fenster an seinem Boden sichert und verhindert, dass Licht von außen eindringt;
    und ein Kameramodul, das in dem Gehäuse angeordnet ist und in einem bestimmten Arbeitsabstand von einem Objekt durch ein im Voraus festgelegtes Array von Pixeln in Reihen und Spalten Feldbilder abtastet;
    und eine Lichtquelle, die ebenfalls im Gehäuse angeordnet ist und die ein Objekt für einen bestimmten Zeitraum beleuchtet, der von der Steuereinheit bestimmt wird;
    und einen Navigationssensor, der im Inneren des Gehäuses angeordnet ist und den Abstand und die Richtung der Abtasterbewegung zu einem annähernden Feldbild erkennt. Der Navigationssensor umfasst einen oder mehrere von einem Sensor einer optischen Maus, einem Sensor einer Kugelmaus, einem Beschleunigungssensor und einem Kreiselsensor.
    Vorzugsweise sind zwei Navigationssensoren separat voneinander am Fenster und entweder an einer unteren, mittleren oder oberen Seite installiert.
  • Um Nachbilder zu reduzieren, die durch die Bewegung des Abtastungsabschnitts induziert werden, sind das Synchronisationssignal und die Belichtungszeit, die im vorliegenden Abtaster verwendet werden, identisch mit denen handelsüblicher Kameras, während die Beleuchtung in Reaktion auf die Belichtungszeit 2 ms oder kürzer dauert.
  • Die Steuereinheit aktiviert das Kameramodul, damit es ein Objekt im kontinuierlichen Betrieb 2 ms oder kürzer mit der Lichtquelle belichtet.
  • Steuerungsverfahren für die vorliegende Erfindung, wobei die Vorrichtung Folgendes umfasst:
    eine Steuereinheit, die mit dem Abtastungsabschnitt verbunden ist, und in der anhand von Signalen vertikaler Synchronisation, Belichtung und Licht in Kombination mit relevanten Bewegungsdaten Feldbilder zusammengefügt werden, um ein Seitenbild zu erzeugen;
    und ein Bedienfeld, das mit der Steuereinheit verbunden ist, um das Abtasten zu starten und zu beenden;
    und einen Ausgabeabschnitt, der auf einen Befehl entweder vom Bedienfeld oder einem Computer anspricht und verarbeitete Daten in einer passenden Form exportiert: Text, Audio oder Video;
    und einen Speicher, der mit der Steuereinheit verbunden ist und Feldbilder und entsprechende Daten speichert;
    und anhand der folgenden Schritte programmiert wird: der erste Schritt beginnt, wenn die Steuereinheit einen Befehl zum Abtasten empfängt und alle Variablen einschließlich Abstand, Richtung und Drehung des Abtastungsabschnitts initialisiert;
    und im zweiten Schritt analysiert die Steuereinheit Bewegungsdaten zu Abstand, Richtung und Drehung vom Abtastungsabschnitt und prüft wiederholt, ob eine Überlagerung zwischen dem aktuellen Feldbild und dem vorherigen Feldbild eine bestimmte Größe überschreitet;
    wenn die Überlagerung außerhalb eines bestimmten Bereichs liegt, wird im dritten Schritt ein Signal zum Abtasten an die Lichtquelle des Abtastungsabschnitts übertragen, woraufhin ein Feldbild zusammen mit Bewegungsdaten desselben zu Abstand, Richtung und Drehung erfasst, die im Speicher gespeichert werden;
    wenn kein Abbruchbefehl empfangen wird, kehrt der Prozess zum zweiten Schritt zurück; anderenfalls fährt er fort mit dem vierten Schritt, wenn die Steuereinheit einen solchen Befehl empfängt, in dem die Feldbilder zusammengefügt werden.
  • Das Zusammenfügen von Feldbildern läuft normalerweise anhand der folgenden Schritte ab: im ersten Schritt initialisiert die Steuereinheit die Variable n und weist einen Puffer zum Speichern zusammengefügter Bilder zu;
    im zweiten Schritt werden das (n – 1)te und das n-te Feldbild aus dem Speicher geladen, und außerdem werden die Bewegungsdaten zu Abstand und Richtung in Koordinaten umgewandelt;
    sodann wird die Drehung des n-ten Feldbildes anhand der Neigung, die aus den einzelnen Koordinaten von den zwei Navigationssensoren abgeleitet wird, ausgeglichen;
    im vierten Schritt führt die Steuereinheit eine primäre Zusammenfügung durch, wobei die Feldbilder an den entsprechenden Koordinaten positioniert werden;
    im fünften Schritt wird ein Korrelationsalgorithmus angewandt, um Mikroanpassungen an der Überlagerung zwischen dem (n – 1)ten und dem n-ten Feldbild durchzuführen; der Prozess kehrt zum zweiten Schritt zurück, wenn ein weiteres Feldbild zum Zusammenfügen vorliegt, wobei die Variable n um 1 erhöht wird; anderenfalls endet er beim sechsten Schritt.
  • [Vorteile]
  • Die vorliegende Erfindung vereinfacht den Abtastungsprozess, wobei der Handabtaster Feldbilder zusammenfügt, die direkt vom Abtastungsabschnitt erfasst werden. Der Vorteil davon liegt in der erhöhten Präzision der Positionierung von Pixeln und der erhöhten Datenverarbeitungsgeschwindigkeit, insbesondere für industrielle Zwecke.
  • Außerdem ist die vorliegende Erfindung dazu in der Lage, die Größe des Fensters, das die Abtastung durchführt, derjenigen des Gehäuses anzunähern, wenn eine physische Störung des Abtasters stattfindet.
  • Ferner ist die vorliegende Erfindung dazu in der Lage, unebene Flächen abzutasten, und die Größe des Abtasters kann mithilfe eines Beschleunigungssensors und eines Kreiselsensors, deren Anbringung einstellbar ist, reduziert werden.
  • Auch kann die vorliegende Erfindung ohne Schwierigkeit von Sehbehinderten benutzt werden, da die Abtastbereiche nicht eingeschränkt sind.
  • Die vorliegende Erfindung verhindert das Eindringen von Außenlicht, und die mikrogesteuerte Belichtung reduziert als Folge davon entstehende Nachbilder auf ein Minimum, um die Qualität der abgetasteten Bilder zu erhöhen. Dies minimiert auch die für den Betrieb erforderliche Leistungsaufnahme.
  • Die vorliegende Erfindung benötigt kein hochauflösendes Kameraobjektiv, keinen Autofokus, keine Bildstabilisation und keine Hintergrundlichtkorrektur, wodurch die Herstellungskosten gesenkt werden können. Sie verwendet außerdem digitale Bildverarbeitung, um Feldbilder, die direkt von einer üblichen Kamera abgetastet werden, zusammenzufügen, um die unnötige Datenverarbeitung zu eliminieren.
  • Die vorliegende Erfindung ist für Sehbehinderte vorteilhaft, da sie ohne fokussiert werden zu müssen, und ohne Störungen durch Außenlicht unebene Objekte abtasten kann.
  • Mithilfe der vorliegenden Erfindung kann die Ausschussrate gesenkt werden und die Produktivität kann durch die reduzierte Anzahl von Datenverarbeitungen erhöht werden, wobei die Kamera ein Objekt in Form von Feldbildern direkt erfasst.
  • Die vorliegende Erfindung kann dank der geringeren Anzahl von Berechnungen, wobei ein Objekt als Feldbilder abgetastet wird, mit einer Steuereinheit von durchschnittlicher Leistung und geringerer Speicherkapazität betrieben werden.
  • [Beschreibung der Zeichnungen]
  • Nachdem die Erfindung in allgemeinen Begriffen beschrieben wurde, soll nun auf die begleitenden Zeichnungen Bezug genommen werden, die nicht zwingend maßstabsgetreu sind, und worin:
  • 1 eine Diagrammansicht ist, die die Bauteile eines Handabtasters gemäß dem Stand der Technik darstellt.
  • 2 ein Ablaufdiagramm für die Verarbeitung abgetasteter Bilddaten gemäß dem Stand der Technik ist.
  • 3 ein Diagrammblock ist, der die Bauteile eines Handabtasters gemäß einer Ausführungsform der Erfindung darstellt.
  • 4 eine Diagrammansicht ist, die die Bauteile des Handabtasters aus 3 gemäß einer Ausführungsform der Erfindung darstellt.
  • 5 ein Taktungsdiagramm ist, wobei die Lichtquelle während des konstanten Belichtungssignals gesteuert wird, gemäß einer Ausführungsform der Erfindung.
  • 6 ein Taktungsdiagramm ist, wobei das Belichtungssignal bei konstant eingeschalteter Lichtquelle gesteuert wird, gemäß einer Ausführungsform der Erfindung.
  • 7 ein Ablaufdiagramm für die Verarbeitung abgetasteter Bilddaten gemäß einer Ausführungsform der Erfindung ist.
  • 8 eine schematische Ansicht ist, die den Status von Bildern während des Zusammenfügens gemäß einer Ausführungsform der Erfindung darstellt.
  • 9 ein Ablaufdiagramm eines Steuerungsverfahrens für einen Handabtasters gemäß einer Ausführungsform der Erfindung ist.
  • 10 ein Ablaufdiagramm des Prozesses für das Feldbildzusammenfügen zum Erstellen eines Seitenbildes ist.
  • [Modus der Ausführung der Erfindung]
  • Alle hierin genannten Beispiele und bedingenden Ausdrücke dienen zu lehrenden Zwecken, um den Leser beim Verständnis der Grundgedanken der Erfindung und den vom Erfinder gebotenen Konzepte zur Förderung des Stands der Technik zu unterstützen, und sind daher als nicht eingeschränkt durch diese genannten Beispiele und Bedingungen auszulegen; auch zeigt die Anordnung dieser Beispiele in der Beschreibung keine Überlegenheit oder Unterlegenheit der Erfindung. Obwohl die Ausführungsformen der vorliegenden Erfindung im Detail beschrieben werden, versteht es sich, dass verschiedene Änderungen, Ersetzungen und Abwandlungen daran vorgenommen werden können, ohne vom Geist und Umfang der Erfindung abzuweichen. Auch wird auf alle Erläuterungen oder Darstellungen, die vom Hauptgedanken der Erfindung ablenken können, verzichtet, um unnötige Verwirrung zu vermeiden.
  • Eine Digitalkamera erfasst Bilder in Einzelbildern; ein Einzelbild umfasst ein Array aus Pixeln in Reihen und Spalten; das vertikale Synchronisationssignal reguliert die aufeinanderfolgende Aktivierung aller Pixel, und das horizontale Synchronisationssignal reguliert die horizontale Aktivierung linearer Pixel.
  • Die Belichtungszeit bezeichnet die Zeitspanne, während der ein Objekt unter Steuerung des horizontalen Synchronisationssignals erfasst wird; und die Lichtzeit ist die Zeitspanne, während der die Lichtquelle das Objekt beleuchtet, wenn nicht genügend Licht vorhanden ist.
  • Je länger die Lichtzeit ist, desto klarer wird aufgrund der großen Menge an Licht normalerweise das erfasste Bild. Allerdings hinterlässt ein bewegtes Objekt in einem solchen Fall Nachbilder.
  • Es gibt zwei Arten von Steuerungsverfahren für eine Digitalkamera; ein rollender Verschluss steuert die Belichtungszeit von aufeinanderfolgenden linearen Anordnungen von Pixeln; und ein globaler Verschluss steuert die Belichtungszeit aller linearen Anordnungen von Pixeln zu einem jeweiligen Zeitpunkt.
  • Der rollende Verschluss ist einfach in der Steuerung und Konfiguration, führt jedoch zu unscharfen Momentaufnahmen. Der globale Verschluss dagegen ist in der Steuerung und Konfiguration komplex, kann jedoch eine klare Momentaufnahme erzielen.
  • Unter lichtlosen Bedingungen identifiziert eine Kamera die Bilddaten zum reflektierten Licht, das ursprünglich von der Lichtquelle abgegeben wurde. Die gesteuerte Lichtzeit kann dabei die Auflösung des erfassten Bildes verbessern.
  • Bei einer Digitalkamera ist das Belichtungssignal die Zeitspanne, während der die Kamera ein Objekt erfasst, und das Lichtsignal ist die Zeitspanne, während der die Lichtquelle das Objekt beleuchtet.
  • Die linearen Pixelarrays, die ein Objekt einzelbildweise erfassen, beinhalten einvertikales Synchronisationssignal, das die vertikale Aktivierung der Pixelanordnungen aufeinanderfolgende reguliert, und ein horizontales Synchronisationssignal, das die sequenzielle Aktivierung der Pixelanordnungen reguliert.
  • Das heißt, eine Digitalkamera erfasst ein Bild, wenn die Kamera sowohl mit dem vertikalen als auch horizontalen Synchronisationssignal aktiviert wird.
  • Je länger das Lichtsignal, desto klarer ist aufgrund der großen Lichtmenge im Allgemeinen das erfasste Bild, wobei das bewegte Objekt allerdings Nachbilder hinterlässt.
  • In der Beschreibung der Erfindung ist die Abtastung synonym mit der Erfassung gebraucht, wie der Leser im Zusammenhang verstehen wird. Ferner ist der Begriff Überlagerung synonym mit Überlappung, wie der Leser im Zusammenhang verstehen wird.
  • 3 ist eine Diagrammansicht, die die Bauteile eines Handabtasters gemäß einer Ausführungsform der Erfindung darstellt.
  • Unter detaillierter Bezugnahme auf die begleitende Zeichnung weist der Handabtaster einen Abtastungsabschnitt 100, eine Steuereinheit 110, ein Bedienfeld 120, einen Speicher 130, einen Ausgabeabschnitt 140 und einen Computer oder USB-Speicher 150 auf.
  • Der Abtastungsabschnitt 100 erfasst aufeinanderfolgend Feldbilder, während er sich über die Fläche eines Objekts bewegt, und berechnet Bewegungsdaten zu Abstand, Richtung und Drehung. Der Abtastungsabschnitt 100 umfasst ein Fenster 101, ein Gehäuse 103, ein Kameramodul 105, eine Lichtquelle 107 und einen Navigationssensor 109.
  • Das Fenster 101 begrenzt einen Abtastbereich eines Feldbildes von einem Objekt oder Bild (im Folgenden als „Objekt” bezeichnet) und besteht aus einem transparenten Material.
  • Das Gehäuse 103 sichert das Fenster an seinem Boden und verhindert, dass Licht von außen eindringt.
  • Das Kameramodul 105 ist im Gehäuse angeordnet und erfasst durch das Fenster Feldbilder, wenn diese dem Array aus vertikalen und horizontalen Pixel ausgesetzt werden, und sorgt für einen bestimmten Arbeitsabstand zwischen dem Kameramodul 105 und dem Objekt.
  • Das heißt, die Steuereinheit 110 reguliert den Betrieb; das Lichtsignal gestattet es der Lichtquelle 107, ein Objekt zu beleuchten; und das Kameramodul 105 tastet das Objekt in Reaktion auf das Belichtungssignal durch das Fenster 101 feldbildweise ab.
  • Die Lichtquelle 107 ist im Gehäuse 103 angeordnet und beleuchtet ein Objekt für eine bestimmte Zeitspanne in Reaktion auf das Lichtsignal von der Steuereinheit 110.
  • Der Navigationssensor 109 ist im Gehäuse 103 angeordnet und verfolgt die Bewegung des Abtastungsabschnitts 100 zu Abstand, Richtung und Drehung, bis die Vorrichtung das nächste Feldbild erreicht; und der Navigationssensor 109 ist mit einem oder mehreren von einem Sensor einer optischen Maus, einem Sensor einer Kugelmaus, einem Beschleunigungssensor und einem Kreiselsensor ausgestattet, von denen vorzugsweise zwei separat voneinander an dem Fenster 101 angeordnet sind, deren Anbringung entweder an der oberen, mittleren oder unteren Seite sein kann.
  • Das heißt, es können mehrere Navigationssensoren 109 vorhanden sein, wobei zwei wünschenswert sind, um die Genauigkeit der Bewegungsdaten von der Vorrichtung sicherzustellen. Ferner wird empfohlen, einen Sensor einer Kugelmaus und einen Sensor einer optischen Maus an der Unterseite anzubringen, während ein Beschleunigungssensor und ein Kreiselsensor einstellbar positioniert sind.
  • Die Steuereinheit 110, die mit dem Abtastungsabschnitt 100 verbunden ist, überträgt Synchronisationssignale, ein Belichtungssignal und ein Lichtsignal, erfasst Feldbilder zusammen mit Bewegungsdaten zu Abstand, Richtung und Drehung und fügt die Feldbilder dann zusammen, um ein vollständiges Seitenbild zu erzeugen. Wenn der Abtastungsabschnitt 100 sich bewegt und das Kameramodul 105 im Gehäuse 103 ein Bild erfasst, sendet die Steuereinheit 110 ein Lichtsignal an die Lichtquelle 107, um ein Objekt für 2 ms oder kürzer zu beleuchten, und benutzt dabei ein vertikales Synchronisationssignal und ein Belichtungssignal, die denjenigen einer üblichen Kamera identisch sind, um auf diese Weise unvermeidliche Nachbilder zu minimieren. In einem anderen Beispiel erlaubt es die Steuereinheitl 10 mit aktiver Lichtquelle 107 dem Kameramodul 105, die Abtastung unter dem Belichtungssignal für 2 ms oder kürzer durchzuführen.
  • Wenn Leistung bereitgestellt wird, initialisiert die Steuereinheit 110 jede Variable (Parameter) einschließlich der Variable n und reguliert jeden Abschnitt mittels digitaler Signale. In Reaktion auf einen Startbefehl vom Bedienfeld 120 aktiviert die Steuereinheit 110 den Abtastungsabschnitt 100, der das Kameramodul 105, die Lichtquelle 107 und den Navigationssensor 109 umfasst; und das Kameramodul 105 tastet ein Bild ab, während das vertikale Synchronisationssignal synchron zum Belichtungssignal (horizontalen Synchronisationssignal) ist.
  • Das Kameramodul 105 beginnt mit dem Abtasten, wenn es sowohl das vertikale Synchronisationssignal als auch das Belichtungssignal (horizontale Synchronisationssignal) empfängt, um ein Bild in einem Arbeitsabstand abzutasten und in ein Digitalsignal umzuwandeln.
  • Der Arbeitsabstand bezeichnet einen Abstand von einem Objekt zur Brennweite des Kameramoduls 105. In diesem Fall kann das Kameramodul 105 ein Objekt abtasten, das geringfügig außerhalb des Arbeitsabstands ist.
  • Die Steuereinheit 110 überträgt das Lichtsignal synchron zum vertikalen Synchronisationssignal an die Lichtquelle 107. Der Navigationssensor 109 exportiert, gesteuert von der Steuereinheit 110, Bewegungsdaten zu Abstand und Richtung gemäß dem vertikalen Synchronisationssignal.
  • Die Steuereinheit 110 verarbeitet die vom Navigationssensor 109 erzeugten Bewegungsdaten, prüft, ob die Überlagerung zwischen dem aktuellen Feldbild und dem vorherigen (n – 1) Feldbild eine bestimmte Größe übersteigt und sendet das Belichtungssignal erneut an das Kameramodul 105 und das Lichtsignal an die Lichtquelle 107, um ein neues (n) Feldbild an der aktuellen Position zu erfassen.
  • Das erfasste Feldbild, dem die relevanten Bewegungsdaten zugewiesen wurden, wird in einem zugeteilten Puffer des Speichers 130 gespeichert; dieser Prozess wird wiederholt, während die Variable n aktualisiert wird.
  • Wenn die Steuereinheit 110 einen Abbruchbefehl über das Bedienfeld 120 empfängt, deaktiviert sie den Abtastungsabschnitt 100 und führt eine primäre Zusammenfügung durch, während sie Schrägen (Neigungen) einschließlich Drehung und Bewegung zu Richtung und Abstand der Feldbilder anhand der Bewegungsdaten ausgleicht; sodann führt die Steuereinheit 110 Mikroanpassungen an der Überlagerung durch, indem sie den Korrelationsalgorithmus anwendet, wobei es sich um das sekundäre Zusammenfügen handelt.
  • Das heißt eine Vielzahl von Feldbildern werden durch einen primären und einen sekundären Zusammenfügungsprozess zusammengefügt, um ein Seitenbild zu bilden.
  • Die Steuereinheit 110 speichert und reguliert alle Feldbilder und zusammengefügten Feldbilder in einem zugewiesenen Puffer des Speichers 150.
  • Wenn die Bildzusammenfügung abgeschlossen ist, kann die Steuereinheit 110 in Reaktion auf einen Befehl, der über das Bedienfeld 120 oder einen Computer 150 empfangen wird, eine optische Zeichenerkennung (OCR), Sprachübersetzung und Text-Sprach-Umwandlung (TTS) durchführen, und überträgt die Ausgabedaten an die jeweilige Komponente des Ausgabeabschnitts 140.
  • Das Bedienfeld 120, das mit der Steuereinheit 110 verbunden ist, umfasst eine Vielzahl von Tasten, die jeweils einen Befehl für den Start oder Abbruch der Abtastung, optischen Zeichenerkennung (OCR), Sprachübersetzung oder Text-Sprach-Umwandlung (TTS) senden.
  • Der Speicher 130, der mit der Steuereinheit 110 verbunden ist, umfasst ROM, RAM usw., in denen die Feldbilder, Bewegungsdaten und zusammengefügten Seitenbilder gespeichert werden. Er dient auch als Pufferspeicher.
  • Der Ausgabeabschnitt 140 exportiert Daten, die von der Steuereinheit 110 verarbeitet wurden, in einer passenden Form, nämlich Text, Audio oder Video. Er umfasst eine Anzeige 142, einen Audioausgang 144 und eine Schnittstelle (146) (I/F).
  • Die Anzeige 142 visualisiert die Daten der Feldbilder oder zusammengefügten Seitenbilder, die von der Steuereinheit 110 reguliert werden. Sie wandelt auch die Textdaten in ein akustisches Signal um, das durch den Audioausgang 144 als ein hörbarer Ton an den Benutzer exportiert wird.
  • Die Schnittstelle 146 importiert und exportiert Feldbilder, zusammengefügte Seitenbilder, umgewandelte akustische Daten usw. in Interaktion mit externen Vorrichtungen. Beispielsweise kann die Schnittstelle mit mehreren Peripheriegeräten wie etwa einem Computer 160, einem USB(Universal Serial Bus)-Speicher oder einem Monitor verbunden sein, um die Daten in passender Form zu exportieren. Im Falle eines Computers 160 sind diverse Anwendungen verfügbar, um die Steuereinheit 110 zu regulieren und Variablen (Parameter) anzupassen.
  • In einer Ausführungsform der vorliegenden Erfindung ist 4 ein Aufbaudiagramm, das den Abtastungsabschnitt 140 aus 3 im Detail darstellt.
  • Unter detaillierter Bezugnahme auf die begleitende Zeichnung besteht der Abtastungsabschnitt 100 aus einem Fenster 101, einem Gehäuse 103, einem Kameramodul 105, einer Lichtquelle 107 und einem Navigationssensor 109.
  • Das Fenster 101 gleitet auf der Oberfläche eines Objekts 200 und begrenzt die Größe eines Abtastbereichs 210. In einer Ausführungsform der vorliegenden Erfindung ist das Fenster aus einem transparenten Material hergestellt, wobei seine Größe annähernd die des Gehäuses 103 ist, um den blinden Fleck zu minimieren, an dem der Abtastungsabschnitt 100 auf physische Hindernisse wie Bindungen oder Knicke trifft.
  • Wenn der Abtastungsabschnitt 100 sich über eine Buchseite bewegt, kann er nicht weiter abtasten, wenn ein Ende des Gehäuses 103 die Bindung erreicht. An diesem Punkt führt der Abstand zwischen dem Ende des Gehäuses 103 und dem Abtastbereich 210 zwangsläufig zu einem blinden Fleck, an dem das Abtasten unmöglich ist.
  • Der Vorteil der vorliegenden Erfindung ist der, dass dieses Verfahren derartige blinde Flecken minimieren kann, während der übliche Abtaster den Zeilenbildsensor in einem bestimmten Abstand vom Gehäuse separieren muss, wodurch ein blinder Fleck erzeugt wird.
  • Das Gehäuse 103 blockiert das Eindringen von Außenlicht in das Kameramodul 105 und dient als Gestell (Rahmen), in dem das Kameramodul 105, die Lichtquelle 107 und der Navigationssensor 109 angebracht sind.
  • Auf diese Weise gelangt kein Außenlicht in das Gehäuse 103, und das Kameramodul 105 nutzt beim Abtasten ausschließlich das von der Lichtquelle 107 abgegebene Licht.
  • Das Kameramodul 105 wird in einem bestimmten Arbeitsabstand von einem Objekt 200 gehalten, das durch das Fenster 101 sichtbar ist, und ist an einer vorgegebenen Position im Gehäuse 103 angeordnet, um ein Feldbild innerhalb des Abtastbereichs 210 zu erfassen. Das Kameramodul 105 besteht aus Elementen wie einem CMOS oder CCD und wird durch das vertikale Synchronisationssignal und das Belichtungssignal von der Steuereinheit 110 aktiviert, um ein Feldbild im Abtastbereich 210 zu erfassen.
  • Das Fenster 101 begrenzt einen Bereich von bestimmter Breite und Länge, so dass das Kameramodul 105 jeweils ein Feldbild auf einmal abtasten kann.
  • Die vorliegende Erfindung erhöht die Abtasteffizienz und Genauigkeit der Pixelpositionierung an einem Feldbild wesentlich gegenüber dem üblichen Verfahren, wobei der Zeilenbildsensor ein Bild durch eine lineare Pixelgruppe erfasst, die in der vorliegenden Erfindung einer Breite eines Feldbilds entspricht.
  • Ein Arbeitsabstand ist ein linearer Abstand von entweder dem Fenster 101 oder einem Objekt 200 zur Brennweite des Kameramoduls 105. Währenddessen kann das Kameramodul 105, gesteuert von der Steuereinheit 110, auch ein Objekt 200 erfassen, das etwas außerhalb des Arbeitsabstands 200 liegt.
  • Wenn das Kameramodul 105 einen vom Fenster 101 begrenzten Feldbildbereich 210 erfasst, besteht der wesentliche Vorteil, dass dieses Verfahren einen größeren Bereich auf einmal abtasten kann als der übliche Zeilenbildsensor, und Feldbilder in der Nähe der Bindung eines Buches präzise erfasst.
  • Die Lichtquelle 107 ist an einer bestimmten Position innerhalb des Gehäuses 103 angeordnet, um ein Objekt 200 mit Licht zu versorgen. Obwohl sie mit einer LED oder einer Lampe ausgestattet sein kann, wird empfohlen, dass die Lichtquelle einen bestimmten Typ von LED umfasst, der eine kompakte Größe, hohe Leistungsdichte und hohe Helligkeit bereitstellt, damit sie bei geringer Leistungsaufnahme eine ausreichende Menge Licht abgibt. Dieses LED kann mehrere enthalten, damit das Kameramodul 105 ein Objekt erfassen kann. Die Lichtquelle beleuchtet ein Objekt in Reaktion auf ein Lichtsignal von der Steuereinheit 110. Ihre Anbringung sollte die Position berücksichtigen, an der der gesamte Abtastbereich 210 eine gleichmäßig starke Beleuchtung erhält.
  • Um Nachbilder zu minimieren, wenn der Abtastungsabschnitt 100 sich auf ein Objekt bewegt, um aufeinanderfolgende Feldbilder zu erfassen, gibt die Lichtquelle 107 gemäß einem Lichtsignal von der Steuereinheit 110 Licht für eine kurze Zeitspanne ab oder stellt die Beleuchtung kurz ein. Mittels dieses Vorgangs können hoch aufgelöste Bilder ohne starke Nachbilder erzielt werden. Dies ist ebenfalls einer der Vorteile, den die vorliegende Erfindung bereitstellt.
  • Der Navigationssensor 109, der einen oder mehrere von einem Sensor einer optischen Maus, einem Sensor einer Kugelmaus, einem Beschleunigungssensor und einem Kreiselsensor umfasst, exportiert Daten zu Abstand, Richtung und Drehung des Abtastungsabschnitts 100.
  • Der Navigationssensor 109 kann an einer oberen, mittleren oder unteren Seite des Gehäuses 103 angebracht sein.
  • In einer Ausführungsform der vorliegenden Erfindung überträgt der Sensor einer optischen Maus oder der Sensor einer Kugelmaus, falls gewählt, ein Digitalsignal zur einfachen Datenverarbeitung, weist jedoch den Nachteil auf, dass der Sensor an der Unterseite des Gehäuses 102 angebracht sein muss, und damit der Sensor mit einem Objekt in Kontakt gelangen kann, muss die Unterseite vergleichsweise groß sein, und der Sensor kann die Bewegungsdaten nicht mehr exportieren, wenn er von der Erstreckung eines Objekts abweicht.
  • Die Verwendung eines Geschwindigkeitssensors oder eines Kreiselsensors erlaubt es, die Anbringung anzupassen. Allerdings ist das exportierte Signal analog, so dass zusätzliche komplexe Verarbeitung erforderlich ist. Der Sensor arbeitet aufgrund der einstellbaren Anbringungsposition auch ohne direktes Berühren eines Objekts, so dass der Abtastungsabschnitt 100 verkleinert werden kann, wodurch das Gerät besser tragbar wird. Er gestattet auch eine Abtastung, wenn der Sensor von der Spanne des Objekts abweicht, und vergrößert so den Abtastbereich.
  • Für eine verbesserte Genauigkeit der Bewegungsdaten ist es wünschenswert, eine Vielzahl von Navigationssensoren 109 zu installieren, von denen vorzugsweise zwei separat voneinander im Gehäuse 103 positioniert sind.
  • Das Gehäuse 103 kann zwei separate Rahmen aufweisen: einen zum Schutz vor äußeren Lichtquellen und einen zum Anbringen des Navigationssensors 109.
  • Gesteuert von der Steuereinheit 110 erfasst der oben beschriebene Abtastungsabschnitt 100 Feldbilder nach dem Abtastbereich 210, wenn er an einem Objekt arbeitet.
  • Durch das Abtasten eines Objekts 200 nach dem Abtastbereich 210 erhöht die vorliegende Erfindung die Geschwindigkeit und Genauigkeit des Prozesses gegenüber dem üblichen Verfahren, das vom Zeilenbildsensor 30, einer linearen Pixelanordnung abhängt.
  • Die Steuereinheit aktiviert den Abtastungsabschnitt 100, um von Abtastbereichen 210 aufeinanderfolgenden Feldbilder zu erfassen, während sie über ein Objekt gleitet, und den Navigationssensor 109, damit dieser Bewegungsdaten exportiert. Dann fügt sie die Feldbilder entsprechend den Koordinaten zusammen, die aus den Bewegungsdaten hergeleitet wurden, um ein Seitenbild zu erstellen.
  • In einer Ausführungsform der vorliegenden Erfindung zeigt 5 ein Taktungsdiagramm, das die Regulierung des Lichtsignals zusammen mit dem allgemeinen Belichtungssignal von einer üblichen Kamera darstellt. 6 ist eine weitere Ausführungsform der vorliegenden Erfindung ein Taktungsdiagramm, wobei das Belichtungssignal gesteuert wird, während die Lichtquelle kontinuierlich eingeschaltet ist.
  • Detailliert Bezug nehmend auf die begleitenden Diagramme betreffen 5 und 6 eine Ausführungsform der vorliegenden Erfindung, wobei die reduzierte Zeitspanne, die der Lichtsensor belichtet wird, Nachbilder minimiert, wenn der Abtastungsabschnitt 100 auf ein Objekt gleitet.
  • Ein Bild fällt auf die einzelnen Pixel, die die Kamera aufbauen, wenn sowohl ein vertikales Synchronisationssignal als auch ein horizontales Synchronisationssignal (Belichtungssignal) vorliegen.
  • Als allgemeine Funktionsweise für das Kameramodul 105 aktiviert das vertikale Synchronisationssignal das Einzelbild (das hier dem Feldbild entspricht) des Kameramoduls 105, und das Belichtungssignal ist ein Signal, während dessen Dauer ein Bild auf den Bildsensor fällt. Wenn das vertikale Synchronisationssignal angewandt wird, gefolgt von einer bestimmten Verzögerung (t2), wird das Belichtungssignal für die Belichtungszeitspanne (t3) aktiviert; während dieser gesamten Zeitspanne fällt ein Bild auf den Bildsensor und erzeugt Nachbilder in Entsprechung zur Belichtungszeitspanne (t3), multipliziert mit der Gleitgeschwindigkeit des Abtastungsabschnitts 100.
  • Die Länge der induzierten Nachbilder lässt sich aus der folgenden Gleichung herleiten.
  • [Gleichung]
    • ΔL = v·t3
  • Dabei steht v für die Geschwindigkeit (mm/Sek), t3 die Belichtungszeitspanne (Sekunden) und ΔL die Länge der Nachbilder (mm).
  • Um diese Nachbilder zu minimieren, sollte die Belichtungszeitspanne t3 gesenkt werden, da die Geschwindigkeit v vollständig vom Benutzer abhängig ist.
  • t1 bezeichnet die vertikale Synchronisationszeitspanne, also die Zeitspanne zum Erfassen eines Einzelbildes (hier Feldbildes).
  • Das Lichtsignal der vorliegenden Erfindung wird von der Steuereinheit 110 übertragen, um erforderliches Licht von der Lichtquelle 107 bereitzustellen, wenn das Kameramodul 105 im Gehäuse 103 in Betrieb ist.
  • Die vorliegende Erfindung sieht zwei Betriebsmodi vor: einen Momentaufnahmemodus und einen Reihenaufnahmemodus. Der Momentaufnahmemodus exportiert ein Steuersignal für das Kameramodul 105, damit dieses nur bei Bedarf arbeitet. Der Reihenaufnahmemodus aktiviert das Kameramodul 105 mit einer bestimmten Frequenz und speichert nur ein gewünschtes Bild, während die übrigen verworfen werden.
  • Die Bewegungsdaten vom Navigationssensor 109 dienen dazu, zu entscheiden, warm eine Erfassung stattfinden soll, was im Folgenden detaillierter beschrieben werden soll.
  • Weiterhin Bezugnehmend auf 5 sind die vertikale Synchronisationszeitspanne und die Belichtungszeitspanne t3 des Kameramoduls 105 mit denen einer üblichen Kamera identisch, während die Lichtzeitspanne t4 der Lichtquelle 107 minimiert ist, um die Belichtungszeitspanne t3 zu minimieren, so dass vollkommene Dunkelheit im Gehäuse 103 herrscht, während die Lichtquelle 107 ausgeschaltet ist.
  • 6 demonstriert, wie allein die Belichtungszeitspanne t3 des Kameramoduls 105 minimiert wird.
  • Es ist somit wünschenswert, dass nur für eine sehr kurze Zeitspanne eine große Menge Licht vorhanden ist.
  • Wenn der Handabtaster sich beispielsweise mit einer Geschwindigkeit von 50 mm/Sek. bewegt, werden bei einer Voreinstellung der Belichtungszeitspanne t4 auf 2 ms Nachbilder einer Länge von L = v·t4 = 50·0,002 = 0,1 (mm) erzeugt.
  • Der Abtaster bewegt sich mit der Geschwindigkeit von 50 mm/Sek. innerhalb von 4 Sekunden über die Breite eines A4-Blattes.
  • Bei Zeitungen erstreckt sich ein Zeichen über etwa 0,25 mm, von denen 0,1 mm etwa bis zu 40% ausmachen, so dass die Vorrichtung ohne Schwierigkeiten eine Zeichenerkennung ausführen kann. Je kürzer die Belichtungszeitspanne t4, desto kürzer werden die Nachbilder.
  • In einer Ausführungsform der vorliegenden Erfindung ist 7 ein Ablaufdiagramm, das die Verarbeitung von abgetasteten Bilddaten zeigt.
  • Unter detaillierter Bezugnahme auf die begleitende Zeichnung besteht der Vorgang der Datenverarbeitung aus zwei Schritten: dem Abtasten (S310) und dem Zusammenfügen (S320).
  • Im Abtastungsschritt (S310) erfasst das Kameramodul 105 mithilfe seiner vertikalen und horizontalen Pixel ein Feldbild (S312) einer bestimmten Breite 212 und Länge 214. Der Navigationssensor 109 exportiert Bewegungsdaten zu Abstand, Richtung und Drehung und wandelt das Ergebnis in Koordinaten um (S314). Dann werden alle Informationen nacheinander im Feldbildpuffer gespeichert (S316).
  • Im Zusammenfügeschritt (S320) wird durch Zusammenfügen der Feldbilder anhand der im Feldbildpuffer gespeicherten Koordinaten ein Seitenbild fertiggestellt (S322).
  • Die vorliegende Erfindung kommt ohne Zeilenbildzusammenfügen aus, das im Verfahren des Stands der Technik die Datenverarbeitung verlangsamt.
  • Außerdem lässt sich aufgrund der reduzierten Anzahl von Datenverarbeitungsvorgängen die Anzahl von Systemfehlern wesentlich senken, und die Präzision der Pixelpositionierung kann erhöht werden.
  • In einer weiteren Ausführungsform der Erfindung zeigt 8 ein Diagramm, das die Schritte zum Zusammenfügen von abgetasteten Feldbildern darstellt.
  • Unter detaillierter Bezugnahme auf die begleitende Zeichnung gleitet der Abtastungsabschnitt 100 auf ein Objekt 200, um im Abtastungsschritt (S310) ein Bild zu erfassen, wobei 8-a den ersten abgetasteten Bereich 210-1, den zweiten abgetasteten Bereich 210-2 und den dritten abgetasteten Bereich 210-3 zeigt.
  • Der zweite abgetastete Bereich 210-2 wird nach der horizontalen Bewegung um dX1 und der vertikalen Bewegung um dY1 in Bezug auf den ersten abgetasteten Bereich 210-1 aus erfasst.
  • Der dritte abgetastete Bereich 210-3 wird nach der horizontalen Bewegung um dX2, der vertikalen Bewegung um dY2 und der Drehung θ in Bezug auf den zweiten abgetasteten Bereich 210-2 erfasst.
  • Außerdem werden zwischen den einzelnen abgetasteten Bereichen Überlagerungen 210-4 und 210-5 von bestimmter Größe erzeugt, da dies bei Zusammenfügen zweckdienlich ist.
  • Die Überlagerungen spielen eine entscheidende Rolle bei Mikroanpassungen, damit das zusammengefügte Seitenbild im Zusammenfügungsschritt (S320) genau wird.
  • Die Steuereinheit 110 berücksichtigt die vom Navigationssensor 109 exportierten Bewegungsdaten und prüft ständig, ob die Überlagerung zwischen dem vorhergehenden Feldbild n – 1 und dem aktuellen Feldbild n eine bestimmte im Voraus festgelegte Größe für das Abtasten übersteigt.
  • 8-b, 8- und 8-d zeigen jeweils ein Feldbild des ersten abgetasteten Bereichs 210-1, des zweiten abgetasteten Bereichs 210-2 bzw. des dritten abgetasteten Bereichs 210-3 (im Folgenden bezeichnet als Feldbild-1, Feldbild-2 und Feldbild-3).
  • Im Zusammenfügungsschritt (S320) werden die einzelnen Feldbilder durch Zuordnen der Koordinaten zusammengefügt. Das Zusammenfügen beinhaltet das primäre Zusammenfügen, wobei nur die Koordinaten verwendet werden, und das sekundäre Zusammenfügen mithilfe eines Korrelationsalgorithmus.
  • 8-e zeigt ein Bild, das durch Zuordnen von Feldbild-2 zusammengefügt wurde, welches um dX1 horizontal und um dY1 vertikal in Bezug auf Feldbild-1 verlagert wurde.
  • 8-f zeigt die Drehung von Feldbild-3 um θ.
  • 8-g ist ein Diagramm, das darstellt, wie Feldbild-3 durch Zuordnen mit dem zuvor zusammengefügten Bild aus 8-f zusammengefügt wird, nachdem es um dX1 + dX2 horizontal und dY1 + dY2 vertikal verlagert und um θ gedreht wurde.
  • In einer Ausführungsform der vorliegenden Erfindung ist 9 ein Ablaufdiagramm, das das Steuerungsverfahren des Handabtasters zeigt.
  • Unter detaillierter Bezugnahme auf die begleitende Zeichnung initialisiert die Steuereinheit 110 die Variablen (Parameter) (S410), etwa die Bewegungsdaten vom Abtastungsabschnitt 100, die im Speicher 150 gespeichert sind, sobald Leistung zugeführt wird und ein Befehl zum Beginnen des Abtastens vom Bedienfeld 120 empfangen wird.
  • Die Steuereinheit überträgt dann ein Lichtsignal an die Lichtquelle, und der Abtastungsabschnitt 100 gleitet auf ein Objekt, um die Feldbilder abzutasten. Das erfasste Feldbild wird als das n – 1ste Feldbild bezeichnet, das aufeinanderfolgend im Speicher gespeichert wird, kombiniert mit Bewegungsdaten einschließlich Abstand, Richtung und Drehung.
  • Die Steuereinheit analysiert die Bewegungsdaten des n – 1sten Feldbilds vom Abtastungsabschnitt und überwacht, ob die verarbeiteten Daten desselben außerhalb der Reichweite einer Überlagerung liegen, die für das (n – 1)te Feldbild definiert wurde (S420).
  • Dann prüft die Steuereinheit, ob die aktuelle Position des Abtasters von dem Bereich einer voreingestellten Überlagerung des (n – 1)ten Feldbilds abweicht (S430).
  • Falls die Überlagerung nicht überschritten wird, kehrt das System zum Prozess zurück (S420), der diese Prüfungen ständig wiederholt.
  • Wenn die Überlagerung von einer bestimmten Größe abweicht, reaktiviert die Steuereinheit den Abtastungsabschnitt einschließlich des Kameramoduls und der Lichtquelle, um ein neues Feldbild abzutasten (S440).
  • Das Feldbild wird dabei als das n-te Feldbild bezeichnet.
  • Die Steuereinheit speichert aufeinanderfolgend das n-te Feldbild zusammen mit entsprechenden Bewegungsdaten einschließlich Abstand, Richtung und Drehung vom Navigationssensor im Puffer des Speichers (S450).
  • In der Zwischenzeit erhöht die Steuereinheit die Variable n um 1 (n = n + 1) und initialisiert die Variablen der Bewegungsdaten zu Abstand, Richtung und Drehung (S460).
  • Wenn kein Abbruchbefehl vom Bedienfeld erfolgt, kehrt die Steuereinheit zum Prozess zurück (S420), um ein neues Feldbild zu erfassen und die Bewegungsdaten zu verfolgen (S470).
  • Nach dem Empfang eines Abbruchbefehls beendet die Steuereinheit den gesamten Prozess, indem sie aufeinanderfolgend gespeicherte Feldbilder zusammen mit ihren Koordinaten zusammenfügt, um ein Seitenbild zu vervollständigen (S480).
  • 10 ist ein Ablaufdiagramm, das den Vorgang des Zusammenfügens von Feldbildern zum Bilden eines Seitenbildes darstellt.
  • Unter detaillierter Bezugnahme auf die begleitende Zeichnung initialisiert die Steuereinheit die Variable n und weist einen Bereich oder einen Puffer des Speichers zum Seitenbildzusammenfügen zu (S481).
  • Die Steuereinheit lädt die Seitenbilder, das (n – 1)te und das n-te, zusammen mit den entsprechenden Bewegungsdaten und wandelt diese in Koordinaten um (S482).
  • Dann gleicht die Steuereinheit etwaige Drehungen der einzelnen Feldbilder auf Grundlage der genannten Koordinaten aus (S483).
  • Das primäre Zusammenfügen wird abgeschlossen, indem die Feldbilder den jeweils zugewiesenen Koordinaten zugeordnet werden (S484), für die die Drehung ausgeglichen wurde.
  • Auf das primär zusammengefügte Bild wird ein Korrelationsalgorithmus angewandt, um Mikroanpassungen an der Überlagerung zwischen dem vorhergehenden Feldbild und dem aktuellen Feldbild durchzuführen (S485). Dieser Prozess wird als sekundäres Zusammenfügen bezeichnet.
  • Die Steuereinheit erhöht die Variable n um 1 (S486) und kehrt zu dem Prozess zurück (S482), falls weitere Feldbilder abzutasten sind, oder bricht das Abtasten ab (S487).
  • Die vorliegende Erfindung, die aus den beschriebenen Teilen besteht,. ist insofern vorteilhaft, dass sie den blinden Fleck minimiert, der durch den Abstand zwischen dem Abtastungsbereich und der Unterseite des Abtastungsabschnitts verursacht wird, wobei die vorliegende Erfindung die Größe der Unterseite des Gehäuses an den Abtastungsbereich annähert.
  • Der Beschleunigungssensor erlaubt es dem Abtaster, durch einstellbares Anbringen auch ein Bild außerhalb des Abtastungsbereichs zu erfassen, und sorgt so für eine reduzierte Größe der Vorrichtungen.
  • Außerdem tastet die vorliegende Erfindung ein Objekt feldbildweise ab, wobei die Pixel fixiert sind, um eine höhere Präzision der Pixelpositionierung an Feldbildern und eine schnellere Datenverarbeitung als das übliche Verfahren zu erreichen.
  • Da nur dann Leistung zugeführt wird, wenn ein Feldbild abgetastet wird, wird die Leistungsaufnahme mithilfe der Lichtquelle minimiert, die nur für eine sehr kurze Zeitspanne leuchtet.
  • Die vorliegende Erfindung benötigt keine hochauflösende Kamera, keinen Autofokus, keine Bildstabilisierung oder Hintergrundbeleuchtungsanpassung, was zu geringeren Herstellungskosten führt.
  • Während das übliche Verfahren selbst mit einer hochauflösenden Kamera und sonstigen Zusatzfunktionen eine Einschränkung hinsichtlich der Verwendung aufweist, führt die vorliegende Erfindung die Abtastung perfekt aus und ist vorteilhaft für Sehbehinderte.
  • Für Fachleute auf dem Gebiet der Erfindung werden nach Lektüre der in der vorstehenden Beschreibung und in den zugehörigen Zeichnungen präsentierten Lehren zahlreiche Modifikationen und andere Ausführungsformen der hier dargestellten Erfindungen auf der Hand liegen. Es versteht sich daher, dass die Erfindungen nicht auf die spezifischen Beispiele der offenbarten Ausführungsformen eingeschränkt werden und dass Modifikationen und andere Ausführungsformen somit in den Umfang der beiliegenden Ansprüche fallen. Obwohl diese Beschreibung bestimmte Begriffe verwendet, werden diese nur in allgemeinem und beschreibendem Sinne und nicht zum Zwecke der Einschränkung verwendet.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • KR 2000-68664 [0007]

Claims (9)

  1. Handabtastvorrichtung, umfassend: einen Abtastungsabschnitt zum Abtasten eines Objekts nach Feldbild, wobei die Pixel in Reihen und Spalten angeordnet sind, und wobei die Bewegungsdaten zu Richtung, Abstand und Drehung exportiert werden, wenn sich die Vorrichtung über das Objekt bewegt; und eine Steuereinheit, mit der der Abtastungsabschnitt verbunden ist, zum Zusammenfügen von Feldbildern gemäß den Bewegungsdaten, um ein Seitenbild zu erstellen; wobei der Abtastungsabschnitt Folgendes umfasst: ein Kameramodul, für das ein bestimmter Arbeitsabstand von einem Objekt sichergestellt ist, und mit dem Feldbilder erfasst werden; und einen Navigationssensor, der die Bewegung des Abtasters verfolgt.
  2. Handabtastvorrichtung nach Anspruch 1, wobei der Abtastungsabschnitt Folgendes umfasst: ein Fenster, das einen Bereich eines abzutastenden Feldbilds begrenzt und aus einem transparenten Material hergestellt ist; und ein Gehäuse, das das Eindringen von Außenlicht verhindert, wobei das Fenster an dessen Unterseite angebracht ist; wobei das Kameramodul im Inneren des Gehäuses gesichert ist.
  3. Handabtastvorrichtung nach Anspruch 2, wobei der Abtastungsabschnitt ferner Folgendes umfasst: eine Lichtquelle, die im Inneren des Gehäuses angebracht ist, um ein Objekt in Reaktion auf ein Lichtsignal von der Steuereinheit zu beleuchten.
  4. Handabtastvorrichtung nach Anspruch 2, wobei die Größe des Fensters nahe derjenigen der Unterseite des Gehäuses ist.
  5. Handabtastvorrichtung nach Anspruch 2, ferner Folgendes umfassend: ein Bedienfeld, das mit der Steuereinheit verbunden ist und Befehle zum Starten und Abbrechen des Abtastens sendet; und einen Ausgabeabschnitt, der in Reaktion auf einen Befehl entweder vom Bedienfeld oder einem Computer Feldbilder exportiert, die von der Steuereinheit zusammengefügt wurden, oder in einer umgewandelten Form: Text, Audio oder Video; und einen Speicher, der mit der Steuereinheit verbunden ist, um Feldbilder und Bewegungsdaten zu speichern; und einen Navigationssensor, der mit einem oder mehrere von einem Sensor einer optischen Maus, einem Sensor einer Kugelmaus, einem Beschleunigungssensor und einem Kreiselsensor ausgestattet ist, von denen zwei vorzugsweise separat voneinander angebracht sind, und zwar entweder an einem oberen, mittleren oder unteren Teil des Gehäuses.
  6. Handabtastvorrichtung nach Anspruch 3, wobei die Steuereinheit ein Lichtsignal an die Lichtquelle überträgt, damit diese 2 ms oder weniger leuchtet, um Nachbilder zu minimieren, wenn das Kameramodul ein Bild erfasst, für das sich der Abtastungsabschnitt bewegt.
  7. Handabtastvorrichtung nach Anspruch 3, wobei die Steuereinheit ein Belichtungssignal reguliert, damit das Kameramodul ein Bild 2 ms oder kürzer erfasst, wobei die Lichtquelle konstant eingeschaltet ist.
  8. Verfahren zum Steuern der Handabtastvorrichtung, wobei die Vorrichtung Folgendes umfasst: einen Abtastungsabschnitt, der sich über die Oberfläche eines Objekts bewegt, um aufeinanderfolgend Feldbilder zu erfassen und Bewegungsdaten derselben zu exportieren; und eine Steuereinheit, mit der der Abtastungsabschnitt verbunden ist, und die Signale für die vertikale Synchronisation, Belichtung und Licht reguliert, und außerdem durch Zusammenfügen von Feldbildern ein Seitenbild erstellt; und ein Bedienfeld, das einen Abtastbefehl an die Steuereinheit sendet; und einen Ausgabeabschnitt, der in Reaktion auf einen Befehl entweder vom Bedienfeld oder einem Computer und Daten in einer passenden Form exportiert: Text, Audio oder Video; und einen Speicher, der mit der Steuereinheit verbunden ist, und in dem die verarbeiteten Bilder und Bewegungsdaten gespeichert werden; wobei das Steuerungsverfahren der Vorrichtung folgende Schritte umfasst: Initialisieren der Variablen einschließlich der Bewegungsdaten zu Abstand, Richtung und Drehung des Abtastungsabschnitts, sobald die Steuereinheit das Abtasten genehmigt hat; und Prüfen anhand der Bewegungsdaten zu Abstand, Richtung und Drehung vom Abtastungsabschnitt, ob die Überlagerung zwischen den zwei neuesten abgetasteten Feldbildern vom vorbestimmten Bereich abweicht; und Abtasten eines Feldbildes in Reaktion auf ein Abtastungssignal und ein Lichtsignal in den Abtastungsabschnitt, wenn die Überlagerung überschritten wird, und dann aufeinanderfolgendes Speichern von Bilddaten zusammen mit entsprechenden Bewegungsdaten in einem zugewiesenen Puffer des Speichers; und Zurückkehren zum Prüfungsschritt ohne einen Abbruchbefehl, und anderenfalls Zusammenfügen der abgetasteten Feldbilder.
  9. Verfahren nach Anspruch 8, wobei das Zusammenfügen von Feldbildern folgende Schritte aufweist: Initialisieren der Variable n und Zuweisen von Puffer zum Speicher von Bildern unter Steuerung der Steuereinheit; und Umwandeln von Bewegungsdaten des n – 1sten und des n-ten Feldbildes im Speicher in Koordinaten; und Ausgleichen der Drehung basierend auf der Neigung, die durch die zwei jeweiligen Koordinaten bestimmt wurde; und Zusammenfügen der Feldbilder durch Zuordnen zu den entsprechenden Koordinaten; und Durchführen einer Mikroanpassung an der Überlagerung zwischen dem n – 1sten und dem n-ten Feldbild mithilfe eines Korrelationsalgorithmus; und Zurückkehren zum Umwandlungsprozess, falls die Steuereinheit, die die Variable n um 1 erhöht, weitere Bilder zum Zusammenfügen erkennt, und anderenfalls Abbrechen des Prozesses.
DE112010004260T 2009-12-14 2010-12-03 Handgehaltenes abtastgerät und steuerungsverfahren dafür Withdrawn DE112010004260T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2009-0124252 2009-12-14
KR1020090124252A KR101027306B1 (ko) 2009-12-14 2009-12-14 핸디 스캐너 장치 및 그 제어방법
PCT/KR2010/008630 WO2011074810A2 (ko) 2009-12-14 2010-12-03 핸디 스캐너 장치 및 그 제어방법

Publications (1)

Publication Number Publication Date
DE112010004260T5 true DE112010004260T5 (de) 2013-05-08

Family

ID=44049672

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112010004260T Withdrawn DE112010004260T5 (de) 2009-12-14 2010-12-03 Handgehaltenes abtastgerät und steuerungsverfahren dafür

Country Status (7)

Country Link
US (1) US20130033640A1 (de)
JP (1) JP2013514030A (de)
KR (1) KR101027306B1 (de)
CN (1) CN102713930A (de)
DE (1) DE112010004260T5 (de)
GB (1) GB2490053A (de)
WO (1) WO2011074810A2 (de)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2023812B1 (de) 2006-05-19 2016-01-27 The Queen's Medical Center Bewegungsverfolgungssystem für adaptive echtzeitabbildung und -spektroskopie
US9081768B2 (en) * 2011-05-09 2015-07-14 Khaled Jafar Al-Hasan Electronic holder for reading books
EP2747641A4 (de) 2011-08-26 2015-04-01 Kineticor Inc Verfahren, systeme und vorrichtungen zur scan-internen bewegungskorrektur
US9113053B2 (en) * 2012-08-10 2015-08-18 Lg Electronics Inc. Input apparatus and method for acquiring a scan image
KR102059359B1 (ko) 2012-11-13 2019-12-26 삼성전자주식회사 디스플레이 장치, 디스플레이 장치의 동작 방법 및 제조 방법
US8559063B1 (en) 2012-11-30 2013-10-15 Atiz Innovation Co., Ltd. Document scanning and visualization system using a mobile device
KR102001148B1 (ko) 2012-12-10 2019-10-01 엘지전자 주식회사 입력 기기 및 그의 이미지 처리 방법
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
US10419776B2 (en) * 2013-07-09 2019-09-17 Sony Corporation High level syntax improvement on inter-layer prediction for SHVC/MV-HEVC
US10004462B2 (en) 2014-03-24 2018-06-26 Kineticor, Inc. Systems, methods, and devices for removing prospective motion correction from medical imaging scans
WO2016014718A1 (en) 2014-07-23 2016-01-28 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9652653B2 (en) * 2014-12-27 2017-05-16 Hand Held Products, Inc. Acceleration-based motion tolerance and predictive coding
JP6245671B2 (ja) * 2015-02-02 2017-12-13 オーシーアールシステム株式会社 光学端末装置及びスキャンプログラム
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
DE102016119510B4 (de) * 2015-10-16 2024-06-27 Cognex Corporation Lernfähige tragbare Systeme zur optischen Zeichenerkennung und Verfahren
US10716515B2 (en) 2015-11-23 2020-07-21 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10300723B2 (en) 2016-10-11 2019-05-28 Electronics For Imaging, Inc. Systems and methods for determining printing conditions based on samples of images printed by shuttle-based printers
CN107395917B (zh) * 2017-09-18 2023-05-23 青岛理工大学 一种旋转式圆筒状扫描装置
CN107729847B (zh) * 2017-10-20 2020-08-04 阿里巴巴集团控股有限公司 一种证件验证、身份验证方法和装置
CN109819137B (zh) * 2017-11-22 2020-06-26 东友科技股份有限公司 影像获取与输出方法
TWI692969B (zh) * 2019-01-15 2020-05-01 沅聖科技股份有限公司 攝像頭自動調焦檢測方法及裝置
KR102460660B1 (ko) * 2020-08-24 2022-10-31 현대모비스 주식회사 카메라 내장 헤드램프의 램프 제어기 연동 시스템 및 방법
WO2022046059A1 (en) * 2020-08-27 2022-03-03 Hewlett-Packard Development Company, L.P. Recommended page size determination
CN113259537B (zh) * 2021-04-09 2024-05-31 同济大学 一种可拓展式结构表观平面扫描单元及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000068664A (ko) 1997-07-30 2000-11-25 스미스 토마스 제이. 개선된 산화납 축전지와 전지 셀의 단자 포스트와 부싱을 접합하는 방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3932042A (en) * 1974-05-20 1976-01-13 Barry-Wehmiller Company Container inspection apparatus and method of inspection
JPS62216471A (ja) * 1986-02-18 1987-09-24 Konishiroku Photo Ind Co Ltd 光学式情報読取装置
ES2160110T3 (es) * 1993-05-31 2001-11-01 Toshiba Tec Kk Lector optico de codigo.
JPH08149260A (ja) * 1994-11-18 1996-06-07 Nikon Corp 画像読み取り装置
JP3159138B2 (ja) * 1997-07-30 2001-04-23 日本電気株式会社 手動走査型カラー画像入力装置
US5936238A (en) * 1997-10-29 1999-08-10 Hewlett-Packard Company Portable optical scanning device with a recessed optical window
US6097507A (en) * 1998-04-07 2000-08-01 Hewlett-Packard Company Portable scanner with pivoting image head and rotating mirror
WO2000055798A1 (en) * 1999-03-16 2000-09-21 Psc Scanning, Inc. Attachment device for ergonomically suspending a handheld scanner
US6429422B1 (en) * 1999-11-12 2002-08-06 Hewlett-Packard Company Scanner navigation system with variable aperture
JP2003101754A (ja) * 2001-09-25 2003-04-04 Denso Corp イメージスキャナ,光学式文字読取装置及びラベル作成機
US20030184519A1 (en) * 2002-03-27 2003-10-02 Cheng-Tsung Liu Gripping type computer mouse device
KR100555587B1 (ko) * 2002-04-25 2006-03-03 문영찬 스캐너 기능 및 마우스 기능을 동시에 갖는 장치 및 방법
EP1565727A1 (de) * 2002-11-21 2005-08-24 CDEX, Inc. Verfahren und vorrichtung zur detektion, inspektion und klassifizierung von molekulare spezien mit uv-fluoreszenz
US20050052672A1 (en) * 2003-06-30 2005-03-10 Srikrishna Talluri Method and system to seamlessly capture and integrate text and image information
KR100759869B1 (ko) 2005-12-09 2007-09-18 엠텍비젼 주식회사 수직 스캔 방식 cmos형 이미지 센서
KR100854722B1 (ko) * 2006-12-01 2008-08-27 엠텍비젼 주식회사 결함 픽셀 보정 방법 및 그 장치
US20090001163A1 (en) * 2007-06-27 2009-01-01 Symbol Technologies, Inc. Imaging scanner with illumination and exposure control
KR20090077507A (ko) * 2008-01-11 2009-07-15 주식회사 와우디앤씨 2차원 코드가 삽입된 마우스 패드 및 동작방법
US20090224047A1 (en) * 2008-03-05 2009-09-10 Konica Minolta Systems Laboratory, Inc. Contactless Scan Position Orientation Sensing

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000068664A (ko) 1997-07-30 2000-11-25 스미스 토마스 제이. 개선된 산화납 축전지와 전지 셀의 단자 포스트와 부싱을 접합하는 방법

Also Published As

Publication number Publication date
KR101027306B1 (ko) 2011-04-06
JP2013514030A (ja) 2013-04-22
US20130033640A1 (en) 2013-02-07
WO2011074810A2 (ko) 2011-06-23
GB2490053A (en) 2012-10-17
CN102713930A (zh) 2012-10-03
GB201210520D0 (en) 2012-07-25
WO2011074810A3 (ko) 2011-10-13

Similar Documents

Publication Publication Date Title
DE112010004260T5 (de) Handgehaltenes abtastgerät und steuerungsverfahren dafür
DE60117302T2 (de) Verfahren und Vorrichtung zur Indikation des Blickfeldes einer Dokument-Kamera
DE102016105879B4 (de) Anzeigesteuerungsvorrichtung und Steuerungsverfahren für diese
DE102005049338B3 (de) System zur digitalen Dokumentenerfassung und -speicherung
DE102005000820B4 (de) Verfahren zum Verbessern der Sehfähigkeit einer sehbehinderten Person und Sehhilfe
EP1583022A2 (de) Verfahren und Anordnung zur Aufnahme interessierender Bereiche von beweglichen Objekten
US5416609A (en) Image pickup apparatus for focusing an object image based on mirror reflected height of the object
DE202012013713U1 (de) Vorrichtung zur Dual-Target-Autobelichtung
DE202006005643U1 (de) Vorrichtung zum dreidimensionalen Erfassen eines Raumbereichs
DE3538822A1 (de) Vorrichtung zum herstellen fotografischer abzuege sowie verfahren zum erkennen und positionieren von einzelbildern
DE102007033793A1 (de) Verfahren und Vorrichtung zum mikroskopischen Untersuchen einer Probe, Computerprogramm und Computerprogrammprodukt
DE112015003527T5 (de) System und Verfahren zum Steuern einer Zielbeleuchtung für ein Abbildungs-Lesegerät
EP2903250A1 (de) Bildaufnahmeverfahren mit adaptiver Markierlichtemission und ebensolches Bildaufnahmegerät
DE102006051995A1 (de) Strukturen und zugehörige Verfahren für Scanner mit zwei CCD-Matrizen
DE112012004055T5 (de) Bildaufnahmevorrichtung
DE102011079285A1 (de) Vorrichtung zur Erfassung biometrischer Merkmale
DE102005024867C5 (de) Mikroskopsystem und Bildgebungsverfahren
DE19617122A1 (de) Verfahren und Vorrichtung zum Kalibrieren eines horizontalen Startpunktes eines Dokumentes auf einem Flachbettscanner
DE10338246A1 (de) Autofokussystem
DE60306233T2 (de) Bildlesesystem
DE102008015979A1 (de) Bewegt-Bild-Verarbeitungssystem und Bewegt-Bild-Verarbeitungsverfahren
DE102011085156A1 (de) Bewegtbildaufnahmevorrichtung, Verfahren zum Beobachten eines Bewegtbilds, Bewegtbildbeobachtungsprogramm und computerlesbares Aufzeichnungsmedium
DE69922884T2 (de) Photoelektrisches Bildformungsverfahren und Gerät
DE10332060A1 (de) Verfahren zum Betrieb eines Laser-Scanning-Mikroskops
DE60029392T2 (de) Abbildungsgerät mit integriertem Positionsfühlungsgerät

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: RAU, SCHNECK & HUEBNER PATENTANWAELTE RECHTSAN, DE

Representative=s name: RAU, SCHNECK & HUEBNER PATENT- UND RECHTSANWAE, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0007100000

Ipc: H04N0001107000

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0007100000

Ipc: H04N0001107000

Effective date: 20130702

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee