DE112018002233T5 - Bildlesegerät - Google Patents

Bildlesegerät Download PDF

Info

Publication number
DE112018002233T5
DE112018002233T5 DE112018002233.1T DE112018002233T DE112018002233T5 DE 112018002233 T5 DE112018002233 T5 DE 112018002233T5 DE 112018002233 T DE112018002233 T DE 112018002233T DE 112018002233 T5 DE112018002233 T5 DE 112018002233T5
Authority
DE
Germany
Prior art keywords
width
image
scan target
scanning direction
main scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018002233.1T
Other languages
English (en)
Inventor
Shigeru Takushima
Hiroyuki Kawano
Yoshitaka Toyoda
Taku MATSUZAWA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112018002233T5 publication Critical patent/DE112018002233T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/024Details of scanning heads ; Means for illuminating the original
    • H04N1/028Details of scanning heads ; Means for illuminating the original for picture information pick-up
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/401Compensating positionally unequal response of the pick-up or reproducing head
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/191Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
    • H04N1/192Simultaneously or substantially simultaneously scanning picture elements on one main scanning line
    • H04N1/193Simultaneously or substantially simultaneously scanning picture elements on one main scanning line using electrically scanned linear arrays, e.g. linear CCD arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

Ein Speicher (13) speichert Bilder, die von Sensoren erzeugt werden, die in einem Bildgeber (11) enthalten sind und ein Komponentendatenstück für jede der Farb-Komponenten enthalten, das durch einen A/D-Wandler (12) einer A/D-Wandlung unterzogen wurde. Ein Breitendetektor (15) erkennt, basierend auf der Bildverarbeitung der Bilder durch einen Bildprozessor (14), die Breite entlang der Hauptabtastrichtung eines Überlappungsbereichs, in dem sich die durch benachbarte Sensoren erzeugten Bildteile überlappen. Ein Verschiebungsdetektor (16) erfasst, basierend auf der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung, eine Verschiebung eines Scanzielobjekts für jedes der im Bildgeber (11) enthaltenen optischen Systeme. Ein erster Unschärfe-Korrektor (17) führt eine Unschärfekorrektur am Komponentendatenstück mit Hilfe einer Point-Spread-Funktion (PSF) für jede der Farbkomponenten durch, die von einer Verschiebung des Scanzielobjekts abhängig ist. Ein Einsteller (18) stellt, basierend auf einer Übertragungsvergrößerung in Abhängigkeit von einer Verschiebung des Scanzielobjekts, die Größe des Bildes für jede der durch das Komponentendatenstück angezeigten Farbkomponenten ein. Ein Kombinator (19) kombiniert die Bilder, indem er Teile der Komponentendatenstücke überlagert.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Bildlesegerät, das ein Bild scannt und eine Unschärfekorrektur an dem gescannten Bild durchführt.
  • STAND DER TECHNIK
  • Die Kontakt Bild Sensor Technologie (Contact Image Sensor CIS Technologie) wird in Bildlesegeräten wie Kopierern und Scannern eingesetzt. Ein Bildlesegerät mit der CIS-Technologie weist Gradientenindexstablinsen und Abbildungselemente auf, die in einer Linie angeordnet sind. Das Licht wird an einem Scanzielobjekt gestreut, durchläuft die Gradientenindexlinsen und formt ein Bild auf den Abbildungselementen. Das Bildlesegerät wird zum Scannen verschiedener Arten von Dokumenten verwendet. Wenn das Dokument ein Papierblatt ist, kann sich das gesamte Dokument während des Scannens auf einer Glasoberfläche befinden. Wenn das Dokument jedoch ein gebundenes Dokument ist, ist der Bereich der Bindung des Dokuments beim Scannen von der Glasoberfläche entfernt. Bei der Verwendung von Gradientenindex-Objektiven kann es vorkommen, dass das Bildlesegerät das Scanzielobjekt nicht mit einer ausreichend hohen Auflösung scannt, wenn das Scanzielobjekt teilweise von der Glasoberfläche des Bildlesegerätes entfernt ist.
  • Da der Brechungsindex mit der Wellenlänge des Lichts variiert, weist das durch die Linse gegangene Licht unterschiedliche Fokuspositionen auf, die den durch Rot (R), Grün (G) und Blau (B) dargestellten Farbkomponenten entsprechen. Wenn das Dokument also beispielsweise an der Fokusposition der G-Farbkomponente positioniert ist, ist die Position des Dokuments außerhalb der Fokuspositionen der R- und B-Farbkomponenten, was zu verschwommenen Bildern, die den R- und B-Farbkomponenten entsprechen, führt. Mit anderen Worten, ein Bildlesegerät, das eine Linse verwendet, verursacht axiale chromatische Aberration, was ein Phänomen ist, bei dem verschiedene Wellenlängen des Lichts Bilder an verschiedenen Positionen bilden.
  • Das im Patentdokument 1 beschriebene Bildlesegerät scannt im Vorhinein Muster, die konzentrierte Idealpunkt-Lichtquellen in einem vorgegebenen Referenzbild darstellen, und berechnet für jedes von R, G und B eine Punktverteilungsfunktion (PSF). Das Bildlesegerät korrigiert die chromatische Aberrationen, indem es Korrekturfilter basierend auf den berechneten PSFs erstellt und die Korrekturfilter auf das gescannte Bild anwendet, um sie für R, G und B zu korrigieren.
  • STAND DER TECHNIK
  • Patentdokument 1: Japanische Patentanmeldungs-Offenlegungsschrift JP H4-051 672
  • KURZBESCHREIBUNG DER ERFINDUNG
  • Mit der Erfindung zu lösende Probleme
  • Wenn sich das Dokument in der Nähe einer Fokusposition in einem Bildlesegerät mit Objektiv befindet, kann die chromatische Aberration korrigiert werden, indem man die PSF verwendet, die im Vorhinein für R, G und B gemessen wurde, wie im Patentdokument 1 beschrieben. Wenn es sich bei dem zu scannenden Dokument jedoch um ein gebundenes Dokument handelt und der Bereich der Bindung von der Fokusposition entfernt ist, kann die chromatische Aberration nicht mit Hilfe der Korrekturfilter korrigiert werden, die auf PSFs basieren, die im Vorhinein für ein Dokument, das sich an einer Fokusposition befindet, gemessen wurden.
  • Die vorliegende Erfindung wurde unter Berücksichtigung der vorgenannten Umstände gemacht, und ein Ziel der vorliegenden Erfindung ist es, chromatische Aberration mit verbesserter Genauigkeit zu korrigieren.
  • Mittel zum Lösen der Probleme
  • Um das oben genannte Ziel zu erreichen, weist das Bildlesegerät nach der vorliegenden Erfindung eine Lichtquelle, Sensoren, optische Systeme, einen Breitendetektor, einen Verschiebungsdetektor, einen ersten Unschärfe-Korrektor, einen Einsteller und einen Kombinator auf. Die Lichtquelle beleuchtet einen Beleuchtungsbereich mit Licht. Die Sensoren weisen Abbildungselemente auf und erzeugen aus den auf den Abbildungselementen gebildeten Abbildungen Bilder, die für jede Farbkomponente ein Komponentendatenstück enthalten. Die Sensoren sind in einer Reihe angeordnet. Die optischen Systeme werden für die entsprechenden Sensoren bereitgestellt. Die optischen Systeme lassen auf den in den Sensoren enthaltenen Abbildungselementen durch Licht Bilder entstehen, wobei das Licht von den Lichtquellen emittiert und durch ein Scanzielobjekt in einem Scanbereich im Beleuchtungsbereich gestreut wird. Die optischen Systeme sind entlang einer Hauptabtastrichtung angeordnet, d.h. einer Richtung, in der die Sensoren angeordnet sind. Der Breitendetektor erfasst die Breite eines Überlappungsbereichs entlang der Hauptabtastrichtung, wobei der Überlappungsbereich ein Bereich ist, in dem sich Bilder, die durch die von benachbarten Sensoren der Sensoren erzeugten Bilder angezeigt werden, überlappen. Der Verschiebungsdetektor erfasst für jedes der optischen Systeme eine Verschiebung des Scanzielobjekts entlang einer optischen Achse relativ zu einer Fokusposition des optischen Systems basierend auf der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung. Der erste Unschärfe-Korrektor führt die Unschärfekorrektur an jedem Komponentendatenstück mit einer Punktverteilungsfunktion für jede der Farbkomponenten durch, wobei die Punktverteilungsfunktion von der Verschiebung des Scanzielobjekts abhängig ist. Der Einsteller stellt aufgrund einer von einer Verschiebung des Scanzielobjekts abhängigen Übertragungsvergrößerung für jede der durch das Komponentendatenstück angezeigten Farbkomponenten die Größe des Bildes ein. Der Kombinator kombiniert die Bilder, indem er Teile der durch benachbarte Sensoren erzeugten Komponentendatenstücke überlagert, nachdem die Bilder vom ersten Unschärfe-Korrektor einer Unschärfekorrektur unterzogen und vom Einsteller angepasst wurden.
  • Effekt der Erfindung
  • Nach der vorliegenden Erfindung kann die chromatische Aberration mit verbesserter Genauigkeit korrigiert werden, indem die Unschärfekorrektur an einem in Bilddaten enthaltenen Komponentendatenstück unter Verwendung einer Punktverteilungsfunktion für jede der Farbkomponenten durchgeführt wird, wobei die Punktverteilungsfunktion von einer Verschiebung des Scanzielobjekts entlang der optischen Achsenrichtung relativ zur Fokusposition abhängig ist.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das eine exemplarische Konfiguration eines Bildlesegerätes nach Ausführungsform 1 der vorliegenden Erfindung darstellt;
    • 2 ist eine perspektivische Ansicht eines Bildgebers nach Ausführungsform 1;
    • 3 zeigt eine exemplarische Konfiguration eines Sensors gemäß Ausführungsform 1;
    • 4 ist eine perspektivische Ansicht von optischen Systemen nach Ausführungsform 1;
    • 5 ist ein Flussdiagramm, das ein Beispiel für einen Bild-Scanprozess darstellt, der vom Bildlesegerät gemäß Ausführungsform 1 durchgeführt wird;
    • 6 ist eine Querschnittsansicht der optischen Systeme nach Ausführungsform 1;
    • 7 zeigt eine Veränderung des Scanbereichs in der Ausführungsform 1;
    • 8 zeigt ein Beispiel für die Anpassungs-Verarbeitung in Ausführungsform 1;
    • 9 zeigt ein Beispiel für die Anpassungs-Verarbeitung in Ausführungsform 1;
    • 10 zeigt einen exemplarischen Zusammenhang zwischen einer Verschiebung des Scanzielobjekts und einer Breite eines Überlappungsbereichs in Ausführungsform 1;
    • 11 zeigt ein Beispiel für eine axiale chromatische Aberration;
    • 12 zeigt eine exemplarische Beziehung zwischen einer Verschiebung des Scanzielobjekts und einem MTF-Wert;
    • 13 ist eine Querschnittsansicht von optischen Systemen gemäß Ausführungsform 2 der vorliegenden Erfindung;
    • 14 zeigt ein Beispiel für verschiedene PSFs;
    • 15 zeigt eine exemplarische Beziehung zwischen einer Raumfrequenz und einem MTF-Wert;
    • 16 zeigt eine exemplarische Beziehung zwischen einer Raumfrequenz und einem MTF-Wert;
    • 17 zeigt eine exemplarische Beziehung zwischen einer Verschiebung des Scanzielobjekts und einem MTF-Wert;
    • 18 zeigt einen exemplarischen Zusammenhang zwischen einer Raumfrequenz und einem MTF-Wert in Ausführungsform 2;
    • 19 zeigt eine exemplarische Beziehung zwischen einer Raumfrequenz und einem MTF-Wert in Ausführungsform 2;
    • 20 zeigt eine exemplarische Beziehung zwischen einer Verschiebung des Scanzielobjekts und einem MTF-Wert;
    • 21 zeigt eine exemplarische Beziehung zwischen einer Verschiebung des Scanzielobjekts und einem MTF-Wert;
    • 22 zeigt eine exemplarische Beziehung zwischen einer Verschiebung des Scanzielobjekts und einem MTF-Wert;
    • 23 zeigt eine exemplarische Beziehung zwischen einer Verschiebung des Scanzielobjekts und einem MTF-Wert;
    • 24 ist ein Blockdiagramm, das eine exemplarische Konfiguration eines Bildlesegerätes nach Ausführungsform 3 der vorliegenden Erfindung zeigt;
    • 25 ist ein Flussdiagramm, das ein Beispiel für einen Bild-Scanprozess darstellt, der vom Bildlesegerät gemäß Ausführungsform 3 durchgeführt wird;
    • 26 ist ein Blockdiagramm, das eine exemplarische Konfiguration eines Bildlesegerätes gemäß Ausführungsform 4 der vorliegenden Erfindung zeigt;
    • 27 ist ein Flussdiagramm, das ein Beispiel für einen Bild-Scanprozess darstellt, der vom Bildlesegerät gemäß Ausführungsform 4 durchgeführt wird; und
    • 28 ist ein Blockdiagramm, das eine weitere exemplarische Konfiguration des Bildlesegerätes gemäß Ausführungsform 4 zeigt.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Ein Bildlesegerät nach Ausführungsformen der vorliegenden Erfindung wird nun anhand der Zeichnungen ausführlich beschrieben. Identische Bezugszeichen sind in den Zeichnungen für identische oder gleichartige Teile angegeben.
  • Ausführungsform 1
  • Wie in 1 dargestellt, weist ein Bildlesegerät 1 einen Bildgeber 11 auf, der ein Scanzielobjekt 2 scannt, um Bilddaten mit Komponentendatenstücken zu den Farbkomponenten Rot (R), Grün (G) und Blau (B) zu erzeugen. Das Bildlesegerät 1 hat einen Analog-Digital (A/D)-Wandler 12, der eine A/D-Wandlung der vom Bildgeber 11 erzeugten Bilder durchführt, und einen Speicher 13, der die A/D-wandelten Bilder speichert. Das Bildlesegerät 1 hat weiterhin einen Bildprozessor 14, einen Breitendetektor 15 und einen Verschiebungsdetektor 16. Der Bildprozessor 14 führt die Bildverarbeitung, wie z.B. das Invertieren, an den im Speicher 13 gespeicherten Bildern durch. Der Breitendetektor 15 erfasst die Breite eines Überlappungsbereichs entlang der Hauptabtastrichtung. Der Überlappungsbereich ist ein Bereich, in dem sich die in den Bildern angegebenen Bilder überlappen. Der Verschiebungsdetektor 16 erfasst für jedes der optischen Systeme 33 eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achse relativ zur Fokusposition basierend auf der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung. Das Bildlesegerät 1 hat weiterhin einen ersten Unschärfe-Korrektor 17, der die Unschärfekorrektur an jedem Komponentendatenstück unter Verwendung einer Punktverteilungsfunktion (PSF) für jede der Farbkomponenten durchführt, wobei die PSF von einer Verschiebung des Scanzielobjekts 2 abhängig ist, und einen Einsteller 18, der basierend auf einer Übertragungsvergrößerung in Abhängigkeit von einer Verschiebung des Scanzielobjekts 2 die Größe des Bildes für jede der vom Komponentendatenstück angegebenen Komponenten anpasst. Für jeweils zwei benachbarte Sensoren 34 kombiniert ein Kombinator 19 die Bilder, indem er Teile von Komponentendatenstücken entsprechend den beiden benachbarten Sensoren 34 überlagert.
  • Wie in 2 dargestellt, hat der Bildgeber 11 einen transparenten Körper 31, Lichtquellen 32a und 32b, die einen Beleuchtungsbereich mit Licht beleuchten, Sensoren 34, die in einer Linie angeordnet sind und später beschriebene Abbildungselemente aufweisen, optische Systeme 33 für die entsprechenden Sensoren 34 und eine Platte 35, auf der die Sensoren 34 platziert sind. Als transparenter Körper 31 wird ein Deckglas verwendet. Die Hauptabtastrichtung ist die Richtung, in der die Sensoren 34 angeordnet sind, und im Beispiel in 2 liegt die Hauptabtastrichtung parallel zur X-Achse. Die optischen Systeme 33 sind entlang der Hauptabtastrichtung angeordnet. Die Richtung, in die das Scanzielobjekt 2 transportiert wird, ist eine Unterabtastrichtung. Die Unterabtastrichtung ist orthogonal zur Hauptabtastrichtung. Die Unterabtastrichtung ist parallel zur Y-Achse im Beispiel in 2. Die optische Achsrichtung des optischen Systems 33 ist orthogonal zur Hauptabtastrichtung und zur Unterabtastrichtung. Die optische Achsrichtung ist im Beispiel in 2 parallel zur Z-Achse. So erstreckt sich beispielsweise die Z-Achse vertikal.
  • Das Scanzielobjekt 2 wird durch einen Fördermechanismus (nicht dargestellt) auf der vertikalen Oberseite des transparenten Körpers 31 in Unterabtastrichtung gefördert. Jede der Lichtquellen 32a und 32b hat eine Leuchtdiode (LED-Leuchte) und einen Lichtleiter. Das von den Lichtquellen 32a und 32b emittierte Licht wird auf einer Fläche des Scanzielobjekts 2 im Scanbereich des optischen Systems 33 im Beleuchtungsbereich der Lichtquellen 32a und 32b gestreut. Das optische System 33 bewirkt, dass das gestreute Licht ein Bild auf den Abbildungselementen bildet, die im Sensor 34 enthalten sind. Der Sensor 34 ist ein eindimensionaler Bildsensor, und Beispiele für den Sensor 34 beinhalten einen komplementären Metall-Oxid-Halbleiter-(CMOS)-Sensor, einen CCD-Sensor (charge-coupled device) oder dergleichen. Aus den auf den Abbildungselementen gebildeten Bildern erzeugt der Sensor 34 Bilder, die für jede der Farbkomponenten ein Komponentendatenstück enthalten.
  • Wie in 3 dargestellt, hat jeder Sensor 34 Abbildungselemente 36a, 36b und 36c, die eine photoelektrische Umwandlung durchführen, sowie eine Ausleseschaltung 37, die elektrische Signale der Abbildungselemente 36a, 36b und 36c liest und die Signale als Bilder ausgibt. Wie vorstehend beschrieben, bewirkt das optische System 33, dass das auf der Oberfläche des Scanzielobjekts 2 gestreute Licht Bilder auf den Abbildungselementen 36a, 36b und 36c bildet. Auf der Seite des optischen Systems 33 des Abbildungselements 36a befindet sich ein roter optischer Filter, der das rote Licht in elektrische Signale umwandelt. Auf der Seite des optischen Systems 33 des Abbildungselements 36b befindet sich ein grüner optischer Filter, der grünes Licht in elektrische Signale umwandelt. Auf der Seite des optischen Systems 33 des Abbildungselements 36c befindet sich ein blauer optischer Filter, der blaues Licht in elektrische Signale umwandelt. In der folgenden Beschreibung stellt das Abbildungselement 36 eines der Abbildungselemente 36a, 36b und 36c dar.
  • Der Bildgeber 11 kann beliebig viele optische Systeme 33 und Sensoren 34 beinhalten. Wie in 4 dargestellt, weist das optische System 33 eine Kombilinse mit einer ersten Linse 41 und einer zweiten Linse 42 sowie eine Blende 43 auf, die zwischen der ersten Linse 41 und der zweiten Linse 42 entlang der optischen Achsenrichtung angeordnet ist. Die zweite Linse 42 ist näher am Sensor 34 positioniert als die erste Linse 41. Die gestrichelte Linie in 4 stellt einen Lichtstrahl dar. Die gestrichelte Linie in 4 stellt einen Scanbereich 40 dar. Das von den Lichtquellen 32a und 32b emittierte Licht wird auf einer Oberfläche des Scanzielobjekts 2 im Scanbereich 40 gestreut. Das gestreute Licht wird von der ersten Linse 41 gebündelt und durchläuft die Blende 43. Das durch die Blende 43 strömende Licht führt zu einem Bild, das auf dem Sensor 34 durch die zweite Linse 42 gebildet wird. Der Sensor 34 ist an einer Stelle angeordnet, an der durch das optische System 33 ein Bild gebildet wird. Das optische System 33 ist ein nicht-telezentrisches optisches System. Die Scanbereiche 40 der angrenzenden optischen Systeme 33 überlappen einander.
  • Unter Bezugnahme auf 5 wird im Folgenden ein Überblick über die Verarbeitung durch das Bildlesegerät 1 auf der Grundlage von Bildern gegeben, die von dem wie oben konfigurierten Bildgeber 11 erzeugt wurden. Die vom Bildgeber 11 und im A/D-Wandler 12 konvertierten Bilder werden zeilenweise im Speicher 13 gespeichert (Schritt S11). Der Bildprozessor 14 führt die Bildverarbeitung, wie z.B. das Invertieren, des Bildes durch (Schritt S12). Der Breitendetektor 15 erfasst die Breite eines Überlappungsbereichs zwischen Scanbereichen, d.h. die Breite eines Überlappungsbereichs entlang der Hauptabtastrichtung, wie später beschrieben (Schritt S13). Basierend auf der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung, wie sie in Schritt S13 erfasst wird, erfasst der Verschiebungsdetektor 16 für jedes der optischen Systeme 33 eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achsenrichtung relativ zur Fokusposition (Schritt S14). Entsprechend der Verschiebung des Scanzielobjekts 2 entlang der optischen Achsrichtung relativ zur Fokusposition berechnet der erste Unschärfe-Korrektor 17 für jede der Farbkomponenten eine PSF (Schritt S15). Der erste Unschärfe-Korrektor 17 führt die Unschärfekorrektur an den Komponentendatenstücken mit den berechneten PSFs durch (Schritt S16). Der Einsteller 18 passt die Komponentendatenstücke aufgrund der Übertragungsvergrößerung an, die von der Verschiebung des Scanzielobjekts 2 entlang der optischen Achsrichtung relativ zur Fokusposition abhängig ist (Schritt S17). Der Kombinator 19 kombiniert die Bilder durch Überlagerung von Teilen der Komponentendatenstücke (Schritt S18).
  • Wie vorstehend beschrieben, erfasst der Breitendetektor 15 die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung. Auf der Grundlage der Breite des Überlappungsbereichs entlang der vom Breitendetektor 15 erfassten Hauptabtastrichtung erfasst der Verschiebungsdetektor 16 für jedes der optischen Systeme 33 eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achsenrichtung relativ zur Fokusposition. Im Folgenden wird beschrieben, wie eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achsrichtung anhand der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung erkannt werden kann.
  • Zunächst wird im Folgenden unter Bezugnahme auf 6 beschrieben, dass sich die Scanbereiche 40 der angrenzenden optischen Systeme 33 überlappen. 6 ist eine Querschnittsansicht der optischen Systeme 33 in 4 auf der XZ-Ebene. In 6 befindet sich das Scanzielobjekt 2 auf einer Glasfläche 31, die durch eine gestrichelte Linie gekennzeichnet ist. In 6 zeigt eine dicke durchgezogene Linie einen Überlappungsbereich zwischen den Scanbereichen 40, nämlich einen Überlappungsbereich DA. Als Beispiel wird angenommen, dass 32 optische Systeme 33 und 32 Sensoren 34 entlang der Hauptabtastrichtung angeordnet sind und die angrenzenden optischen Systeme 33 und angrenzenden Sensoren 34 alle in Abständen von 9 mm angeordnet sind. Wenn die Breite des Scanbereichs 40 entlang der Hauptscanrichtung 10 mm beträgt, überlappen sich die angrenzenden Scanbereiche 40 um 1 mm entlang der Hauptscanrichtung. Mit anderen Worten, der Überlappungsbereich DA hat eine Breite von 1 mm. Da sich die Scanbereiche 40 entlang der Hauptscanrichtung um 1 mm überlappen, überlagert der Kombinator 19 Teile von Bildern, die durch die von den Sensoren 34 erzeugten Bilder angezeigt werden, und erzeugt, wie später beschrieben, ein einziges zusammengesetztes Bild.
  • Unter Bezugnahme auf 7 wird im Folgenden beschrieben, dass der Scanbereich mit einer Verschiebung des Scanzielobjekts 2 entlang der optischen Achsenrichtung relativ zur Fokusposition variiert. Eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achsrichtung tritt beispielsweise auf, wenn ein gebundenes Dokument gescannt wird. Insbesondere wird der Bereich der Bindung des Dokuments nicht gegen die Glasfläche 31 gedrückt, sondern angehoben. Der Scanbereich 40 variiert, da ein Teil des Dokuments von der Glasfläche 31 angehoben wird. 7 ist eine Querschnittsansicht der optischen Systeme 33 in 4 auf der XZ-Ebene. Das Beispiel in 7 zeigt Scanbereiche 40 mit dem Scanzielobjekt 2 an einer Position Fa, die durch eine strichpunktierte Linie und an einer Position Fb, die durch eine doppel-strichpunktierte Linie gekennzeichnet ist. Es sei darauf hingewiesen, dass die Position Fa mit der Position der Glasfläche 31 übereinstimmt. In 7 überlappen sich die Scanbereiche 40 um einen Betrag, der durch eine dicke durchgezogene Linie angezeigt wird.
  • Die Breite des Überlappungsbereichs DA entlang der Hauptabtastrichtung entsprechend dem Scanzielobjekt 2 an der Position Fa wird als Wa bezeichnet. Die Breite eines Überlappungsbereichs DB entlang der Hauptabtastrichtung entsprechend dem Scanzielobjekt 2 an der Position Fb wird als Wb bezeichnet. Die Fokusposition des optischen Systems 33 wird als die Position Fa angenommen. Da das Scanzielobjekt 2 vom optischen System 33 weiter entfernt ist als die Fokusposition, hat der Überlappungsbereich eine größere Breite entlang der Hauptabtastrichtung und damit ist Wb größer als Wa. Da das Scanzielobjekt 2 näher am optischen System 33 liegt als die Fokusposition, hat der Überlappungsbereich dagegen eine geringere Breite entlang der Hauptabtastrichtung. Mit anderen Worten, die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung variiert mit der Position des Scanzielobjekts 2. Daher ist der Verschiebungsdetektor 16 in der Lage, eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achsrichtung relativ zur Fokusposition des optischen Systems 33 auf Basis der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung zu erfassen.
  • Im Folgenden wird ein Anpassungs-Verfahren beschrieben, der vom Breitendetektor 15 zum Erfassen des Überlappungsbereichs durchgeführt wird. In dem in der folgenden Beschreibung aufgeführten Beispiel hat das Bildlesegerät 1 n Sensoren 34, wobei n die Anzahl der Sensoren 34 ist. Mit dem Scanzielobjekt 2, das an der in 7 angegebenen Position Fa positioniert ist, wird eine Bildstückausgabe des k-ten Sensors 34 (1 ≤ k ≤ n) in einer Reihe von Sensoren 34, die in positiver X-Achsenrichtung angeordnet sind, als Pa(k) und eine Bildstückausgabe des (k + 1)-ten Sensors 34 als Pa(k + 1) bezeichnet. Wie in 8 dargestellt, ist das gleiche Bild in dem durch Pa(k) gekennzeichneten Bild in seinem rechten Bereich und in dem durch Pa(k + 1) gekennzeichneten Bild in seinem linken Bereich enthalten. Mit anderen Worten, das durch Pa(k) angezeigte Bild und das durch Pa(k + 1) angezeigte Bild überlappen sich gegenseitig. Der Breitendetektor 15 führt ein Anpassungs-Verfahren zum Erkennen des Überlappungsbereichs zwischen den von Pa(k) und Pa(k + 1) angegebenen Bildern durch, beispielsweise unter Verwendung des in der WO 2016/147 832 beschriebenen Verfahrens. Nach dem Erkennen des Überlappungsbereichs durch das Anpassungs-Verfahren erkennt der Breitendetektor 15 die Breite Wa(k) des Überlappungsbereichs entlang der Hauptabtastrichtung. Der Breitendetektor 15 führt den oben beschriebenen Bearbeitungsprozess sequentiell von k = 1 bis k = n - 1 durch.
  • Mit dem Scanzielobjekt 2, das an der in 7 angegebenen Position Fb positioniert ist, wird die Ausgabe des Bildteils durch den k-ten Sensor 34 als Pb(k) und die Ausgabe des Bildteils durch den (k + 1)-ten Sensor 34 als Pb(k + 1) bezeichnet. Wie in 9 dargestellt, ist das gleiche Bild in dem durch Pb(k) gekennzeichneten Bild in seinem rechten Bereich und in dem durch Pb(k + 1) gekennzeichneten Bild in seinem linken Bereich enthalten. Mit anderen Worten, das durch Pb(k) angezeigte Bild und das durch Pb(k + 1) angezeigte Bild überlappen sich gegenseitig. Der Breitendetektor 15 erfasst den Überlappungsbereich und die Breite Wb(k) entlang der Hauptabtastrichtung zwischen den durch Pb(k) und Pb(k + 1) angegebenen Bildern in ähnlicher Weise wie im vorstehend beschriebenen Beispiel. Der Breitendetektor 15 führt den oben beschriebenen Bearbeitungsprozess sequentiell von k = 1 bis k = n - 1 durch. Die Position Fb ist weiter vom optischen System 33 entfernt als die Fokusposition, und somit ist Wb(k) größer als Wa(k), wie in 8 und 9 dargestellt.
  • Der Verschiebungsdetektor 16 erfasst für jedes der optischen Systeme 33 eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achsrichtung relativ zur Fokusposition auf Basis der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung, wie sie vom Breitendetektor 15 erfasst wird. Es sei darauf hingewiesen, dass sich diese Fokusposition auf die Fokusposition für die G-Komponente bezieht und auf der Glasfläche 31 positioniert ist. 10 zeigt einen exemplarischen Zusammenhang zwischen einer Verschiebung des Scanzielobjekts 2 entlang der optischen Achsrichtung relativ zur Fokusposition des optischen Systems 33 und einer Breite des Überlappungsbereichs entlang der Hauptabtastrichtung. Wie in 10 dargestellt, besteht eine lineare Beziehung zwischen einer Verschiebung des Scanzielobjekts 2 und einer Breite des Überlappungsbereichs entlang der Hauptabtastrichtung. Basierend auf der Breite des Überlappungsbereichs entlang der vom Breitendetektor 15 erfassten Hauptabtastrichtung erfasst der Verschiebungsdetektor 16 eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achsenrichtung relativ zur Fokusposition unter Verwendung der in 10 dargestellten Beziehung.
  • Im Folgenden wird ein Bearbeitungsprozess beschrieben, der vom Verschiebungsdetektor 16 durchgeführt wird. Wie im obigen Beispiel werden die von den k-ten, den (k + 1)-ten und den (k + 2)-ten Sensoren 34 ausgegebenen Bildstücke als P(k), P(k + 1) und P(k + 2) bezeichnet. Die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung zwischen den durch P(k) und P(k + 1) angegebenen Bildern wird als W(k) bezeichnet. Die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung zwischen den mit P(k + 1) und P(k + 2) angegebenen Bildern wird mit W(k + 1) bezeichnet. Der Verschiebungsdetektor 16 bezeichnet als W(k) die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung entsprechend der k-ten Zelle und als W(k + 1) die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung entsprechend der (k + 1)-ten Zelle. Aus der in 10 dargestellten Beziehung berechnet der Verschiebungsdetektor 16 dann D(k) und D(k + 1) auf Basis von W(k) bzw. W(k + 1), wobei D(k) eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achsrichtung relativ zur Fokusposition des k-ten optischen Systems 33 und D(k + 1) eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achsrichtung relativ zur Fokusposition des (k + 1)-ten optischen Systems 33 sind.
  • Der erste Unschärfe-Korrektor 17 berechnet für jede der Farbkomponenten eine PSF auf Basis der vom Verschiebungsdetektor 16 erfassten Verschiebung. Anschließend führt der erste Unschärfe-Korrektor 17 mit den berechneten PSFs eine Unschärfekorrektur an den Komponentendatenstücken durch. Im Folgenden werden die Gründe für die Durchführung der Unschärfekorrektur mit PSFs für die entsprechenden Farbkomponenten beschrieben. Ein Bildlesegerät, das eine Linse verwendet, verursacht axiale chromatische Aberration, was ein Phänomen ist, bei dem verschiedene Wellenlängen des Lichts Bilder an verschiedenen Positionen abbilden. In einem nachfolgend beschriebenen Beispiel durchläuft das Licht die Öffnung 3 und tritt in die refraktive Linse 4 ein. 11 zeigt ein Beispiel, in dem das Licht, das die Farbkomponenten R, G und B beinhaltet und parallel zur optischen Achse ist, in die refraktive Linse 4 eintritt. Im Beispiel in 11 wird ein blauer Lichtstrahl durch eine gestrichelte Linie, ein grüner Lichtstrahl durch eine strichpunktierte Linie und ein roter Lichtstrahl durch eine punktierte Linie angezeigt. Da der Brechungsindex der refraktiven Linse 4 mit der Wellenlänge des Lichts variiert, tritt, wie in 11 dargestellt, die axiale chromatische Aberration auf, bei der die Fokusposition zwischen den Farbkomponenten R, G und B variiert. Insbesondere bilden blaue Lichtstrahlen, wie in 11 dargestellt, ein Bild an einer Position ab, die näher an der refraktiven Linse 4 liegt als für grüne Lichtstrahlen. Rote Lichtstrahlen bilden ein Bild an einer Position ab, die weiter von der refraktiven Linse 4 entfernt ist als für grüne Lichtstrahlen.
  • 12 zeigt eine exemplarische Beziehung zwischen einer Verschiebung des Scanzielobjekts 2 und einem MTF-Wert (Modulation Transfer Function). In 12 stellt die horizontale Achse eine Verschiebung des Scanzielobjekts 2 (in mm) in Bezug auf die Fokusposition der refraktiven Linse 4 dar. Das heißt, wenn sich das Scanzielobjekt 2 an der Fokusposition befindet, hat die Verschiebung des Scanzielobjekts 2 einen Wert von 0, wenn das Scanzielobjekt 2 weiter von der refraktiven Linse 4 entfernt ist als die Fokusposition, hat die Verschiebung des Scanzielobjekts 2 einen positiven Wert. Wenn das Scanzielobjekt 2 näher an der refraktiven Linse 4 als die Fokusposition liegt, hat die Verschiebung des Scanzielobjekts 2 einen negativen Wert. Die vertikale Achse stellt einen MTF-Wert dar, der einer Raumfrequenz (Ortsfrequenz) von 380 dpi entspricht. 12 zeigt MTF-Werte für die Farbkomponenten R, G und B. Im Beispiel in 12 wird ein blauer Lichtstrahl durch eine gestrichelte Linie, ein grüner Lichtstrahl durch eine strichpunktierte Linie und ein roter Lichtstrahl durch eine punktierte Linie angezeigt. Ein roter Lichtstrahl, der die längste Wellenlänge unter den R-, G- und B-Farbanteilen aufweist, befindet sich auf dem höchsten MTF-Wert, wenn das Scanzielobjekt 2 weiter von der refraktiven Linse 4 entfernt ist als die Fokusposition. Im Gegensatz dazu ist ein blauer Lichtstrahl, der die kürzeste Wellenlänge unter den R-, G- und B-Farbanteilen aufweist, auf dem höchsten MTF-Wert, wenn das Scanzielobjekt 2 näher an der refraktiven Linse 4 als an der Fokusposition liegt. Wenn das Scanzielobjekt 2 also weiter von der refraktiven Linse 4 entfernt ist als die Fokusposition, bilden rote Lichtstrahlen ein Bild ohne Unschärfen ab, während blaue Lichtstrahlen ein unscharfes Bild abbilden, was zu einem rötlichen schwarz-weißen Bild führt. Wenn das Scanzielobjekt 2 näher an der refraktiven Linse 4 als die Fokusposition liegt, bilden blaue Lichtstrahlen ein Bild ohne Unschärfen ab, während rote Lichtstrahlen ein unscharfes Bild abbilden, was zu einem bläulichen Schwarz-Weiß-Bild führt.
  • Axiale chromatische Aberration tritt auch am optischen System 33 nach Ausführungsform 1 auf. Daher führt der erste Unschärfe-Korrektor 17 eine Unschärfekorrektur an den Komponentendatenstücken mit PSFs für die entsprechenden Farbkomponenten durch, wobei die PSFs von einer Verschiebung des Scanzielobjekts 2 abhängig sind. Wenn y vom Sensor 34 erzeugte Bilder sind, x ein tatsächliches Bild ist und h eine PSF-Verteilung ist, wird y durch die folgende Gleichung (1) ausgedrückt. In der folgenden Gleichung (1) stellt * ein Faltungsintegral dar. Die Fourier-Transformation der folgenden Gleichung (1) ergibt die folgende Gleichung (2). Die umgekehrte Transformation der folgenden Gleichung (2) ergibt die folgende Gleichung (3). Die Unschärfekorrektur kann durch Ausführen eines Bearbeitungsprozesses erfolgen, der durch die folgende Gleichung (3) ausgedrückt wird. Beispielmethoden für die Durchführung des Bearbeitungsprozesses der folgenden Gleichung (3) beinhalten die Verwendung des Wiener Filters. y = x * h
    Figure DE112018002233T5_0001
    Y = X × H
    Figure DE112018002233T5_0002
    X = Y × H 1
    Figure DE112018002233T5_0003
  • Wie vorstehend beschrieben, führt der erste Unschärfe-Korrektor 17 eine Unschärfekorrektur an den Komponentendatenstücken mit PSFs für die entsprechenden Farbkomponenten durch, wobei die PSFs von einer Verschiebung des Scanzielobjekts 2 abhängig sind. Die PSFs, die aus Bildern gewonnen werden, die aus dem Licht einer an der Fokusposition befindlichen Punktlichtquelle gebildet werden, werden im Vorhinein für die entsprechenden Farbkomponenten gemessen. Eine von einer Verschiebung des Scanzielobjekts 2 abhängige PSF kann für jede der Farbkomponenten auf der Grundlage der im Vorhinein für die entsprechenden Farbkomponenten gemessenen PSFs berechnet werden. So werden beispielsweise die aus Bildern gewonnenen PSFs, die aus einfallendem Licht von Punktlichtquellen gebildet werden, die an der Fokusposition des optischen Systems 33 und an beiden Enden der Schärfentiefe des optischen Systems 33 angeordnet sind, für die entsprechenden Farbkomponenten durch Simulation oder tatsächliche Messung im Vorhinein berechnet. Eine von einer Verschiebung des Scanzielobj ekts 2 abhängige PSF kann durch Interpolation für jede der Farbkomponenten auf der Grundlage der vorab berechneten PSFs in Bezug auf die Fokusposition des optischen Systems 33 und zu beiden Enden der Tiefenschärfe des optischen Systems 33 für die entsprechenden Farbkomponenten berechnet werden. Der erste Unschärfe-Korrektor 17 kann die oben beschriebene axiale chromatische Aberration korrigieren, indem er die PSFs für die entsprechenden Farbkomponenten verwendet, wobei die PSFs von einer Verschiebung des Scanzielobjekts 2 abhängig sind.
  • Wie in 7 dargestellt, variiert der Scanbereich 40 des optischen Systems 33 in der Größe mit der Position des Scanzielobjekts 2, und damit variiert auch die Übertragungsvergrößerung mit der Position des Scanzielobjekts 2. Mit anderen Worten, wenn nicht die Übertragungsvergrößerung korrigiert wird, die mit der Position des Scanzielobjekts 2 variiert, sind die durch die von den einzelnen Sensoren 34 gelieferten Bilder unterschiedlich groß, so dass Bildteile nicht richtig kombiniert werden können. Der Einsteller 18 passt die Größe des Bildes für jede der vom Komponentendatenstück angezeigten Farbkomponenten auf der Grundlage der Übertragungsvergrößerung in Abhängigkeit von einer vom Verschiebungsdetektor 16 erfassten Verschiebung des Scanzielobjekts 2 an. Der Einsteller 18 passt das Komponentendatenstück an, indem er das Bild für jede der Farbkomponenten, die durch das Komponentendatenstück angezeigt werden, durch eine Vergrößerung vergrößert oder verkleinert, die der Kehrwert der Übertragungsvergrößerung ist. Der Einsteller 18 verwendet eine Bild-Vergrößerungs-/Reduktionstechnik wie z.B. eine bilineare Interpolation oder bikubische Interpolation. Im Beispiel in 1 passt der Einsteller 18 die Größe des Bildes für jede der Farbkomponenten an, die durch ein Komponentendatenstück angezeigt werden, das die Unschärfekorrektur durch den ersten Unschärfe-Korrektor 17 durchlaufen hat. In diesem Fall passt der Einsteller 18 die Größe des Bildes für jede der Farbkomponenten an, die durch das Komponentendatenstück angezeigt werden, nachdem der erste Unschärfe-Korrektor 17 die Unschärfekorrektur durchgeführt hat. So verwendet der erste Unschärfe-Korrektor 17 den gleichen Größenfilter, wodurch die Verarbeitung vereinfacht werden kann.
  • Der Kombinator 19 erhält ein zusammengesetztes Bild durch Überlagerung von Teilen der Komponentendatenstücke, die durch benachbarte Sensoren 34 erzeugt wurden, vom Bildprozessor 14 bildtechnisch verarbeitet wurden, vom ersten Unschärfe-Korrektor 17 Unschärfekorrektur erfahren haben und vom Einsteller 18 angepasst wurden. Der Kombinator 19 erhält das zusammengesetzte Bild, indem er gewichtete Mittelwerte der einzelnen Pixel in Teilen der Komponentendatenstücke bildet. Teile von Komponentendatenstücken beziehen sich auf die Komponentendatenstücke, die Bilder entsprechend den Überlappungsbereichen DA und DB kennzeichnen. Da die durch die Komponentendatenstücke für die jeweiligen Farbkomponenten angezeigten Bilder vom Einsteller 18 auf eine einheitliche Größe eingestellt wurden, muss der Kombinator 19 nur Bilder kombinieren, indem er Teile der Komponentendatenstücke um eine vorgegebene Länge entlang der Hauptabtastrichtung überlagert. Insbesondere kombiniert der Kombinator 19 Bilder durch Überlagerung der von zwei Sensoren 34 erzeugten, vom Bildprozessor 14 verarbeiteten und vom ersten Unschärfe-Korrektor 17 korrigierten und vom Einsteller 18 angepassten Komponentendatenstücke.
  • Das Bildlesegerät 1 wiederholt den oben beschriebenen Bearbeitungsprozess, während das Scanzielobjekt 2 in Teilabtastrichtung transportiert wird, wodurch ein zweidimensionales zusammengesetztes Bild entsteht. Das Bildlesegerät 1 führt Unschärfekorrekturen mit PSFs für die entsprechenden Farbkomponenten durch, wobei die PSFs von der Verschiebung des Scanzielobjekts 2 entlang der optischen Achsenrichtung in Bezug auf die Fokusposition abhängig sind, wodurch ein zusammengesetztes Bild mit korrigierter axialer chromatischer Aberration entsteht.
  • (Abwandlungen)
  • Wie vorstehend beschrieben, korrigiert das Bildlesegerät 1 nach Ausführungsform 1 die axiale chromatische Aberration durch Unschärfekorrektur von Komponentendatenstücken mit PSFs für die entsprechenden Farbkomponenten, wobei die PSFs von einer Verschiebung des Scanzielobjekts 2 abhängig sind. Zusätzlich zur axialen chromatischen Aberration kann das Bildlesegerät 1 eine transversale chromatische Aberration verursachen, was ein Phänomen ist, bei dem ein Bild an einer Position gebildet wird, die in eine Richtung orthogonal zur optischen Achse verschoben ist. Im Falle des Auftretens der transversalen chromatischen Aberration variiert die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung zwischen den Farbkomponenten R, G und B. Um die transversale chromatische Aberration zu korrigieren, führt das Bildlesegerät 1 nach einer Abwandlung der Ausführungsform 1 für jede der Farbkomponenten die Verarbeitung durch, die vom Breitendetektor 15, dem Verschiebungsdetektor 16 und dem Einsteller 18 durchgeführt wird. Insbesondere erkennt der Breitendetektor 15 für jede der Farbkomponenten die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung von Bildern, die durch die durch benachbarte Sensoren 34 erzeugten Komponentendatenstücke angezeigt wird. Der Verschiebungsdetektor 16 erfasst für jede der Farbkomponenten und jedes der optischen Systeme 33 eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achsenrichtung in Bezug auf die Fokusposition der Farbkomponente des optischen Systems 33 auf der Grundlage der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung, wobei die Breite für jede der Farbkomponenten erfasst wird. Auf der Grundlage einer Verschiebung des für jede der Farbkomponenten erfassten Scanzielobjekts 2 führt der erste Unschärfe-Korrektor 17, wie vorstehend beschrieben, eine Unschärfekorrektur an den Komponentendatenstücken unter Verwendung von PSFs für die entsprechenden Farbkomponenten durch, wobei die PSFs von einer Verschiebung des Scanzielobjekts 2 abhängig sind. Dann passt der Einsteller 18 die Größe des Bildes für jede der vom Komponentendatenstück angezeigten Farbkomponenten auf der Grundlage der Übertragungsvergrößerung an, die von der Verschiebung des für jede der Farbkomponenten erfassten Scanzielobjekts 2 abhängig ist.
  • Wie in der vorstehenden Abwandlung zu sehen ist, wird die Verarbeitung durch den Breitendetektor 15, den Verschiebungsdetektor 16 und den Einsteller 18 für jede der Farbkomponenten durchgeführt, wodurch ein zusammengesetztes Bild erhalten werden kann, in dem die transversale chromatische Aberration korrigiert wird. Mit anderen Worten, die chromatische Aberration kann mit verbesserter Genauigkeit korrigiert werden.
  • Wie vorstehend beschrieben, erreicht das Bildlesegerät 1 nach Ausführungsform 1 die Korrektur der chromatischen Aberration mit verbesserter Genauigkeit, indem es die Unschärfekorrektur an den in den Bildern enthaltenen Komponentendatenstücken durchführt, indem es PSFs für die entsprechenden Farbkomponenten verwendet, wobei die PSFs von einer Verschiebung des Scanzielobjekts 2 abhängig sind.
  • Ausführungsform 2
  • Zur Erweiterung der Tiefenschärfe wurde eine Technologie namens Wavefront Coding (WFC) entwickelt. WFC beinhaltet das Modulieren einer Phase des übertragenen Lichts unter Verwendung eines Phasenmodulationselements und das Wiederherstellen phasenmodulierter Bilder. Das Bildlesegerät 1 nach Ausführungsform 2 hat ein optisches System mit einer phasenmodulierenden Linse. Die Konfiguration des Bildlesegerätes 1 nach Ausführungsform 2 ist vergleichbar mit der des Bildlesegerätes 1 nach Ausführungsform 1. Wie in 13 dargestellt, hat das optische System 33 in Ausführungsform 2 eine zweite Linse 44 anstelle der zweiten Linse 42 im optischen System 33 in Ausführungsform 1.
  • Die zweite Linse 44 moduliert die Phase des in die zweite Linse 44 eintretenden Lichts.
  • Wie in 14 dargestellt, verschwimmen beim Einsatz von WFC die Konturen von PSF-Formen gleichmäßig mit oder ohne Verschiebung des Scanzielobjekts 2. Im Gegensatz dazu verschwimmen die Konturen von PSF-Formen, wenn das Scanzielobjekt 2 aus der Fokusposition in eine beliebige Richtung verschoben wird.
  • Der MTF-Wert variiert bei Anwendung von WFC und unterscheidet sich je nachdem, ob WFC angewendet wird oder nicht. Im Folgenden wird dieser Unterschied deutlich, beginnend mit einer Beschreibung der MTF-Werte ohne WFC. Die 15 und 16 veranschaulichen jeweils eine Beziehung zwischen der Raumfrequenz und dem MTF-Wert, wobei WFC nicht angewendet wird. In 15 und 16 stellt die horizontale Achse die Raumfrequenz (in lp/mm) und die vertikale Achse den MTF-Wert dar. Insbesondere zeigt 15 eine exemplarische Beziehung zwischen der Raumfrequenz und dem MTF-Wert, wenn sich das Scanzielobjekt 2 in der Fokusposition befindet. 16 zeigt eine exemplarische Beziehung zwischen der Raumfrequenz und dem MTF-Wert für den Fall, dass das Scanzielobjekt 2 von der Fokusposition verschoben wird. Es zeigt sich, dass in einem in 15 dargestellten Bereich von Raumfrequenzen ausreichend hohe MTF-Werte erzielt werden, wenn WFC nicht angewendet wird und sich das Scanzielobjekt 2 an der Fokusposition befindet. Andererseits sinkt der MTF-Wert bei einer bestimmten Raumfrequenz auf 0, wenn WFC nicht angewendet wird und das Scanzielobjekt 2 von der Fokusposition verschoben wird. Der MTF-Wert von 0 bedeutet Verlust des Bildes bei einigen Raumfrequenzen. Mit anderen Worten ist das Bild, wenn der MTF-Wert 0 ist, so verschwommen, dass eine Unschärfekorrektur das Bild nicht wiederherstellen kann und das resultierende Bild keine ausreichend hohe Auflösung hat.
  • 17 zeigt eine exemplarische Beziehung zwischen einer Verschiebung des Scanzielobjekts 2 und dem MTF-Wert. 17 zeigt eine exemplarische Beziehung zwischen dem MTF-Wert und der Verschiebung des Scanzielobjekts 2 bei 420 dpi mit einer Raumfrequenz entsprechend dem MTF-Wert von 0. Im Beispiel in 17 wird ein blauer Lichtstrahl durch eine gestrichelte Linie, ein grüner Lichtstrahl durch eine strichpunktierte Linie und ein roter Lichtstrahl durch eine gepunktete Linie angezeigt. Der Absolutwert einer Verschiebung des Scanzielobjekts 2 entsprechend dem MTF-Wert von 0 in 17 ist kleiner als der Absolutwert einer Verschiebung des Scanzielobjekts 2 entsprechend dem MTF-Wert von 0 in 12. Mit anderen Worten, selbst dann, wenn ein von der Fokusposition verschobener Abstand im Vergleich zum Beispiel in 12 kurz ist, sinkt der MTF-Wert abrupt. Wenn die Schärfentiefe eine Position beinhaltet, die dem MTF-Wert von 0 entspricht, kann -wie vorstehend beschrieben- das Bild durch Unschärfekorrektur nicht richtig wiederhergestellt werden. Um dies zu vermeiden, sollte die Schärfentiefe so eingestellt werden, dass eine dem MTF-Wert von 0 entsprechende Position ausgeschlossen wird, so dass die Erweiterung der Schärfentiefe begrenzt ist.
  • Im Folgenden werden MTF-Werte mit Anwendung der WFC beschrieben. Die 18 und 19 veranschaulichen jeweils einen Zusammenhang zwischen der Raumfrequenz und einem MTF-Wert in Ausführungsform 2. Die Erläuterungen zu den Abbildungen sind identisch mit denen zu 15 und 16. 18 zeigt eine exemplarische Beziehung zwischen der Raumfrequenz und dem MTF-Wert in Ausführungsform 2 für den Fall, dass das Scanzielobjekt 2 an der Fokusposition steht. 19 zeigt eine exemplarische Beziehung zwischen der Raumfrequenz und dem MTF-Wert in Ausführungsform 2 für den Fall, dass das Scanzielobjekt 2 von der Fokusposition verschoben wird. Bei Anwendung von WFC sinkt der MTF-Wert mit zunehmender Raumfrequenz, unabhängig davon, ob sich das Scanzielobjekt 2 an einer Fokusposition befindet. Wenn jedoch WFC angewendet wird, sinkt der MTF-Wert bei keiner Raumfrequenz in dem in 19 dargestellten Bereich von Raumfrequenzen auf 0. Mit anderen Worten, es gibt keinen Verlust von Bildern bei allen Raumfrequenzen. Somit kann ein Bild durch Unschärfekorrektur richtig wiederhergestellt werden. Da der MTF-Wert bei keiner Raumfrequenz auf 0 fällt, kann die Tiefenschärfe erweitert werden.
  • Es kann jedes beliebige Phasenmodulationsverfahren verwendet werden, wie beispielsweise die Phasenmodulation basierend auf sphärischer Aberration mit einer quadratischen Funktion und einer Funktion 4-ten Grades oder die Phasenmodulation basierend auf Komaaberration mit einer kubischen Funktion. Bei der Verwendung einer kubischen Funktion muss bei der Montage des optischen Systems 33 die Drehung der Phasenebene des optischen Systems 33 angepasst werden, um dem einfallenden Licht eine asymmetrische Phase zu geben. Daher ist es wünschenswert, die Phasenmodulation basierend auf der sphärischen Aberration unter Verwendung einer quadratischen Funktion und einer Funktion 4-ten Grades einzusetzen, da eine solche Phasenmodulation dem einfallenden Licht eine symmetrische Phase verleihen kann. So kann beispielsweise der Betrag der Phasenmodulation z durch die folgende Gleichung (4) ausgedrückt werden. In der folgenden Gleichung (4) sind a und b Koeffizienten. Zum Beispiel a = 0,02 und b = 0,05. In der folgenden Gleichung (4) ist r der radiale Abstand von der optischen Achse. z = φ ( r ) = ar 2 + br 4
    Figure DE112018002233T5_0004
  • Auf der Grundlage des Betrags der Phasenmodulation z, ausgedrückt durch die vorstehende Gleichung (4), kann die Phasenmodulation des einfallenden Lichts durch Ändern der Dicke der der ersten Linse 41 zugewandten Fläche der zweiten Linse 44 in Abhängigkeit vom radialen Abstand von der optischen Achse durchgeführt werden. Die Dicke der zweiten Linse 44 muss nur ohne zusätzliches Element zur Phasenmodulation geändert werden, was dazu beiträgt, eine Erhöhung der Teilezahl zu verhindern. Die Phasenmodulation kann durch Änderung der Dicke erfolgen, unabhängig davon, ob die der ersten Linse 41 zugewandte Fläche der zweiten Linse 44 ein transparentes Element, wie Glas oder Harz, oder eine andere Linsenfläche ist. Die Phasenmodulation findet auf der der ersten Linse 41 zugewandten Seite der zweiten Linse 44 statt. Somit kann eine konstante Phasenmodulation der Lichtstrahlen ohne Rücksicht auf die Position des Abbildungselements 36 auf dem Sensor 34 durchgeführt werden. Die der ersten Linse 41 zugewandte Fläche der zweiten Linse 44, nämlich die Phasenmodulationsoberfläche, wird vorzugsweise näher an der Blende 43 platziert.
  • 20 zeigt einen exemplarischen Zusammenhang zwischen einer Verschiebung des Scanzielobjekts 2 und dem MTF-Wert in Ausführungsform 2. Die Erläuterungen zur Abbildung sind die gleichen wie in 12. Im Beispiel in 20 wird ein blauer Lichtstrahl durch eine gestrichelte Linie, ein grüner Lichtstrahl durch eine strichpunktierte Linie und ein roter Lichtstrahl durch eine punktierte Linie angezeigt. Im Vergleich zum Fall ohne WFC führt die Anwendung von WFC zu niedrigeren MTF-Werten. Im Vergleich zu 12 ist jedoch die Positionsdifferenz des Scanzielobjekts 2 zwischen den Farbkomponenten R, G und B kleiner, wenn der MTF-Wert seinen Höhepunkt erreicht. Das heißt, die Anwendung von WFC reduziert die chromatische Aberration.
  • Die 21 bis 23 zeigen jeweils eine exemplarische Beziehung zwischen einer Verschiebung des Scanzielobjekts 2 und einem MTF-Wert. Die Erläuterungen zu den Abbildungen sind identisch mit denen von 12. In den Beispielen in 21 bis 23 wird ein blauer Lichtstrahl durch eine gestrichelte Linie, ein grüner Lichtstrahl durch eine strichpunktierte Linie und ein roter Lichtstrahl durch eine punktierte Linie angezeigt. 21 zeigt eine exemplarische Beziehung zwischen einer Verschiebung des Scanzielobjekts 2 und dem MTF-Wert, wenn eine Phasenmodulation und dann eine Unschärfekorrektur mit einer PSF durchgeführt wird, die unabhängig von den Farbkomponenten R, G und B ist. Da die Unschärfekorrektur einheitlich auf die R-, G- und B-Farbkomponenten angewendet wird, erhöhen sich die Unterschiede zwischen den MTF-Werten entsprechend den R-, G- und B-Farbkomponenten, und die Korrektur der chromatischen Aberration schlägt fehl.
  • Eine mögliche Lösung zur Reduzierung von Unterschieden zwischen MTF-Werten, die den Farbkomponenten R, G und B vor der Unschärfekorrektur entsprechen, kann die Erhöhung der Koeffizienten a und b in der obigen Gleichung (4) sein. 22 zeigt eine exemplarische Beziehung zwischen der Verschiebung des Scanzielobjekts 2 und dem MTF-Wert für den Fall, dass die Koeffizienten a und b höher sind als die oben beschriebenen. Im Beispiel in 22 ist im Vergleich zu 12 die Positionsdifferenz des Scanzielobjekts 2 zwischen den Farbkomponenten R, G und B kleiner, wenn der MTF-Wert seinen Höhepunkt erreicht. 23 zeigt eine exemplarische Beziehung zwischen der Verschiebung des Scanzielobjekts 2 und dem MTF-Wert für den Fall, dass die Koeffizienten a und b noch höher sind als die oben beschriebenen, und Unschärfekorrektur mit einer PSF durchgeführt wird, die unabhängig von den Farbkomponenten R, G und B ist. Durch die Erhöhung der Koeffizienten a und b wird verhindert, dass die Differenz zwischen den MTF-Werten entsprechend den Farbkomponenten R, G und B auch nach einer Unschärfekorrektur zunimmt. Da die Koeffizienten a und b erhöht werden, werden die MTF-Werte vor der Unschärfekorrektur gesenkt. Um die MTF-Werte durch eine Unschärfekorrektur näher an 1 zu bringen, muss also die Wiederherstellungsvergrößerung erhöht werden. Ein größerer Wiederherstellungsfaktor verstärkt jedoch die Rauschkomponente, was die Möglichkeit des Ringings erhöht. Mit anderen Worten, die Qualität eines wiederhergestellten Bildes kann beeinträchtigt sein.
  • Aus diesem Grund führt das Bildlesegerät 1 nach Ausführungsform 2 die Unschärfekorrektur mit PSFs für die entsprechenden Farbkomponenten wie in Ausführungsform 1 nach der Verarbeitung im Bildgeber 11, der die zweite Linse 44 aufweist, durch, ohne die Koeffizienten a und b zu erhöhen. Durch die Unschärfekorrektur mit PSFs für die entsprechenden Farbkomponenten wird eine Erhöhung der Differenz zwischen den MTF-Werten entsprechend den Farbkomponenten R, G und B verhindert. Mit anderen Worten, ohne die Koeffizienten a und b zu erhöhen, kann die chromatische Aberration mit verbesserter Genauigkeit korrigiert werden, indem die Phasenmodulation durchgeführt wird, gefolgt von Unschärfekorrektur mit PSFs für die entsprechenden Farbkomponenten, wobei die PSFs von einer Verschiebung des Scanzielobjekts 2 abhängig sind. In diesem Fall erfolgt kein Ringing.
  • Das Bildlesegerät 1 wiederholt den Bearbeitungsprozess ähnlich wie in Ausführungsform 1, während das Scanzielobjekt 2 in Teilabtastrichtung transportiert wird und so ein zweidimensionales zusammengesetztes Bild liefert.
  • Das Bildlesegerät 1 nach Ausführungsform 2 führt eine Phasenmodulation durch und führt dann eine Unschärfekorrektur mit PSFs für die entsprechenden Farbkomponenten durch, wobei die PSFs von einer Verschiebung des Scanzielobjekts 2 entlang der optischen Achsenrichtung relativ zur Fokusposition abhängig sind. Die Durchführung einer Phasenmodulation des in die zweite Linse 44 eintretenden Lichts ermöglicht es, die Tiefenschärfe zu erweitern. Darüber hinaus ermöglicht die Durchführung von Unschärfekorrekturen mit PSFs für die entsprechenden Farbkomponenten den Erhalt eines zusammengesetzten Bildes, in dem die axiale chromatische Aberration korrigiert wird.
  • Wie vorstehend beschrieben, kann das Bildlesegerät 1 nach Ausführungsform 2 die Tiefenschärfe erweitern und chromatische Aberrationen mit verbesserter Genauigkeit in der erweiterten Tiefenschärfe korrigieren.
  • Ausführungsform 3
  • Wie in 24 dargestellt, hat das Bildlesegerät 1 nach Ausführungsform 3 neben den Komponenten des Bildlesegerätes 1 nach Ausführungsform 2 auch einen zweiten Unschärfe-Korrektor 20. Die Konfiguration des im Bildgeber 11 nach Ausführungsform 3 enthaltenen optischen Systems 33 ist ähnlich wie die des im Bildgeber 11 nach Ausführungsform 2 enthaltenen optischen Systems 33, wie in 13 dargestellt. Der zweite Unschärfe-Korrektor 20 führt die Unschärfekorrektur an den im Bildprozessor 14 verarbeiteten Bildern mit einer festen PSF durch, die unabhängig von einer Verschiebung des Scanzielobjekts 2 ist. Der Breitendetektor 15 erfasst die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung in überlappenden Bildteilen auf der Grundlage der vom zweiten Unschärfe-Korrektor 20 durchgeführten Unschärfekorrektur. Die Folgeprozesse sind die gleichen wie in Ausführungsform 1.
  • 25 ist ein Flussdiagramm, das ein Beispiel für einen Bild-Scanprozess darstellt, der vom Bildlesegerät 1 gemäß Ausführungsform 3 durchgeführt wird. Die Bearbeitungsprozesse in den Schritten S11 und S12 sind die gleichen wie in den Schritten S11 und S12, die vom Bildlesegerät 1 gemäß Ausführungsform 1 durchgeführt werden, wie in 5 dargestellt. Der zweite Unschärfe-Korrektor 20 führt die Unschärfekorrektur am Bild mit einer PSF durch, die unabhängig von einer Verschiebung des Scanzielobjekts 2 (Schritt S121) ist. Die Bearbeitungsprozesse in den Schritten S13 bis S18 sind, wie in 5 dargestellt, die gleichen wie in den Schritten S13 bis S18, die vom Bildlesegerät 1 gemäß Ausführungsform 1 durchgeführt werden. In Schritt S13 erfasst der Breitendetektor 15 jedoch die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung anhand der vom zweiten Unschärfe-Korrektor 20 durchgeführten Unschärfekorrektur.
  • Wie bei der Ausführungsform 2 wird die Phasenmodulation auf das in die zweite Linse 44 eintretende Licht angewendet. Dadurch sind die Bilder, die im Bildprozessor 14 einer Bildverarbeitung unterzogen wurden, verschwommen. Die Unschärfekorrektur durch den zweiten Unschärfe-Korrektor 20 stellt Informationen hoher Raumfrequenzen wieder her. Somit kann der Breitendetektor 15 die Verarbeitung mit verbesserter Genauigkeit durchführen. Da der Breitendetektor 15 die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung mit verbesserter Genauigkeit erfassen kann, kann der Verschiebungsdetektor 16 eine Verschiebung des Scanzielobjekts 2 mit verbesserter Genauigkeit erfassen. Dadurch kann der erste Unschärfe-Korrektor 17 die Unschärfekorrektur auf Basis einer genaueren PSF durchführen. Mit anderen Worten, das Bildlesegerät 1 kann chromatische Aberration mit verbesserter Genauigkeit korrigieren.
  • Als PSF, die unabhängig von einer Verschiebung des Scanzielobjekts 2 ist, verwendet der zweite Unschärfe-Korrektor 20 beispielsweise einen Mittelwert von PSFs, die für ihre entsprechenden Farbkomponenten stehen und von einer Verschiebung des Scanzielobjekts 2 abhängig sind, eine PSF, die für die Fokusposition des optischen Systems 33 oder dergleichen gilt. Der zweite Unschärfe-Korrektor 20 kann Unschärfekorrektur mit PSFs für die entsprechenden Farbkomponenten durchführen, wobei die PSFs unabhängig von einer Verschiebung des Scanzielobjekts 2 sind.
  • Das Bildlesegerät 1 wiederholt den Bearbeitungsprozess ähnlich wie in Ausführungsform 1, während das Scanzielobjekt 2 in Teilabtastrichtung transportiert wird und so ein zweidimensionales zusammengesetztes Bild liefert. Das Bildlesegerät 1 nach Ausführungsform 3 führt die Phasenmodulation des in die zweite Linse 44 eintretenden Lichts durch und führt dann die Unschärfekorrektur mit einer PSF durch, die unabhängig von einer Verschiebung des Scanzielobjekts 2 ist, gefolgt von der Erfassung der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung. Anschließend berechnet das Bildlesegerät 1 basierend auf der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achsenrichtung relativ zur Fokusposition und führt eine Unschärfekorrektur mit PSFs für die entsprechenden Farbkomponenten durch, wobei die PSFs von der Verschiebung abhängig sind. Die Durchführung einer Phasenmodulation des in die zweite Linse 44 eintretenden Lichts ermöglicht es, die Tiefenschärfe zu erweitern. Darüber hinaus ermöglicht die Durchführung von Unschärfekorrekturen mit PSFs für die entsprechenden Farbkomponenten den Erhalt eines zusammengesetzten Bildes, in dem die axiale chromatische Aberration korrigiert wird.
  • Wie vorstehend beschrieben, ermöglicht das Bildlesegerät 1 nach Ausführungsform 3 die Korrektur der chromatischen Aberration mit verbesserter Genauigkeit durch Phasenmodulation des in die zweite Linse 44 eintretenden Lichts und anschließende Unschärfekorrektur mit einer PSF, die unabhängig von einer Verschiebung des Scanzielobjekts 2 ist, gefolgt von der Erfassung der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung.
  • Ausführungsform 4
  • 26 ist ein Blockdiagramm, das eine exemplarische Konfiguration des Bildlesegerätes 1 gemäß Ausführungsform 4 der vorliegenden Erfindung darstellt. Das Bildlesegerät 1 nach Ausführungsform 4 hat neben den Komponenten des Bildlesegerätes 1 nach Ausführungsform 1 eine Bestimmungseinheit 21 und eine Schätzeinheit 22. Die Bestimmungseinheit 21 bestimmt, ob der Breitendetektor 15 die Verarbeitung durchführen darf. Die Schätzeinheit 22 schätzt die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung.
  • Wenn die von benachbarten Sensoren 34 erzeugten Bilder solche Bilder anzeigen, die, wie in 8 und 9 dargestellt, ein markantes Design auf einem Rand jedes Bildes beinhalten, kann der Breitendetektor 15 die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung mit hoher Genauigkeit erfassen. Wenn jedoch z.B. das gleiche Musterbild wiederholt auf einer Kante der Bilder erscheint oder wenn die Bilder eine glatte Kante ohne Markierungen aufweisen, ist es schwierig, die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung mit hoher Genauigkeit zu erfassen. Insbesondere, wenn die Bilder ein Bild anzeigen, das das gleiche Muster enthält, das wiederholt auf einer Kante erscheint, würde der Breitendetektor 15 falsche Musterbilder zuordnen, und so eine falsche passende Position erkennen. Infolgedessen kann der Breitendetektor 15 die Breite eines falschen Überlappungsbereichs entlang der Hauptabtastrichtung erkennen. Erkennt der Breitendetektor 15 die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung ungenau, kann der Verschiebungsdetektor 16 anschließend eine falsche Verschiebung des Scanzielobjekts 2 erkennen. Folglich führt der erste Unschärfe-Korrektor 17 die Unschärfekorrektur mit PSFs für die entsprechenden Farbkomponenten durch, wobei die PSFs von einer falschen Verschiebung des Scanzielobjekts 2 abhängig sind. Wenn MTF-Werte unterschiedliche Tendenzen zwischen einer Position, die näher am optischen System 33 liegt, als einer Fokusposition und einer Position, die weiter vom optischen System 33 entfernt ist als die Fokusposition, zeigen, kann sich die chromatische Aberration durch Unschärfekorrektur mit PSFs für ihre entsprechenden Farbkomponenten verschlimmern, wobei die PSFs von einer falsche Verschiebung des Scanzielobjekts 2 abhängig sind.
  • Um zu vermeiden, dass die Breite eines falschen Überlappungsbereichs entlang der Hauptscanrichtung festgestellt wird, bestimmt die im Bildlesegerät 1 nach Ausführungsform 4 enthaltene Bestimmungseinheit 21, ob der Überlappungsbereich eindeutig identifizierbar ist. Insbesondere bestimmt die Bestimmungseinheit 21, ob die von den Bilddaten angezeigte Abgleichposition in den Bildern eindeutig identifizierbar ist. Wenn die Bestimmungseinheit 21 feststellt, dass die passende Position eindeutig identifizierbar ist, geht das Bildlesegerät 1 zu dem Schritt, der vom Breitendetektor 15 ausgeführt wird. Wenn die Bestimmungseinheit 21 feststellt, dass die passende Position nicht eindeutig identifizierbar ist, geht das Bildlesegerät 1 zu dem von der Schätzeinheit 22 durchgeführten Schritt, um die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung zu schätzen. Für jedes der optischen Systeme 33 erfasst der Verschiebungsdetektor 16 eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achsrichtung relativ zur Fokusposition des optischen Systems 33 auf der Grundlage entweder der Breite des Überlappungsbereichs entlang der vom Breitendetektor 15 erfassten Hauptabtastrichtung oder der Breite des Überlappungsbereichs entlang der von der Schätzeinheit 22 geschätzten Hau ptabtastri chtung.
  • 27 ist ein Flussdiagramm, das ein Beispiel für einen Bild-Scanprozess darstellt, der vom Bildlesegerät 1 gemäß Ausführungsform 4 durchgeführt wird. Die Bearbeitungsprozesse in den Schritten S11 und S12 sind die gleichen wie in den Schritten S11 und S12, die, wie in 5 dargestellt, vom Bildlesegerät 1 gemäß Ausführungsform 1 durchgeführt werden. Die Bestimmungseinheit 21 bestimmt, ob die passende Position eindeutig identifizierbar ist (Schritt S122). Wenn die Bestimmungseinheit 21 bestimmt, dass die passende Position eindeutig identifizierbar ist (Y in Schritt S123), geht die Verarbeitung zu Schritt S13 über. Der Bearbeitungsprozess in Schritt S13 ist derselbe wie in Schritt S13, der vom Bildlesegerät 1 gemäß Ausführungsform 1 durchgeführt wird, wie in 5 dargestellt. Wenn die Bestimmungseinheit 21 feststellt, dass die passende Position nicht eindeutig identifizierbar ist (N in Schritt S123), geht die Verarbeitung zu Schritt S124 über. Die Schätzeinheit 22 schätzt die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung (Schritt S124). Wenn entweder der Schritt S13 oder der Schritt S124 beendet ist, geht die Verarbeitung zu Schritt S14 über. Die Bearbeitungsprozesse in den Schritten S14 bis S18 sind die gleichen wie in den Schritten S14 bis S18, die vom Bildlesegerät 1 gemäß Ausführungsform 1 durchgeführt werden, wie in 5 dargestellt.
  • Die Bestimmungseinheit 21 extrahiert eine Kante von jedem der Bilder, die von Bilddaten angezeigt werden, die von benachbarten Sensoren 34 erzeugt werden, vergleicht die in jeder Kante enthaltenen Pixel, um eine Differenz zwischen diesen Kanten zu berechnen, und erkennt eine passende Position mit einer Differenz zwischen den Kanten, die gleich oder kleiner als ein Schwellenwert ist. Wenn Pixel in den Kanten einen einheitlichen Helligkeitswert haben, kann die Bestimmungseinheit 21 die passende Position nicht erkennen. In diesem Fall bestimmt die Bestimmungseinheit 21, dass der vom Breitendetektor 15 zu handhabende Bearbeitungsprozess nicht durchgeführt werden kann. Wenn die Bilder das gleiche Muster aufweisen, das wiederholt auf einer Kante erscheint, erkennt die Bestimmungseinheit 21 dabei eine Vielzahl von passenden Positionen. Wenn eine Vielzahl von passenden Positionen erkannt wird, was bedeutet, dass keine passende Position eindeutig identifizierbar ist, bestimmt die Bestimmungseinheit 21, dass der vom Breitendetektor 15 zu handhabende Bearbeitungsprozess nicht durchgeführt werden kann.
  • Wenn die passende Position zwischen den Bildern, die durch die vom benachbarten Sensor 34 erzeugten Bilder angezeigt werden, nicht eindeutig identifizierbar ist, kann eine andere passende Position zwischen den Bildern, die durch die von anderen benachbarten Sensoren 34 erzeugten Bilder angezeigt werden, eindeutig identifizierbar sein. In diesem Fall kann die Schätzeinheit 22 die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung zwischen den Bildern, in denen die passende Position nicht eindeutig identifizierbar ist, auf der Grundlage der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung schätzen, wie sie aus den Bildern berechnet wird, in denen die passende Position eindeutig identifizierbar ist.
  • Darüber hinaus kann die Schätzeinheit 22 die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung durch Interpolation auf der Grundlage der von anderen benachbarten Sensoren 34 erzeugten Bilder schätzen, bei denen die Bestimmungseinheit 21 bestimmt hat, dass der Breitendetektor 15 die Verarbeitung durchführen kann.
  • Alternativ kann die Schätzeinheit 22 die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung auf der Grundlage der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung schätzen, wobei die andere Breite erkannt wird, wenn sich das Scanzielobjekt 2 an der Fokusposition des optischen Systems 33 befindet. So kann beispielsweise die Schätzeinheit 22 als geschätzte Breite die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung verwenden, wobei die Breite im Vorhinein gemessen wird, wenn sich das Scanzielobjekt 2 an der Fokusposition des optischen Systems 33 befindet, oder einen Wert verwenden, der durch eine Berechnung der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung erhalten wird, wobei die Breite gemessen wird, wenn sich das Scanzielobjekt 2 an der Fokusposition des optischen Systems 33 befindet.
  • Wie in 28 dargestellt, hat das Bildlesegerät 1 nach Ausführungsform 4 neben den Komponenten des Bildlesegerätes 1 nach Ausführungsform 3 in 24 auch die Bestimmungseinheit 21 und die Schätzeinheit 22. In dem in 28 dargestellten Bildlesegerät 1 wird die Phasenmodulation des in die zweite Linse 44 eintretenden Lichts durchgeführt, wonach die Bestimmungseinheit 21 anhand der Bilder, die der Unschärfekorrektur unterzogen wurden, die mit einer PSF durchgeführt wurden, die unabhängig von einer Verschiebung des Scanzielobjekts 2 ist, bestimmt ob die passende Position eindeutig identifizierbar ist. Die nachfolgenden Bearbeitungsprozesse sind die gleichen wie im Bildlesegerät 1, wie in 26 dargestellt.
  • Das Bildlesegerät 1 wiederholt den oben beschriebenen Bearbeitungsprozess, während das Scanzielobjekt 2 in Teilabtastrichtung transportiert wird und so ein zweidimensionales zusammengesetztes Bild liefert. Im Bildlesegerät 1 nach Ausführungsform 4 erkennt der Breitendetektor 15 die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung, wenn die passende Position eindeutig identifizierbar ist, oder die Schätzeinheit 22 schätzt die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung, wenn die passende Position nicht eindeutig identifizierbar ist. Das Bildlesegerät 1 berechnet aus der erfassten oder geschätzten Breite des Überlappungsbereichs entlang der Hauptabtastrichtung eine Verschiebung des Scanzielobjekts 2 entlang der optischen Achsrichtung relativ zur Fokusposition und führt eine Unschärfekorrektur mit PSFs für die entsprechenden Farbkomponenten durch, wobei die PSFs von der Verschiebung abhängig sind. Auch wenn die passende Position nicht eindeutig identifizierbar ist, kann die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung durch den Schätzprozess mit verbesserter Genauigkeit berechnet werden. Dadurch kann die chromatische Aberration mit verbesserter Genauigkeit korrigiert werden.
  • Wie vorstehend beschrieben, erfasst der Breitendetektor 15 im Bildlesegerät 1 nach Ausführungsform 4 die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung, wenn die passende Position eindeutig identifizierbar ist, oder die Schätzeinheit 22 schätzt die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung, wenn die passende Position nicht eindeutig identifizierbar ist, wodurch eine chromatische Aberration mit verbesserter Genauigkeit korrigiert werden kann.
  • Die vorliegende Erfindung ist nicht auf die oben beschriebenen Ausführungsformen beschränkt, und es kann jede Kombination aus einer Vielzahl von Ausführungsformen verwendet werden. Die Farbkomponenten sind nicht auf RGB beschränkt, sondern können beispielsweise Cyan (C), Magenta (M), Gelb (Y) und Schwarz (K) sein. Anstatt das Scanzielobjekt 2 zu transportieren, kann das Bildlesegerät 1 gegenüber dem stationären Scanzielobjekt 2 verschoben werden.
  • Der Verschiebungsdetektor 16 kann die Breite des Überlappungsbereichs entsprechend jeder Zelle entlang der Hauptabtastrichtung aus einem Mittelwert, einem Näherungswert, einem durch Interpolation erhaltenen Wert oder dergleichen berechnen. So kann beispielsweise der Verschiebungsdetektor 16 aus einem Mittelwert von W(k) und W(k + 1) die Breite W'(k + 1) des Überlappungsbereichs entsprechend der (k + 1)-ten Zelle entlang der Hauptabtastrichtung berechnen. Alternativ kann der Verschiebungsdetektor 16 als W' (k + 1) einen Näherungswert basierend auf W(1) bis W(n) oder einen durch Interpolation erhaltenen Wert basierend auf W(k) und W(k + 1) oder dergleichen verwenden. Alternativ kann der Verschiebungsdetektor 16 die in 10 dargestellte Beziehung verwenden, um die Verschiebungen D'(k) und D'(k + 1) des Scanzielobjekts 2 entsprechend W(k) bzw. W(k + 1) zu berechnen und eine Verschiebung D(k + 1) aus D'(k) und D'(k + 1) zu berechnen. Der Verschiebungsdetektor 16 verwendet als D(k + 1) einen Mittelwert von D(k) und D(k + 1), einen Näherungswert basierend auf D(1) bis D(n), einen durch Interpolation erhaltenen Wert basierend auf D(k) und D(k + 1) oder dergleichen.
  • In den oben beschriebenen Ausführungsformen führt der erste Unschärfe-Korrektor 17 eine Unschärfekorrektur durch, und dann passt der Einsteller 18 Komponentendatenstücke an. Der erste Unschärfe-Korrektor 17 kann auch eine Unschärfekorrektur an den vom Einsteller 18 eingestellten Komponentendatenstücken durchführen. In diesem Fall muss die Größe des für den ersten Unschärfe-Korrektor 17 verwendeten Filters entsprechend der Transfervergrößerung angepasst werden.
  • Ein nicht-telezentrisches optisches System wie die vorgenannten Ausführungsformen kann dazu führen, dass Vignettierungen an einem Rand des Sichtfeldes auftreten. Wenn eine Vignettierung auftritt, kann die chromatische Aberration mit verbesserter Genauigkeit korrigiert werden, indem PSFs verwendet werden, die die Berücksichtigung der Vignettierung bei der Unschärfekorrektur widerspiegeln. Der erste Unschärfe-Korrektor 17 verwendet die vorgenannten PSFs, die von der Position des Abbildungselements 36 auf dem Sensor 34 abhängig sind, um die Unschärfekorrektur an den Komponentendatenstücken durchzuführen. Das heißt, der erste Unschärfe-Korrektor 17 führt die Unschärfekorrektur an den Komponentendatenstücken mit PSFs für die entsprechenden Farbkomponenten durch, wobei die PSFs in Abhängigkeit von der Position des Abbildungselements 36 am Sensor 34 und einer Verschiebung des Scanzielobjekts 2 berechnet werden. So verwendet beispielsweise der erste Unschärfe-Korrektor 17 PSFs, die von der Position des Abbildungselements 36 auf dem Sensor 34 in der Hauptabtastrichtung abhängig sind.
  • In den oben beschriebenen Beispielen beinhalten Bilder, bei denen die passende Position nicht eindeutig identifizierbar ist, ein einfaches Bild und ein wiederholt vorkommendes Muster-Bild, aber die Bilder sind nicht auf ein solches einfaches Bild oder Muster-Bild beschränkt.
  • Oben wurden einige exemplarische Ausführungsformen zur Erläuterung der Erfindung beschrieben. Obwohl die vorstehende Diskussion spezifische Ausführungsformen vorgestellt hat, erkennen Fachleute, dass Änderungen in Form und Detail vorgenommen werden können, ohne vom breiteren Geist und Umfang der Erfindung abzuweichen. Dementsprechend sind die Spezifikationen und Zeichnungen eher im illustrativen als im restriktiven Sinne zu betrachten. Diese detaillierte Beschreibung ist daher nicht in einem einschränkenden Sinne zu verstehen.
  • Bezugszeichenliste
  • 1
    Bildlesegerät
    2
    Scanzielobjekt
    4
    refraktive Linse
    11
    Bildgeber
    12
    A/D-Wandler
    13
    Speicher
    14
    Bildprozessor
    15
    Breitendetektor
    16
    Verschiebungsdetektor
    17
    erster Unschärfe-Korrektor
    18
    Einsteller
    19
    Kombinator
    20
    zweiter Unschärfe-Korrektor
    21
    Bestimmungseinheit
    22
    Schätzeinheit
    31
    transparenter Körper
    33
    optisches System
    34
    Sensor
    35
    Platte
    37
    Ausleseschaltung
    40
    Scanbereich
    41
    erste Linse
    3, 43
    Blende
    32a, 32b
    Lichtquelle
    36, 36a, 36b, 36c
    Abbildungselement
    42, 44
    zweite Linse
    Pa(k), Pa(k + 1), Pb(k), Pb(k + 1)
    Bilddaten
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2016/147832 [0021]

Claims (9)

  1. Bildlesegerät, das Folgendes aufweist: - eine Lichtquelle zum Beleuchten eines Beleuchtungsbereichs mit Licht; - Sensoren, die in einer Linie angeordnet sind und Abbildungselemente aufweisen, wobei die Sensoren konfiguriert sind, um aus den auf den Abbildungselementen gebildeten Bildern solche Bilder zu erzeugen, die für jede der Farbkomponenten ein Komponentendatenstück enthalten; - optische Systeme, die für die entsprechenden Sensoren vorgesehen und entlang einer Hauptabtastrichtung angeordnet sind, die die Richtung ist, in der die Sensoren angeordnet sind, wobei die optischen Systeme ausgebildet sind, um durch Licht Bilder auf den Abbildungselementen, die in den Sensoren enthalten sind, abzubilden, wobei das Licht von der Lichtquelle emittiert und von einem Scanzielobjekt in einem Scanbereich im Beleuchtungsbereich gestreut wird; - einen Breitendetektor zum Erfassen der Breite eines Überlappungsbereichs entlang der Hauptabtastrichtung, wobei der Überlappungsbereich ein Bereich ist, in dem sich Bilder, die durch die von benachbarten Sensoren der Sensoren erzeugten Bilder angezeigt werden, überlappen; - einen Verschiebungsdetektor, um für jedes der optischen Systeme eine Verschiebung des Scanzielobjekts entlang einer optischen Achsenrichtung relativ zu einer Fokusposition des optischen Systems basierend auf der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung zu erfassen; - einen ersten Unschärfe-Korrektor, um eine Unschärfekorrektur an jedem Komponentendatenstück unter Verwendung einer Punktverteilungsfunktion für jede der Farbkomponenten durchzuführen, wobei die Punktverteilungsfunktion von der Verschiebung des Scanzielobjekts abhängig ist; - einen Einsteller, um basierend auf einer von der Verschiebung des Scanzielobjekts abhängigen Übertragungsvergrößerung die Größe eines Bildes für jede der Farbkomponenten einzustellen, wobei das Bild durch das Komponentendatenstück angezeigt wird; und - einen Kombinator, um die Bilder durch Überlagerung von Teilen der von den benachbarten Sensoren erzeugten Komponentendatenstücke zu kombinieren, nachdem sie vom ersten Unschärfe-Korrektor einer Unschärfekorrektur unterzogen und vom Einsteller angepasst wurden.
  2. Bildlesegerät nach Anspruch 1, wobei - der Breitendetektor für jede der Farbkomponenten die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung in den Bildern für jede der durch die Komponentendatenstücke angezeigten Farbkomponenten erfasst, wobei die Komponentendatenstücke in den von den benachbarten Sensoren erzeugten Bildern enthalten sind, - der Verschiebungsdetektor für jede der Farbkomponenten und jedes der optischen Systeme eine Verschiebung des Scanzielobjekts entlang der optischen Achsenrichtung relativ zu einer Fokusposition des optischen Systems für die Farbkomponente basierend auf der Breite des Überlappungsbereichs entlang der für jede der Farbkomponenten erfassten Hauptabtastrichtung erfasst, - der erste Unschärfe-Korrektor Unschärfekorrektur an jedem Komponentendatenstück unter Verwendung der Punktverteilungsfunktion durchführt, basierend auf der Verschiebung des für jede der Farbkomponenten erfassten Scanzielobjekts, und - der Einsteller die Größe des Bildes für jede der durch das Komponentendatenstück angezeigten Farbkomponenten basierend auf der Übertragungsvergrößerung in Abhängigkeit von der Verschiebung des für jede der Farbkomponenten erfassten Scanzielobjekts anpasst.
  3. Bildlesegerät nach Anspruch 1 oder 2, wobei der erste Unschärfe-Korrektor Unschärfekorrektur an jedem Komponentendatenstück unter Verwendung der Punktverteilungsfunktion in Abhängigkeit von der Position des Bildelements auf dem Sensor durchführt.
  4. Bildlesegerät nach einem der Ansprüche 1 bis 3, wobei die optischen Systeme jeweils Folgendes aufweisen eine Kombinationslinse, die eine erste Linse und eine zweite Linse aufweist; und eine Blende, die zwischen der ersten Linse und der zweiten Linse in Richtung der optischen Achse angeordnet ist, wobei die zweite Linse an einer Position angeordnet ist, die näher am Sensor liegt als die erste Linse.
  5. Bildlesegerät nach Anspruch 4, wobei die zweite Linse die Phase des in die zweite Linse eintretenden Lichts moduliert.
  6. Bildlesegerät nach Anspruch 5, das ferner Folgendes aufweist: einen zweiten Unschärfe-Korrektor, um ein Unschärfekorrektur an den von den Sensoren erzeugten Bildern unter Verwendung einer Punktverteilungsfunktion durchzuführen, die unabhängig von der Verschiebung des Scanzielobjekts ist, wobei der Breitendetektor die Breite eines Überlappungsbereichs entlang der Hauptabtastrichtung erfasst, d.h. eines Bereichs, in dem sich von den benachbarten Sensoren erzeugte und vom zweiten Unschärfe-Korrektor bearbeitete Teile des Bildes überlappen.
  7. Bildlesegerät nach einem der Ansprüche 1 bis 6, das ferner Folgendes aufweist: - eine Bestimmungseinheit zum Bestimmen, ob der Überlappungsbereich eindeutig identifizierbar ist; und - eine Schätzeinheit zum Schätzen der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung, wobei die Verarbeitung durch den Breitendetektor erfolgt, wenn die Bestimmungseinheit bestimmt, dass der Überlappungsbereich eindeutig identifizierbar ist, wobei die Verarbeitung durch die Schätzeinheit erfolgt, wenn die Bestimmungseinheit bestimmt, dass der Überlappungsbereich nicht eindeutig identifizierbar ist, und wobei der Verschiebungsdetektor für jedes der optischen Systeme eine Verschiebung des Scanzielobjekts entlang der optischen Achsrichtung relativ zur Fokusposition des optischen Systems erfasst, basierend auf der vom Breitendetektor entlang der Hauptabtastrichtung erfassten Breite des Überlappungsbereichs oder basierend auf der von der Schätzeinheit entlang der Hauptabtastrichtung geschätzten Breite des Überlappungsbereichs.
  8. Bildlesegerät nach Anspruch 7, wobei die Schätzeinheit die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung schätzt, basierend auf der Breite des Überlappungsbereichs entlang der vom Breitendetektor erfassten Hauptabtastrichtung.
  9. Bildlesegerät nach Anspruch 7, wobei die Schätzeinheit die Breite des Überlappungsbereichs entlang der Hauptabtastrichtung basierend auf der Breite des Überlappungsbereichs entlang der Hauptabtastrichtung mit dem an der Fokusposition des optischen Systems positionierten Scanzielobjekt schätzt.
DE112018002233.1T 2017-04-27 2018-04-02 Bildlesegerät Pending DE112018002233T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017088825 2017-04-27
JP2017-088825 2017-04-27
PCT/JP2018/014045 WO2018198680A1 (ja) 2017-04-27 2018-04-02 画像読み取り装置

Publications (1)

Publication Number Publication Date
DE112018002233T5 true DE112018002233T5 (de) 2020-01-09

Family

ID=63918331

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018002233.1T Pending DE112018002233T5 (de) 2017-04-27 2018-04-02 Bildlesegerät

Country Status (5)

Country Link
US (1) US10657629B2 (de)
JP (1) JP6469324B1 (de)
CN (1) CN110521197B (de)
DE (1) DE112018002233T5 (de)
WO (1) WO2018198680A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016147832A1 (ja) 2015-03-16 2016-09-22 三菱電機株式会社 画像読取装置及び画像読取方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0451672A (ja) 1990-06-19 1992-02-20 Fujitsu Ltd カラー読取装置
CN101981910B (zh) * 2008-03-31 2013-04-03 三菱电机株式会社 图像读取装置
JP2010079875A (ja) * 2008-08-27 2010-04-08 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP4618355B2 (ja) * 2008-09-25 2011-01-26 ソニー株式会社 画像処理装置及び画像処理方法
JP5233601B2 (ja) * 2008-11-07 2013-07-10 セイコーエプソン株式会社 ロボットシステム、ロボット制御装置およびロボット制御方法
JP5202267B2 (ja) 2008-12-11 2013-06-05 三菱電機株式会社 画像読取装置
JP2010161521A (ja) * 2009-01-07 2010-07-22 Nec Corp 画像処理装置、撮像装置、画像ぶれの補正方法、及びプログラム
US8432479B2 (en) * 2010-04-30 2013-04-30 Apple Inc. Range measurement using a zoom camera
JP2012049773A (ja) * 2010-08-26 2012-03-08 Sony Corp 撮像装置および方法、並びにプログラム
US8823809B1 (en) * 2010-09-27 2014-09-02 Rockwell Collins, Inc. Methods and systems for increasing image sensor sensitivity
JP2013003610A (ja) * 2011-06-10 2013-01-07 Sony Corp 画像処理装置および方法、プログラム、並びに記録媒体
WO2013080551A1 (ja) 2011-11-30 2013-06-06 パナソニック株式会社 撮像装置
JP2013207752A (ja) * 2012-03-29 2013-10-07 Hitachi Automotive Systems Ltd 画像処理装置
US9445003B1 (en) * 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US20150195461A1 (en) * 2014-01-03 2015-07-09 Samsung Electro-Mechanics Co., Ltd. Apparatus and method for image correction
JP2015165610A (ja) * 2014-02-28 2015-09-17 株式会社リコー 撮像装置、撮像システムおよび撮像方法
US9264579B2 (en) * 2014-03-26 2016-02-16 Fuji Xerox Co., Ltd. Correction control device, image reading apparatus, and correction control method
US10542217B2 (en) * 2015-11-26 2020-01-21 Sony Semiconductor Solutions Corporation Shooting device and shooting method to suppress blur in an image
CN108886568A (zh) * 2016-03-30 2018-11-23 株式会社尼康 光学装置
US10506124B2 (en) * 2016-05-13 2019-12-10 Mitsubishi Electric Corporation Image reading apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016147832A1 (ja) 2015-03-16 2016-09-22 三菱電機株式会社 画像読取装置及び画像読取方法

Also Published As

Publication number Publication date
US10657629B2 (en) 2020-05-19
WO2018198680A1 (ja) 2018-11-01
CN110521197B (zh) 2021-08-13
CN110521197A (zh) 2019-11-29
JP6469324B1 (ja) 2019-02-13
US20190370941A1 (en) 2019-12-05
JPWO2018198680A1 (ja) 2019-06-27

Similar Documents

Publication Publication Date Title
DE69314833T2 (de) Korrektur der optischen Defokussierung eines Bildes
EP3261328B1 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und computerlesbares speichermedium
EP3186952B1 (de) Bildaufnahmevorrichtung und verfahren zur bildaufnahme
DE69726421T2 (de) Projektor mit einer schaltung und verfahren zum automatischen einstellen des projektors
DE102017206442B4 (de) Vorrichtung zur Abbildung von Teilgesichtsfeldern, Multiaperturabbildungsvorrichtung und Verfahren zum Bereitstellen derselben
DE112016001223T5 (de) Bildlesevorrichtung und Bildleseverfahren
DE102010023108A1 (de) Projektor mit automatischer Fokussierung und Abbildungsverfahren
US10951817B2 (en) Compound-eye imaging device, image processing method, and recording medium
DE102011006272A1 (de) Bildverarbeitungsvorrichtung und Verfahren des Steuerns von dieser
US7550701B2 (en) Non-linear wavefront coding systems and methods
DE112017001126T5 (de) Bilderfassungs-Einrichtung
CN107431754B (zh) 图像处理方法、图像处理装置和摄像设备
DE112016006582T5 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren,aufzeichnungsmedium, programm und bildaufnahmegerät
DE102021116512A1 (de) Spektrales sensorsystem mit optischen filter-unterarrays
EP3186776A1 (de) Bildaufnahmevorrichtung und verfahren zur bildaufnahme
DE102014102458A1 (de) Vorrichtung zum optischen Lesen von Codes
DE112017002459T5 (de) Bildlesevorrichtung
EP3822844A1 (de) Codeleser und verfahren zum lesen von optischen codes
WO2011157696A2 (de) Farbbildsensor
DE102016114025A1 (de) Steuervorrichtung, Bildaufnahmevorrichtung, Steuerverfahren, Programm und Speichermedium
US11032465B2 (en) Image processing apparatus, image processing method, imaging apparatus, and recording medium
WO2018224444A1 (de) Verfahren und vorrichtung zur bildkorrektur
EP4270917B1 (de) Kamera und verfahren zur erfassung eines objekts
DE19815066B4 (de) Filmabtaster mit Bildstandsfehlerkorrektur
DE112018002233T5 (de) Bildlesegerät

Legal Events

Date Code Title Description
R012 Request for examination validly filed