DE102008008359A1 - Bildlesevorrichtung und deren Steuerverfahren - Google Patents

Bildlesevorrichtung und deren Steuerverfahren Download PDF

Info

Publication number
DE102008008359A1
DE102008008359A1 DE102008008359A DE102008008359A DE102008008359A1 DE 102008008359 A1 DE102008008359 A1 DE 102008008359A1 DE 102008008359 A DE102008008359 A DE 102008008359A DE 102008008359 A DE102008008359 A DE 102008008359A DE 102008008359 A1 DE102008008359 A1 DE 102008008359A1
Authority
DE
Germany
Prior art keywords
pixel data
data
rgb
unit
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102008008359A
Other languages
English (en)
Inventor
Satoshi Kahoku Kubo
Kiyoto Kahoku Kosaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Publication of DE102008008359A1 publication Critical patent/DE102008008359A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/024Details of scanning heads ; Means for illuminating the original
    • H04N1/028Details of scanning heads ; Means for illuminating the original for picture information pick-up
    • H04N1/02815Means for illuminating the original, not specific to a particular type of pick-up head
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40056Circuits for driving or energising particular reading heads or original illumination means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Color Image Communication Systems (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)

Abstract

Eine Bildlesevorrichtung enthält Lichtquellen (211, 212, 213), einen Bildsensor (23), eine Daten erzeugende Einheit (54) und eine Beförderungseinheit (4). Die Lichtquellen (211, 212, 213) werden für eine identische Periode einmal in einer Einzel-Zeilenperiode sequentiell eingeschaltet. Der Bildsensor (23) liest Information von einem durch die Lichtquellen (211, 212, 213) bestrahlten Druckmedium. Die Daten erzeugende Einheit (54) erzeugt Pixeldaten entsprechend der Information. Die Beförderungseinheit (4) befördert das Druckmedium, so dass das Bilddruckmedium durch den Bildsensor (23) in einer Sub-Scanrichtung gescannt wird. Die Einzel-Zeilenperiode ist gleich dem Doppelten einer Periode oder mehr von dem Zeitpunkt an, wenn dem eine erste der Lichtquellen (211, 212, 213) eingeschaltet wird, bis eine letzte der Lichtquellen (211, 212, 213) ausgeschaltet wird.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Bildlesevorrichtung und deren Steuerverfahren.
  • 2. Beschreibung der verwandten Technik
  • Die offen gelegte japanische Patentanmeldung Nr. 2007-097054 offenbart eine Bildlesevorrichtung, die einen Einzeilen-Kontaktbildsensor (CIS) und mehrere Lichtquellen enthält, von denen jede rotes Licht, grünes Licht oder blaues Licht emittiert. Der Einzeilen-CIS enthält mehrere Bilderkennungselemente wie z. B. ladungsgekoppelte Einrichtungen (CCDs), die linear angeordnet sind, so dass sie ein Einzeilen-Array bilden. Ein Druckmedium wird durch die Bildlesevorrichtung gelesen, indem die Bildquellen sequentiell eingeschaltet und die Bilderkennungselemente Licht ausgesetzt werden. Ist es Licht ausgesetzt, erzeugt jedes Bilderkennungselement R-Zeilendaten entsprechend rotem Licht, G-Zeilendaten entsprechend grünem Licht und B-Zeilendaten entsprechend blauem Licht (im Folgenden "RGB-Zeilendaten"). Der Einzeilen-CIS gibt die RGB-Zeilendaten an eine Steuereinheit aus. Die Steuereinheit erzeugt zuerst RGB-Pixeldaten entsprechend jedem Bilderkennungselement basierend auf den RGB-Zeilendaten und erzeugt dann RGB-Lesebilddaten basierend auf den RGB-Pixeldaten.
  • Das Druckmedium wird bezüglich des Einzeilen-CIS so befördert, dass der Einzeilen-CIS das Druckmedium lesen kann. Das heißt, das Druckmedium ist in einem Bewegungszustand, während der Einzeilen-CIS das Druckmedium liest: folglich ist der Abschnitt des Druckmediums, der während der AN-Periode jeder Lichtquelle dem Einzeilen-CIS zugewandt ist, verschieden. Dies ergibt eine Farbfehlanpassung zwischen der Farbe der RGB-Pixeldaten und der Farbe des entsprechenden Abschnitts auf dem Druckmedium. Daher tritt eine Farbverschiebung von Zeichen oder ein Farb-Moiré-Effekt in den RGB-Lesebilddaten auf. Insbesondere im Fall einer niedrigen Bildleseauflösung bewegt sich das Druckmedium schneller bezüglich des Einzeilen-CIS, d. h. der Abschnitt auf dem Druckmedium, der dem Einzeilen-CIS zugewandt ist, wird groß beabstandet, wodurch die Farbverschiebung auffälliger gemacht wird.
  • Eine solche Farbverschiebung in RGB-Lesebilddaten kann unterdrückt werden, indem die Bilderkennungselemente linear angeordnet werden, so dass sie ein Dreizeilen-Array bilden. Eine dreizeilige Array-Anordnung der Bilderkennungselemente ist jedoch teuer verglichen mit einer einzeiligen Array-Anordnung. Dies hat hohe Herstellkosten für die Bildlesevorrichtung zur Folge.
  • Die Farbverschiebung kann auch unterdrückt werden, indem die Bildlesevorrichtung so konfiguriert wird, dass sie das Druckmedium bei einer höheren Leseauflösung als einer spezifizierten Leseauflösung liest, RGB-Lesebilddaten entsprechend der höheren Leseauflösung erzeugt und dann die erzeugten RGB-Lesebilddaten in RGB-Lesebilddaten entsprechend der spezifizierten Leseauflösung korrigiert. Während ein Bilddruck bei einer höheren Leseauflösung gelesen wird, verlangsamt sich jedoch die Beförderungsgeschwindigkeit des Druckmediums bezüglich des Einzeilen-CIS verglichen mit dem Fall eines Lesens des Bilddrucks bei der spezifizierten Leseauflösung.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist eine Aufgabe der vorliegenden Erfindung, die Probleme in der herkömmlichen Technologie zumindest teilweise zu lösen.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird eine Bildlesevorrichtung geschaffen, die eine Lichtquelle, einen Sensor, eine Erzeugungseinheit und eine Beförderungseinheit enthält. Die Lichtquelleneinheit enthält mehrere Lichtquellen, die jeweils einer verschiedenen Farbe entsprechen. Die Lichtquellen werden in einer Einzel-Zeilenperiode sequentiell eingeschaltet, um Licht entsprechender Farben zu emittieren, um ein Druckmedium mit dem Licht zu bestrahlen. Der Sensor enthält ein Array von Bilderkennungselementen, die Information von dem mit dem Licht bestrahlten Druckmedium lesen, um Elementdaten zu erzeugen. Die Erzeugungseinheit erzeugt basierend auf den Elementdaten erste Pixeldaten entsprechend der Information. Die Beförderungseinheit befördert das Druckmedium bezüglich des Sensors, um zu ermöglichen, dass der Sensor die Information vom Druckmedium in einer Sub-Scanrichtung liest. Die Einzel-Zeilenperiode ist gleich dem Doppelten einer Periode oder mehr von dem Zeitpunkt an ist, wenn dem eine erste der Lichtquellen eingeschaltet wird, bis eine letzte der Lichtquellen abgeschaltet wird.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung wird ein Verfahren zum Steuern einer Bildlesevorrichtung geschaffen. Das Verfahren beinhaltet ein sequentielles Einschalten mehrerer Lichtquellen, die jeweils einer verschiedenen Farbe entsprechen, einmal in einer Einzel-Zeilenperiode, um Licht entsprechender Farben zu emittieren, um ein Druckmedium mit dem Licht zu bestrahlen; Lesen von Information von dem Druckmedium, das mit dem Licht bestrahlt wird, um Elementdaten zu erzeugen, durch einen Sensor, der ein Array von Bilderkennungselementen enthält; basierend auf Elementdaten, Erzeugen erster Pixeldaten entsprechend der Information; und Befördern des Druckmediums bezüglich des Sensors, um zu ermöglichen, dass der Sensor die Information vom Druckmedium in einer Sub-Scanrichtung liest. Die Einzel-Zeilenperiode ist gleich dem Doppelten einer Periode oder mehr von dem Zeitpunkt an ist, wenn eine erste der Lichtquellen eingeschaltet wird, bis eine letzte der Lichtquellen ausgeschaltet wird.
  • Die obigen und andere Aufgaben, Merkmale, Vorteile und technische und industrielle Signifikanz dieser Erfindung werden besser verstanden, indem die folgende detaillierte Beschreibung gegenwärtig bevorzugter Ausführungsformen der Erfindung gelesen wird, wenn sie in Verbindung mit den beiliegenden Zeichnungen betrachtet wird.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein schematisches Diagramm eines Bildscanners gemäß einer ersten Ausführungsform der vorliegenden Erfindung;
  • 2 ist ein Flussdiagramm der Operation des in 1 dargestellten Bildscanners;
  • 3 ist ein Zeitablaufdiagramm, um die Operation der Lichtquelle und eines in 1 dargestellten Sensors zu erläutern;
  • 4 ist ein anderes Flussdiagramm der Operation des in 1 dargestellten Bildscanners;
  • 5 ist eine Graphik, um eine Farbkomponentenkurve zu erläutern;
  • 6 ist noch ein anderes Flussdiagramm der Operation des in 1 dargestellten Bildscanners;
  • 7 ist ein schematisches Diagramm eines Bildscanners gemäß einer zweiten Ausführungsform der vorliegenden Erfindung;
  • 8 ist ein Flussdiagramm der Operation des in 7 dargestellten Bildscanners;
  • 9 ist ein Zeitablaufdiagramm, um die Operation jeder Lichtquelle und des Bildsensors, die in 7 dargestellt sind, zu erläutern;
  • 10 ist ein schematisches Diagramm eines Bildscanners gemäß einer dritten Ausführungsform der vorliegenden Erfindung; und
  • 11 ist ein Flussdiagramm der Operation des Bildscanners gemäß einer dritten Ausführungsform.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Beispielhafte Ausführungsformen der vorliegenden Erfindung werden im Folgenden mit Verweis auf die beiliegenden Zeichnungen im Detail beschrieben. Obgleich eine Bildlesevorrichtung im Folgenden als ein Bildscanner beschrieben wird, kann irgendeine andere Vorrichtung wie z. B. ein Multifunktionsprodukt (MFP), eine Facsimile-Maschine oder eine Zeichen erkennende Einrichtung verwendet werden, in der ein Druckmedium durch Verwenden eines Bildsensors gescannt wird. Konkret wird im Folgenden nur beispielhaft ein Bildscanner vom Typ mit automatischer Dokumentenzufuhreinrichtung erläutert, in welchem ein Druckmedium bezüglich eines Bildsensors zum Bildscannen befördert wird. Der Bildscanner kann jedoch auch ein Scanner vom Flachkopftyp sein.
  • 1 ist ein schematisches Diagramm eines Bildscanners 1-1 als eine Bildlesevorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung. Der Bildscanner 1-1 enthält einen Bildsensor 2, ein Gegenseitenelement (engl. backing element) 3, eine Beförderungseinheit 4, eine Steuereinheit 5, eine Lichtquellen-Ansteuerschaltung 6 und eine Motor-Ansteuerschaltung 7. Eine Eingabeeinrichtung 8 und eine Ausgabeeinrichtung 9 sind mit dem Bildscanner 1-1 verbunden. Der Bildsensor 2 enthält eine Lichtquelleneinheit 21, die wiederum eine Rot-(R)-Lichtquelle 211, eine Grün-(G)-Lichtquelle 212 und eine Blau-(B)-Lichtquelle 213 (im Folgenden "RGB-Lichtquellen 211 bis 213") enthält, von denen jede durch die Lichtquellen-Ansteuerschaltung 6 separat ein- und ausgeschaltet wird. Die Beförderungseinheit 4 enthält einen Motor 43, der durch die Motor-Ansteuerschaltung 7 angesteuert oder angetrieben wird.
  • Die Beförderungseinheit 4 befördert ein Druckmedium (Blatt P) bezüglich des Bildsensors 2. Der Bildsensor 2 scannt eine bedruckte Oberfläche P1 des Blatts P in einer Haupt-Scanrichtung (vertikale Richtung in 1). Der Bildsensor 2 ist in einem (nicht dargestellten) Gehäuse des Bildscanners 1-1 angeordnet und enthält die Lichtquelleneinheit 21, eine Linse 22 und einen Bildsensor 23. Ein durchlässiges Auflageelement 24 ist ein optisch durchlässiges Material wie z. B. eine Glasplatte, die zusammen mit dem Gegenseitenelement 3 das durch die Beförderungseinheit 4 beförderte Blatt P trägt.
  • Die Lichtquelle 21 bestrahlt das Blatt P mit dem von den RGB-Lichtquellen 211 bis 213 emittierten Licht. Zusätzlich zu den RGB-Lichtquellen 211 bis 213 enthält die Lichtquelleneinheit 21 auch ein Prisma 214. Wenn sie eingeschaltet ist, emittiert die R-Lichtquelle 211 rotes Licht, emittiert die G-Lichtquelle 212 grünes Licht und emittiert die B-Lichtquelle 213 blaues Licht. Jede der RGB-Lichtquellen 211 bis 213 besteht aus einer lichtemittierenden Diode (LED) und wird durch die Lichtquellen-Ansteuerschaltung 6 separat ein- und ausgeschaltet. Die Lichtquellen-Ansteuerschaltung 6 ist mit der Steuereinheit 5 verbunden und wird von ihr gesteuert. Die Steuereinheit 5 steuert die Lichtquellen-Ansteuerschaltung 6, um jede der RGB-Lichtquellen 211 bis 213 für eine Steuerperiode separat und sequentiell einzuschalten. Während einer ersten Steuerperiode steuert z. B. die Steuereinheit 5 die Lichtquellen-Ansteuerschaltung 6, um die R-Lichtquelle 211 einzuschalten. Während einer zweiten Steuerperiode steuert die Steuereinheit 5 die Lichtquellen-Ansteuerschaltung, um zuerst die R-Lichtquelle 211 einzuschalten und dann die G-Lichtquelle 212 einzuschalten. Ähnlich steuert die Steuereinheit 5 während einer dritten Steuerperiode die Lichtquellen-Ansteuerschaltung 6, um zuerst die G-Lichtquelle 212 einzuschalten und dann die B-Lichtquelle 213 einzuschalten. Folglich wird jede der RBG-Lichtquellen 211 bis 213 für eine Steuerperiode eingeschaltet, und die AN-Periode für jede der RGB-Lichtquellen 211 bis 213 ist gleich oder nahezu gleich. Unterdessen enthält eine Einzel-Zeilenperiode mehr als sechs Steuerperioden, d. h. mehr als das Zweifache der gesamten Periode, während der jede der RGB-Lichtquellen 211 bis 213 einmal sequentiell ein- und ausgeschaltet wird. Die Steuereinheit 5 veranlasst, dass jede der RGB-Lichtquellen 211 bis 213 innerhalb einer Einzel-Zeilenperiode einmal ein- und ausgeschaltet wird, welche von der Scanauflösung des Bildscanners 1-1 abhängt, wenn das Blatt P gescannt wird. Das Prisma 214 wird verwendet, um die dem Bildsensor 2 zugewandete bedruckte Fläche P1 mit dem von jeder der RGB-Lichtquellen 211 bis 213 emittierten Licht in der Haupt-Scanrichtung gleichmäßig zu bestrahlen. Das heißt, das von jeder der RGB-Lichtquellen 211 bis 213 emittierte Licht gelangt durch das Prisma 214 und das durchlässige Auflageelement 24 und fällt auf die bedruckte Oberfläche P1 in der Haupt-Scanrichtung.
  • Nach Bestrahlen der bedruckten Oberfläche P1 reflektiert das Licht von der bedruckten Oberfläche P1, gelangt durch die Linse 22 und fällt auf den Bildsensor 23. Die Linse 22 besteht z. B. aus einem Stablinsen-Array. Wenn das reflektierte Licht durch die Linse 22 gelangt, wird auf einem (nicht dargestellten) Zeilensensor des Bildsensors 23 mit der gleichen Vergrößerung ein aufrechtes Bild der bedruckten Oberfläche P1 gebildet. Die Linse 22 ist zwischen dem Bildsensor 23 und dem durchlässigen Auflageelement 24 angeordnet.
  • Der Bildsensor 23 enthält mehrere (nicht dargestellte) Bilderkennungselemente, die in der Haupt-Scanrichtung linear angeordnet sind, um ein Einzeilen-Array zu bilden. Wenn es Licht ausgesetzt wird, erzeugt jedes Bilderkennungselement Elementdaten in Abhängigkeit von dem Licht, das durch die Linse 22 darauf fällt. Der Bildsensor 23 erzeugt dann Zeilendaten aus den von jedem Bilderkennungselement erzeugten Elementdaten. Auf diese Weise scannt das Einzeilen-Array der Bilderkennungselemente im Bildsensor 23 die bedruckte Oberfläche P1 in der Haupt-Scanrichtung.
  • Der Bildsensor 23 ist mit der Steuereinheit 5 verbunden und wird von ihr gesteuert. Die Steuereinheit 5 setzt die Bilderkennungselemente zur gleichen Zeit des Einschaltens jeder der RGB-Lichtquellen 211 bis 213 Licht aus. Das heißt, die Steuereinheit 5 setzt die Bilderkennungselemente während jeder Steuerperiode, in der eine der RGB-Lichtquellen 211 bis 213 eingeschaltet wird, Licht aus. Folglich können die Bilderkennungselemente Elementdaten entsprechend rotem Licht, grünem Licht und blauem Licht erzeugen, das von den RGB- Lichtquellen 211 bis 213 sequentiell emittiert wird. Auf die rotem Licht entsprechenden Elementdaten wird als R-Daten verwiesen, auf die grünem Licht entsprechenden Elementdaten wird als G-Daten verwiesen, und auf die blauem Licht entsprechenden Elementdaten wird als B-Daten verwiesen (im Folgenden "RGB-Daten"). Folglich erzeugt der Bildsensor 23 die Zeilendaten und zwar R-Zeilendaten, G-Zeilendaten und B-Zeilendaten (im Folgenden "RGB-Zeilendaten") aus den R-Daten, den G-Daten bzw. den B-Daten. Der Bildsensor 23 gibt die RGB-Zeilendaten an die Steuereinheit 5 aus.
  • Das Gegenseitenelement 3 und das durchlässige Auflageelement 24 tragen das Blatt P. Das Gegenseitenelement 3 ist dem Bildsensor 2 zugewandt angeordnet, so dass das Blatt P dazwischen sandwichartig angeordnet ist. Die Oberfläche des Gegenseitenelements 3, die dem Bildsensor 2 zugeordnet ist, besteht aus weißem Material.
  • Die Beförderungseinheit 4 befördert das Blatt P bezüglich des Bildsensors 2 zu einer dem Bildsensor 2 zugewandten Position, d. h. zu einer Position zwischen dem Gegenseitenelement 3 und dem Bildsensor 2, so dass die bedruckte Oberfläche P1 dem Bildsensor 23 zugewandet ist. Die Beförderungseinheit 4 enthält zwei drehbar gelagerte Beförderungswalzen 41 und 42 und den Motor 43, der die Beförderungswalze 41 dreht. Bei Rotation des Motors 43 rotiert die Beförderungswalze 41 in der durch einen Pfeil A in 1 angegebenen Richtung. Wenn die Beförderungswalze 41 rotiert, wird das Blatt P aus dem Zwischenraum zwischen den Beförderungswalzen 41 und 42 in der durch einen Pfeil B angegebenen Richtung (Sub-Scanrichtung) in 1 zu einer dem Bildsensor 2 zugewandten Position befördert. Während das Blatt P an einer dem Bildsensor 2 zugewandten Position platziert wird, wiederholt der Bildsensor 23 ein Scannen in der Haupt-Scanrichtung, so dass die bedruckte Oberfläche P1 in der Sub-Scanrichtung gescannt wird. Die Motor-Ansteuerschaltung 7, die den Motor 43 antreibt oder ansteuert, ist mit der Steuereinheit 5 verbunden. Folglich steuert schließlich die Steuereinheit 5 die Beförderungseinheit 4, um das Blatt P zu befördern. Insbesondere steuert die Steuereinheit 5 die Beförderungsgeschwindigkeit, mit der die Beförderungseinheit 4 das Blatt P befördert, basierend auf der Scanauflösung des Bildscanners 1-1, wenn das Blatt P gescannt wird.
  • Die Steuereinheit 5 steuert das Scannen der bedruckten Oberfläche P1 und erzeugt RGB-gescannte Bilddaten entsprechend der bedruckten Oberfläche P1. Die Steuereinheit 5 enthält eine Eingabe-Ausgabe-(I/O)-Einheit 51, eine Betriebseinheit 52 und eine Speichereinheit 53, die miteinander verbunden sind. Die Steuereinheit 5 ist mit der Eingabeeinrichtung 8 und der Ausgabeeinrichtung 9 über die I/O-Einheit 51 verbunden. Die verschiedenen Arten von Anweisungen oder Daten können eingegeben werden, indem die Eingabeeinrichtung verwendet wird. Die Anweisungen können z. B. sein eine Anweisung, ein Scannen des Blatts P zu starten, oder eine Steueranweisung, um die Scanauflösung zum Scannen des Blatts P einzustellen. Die Eingabeeinrichtung 8 kann einen Schalter, eine Tastatur, eine Maus oder ein Mikrophon sein.
  • Die Betriebseinheit 52 wird konfiguriert, indem ein (nicht dargestellter) Speicher wie z. B. ein Direktzugriffsspeicher (RAM) oder ein Nur-Lesespeicher (ROM) und eine (nicht dargestellte) zentrale Verarbeitungseinheit (CPU) zusammengebaut werden, und enthält eine RGB-Pixeldaten erzeugende Einheit 54, eine RGB-zu-YUV-Umwandlungseinheit 55, eine YUV-Pixeldaten korrigierende Einheit 56 und eine YUV-zu-RGB-Umwandlungseinheit 57. Wenn der Bildsensor 23 ein Scannen des Blatts P startet, lädt die Betriebseinheit 52 ein Steuerprogramm für den Bildscanner 1-1 in den Speicher und führt das Steuerprogramm aus. Die Betriebseinheit 52 speichert in der Speichereinheit 53 numerische Werte, die während der Ausführung des Steuerprogramms erzeugt werden, und verwendet die Werte für weitere Operationen.
  • Die RGB-Pixeldaten erzeugende Einheit 54 erzeugt Referenz-RGB-Pixeldaten (Farbdaten) entsprechend dem Blatt P. Das heißt, die RGB-Pixeldaten erzeugende Einheit 54 erzeugt die Referenz-RGB-Pixeldaten aus den RGB-Daten, die von jedem Bilderkennungselement erzeugt wurden.
  • Die RGB-zu-YUV-Umwandlungseinheit 55 wandelt die Referenz-RGB-Pixeldaten in Luminanz-Pixeldaten um, die eine Luminanzkomponente und eine Farbkomponente aufweisen. Es wird angenommen, dass die Luminanzpixeldaten gemäß der ersten Ausführungsform YUV-Pixeldaten sind (wobei Y eine Luminanzkomponente repräsentiert, während U und V eine Farbkomponente repräsentieren). Basierend auf den RGB-Daten in den Referenz-RGB-Pixeldaten erzeugt die RGB-zu-YUV-Umwandlungseinheit 55 Y-Komponentendaten bezüg lich der Luminanzkomponente und U-Komponentendaten und V-Komponentendaten bezüglich der Farbkomponente, um die YUV-Pixeldaten zu erzeugen.
  • Die YUV-Pixeldaten korrigierende Einheit 56 korrigiert die YUV-Pixeldaten basierend auf der Luminanzkomponente und/oder der Farbkomponente, um korrigierte YUV-Pixeldaten zu erzeugen. Im Fall eines Korrigierens der YUV-Pixeldaten durch Glätten der Farbkomponente (Farbglättung) führt die YUV-Pixeldaten korrigierende Einheit 56 ein Glätten einer U-Komponente und einer V-Komponente in der Sub-Scanrichtung basierend auf benachbarten U-Komponenten bzw. V-Komponenten durch. Zum Beispiel können eine U-Komponente Un und eine V-Komponente Vn basierend auf benachbarten U-Komponenten Un-1 und (Un+1) bzw. V-Komponenten Vn-1 und Vn+1 geglättet werden, indem ein Ausdruck (1) und (2) wie folgt verwendet wird: Un = (d1 × Un-1 + d2 × Un + d3 × Un+1)/(d1 + d2 +d3) (1) Vn = (e1 × Vn-1 + e2 × Vn + e3 × Vn+1)/(e1 + e2 + e3) (2)wobei d1, d2 und d3 Gewichtsparameter für die U-Komponentendaten sind, während e1, e2 und e3 Gewichtskomponenten für die V-Komponentendaten sind.
  • Die YUV-zu-RGB-Umwandlungseinheit 57 wandelt basierend auf den Y-Komponentendaten, den U-Komponentendaten und den V-Komponentendaten die korrigierten YUV-Pixeldaten in RGB-Pixeldaten nach einer Korrektur um. Die Steuereinheit 5 erzeugt RGB-gescannte Bilddaten basierend auf den RGB-Pixeldaten nach einer Korrektur.
  • Die Betriebseinheit 52 zeigt die RGB-gescannten Bilddaten auf der Ausgabeeinrichtung 9 an. Die Ausgabeeinrichtung 9 kann eine Kathodenstrahlröhren-(CRT)-Einrichtung oder eine Flüssigkristallanzeige-(LCD)-Einrichtung sein. Die angezeigten RGB-gescannten Bilddaten können an einen (nicht dargestellten) Drucker zum Drucken gesendet werden. Indessen kann die Speichereinheit 53 in der Betriebseinheit 52 oder einer externen Einrichtung wie z. B. einem Datenbank-Server untergebracht sein. Außerdem können die Eingabeeinrichtung 8 und die Ausgabeeinrichtung 9 auf dem Bildscanner 1-1 montiert sein. Falls der Bild-Scanner 1-1 ein Teil eines Computersystems ist, können die Eingabeeinrichtung 8 und die Ausgabeeinrichtung 9 an einer Endgerät-Einrichtung des Computersystems montiert sein und können konfiguriert werden, um auf den Bildscanner 1-1 durch Verwenden einer verdrahteten Verbindung oder einer Drahtlosverbindung zuzugreifen.
  • Die Speichereinheit 53 speichert darin ein Steuerprogramm für den Bildscanner 1-1. Die Speichereinheit 53 kann ein festes Plattenlaufwerk wie z. B. ein Festplattenlaufwerk (HDD), eine Diskette, eine magnetooptische Platte, ein nicht flüchtiger Speicher wie z. B. ein Flash-Speicher oder ein flüchtiger Speicher wie z. B. ein RAM sein. Die Speichereinheit 53 kann auch ein Speichermechanismus sein, der eine Kombination der oben erwähnten Speichereinheiten enthält.
  • Das Steuerprogramm muss kein unabhängiges Programm sein und kann zusammen mit anderen Computerprogrammen wie z. B. einem Betriebssystem (OS) eines Computersystems ausgeführt werden. Außerdem kann das Steuerprogramm in einem Speichermedium gespeichert werden, und ein Computersystem kann konfiguriert sein, um das Steuerprogramm darin zu laden und auszuführen, so dass der Bildscanner 1-1 das Blatt P scannt. Das Computersystem, auf das hierin verwiesen wird, enthält Software wie z. B. das OS wie auch Hardware wie z. B. Peripherieeinrichtungen.
  • 2 ist ein Flussdiagramm des Prozesses zum Erzeugen von RBG-gescannten Bilddaten durch Farbglättung.
  • Wie oben beschrieben wurde, gibt, während die bedruckte Oberfläche eines Blatts P gescannt wird, der Bildsensor 26 an die Steuereinheit 5 RGB-Zeilendaten für jede Zeilenperiode aus. Basierend auf RGB-Pixeldaten nach einer Korrektur, die durch die YUV-zu-RGB-Umwandlungseinheit 57 erzeugt werden, erzeugt dann die Steuereinheit 5 RGB-gescannte Bilddaten entsprechend der bedruckten Oberfläche. Beim Starten eines Scannens der bedruckten Oberfläche sendet die Steuereinheit 5 ein Synchronisierungssignal an den Bildsensor 23. Die Steuereinheit 5 steuert dann die Beförderungseinheit 4, um das Blatt in Richtung auf den Bildsensor 23 mit einer Geschwindigkeit befördert, die der Scanauflösung entspricht, die vorher unter Verwendung der Eingabeeinrichtung 8 eingestellt wurde. Falls z. B. eine niedrige Scanauflösung eingestellt ist, steuert die Steuereinheit 5 die Beförderungseinheit 4, um Blätter mit einer schnelleren Geschwindigkeit als im Fall einer hohen Scanauflösung zu befördern. Folg lich sind die bedruckten Oberflächen der Blätter, die dem Bildsensor 23 zugewandt sind, während jeder Zeilenperiode groß beabstandet.
  • Während ein Blatt gerade von der Beförderungseinheit 4 bezüglich des Bildsensors 23 befördert wird, erzeugt zunächst die RGB-Pixeldaten erzeugende Einheit 54 die Referenz-RGB-Pixeldaten entsprechend den Bilderkennungselementen während jeder Zeilenperiode (Schritt S101). Die Referenz-RGB-Pixeldaten basieren auf RGB-Zeilendaten. Die RGB-Pixeldaten erzeugende Einheit 54 wiederholt ein Erzeugen von Referenz-RGB-Pixeldaten, bis das Scannen der bedruckten Oberfläche des Blatts abgeschlossen ist. Das heißt, der Bildsensor 23 wiederholt ein Scannen in der Haupt-Scanrichtung, so dass die bedruckte Oberfläche in der Sub-Scanrichtung gescannt wird, und die RGB-Pixeldaten erzeugende Einheit 54 erzeugt Referenz-RGB-Pixeldaten entsprechend der gescannten Information der bedruckten Oberfläche während jeder Zeilenperiode.
  • Wie oben beschrieben wurde, wird angenommen, dass eine Einzel-Zeilenperiode mehr als das Doppelte der Periode ist, während der jede der RGB-Lichtquellen 211 bis 213 einmal ein- und ausgeschaltet wird. Innerhalb jeder Zeilenperiode steuert die Steuereinheit 5 die Lichtquellen-Ansteuerschaltung 6, um jede der RGB-Lichtquellen 211 bis 213 für eine Steuerperiode separat und sequentiell einzuschalten. Der Bildsensor 23 scannt die bedruckte Oberfläche, während jede der RGB-Lichtquellen 211 bis 213 innerhalb jeder Zeilenperiode eingeschaltet ist. 3 ist ein Zeitablaufdiagramm, um die Operation der RGB-Lichtquellen 211 bis 213 und des Bildsensors 23 zu erläutern. Wie in 3 gezeigt ist, ist eine Einzel-Zeilenperiode gleich sechs Steuerperioden, d. h. gleich dem Zweifachen der Periode, während der jede der RGB-Lichtquellen 211 bis 213 einmal ein- und ausgeschaltet wird. Während einer ersten Steuerperiode steuert die Steuereinheit 5 die Lichtquellen-Ansteuerschaltung 6, um die RGB-Lichtquelle 211 einzuschalten, und setzt zur gleichen Zeit die Bilderkennungselemente im Bildsensor 23 Licht aus, so dass der Bildsensor 23 die R-Zeilendaten, die die R-Daten enthalten, während eines Sechstels einer Einzel-Zeilenperiode erzeugen kann. Der Bildsensor 23 gibt die R-Zeilendaten an die Steuereinheit 5 aus. Während einer zweiten Steuerperiode steuert die Steuerreinheit 5 die Lichtquellen-Ansteuerschaltung 6, um die G-Lichtquelle 212 einzuschalten, und setzt zur gleichen Zeit die Bilderkennungselemente im Bildsensor 23 erneut Licht aus, so dass der Bildsensor 23 die G-Zeilendaten, die die G-Daten enthalten, während eines Sechstels einer Einzel-Zeilenperiode erzeugen kann. Der Bildsensor 23 gibt die G-Zeilendaten an die Steuereinheit 5 aus. Ähnlich steuert während einer dritten Steuerperiode die Steuereinheit 5 die Lichtquellen-Ansteuerschaltung 6, um die B-Lichtquelle 213 einzuschalten, und setzt zur gleichen Zeit die Bilderkennungselemente im Bildsensor 23 erneut Licht aus, so dass der Bildsensor 23 die B-Zeilendaten, die die B-Daten enthalten, während eines Sechstels einer Einzel-Zeilenperiode erzeugen kann. Der Bildsensor 23 gibt die B-Zeilendaten an die Steuereinheit 5 aus.
  • Zusammengefasst steuert folglich innerhalb einer Einzel-Zeilenperiode die Steuereinheit 5 die Lichtquellen-Ansteuerschaltung 6, um jede der RGB-Lichtquellen 211 bis 213 für insgesamt die Hälfte der Einzel-Zeilenperiode einzuschalten. Natürlich ist die gesamte AN-Periode der RGB-Lichtquellen 211 bis 213 immer geringer als eine Einzel-Zeilenperiode. Außerdem erzeugt innerhalb einer Einzel-Zeilenperiode die RGB-Pixeldaten erzeugende Einheit 54 die Referenz-RGB-Pixeldaten entsprechend der gescannten Information der bedruckten Oberfläche P1, die über dem Bildsensor 23 nur für eine Periode, die gleich der Hälfte der Einzel-Zeilenperiode ist, platziert ist. Falls die RGB-Lichtquellen 211 bis 213 für eine Periode eingeschaltet sind, die gleich der Hälfte einer Einzel-Zeilenperiode ist, wie oben beschrieben wurde, ist die Distanz, um die die Beförderungseinheit 4 das Blatt P weiter befördert (d. h. der Verschiebungsbetrag der bedruckten Oberfläche P1, die dem Bildsensor 23 zugewandt ist) geringer als, wenn die RGB-Lichtquellen 211 bis 213 für eine komplette Zeilenperiode eingeschaltet sind. Solch eine Konfiguration kann eine Farb-Fehlanpassung zwischen der ursprünglichen Farbe auf der bedruckten Oberfläche P1 und der Farbe der Referenz-RGB-Pixeldaten vermeiden. Folglich ist es möglich, eine Ungleichmäßigkeit der Farbe in den RGB-gescannten Bilddaten zu unterdrücken, welche nach Korrigieren der Referenz-RGB-Pixeldaten zu RGB-Pixeldaten nach einer Korrektur erzeugt werden. Insbesondere ist es möglich, eine Farbverschiebung von Schwarz-und-Weiß-Zeichen auf einem Dokument oder einen Farb-Moirè-Effekt in einem Dokument mit Schwarz-und-Weiß-Halbtönen zu unterdrücken.
  • Wie oben beschrieben wurde, reicht nur ein einzeiliges Array der Bilderkennungselemente im Bildsensor 23 zum Unterdrücken von Farbunregelmäßigkeit aus. Solch eine Anordnung ist kosteneffizient verglichen mit einem dreizeiligen Array und Bilderkennungselementen. Da die Farbunregelmäßigkeit unterdrückt werden kann, ohne die Beförderungsgeschwindigkeit eines Blattes bezüglich des Bildsensors 23 zu variieren, ist es außerdem möglich, die Zeit zu sparen, die erforderlich ist, um die RGB-gescannten Bilddaten zu erzeugen.
  • Nachdem die RGB-Pixeldaten erzeugende Einheit 54 die Referenz-RGB-Pixeldaten erzeugt (Schritt S101), führt die RGB-zu-YUV-Umwandlungseinheit 55 eine YUV-Umwandlung der Referenz-RGB-Pixeldaten durch (Schritt S102), um YUV-Pixeldaten (Schritt S103) zu erzeugen.
  • Die YUV-Pixeldaten korrigierende Einheit 56 glättet die Farbkomponenten der YUV-Pixeldaten, um korrigierte YUV-Pixeldaten zu erzeugen (Schritt S104). Insbesondere führt die YUV-Pixeldaten korrigierende Einheit 56 ein Glätten einer U-Komponente und einer V-Komponente in den YUV-Pixeldaten basierend auf benachbarten U-Komponenten bzw. V-Komponenten in der Sub-Scanrichtung durch.
  • Die YUV-zu-RGB-Umwandlungseinheit 57 führt eine RGB-Umwandlung der korrigierten YUV-Pixeldaten durch, um RGB-Pixeldaten nach einer Korrektur zu erzeugen (Schritt S105). Basierend auf den RBG-Pixeldaten nach einer Korrektur erzeugt die Steuereinheit 5 RGB-gescannte Bilddaten (Schritt S106).
  • Die RGB-Pixeldaten nach einer Korrektur werden folglich erzeugt nach Durchführung einer Farbglättung, was eine Unterdrückung einer Farbverschiebung oder eines Farb-Moiré-Effektes in den RGB-Pixeldaten nach einer Korrektur zur Folge hat. Da die RGB-gescannten Bilddaten basierend auf den RGB-Pixeldaten nach einer Korrektur erzeugt werden, kann folglich auf eine Farbunregelmäßigkeit in den RGB-gescannten Bilddaten produziert werden.
  • Indessen ist die Datenkorrektur zum Unterdrücken einer Farbunregelmäßigkeit nicht auf eine Farbglättung beschränkt. Das heißt, die Farbunregelmäßigkeit kann auch unterdrückt werden, indem eine Farbkomponentenkurve-Korrektur wie im Folgenden mit Verweis auf 4 und 5 beschrieben oder eine Luminanzglättung wie im Folgenden mit Verweis auf 6 beschrieben durchgeführt wird.
  • Im Folgenden wird die Farbkomponentenkurve-Korrektur beschrieben. Zum Beispiel kann die YUV-Pixeldaten korrigierende Einrichtung 56 dafür konfiguriert sein, die YUV-Pixeldaten auf solch eine Weise zu korrigieren, dass Farbkomponentendaten mit einem kleineren Farbwert so korrigiert werden, dass sie einen noch kleineren Farbwert haben. Insbesondere kann die YUV-Pixeldaten korrigierende Einheit 56 dafür konfiguriert sein, einen Teil in den YUV-Pixeldaten mit geringerer Farbsättigung zu korrigieren, d. h. U-Komponentendaten und V-Komponentendaten mit einem kleineren Farbwert so zu korrigieren, dass sie einen noch kleineren Farbwert aufweisen. Ein Teil mit einer geringeren Farbsättigung wird in den YUV-Pixeldaten infolge von Rauschen gebildet, das erzeugt wird, wenn die AN-Periode der RGB-Lichtquellen 211 bis 213 innerhalb einer Einzel-Zeilenperiode verkürzt wird.
  • 4 ist ein Flussdiagramm des Prozesses zum Erzeugen von RGB-gescannten Bilddaten durch eine Farbkomponente-Kurvenkorrektur. 5 ist eine Graphik, um eine Farbkomponentenkurve zu erläutern. Wie in 4 gezeigt ist, erzeugt zuerst die RGB-Pixeldaten erzeugende Einheit 54 Referenz-RGB-Pixeldaten (Schritt S111). Die RGB-zu-YUV-Umwandlungseinheit 55 führt eine YUV-Umwandlung der Referenz-RGB-Pixeldaten durch (Schritt S112), um YUV-Pixeldaten zu erzeugen (Schritt S113). Die YUV-Pixeldaten korrigierende Einheit 56 führt eine Farbkomponentenkurve-Korrektur der U-Komponentendaten und der V-Komponentendaten durch, indem die in 5 gezeigte Farbkomponentenkurve verwendet wird, um korrigierte YUV-Pixeldaten zu erzeugen (Schritt S114). Die Farbkomponentenkurve ermöglicht eine Berechnung korrigierter U-Komponentendaten und korrigierter V-Komponentendaten (im Folgenden "korrigierte Farbkomponentendaten") entsprechend den U-Komponentendaten vor einer Korrektur bzw. den V-Komponentendaten vor einer Korrektur (im Folgenden "Farbkomponentendaten vor einer Korrektur"). Die Farbkomponentenkurve ist dafür ausgelegt, korrigierte Farbkomponentendaten mit einem kleineren Farbwert als demjenigen von Farbkomponentendaten vor einer Korrektur auszugeben, wenn die Farbkomponentendaten vor einer Korrektur einem Teil mit einer geringeren Farbsättigung entsprechen.
  • Nachdem die YUV-Pixeldaten korrigierende Einheit 56 eine Farbkomponentenkurve-Korrektur der YUV-Pixeldaten durchführt (Schritt S114), wandelt die YUV-zu-RGB-Umwandlungseinheit 57 die korrigierten YUV-Pixeldaten in RBG-Pixeldaten nach einer Korrektur um (Schritt S115). Basierend auf den RGB-Pixeldaten nach einer Korrektur erzeugt die Steuereinheit 5 RGB-gescannte Bilddaten (Schritt S116).
  • Folglich werden die RGB-Pixeldaten nach einer Korrektur durch eine Farbkomponentenkurve-Korrektur der YUV-Pixeldaten erzeugt. Als Folge kann ein Farb-Moiré-Effekt in den RGB-Pixeldaten nach einer Korrektur zusammen mit dem Rauschen unterdrückt werden, welches durch Verkürzen der AN-Periode der RGB-Lichtquellen 211 bis 213 erzeugt wird. Da die RGB-gescannten Bilddaten basierend auf den RGB-Pixeldaten nach einer Korrektur erzeugt werden, kann folglich auch eine Farbunregelmäßigkeit in den RGB-gescannten Bilddaten reduziert werden.
  • Im Folgenden wird eine Luminanzglättung beschrieben. Zum Beispiel kann die YUV-Pixeldaten korrigierende Einheit 56 dafür ausgelegt sein, die Y-Komponentendaten (Luminanzkomponentendaten) von YUV-Pixeldaten zu korrigieren.
  • 6 ist ein Flussdiagramm des Prozesses zum Erzeugen der RGB-gescannten Bilddaten, indem eine Luminanzglättung durchgeführt wird. Wie in 6 gezeigt ist, erzeugt zuerst die RGB-Pixeldaten erzeugende Einheit 54 Referenz-RGB-Pixeldaten (Schritt S121). Die RGB-zu-YUV-Umwandlungseinheit 55 führt eine YUV-Umwandlung der Referenz-RGB-Pixeldaten durch (Schritt S123). Die YUV-Pixeldaten korrigierende Einheit 56 glättet die Luminanzkomponenten der YUV-Pixeldaten, um korrigierte YUV-Pixeldaten zu erzeugen (Schritt S124). Insbesondere führt die YUV-Pixeldaten korrigierende Einheit 56 eine Glättung der Y-Komponentendaten in den YUV-Pixeldaten durch, indem ein zweidimensionaler Gauss-Filtervorgang durchgeführt wird.
  • Die YUV-zu-RGB-Umwandlungseinheit 57 wandelt die korrigierten YUV-Pixeldaten in RGB-Pixeldaten nach einer Korrektur um (Schritt S125). Basierend auf den RGB-Pixeldaten nach einer Korrektur erzeugt die Steuereinheit 5 RGB-gescannte Bilddaten (Schritt S126).
  • Folglich werden die RGB-Pixeldaten nach einer Korrektur durch Luminanzglättung erzeugt, was eine Unterdrückung einer Farbverschiebung oder eines Farb-Moiré-Effekts in den RGB-Pixeldaten nach einer Korrektur zur Folge hat. Da die RGB-gescannten Bilddaten basierend auf den RGB-Pixeldaten nach einer Korrektur erzeugt werden, wird folglich auch eine Farbunregelmäßigkeit in den RGB-gescannten Bilddaten unterdrückt.
  • Die YUV-Pixeldaten korrigierende Einheit 56 kann indessen auch dafür konfiguriert sein, eine Kombination einer Farbglättung, einer Farbkomponentenkurve-Korrektur und Luminanzglättung durchzuführen.
  • Anstelle der YUV-Pixeldaten kann außerdem irgendein anderer Typ von Pixeldaten mit einer Luminanzkomponente und einer Farbkomponente (z. B. LAB-Pixeldaten) als die Luminanz-Pixeldaten verwendet werden.
  • 7 ist ein schematisches Diagramm eines Bildscanners 1-2 gemäß einer zweiten Ausführungsform der vorliegenden Erfindung. Im Gegensatz zum Bildscanner 1-1 der ersten Ausführungsform korrigiert der Bildscanner 1-2 direkt Referenz-RGB-Pixeldaten, ohne die Referenz-RGB-Pixeldaten in YUV-Pixeldaten umzuwandeln. Der Bildscanner 1-2 hat grundsätzlich die gleiche Konfiguration wie der Bildscanner 1-1 außer einer Steuereinheit 10. Gleiche Bezugsziffern beziehen sich auf entsprechende Teile, und die gleiche Beschreibung wird nicht wiederholt.
  • Der Bildscanner 1-2 enthält die Steuereinheit 10, die die Arbeitsweise des Bildscanners 1-2 zum Scannen eines Blattes steuert. Die Steuereinheit 10 erzeugt RGB-gescannte Bilddaten entsprechend der bedruckten Oberfläche P1. Die Steuereinheit 10 enthält eine Eingabe-Ausgabe-(I/O)-Einheit 101, eine Betriebseinheit 102 und eine Speichereinheit 103.
  • Die Betriebseinheit 102 enthält eine RGB-Pixeldaten erzeugende Einheit 104 und eine RGB-Pixeldaten korrigierende Einheit 105. Die RGB-Pixeldaten erzeugende Einheit 104 erzeugt Referenz-RGB-Pixeldaten entsprechend der bedruckten Oberfläche P1.
  • Die RGB-Pixeldaten korrigierende Einheit 105 korrigiert die Referenz-RGB-Pixeldaten, indem ergänzende RGB-Pixeldaten entsprechend der AUS-Periode aller RGB-Lichtquellen 211 bis 213 innerhalb einer Einzel-Zeilenperiode erzeugt werden. Mit anderen Worten werden innerhalb jeder Zeilenperiode die ergänzenden RGB-Pixeldaten basierend auf den Referenz-RGB-Pixeldaten in der gleichen Zeilenperiode und den Referenz-RGB-Pixeldaten in der nächsten Zeilenperiode, d. h. der benachbarten Zeilenperiode in der Sub-Scanrichtung, erzeugt. Basierend auf den ergänzenden RGB-Pixeldaten korrigiert die RGB-Pixeldaten korrigierende Einheit 105 die Referenz-RGB-Pixeldaten, um RGB-Pixeldaten nach einer Korrektur zu erzeugen.
  • 8 ist ein Flussdiagramm des Prozesses zum Erzeugen von RGB-gescannten Bilddaten basierend auf ergänzenden RGB-Pixeldaten und Referenz-RGB-Pixeldaten. 9 ist ein Zeitablaufdiagramm zum Erläutern des Betriebs der RGB-Lichtquellen 211 bis 213 und des Bildsensors 23. Die Prozeduren in dem folgenden Steuerungsablauf, der demjenigen der ersten Ausführungsform identisch ist, werden kurz beschrieben.
  • Zuerst erzeugt die RGB-Pixeldaten erzeugende Einheit 104 Referenz-RGB-Pixeldaten (Schritt S201).
  • Die RGB-Pixeldaten korrigierende Einheit 105 erzeugt dann ergänzende RGB-Pixeldaten (Schritt S202). Insbesondere erzeugt, wie in 9 dargestellt ist, entsprechend der AN-Periode von jeder der RGB-Lichtquellen 211 bis 213 innerhalb einer ersten Zeilenperiode der Bildsensor 23 zuerst Referenz-RGB-Pixeldaten, die R1-Zeilendaten, G1-Zeilendaten und B1-Zeildendaten (im Folgenden "RGB1-Zeilendaten") enthalten. Ähnlich erzeugt entsprechend der AUS-Periode von jeder RGB-Lichtquellen 211 bis 213 innerhalb der ersten Zeilenperiode der Bildsensor 23 ergänzende RGB-Pixeldaten, die R1'-Zeilendaten, G1'-Zeilendaten und B1-Zeilendaten (im Folgenden "RGB1'-Zeilendaten") enthalten, als ob die RGB-Lichtquellen 211 bis 213 im AN-Zustand seien. Auf diese Weise erzeugt innerhalb jeder Zeilenperiode der Bildsensor 23 ergänzende RGB-Pixeldaten entsprechend Referenz-RGB-Pixeldaten in der gleichen Zeilenperiode. Wie in 9 dargestellt ist, erzeugt entsprechend der AN-Periode von jeder der RGB-Lichtquellen 211 bis 213 innerhalb einer zweiten Zeilenperiode der Bildsensor 23 Referenz-RGB-Pixeldaten, die R2-Zeilendaten, G2-Zeilendaten und B2-Zeilendaten (im Folgenden "RGB2-Zeilendaten") enthalten. In diesem Fall können die RGB'-Zeilendaten als z. B. der Durchschnitt der RGB1-Zeilendaten und der RGB2-Zeilendaten erzeugt werden (d. h. R1'-Zeilendaten = (R1 + R2)/2-Zeilendaten, G1'-Zeilendaten = (G1 + G2)/2-Zeilendaten und B1'-Zeilendaten = (B1 + B2)/2-Zeilendaten).
  • Nach Erzeugen der ergänzenden RGB-Pixeldaten (Schritt S202) korrigiert die RGB-Pixeldaten korrigierende Einheit 105 die Referenz-RGB-Pixeldaten ba sierend auf den entsprechenden ergänzenden RGB-Pixeldaten, um RGB-Pixeldaten nach einer Korrektur zu erzeugen (Schritt S203). Die RGB-Pixeldaten korrigierende Einheit 105 erzeugt z. B. die RGB-Pixeldaten nach einer Korrektur als den Durchschnitt der RGB1-Zeilendaten und der RGB'-Zeilendaten (d. h. (R1 + R1')/2-Zeilendaten, (G1 + G1')/2-Zeilendaten und (B1 + B1')/2-Zeilendaten).
  • Basierend auf den RGB-Pixeldaten nach einer Korrektur erzeugt die Steuereinheit 10 RGB-gescannte Bilddaten (Schritt S204).
  • Der Bildsensor 23 kann die bedruckte Oberfläche P1 in einer Einzel-Zeilenperiode nicht scannen, da die AN-Periode der RGB-Lichtquellen 211 bis 213 geringer ist als die Einzel-Zeilenperiode. Mit anderen Worten kann der Bildsensor 23 die bedruckte Oberfläche P1 während der AUS-Periode RGB-Lichtquellen 211 bis 213 innerhalb einer Einzel-Zeilenperiode nicht scannen. Die fehlende Scaninformation entsprechend der AUS-Periode kann jedoch erhalten werden, indem die ergänzenden RGB-Pixeldaten erzeugt werden. Folglich ist es möglich, glatte RGB-gescannte Bilddaten basierend auf den Referenz-RGB-Pixeldaten und den ergänzenden RGB-Pixeldaten zu erzeugen. Durch Weglassen des Prozesses eines Umwandelns der Referenz-RGB-Pixeldaten in die YUV-Pixeldaten ist es außerdem möglich, die Zeit zu sparen, die erforderlich ist, um die RGB-gescannten Bilddaten zu erzeugen.
  • 10 ist ein schematisches Diagramm eines Bildscanners 1-3 gemäß einer dritten Ausführungsform der vorliegenden Erfindung. Der Bildscanner 1-3 wandelt Referenz-RGB-Pixeldaten in Farbart-Pixeldaten um, die zumindest eine Sättigungskomponente haben, und korrigiert dann Farbart-Pixeldaten. Der Bildscanner 1-3 hat im Grund die gleiche Konfiguration wie der Bildscanner 1-1 der ersten Ausführungsform außer einer Steuereinheit 11. Gleiche Bezugsziffern verweisen auf entsprechende Teile, und die gleiche Beschreibung wird nicht wiederholt.
  • Der Bildscanner 1-3 enthält die Steuereinheit 11, die die Arbeitsweise des Bildscanners 1-3 zum Scannen eines Blatts steuert. Die Steuereinheit 11 erzeugt RGB-gescannte Bilddaten entsprechend der bedruckten Oberfläche P1. Die Steuereinheit 11 enthält eine Eingabe-Ausgabe-(I/O)-Einheit 111, eine Betriebseinheit 112 und eine Speichereinheit 113.
  • Die Betriebseinheit 112 enthält eine RGB-Pixeldaten erzeugende Einheit 114, eine RGB-zu-HSL-Umwandlungseinheit 115, eine RGB-Pixeldaten korrigierende Einheit 116, eine Farbart-Pixeldaten korrigierende Einheit 117 und eine HSL-zu-RGB-Umwandlungseinheit 118. Die RGB-Pixeldaten erzeugende Einheit 114 erzeugt Referenz-RGB-Pixeldaten entsprechend der bedruckten Oberfläche P1.
  • Die RGB-zu-HSL-Umwandlungseinheit 115 wandelt die Referenz-RGB-Pixeldaten in Farbart-Pixeldaten um, die zumindest eine Sättigungskomponente aufweisen. Es wird angenommen, dass die Farbart-Pixeldaten gemäß der dritten Ausführungsform HSL-Pixeldaten sind (wobei H für Farbton steht, S für Sättigung steht und L für Luminanz steht). Basierend auf den RGB-Daten in den Referenz-RGB-Pixeldaten erzeugt die RGB-zu-HSL-Umwandlungseinheit 115 II-Komponentendaten bezüglich der Farbton-Komponente, S-Komponentendaten bezüglich der Sättigungskomponente und L-Komponentendaten bezüglich der Luminanzkomponente, um die HSL-Pixeldaten zu erzeugen. Basierend auf Ra-Daten, Ga-Daten und Ba-Daten in geglätteten RGB-Pixeldaten (im Folgenden "RaGaBa-Pixeldaten"), die später beschrieben werden, erzeugt ähnlich die RGB-zu-HSL-Umwandlungseinheit 115 Ha-Komponentendaten bezüglich der Farbtonkomponente, Sa-Komponentendaten bezüglich der Sättigungskomponente und La-Komponentendaten bezüglich der Luminanzkomponente, um geglättete HSL-Pixeldaten (im Folgenden "HaSaLa-Pixeldaten") zu erzeugen. Basierend auf Rb-Daten, Gb-Daten und Bb-Daten in RGB-Pixeldaten nach einer Korrektur (im Folgenden "RbGbBb-Pixeldaten"), die später beschrieben werden, erzeugt außerdem die RGB-zu-HSL-Umwandlungseinheit 115 Hb-Komponentendaten bezüglich der Farbdruckkomponente, Sb-Komponentendaten bezüglich der Sättigungskomponente und Lb-Komponentendaten bezüglich der Luminanzkomponente, um HSL-Pixeldaten nach einer Korrektur (im Folgenden "HbSbLb-Pixeldaten") zu erzeugen. Basierend auf Rc-Daten, Gc-Daten und Bc-Daten in erneut geglätteten RGB-Pixeldaten nach einer Korrektur (im Folgenden "RcGcBc-Pixeldaten"), die später beschrieben werden, erzeugt überdies die RGB-zu-HSL-Umwandlungseinheit 115 Hc-Komponentendaten bezüglich der Farbtonkomponente, Sc-Komponentendaten bezüglich der Sättigungskomponente und Lc-Komponentendaten bezüglich der Luminanzkomponente, um er neut geglättete HSL-Pixeldaten nach einer Korrektur (im Folgenden "HcScLc-Pixeldaten") zu erzeugen.
  • Die RGB-Pixeldaten korrigierende Einheit 116 führt eine Glättung der RGB-Daten in den Referenz-RGB-Pixeldaten durch. Insbesondere führt die RGB-Pixeldaten korrigierende Einheit 116 eine Glättung der RGB-Daten durch, um die RaGaBa-Pixeldaten zu erzeugen, so dass z. B. eine Scanzeilen-Fehljustierung entsprechend jeder der R-Daten, der G-Daten und der B-Daten nicht bedeutend ist. Außerdem führt die RGB-Pixeldaten korrigierende Einheit 116 eine erneute Glättung der RbGbBb-Pixeldaten durch, die durch die HSL-zu-RGB-Umwandlungseinheit 118 erzeugt werden, basierend auf z. B. benachbarten RGB-Pixeldaten, um die RcGcBc-Daten zu erzeugen. Das heißt, die RGB-Pixeldaten korrigierende Einheit 116 führt eine erneute Glättung der Rb-Daten, der Gb-Daten und der Bb-Daten in den RbGbBb-Pixeldaten basierend auf benachbarten R-Daten, benachbarten G-Daten bzw. B-Daten in benachbarten RGB-Pixeldaten nach einer Korrektur durch, um die RcGcBc-Daten zu erzeugen, die die Rc-Daten, die Gc-Daten und die Bc-Daten enthalten. Zum Beispiel können R-Daten Rn erneut geglättet werden basierend auf benachbarten R-Daten Rn-1 und Rn+1, können G-Daten Gn erneut geglättet werden basierend auf benachbarten G-Daten Gn-1 und Gn+1, und B-Daten Bn können erneut geglättet werden basierend auf benachbarten B-Daten Bn-1 und Bn+1, indem Ausdrücke (3) bis (5) wie folgt verwendet werden: Rn = (f1 × Rn-1 + f2 × Rn + g3 × Rn+1)/(f1 + f2 + f3) (3) Gn = (g1 × Gn-1 + g2 × Gn + g3 × Gn+1)/(g1 + g2 + g3) (4) Bn = (h1 × Bn-1 + h2 × Bn + h3 × Bn+1)/(h1 + h2 + h3) (5)wobei f1, f2 und f3 Gewichtsparameter für die R-Daten sind, g1, g2 und g3 Gewichtsparameter für die G-Daten sind und h1, h2 und h3 Gewichtsparameter für die B-Daten sind.
  • Im Falle einer Glättung der RGB-Pixeldaten, indem die Scanzeilen-Fehljustierung berücksichtigt wird, werden die Gewichtsparameter so eingestellt, dass sie logisch mit einer der Farben aus Rot, Grün und Blau zusammenpassen. Im Falle einer Glättung der RGB-Pixeldaten basierend auf benachbarten RGB-Pixeldaten werden die Gewichtsparameter basierend auf einer Daumenre gel eingestellt, um eine Farbunregelmäßigkeit und eine Farbverdunkelung (engl. color fade-out) zu eliminieren.
  • Die Farbart-Pixeldaten korrigierende Einheit 117 korrigiert die Sättigungskomponente der Farbart-Pixeldaten. Wenn ein Wert einer Referenzsättigungskomponente von Referenz-Farbart-Pixeldaten (Referenz-HSL-Pixeldaten gemäß der dritten Ausführungsform) größer ist als ein Wert einer geglätteten Sättigungskomponente geglätteter Farbart-Pixeldaten (HaSaLa-Pixeldaten gemäß der dritten Ausführungsform), ersetzt die Farbart-Pixeldaten korrigierende Einheit 117 die Referenzsättigungskomponente durch die geglättete Sättigungskomponente. Gemäß der dritten Ausführungsform setzt insbesondere, wenn der Wert der Referenz-Sättigungskomponentendaten (S-Daten) der Referenz-HSL-Pixeldaten größer ist als der Wert geglätteter Sättigungskomponentendaten (Sa-Daten) der HaSaLa-Pixeldaten, die Farbart-Pixeldaten korrigierende Einheit 117 die S-Daten durch die Sa-Daten (S-Daten = Sa-Daten). Ähnlich ersetzt, wenn ein Wert einer Sättigungskomponente nach einer Korrektur von Farbart-Pixeldaten nach einer Korrektur (die HbSbLb-Pixeldaten gemäß der dritten Ausführungsform) größer ist als ein Wert einer geglätteten Sättigungskomponente nach einer Korrektur geglätteter Farbart-Pixeldaten nach einer Korrektur (die HcScLc-Pixeldaten gemäß der dritten Ausführungsform), die Farbart-Pixeldaten korrigierende Einheit 117 die Sättigungskomponente nach einer Korrektur durch die geglättete Sättigungskomponente nach einer Korrektur. Insbesondere ersetzt gemäß der dritten Ausführungsform, wenn der Wert von Sättigungskomponentendaten nach einer Korrektur (Sb-Daten) der HbSbLb-Pixeldaten größer ist als der Wert geglätteter Sättigungskomponentendaten nach einer Korrektur (Sc-Daten) der HcScLc-Daten, die Farbart-Pixeldaten korrigierende Einheit 117 die Sb-Daten durch die Sc-Daten (Sb-Daten = Sc-Daten).
  • Die HSL-zu-RGB-Umwandlungseinheit 118 wandelt die Referenz-HSL-Pixeldaten in die RbGbBb-Pixeldaten um. Insbesondere erzeugt, nachdem die Farbart-Pixeldaten korrigierende Einheit 117 die S-Daten durch die Sa-Daten in der Referenz-HSL-Pixeldaten ersetzt, die HSL-zu-RGB-Umwandlungseinheit 118 die RbGbBb-Pixeldaten basierend auf H-Daten, den ersetzten Sa-Daten und L-Daten der Referenz-HSL-Pixeldaten. Auf der anderen Seite erzeugt, wenn die Farbart-Pixeldaten korrigierende Einheit 117 die S-Daten der Referenz-HSL- Pixeldaten nicht korrigiert, die HSL-zu-RGB-Umwandlungseinheit 118 die RbGbBb-Pixeldaten basierend auf den H-Daten, den S-Daten und den L-Daten. Außerdem wandelt die HSL-zu-RGB-Umwandlungseinheit 118 die HbSbLb-Pixeldaten in einen anderen Satz von RGB-Pixeldaten nach einer Korrektur um. Insbesondere erzeugt, nachdem die Farbart-Pixeldaten korrigierende Einheit 117 die Sb-Daten durch Sc-Daten in den HbSbLb-Pixeldaten ersetzt, die HSL-zu-RGB-Umwandlungseinheit 118 RGB-Pixeldaten nach einer Korrektur, die Rd-Daten, Gd-Daten und Bd-Daten (im Folgenden "RdGdBd-Pixeldaten) enthalten, basierend auf Hb-Daten, den ersetzten Sc-Daten und den Lb-Daten der HbSbLb-Pixeldaten um. Wenn auf der anderen Seite die Farbart-Pixeldaten korrigierende Einheit 117 die Sb-Daten nicht korrigiert, erzeugt die HSL-zu-RGB-Umwandlungseinheit 118 die RdGdBd-Pixeldaten basierend auf den Hb-Daten, den Sb-Daten und den Lb-Daten. Basierend auf den RbGbBd-Pixeldaten erzeugt die Steuereinheit 11 die RGB-gescannten Bilddaten entsprechend der bedruckten Oberfläche P1.
  • 11 ist ein Flussdiagramm des Prozesses zum Erzeugen von RGB-gescannten Bilddaten zum Erzeugen von RGB-gescannten Bilddaten unter Verwendung einer HSL-Umwandlung. Die Prozeduren im folgenden Steuerungsablauf, die jenen gemäß der ersten Ausführungsform identisch sind, werden kurz beschrieben.
  • Zunächst erzeugt die RGB-Pixeldaten erzeugende Einheit 114 Referenz-RGB-Pixeldaten (Schritt S301).
  • Die RGB-zu-HSL-Umwandlungseinheit 115 führt eine HSL-Umwandlung der Referenz-RGB-Pixeldaten (Schritt S302) durch, um Referenz-HSL-Pixeldaten zu erzeugen (Schritt S303).
  • Die RGB-Pixeldaten korrigierende Einheit 116 glättet die Referenz-RGB-Pixeldaten (Schritt S304). Insbesondere führt die RGB-Pixeldaten korrigierende Einheit 116 ein Glätten der RGB-Pixeldaten durch, um RaGaBa-Pixeldaten zu erzeugen, indem die Scanzeilen-Fehljustierung berücksichtigt wird.
  • Die RGB-zu-HSL-Umwandlungseinheit 115 führt eine HSL-Umwandlung der RaGaBa-Pixeldaten (Schritt S305) durch, um HaSaLa-Pixeldaten zu erzeugen (Schritt S306).
  • Die Farbart-Pixeldaten korrigierende Einheit 117 bestimmt dann, ob der Wert der S-Daten der Referenz-HSL-Pixeldaten größer ist als der Wert der Sa-Daten der HaSaLa-Pixeldaten (Schritt S307).
  • Wenn der Wert der S-Daten größer ist als der Wert der Sa-Daten (JA bei Schritt S307), korrigiert die Farbart-Pixeldaten korrigierende Einheit 117 die Referenz-HSL-Pixeldaten, indem die Sa-Daten für die S-Daten ersetzt werden, so dass die Referenz-RGB-Pixeldaten folglich korrigiert werden (Schritt S308). Wenn auf der anderen Seite der Wert der S-Daten nicht größer ist als der Wert der Sa-Daten (NEIN bei Schritt S307), ersetzt die Farbart-Pixeldaten korrigierende Einheit 117 die S-Daten nicht durch die Sa-Daten.
  • Die HSL-zu-RGB-Umwandlungseinheit 118 führt eine RGB-Umwandlung der Referenz-HSL-Pixeldaten durch, deren S-Daten entweder durch die Sa-Daten ersetzt oder wie sie sind beibehalten werden (Schritt S309), um RbGbBb-Pixeldaten zu erzeugen (Schritt S310).
  • Die RGB-zu-HSL-Umwandlungseinheit 115 führt dann eine HSL-Umwandlung der RbGbBb-Pixeldaten durch (Schritt S311), um HbSbRb-Pixeldaten zu erzeugen (Schritt S312).
  • Die RGB-Pixeldaten korrigierende Einheit 116 führt eine erneute Glättung der Rb-Daten, der Gb-Daten und der Bb-Daten in den RbGbBb-Pixeldaten basierend auf den benachbarten R-Daten und den benachbarten G-Daten bzw. den benachbarten B-Daten in benachbarten RBG-Pixeldaten nach einer Korrektur durch, um RcGcBc-Pixeldaten zu erzeugen, die die Rc-Daten, die Gc-Daten und die Bc-Daten enthalten (Schritt S313).
  • Die RGB-zu-HSL-Umwandlungseinheit 115 führt dann eine HSL-Umwandlung der RcGcBc-Pixeldaten durch (Schritt S314), um HcScLc-Pixeldaten zu erzeugen (Schritt S315).
  • Die Farbart-Pixeldaten korrigierende Einheit 117 bestimmt dann, ob der Wert der Sb-Daten der HbSbLb-Pixeldaten größer ist als der Wert der Sc-Daten der HcScLc-Daten (Schritt S316).
  • Wenn der Wert der Sb-Daten größer ist als der Wert der Sc-Daten (JA bei Schritt S316), korrigiert die Farbart-Pixeldaten korrigierende Einheit 117 die HbSbLb-Pixeldaten, indem die Sc-Daten für die Sb-Daten ersetzt werden, so dass die RbGbBb-Pixeldaten folglich korrigiert werden (Schritt S317). Wenn auf der anderen Seite der Wert der Sb-Daten nicht größer ist als der Wert der Sc-Daten (NEIN bei Schritt S316), ersetzt die Farbart-Pixeldaten korrigierende Einheit 117 die Sb-Daten nicht durch die SC-Daten.
  • Die HSL-zu-RGB-Umwandlungseinheit 118 führt eine RGB-Umwandlung der HbSbLb-Pixeldaten durch, deren Sb-Daten entweder durch die SC-Daten ersetzt oder wie sie sind beibehalten werden, um RdGdBd-Pixeldaten zu erzeugen (Schritt S318). Die HSL-zu-RGB-Umwandlungseinheit 118 erzeugt dann RGB-gescannte Bilddaten auf der Basis der RdGdBd-Pixeldaten (Schritt S319).
  • Statt der HSL-Pixeldaten kann indessen irgendein anderer Typ von Pixeldaten mit einer Sättigungskomponente (z. B. HSV-Pixeldaten) als die Farbart-Pixeldaten verwendet werden.
  • Wie oben dargelegt wurde, wird gemäß einer Ausführungsform der vorliegenden Erfindung eine Farbunregelmäßigkeit kostengünstig reduziert, und es ist weniger Zeit erforderlich, um RGB-gescannte Bilddaten zu erzeugen.
  • Obgleich die Erfindung bezüglich einer spezifischen Ausführungsform für eine vollständige und klare Offenbarung beschrieben wurde, sollen die beigefügten Ansprüche folglich nicht so beschränkt sein, sondern sollen als alle Modifikationen und alternative Konstruktionen verkörpernd betrachtet werden, die dem Fachmann für die Technik in den Sinn kommt, die in die hierin dargelegte grundlegende Lehre fällt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 2007-097054 [0002]

Claims (9)

  1. Bildlesevorrichtung, mit: einer Lichtquelleneinheit (21), die mehrere Lichtquellen (211, 212, 213) enthält, die jeweils einer verschiedenen Farbe entsprechen, welche Lichtquellen (211, 212, 213) in einer Einzel-Zeilenperiode einmal sequentiell eingeschaltet werden, um Licht entsprechender Farben zu emittieren, um ein Druckmedium mit dem Licht zu bestrahlen; einem Sensor (23), der ein Array von Bilderkennungselementen enthält, die Information von dem mit dem Licht bestrahlten Druckmedium lesen, um Elementdaten zu erzeugen; einer Erzeugungseinheit (54), die basierend auf den Elementdaten erste Pixeldaten entsprechend der Information erzeugt; und einer Beförderungseinheit (4), die das Druckmedium bezüglich des Sensors (23) befördert, um zu ermöglichen, dass der Sensor (23) die Information von dem Druckmedium in einer Sub-Scanrichtung liest, wobei die Einzel-Zeilenperiode gleich dem Doppelten einer Periode oder mehr von dem Zeitpunkt an ist, wenn dem eine erste Lichtquelle (211, 212, 213) eingeschaltet wird, bis eine letzte der Lichtquellen (211, 212, 213) abgeschaltet wird.
  2. Bildlesevorrichtung nach Anspruch 1, ferner mit einer ersten Umwandlungseinheit (55), die die ersten Pixeldaten in Luminanzpixeldaten mit Luminanzkomponentendaten und einer Farbkomponente umwandelt; einer Korrektureinheit (56), die die Luminanzpixeldaten basierend auf der Luminanzkomponente und/oder der Farbkomponente korrigiert; und einer zweiten Umwandlungseinheit (57), die korrigierte Luminanzpixeldaten in zweite Pixeldaten umwandelt.
  3. Bildlesevorrichtung nach Anspruch 2, wobei: die korrigierende Einheit (56) die Farbkomponente basierend auf einer Farbkomponente von Luminanzpixeldaten glättet, die den Luminanzpixeldaten in der Sub-Scannrichtung benachbart sind.
  4. Bildlesevorrichtung nach Anspruch 2 oder 3, wobei die korrigierende Einheit (56), wenn die Farbkomponente einen kleinen Wert hat, die Farbkomponente korrigiert, so dass sie einen noch kleineren Wert hat.
  5. Bildlesevorrichtung nach einem der Ansprüche 2 bis 4, wobei die korrigierende Einheit (56) die Luminanzkomponente glättet.
  6. Bildlesevorrichtung nach Anspruch 1, ferner mit: einer korrigierenden Einheit (105), die basierend auf den ersten Pixeldaten und Pixeldaten, die den ersten Pixeldaten in der Sub-Scanrichtung benachbart sind, ergänzende Pixeldaten entsprechend einer Periode erzeugt, während der alle Lichtquellen (211, 212, 213) in der Einzel-Zeilenperiode ausgeschaltet sind, und die ersten Pixeldaten basierend auf den ergänzenden Pixeldaten korrigiert, um zweite Pixeldaten zu erzeugen.
  7. Bildlesevorrichtung nach Anspruch 1, ferner mit: einer ersten korrigierenden Einheit (116), die die ersten Pixeldaten glättet, um geglättete Pixeldaten zu erhalten; einer ersten umwandelnden Einheit (115), die die ersten Pixeldaten in Farbart-Pixeldaten mit zumindest einer ersten Sättigungskomponente und die geglätteten Pixeldaten in geglättete Farbart-Pixeldaten mit zumindest einer zweiten Sättigungskomponente umwandelt; einer zweiten korrigierenden Einheit (117), die, wenn ein Wert der ersten Sättigungskomponente größer ist als ein Wert der zweiten Sättigungskomponente, die erste Sättigungskomponente durch die zweite Sättigungskomponente ersetzt; und einer zweiten umwandelnden Einheit (118), die die Farbart-Pixeldaten in zweite Pixeldaten umwandelt.
  8. Bildlesevorrichtung nach Anspruch 7, wobei die erste korrigierende Einheit (116) ein erneutes Glätten der zweiten Pixeldaten durchführt, um zweite geglättete Pixeldaten zu erhalten, die erste umwandelnde Einheit (115) die zweiten Pixeldaten in zweite Farbart-Pixeldaten mit zumindest einer dritten Sättigungskomponente und die zweiten geglätteten Pixeldaten in zweite geglättete Farbart-Pixeldaten mit zumindest einer vierten Sättigungskomponente umwandelt, die zweite korrigierende Einheit (117) die dritte Sättigungskomponente durch die vierte Sättigungskomponente ersetzt, wenn ein Wert der dritten Sättigungskomponente größer ist als ein Wert der vierten Sättigungskomponente, und die zweite umwandelnde Einheit (118) die zweiten Farbart-Pixeldaten in dritte Pixeldaten umwandelt.
  9. Verfahren zum Steuern einer Bildlesevorrichtung, mit den Schritten: sequentielles Einschalten mehrerer Lichtquellen, jede einer verschiedenen Farbe entsprechend, einmal in einer Einzel-Zeilenperiode, um Licht entsprechender Farben zu emittieren, um ein Druckmedium mit dem Licht zu bestrahlen; Lesen von Information von den mit dem Licht bestrahlten Druckmedium, um Elementdaten zu erzeugen, durch einen Sensor, der ein Array von Bilderkennungselementen enthält; basierend auf den Elementdaten, Erzeugen erster Pixeldaten entsprechend der Information; Befördern des Druckmediums bezüglich des Sensors, um zu ermöglichen, dass der Sensor die Information vom Druckmedium in einer Sub-Scanrichtung liest, wobei die Einzel-Zeilenperiode gleich dem Doppelten einer Periode oder mehr zu dem Zeitpunkt ist, wenn dem eine erste Lichtquelle eingeschaltet wird, bis eine letzte der Lichtquellen ausgeschaltet wird.
DE102008008359A 2007-06-25 2008-02-08 Bildlesevorrichtung und deren Steuerverfahren Withdrawn DE102008008359A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007166898A JP5039448B2 (ja) 2007-06-25 2007-06-25 画像読取装置および画像読取装置の制御方法
JP2007-166898 2007-06-25

Publications (1)

Publication Number Publication Date
DE102008008359A1 true DE102008008359A1 (de) 2009-01-02

Family

ID=40076151

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008008359A Withdrawn DE102008008359A1 (de) 2007-06-25 2008-02-08 Bildlesevorrichtung und deren Steuerverfahren

Country Status (4)

Country Link
US (1) US7566856B2 (de)
JP (1) JP5039448B2 (de)
CN (1) CN101335813B (de)
DE (1) DE102008008359A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4886563B2 (ja) * 2007-03-19 2012-02-29 キヤノン株式会社 画像読取装置
JP5039448B2 (ja) * 2007-06-25 2012-10-03 株式会社Pfu 画像読取装置および画像読取装置の制御方法
US20140139888A1 (en) * 2009-03-10 2014-05-22 Stephan Frisch Method and apparatus for scanning large-format documents
JP4757340B2 (ja) * 2009-10-30 2011-08-24 シャープ株式会社 照明装置、その照明装置を備える画像読取り装置、その画像読取り装置を備える画像形成装置
JP4920088B2 (ja) * 2010-01-05 2012-04-18 シャープ株式会社 照明装置、その照明装置を備える画像読取り装置、その画像読取り装置を備える画像形成装置
KR20130057310A (ko) * 2011-11-23 2013-05-31 삼성전자주식회사 화상독취장치 및 화상독취방법
JP5740361B2 (ja) * 2012-07-27 2015-06-24 京セラドキュメントソリューションズ株式会社 画像読取装置及びこれを備えた画像形成装置
US9485380B2 (en) * 2014-06-25 2016-11-01 Fuji Xerox Co., Ltd. Image reading apparatus, image forming apparatus and computer readable medium storing program
JP6365037B2 (ja) * 2014-07-10 2018-08-01 富士ゼロックス株式会社 画像読取装置、画像形成装置、及びプログラム
WO2016209258A1 (en) * 2015-06-26 2016-12-29 Hewlett-Packard Development Company, L.P. Print saturation calibration
CN108845963A (zh) * 2018-06-08 2018-11-20 宁波华高信息科技有限公司 一种基于fpga的cis模拟前端数据的快速传输方法
JP7130522B2 (ja) * 2018-10-19 2022-09-05 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007097054A (ja) 2005-09-30 2007-04-12 Brother Ind Ltd 画像読取装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4691114A (en) * 1984-02-29 1987-09-01 Canon Kabushiki Kaisha Original reader with variable magnification and time delay
JPH04236571A (ja) * 1991-01-18 1992-08-25 Ricoh Co Ltd カラー画像再生方式
JPH06311315A (ja) * 1993-04-26 1994-11-04 Canon Inc 画像読取装置
JPH07123221A (ja) * 1993-10-26 1995-05-12 Nikon Corp 画像読み取り装置および方法
JP3459770B2 (ja) * 1998-04-10 2003-10-27 キヤノン株式会社 画像読取装置および方法、記録媒体
JP3939855B2 (ja) * 1998-05-11 2007-07-04 株式会社リコー 両面原稿読み取り方法および装置
JP4672918B2 (ja) * 2001-07-12 2011-04-20 キヤノン株式会社 イメージセンサ及び画像読取装置
JP2003189068A (ja) * 2001-12-18 2003-07-04 Ricoh Co Ltd カラー画像読取り装置
US7388692B2 (en) * 2003-09-24 2008-06-17 Murata Kikai Kabushiki Kaisha Color image processing device and color image processing method
JP5039448B2 (ja) * 2007-06-25 2012-10-03 株式会社Pfu 画像読取装置および画像読取装置の制御方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007097054A (ja) 2005-09-30 2007-04-12 Brother Ind Ltd 画像読取装置

Also Published As

Publication number Publication date
US20080315071A1 (en) 2008-12-25
CN101335813B (zh) 2010-09-22
JP5039448B2 (ja) 2012-10-03
US7566856B2 (en) 2009-07-28
JP2009005309A (ja) 2009-01-08
CN101335813A (zh) 2008-12-31

Similar Documents

Publication Publication Date Title
DE102008008359A1 (de) Bildlesevorrichtung und deren Steuerverfahren
DE3856537T2 (de) Bildaufzeichnungsgerät
DE69015235T2 (de) Vorrichtung und Methode zur Umwandlung eines punktorganisierten einfarbigen Bildes in ein Grauwertbild mittels Operationen in einer Suchtabelle.
DE69132760T2 (de) Farbbildverarbeitungsgerät und -verfahren
DE19506178C2 (de) Bildlesevorrichtung
DE69607313T2 (de) Durchscheinkorrektur für zweiseitige Dokumente
DE69431968T2 (de) Verfahren zur Korrektur von Halbtonpunktbilddaten und dieses anwendendes Bildverarbeitungsgerät
DE69729976T2 (de) Bildlesegerät und -einheit und Steuergerät
DE69328748T2 (de) Verfahren und Vorrichtung zur Verarbeitung von Farbbildern
DE3629422C2 (de) Verfahren und Vorrichtung zum Einstellen von Belichtungsgrößen an einem Kopiergerät
DE102008008360A1 (de) Scaneinrichtung, Vorrichtung und Verfahren zur Bildverarbeitung
DE19839291A1 (de) Bilderzeugungseinrichtung
CN1847977A (zh) 灰度变换校正方法以及使用该方法的灰度变换校正模块
DE19924143A1 (de) Apparat für Abschattungskorrektur in einem Bildaufnahmesystem und Verfahren dafür
DE69330354T2 (de) Bildverarbeitung zur Bestimmung und Änderung von den Hintergrund einer abgetasteten Dokumentenvorlage darstellenden Dichtewerten.
DE3442793A1 (de) Bildverarbeitungseinrichtung
DE69517364T2 (de) Bildlesegerät und -verfahren, Weisspegelkorrekturverfahren und Weisspegelerzeugungsverfahren
DE69714169T2 (de) Dynamische Steuerung der Belichtung in digitalen Eingabeeinrichtungen
DE102008006650A1 (de) Bildsensor, Bildsensoreinheit und Bildlesegerät
DE102008038428A1 (de) Bildleser
EP0243523B1 (de) Verfahren zur Aufzeichnung von Druckformen
DE3885793T3 (de) Mehrfachkopiersystem für ein digitales Kopiergerät.
DE3527301A1 (de) Bildleseeinrichtung
CH675185A5 (de)
DE19734878A1 (de) Bilderfassungsvorrichtung und Schattierungskorrekturverfahren

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8139 Disposal/non-payment of the annual fee