DE10342476A1 - Verfahren und Vorrichtung zum Messen von Zusammenbau- und Ausrichtungs-Fehlern in Sensoranordnungen - Google Patents

Verfahren und Vorrichtung zum Messen von Zusammenbau- und Ausrichtungs-Fehlern in Sensoranordnungen Download PDF

Info

Publication number
DE10342476A1
DE10342476A1 DE10342476A DE10342476A DE10342476A1 DE 10342476 A1 DE10342476 A1 DE 10342476A1 DE 10342476 A DE10342476 A DE 10342476A DE 10342476 A DE10342476 A DE 10342476A DE 10342476 A1 DE10342476 A1 DE 10342476A1
Authority
DE
Germany
Prior art keywords
segment
target
sensor
positions
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10342476A
Other languages
English (en)
Other versions
DE10342476B4 (de
Inventor
Rodney C. Fort Collins Harris
Kurt E. Fort Collins Spears
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of DE10342476A1 publication Critical patent/DE10342476A1/de
Application granted granted Critical
Publication of DE10342476B4 publication Critical patent/DE10342476B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/047Detection, control or error compensation of scanning velocity or position
    • H04N1/0473Detection, control or error compensation of scanning velocity or position in subscanning direction, e.g. picture start or line-to-line synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • H04N1/1013Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with sub-scanning by translatory movement of at least a part of the main-scanning components
    • H04N1/1017Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with sub-scanning by translatory movement of at least a part of the main-scanning components the main-scanning components remaining positionally invariant with respect to one another in the sub-scanning direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/191Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
    • H04N1/192Simultaneously or substantially simultaneously scanning picture elements on one main scanning line
    • H04N1/193Simultaneously or substantially simultaneously scanning picture elements on one main scanning line using electrically scanned linear arrays, e.g. linear CCD arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/024Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
    • H04N2201/02406Arrangements for positioning elements within a head
    • H04N2201/02439Positioning method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/0471Detection of scanning velocity or position using dedicated detectors
    • H04N2201/04712Detection of scanning velocity or position using dedicated detectors using unbroken arrays of detectors, i.e. detectors mounted on the same substrate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/04715Detection of scanning velocity or position by detecting marks or the like, e.g. slits
    • H04N2201/04717Detection of scanning velocity or position by detecting marks or the like, e.g. slits on the scanned sheet, e.g. a reference sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04753Control or error compensation of scanning position or velocity
    • H04N2201/04791Control or error compensation of scanning position or velocity in the sub-scan direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04753Control or error compensation of scanning position or velocity
    • H04N2201/04794Varying the control or compensation during the scan, e.g. using continuous feedback or from line to line

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Input (AREA)
  • Facsimile Heads (AREA)

Abstract

Ein Ziel, ein Verfahren und eine Vorrichtung sind offenbart zum Messen von Zusammenbau- und Ausrichtungs-Fehlern bei Scannersensoranordnungen. Die Sensoranordnung weist zumindest zwei Sensorsegmente auf. Das Ziel weist Kanten auf, die durch Änderungen bei dem Reflexionsvermögen definiert sind. Zumindest eine vertikale Kante entspricht jedem Sensorsegment und kann nur durch dessen entsprechendes Segment erfaßt werden, sogar wenn die Segmente falsch ausgerichtet sind, zu dem maximalen Ausmaß ihrer Plazierungstoleranzen. Das Ziel kann optional eine horizontale Kante aufweisen, die die Sensorsegmente umspannt. Das Ziel wird gescannt, und das resultierende digitale Bild wird analysiert, um die sichtbaren Positionen der Zielkanten zu erfassen. Die sichtbaren Kantenpositionen liefern ausreichend Informationen, um die Sensorsegmente zu lokalisieren. Das Ziel kann optional in einen Scanner eingelagert sein oder in eine separate Ausrichtungshalterung. Die Analyse kann in einem Scanner, in einer Halterung oder einem Computer ausgeführt werden, der/die an einen Scanner oder eine Halterung angebracht ist.

Description

  • Die vorliegende Erfindung bezieht sich allgemein auf ein Bildeingabescannen.
  • Eine typische Abtastvorrichtung bzw. ein Scanner verwendet eine Lichtquelle zum Beleuchten eines Abschnitts eines Originalartikels. Eine Linse oder ein Array von Linsen leitet das Licht um, das von dem Originalartikel reflektiert oder durch denselben übertragen wurde, um ein Bild einer Scanlinie auf ein Array von lichtempfindlichen Elementen zu projizieren. Jedes lichtempfindliche Element erzeugt ein elektrisches Signal, das sich auf die Lichtintensität bezieht, die auf das Element fällt, die sich wiederum auf das Reflexionsvermögen, die Durchlässigkeit oder die Dichte des entsprechenden Abschnitts des Originalartikels bezieht. Diese elektrischen Signale werden gelesen und denselben werden numerische Werte zugewiesen. Ein Scanmechanismus fegt üblicherweise die Scanlinie über den Originalartikel, so daß aufeinanderfolgende Scanlinien gelesen werden. Durch Zuordnen der numerischen Werte zu ihren entsprechenden Positionen auf dem Artikel, der gescannt wird, wird eine digitale Darstellung des gescannten Artikels aufgebaut. Wenn die digitale Darstellung gelesen und ordnungsgemäß interpretiert wird, kann ein Bild des gescannten Artikel rekonstruiert werden.
  • 1 zeigt eine perspektivische Ansicht des Bilderzeugungsabschnitts eines Scanners, der einen Kontaktbildsensor verwendet. Ein Großteil der Stützstruktur, der Lichtabschirmung und des Scanmechanismus wurden aus der Figur der Klarheit halber weggelassen. Ein Kontaktbildsensor (CIS = contact image sensor) verwendet eine Array von Gradientenindex-Stablinsen (GRIN-Stablinsen; GRIN = gradient index) 101, die zwischen einer Platte 102 und einem segmentierten Array aus Sensorsegmenten 103 plaziert sind, die an einer gedruckten Schaltungsplatine 104 befestigt sind. Die Sensorsegmente 103 enthalten die lichtempfindlichen Elemente. Eine Lichtquelle 105 liefert das Licht, das zum Scannen von reflektierenden Originalartikeln benötigt wird. Die elektrischen Signale, die durch die lichtempfindlichen Elemente erzeugt werden, können zu anderen Elektronikeinrichtungen (nicht gezeigt) durch ein Kabel 106 getragen werden. Jedes Sensorsegment 103 kann manchmal ein Chip genannt werden.
  • 2 zeigt eine Querschnittansicht der CIS-Anordnung aus 1, wie sie verwendet werden würde, um ein Reflexionsoriginal zu scannen. Die Lichtquelle 105 emittiert Licht 102, das das Original 202 beleuchtet. Ein Teil des Lichts wird von dem Original reflektiert und wird durch GRIN-Linsen 101 erfaßt. Die GRIN-Linsen refokussieren das Licht auf lichtempfindliche Elemente 103, die ein Bild des Originals 202 bilden. Während ein Array von GRIN-Linsen gezeigt ist, das zwei versetzte Reihen aufweist, können die Linsen in einer einzelnen Reihe, in drei Reihen oder in einer anderen Anordnung angeordnet sein.
  • Jedes der lichtempfindlichen Segmente ist weiter in Pixel unterteilt. Der Ausdruck Pixel kann sich auf ein individuell adressierbares lichtempfindliches Element aus Sensorsegmenten 103 oder auf den entsprechenden Bereich des Originals 202, der auf diesen Abschnitt abgebildet wird, oder auf jeden digitalen Wert beziehen, der einer Position in einem Digitalbild entspricht.
  • 3 stellt eine schematische Draufsicht eines bestimmten Sensorsegments 103 dar, die ferner die Reihe aus individuellen Pixeln 301 zeigt, die jedes Sensorsegment 103 aufweist. Für eine klare Darstellung sind nur wenige Pixel gezeigt. Ein tatsächliches Sensorsegment kann Hunderte oder Tausende von individuellen Pixeln aufweisen. Die Anzahl von Pixeln pro lineare Einheit des Sensors definiert die Raumabtastrate des Scanners, die ebenfalls häufig die Auflösung des Scanners genannt wird. Ein typischer Scanner kann eine Auflösung von 300, 600, 1200 oder 2400 Pixeln pro Zoll aufweisen, obwohl andere Auflösungen möglich sind.
  • Die optische Vergrößerung des CIS-Moduls ist im wesentlichen einheitlich, so daß die Pixelstellen 301 auf den Sensorsegmenten 103 auf entsprechende Pixel auf dem Original 202 abgebildet werden, und die Pixel auf dem Original 102 sind im wesentlichen von derselben Größe wie die Pixelstellen 301. 4 zeigt die Pixel aus drei Sensorsegmenten eines Mehrfachsegment-Sensorarrays projiziert auf das Original 202. Idealerweise überlappen einige der Pixel der Segmente. Das heißt, wenn die Richtung, die der Länge der Segmente entspricht, die X-Richtung, betrachtet wird, um eine Reihe von Pixeln zu definieren, und die Querrichtung, die Y-Richtung, derart eingerichtet sein soll, um Spalten von Pixelpositionen zu überqueren, dann kann das oder die Endpixel eines Segments in derselben Spalte vorliegen wie die Endpixel eines anderen Segments. Zum Beispiel ist das Pixel in dem Segment 402 im wesentlichen in derselben Spalte wie das Pixel 410 in dem Segment 401.
  • Die X-Richtung, wie sie gezeigt ist, wird manchmal ebenfalls die Hauptscanrichtung genannt, und die Y-Richtung wird manchmal die Nebenscanrichtung genannt.
  • Während des Scannens wird der Satz aus Segmenten in der Nebenscanrichtung bewegt, die durch den Pfeil 404 angezeigt ist. Zu einer Zeit sind die Pixel in der Position, wie in durchgezogenen Linien in 4 gezeigt ist, und werden gelesen. Zu späteren Zeiten, die nachfolgenden Scanlinien entsprechen, sind die Pixel in den Positionen, die in gestrichelten Linien gezeigt sind, und werden gelesen. Zu einem bestimmten späteren Zeitpunkt liest das Pixel 410 im wesentlichen den gleichen Abschnitt des Originals 202, den das Pixel 411 vorangehend gelesen hat. Dies ist ein einfaches Beispiel des Prozesses zum Aufbauen eines kompletten abschließenden Bildes aus Segmenten, die zu unterschiedlichen Zeiten und Positionen gescannt werden. Dieser Prozeß wird manchmal ein Neu-Abtasten oder Nähen genannt.
  • Bei dem idealisierten Beispiel aus 4 sind die Sensorsegmente 103 perfekt parallel zueinander plaziert, überlappen um genau ein Pixel und sind in der Y-Richtung um genau 3 Pixel versetzt. Bei einem tatsächlichen Scanner jedoch ist diese Präzision nicht ohne weiteres erreichbar. Die Positionsgenauigkeit der Pixel wird primär durch die Plazierungsgenauigkeit der Sensorsegmente 103 auf der Schaltungsplatine 104 bestimmt. Jedes Segment kann von dessen idealer Position in der X-Richtung oder der Y-Richtung versetzt werden, oder dadurch, das dasselbe nicht parallel zu dessen Idealausrichtung plaziert wird. Diese Fehler können in Kombination auftreten.
  • 5 stellt ein übertriebenes Beispiel einer Fehlplazierung der Sensorsegmente 103 dar. Jedes der Sensorsegmente 501, 502 und 503 ist relativ zu dessen Nennposition fehlplaziert. Ein Beispielergebnis ist, daß die Pixel 510 und 511 um ungefähr fünf Scanlinien in der Y-Richtung versetzt und nicht bei ihren drei Nennscanlinien sind. Wenn die Näheeinrichtung annimmt, daß sie Pixel aus dem Segment 510 an Pixel aus dem Segment 511 anpassen sollte, das drei Scanlinien früher gescannt wurde, wird ein „Näheartefakt" an der Grenze zwischen den Teilen des Bildes auftreten, die durch die Segmente 501 und 502 gescannt wurden. Die Segmente 502 und 503 überlappen in der X-Richtung um mehr als ihr ein Nennpixel und ähnliche Näheartefakte können als ein Ergebnis auftreten. Die Näheartefakte können z. B. verursachen, daß glatte Linien in dem Original 202 in dem resultierenden gescannten Bild als zusammenhanglos oder gezackt erscheinen.
  • Bislang haben sich Hersteller von CIS-Modulen bemüht, diese Näheartefakte zu verhindern, durch Steuern der Plazierung der Sensorsegmente 103 auf die Schaltungsplatine 104, so präzise und so genau wie möglich. Da die umfaßten Geometrien sehr klein sind, war es nicht immer möglich, die Segmente mit ausreichend kleinen Fehlern zuverlässig zu plazieren. Üblicherweise wurde Module mit zu viel Plazierungsabweichung abgelehnt, wodurch der Herstellungsertrag reduziert und schließlich die Kosten der Module, die akzeptabel waren, erhöht wurden.
  • Dieses Problem wurde verschlimmert, als Scanner mit immer höherer Auflösung hergestellt wurden. Zum Beispiel entspricht eine Spezifizierung eines Maximalplazierungsfehlers eines Pixels einer Plazierungstoleranz von ungefähr 84 μm für einen Scanner mit einer Auflösung von 300 Pixel pro Zoll. Aber dieselbe Pixelspezifizierung entspricht einer Plazierungstoleranz von nur ungefähr 10 μm für einen Scanner mit einer Auflösung von 2400 Pixeln pro Zoll.
  • Die anhängige U.S.-Patentanmeldung Seriennummer 09/365,112, die den gleichen Bevollmächtigten wie die vorliegende Anmeldung aufweist, beschreibt ein Verfahren zum Kompensieren der Chipplazierungsfehlern bei einem handgehaltenen Scanner, der Positionssensoren und ein Positionskorrektursystem aufweist. Diese Anmeldung beschreibt jedoch nur ein bestimmtes Kompensationsverfahren, und kein Verfahren, zum Charakterisieren der Fehlausrichtungen der Segmente.
  • Es kann möglich sein, die Chipplazierungsfehler unter Verwendung eine Metrologieausrüstung zu charakterisieren, aber dies würde einen bedeutenden Zeitbetrag und Aufwand erfordern, und trägt ferner zu er Komplexität eines Datenverfolgungssystem zum Zuordnen der Meßdaten zu jedem CIS-Modul bei.
  • Um die Minimierung von Nähfehlern bei gescannten Bildern zu ermöglichen, wird ein kostengünstiges, zweckmäßiges Verfah ren benötigt, um die Sensorsegment-Plazierungsfehler in einem Scanneroptikmodul zu charakterisieren.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein Ziel und ein Verfahren zum Messen von Zusammenbau- und Ausrichtungs-Fehlern, einen Scanner, eine Halterung und ein System mit verbesserten Charakteristika zu schaffen.
  • Diese Aufgabe wird durch ein Ziel gemäß Anspruch 1 oder 3, ein Verfahren gemäß Anspruch 5, einen Scanner gemäß Anspruch 9 oder 13, eine Halterung gemäß Anspruch 10 und ein System gemäß Anspruch 12 gelöst.
  • Ein Ziel, ein Verfahren und eine Vorrichtung sind offenbart, zum Messen von Zusammenbau- und Ausrichtungs-Fehlern bei Scanner-Sensoranordnungen. Die Sensoranordnung weist zumindest zwei Sensorsegmente auf. Das Ziel weist Kanten auf, die durch Änderungen bei dem Reflexionsvermögen definiert sind. Zumindest eine vertikale Kante entspricht jedem Sensorsegment und kann nur durch ihr entsprechendes Segment erfaßt werden, auch wenn die Segmente bis zu dem maximalen Ausmaß ihrer Plazierungstoleranzen falsch ausgerichtet sind. Das Ziel kann optional eine horizontale Kante aufweisen, die die Sensorsegmente umspannt. Das Ziel wird gescannt und das resultierende digitale Bild wird analysiert, um die sichtbaren Positionen der Zielkanten zu erfassen. Die sichtbaren Kantenpositionen liefern ausreichend Informationen zum Lokalisieren der Sensorsegmente. Das Ziel kann optional in einen Scanner eingelagert sein, oder in eine separate Ausrichtungshalterung. Die Analyse kann in einem Scanner ausgeführt werden, in einer Halterung oder in einem Hostcomputer, der an einem Scanner oder einer Halterung angebracht ist
  • Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen näher erläutert. Es zeigen:
  • 1 eine perspektivische Ansicht des Bilderzeugungsabschnitts eines Scanners unter Verwendung eines Kontaktbildsensors;
  • 2 eine Querschnittsansicht der CIS-Anordnung aus 1, wie sie verwendet werden würde, um ein reflektierendes Original zu scannen;
  • 3 eine schematische Draufsicht eines bestimmten Sensorsegments;
  • 4 die Pixel aus drei Sensorsegmenten projiziert auf ein Original;
  • 5 ein übertriebenes Beispiel einer Fehlplazierung der Sensorsegmente;
  • 6 ein beispielhaftes Scanziel, das Kontrastmarkierungen enthält;
  • 7 eine Interpolation;
  • 8 ein alternatives Beispielscanziel; und
  • 9 ein kombiniertes Beispielziel 901, das verwendet werden kann, um sowohl die X- als auch Y-Richtungspositionen von Sensorsegmenten sowie die Winkelausrichtungen der Segmente zu messen.
  • 6 zeigt ein Beispielscanziel 601, das Kontrastmarkierungen 602, 604, 604 enthält. Bei diesem beispielhaften Ausführungsbeispiel ist der Hintergrund des Ziels weiß und jede Kontrastmarkierung ist schwarz, obwohl andere Farb- oder Reflexionsvermögens-Kombinationen verwendet werden können. Ferner sind auf 6 Pixelpositionen überlagert, die durch Sensorsegmente 501, 502 und 503 gescannt werden können. Markierungen 602, 603, 604 sind durch ein weißes Feld umgeben, das ausreichend groß ist, daß der Scanmecha nismus zuverlässig Sensorsegmente 501, 502 und 503 direkt innerhalb der weißen Felder plazieren kann, sogar wenn die Sensorsegmente 501, 502, 503 von ihren Nennpositionen um das maximale Ausmaß ihrer zulässigen Plazierungstoleranzen abweichen. Da die Fehlausrichtung der Sensorsegmente 501, 502, 503 in 6 übertrieben ist, kann das Ziel 601 größer gezeigt werden, als eigentlich erforderlich ist.
  • Jede der Markierungen 602, 603, 604 weist zumindest eine wirksame vertikale Kante auf. Bei diesem Beispiel ist die Kante 605 als wirksame vertikale Kante der Markierung 602 ausgewählt, Kante 606 ist für Markierung 603 ausgewählt und Kante 607 ist für Markierung 604 ausgewählt. Die gezeigten Markierungen weisen andere vertikale Kanten auf, und die Auswahl ist beliebig, so lange die X-Richtungsposition der Kanten der Pixelplazierungsgenauigkeit bekannt ist, die von dem eventuell gescannten Bild gefordert wird. Das Ziel 601 kann durch ein Hochpräzisionsdrucken auf einem stabilen Material hergestellt sein und kann unter der Platte eines typischen Scanners befestigt sein. Alternativ können die Markierungen 602, 603, 604 auf einen Abschnitt des Scannergehäuses gedruckt sein.
  • Zumindest eine Markierung wird für jedes Sensorsegment geliefert. Die Markierungen sind vorzugsweise so plaziert, daß das Nennzentrum jedes Segments dessen entsprechende Markierung scannt, wenn alle Komponenten an ihren Nennpositionen plaziert sind. In jedem Fall sind die Markierungen derart plaziert, daß jede Markierung nur durch ihr entsprechendes Sensorsegment gescannt werden kann, sogar wenn die Segmente von ihren Nennpositionen um das maximale Ausmaß ihrer zulässigen Toleranzen verschoben sind.
  • Während des Meßprozesses wird das Ziel 601 gescannt. Dieses Verfahren ist in 6 durch die gestrichelten Linien dargestellt, die aufeinanderfolgende Positionen des Sensorsegmentes 501, 502, 503 in Bezug auf das Ziel 601 zeigen. Zum Beispiel ist das Segment 502 zu einer bestimmten Zeit an der Position, die durch dessen durchgezogenen Umriß angezeigt ist. Zu einer späteren Zeit, wenn sich der Scanmechanismus um ein Pixel bewegt hat, befindet sich das Segment 502 an einer Position 502A. Wiederum später befindet sich das Segment 502 an einer Position 502B. An jeder Position wird das Bild, das durch das Sensorsegment 502 gesehen wird, gelesen und in eine digitale Darstellung umgewandelt. Bei einem Scanner z. B., der 256 Pegel von Pixelhelligkeit darstellen kann und der höhere Werte helleren Pixeln zuweist, kann das digitale Bild, das durch die acht lichtempfindlichen Elemente oder Pixel des Segments 502 in dessen erster Position gelesen wird acht digitale Werte aufweisen, wie z. B.:
    Figure 00090001
    wobei der Wert am weitesten links dem Pixel 511 entspricht.
  • Daten, die durch das Segment 502 in aufeinanderfolgenden Positionen 502A und 502B gelesen werden, können ähnlich sein. Wenn das Segment 502 jedoch auf die Markierung 603 trifft, lesen einige der Pixel des Segments 502 die dunklere Markierung 603 und erzeugen somit niedrigere digitale Werte. Zum Beispiel können die acht Werte, die durch das Segment 502 erzeugt werden, wenn dasselbe die Markierung 603 scannt, folgende sein:
    Figure 00090002
    wobei wiederum der Wert am weitesten links dem Pixel 511 entspricht.
  • Die Kante 606 ist die willkürlich ausgewählte wirksame vertikale Kante von Interesse zum Lokalisieren des Sensorsegments 502. Durch Untersuchen der Datenwerte, die aus dem Scannen der Markierung 603 resultieren, kann die Kante 606 in der X-Richtung in Bezug auf das Segment 502 angeordnet sein. Ein einfaches Verfahren ist das Zuweisen der Kanten position zu dem ersten Pixel des Segments 502, dessen Helligkeitsablesung unter die Hälfte der Vollskalaablesung des Scanners fällt. Bei dem obigen Beispielsatz von digitalen Werten weist das vierte Pixel, das in 6 als Pixel 608 gezeigt ist, einen Wert von 53 auf, der weniger als die Hälfte des Vollskalawerts von 256 dieses Beispielscanners ist. Bei diesem einfachen Beispielverfahren kann bestimmt werden, daß die Kante 606 auf das Pixel 608 fällt, das vierte Pixel des Segments 502.
  • Da die Position der Kante 606 genau bekannt ist und die Länge des Segments 502 genau bekannt ist und die Beziehung der Kante 606 zu dem Segment 502 genau bekannt ist, ist nun bekannt, welche Abschnitte der Scannerplatte 102 durch das Segment 502 gescannt werden. Jedes der anderen Sensorsegmente kann auf eine ähnliche Weise charakterisiert werden.
  • Da dann bekannt ist, welche Abschnitte der Scannerplatte 102 durch jedes Sensorsegment gescannt werden, kann bestimmt werden, welches Sensorsegmentpixel einen bestimmten Abschnitt der Platte 102 scannt, obwohl die Sensorsegmente auf der gedruckten Schaltungsplatine 102 mit beträchtlichen Positionsfehlern in der X-Richtung plaziert werden können. Diese Charakterisierung ist eine Voraussetzung für das Kompensieren der Positionsfehler unter Verwendung einer späteren Bildverarbeitung.
  • Eine genauere Schätzung der Position des Sensorsegments 502 kann erhalten werden durch Interpolieren zwischen den digitalen Werten, die durch die Sensorpixel gelesen werden. Bei dem obigen Beispiel las das dritte Pixel des Segments 502 einen digitalen Wert von 211 und das vierte Pixel (Pixel 608) las einen digitalen Wert von 53. Durch Interpolieren zwischen diesen Pixeln ist es möglich, eine präzisere Schätzung der Position entlang des Sensorsegments 502 zu erhalten, wo die digitalen Werte, die durch die Pixel gelesen werden, 128 wären (die Hälfte der Vollskalaablesung von 256), und daher eine präzisere Schätzung der Position der wirksamen vertikalen Kante 606.
  • 7 stellt die Interpolation dar. Eine Pixelposition p kann aus folgender Beziehung berechnet werden:
    Figure 00110001
    aus der bestimmten werden kann, daß p ≈ 3,52. Anders ausgedrückt ist die wirksame vertikale Kante 606 mit einem Punkt auf dem Sensorsegment 502 ungefähr 3,52 Pixel von dem linken Ende ausgerichtet. Sogar wenn die eventuelle Bildverarbeitung keine Daten an Bruchpixelpositionen plaziert, kann eine präzisere Schätzung der Plazierung der Sensorsegmente die Möglichkeit von einer unnötigen Ansammlung von Fehlern zwischen Sensorsegmenten reduzieren.
  • Jegliche Berechnungen und Bildverarbeitung kann durch den Scanner durchgeführt werden, z. B. unter Verwendung eines Mikroprozessors, oder durch einen Hostcomputer oder eine Kombination derselben.
  • Eine ähnliche Technik kann verwendet werden, um die Sensorsegmentpositionen in der Y-Richtung und die Winkelpositionen der Segmente zu charakterisieren. 8 zeigt ein alternatives beispielhaftes Scanziel 801, das verwendet werden kann, um Sensorsegmentpositionen sowohl in der X- als auch Y-Richtung zu charakterisieren. Das Ziel 801 enthält eine Markierung 802. Die Markierung 802 weist eine wirksame horizontale Kante 803 und Überlagerungsmarkierungen 804, 805 und 806 auf, die wirksame vertikale Kanten 807, 808 bzw. 809 aufweisen. Die horizontale Kante 803 kann derart betrachtet werden, daß sie durch die Markierungen 804, 805 und 806 unterbrochen ist. Ferner ist auf dem Ziel 801 ein Satz von Positionen überlagert, die durch das Sensorsegment 502 während des Scannens überquert werden. Wie vorangehend beschrieben wurde, kann die Position des Segments 502 in der X-Richtung gemessen werden, durch Untersuchen von aufeinanderfolgenden Pixeln, die durch das Segment 502 gescannt werden, während das Segment 502 die Markierung 805 überquert. Um die Segmentpositionen in der Y-Richtung zu messen, werden aufeinanderfolgende Ablesungen desselben Pixels untersucht, wenn die Segmente die horizontale Kante 803 überqueren. Zum Beispiel kann die Position der linken Kante des Segments 502 charakterisiert werden, durch Untersuchen aufeinanderfolgender Ablesungen von dem Pixel 511. Die Position kann als die Scanmechanismusposition aufgezeichnet werden, an der der digitale Wert, der aus dem Pixel 511 gelesen wird, unter die Hälfte einer Vollskalaablesung fällt (256 für den Beispielscanner). Alternativ kann der Scanner oder der Host eine Interpolation verwenden, wie vorangehend beschrieben wurde, um eine Bruchposition in der Y-Richtung zu schätzen.
  • Auf ähnliche Weise kann die Y-Richtungsposition des Pixels 810, das Pixel am weitesten rechts des Sensorsegments 502, als die Scanmechanismusposition bestimmt werden, an der das Pixel 810 die horizontale Kante 803 überquert. Sobald beide Endpixel in der Y-Richtung lokalisiert wurden, ist die Y-Richtung-Position des Sensorsegments bekannt, und die Winkelposition des Segments kann aus der Differenz bei den Y-Richtung-Positionen der zwei Endpixel sichergestellt werden.
  • Es wird z. B. der Fall betrachtet, in dem die Position der horizontalen Kante 803 Y0 ist und die Position der vertikalen Kante 808 XN ist, p ist die Pixelanzahl innerhalb des Segments 502, wo die Kante 808 erfaßt wird, Y1 ist die Distanz, die sich das Sensorarray von einer Referenzposition bewegen muß, um die horizontale Kante 803 mit dem Pixel 511 zu erfassen, und Y2 ist die Distanz, die sich das Sensorarray von der Referenzposition bewegen muß, um die horizontale Kante 803 mit dem Pixel 810 zu erfassen. Bei diesem Beispiel werden die Distanzen in Scannerpixeln gemessen, obwohl andere Einheiten ohne weiteres verwendet werden kön nen. Die Position des Segments 502 kann vollständig charakterisiert werden, entweder durch Lokalisieren von beiden Endpixeln 511 und 810 in der X- und Y-Richtung, oder durch Lokalisieren eines bestimmten Punkts auf dem Segment 502 in der X- und Y-Richtung und durch Anzeigen der Neigung des Segments im Hinblick auf die horizontale Kante 803.
  • Obwohl das Ziel präzise hergestellt ist, kann das Vorhandensein von Staub, Schmutz oder anderen Partikeln die Ergebnisse der Kantenfindung beeinträchtigen. Diese unerwünschten Wirkungen können durch verschiedene statistische Techniken verhindert werden. Zum Beispiel kann der Sensor die Position der vertikalen Kante 808 an verschiedenen Positionen messen, die Hoch- und Niedrig-Ablesungen ablehnen und die verbleibenden Ablesungen mitteln. Andere statistische Verfahren sind für Fachleute auf dem Gebiet offensichtlich.
  • Y1, Y2 und p stellen sichtbare Zielkantenpositionen dar, aus der Sicht der Sensorsegmente. Da das Ziel präzise aufgebaut ist, wird eine Abweichung von der Nennzielposition Positionsfehlern bei den Sensorsegmenten zugewiesen. Die Sensorsegmentpositionen werden aus den sichtbaren Zielkantenpositionen berechnet.
  • Zum Beispiel, wie in 8 gezeigt ist:
    Pixel 511 X-Position = (XN – p)
    Pixel 511 Y-Position = Y0 – Y1
    Pixel 810 X-Position = XN + (Anzahl von Pixeln in dem Segment 502 – 1) – p
    Pixel 810 Y-Position = Y0 – Y2
  • Bei diesem Beispiel wurde angenommen, daß das Segment 502 ausreichend parallel zu der horizontalen Kante 803 ist, um die Verkürzung in der X-Richtung zu vernachlässigen. Um die Wirkung der Verkürzung zu umfassen, würde die X- Richtungsabweichung von XN mit cos(bogtan((Y2 – Y1)/(Anzahl von Pixeln in Segment 502))) multipliziert werden.
  • Die Positionen der anderen Sensorsegmente können auf ähnliche Weise bestimmt werden. 9 zeigt ein alternatives beispielhaftes Ausführungsbeispiel des kombinierten Ziels.
  • Aufgrund der Unterbrechungen der Kante 803 kann die Kante 803 derart betrachtet werden, daß sie aus mehreren kollinearen Kantensegmenten aufgebaut ist.
  • Ein Fachmann auf dem Gebiet erkennt verschiedene Abweichungen der Ziele, des Scanners und des Verfahrens, die die Erfindung verkörpern, und die beiliegenden Ansprüche sollen interpretiert werden, um solche Abweichungen zu umfassen. Zum Beispiel, während Ziele beschrieben wurden, die schwarze Markierungen auf einem weißen Hintergrund 609, 811 aufweisen, können andere Kombinationen verwendet werden, um die horizontalen und vertikalen Kanten zu liefern. Ein Ziel könnte weiße Markierungen auf einem schwarzen Hintergrund oder eine andere Kombination von Farben oder Reflexionsvermögen aufweisen.
  • Jedes oben beschriebene Sensorsegment weist eine einzelne Zeile von lichtempfindlichen Pixeln auf. Einige Sensoren umfassen mehrere Pixelzeilen, wobei jede Zeile empfindlich für einen unterschiedlichen Satz von Lichtwellenlängen ist. Üblicherweise wird die Wellenlängenempfindlichkeit durch Plazieren von Filtern über den Zeilen erreicht. Ein solcher Sensor kann verwendet werden, um Farbinformationen über einen Originalartikel zusätzlich zu Reflexionsvermögens-, Durchlässigkeits- oder Dichte-Informationen festzustellen. Während Einzelzeilensensoren der Einfachheit der Erklärung halber verwendet wurden, wird darauf hingewiesen, daß die vorliegende Erfindung ohne weiteres mit Mehrfachzeilensensoren verkörpert sein kann. Es kann wünschenswert sein, die Position jeder Zeile unabhängig zu messen, oder es kann ausreichend sein, eine einzelne Zeile zu messen und die Po sitionen der anderen Zeilen basierend auf ihren relativen Nennpositionen zu berechnen.
  • Das oben beschriebene CIS-Modul verwendet versetzte Sensorsegmente. Das heißt, alternative Segmente werden in der Y-Richtung verlagert und überlappen in der X-Richtung. Einige CIS-Module grenzen an die Sensorsegmente Ende-an-Ende an, wodurch eine einzelne lange Zeile von lichtempfindlichen Pixeln gebildet wird. Ein nicht-versetztes CIS unterliegt ebenfalls Positionsfehlern, und es wird darauf hingewiesen, daß die vorliegende Erfindung ebenfalls mit einem nichtversetzten CIS verkörpert sein kann.
  • Es wird ferner darauf hingewiesen, daß die Erfindung durch Plazieren eines Ziels innerhalb eines Scanners oder durch Plazieren eines Ziels in einer separaten Charakterisierungshalterung verkörpert sein kann. In dem ersten Fall kann das Ziel unter der selben Scannerplatte plaziert sein, in einem Bereich außerhalb des Bereichs, der durch einen Originalartikel abgedeckt ist. Der Scanner kann das Ziel periodisch scannen und die notwendigen Berechnungen ausführen, um die Positionen der Sensorsegmente festzustellen. Die Berechnungen können ebenfalls in einem Hostcomputer ausgeführt werden, der mit dem Scanner verbunden ist. In dem zweiten Fall kann das Ziel Teil einer separaten Charakterisierungshalterung sein, die während der Herstellung des Scanners verwendet wird. Der Bilderzeugungsabschnitt des Scanners kann in der Halterung plaziert sein und verwendet werden, um ein Ziel zu scannen. Ein Computer, der an der Halterung angebracht ist, kann das resultierende digitale Bild analysieren, um die Plazierung der Sensorsegmente festzustellen. Die Plazierungsinformationen können innerhalb des Bilderzeugungsabschnitts des Scanners gespeichert werden, z. B. in einem nicht-flüchtigen Speicher auf derselben Schaltungsplatine 104, die die Sensorsegmente 103 hält. Auf diese Weise sind der Scannerbilderzeugungsabschnitt und dessen Plazierungsinformationen zweckmäßig einander zugeordnet. Alternativ können die Plazierungsinforma tionen zu dem Scanner oder dem Hostcomputer des Scanners durch eine andere Einrichtung übertragen werden, wie z. B. eine elektronische Schnittstelle, so daß die Sensorsegmentpositionen für eine spätere Bildkorrektur bekannt sind.
  • Die vorangehende Beschreibung der vorliegenden Erfindung wurde zu Zwecken der Darstellung und Beschreibung vorgelegt. Dieselbe soll nicht ausschließend sein und die Erfindung auf die präzise offenbarte Form einschränken, und andere Modifikationen und Variationen können im Hinblick auf die obigen Lehren möglich sein. Zum Beispiel kann die Erfindung in einem Scanner verkörpert sein, der einen durchlässigen Originalartikel scannt, unter Verwendung von Licht, das durch den Originalartikel geleitet wird. Das Ausführungsbeispiel wurde ausgewählt und beschrieben, um die Prinzipien der Erfindung und deren praktische Anwendung bestmöglich zu erklären, um dadurch anderen Fachleuten auf dem Gebiet zu ermöglichen, die Erfindung bei verschiedenen Ausführungsbeispielen und verschiedenen Modifikationen bestmöglich zu verwenden, wie sie für die bestimmte erdachte Verwendung geeignet sind. Die beiliegenden Ansprüche sollen ausgeführt sein, um andere alternative Ausführungsbeispiele der Erfindung zu umfassen, außer dieselbe ist diesbezüglich durch den Stand der Technik eingeschränkt.

Claims (14)

  1. Ziel (601) zum Messen von Zusammenbau- und Ausrichtungs-Fehlern in einer Mehrfachsegment-Sensoranordnung (501, 502, 503), wobei das Ziel (601) folgende Merkmale aufweist: a) einen Hintergrund (609); b) zumindest zwei Markierungen (602, 603, 604), die einen Kontrast mit dem Hintergrund (609) bilden, wobei jede Markierung derart positioniert ist, daß sie durch nur ein Segment der Mehrfachsegment-Sensoranordnung (501, 502, 503) erfaßt werden kann; und c) eine wirksame vertikale Kante (605, 606, 607) an jeder Markierung (602, 603, 604).
  2. Ziel (601) gemäß Anspruch 1, bei dem die wirksamen vertikalen Kanten (605, 606, 607) mit einer Präzision positioniert sind, die zumindest gleich der Größe der Segmentpositionsfehler, die gemessen werden sollen, ist.
  3. Ziel (801) zum Messen von Zusammenbau- und Ausrichtungs-Fehlern bei einer Mehrfachsegment-Sensoranordnung (501, 502, 503), wobei das Ziel folgende Merkmale aufweist: a) einen Hintergrund (811); und b) einen Satz von Kanten, die durch Bereiche definiert sind, die mit dem Hintergrund (811) einen Kontrast bilden, wobei die Kanten folgende Merkmale umfassen: i. zumindest eine vertikale Kante (803), die, im wesentlichen parallel zu einer Hauptscanrichtung, einen Bereich überspannt, der durch die Sensoranordnung (501, 502, 503) gescannt werden soll; und ii. zumindest eine vertikale Kante (807, 808, 809) für jedes Sensoranordnungssegment, wobei jede vertikale Kante (807, 808, 809) im allgemeinen senkrecht zu der Hauptscanrichtung ist und so positioniert ist, daß sie durch nur ein Sensoranordnungssegment erfaßt werden kann.
  4. Ziel (801) gemäß Anspruch 3, bei dem die horizontale Kante zumindest zwei im wesentlichen kollineare Segmente aufweist.
  5. Verfahren zum Messen von Zusammenbau- und Ausrichtungs-Fehlern bei einer Mehrfachsegment-Sensoranordnung (501, 502, 503), wobei das Verfahren folgende Schritte aufweist: a) Scannen eines Ziels (601) unter Verwendung einer Mehrfachsegment-Sensoranordnung (501, 502, 503), wobei das Ziel (601) zumindest eine wirksame vertikale Kante (605, 606, 607) für jedes Sensorsegment aufweist, wobei die wirksamen vertikalen Kanten (605, 606, 607) derart positioniert sind, daß jede Kante durch nur ein Sensorsegment erfaßt werden kann; b) Erzeugen eines digitalen Bildes des Ziels (601); c) Analysieren des digitalen Bildes, um die sichtbaren Positionen der Zielkanten (605, 606, 607) zu erfassen; und d) Berechnen von Positionen der Sensorsegmente (501, 502, 503) aus den sichtbaren Zielkantenpositionen.
  6. Verfahren gemäß Anspruch 5, bei dem der Schritt des Analysierens des digitalen Bildes, um die sichtbaren Positionen der Zielkanten zu erfassen, ferner das Erfassen einer wirksamen horizontalen Kante (803) aufweist.
  7. Verfahren gemäß Anspruch 6, bei dem das Erfassen einer wirksamen horizontalen Kante das Erfassen von zumindest zwei im wesentlichen kollinearen horizontalen Kantensegmenten aufweist.
  8. Verfahren gemäß einem der Ansprüche 5 bis 7, das ferner den Schritt des Speicherns der Positionen der Sensorsegmente innerhalb eines Scannerbilderzeugungsabschnitts aufweist.
  9. Scanner, der folgende Merkmale aufweist: a) eine Mehrfachsegment-Sensoranordnung (501, 502, 503); b) ein Ziel (601), das zumindest eine wirksame vertikale Kante (605, 606, 607) für jedes Sensorsegment aufweist, wobei die wirksamen vertikalen Kanten (605, 606, 607) derart positioniert sind, daß jede Kante durch nur ein Sensorsegment erfaßt werden kann; und c) einen Mikroprozessor, der programmiert ist, um das folgende Verfahren auszuführen: i. Scannen des Ziels (601); ii. Erzeugen eines digitalen Bildes von dem Ziel (601); iii. Analysieren des digitalen Bildes, um die sichtbaren Positionen der Zielkanten (605, 606, 607) zu erfassen; und iv. Berechnen von Positionen der Sensorsegmente (501, 502, 503) aus den sichtbaren Zielkantenpositionen.
  10. Halterung zum Charakterisieren einer Mehrfachsegment-Sensoranordnung, die folgende Merkmale aufweist: a) ein Ziel (601), das zumindest eine wirksame vertikale Kante (605, 606, 607) für jedes Sensorsegment aufweist, wobei die wirksamen vertikalen Kanten (605, 606, 607) derart positioniert sind, daß jede Kante durch nur ein Sensorsegment erfaßt werden kann; und b) einen Computer, der programmiert ist, um das folgende Verfahren auszuführen: i. Scannen des Ziels (601); ii. Erzeugen eines digitalen Bildes des Ziels (601); iii. Analysieren des digitalen Bildes, um die sichtbaren Positionen der Zielkanten (605, 606, 607) zu erfassen; und iv. Berechnen von Positionen der Sensorsegmente (501, 502, 503) aus den sichtbaren Zielkantenpositionen.
  11. Halterung gemäß Anspruch 10, bei der das Verfahren ferner den Schritt des Speicherns der Positionen der Sensorsegmente in einem Scannerbilderzeugungsabschnitt aufweist.
  12. System, das folgende Merkmale aufweist: a) einen Scanner, der folgende Merkmale aufweist: i. eine Mehrfachsegment-Sensoranordnung (501, 502, 503); und ii. ein Ziel (601), das zumindest eine wirksame vertikale Kante (605, 606, 607) für jedes Sensorsegment aufweist, wobei die wirksamen vertikalen Kanten (605, 606, 607) derart positioniert sind, daß jede Kante durch nur ein Sensorsegment erfaßt werden kann; und b) einen Computer; wobei das System programmiert ist, um das folgende Verfahren auszuführen: i. Scannen des Ziels (601); ii. Erzeugen eines Bildes von dem Ziel (601); iii. Analysieren des digitalen Bildes, um die sichtbaren Positionen der Zielkanten (605, 606, 607) zu erfassen; und iv. Berechnen von Positionen der Sensorsegmente (501, 502, 503) aus den sichtbaren Zielkantenpositionen.
  13. Scanner, der folgende Merkmale aufweist: a) eine Mehrfachsegment-Sensoranordnung (501, 502, 503); b) ein Ziel (601), das zumindest eine wirksame vertikale Kante (605, 606, 607) für jedes Segment der Mehrfachsegment-Sensoranordnung aufweist, wobei jede wirksame vertikale Kante durch nur ein Sensorsegment erfaßbar ist; c) eine Einrichtung zum Scannen des Ziels mit der Mehrfachsegment-Sensoranordnung und zum Erzeugen eines digitalen Bildes; d) eine Einrichtung zum Analysieren des digitalen Bildes, um die sichtbaren Positionen der Zielkanten zu erfassen; und e) eine Einrichtung zum Berechnen der Positionen der Sensorsegmente aus den sichtbaren Positionen der Zielkanten.
  14. Scanner gemäß Anspruch 13, bei dem das Ziel ferner eine wirksame horizontale Kante aufweist.
DE10342476A 2002-12-20 2003-09-15 Verfahren und Vorrichtung zum Messen von Zusammenbau- und Ausrichtungs-Fehlern in Sensoranordnungen Expired - Fee Related DE10342476B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/326,622 US7265881B2 (en) 2002-12-20 2002-12-20 Method and apparatus for measuring assembly and alignment errors in sensor assemblies
US10-326,622 2002-12-20

Publications (2)

Publication Number Publication Date
DE10342476A1 true DE10342476A1 (de) 2004-07-15
DE10342476B4 DE10342476B4 (de) 2008-04-30

Family

ID=32594058

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10342476A Expired - Fee Related DE10342476B4 (de) 2002-12-20 2003-09-15 Verfahren und Vorrichtung zum Messen von Zusammenbau- und Ausrichtungs-Fehlern in Sensoranordnungen

Country Status (4)

Country Link
US (1) US7265881B2 (de)
JP (1) JP2004208299A (de)
DE (1) DE10342476B4 (de)
TW (1) TWI318532B (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2854476B1 (fr) * 2003-04-30 2005-07-01 Datacard Inc Dispositif de comptage de produits empiles
TWI223545B (en) * 2003-08-21 2004-11-01 Avision Inc An apparatus and method for image acquisition
JP2005269601A (ja) * 2004-02-16 2005-09-29 Ricoh Co Ltd 原稿搬送読取装置および画像形成装置
US8102548B2 (en) * 2004-12-02 2012-01-24 Xerox Corporation Video-based control and diagnostics system
US8300276B2 (en) * 2009-12-11 2012-10-30 Raytheon Company Compensating for misalignment in an image scanner
US9508031B2 (en) 2012-05-22 2016-11-29 Andrew William Peter Cave Computer programs and methods for generating 1-bit image data from multiple-bit image data
JP6946983B2 (ja) * 2017-11-30 2021-10-13 株式会社リコー 位置検出装置、画像読取装置、画像形成装置、プログラムおよび位置検出方法
CN109862201A (zh) * 2017-11-30 2019-06-07 株式会社理光 读取装置、图像形成装置、基准图案读取方法
JP7103014B2 (ja) * 2017-11-30 2022-07-20 株式会社リコー 読取装置、画像形成装置、基準パターン読取方法およびプログラム
EP3651451B1 (de) * 2018-11-07 2022-08-17 IMEC vzw Vorrichtung zur zeitverzögerung und integrationsbildgebung und verfahren zur steuerung von zeitverzögerung und integrationsbildgebung

Family Cites Families (106)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3953172A (en) * 1974-05-10 1976-04-27 Union Carbide Corporation Method and apparatus for assaying liquid materials
US4426451A (en) * 1981-01-28 1984-01-17 Eastman Kodak Company Multi-zoned reaction vessel having pressure-actuatable control means between zones
JPS59201575A (ja) 1983-04-28 1984-11-15 Sanyo Electric Co Ltd 読取走査装置の調整方法
DE3407359A1 (de) * 1984-02-29 1985-08-29 Bayer Ag, 5090 Leverkusen Testvorrichtung und methode zum nachweis einer komponente einer fluessigen probe
US4820399A (en) * 1984-08-31 1989-04-11 Shimadzu Corporation Enzyme electrodes
DE3687646T3 (de) * 1985-06-21 2001-05-31 Matsushita Electric Ind Co Ltd Biosensor und dessen herstellung.
US5185256A (en) * 1985-06-21 1993-02-09 Matsushita Electric Industrial Co., Ltd. Method for making a biosensor
JPS6215672A (ja) 1985-07-15 1987-01-24 Dainippon Printing Co Ltd カタログ編集システム
JPS62277852A (ja) 1986-05-27 1987-12-02 Matsushita Electric Ind Co Ltd 画像信号処理装置
US4911794A (en) * 1986-06-20 1990-03-27 Molecular Devices Corporation Measuring with zero volume cell
US4724330A (en) * 1986-09-24 1988-02-09 Xerox Corporation Self aligning raster input scanner
US4794926A (en) * 1986-11-24 1989-01-03 Invictus, Inc. Lancet cartridge
US4900424A (en) * 1986-11-28 1990-02-13 Unilever Patent Holdings B.V. Electrochemical measurement cell
JPS63234765A (ja) * 1987-03-24 1988-09-30 Dainippon Screen Mfg Co Ltd 画像読取装置
US4814142A (en) * 1987-05-22 1989-03-21 Polymer Technology International Corp. Test strip having a non-particulate dialyzed polymer layer
US5286364A (en) * 1987-06-08 1994-02-15 Rutgers University Surface-modified electochemical biosensor
US5108564A (en) * 1988-03-15 1992-04-28 Tall Oak Ventures Method and apparatus for amperometric diagnostic analysis
US5205920A (en) * 1989-03-03 1993-04-27 Noboru Oyama Enzyme sensor and method of manufacturing the same
US5089112A (en) * 1989-03-20 1992-02-18 Associated Universities, Inc. Electrochemical biosensor based on immobilized enzymes and redox polymers
KR0171222B1 (ko) * 1989-12-15 1999-02-18 스티브 올드함 산화 환원 조정시약 및 바이오센서
US5104619A (en) * 1990-01-24 1992-04-14 Gds Technology, Inc. Disposable diagnostic system
US5286362A (en) * 1990-02-03 1994-02-15 Boehringer Mannheim Gmbh Method and sensor electrode system for the electrochemical determination of an analyte or an oxidoreductase as well as the use of suitable compounds therefor
US5144455A (en) 1990-02-05 1992-09-01 Hewlett-Packard Company Method and apparatus for locating the document referencing corner in a document scanner
US5187100A (en) * 1990-05-29 1993-02-16 Lifescan, Inc. Dispersion to limit penetration of aqueous solutions into a membrane
FR2673289B1 (fr) * 1991-02-21 1994-06-17 Asulab Sa Capteur de mesure de la quantite d'un composant en solution.
FR2673183B1 (fr) * 1991-02-21 1996-09-27 Asulab Sa Complexes mono, bis ou tris (2,2'-bipyridine substituee) d'un metal choisi parmi le fer, le ruthenium, l'osmium ou le vanadium et leurs procedes de preparation .
US5593852A (en) * 1993-12-02 1997-01-14 Heller; Adam Subcutaneous glucose electrode
US5192415A (en) * 1991-03-04 1993-03-09 Matsushita Electric Industrial Co., Ltd. Biosensor utilizing enzyme and a method for producing the same
JP3118015B2 (ja) * 1991-05-17 2000-12-18 アークレイ株式会社 バイオセンサーおよびそれを用いた分離定量方法
US5194908A (en) * 1991-11-29 1993-03-16 Computing Devices Canada Ltd. Detecting target movement
JP3084877B2 (ja) * 1992-01-21 2000-09-04 松下電器産業株式会社 グルコースセンサの製造方法
DE59307720D1 (de) * 1992-03-23 1998-01-08 Siemens Ag Biosensor
EP0562370B1 (de) * 1992-03-23 1997-11-26 Siemens Aktiengesellschaft Biosensor
US5710011A (en) * 1992-06-05 1998-01-20 Medisense, Inc. Mediators to oxidoreductase enzymes
JP2760234B2 (ja) * 1992-09-30 1998-05-28 松下電器産業株式会社 基質濃度測定方法
FR2699170B1 (fr) * 1992-12-15 1995-07-28 Asulab Sa Complexes d'un métal de transition à ligands 2,2'-bipyridine substitués par au moins un radical ammonium alkyle, leur procédé de fabrication et leur application comme médiateur redox.
JP2898160B2 (ja) * 1993-01-13 1999-05-31 キンセキ株式会社 トランスバーサルフィルタ用増幅器
US5387329A (en) * 1993-04-09 1995-02-07 Ciba Corning Diagnostics Corp. Extended use planar sensors
DE59410066D1 (de) * 1993-04-23 2002-04-11 Boehringer Mannheim Gmbh System zur Analyse von Inhaltsstoffen flüssiger Proben
JPH06313760A (ja) * 1993-04-30 1994-11-08 Kyoto Daiichi Kagaku:Kk 酵素電極による検体測定方法
FR2705150B1 (fr) * 1993-05-10 1995-07-21 Asulab Sa Capteur électrochimique à zones multiples sur disque et son application au dosage du glucose.
DE4427363A1 (de) * 1993-08-03 1995-03-09 A & D Co Ltd Chemischer Einmalsensor
DE69423601T2 (de) * 1993-12-29 2000-07-06 Mochida Pharm Co Ltd Elektrochemische Bestimmungsmethode und neue p-Phenylendiamin-Verbindung
US5384621A (en) * 1994-01-04 1995-01-24 Xerox Corporation Document detection apparatus
GB9412789D0 (en) * 1994-06-24 1994-08-17 Environmental Sensors Ltd Improvements to electrodes
JP3562593B2 (ja) * 1994-07-11 2004-09-08 東洋紡績株式会社 水中底層流砂捕捉用人工水草
US5624537A (en) * 1994-09-20 1997-04-29 The University Of British Columbia - University-Industry Liaison Office Biosensor and interface membrane
US5498542A (en) * 1994-09-29 1996-03-12 Bayer Corporation Electrode mediators for regeneration of NADH and NADPH
US5783833A (en) * 1994-12-12 1998-07-21 Nikon Corporation Method and apparatus for alignment with a substrate, using coma imparting optics
US5882494A (en) * 1995-03-27 1999-03-16 Minimed, Inc. Polyurethane/polyurea compositions containing silicone for biosensor membranes
JP3498105B2 (ja) * 1995-04-07 2004-02-16 アークレイ株式会社 センサ、その製造方法およびセンサを使用する測定方法
US5510266A (en) * 1995-05-05 1996-04-23 Bayer Corporation Method and apparatus of handling multiple sensors in a glucose monitoring instrument system
US5705045A (en) * 1995-08-29 1998-01-06 Lg Electronics Inc. Multi-biosensor for GPT and got activity
US5757425A (en) * 1995-12-19 1998-05-26 Eastman Kodak Company Method and apparatus for independently calibrating light source and photosensor arrays
US5708247A (en) * 1996-02-14 1998-01-13 Selfcare, Inc. Disposable glucose test strips, and methods and compositions for making same
US5723284A (en) * 1996-04-01 1998-03-03 Bayer Corporation Control solution and method for testing the performance of an electrochemical device for determining the concentration of an analyte in blood
DE19622458C2 (de) * 1996-05-24 1998-03-26 Senslab Ges Zur Entwicklung Un Enzymatisch-elektrochemischer Einschritt-Affinitätssensor zur quantitativen Bestimmung von Analyten in wäßrigen Medien und Affinitätsassay
IL130137A (en) * 1996-11-28 2003-07-06 Nikon Corp Exposure apparatus and an exposure method
US5866353A (en) * 1996-12-09 1999-02-02 Bayer Corporation Electro chemical biosensor containing diazacyanine mediator for co-enzyme regeneration
GB2323442B (en) * 1997-01-09 2000-12-06 Mercury Diagnostics Inc Method for applying a reagent to an analytical test device
GB9712386D0 (en) * 1997-06-14 1997-08-13 Univ Coventry Biosensor
US6036924A (en) * 1997-12-04 2000-03-14 Hewlett-Packard Company Cassette of lancet cartridges for sampling blood
US6033866A (en) * 1997-12-08 2000-03-07 Biomedix, Inc. Highly sensitive amperometric bi-mediator-based glucose biosensor
US6022324A (en) * 1998-01-02 2000-02-08 Skinner; Bruce A. J. Biopsy instrument
US6190612B1 (en) * 1998-01-21 2001-02-20 Bayer Corporation Oxygen sensing membranes and methods of making same
US6030827A (en) * 1998-01-23 2000-02-29 I-Stat Corporation Microfabricated aperture-based sensor
GB2337122B (en) * 1998-05-08 2002-11-13 Medisense Inc Test strip
US6294281B1 (en) * 1998-06-17 2001-09-25 Therasense, Inc. Biological fuel cell and method
US6353486B1 (en) * 1998-07-17 2002-03-05 Mustek Systems, Inc. Device for improving scanning quality of image scanner
US6197257B1 (en) * 1998-08-20 2001-03-06 Microsense Of St. Louis, Llc Micro sensor device
JP3267936B2 (ja) * 1998-08-26 2002-03-25 松下電器産業株式会社 バイオセンサ
US6338790B1 (en) * 1998-10-08 2002-01-15 Therasense, Inc. Small volume in vitro analyte sensor with diffusible or non-leachable redox mediator
JP3513031B2 (ja) * 1998-10-09 2004-03-31 株式会社東芝 アライメント装置の調整方法、収差測定方法及び収差測定マーク
US6360888B1 (en) * 1999-02-25 2002-03-26 Minimed Inc. Glucose sensor package system
JP4269393B2 (ja) * 1999-03-03 2009-05-27 株式会社ニコン アライメントマーク及びアライメント方法
US6350451B1 (en) * 1999-06-25 2002-02-26 The Board Of Trustees Of The University Of Arkansas Immunotherapy of epithelial tumors using intralesional injection of antigens that induce a delayed type hypersensitivity reaction
US6514460B1 (en) * 1999-07-28 2003-02-04 Abbott Laboratories Luminous glucose monitoring device
US6841052B2 (en) * 1999-08-02 2005-01-11 Bayer Corporation Electrochemical-sensor design
US6364889B1 (en) * 1999-11-17 2002-04-02 Bayer Corporation Electronic lancing device
FR2803067A1 (fr) * 1999-12-23 2001-06-29 Intermec Scanner Technology Ct Dispositif optoelectronique et procede d'acquisition de codes a l'aide d'un capteur bidimensionnel de dimension utile optimisee
US6706159B2 (en) * 2000-03-02 2004-03-16 Diabetes Diagnostics Combined lancet and electrochemical analyte-testing apparatus
KR20020077515A (ko) * 2000-03-02 2002-10-11 가부시키가이샤 니콘 위치계측장치 및 노광장치
AU4960101A (en) * 2000-03-28 2001-10-08 Inverness Medical Technology I Continuous process for manufacture of disposable electro-chemical sensor
JP2001343580A (ja) * 2000-05-31 2001-12-14 Asahi Optical Co Ltd 焦点検出装置
US6833110B2 (en) * 2000-07-20 2004-12-21 Hypoguard Limited Test member
US6533949B1 (en) * 2000-08-28 2003-03-18 Nanopass Ltd. Microneedle structure and production method therefor
US6849168B2 (en) * 2000-11-13 2005-02-01 Kval, Inc. Electrochemical microsensor package
US6530892B1 (en) * 2001-03-07 2003-03-11 Helen V. Kelly Automatic skin puncturing system
US6572745B2 (en) * 2001-03-23 2003-06-03 Virotek, L.L.C. Electrochemical sensor and method thereof
US20020176984A1 (en) * 2001-03-26 2002-11-28 Wilson Smart Silicon penetration device with increased fracture toughness and method of fabrication
JP4213361B2 (ja) * 2001-05-22 2009-01-21 パナソニック株式会社 バイオセンサ
US6837988B2 (en) * 2001-06-12 2005-01-04 Lifescan, Inc. Biological fluid sampling and analyte measurement devices and methods
JP2003092246A (ja) * 2001-09-17 2003-03-28 Canon Inc アライメントマーク及びアライメント装置とその方法、及び露光装置、デバイスの製造方法
US7344894B2 (en) * 2001-10-16 2008-03-18 Agilent Technologies, Inc. Thermal regulation of fluidic samples within a diagnostic cartridge
US20030073089A1 (en) * 2001-10-16 2003-04-17 Mauze Ganapati R. Companion cartridge for disposable diagnostic sensing platforms
US20030116447A1 (en) * 2001-11-16 2003-06-26 Surridge Nigel A. Electrodes, methods, apparatuses comprising micro-electrode arrays
JP4505837B2 (ja) * 2002-01-18 2010-07-21 アークレイ株式会社 温度検出部を備えた分析装置
GB2390602A (en) * 2002-04-02 2004-01-14 Inverness Medical Ltd Test strip dispenser vial and cassette
US6837976B2 (en) * 2002-04-19 2005-01-04 Nova Biomedical Corporation Disposable sensor with enhanced sample port inlet
US20040054898A1 (en) * 2002-08-28 2004-03-18 International Business Machines Corporation Authenticating and communicating verifiable authorization between disparate network domains
US20050008851A1 (en) * 2003-02-18 2005-01-13 Fuji Photo Film Co., Ltd. Biosensor
KR100554649B1 (ko) * 2003-06-09 2006-02-24 주식회사 아이센스 전기화학적 바이오센서
US8071030B2 (en) * 2003-06-20 2011-12-06 Roche Diagnostics Operations, Inc. Test strip with flared sample receiving chamber
ES2675787T3 (es) * 2003-06-20 2018-07-12 F. Hoffmann-La Roche Ag Método y reactivo para producir tiras reactivas estrechas y homogéneas
US7347925B2 (en) * 2003-07-01 2008-03-25 Transpacific Ip, Ltd. Biosensor for monitoring an analyte content with a partial voltage generated therefrom
TW594006B (en) * 2003-07-04 2004-06-21 Veutron Corp Biosensor with multi-channel A/D conversion and a method thereof

Also Published As

Publication number Publication date
DE10342476B4 (de) 2008-04-30
JP2004208299A (ja) 2004-07-22
US20040170314A1 (en) 2004-09-02
US7265881B2 (en) 2007-09-04
TW200412147A (en) 2004-07-01
TWI318532B (en) 2009-12-11

Similar Documents

Publication Publication Date Title
DE69634089T2 (de) Verbesserung der ausrichtung von inspektionsystemen vor der bildaufnahme
DE69926659T2 (de) Verfahren und vorrichtung für die optische Inspektion von Objekten auf einem Substrat
DE602004001276T2 (de) System und Verfahren zur absoluten Positionierung mit wiederholtem Quasizufalls-Muster
DE4136461C2 (de) Vorrichtung und Verfahren zur großflächigen Bildinspektion
DE4438278C2 (de) Verfahren zum Erzeugen einer Toleranzwertdatenbank und System zum Prüfen von Leiterplatten unter Anwendung der Toleranzwertdatenbank
CH680187A5 (de)
DE3512064A1 (de) Geraet zur messung von ueberdeckungsfehlern
EP0233970A1 (de) Schnittholz-Prüfvorrichtung
EP0237601B1 (de) Verfahren zur photogrammetrischen Erfassung eines Objektes mit Hilfe zumindest eines opto-elektrischen Festkörper-Flächensensors
EP0085868B1 (de) Vorrichtung zur automatischen optischen Beschaffenheitsprüfung
EP0449859B1 (de) Verfahren und vorrichtung zur beobachtung von moiremustern von zu untersuchenden oberflächen unter anwendung des moireverfahrens mit phasenshiften
DE19841682B4 (de) Vorrichtung und Verfahren zur Verbesserung der Scanqualität eines Scanners
DE10342476B4 (de) Verfahren und Vorrichtung zum Messen von Zusammenbau- und Ausrichtungs-Fehlern in Sensoranordnungen
DE102007025304B4 (de) Verfahren zur Verbesserung der Reproduzierbarkeit einer Koordinaten-Messmaschine und deren Genauigkeit
DE10063293A1 (de) Verfahren und Vorrichtung zur mehrkanaligen Inspektion von Oberflächen im Durchlauf
CH664225A5 (de) Vorrichtung zum detektieren von optischen zeichen auf einem relativ zur vorrichtung bewegten filmtraeger.
DE10052153B4 (de) Druckvorrichtung und Verfahren zum Bestimmen einer Positionsverschiebung eines Druckkopfs derselben
DE3428225A1 (de) Geraet zur herstellung von halbleiterschaltungen
DE2653590A1 (de) Vorrichtung zum ermitteln von fehlern in flaechenhaften mustern, insbesondere in photomasken
EP1262800B1 (de) Optoelektronischer Sensor
EP0572804B1 (de) Anordnung zur geometriegetreu hochauflösenden Abtastung grosser Bildformate
DE102019113267B4 (de) Verfahren zum Betreiben einer Tintenstrahldruckmaschine mit zumindest einer Modifikationsfunktion
DE10342477B4 (de) Verfahren und Vorrichtung zum Kompensieren von Zusammenbau- und Ausrichtungs-Fehlern bei Sensoranordnungen
EP1101187A1 (de) Anordnung zur erfassung von oberflächenstrukturen von fingern und/oder handinnenflächen
DE60029392T2 (de) Abbildungsgerät mit integriertem Positionsfühlungsgerät

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20150401