DE10342476A1 - Verfahren und Vorrichtung zum Messen von Zusammenbau- und Ausrichtungs-Fehlern in Sensoranordnungen - Google Patents
Verfahren und Vorrichtung zum Messen von Zusammenbau- und Ausrichtungs-Fehlern in Sensoranordnungen Download PDFInfo
- Publication number
- DE10342476A1 DE10342476A1 DE10342476A DE10342476A DE10342476A1 DE 10342476 A1 DE10342476 A1 DE 10342476A1 DE 10342476 A DE10342476 A DE 10342476A DE 10342476 A DE10342476 A DE 10342476A DE 10342476 A1 DE10342476 A1 DE 10342476A1
- Authority
- DE
- Germany
- Prior art keywords
- segment
- target
- sensor
- positions
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 26
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims 2
- 239000003550 marker Substances 0.000 description 5
- 238000002310 reflectometry Methods 0.000 description 4
- 238000009958 sewing Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000012512 characterization method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/047—Detection, control or error compensation of scanning velocity or position
- H04N1/0473—Detection, control or error compensation of scanning velocity or position in subscanning direction, e.g. picture start or line-to-line synchronisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/10—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
- H04N1/1013—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with sub-scanning by translatory movement of at least a part of the main-scanning components
- H04N1/1017—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with sub-scanning by translatory movement of at least a part of the main-scanning components the main-scanning components remaining positionally invariant with respect to one another in the sub-scanning direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/19—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
- H04N1/191—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
- H04N1/192—Simultaneously or substantially simultaneously scanning picture elements on one main scanning line
- H04N1/193—Simultaneously or substantially simultaneously scanning picture elements on one main scanning line using electrically scanned linear arrays, e.g. linear CCD arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/024—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
- H04N2201/02406—Arrangements for positioning elements within a head
- H04N2201/02439—Positioning method
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04701—Detection of scanning velocity or position
- H04N2201/0471—Detection of scanning velocity or position using dedicated detectors
- H04N2201/04712—Detection of scanning velocity or position using dedicated detectors using unbroken arrays of detectors, i.e. detectors mounted on the same substrate
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04701—Detection of scanning velocity or position
- H04N2201/04715—Detection of scanning velocity or position by detecting marks or the like, e.g. slits
- H04N2201/04717—Detection of scanning velocity or position by detecting marks or the like, e.g. slits on the scanned sheet, e.g. a reference sheet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04753—Control or error compensation of scanning position or velocity
- H04N2201/04791—Control or error compensation of scanning position or velocity in the sub-scan direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04753—Control or error compensation of scanning position or velocity
- H04N2201/04794—Varying the control or compensation during the scan, e.g. using continuous feedback or from line to line
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Facsimile Scanning Arrangements (AREA)
- Image Input (AREA)
- Facsimile Heads (AREA)
Abstract
Ein Ziel, ein Verfahren und eine Vorrichtung sind offenbart zum Messen von Zusammenbau- und Ausrichtungs-Fehlern bei Scannersensoranordnungen. Die Sensoranordnung weist zumindest zwei Sensorsegmente auf. Das Ziel weist Kanten auf, die durch Änderungen bei dem Reflexionsvermögen definiert sind. Zumindest eine vertikale Kante entspricht jedem Sensorsegment und kann nur durch dessen entsprechendes Segment erfaßt werden, sogar wenn die Segmente falsch ausgerichtet sind, zu dem maximalen Ausmaß ihrer Plazierungstoleranzen. Das Ziel kann optional eine horizontale Kante aufweisen, die die Sensorsegmente umspannt. Das Ziel wird gescannt, und das resultierende digitale Bild wird analysiert, um die sichtbaren Positionen der Zielkanten zu erfassen. Die sichtbaren Kantenpositionen liefern ausreichend Informationen, um die Sensorsegmente zu lokalisieren. Das Ziel kann optional in einen Scanner eingelagert sein oder in eine separate Ausrichtungshalterung. Die Analyse kann in einem Scanner, in einer Halterung oder einem Computer ausgeführt werden, der/die an einen Scanner oder eine Halterung angebracht ist.
Description
- Die vorliegende Erfindung bezieht sich allgemein auf ein Bildeingabescannen.
- Eine typische Abtastvorrichtung bzw. ein Scanner verwendet eine Lichtquelle zum Beleuchten eines Abschnitts eines Originalartikels. Eine Linse oder ein Array von Linsen leitet das Licht um, das von dem Originalartikel reflektiert oder durch denselben übertragen wurde, um ein Bild einer Scanlinie auf ein Array von lichtempfindlichen Elementen zu projizieren. Jedes lichtempfindliche Element erzeugt ein elektrisches Signal, das sich auf die Lichtintensität bezieht, die auf das Element fällt, die sich wiederum auf das Reflexionsvermögen, die Durchlässigkeit oder die Dichte des entsprechenden Abschnitts des Originalartikels bezieht. Diese elektrischen Signale werden gelesen und denselben werden numerische Werte zugewiesen. Ein Scanmechanismus fegt üblicherweise die Scanlinie über den Originalartikel, so daß aufeinanderfolgende Scanlinien gelesen werden. Durch Zuordnen der numerischen Werte zu ihren entsprechenden Positionen auf dem Artikel, der gescannt wird, wird eine digitale Darstellung des gescannten Artikels aufgebaut. Wenn die digitale Darstellung gelesen und ordnungsgemäß interpretiert wird, kann ein Bild des gescannten Artikel rekonstruiert werden.
-
1 zeigt eine perspektivische Ansicht des Bilderzeugungsabschnitts eines Scanners, der einen Kontaktbildsensor verwendet. Ein Großteil der Stützstruktur, der Lichtabschirmung und des Scanmechanismus wurden aus der Figur der Klarheit halber weggelassen. Ein Kontaktbildsensor (CIS = contact image sensor) verwendet eine Array von Gradientenindex-Stablinsen (GRIN-Stablinsen; GRIN = gradient index)101 , die zwischen einer Platte102 und einem segmentierten Array aus Sensorsegmenten103 plaziert sind, die an einer gedruckten Schaltungsplatine104 befestigt sind. Die Sensorsegmente103 enthalten die lichtempfindlichen Elemente. Eine Lichtquelle105 liefert das Licht, das zum Scannen von reflektierenden Originalartikeln benötigt wird. Die elektrischen Signale, die durch die lichtempfindlichen Elemente erzeugt werden, können zu anderen Elektronikeinrichtungen (nicht gezeigt) durch ein Kabel106 getragen werden. Jedes Sensorsegment103 kann manchmal ein Chip genannt werden. -
2 zeigt eine Querschnittansicht der CIS-Anordnung aus1 , wie sie verwendet werden würde, um ein Reflexionsoriginal zu scannen. Die Lichtquelle105 emittiert Licht102 , das das Original202 beleuchtet. Ein Teil des Lichts wird von dem Original reflektiert und wird durch GRIN-Linsen101 erfaßt. Die GRIN-Linsen refokussieren das Licht auf lichtempfindliche Elemente103 , die ein Bild des Originals202 bilden. Während ein Array von GRIN-Linsen gezeigt ist, das zwei versetzte Reihen aufweist, können die Linsen in einer einzelnen Reihe, in drei Reihen oder in einer anderen Anordnung angeordnet sein. - Jedes der lichtempfindlichen Segmente ist weiter in Pixel unterteilt. Der Ausdruck Pixel kann sich auf ein individuell adressierbares lichtempfindliches Element aus Sensorsegmenten
103 oder auf den entsprechenden Bereich des Originals202 , der auf diesen Abschnitt abgebildet wird, oder auf jeden digitalen Wert beziehen, der einer Position in einem Digitalbild entspricht. -
3 stellt eine schematische Draufsicht eines bestimmten Sensorsegments103 dar, die ferner die Reihe aus individuellen Pixeln301 zeigt, die jedes Sensorsegment103 aufweist. Für eine klare Darstellung sind nur wenige Pixel gezeigt. Ein tatsächliches Sensorsegment kann Hunderte oder Tausende von individuellen Pixeln aufweisen. Die Anzahl von Pixeln pro lineare Einheit des Sensors definiert die Raumabtastrate des Scanners, die ebenfalls häufig die Auflösung des Scanners genannt wird. Ein typischer Scanner kann eine Auflösung von 300, 600, 1200 oder 2400 Pixeln pro Zoll aufweisen, obwohl andere Auflösungen möglich sind. - Die optische Vergrößerung des CIS-Moduls ist im wesentlichen einheitlich, so daß die Pixelstellen
301 auf den Sensorsegmenten103 auf entsprechende Pixel auf dem Original202 abgebildet werden, und die Pixel auf dem Original102 sind im wesentlichen von derselben Größe wie die Pixelstellen301 .4 zeigt die Pixel aus drei Sensorsegmenten eines Mehrfachsegment-Sensorarrays projiziert auf das Original202 . Idealerweise überlappen einige der Pixel der Segmente. Das heißt, wenn die Richtung, die der Länge der Segmente entspricht, die X-Richtung, betrachtet wird, um eine Reihe von Pixeln zu definieren, und die Querrichtung, die Y-Richtung, derart eingerichtet sein soll, um Spalten von Pixelpositionen zu überqueren, dann kann das oder die Endpixel eines Segments in derselben Spalte vorliegen wie die Endpixel eines anderen Segments. Zum Beispiel ist das Pixel in dem Segment402 im wesentlichen in derselben Spalte wie das Pixel410 in dem Segment401 . - Die X-Richtung, wie sie gezeigt ist, wird manchmal ebenfalls die Hauptscanrichtung genannt, und die Y-Richtung wird manchmal die Nebenscanrichtung genannt.
- Während des Scannens wird der Satz aus Segmenten in der Nebenscanrichtung bewegt, die durch den Pfeil
404 angezeigt ist. Zu einer Zeit sind die Pixel in der Position, wie in durchgezogenen Linien in4 gezeigt ist, und werden gelesen. Zu späteren Zeiten, die nachfolgenden Scanlinien entsprechen, sind die Pixel in den Positionen, die in gestrichelten Linien gezeigt sind, und werden gelesen. Zu einem bestimmten späteren Zeitpunkt liest das Pixel 410 im wesentlichen den gleichen Abschnitt des Originals202 , den das Pixel411 vorangehend gelesen hat. Dies ist ein einfaches Beispiel des Prozesses zum Aufbauen eines kompletten abschließenden Bildes aus Segmenten, die zu unterschiedlichen Zeiten und Positionen gescannt werden. Dieser Prozeß wird manchmal ein Neu-Abtasten oder Nähen genannt. - Bei dem idealisierten Beispiel aus
4 sind die Sensorsegmente103 perfekt parallel zueinander plaziert, überlappen um genau ein Pixel und sind in der Y-Richtung um genau 3 Pixel versetzt. Bei einem tatsächlichen Scanner jedoch ist diese Präzision nicht ohne weiteres erreichbar. Die Positionsgenauigkeit der Pixel wird primär durch die Plazierungsgenauigkeit der Sensorsegmente103 auf der Schaltungsplatine104 bestimmt. Jedes Segment kann von dessen idealer Position in der X-Richtung oder der Y-Richtung versetzt werden, oder dadurch, das dasselbe nicht parallel zu dessen Idealausrichtung plaziert wird. Diese Fehler können in Kombination auftreten. -
5 stellt ein übertriebenes Beispiel einer Fehlplazierung der Sensorsegmente103 dar. Jedes der Sensorsegmente501 ,502 und503 ist relativ zu dessen Nennposition fehlplaziert. Ein Beispielergebnis ist, daß die Pixel510 und511 um ungefähr fünf Scanlinien in der Y-Richtung versetzt und nicht bei ihren drei Nennscanlinien sind. Wenn die Näheeinrichtung annimmt, daß sie Pixel aus dem Segment510 an Pixel aus dem Segment511 anpassen sollte, das drei Scanlinien früher gescannt wurde, wird ein „Näheartefakt" an der Grenze zwischen den Teilen des Bildes auftreten, die durch die Segmente501 und502 gescannt wurden. Die Segmente502 und503 überlappen in der X-Richtung um mehr als ihr ein Nennpixel und ähnliche Näheartefakte können als ein Ergebnis auftreten. Die Näheartefakte können z. B. verursachen, daß glatte Linien in dem Original202 in dem resultierenden gescannten Bild als zusammenhanglos oder gezackt erscheinen. - Bislang haben sich Hersteller von CIS-Modulen bemüht, diese Näheartefakte zu verhindern, durch Steuern der Plazierung der Sensorsegmente
103 auf die Schaltungsplatine104 , so präzise und so genau wie möglich. Da die umfaßten Geometrien sehr klein sind, war es nicht immer möglich, die Segmente mit ausreichend kleinen Fehlern zuverlässig zu plazieren. Üblicherweise wurde Module mit zu viel Plazierungsabweichung abgelehnt, wodurch der Herstellungsertrag reduziert und schließlich die Kosten der Module, die akzeptabel waren, erhöht wurden. - Dieses Problem wurde verschlimmert, als Scanner mit immer höherer Auflösung hergestellt wurden. Zum Beispiel entspricht eine Spezifizierung eines Maximalplazierungsfehlers eines Pixels einer Plazierungstoleranz von ungefähr 84 μm für einen Scanner mit einer Auflösung von 300 Pixel pro Zoll. Aber dieselbe Pixelspezifizierung entspricht einer Plazierungstoleranz von nur ungefähr 10 μm für einen Scanner mit einer Auflösung von 2400 Pixeln pro Zoll.
- Die anhängige U.S.-Patentanmeldung Seriennummer 09/365,112, die den gleichen Bevollmächtigten wie die vorliegende Anmeldung aufweist, beschreibt ein Verfahren zum Kompensieren der Chipplazierungsfehlern bei einem handgehaltenen Scanner, der Positionssensoren und ein Positionskorrektursystem aufweist. Diese Anmeldung beschreibt jedoch nur ein bestimmtes Kompensationsverfahren, und kein Verfahren, zum Charakterisieren der Fehlausrichtungen der Segmente.
- Es kann möglich sein, die Chipplazierungsfehler unter Verwendung eine Metrologieausrüstung zu charakterisieren, aber dies würde einen bedeutenden Zeitbetrag und Aufwand erfordern, und trägt ferner zu er Komplexität eines Datenverfolgungssystem zum Zuordnen der Meßdaten zu jedem CIS-Modul bei.
- Um die Minimierung von Nähfehlern bei gescannten Bildern zu ermöglichen, wird ein kostengünstiges, zweckmäßiges Verfah ren benötigt, um die Sensorsegment-Plazierungsfehler in einem Scanneroptikmodul zu charakterisieren.
- Es ist die Aufgabe der vorliegenden Erfindung, ein Ziel und ein Verfahren zum Messen von Zusammenbau- und Ausrichtungs-Fehlern, einen Scanner, eine Halterung und ein System mit verbesserten Charakteristika zu schaffen.
- Diese Aufgabe wird durch ein Ziel gemäß Anspruch 1 oder 3, ein Verfahren gemäß Anspruch 5, einen Scanner gemäß Anspruch 9 oder 13, eine Halterung gemäß Anspruch 10 und ein System gemäß Anspruch 12 gelöst.
- Ein Ziel, ein Verfahren und eine Vorrichtung sind offenbart, zum Messen von Zusammenbau- und Ausrichtungs-Fehlern bei Scanner-Sensoranordnungen. Die Sensoranordnung weist zumindest zwei Sensorsegmente auf. Das Ziel weist Kanten auf, die durch Änderungen bei dem Reflexionsvermögen definiert sind. Zumindest eine vertikale Kante entspricht jedem Sensorsegment und kann nur durch ihr entsprechendes Segment erfaßt werden, auch wenn die Segmente bis zu dem maximalen Ausmaß ihrer Plazierungstoleranzen falsch ausgerichtet sind. Das Ziel kann optional eine horizontale Kante aufweisen, die die Sensorsegmente umspannt. Das Ziel wird gescannt und das resultierende digitale Bild wird analysiert, um die sichtbaren Positionen der Zielkanten zu erfassen. Die sichtbaren Kantenpositionen liefern ausreichend Informationen zum Lokalisieren der Sensorsegmente. Das Ziel kann optional in einen Scanner eingelagert sein, oder in eine separate Ausrichtungshalterung. Die Analyse kann in einem Scanner ausgeführt werden, in einer Halterung oder in einem Hostcomputer, der an einem Scanner oder einer Halterung angebracht ist
- Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen näher erläutert. Es zeigen:
-
1 eine perspektivische Ansicht des Bilderzeugungsabschnitts eines Scanners unter Verwendung eines Kontaktbildsensors; -
2 eine Querschnittsansicht der CIS-Anordnung aus1 , wie sie verwendet werden würde, um ein reflektierendes Original zu scannen; -
3 eine schematische Draufsicht eines bestimmten Sensorsegments; -
4 die Pixel aus drei Sensorsegmenten projiziert auf ein Original; -
5 ein übertriebenes Beispiel einer Fehlplazierung der Sensorsegmente; -
6 ein beispielhaftes Scanziel, das Kontrastmarkierungen enthält; -
7 eine Interpolation; -
8 ein alternatives Beispielscanziel; und -
9 ein kombiniertes Beispielziel901 , das verwendet werden kann, um sowohl die X- als auch Y-Richtungspositionen von Sensorsegmenten sowie die Winkelausrichtungen der Segmente zu messen. -
6 zeigt ein Beispielscanziel601 , das Kontrastmarkierungen602 ,604 ,604 enthält. Bei diesem beispielhaften Ausführungsbeispiel ist der Hintergrund des Ziels weiß und jede Kontrastmarkierung ist schwarz, obwohl andere Farb- oder Reflexionsvermögens-Kombinationen verwendet werden können. Ferner sind auf6 Pixelpositionen überlagert, die durch Sensorsegmente501 ,502 und503 gescannt werden können. Markierungen602 ,603 ,604 sind durch ein weißes Feld umgeben, das ausreichend groß ist, daß der Scanmecha nismus zuverlässig Sensorsegmente501 ,502 und503 direkt innerhalb der weißen Felder plazieren kann, sogar wenn die Sensorsegmente501 ,502 ,503 von ihren Nennpositionen um das maximale Ausmaß ihrer zulässigen Plazierungstoleranzen abweichen. Da die Fehlausrichtung der Sensorsegmente501 ,502 ,503 in6 übertrieben ist, kann das Ziel601 größer gezeigt werden, als eigentlich erforderlich ist. - Jede der Markierungen
602 ,603 ,604 weist zumindest eine wirksame vertikale Kante auf. Bei diesem Beispiel ist die Kante605 als wirksame vertikale Kante der Markierung602 ausgewählt, Kante606 ist für Markierung603 ausgewählt und Kante607 ist für Markierung604 ausgewählt. Die gezeigten Markierungen weisen andere vertikale Kanten auf, und die Auswahl ist beliebig, so lange die X-Richtungsposition der Kanten der Pixelplazierungsgenauigkeit bekannt ist, die von dem eventuell gescannten Bild gefordert wird. Das Ziel601 kann durch ein Hochpräzisionsdrucken auf einem stabilen Material hergestellt sein und kann unter der Platte eines typischen Scanners befestigt sein. Alternativ können die Markierungen602 ,603 ,604 auf einen Abschnitt des Scannergehäuses gedruckt sein. - Zumindest eine Markierung wird für jedes Sensorsegment geliefert. Die Markierungen sind vorzugsweise so plaziert, daß das Nennzentrum jedes Segments dessen entsprechende Markierung scannt, wenn alle Komponenten an ihren Nennpositionen plaziert sind. In jedem Fall sind die Markierungen derart plaziert, daß jede Markierung nur durch ihr entsprechendes Sensorsegment gescannt werden kann, sogar wenn die Segmente von ihren Nennpositionen um das maximale Ausmaß ihrer zulässigen Toleranzen verschoben sind.
- Während des Meßprozesses wird das Ziel
601 gescannt. Dieses Verfahren ist in6 durch die gestrichelten Linien dargestellt, die aufeinanderfolgende Positionen des Sensorsegmentes501 ,502 ,503 in Bezug auf das Ziel601 zeigen. Zum Beispiel ist das Segment502 zu einer bestimmten Zeit an der Position, die durch dessen durchgezogenen Umriß angezeigt ist. Zu einer späteren Zeit, wenn sich der Scanmechanismus um ein Pixel bewegt hat, befindet sich das Segment502 an einer Position502A . Wiederum später befindet sich das Segment502 an einer Position502B . An jeder Position wird das Bild, das durch das Sensorsegment502 gesehen wird, gelesen und in eine digitale Darstellung umgewandelt. Bei einem Scanner z. B., der 256 Pegel von Pixelhelligkeit darstellen kann und der höhere Werte helleren Pixeln zuweist, kann das digitale Bild, das durch die acht lichtempfindlichen Elemente oder Pixel des Segments502 in dessen erster Position gelesen wird acht digitale Werte aufweisen, wie z. B.: wobei der Wert am weitesten links dem Pixel511 entspricht. - Daten, die durch das Segment
502 in aufeinanderfolgenden Positionen502A und502B gelesen werden, können ähnlich sein. Wenn das Segment502 jedoch auf die Markierung603 trifft, lesen einige der Pixel des Segments502 die dunklere Markierung603 und erzeugen somit niedrigere digitale Werte. Zum Beispiel können die acht Werte, die durch das Segment502 erzeugt werden, wenn dasselbe die Markierung603 scannt, folgende sein: wobei wiederum der Wert am weitesten links dem Pixel511 entspricht. - Die Kante
606 ist die willkürlich ausgewählte wirksame vertikale Kante von Interesse zum Lokalisieren des Sensorsegments502 . Durch Untersuchen der Datenwerte, die aus dem Scannen der Markierung603 resultieren, kann die Kante606 in der X-Richtung in Bezug auf das Segment502 angeordnet sein. Ein einfaches Verfahren ist das Zuweisen der Kanten position zu dem ersten Pixel des Segments502 , dessen Helligkeitsablesung unter die Hälfte der Vollskalaablesung des Scanners fällt. Bei dem obigen Beispielsatz von digitalen Werten weist das vierte Pixel, das in6 als Pixel608 gezeigt ist, einen Wert von 53 auf, der weniger als die Hälfte des Vollskalawerts von 256 dieses Beispielscanners ist. Bei diesem einfachen Beispielverfahren kann bestimmt werden, daß die Kante606 auf das Pixel608 fällt, das vierte Pixel des Segments502 . - Da die Position der Kante
606 genau bekannt ist und die Länge des Segments502 genau bekannt ist und die Beziehung der Kante606 zu dem Segment502 genau bekannt ist, ist nun bekannt, welche Abschnitte der Scannerplatte102 durch das Segment502 gescannt werden. Jedes der anderen Sensorsegmente kann auf eine ähnliche Weise charakterisiert werden. - Da dann bekannt ist, welche Abschnitte der Scannerplatte
102 durch jedes Sensorsegment gescannt werden, kann bestimmt werden, welches Sensorsegmentpixel einen bestimmten Abschnitt der Platte102 scannt, obwohl die Sensorsegmente auf der gedruckten Schaltungsplatine102 mit beträchtlichen Positionsfehlern in der X-Richtung plaziert werden können. Diese Charakterisierung ist eine Voraussetzung für das Kompensieren der Positionsfehler unter Verwendung einer späteren Bildverarbeitung. - Eine genauere Schätzung der Position des Sensorsegments
502 kann erhalten werden durch Interpolieren zwischen den digitalen Werten, die durch die Sensorpixel gelesen werden. Bei dem obigen Beispiel las das dritte Pixel des Segments502 einen digitalen Wert von 211 und das vierte Pixel (Pixel608 ) las einen digitalen Wert von 53. Durch Interpolieren zwischen diesen Pixeln ist es möglich, eine präzisere Schätzung der Position entlang des Sensorsegments502 zu erhalten, wo die digitalen Werte, die durch die Pixel gelesen werden, 128 wären (die Hälfte der Vollskalaablesung von 256), und daher eine präzisere Schätzung der Position der wirksamen vertikalen Kante606 . -
7 stellt die Interpolation dar. Eine Pixelposition p kann aus folgender Beziehung berechnet werden: aus der bestimmten werden kann, daß p ≈ 3,52. Anders ausgedrückt ist die wirksame vertikale Kante606 mit einem Punkt auf dem Sensorsegment502 ungefähr 3,52 Pixel von dem linken Ende ausgerichtet. Sogar wenn die eventuelle Bildverarbeitung keine Daten an Bruchpixelpositionen plaziert, kann eine präzisere Schätzung der Plazierung der Sensorsegmente die Möglichkeit von einer unnötigen Ansammlung von Fehlern zwischen Sensorsegmenten reduzieren. - Jegliche Berechnungen und Bildverarbeitung kann durch den Scanner durchgeführt werden, z. B. unter Verwendung eines Mikroprozessors, oder durch einen Hostcomputer oder eine Kombination derselben.
- Eine ähnliche Technik kann verwendet werden, um die Sensorsegmentpositionen in der Y-Richtung und die Winkelpositionen der Segmente zu charakterisieren.
8 zeigt ein alternatives beispielhaftes Scanziel801 , das verwendet werden kann, um Sensorsegmentpositionen sowohl in der X- als auch Y-Richtung zu charakterisieren. Das Ziel801 enthält eine Markierung802 . Die Markierung802 weist eine wirksame horizontale Kante803 und Überlagerungsmarkierungen804 ,805 und806 auf, die wirksame vertikale Kanten807 ,808 bzw.809 aufweisen. Die horizontale Kante803 kann derart betrachtet werden, daß sie durch die Markierungen804 ,805 und806 unterbrochen ist. Ferner ist auf dem Ziel801 ein Satz von Positionen überlagert, die durch das Sensorsegment502 während des Scannens überquert werden. Wie vorangehend beschrieben wurde, kann die Position des Segments502 in der X-Richtung gemessen werden, durch Untersuchen von aufeinanderfolgenden Pixeln, die durch das Segment502 gescannt werden, während das Segment502 die Markierung805 überquert. Um die Segmentpositionen in der Y-Richtung zu messen, werden aufeinanderfolgende Ablesungen desselben Pixels untersucht, wenn die Segmente die horizontale Kante803 überqueren. Zum Beispiel kann die Position der linken Kante des Segments502 charakterisiert werden, durch Untersuchen aufeinanderfolgender Ablesungen von dem Pixel511 . Die Position kann als die Scanmechanismusposition aufgezeichnet werden, an der der digitale Wert, der aus dem Pixel511 gelesen wird, unter die Hälfte einer Vollskalaablesung fällt (256 für den Beispielscanner). Alternativ kann der Scanner oder der Host eine Interpolation verwenden, wie vorangehend beschrieben wurde, um eine Bruchposition in der Y-Richtung zu schätzen. - Auf ähnliche Weise kann die Y-Richtungsposition des Pixels
810 , das Pixel am weitesten rechts des Sensorsegments502 , als die Scanmechanismusposition bestimmt werden, an der das Pixel810 die horizontale Kante803 überquert. Sobald beide Endpixel in der Y-Richtung lokalisiert wurden, ist die Y-Richtung-Position des Sensorsegments bekannt, und die Winkelposition des Segments kann aus der Differenz bei den Y-Richtung-Positionen der zwei Endpixel sichergestellt werden. - Es wird z. B. der Fall betrachtet, in dem die Position der horizontalen Kante
803 Y0 ist und die Position der vertikalen Kante808 XN ist, p ist die Pixelanzahl innerhalb des Segments502 , wo die Kante808 erfaßt wird, Y1 ist die Distanz, die sich das Sensorarray von einer Referenzposition bewegen muß, um die horizontale Kante803 mit dem Pixel511 zu erfassen, und Y2 ist die Distanz, die sich das Sensorarray von der Referenzposition bewegen muß, um die horizontale Kante803 mit dem Pixel810 zu erfassen. Bei diesem Beispiel werden die Distanzen in Scannerpixeln gemessen, obwohl andere Einheiten ohne weiteres verwendet werden kön nen. Die Position des Segments502 kann vollständig charakterisiert werden, entweder durch Lokalisieren von beiden Endpixeln511 und810 in der X- und Y-Richtung, oder durch Lokalisieren eines bestimmten Punkts auf dem Segment502 in der X- und Y-Richtung und durch Anzeigen der Neigung des Segments im Hinblick auf die horizontale Kante803 . - Obwohl das Ziel präzise hergestellt ist, kann das Vorhandensein von Staub, Schmutz oder anderen Partikeln die Ergebnisse der Kantenfindung beeinträchtigen. Diese unerwünschten Wirkungen können durch verschiedene statistische Techniken verhindert werden. Zum Beispiel kann der Sensor die Position der vertikalen Kante
808 an verschiedenen Positionen messen, die Hoch- und Niedrig-Ablesungen ablehnen und die verbleibenden Ablesungen mitteln. Andere statistische Verfahren sind für Fachleute auf dem Gebiet offensichtlich. - Y1, Y2 und p stellen sichtbare Zielkantenpositionen dar, aus der Sicht der Sensorsegmente. Da das Ziel präzise aufgebaut ist, wird eine Abweichung von der Nennzielposition Positionsfehlern bei den Sensorsegmenten zugewiesen. Die Sensorsegmentpositionen werden aus den sichtbaren Zielkantenpositionen berechnet.
- Zum Beispiel, wie in
8 gezeigt ist:
Pixel511 X-Position = (XN – p)
Pixel511 Y-Position = Y0 – Y1
Pixel810 X-Position = XN + (Anzahl von Pixeln in dem Segment502 – 1) – p
Pixel810 Y-Position = Y0 – Y2 - Bei diesem Beispiel wurde angenommen, daß das Segment
502 ausreichend parallel zu der horizontalen Kante803 ist, um die Verkürzung in der X-Richtung zu vernachlässigen. Um die Wirkung der Verkürzung zu umfassen, würde die X- Richtungsabweichung von XN mit cos(bogtan((Y2 – Y1)/(Anzahl von Pixeln in Segment502 ))) multipliziert werden. - Die Positionen der anderen Sensorsegmente können auf ähnliche Weise bestimmt werden.
9 zeigt ein alternatives beispielhaftes Ausführungsbeispiel des kombinierten Ziels. - Aufgrund der Unterbrechungen der Kante
803 kann die Kante803 derart betrachtet werden, daß sie aus mehreren kollinearen Kantensegmenten aufgebaut ist. - Ein Fachmann auf dem Gebiet erkennt verschiedene Abweichungen der Ziele, des Scanners und des Verfahrens, die die Erfindung verkörpern, und die beiliegenden Ansprüche sollen interpretiert werden, um solche Abweichungen zu umfassen. Zum Beispiel, während Ziele beschrieben wurden, die schwarze Markierungen auf einem weißen Hintergrund
609 ,811 aufweisen, können andere Kombinationen verwendet werden, um die horizontalen und vertikalen Kanten zu liefern. Ein Ziel könnte weiße Markierungen auf einem schwarzen Hintergrund oder eine andere Kombination von Farben oder Reflexionsvermögen aufweisen. - Jedes oben beschriebene Sensorsegment weist eine einzelne Zeile von lichtempfindlichen Pixeln auf. Einige Sensoren umfassen mehrere Pixelzeilen, wobei jede Zeile empfindlich für einen unterschiedlichen Satz von Lichtwellenlängen ist. Üblicherweise wird die Wellenlängenempfindlichkeit durch Plazieren von Filtern über den Zeilen erreicht. Ein solcher Sensor kann verwendet werden, um Farbinformationen über einen Originalartikel zusätzlich zu Reflexionsvermögens-, Durchlässigkeits- oder Dichte-Informationen festzustellen. Während Einzelzeilensensoren der Einfachheit der Erklärung halber verwendet wurden, wird darauf hingewiesen, daß die vorliegende Erfindung ohne weiteres mit Mehrfachzeilensensoren verkörpert sein kann. Es kann wünschenswert sein, die Position jeder Zeile unabhängig zu messen, oder es kann ausreichend sein, eine einzelne Zeile zu messen und die Po sitionen der anderen Zeilen basierend auf ihren relativen Nennpositionen zu berechnen.
- Das oben beschriebene CIS-Modul verwendet versetzte Sensorsegmente. Das heißt, alternative Segmente werden in der Y-Richtung verlagert und überlappen in der X-Richtung. Einige CIS-Module grenzen an die Sensorsegmente Ende-an-Ende an, wodurch eine einzelne lange Zeile von lichtempfindlichen Pixeln gebildet wird. Ein nicht-versetztes CIS unterliegt ebenfalls Positionsfehlern, und es wird darauf hingewiesen, daß die vorliegende Erfindung ebenfalls mit einem nichtversetzten CIS verkörpert sein kann.
- Es wird ferner darauf hingewiesen, daß die Erfindung durch Plazieren eines Ziels innerhalb eines Scanners oder durch Plazieren eines Ziels in einer separaten Charakterisierungshalterung verkörpert sein kann. In dem ersten Fall kann das Ziel unter der selben Scannerplatte plaziert sein, in einem Bereich außerhalb des Bereichs, der durch einen Originalartikel abgedeckt ist. Der Scanner kann das Ziel periodisch scannen und die notwendigen Berechnungen ausführen, um die Positionen der Sensorsegmente festzustellen. Die Berechnungen können ebenfalls in einem Hostcomputer ausgeführt werden, der mit dem Scanner verbunden ist. In dem zweiten Fall kann das Ziel Teil einer separaten Charakterisierungshalterung sein, die während der Herstellung des Scanners verwendet wird. Der Bilderzeugungsabschnitt des Scanners kann in der Halterung plaziert sein und verwendet werden, um ein Ziel zu scannen. Ein Computer, der an der Halterung angebracht ist, kann das resultierende digitale Bild analysieren, um die Plazierung der Sensorsegmente festzustellen. Die Plazierungsinformationen können innerhalb des Bilderzeugungsabschnitts des Scanners gespeichert werden, z. B. in einem nicht-flüchtigen Speicher auf derselben Schaltungsplatine
104 , die die Sensorsegmente103 hält. Auf diese Weise sind der Scannerbilderzeugungsabschnitt und dessen Plazierungsinformationen zweckmäßig einander zugeordnet. Alternativ können die Plazierungsinforma tionen zu dem Scanner oder dem Hostcomputer des Scanners durch eine andere Einrichtung übertragen werden, wie z. B. eine elektronische Schnittstelle, so daß die Sensorsegmentpositionen für eine spätere Bildkorrektur bekannt sind. - Die vorangehende Beschreibung der vorliegenden Erfindung wurde zu Zwecken der Darstellung und Beschreibung vorgelegt. Dieselbe soll nicht ausschließend sein und die Erfindung auf die präzise offenbarte Form einschränken, und andere Modifikationen und Variationen können im Hinblick auf die obigen Lehren möglich sein. Zum Beispiel kann die Erfindung in einem Scanner verkörpert sein, der einen durchlässigen Originalartikel scannt, unter Verwendung von Licht, das durch den Originalartikel geleitet wird. Das Ausführungsbeispiel wurde ausgewählt und beschrieben, um die Prinzipien der Erfindung und deren praktische Anwendung bestmöglich zu erklären, um dadurch anderen Fachleuten auf dem Gebiet zu ermöglichen, die Erfindung bei verschiedenen Ausführungsbeispielen und verschiedenen Modifikationen bestmöglich zu verwenden, wie sie für die bestimmte erdachte Verwendung geeignet sind. Die beiliegenden Ansprüche sollen ausgeführt sein, um andere alternative Ausführungsbeispiele der Erfindung zu umfassen, außer dieselbe ist diesbezüglich durch den Stand der Technik eingeschränkt.
Claims (14)
- Ziel (
601 ) zum Messen von Zusammenbau- und Ausrichtungs-Fehlern in einer Mehrfachsegment-Sensoranordnung (501 ,502 ,503 ), wobei das Ziel (601 ) folgende Merkmale aufweist: a) einen Hintergrund (609 ); b) zumindest zwei Markierungen (602 ,603 ,604 ), die einen Kontrast mit dem Hintergrund (609 ) bilden, wobei jede Markierung derart positioniert ist, daß sie durch nur ein Segment der Mehrfachsegment-Sensoranordnung (501 ,502 ,503 ) erfaßt werden kann; und c) eine wirksame vertikale Kante (605 ,606 ,607 ) an jeder Markierung (602 ,603 ,604 ). - Ziel (
601 ) gemäß Anspruch 1, bei dem die wirksamen vertikalen Kanten (605 ,606 ,607 ) mit einer Präzision positioniert sind, die zumindest gleich der Größe der Segmentpositionsfehler, die gemessen werden sollen, ist. - Ziel (
801 ) zum Messen von Zusammenbau- und Ausrichtungs-Fehlern bei einer Mehrfachsegment-Sensoranordnung (501 ,502 ,503 ), wobei das Ziel folgende Merkmale aufweist: a) einen Hintergrund (811 ); und b) einen Satz von Kanten, die durch Bereiche definiert sind, die mit dem Hintergrund (811 ) einen Kontrast bilden, wobei die Kanten folgende Merkmale umfassen: i. zumindest eine vertikale Kante (803 ), die, im wesentlichen parallel zu einer Hauptscanrichtung, einen Bereich überspannt, der durch die Sensoranordnung (501 ,502 ,503 ) gescannt werden soll; und ii. zumindest eine vertikale Kante (807 ,808 ,809 ) für jedes Sensoranordnungssegment, wobei jede vertikale Kante (807 ,808 ,809 ) im allgemeinen senkrecht zu der Hauptscanrichtung ist und so positioniert ist, daß sie durch nur ein Sensoranordnungssegment erfaßt werden kann. - Ziel (
801 ) gemäß Anspruch 3, bei dem die horizontale Kante zumindest zwei im wesentlichen kollineare Segmente aufweist. - Verfahren zum Messen von Zusammenbau- und Ausrichtungs-Fehlern bei einer Mehrfachsegment-Sensoranordnung (
501 ,502 ,503 ), wobei das Verfahren folgende Schritte aufweist: a) Scannen eines Ziels (601 ) unter Verwendung einer Mehrfachsegment-Sensoranordnung (501 ,502 ,503 ), wobei das Ziel (601 ) zumindest eine wirksame vertikale Kante (605 ,606 ,607 ) für jedes Sensorsegment aufweist, wobei die wirksamen vertikalen Kanten (605 ,606 ,607 ) derart positioniert sind, daß jede Kante durch nur ein Sensorsegment erfaßt werden kann; b) Erzeugen eines digitalen Bildes des Ziels (601 ); c) Analysieren des digitalen Bildes, um die sichtbaren Positionen der Zielkanten (605 ,606 ,607 ) zu erfassen; und d) Berechnen von Positionen der Sensorsegmente (501 ,502 ,503 ) aus den sichtbaren Zielkantenpositionen. - Verfahren gemäß Anspruch 5, bei dem der Schritt des Analysierens des digitalen Bildes, um die sichtbaren Positionen der Zielkanten zu erfassen, ferner das Erfassen einer wirksamen horizontalen Kante (
803 ) aufweist. - Verfahren gemäß Anspruch 6, bei dem das Erfassen einer wirksamen horizontalen Kante das Erfassen von zumindest zwei im wesentlichen kollinearen horizontalen Kantensegmenten aufweist.
- Verfahren gemäß einem der Ansprüche 5 bis 7, das ferner den Schritt des Speicherns der Positionen der Sensorsegmente innerhalb eines Scannerbilderzeugungsabschnitts aufweist.
- Scanner, der folgende Merkmale aufweist: a) eine Mehrfachsegment-Sensoranordnung (
501 ,502 ,503 ); b) ein Ziel (601 ), das zumindest eine wirksame vertikale Kante (605 ,606 ,607 ) für jedes Sensorsegment aufweist, wobei die wirksamen vertikalen Kanten (605 ,606 ,607 ) derart positioniert sind, daß jede Kante durch nur ein Sensorsegment erfaßt werden kann; und c) einen Mikroprozessor, der programmiert ist, um das folgende Verfahren auszuführen: i. Scannen des Ziels (601 ); ii. Erzeugen eines digitalen Bildes von dem Ziel (601 ); iii. Analysieren des digitalen Bildes, um die sichtbaren Positionen der Zielkanten (605 ,606 ,607 ) zu erfassen; und iv. Berechnen von Positionen der Sensorsegmente (501 ,502 ,503 ) aus den sichtbaren Zielkantenpositionen. - Halterung zum Charakterisieren einer Mehrfachsegment-Sensoranordnung, die folgende Merkmale aufweist: a) ein Ziel (
601 ), das zumindest eine wirksame vertikale Kante (605 ,606 ,607 ) für jedes Sensorsegment aufweist, wobei die wirksamen vertikalen Kanten (605 ,606 ,607 ) derart positioniert sind, daß jede Kante durch nur ein Sensorsegment erfaßt werden kann; und b) einen Computer, der programmiert ist, um das folgende Verfahren auszuführen: i. Scannen des Ziels (601 ); ii. Erzeugen eines digitalen Bildes des Ziels (601 ); iii. Analysieren des digitalen Bildes, um die sichtbaren Positionen der Zielkanten (605 ,606 ,607 ) zu erfassen; und iv. Berechnen von Positionen der Sensorsegmente (501 ,502 ,503 ) aus den sichtbaren Zielkantenpositionen. - Halterung gemäß Anspruch 10, bei der das Verfahren ferner den Schritt des Speicherns der Positionen der Sensorsegmente in einem Scannerbilderzeugungsabschnitt aufweist.
- System, das folgende Merkmale aufweist: a) einen Scanner, der folgende Merkmale aufweist: i. eine Mehrfachsegment-Sensoranordnung (
501 ,502 ,503 ); und ii. ein Ziel (601 ), das zumindest eine wirksame vertikale Kante (605 ,606 ,607 ) für jedes Sensorsegment aufweist, wobei die wirksamen vertikalen Kanten (605 ,606 ,607 ) derart positioniert sind, daß jede Kante durch nur ein Sensorsegment erfaßt werden kann; und b) einen Computer; wobei das System programmiert ist, um das folgende Verfahren auszuführen: i. Scannen des Ziels (601 ); ii. Erzeugen eines Bildes von dem Ziel (601 ); iii. Analysieren des digitalen Bildes, um die sichtbaren Positionen der Zielkanten (605 ,606 ,607 ) zu erfassen; und iv. Berechnen von Positionen der Sensorsegmente (501 ,502 ,503 ) aus den sichtbaren Zielkantenpositionen. - Scanner, der folgende Merkmale aufweist: a) eine Mehrfachsegment-Sensoranordnung (
501 ,502 ,503 ); b) ein Ziel (601 ), das zumindest eine wirksame vertikale Kante (605 ,606 ,607 ) für jedes Segment der Mehrfachsegment-Sensoranordnung aufweist, wobei jede wirksame vertikale Kante durch nur ein Sensorsegment erfaßbar ist; c) eine Einrichtung zum Scannen des Ziels mit der Mehrfachsegment-Sensoranordnung und zum Erzeugen eines digitalen Bildes; d) eine Einrichtung zum Analysieren des digitalen Bildes, um die sichtbaren Positionen der Zielkanten zu erfassen; und e) eine Einrichtung zum Berechnen der Positionen der Sensorsegmente aus den sichtbaren Positionen der Zielkanten. - Scanner gemäß Anspruch 13, bei dem das Ziel ferner eine wirksame horizontale Kante aufweist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/326,622 US7265881B2 (en) | 2002-12-20 | 2002-12-20 | Method and apparatus for measuring assembly and alignment errors in sensor assemblies |
US10-326,622 | 2002-12-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10342476A1 true DE10342476A1 (de) | 2004-07-15 |
DE10342476B4 DE10342476B4 (de) | 2008-04-30 |
Family
ID=32594058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10342476A Expired - Fee Related DE10342476B4 (de) | 2002-12-20 | 2003-09-15 | Verfahren und Vorrichtung zum Messen von Zusammenbau- und Ausrichtungs-Fehlern in Sensoranordnungen |
Country Status (4)
Country | Link |
---|---|
US (1) | US7265881B2 (de) |
JP (1) | JP2004208299A (de) |
DE (1) | DE10342476B4 (de) |
TW (1) | TWI318532B (de) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2854476B1 (fr) * | 2003-04-30 | 2005-07-01 | Datacard Inc | Dispositif de comptage de produits empiles |
TWI223545B (en) * | 2003-08-21 | 2004-11-01 | Avision Inc | An apparatus and method for image acquisition |
JP2005269601A (ja) * | 2004-02-16 | 2005-09-29 | Ricoh Co Ltd | 原稿搬送読取装置および画像形成装置 |
US8102548B2 (en) * | 2004-12-02 | 2012-01-24 | Xerox Corporation | Video-based control and diagnostics system |
US8300276B2 (en) * | 2009-12-11 | 2012-10-30 | Raytheon Company | Compensating for misalignment in an image scanner |
US9508031B2 (en) | 2012-05-22 | 2016-11-29 | Andrew William Peter Cave | Computer programs and methods for generating 1-bit image data from multiple-bit image data |
JP6946983B2 (ja) * | 2017-11-30 | 2021-10-13 | 株式会社リコー | 位置検出装置、画像読取装置、画像形成装置、プログラムおよび位置検出方法 |
CN109862201A (zh) * | 2017-11-30 | 2019-06-07 | 株式会社理光 | 读取装置、图像形成装置、基准图案读取方法 |
JP7103014B2 (ja) * | 2017-11-30 | 2022-07-20 | 株式会社リコー | 読取装置、画像形成装置、基準パターン読取方法およびプログラム |
EP3651451B1 (de) * | 2018-11-07 | 2022-08-17 | IMEC vzw | Vorrichtung zur zeitverzögerung und integrationsbildgebung und verfahren zur steuerung von zeitverzögerung und integrationsbildgebung |
Family Cites Families (106)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3953172A (en) * | 1974-05-10 | 1976-04-27 | Union Carbide Corporation | Method and apparatus for assaying liquid materials |
US4426451A (en) * | 1981-01-28 | 1984-01-17 | Eastman Kodak Company | Multi-zoned reaction vessel having pressure-actuatable control means between zones |
JPS59201575A (ja) | 1983-04-28 | 1984-11-15 | Sanyo Electric Co Ltd | 読取走査装置の調整方法 |
DE3407359A1 (de) * | 1984-02-29 | 1985-08-29 | Bayer Ag, 5090 Leverkusen | Testvorrichtung und methode zum nachweis einer komponente einer fluessigen probe |
US4820399A (en) * | 1984-08-31 | 1989-04-11 | Shimadzu Corporation | Enzyme electrodes |
DE3687646T3 (de) * | 1985-06-21 | 2001-05-31 | Matsushita Electric Ind Co Ltd | Biosensor und dessen herstellung. |
US5185256A (en) * | 1985-06-21 | 1993-02-09 | Matsushita Electric Industrial Co., Ltd. | Method for making a biosensor |
JPS6215672A (ja) | 1985-07-15 | 1987-01-24 | Dainippon Printing Co Ltd | カタログ編集システム |
JPS62277852A (ja) | 1986-05-27 | 1987-12-02 | Matsushita Electric Ind Co Ltd | 画像信号処理装置 |
US4911794A (en) * | 1986-06-20 | 1990-03-27 | Molecular Devices Corporation | Measuring with zero volume cell |
US4724330A (en) * | 1986-09-24 | 1988-02-09 | Xerox Corporation | Self aligning raster input scanner |
US4794926A (en) * | 1986-11-24 | 1989-01-03 | Invictus, Inc. | Lancet cartridge |
US4900424A (en) * | 1986-11-28 | 1990-02-13 | Unilever Patent Holdings B.V. | Electrochemical measurement cell |
JPS63234765A (ja) * | 1987-03-24 | 1988-09-30 | Dainippon Screen Mfg Co Ltd | 画像読取装置 |
US4814142A (en) * | 1987-05-22 | 1989-03-21 | Polymer Technology International Corp. | Test strip having a non-particulate dialyzed polymer layer |
US5286364A (en) * | 1987-06-08 | 1994-02-15 | Rutgers University | Surface-modified electochemical biosensor |
US5108564A (en) * | 1988-03-15 | 1992-04-28 | Tall Oak Ventures | Method and apparatus for amperometric diagnostic analysis |
US5205920A (en) * | 1989-03-03 | 1993-04-27 | Noboru Oyama | Enzyme sensor and method of manufacturing the same |
US5089112A (en) * | 1989-03-20 | 1992-02-18 | Associated Universities, Inc. | Electrochemical biosensor based on immobilized enzymes and redox polymers |
KR0171222B1 (ko) * | 1989-12-15 | 1999-02-18 | 스티브 올드함 | 산화 환원 조정시약 및 바이오센서 |
US5104619A (en) * | 1990-01-24 | 1992-04-14 | Gds Technology, Inc. | Disposable diagnostic system |
US5286362A (en) * | 1990-02-03 | 1994-02-15 | Boehringer Mannheim Gmbh | Method and sensor electrode system for the electrochemical determination of an analyte or an oxidoreductase as well as the use of suitable compounds therefor |
US5144455A (en) | 1990-02-05 | 1992-09-01 | Hewlett-Packard Company | Method and apparatus for locating the document referencing corner in a document scanner |
US5187100A (en) * | 1990-05-29 | 1993-02-16 | Lifescan, Inc. | Dispersion to limit penetration of aqueous solutions into a membrane |
FR2673289B1 (fr) * | 1991-02-21 | 1994-06-17 | Asulab Sa | Capteur de mesure de la quantite d'un composant en solution. |
FR2673183B1 (fr) * | 1991-02-21 | 1996-09-27 | Asulab Sa | Complexes mono, bis ou tris (2,2'-bipyridine substituee) d'un metal choisi parmi le fer, le ruthenium, l'osmium ou le vanadium et leurs procedes de preparation . |
US5593852A (en) * | 1993-12-02 | 1997-01-14 | Heller; Adam | Subcutaneous glucose electrode |
US5192415A (en) * | 1991-03-04 | 1993-03-09 | Matsushita Electric Industrial Co., Ltd. | Biosensor utilizing enzyme and a method for producing the same |
JP3118015B2 (ja) * | 1991-05-17 | 2000-12-18 | アークレイ株式会社 | バイオセンサーおよびそれを用いた分離定量方法 |
US5194908A (en) * | 1991-11-29 | 1993-03-16 | Computing Devices Canada Ltd. | Detecting target movement |
JP3084877B2 (ja) * | 1992-01-21 | 2000-09-04 | 松下電器産業株式会社 | グルコースセンサの製造方法 |
DE59307720D1 (de) * | 1992-03-23 | 1998-01-08 | Siemens Ag | Biosensor |
EP0562370B1 (de) * | 1992-03-23 | 1997-11-26 | Siemens Aktiengesellschaft | Biosensor |
US5710011A (en) * | 1992-06-05 | 1998-01-20 | Medisense, Inc. | Mediators to oxidoreductase enzymes |
JP2760234B2 (ja) * | 1992-09-30 | 1998-05-28 | 松下電器産業株式会社 | 基質濃度測定方法 |
FR2699170B1 (fr) * | 1992-12-15 | 1995-07-28 | Asulab Sa | Complexes d'un métal de transition à ligands 2,2'-bipyridine substitués par au moins un radical ammonium alkyle, leur procédé de fabrication et leur application comme médiateur redox. |
JP2898160B2 (ja) * | 1993-01-13 | 1999-05-31 | キンセキ株式会社 | トランスバーサルフィルタ用増幅器 |
US5387329A (en) * | 1993-04-09 | 1995-02-07 | Ciba Corning Diagnostics Corp. | Extended use planar sensors |
DE59410066D1 (de) * | 1993-04-23 | 2002-04-11 | Boehringer Mannheim Gmbh | System zur Analyse von Inhaltsstoffen flüssiger Proben |
JPH06313760A (ja) * | 1993-04-30 | 1994-11-08 | Kyoto Daiichi Kagaku:Kk | 酵素電極による検体測定方法 |
FR2705150B1 (fr) * | 1993-05-10 | 1995-07-21 | Asulab Sa | Capteur électrochimique à zones multiples sur disque et son application au dosage du glucose. |
DE4427363A1 (de) * | 1993-08-03 | 1995-03-09 | A & D Co Ltd | Chemischer Einmalsensor |
DE69423601T2 (de) * | 1993-12-29 | 2000-07-06 | Mochida Pharm Co Ltd | Elektrochemische Bestimmungsmethode und neue p-Phenylendiamin-Verbindung |
US5384621A (en) * | 1994-01-04 | 1995-01-24 | Xerox Corporation | Document detection apparatus |
GB9412789D0 (en) * | 1994-06-24 | 1994-08-17 | Environmental Sensors Ltd | Improvements to electrodes |
JP3562593B2 (ja) * | 1994-07-11 | 2004-09-08 | 東洋紡績株式会社 | 水中底層流砂捕捉用人工水草 |
US5624537A (en) * | 1994-09-20 | 1997-04-29 | The University Of British Columbia - University-Industry Liaison Office | Biosensor and interface membrane |
US5498542A (en) * | 1994-09-29 | 1996-03-12 | Bayer Corporation | Electrode mediators for regeneration of NADH and NADPH |
US5783833A (en) * | 1994-12-12 | 1998-07-21 | Nikon Corporation | Method and apparatus for alignment with a substrate, using coma imparting optics |
US5882494A (en) * | 1995-03-27 | 1999-03-16 | Minimed, Inc. | Polyurethane/polyurea compositions containing silicone for biosensor membranes |
JP3498105B2 (ja) * | 1995-04-07 | 2004-02-16 | アークレイ株式会社 | センサ、その製造方法およびセンサを使用する測定方法 |
US5510266A (en) * | 1995-05-05 | 1996-04-23 | Bayer Corporation | Method and apparatus of handling multiple sensors in a glucose monitoring instrument system |
US5705045A (en) * | 1995-08-29 | 1998-01-06 | Lg Electronics Inc. | Multi-biosensor for GPT and got activity |
US5757425A (en) * | 1995-12-19 | 1998-05-26 | Eastman Kodak Company | Method and apparatus for independently calibrating light source and photosensor arrays |
US5708247A (en) * | 1996-02-14 | 1998-01-13 | Selfcare, Inc. | Disposable glucose test strips, and methods and compositions for making same |
US5723284A (en) * | 1996-04-01 | 1998-03-03 | Bayer Corporation | Control solution and method for testing the performance of an electrochemical device for determining the concentration of an analyte in blood |
DE19622458C2 (de) * | 1996-05-24 | 1998-03-26 | Senslab Ges Zur Entwicklung Un | Enzymatisch-elektrochemischer Einschritt-Affinitätssensor zur quantitativen Bestimmung von Analyten in wäßrigen Medien und Affinitätsassay |
IL130137A (en) * | 1996-11-28 | 2003-07-06 | Nikon Corp | Exposure apparatus and an exposure method |
US5866353A (en) * | 1996-12-09 | 1999-02-02 | Bayer Corporation | Electro chemical biosensor containing diazacyanine mediator for co-enzyme regeneration |
GB2323442B (en) * | 1997-01-09 | 2000-12-06 | Mercury Diagnostics Inc | Method for applying a reagent to an analytical test device |
GB9712386D0 (en) * | 1997-06-14 | 1997-08-13 | Univ Coventry | Biosensor |
US6036924A (en) * | 1997-12-04 | 2000-03-14 | Hewlett-Packard Company | Cassette of lancet cartridges for sampling blood |
US6033866A (en) * | 1997-12-08 | 2000-03-07 | Biomedix, Inc. | Highly sensitive amperometric bi-mediator-based glucose biosensor |
US6022324A (en) * | 1998-01-02 | 2000-02-08 | Skinner; Bruce A. J. | Biopsy instrument |
US6190612B1 (en) * | 1998-01-21 | 2001-02-20 | Bayer Corporation | Oxygen sensing membranes and methods of making same |
US6030827A (en) * | 1998-01-23 | 2000-02-29 | I-Stat Corporation | Microfabricated aperture-based sensor |
GB2337122B (en) * | 1998-05-08 | 2002-11-13 | Medisense Inc | Test strip |
US6294281B1 (en) * | 1998-06-17 | 2001-09-25 | Therasense, Inc. | Biological fuel cell and method |
US6353486B1 (en) * | 1998-07-17 | 2002-03-05 | Mustek Systems, Inc. | Device for improving scanning quality of image scanner |
US6197257B1 (en) * | 1998-08-20 | 2001-03-06 | Microsense Of St. Louis, Llc | Micro sensor device |
JP3267936B2 (ja) * | 1998-08-26 | 2002-03-25 | 松下電器産業株式会社 | バイオセンサ |
US6338790B1 (en) * | 1998-10-08 | 2002-01-15 | Therasense, Inc. | Small volume in vitro analyte sensor with diffusible or non-leachable redox mediator |
JP3513031B2 (ja) * | 1998-10-09 | 2004-03-31 | 株式会社東芝 | アライメント装置の調整方法、収差測定方法及び収差測定マーク |
US6360888B1 (en) * | 1999-02-25 | 2002-03-26 | Minimed Inc. | Glucose sensor package system |
JP4269393B2 (ja) * | 1999-03-03 | 2009-05-27 | 株式会社ニコン | アライメントマーク及びアライメント方法 |
US6350451B1 (en) * | 1999-06-25 | 2002-02-26 | The Board Of Trustees Of The University Of Arkansas | Immunotherapy of epithelial tumors using intralesional injection of antigens that induce a delayed type hypersensitivity reaction |
US6514460B1 (en) * | 1999-07-28 | 2003-02-04 | Abbott Laboratories | Luminous glucose monitoring device |
US6841052B2 (en) * | 1999-08-02 | 2005-01-11 | Bayer Corporation | Electrochemical-sensor design |
US6364889B1 (en) * | 1999-11-17 | 2002-04-02 | Bayer Corporation | Electronic lancing device |
FR2803067A1 (fr) * | 1999-12-23 | 2001-06-29 | Intermec Scanner Technology Ct | Dispositif optoelectronique et procede d'acquisition de codes a l'aide d'un capteur bidimensionnel de dimension utile optimisee |
US6706159B2 (en) * | 2000-03-02 | 2004-03-16 | Diabetes Diagnostics | Combined lancet and electrochemical analyte-testing apparatus |
KR20020077515A (ko) * | 2000-03-02 | 2002-10-11 | 가부시키가이샤 니콘 | 위치계측장치 및 노광장치 |
AU4960101A (en) * | 2000-03-28 | 2001-10-08 | Inverness Medical Technology I | Continuous process for manufacture of disposable electro-chemical sensor |
JP2001343580A (ja) * | 2000-05-31 | 2001-12-14 | Asahi Optical Co Ltd | 焦点検出装置 |
US6833110B2 (en) * | 2000-07-20 | 2004-12-21 | Hypoguard Limited | Test member |
US6533949B1 (en) * | 2000-08-28 | 2003-03-18 | Nanopass Ltd. | Microneedle structure and production method therefor |
US6849168B2 (en) * | 2000-11-13 | 2005-02-01 | Kval, Inc. | Electrochemical microsensor package |
US6530892B1 (en) * | 2001-03-07 | 2003-03-11 | Helen V. Kelly | Automatic skin puncturing system |
US6572745B2 (en) * | 2001-03-23 | 2003-06-03 | Virotek, L.L.C. | Electrochemical sensor and method thereof |
US20020176984A1 (en) * | 2001-03-26 | 2002-11-28 | Wilson Smart | Silicon penetration device with increased fracture toughness and method of fabrication |
JP4213361B2 (ja) * | 2001-05-22 | 2009-01-21 | パナソニック株式会社 | バイオセンサ |
US6837988B2 (en) * | 2001-06-12 | 2005-01-04 | Lifescan, Inc. | Biological fluid sampling and analyte measurement devices and methods |
JP2003092246A (ja) * | 2001-09-17 | 2003-03-28 | Canon Inc | アライメントマーク及びアライメント装置とその方法、及び露光装置、デバイスの製造方法 |
US7344894B2 (en) * | 2001-10-16 | 2008-03-18 | Agilent Technologies, Inc. | Thermal regulation of fluidic samples within a diagnostic cartridge |
US20030073089A1 (en) * | 2001-10-16 | 2003-04-17 | Mauze Ganapati R. | Companion cartridge for disposable diagnostic sensing platforms |
US20030116447A1 (en) * | 2001-11-16 | 2003-06-26 | Surridge Nigel A. | Electrodes, methods, apparatuses comprising micro-electrode arrays |
JP4505837B2 (ja) * | 2002-01-18 | 2010-07-21 | アークレイ株式会社 | 温度検出部を備えた分析装置 |
GB2390602A (en) * | 2002-04-02 | 2004-01-14 | Inverness Medical Ltd | Test strip dispenser vial and cassette |
US6837976B2 (en) * | 2002-04-19 | 2005-01-04 | Nova Biomedical Corporation | Disposable sensor with enhanced sample port inlet |
US20040054898A1 (en) * | 2002-08-28 | 2004-03-18 | International Business Machines Corporation | Authenticating and communicating verifiable authorization between disparate network domains |
US20050008851A1 (en) * | 2003-02-18 | 2005-01-13 | Fuji Photo Film Co., Ltd. | Biosensor |
KR100554649B1 (ko) * | 2003-06-09 | 2006-02-24 | 주식회사 아이센스 | 전기화학적 바이오센서 |
US8071030B2 (en) * | 2003-06-20 | 2011-12-06 | Roche Diagnostics Operations, Inc. | Test strip with flared sample receiving chamber |
ES2675787T3 (es) * | 2003-06-20 | 2018-07-12 | F. Hoffmann-La Roche Ag | Método y reactivo para producir tiras reactivas estrechas y homogéneas |
US7347925B2 (en) * | 2003-07-01 | 2008-03-25 | Transpacific Ip, Ltd. | Biosensor for monitoring an analyte content with a partial voltage generated therefrom |
TW594006B (en) * | 2003-07-04 | 2004-06-21 | Veutron Corp | Biosensor with multi-channel A/D conversion and a method thereof |
-
2002
- 2002-12-20 US US10/326,622 patent/US7265881B2/en not_active Expired - Fee Related
-
2003
- 2003-06-30 TW TW092117833A patent/TWI318532B/zh not_active IP Right Cessation
- 2003-09-15 DE DE10342476A patent/DE10342476B4/de not_active Expired - Fee Related
- 2003-12-16 JP JP2003417688A patent/JP2004208299A/ja not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
DE10342476B4 (de) | 2008-04-30 |
JP2004208299A (ja) | 2004-07-22 |
US20040170314A1 (en) | 2004-09-02 |
US7265881B2 (en) | 2007-09-04 |
TW200412147A (en) | 2004-07-01 |
TWI318532B (en) | 2009-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69634089T2 (de) | Verbesserung der ausrichtung von inspektionsystemen vor der bildaufnahme | |
DE69926659T2 (de) | Verfahren und vorrichtung für die optische Inspektion von Objekten auf einem Substrat | |
DE602004001276T2 (de) | System und Verfahren zur absoluten Positionierung mit wiederholtem Quasizufalls-Muster | |
DE4136461C2 (de) | Vorrichtung und Verfahren zur großflächigen Bildinspektion | |
DE4438278C2 (de) | Verfahren zum Erzeugen einer Toleranzwertdatenbank und System zum Prüfen von Leiterplatten unter Anwendung der Toleranzwertdatenbank | |
CH680187A5 (de) | ||
DE3512064A1 (de) | Geraet zur messung von ueberdeckungsfehlern | |
EP0233970A1 (de) | Schnittholz-Prüfvorrichtung | |
EP0237601B1 (de) | Verfahren zur photogrammetrischen Erfassung eines Objektes mit Hilfe zumindest eines opto-elektrischen Festkörper-Flächensensors | |
EP0085868B1 (de) | Vorrichtung zur automatischen optischen Beschaffenheitsprüfung | |
EP0449859B1 (de) | Verfahren und vorrichtung zur beobachtung von moiremustern von zu untersuchenden oberflächen unter anwendung des moireverfahrens mit phasenshiften | |
DE19841682B4 (de) | Vorrichtung und Verfahren zur Verbesserung der Scanqualität eines Scanners | |
DE10342476B4 (de) | Verfahren und Vorrichtung zum Messen von Zusammenbau- und Ausrichtungs-Fehlern in Sensoranordnungen | |
DE102007025304B4 (de) | Verfahren zur Verbesserung der Reproduzierbarkeit einer Koordinaten-Messmaschine und deren Genauigkeit | |
DE10063293A1 (de) | Verfahren und Vorrichtung zur mehrkanaligen Inspektion von Oberflächen im Durchlauf | |
CH664225A5 (de) | Vorrichtung zum detektieren von optischen zeichen auf einem relativ zur vorrichtung bewegten filmtraeger. | |
DE10052153B4 (de) | Druckvorrichtung und Verfahren zum Bestimmen einer Positionsverschiebung eines Druckkopfs derselben | |
DE3428225A1 (de) | Geraet zur herstellung von halbleiterschaltungen | |
DE2653590A1 (de) | Vorrichtung zum ermitteln von fehlern in flaechenhaften mustern, insbesondere in photomasken | |
EP1262800B1 (de) | Optoelektronischer Sensor | |
EP0572804B1 (de) | Anordnung zur geometriegetreu hochauflösenden Abtastung grosser Bildformate | |
DE102019113267B4 (de) | Verfahren zum Betreiben einer Tintenstrahldruckmaschine mit zumindest einer Modifikationsfunktion | |
DE10342477B4 (de) | Verfahren und Vorrichtung zum Kompensieren von Zusammenbau- und Ausrichtungs-Fehlern bei Sensoranordnungen | |
EP1101187A1 (de) | Anordnung zur erfassung von oberflächenstrukturen von fingern und/oder handinnenflächen | |
DE60029392T2 (de) | Abbildungsgerät mit integriertem Positionsfühlungsgerät |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20150401 |