-
Die
Erfindung betrifft ein Verfahren zum synchronisierten Betrieb einer
Vielzahl elektronischer Kameras.
-
Aus
der
DE 102 08 286
A1 sind eine elektronische Bildauswerteeinrichtung und
ein Verfahren zur Auswertung bekannt, bei denen ein Druckerzeugnis
an der Einrichtung vorbeigefördert
wird und während
seiner Bewegung Bilder vorbestimmter Ausschnitte des Druckerzeugnisses
erfasst und ausgewertet werden. Um Bilder von Ausschnitten aufnehmen
zu können,
deren Abmessungen größer sind
als der Beobachtungsbereich einer einzelnen Kamera, sind mehrere
elektronische Kameras so angeordnet, dass sich ihre jeweiligen Beobachtungsbereiche
auf dem Druckerzeugnis teilweise gegenseitig überlappen. Die Bilderfassung
wird durch einen Sensor initiiert, der beim Auftreten einer vorbestimmten
Referenzmarkierung auf dem Druckerzeugnis ein Synchronisationssignal
abgibt, welches eine Beleuchtung des Druckerzeugnisses durch eine
Blitzlampe und eine gleichzeitige Bildaufnahme durch alle Kameras
auslöst.
-
Die
Flächenbildsensoren
der einzelnen Kameras sollen so adressierbar sein, dass aus dem
Bild jedes einzelnen Sensors ein frei wählbarer Teilbereich ausgelesen
werden kann. Hierdurch können
die Nutzbereiche der Bildsensoren der einzelnen Kameras hinsichtlich
der Abmessungen eines interessierenden Ausschnitts des Druckerzeugnisses
und der Überlappung
der Beobachtungsbereiche so eingestellt werden, dass ein zusammenhängendes
Bild des Ausschnitts aus den Bildern der einzelnen Kameras zusammengefügt werden
kann. Als einzige konkrete Ausführungsform
eines Bildsensors mit der geforderten freien Adressierbarkeit von
Teilbereichen ist in der genannten Schrift ein CMOS-Bildsensor angegeben,
wobei aber auf die Einzelheiten der Auslesung der Sensoren und der
Zusammenführung der von
den verschiedenen Kameras gelieferten Bilddaten nicht eingegangen
wird.
-
CMOS-Bildsensoren
sind jedoch CCD-Bildsensoren hinsichtlich einer Reihe wesentlicher
Kenndaten deutlich unterlegen. So haben CCD-Bildsensoren eine etwa
um den Faktor zehn höhere
Empfindlichkeit, ferner geringere Streuungen von Dunkelstrom und
Empfindlichkeit zwischen den einzelnen Pixeln, sowie auch einen
größeren Dynamikbereich
als CMOS-Bildsensoren. Insofern wäre es wünschenswert, eine Multikameraanordnung
der vorausgehend beschriebenen Art unter Verwendung von CCD-Bildsensoren
anstelle von CMOS-Bildsensoren zu realisieren. CCD-Bildsensoren
sind aber im Gegensatz zu CMOS-Bildsensoren nicht frei adressierbar,
sondern es muss stets die gesamte Sensorfläche seriell ausgelesen werden,
bevor der Sensor zur Aufnahme eines neuen Bildes in der Lage ist.
Kameras mit CCD-Bildsensoren erscheinen somit für die fragliche Anwendung als
ungeeignet.
-
In
Anbetracht dieses Standes der Technik ist es die Aufgabe der Erfindung,
ein Verfahren zum synchronisierten Betrieb einer Vielzahl elektronischer Kameras
anzugeben, welches unter Einsatz von Kameras mit CCD-Bildsensoren
eine effiziente Zusammenführung
von gleichzeitig aufgenommenen Bilddaten der einzelnen Kameras zu
einem Gesamtbild ermöglicht.
-
Diese
Aufgabe wird erfindungsgemäß durch ein
Verfahren mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Ausgestaltungen
sind in den Unteransprüchen
2 bis 8 angegeben.
-
Das
erfindungsgemäße Verfahren
sieht vor, Kameras mit CCD-Bildsensoren zu verwenden und nach Abschluss
der durch alle Kameras gleichzeitig erfolgenden Bildaufnahme aus
dem Bildsensor jeder Kamera zunächst
unabhängig
von den anderen Bildsensoren eine vorbestimmte erste Anzahl von Bildzeilen
auszulesen und die ausgelesenen Bilddaten zu verwerfen. Dabei handelt
es sich um Zeilen, die keine interessierende Bildinformation beinhalten. Wenn
ein Bildsensor so angeordnet würde,
dass die Nutzinformation gleich mit der ersten Zeile beginnen würde, dann
könnte
dieser Schritt unterbleiben, d.h. die besagte erste Anzahl von Bildzeilen
wäre dann gleich
Null. Dies würde
aber sehr hohe Anforderungen an die Justagegenauigkeit des Sensors
stellen. Durch das anfängliche
Auslesen und Verwerfen von Bildzeilen können hingegen Justagetoleranzen
der Sensoren mühelos
ausgeglichen werden, da die Anzahl der zu verwerfenden Zeilen für jeden
Sensor individuell vorgegeben werden kann.
-
Anschließend werden
zeitlich nacheinander in einer vorbestimmten Reihenfolge der Kameras
aus dem Bildsensor jeder Kamera eine zweite vorbestimmte Anzahl
von Bildzeilen ausgelesen und verarbeitet sowie die ausgelesenen
und verarbeiteten Bilddaten zur Speicherung als Teil eines Gesamtbildes
bereitgestellt. Nur diese zweite vorbestimmte Anzahl von Bildzeilen
enthält
die interessierende Nutzinformation. Das Auslesen und Verarbeiten
dieser Nutzinformation wird für
die einzelnen Bildsensoren seriell nacheinander ausgeführt, um
für die
Verbindungen von den einzelnen Bildsensoren zu dem Speicher für das Gesamtbild
einen Multiplexbetrieb zu ermöglichen,
bei dem stets nur von einem einzigen Bildsensor aus in besagten
Speicher geschrieben werden kann. Dabei kann das Gesamtbild eine zusammenhängende Fläche darstellen,
muss es aber keineswegs. So ist es durchaus möglich, dass das Gesamtbild
eine Vielzahl einzelner interessierender Regionen auf einem Druckerzeugnis
beinhaltet, die räumlich
getrennt voneinander liegen.
-
Schließlich werden
aus dem Bildsensor jeder Kamera nach dem Auslesen der Nutzinformation
die restlichen Bildzeilen, die wiederum keine interessierende Bildinformation
enthalten, ausgelesen, um den Bildsensor für die Aufnahme des nächsten Bildes
bereit zu machen, und die ausgelesenen Bilddaten werden verworfen.
Dies kann wieder unabhängig
von den anderen Bildsensoren geschehen, also während bereits aus dem nächsten Bildsensor
die Bildzeilen mit der Nutzinformation ausgelesen und verarbeitet werden,
da beim Auslesen von Bildzeilen, deren Inhalt verworfen werden soll,
keine Verbindung zu dem Speicher für das Gesamtbild benötigt wird.
-
Zweckmäßig ist
beim Auslesen der zweiten vorbestimmten Anzahl von Bildzeilen eine
pixelweise Addition der Ladungen von mindestens zwei aufeinanderfolgenden
Zeilen, d.h. ein sogenanntes Zeilenbinning, zur Erhöhung des
Signal/Rausch-Abstandes und
zur Verkürzung
der Auslesezeit.
-
Im
Hinblick auf eine spätere
digitale Auswertung beinhaltet die Verarbeitung der Bilddaten der zweiten
vorbestimmten Anzahl von Bildzeilen bevorzugt eine Analog/Digital-Wandlung,
sowie zur Unterdrückung
von temperaturbedingten Fehlern eine vorherige pixelweise Differenzbildung
zwischen den Ladungen im belichteten und im unbelichteten Zustand, d.h.
ein sogenanntes Doublesampling.
-
Zur
Zusammenführung
der Nutzbilddaten der Bildsensoren der einzelnen Kameras ist es
von Vorteil, vor dem Auslesen und Verarbeiten der die Nutzinformation
beinhaltenden Bildzeilen einen Datenpfad freizuschalten, über den
die ausgelesenen und verarbeiteten Bilddaten von dem jeweiligen Bildsensor
zu einem für
die Speicherung des Gesamtbildes vorgesehenen Speicher übertragbar
sind.
-
Wenn
die restlichen Bildzeilen ohne interessierende Bildinformation aus
dem Bildsensor der letzten Kamera der vorbestimmten Reihenfolge
ausgelesen und verworfen sind, können
alle Bildsensoren in den Bereitschaftsmodus für die Aufnahme eines neuen
Bildes geschaltet werden.
-
Vorteilhaft
ist für
die Ablaufsteuerung der Vorgänge
des Auslesens und Verarbeitens oder Verwerfens der Bilddaten der
einzelnen Bildsensoren eine dezentrale Lösung, d.h. die separate Steuerung für jeden
einzelnen Bildsensor durch eine jeweils zugeordnete Steuereinheit,
wobei die notwendige zeitliche Synchronisation der Abläufe anhand
eines gemeinsamen Triggersignals und eines gemeinsamen Taktsignals
erfolgt. Dabei bildet den gemeinsamen zeitlichen Referenzpunkt für die dezentral
ablaufenden Steuervorgänge
das zentrale Auslösesignal,
mit dem die zeitgleiche Bildaufnahme durch alle Bildsensoren initiiert
wird. Eine solche de zentrale Lösung
benötigt
tendenziell weniger Steuerleitungen als eine zentral strukturierte.
Eine sinnvolle Weiterbildung dieses dezentralen Systemkonzeptes
besteht in der Bereitstellung der Nutzbilddaten zur Speicherung
als Teil eines Gesamtbildes mittels sukzessiver dezentraler Freischaltung
eines Datenpfades ohne Verwendung eines zentralen Multiplexers.
-
Um
nach dem Auslesen des Nutzbereiches eines Bildsensors die für das Auslesen
der restlichen, nicht interessierenden Bildzeilen benötigte Zeitspanne
abzukürzen,
ist es günstig,
beim Auslesen der restlichen Bildzeilen eine pixelweise Addition
der Ladungen aller dieser Bildzeilen im Ausleseregister des jeweiligen
Bildsensors vorzunehmen. In diesem Fall ist nur ein einziger Auslesevorgang
des Ausleseregisters nötig,
was sich insbesondere beim Auslesen des letzten Bildsensors bemerkbar
macht, das vor dem Bereitschalten der gesamten Multikameraanordnung
für die
nächste
Aufnahme abgewartet werden muss.
-
Nachfolgend
wird ein Ausführungsbeispiel der
Erfindung anhand der Zeichnungen beschrieben. In diesen zeigt
-
1 eine
schematische Perspektivansicht der optischen Komponenten einer Multikameraanordnung,
die mit dem erfindungsgemäße Verfahren betreibbar
ist,
-
2 ein
Blockschaltbild einer Vorrichtung zur Ausführung des erfindungsgemäßen Verfahrens, und
-
3 eine
Darstellung der wesentlichen Schritte des erfindungsgemäßen Verfahrens
anhand eines Programmablaufplans.
-
1 zeigt
in vereinfachter Form die wesentlichen optischen Komponenten einer
Vorrichtung, die vorteilhaft mit dem erfindungsgemäßen Verfahren
betreibbar ist, nämlich
eine Vielzahl elektronischer Kameras 1, 101 und 201 sowie
jeweils zugehörige
Beleuchtungseinrichtungen 2, 102 bzw. 202.
Je eine Kamera 1, 101 und 201 und eine
dieser zugeordnete Beleuchtungseinrichtung 2, 102 bzw. 202 bilden
zusammen ein Bildaufnahmemodul 0, 100 bzw. 200. Die untereinander
gleichartigen Bildaufnahmemodule 0, 100 und 200 sind lückenlos
linear aneinandergereiht. Zunächst
soll der Aufbau eines einzelnen Moduls und dessen Funktionsweise
anhand des Moduls 0, welches die Kamera 1 und die Beleuchtungseinrichtung 2 umfasst,
erläutert
werden.
-
Die
Kamera 1 ist dazu bestimmt, ein Bild von einem vorbestimmten
Ausschnitt eines Druckerzeugnisses, beispielsweise von einem Kontrollstreifen 3 mit
einer Vielzahl sich periodisch wiederholender Messfelder 4 aufzunehmen,
während
sich dieser durch einen in diesem Fall ebenfalls streifenförmigen,
in 1 gestrichelt eingezeichneten Beobachtungsbereich 5 der
Kamera 1 bewegt. Die Bewegungsrichtung des Kontrollstreifens 3 ist
in 1 durch den Pfeil 6 angedeutet.
-
Die
Kamera 1 ist eine CCD-Schwarzweiß-Kamera mit einem Flächenbildsensor 7.
Das von diesem erfasste Bild besteht aus einer rechteckigen Matrix
von Bildpunkten, wobei für
jeden Bildpunkt ein elektrisches Signal in Form einer Ladungsmenge
abgegeben wird, die ein Maß für die Intensität des einfallenden
Lichtes ist. Zur verkleinernden Abbildung des Beobachtungsbereiches 5 auf
den Bildsensor 7 ist ein Objektiv 8 vorgesehen.
Vor dem Objektiv 8 kann noch ein Polarisationsfilter 9 angeordnet
sein. Wenn der Beobachtungsbereich 5 ein schmaler langgestreckter
Streifen ist, dann wird nicht die gesamte aktive Fläche des
rechteckigen Bildsensors, dessen Länge/Breite-Verhältnis üblicherweise nicht
allzu groß ist,
zur Aufnahme des Beobachtungsbereiches 5 benötigt, sondern
ebenfalls nur ein relativ schmaler Streifen. In diesem Fall wird
nach der Aufnahme eines Bildes auch nur ein solcher Streifen aus dem
Bildsensor 7 ausgelesen, worauf später noch im Detail eingegangen
wird. Zusätzlich
kann auch der Strahlengang durch Teile des in 1 nicht
dargestellten Gehäuses
der Kamera 1 entsprechend verengt sein, so dass nur von
dem beabsichtigten Beobachtungsbereich 5 aus Licht zu dem
Bildsensor 7 gelangen kann.
-
Zur
Beleuchtung des Beobachtungsbereiches 5 der Kamera 1 während des
dortigen Aufenthalts eines Exemplars des Kontrollstreifens 3 ist
eine Beleuchtungsein richtung 2 vorgesehen. Sie soll im richtigen
Augenblick einen kurzen Lichtimpuls abgeben, um eine Momentaufnahme
des Kontrollstreifens 3 durch die Kamera 1 zu
ermöglichen.
Die Beleuchtungseinrichtung 2 weist eine Vielzahl von einzelnen Lichtquellen 10 in
Form von Leuchtdioden auf, die äquidistant
und linear nebeneinander angeordnet und auf den Beobachtungsbereich 5 ausgerichtet sind.
Dabei verläuft
die Längsrichtung
der von den Lichtquellen 10 gebildeten Zeile parallel zur
Längsrichtung
des Beobachtungsbereiches 5.
-
Um
mit der CCD-Schwarzweiß-Kamera 1 eine
Farbinformation gewinnen zu können,
enthält die
Beleuchtungseinrichtung 2 mehrere Gruppen von Lichtquellen 10,
von denen jede eine andere spektrale Emissionscharakteristik aufweist.
So können
beispielsweise drei verschiedene Gruppen mit den Emissionsfarben
Rot, Grün
und Blau vorgesehen sein, um anhand entsprechend unterschiedlich
bedruckter Messfelder 4 des Kontrollstreifens 3 die Dichtemessung
der Druckfarben Cyan, Magenta und Gelb zu ermöglichen. Hierzu wird der Kontrollstreifen nacheinander
von der roten Gruppe, der grünen Gruppe
und der blauen Gruppe beleuchtet und bei jeder Beleuchtung von der
Kamera 1 ein Bild des Kontrollstreifens 3 aufgenommen.
Die Farbdichtebestimmung der Druckfarbe Cyan wird dann anhand der
so bedruckten Messfelder 4 in dem bei der Beleuchtung mit
roten Licht aufgenommenen Bild vorgenommen. Die entsprechenden Dichtebestimmungen
der Druckfarben Magenta und Gelb erfolgen analog hierzu anhand der
jeweils so bedruckten Messfelder 4 getrennt voneinander
in den bei den Beleuchtungen mit grünem bzw. blauen Licht aufgenommenen
Bildern.
-
Wie 1 zeigt,
ist jeder Kamera 1, 101 und 201 jeweils
eine Beleuchtungseinrichtung 2, 102 bzw. 202 zugeordnet,
so dass jede Kamera 1, 101 und 201 mit
ihrer zugehörigen
Beleuchtungseinrichtung 2, 102 bzw. 202 jeweils
ein Bildaufnahmemodul 0, 100 bzw. 200 bildet.
Dabei schließen
die Beobachtungsbereiche 5, 105 und 205 der
Kameras 1, 101 bzw. 201 lückenlos
aneinander an oder überlappen sich
ein wenig, so dass insgesamt ein zusammenhängender Beobachtungsbereich 5, 105, 205 mit etwa
der dreifachen Länge
jedes einzelnen der Beobachtungsbereiche 5, 105 und 205 entsteht.
-
Die
Aneinanderfügung
kombinierter Kamera-Beleuchtungsmodule 0, 100, 200, usw. zielt darauf ab,
die Ausdehnung des gemeinsamen Beobachtungsbereiches 5, 105, 205,
usw. in dessen Längsrichtung
flexibel an die unterschiedlichen Arbeitsbreiten verschiedener Typen
von Druckmaschinen anpassen zu können,
indem jeweils bedarfsgerecht eine ausreichende Anzahl von Modulen
0, 100, 200, usw. vorgesehen werden, welche insgesamt einen Beobachtungsbereich 5, 105, 205,
usw. haben, der die maximal bedruckbare Breite des Bedruckstoffes voll
abdeckt. Insofern versteht es sich von selbst, dass die Anzahl drei
der in 1 dargestellten Module rein beispielhaft gemeint
ist.
-
Bei
einer Multikameraanordnung der vorausgehend anhand 1 beschriebenen
Art besteht die Notwendigkeit, die einzelnen Kameras 1, 101 und 201 synchronisiert
zu betreiben. Dies bedeutet, dass die Bildaufnahme zur Erfassung
eines Kontrollstreifens 3 in allen Kameras 1, 101 und 201 gleichzeitig erfolgen
muss, und dass die Auslesung der Bildsensoren 7, 107 und 207 der
einzelnen Kameras 1, 101 und 201 zeitlich
koordiniert werden muss und ihre Bilddaten zu einem Gesamtbild zusammengeführt werden
müssen,
was bei Kameras mit CCD-Bildsensoren,
die stets im ganzen seriell ausgelesen werden müssen, wesentlich schwieriger
ist als etwa bei solchen mit CMOS-Sensoren, die eine beliebige Adressierung
von Bildausschnitten erlauben.
-
Ein
Blockschaltbild einer zur Durchführung des
erfindungsgemäßen Verfahrens
geeigneten Steuer- und Signalverarbeitungselektronik für eine Multikameraanordnung
der fraglichen Art zeigt 2. Dieses Blockschaltbild geht
ebenso wie 1 von einer Anordnung mit drei
Kameras 1, 101 und 201 aus, wobei die
Anzahl drei der Kameras auch hier als rein beispielhaft zu verstehen
ist. Die Kamera 1 wird von einer ihr zugeordneten Ablaufsteuereinheit 11,
in 2 und im weiteren als Sequencer 11 bezeichnet,
gesteuert, wobei die einzige im vorliegenden Zusammenhang interessierende
Komponente der Kamera 1 ihr CCD-Bildsensor 7 ist.
Dem Bildsensor 7 eine eigene Signalverarbeitungseinheit 12 zugeordnet,
deren wesentliche Komponenten eine analoge Signalvorverarbeitungselektronik,
ein Analog/Digital-Wandler und ein Parallel/Seriell-Wandler sind.
Schließlich
ist dem Bildsensor 7 noch ein elektronischer Schalter 13 zugeordnet,
der zur Freischaltung einer Datenleitung 14 zur Übertragung
von Bilddaten in einen für
das Gesamtbild aller Bildsensoren 7, 107 und 207 vorgesehenen
Speicher dient. Den anderen Bildsensoren 107 und 207 sind gleichartige
elektronische Sequencer 111 bzw. 211, Signalverarbeitungseinheiten 112 bzw. 212 und Schalter 113 bzw. 213 zugeordnet.
-
Von
dem Sequencer 11 aus verlaufen Steuerleitungen 15, 16 und 17 zum
Bildsensor 7, zur Signalverarbeitungseinheit 12 und
zum Schalter 13. Ferner verläuft eine Signalleitung 18 vom
Bildsensor 7 zur Signalverarbeitungseinheit 12 und
eine Datenleitung 19 von der Signalverarbeitungseinheit 12 zur Schalter 13.
An dem Schalter 13 kommt eine Datenleitung 114 von
dem Schalter 113 an, welcher dem nächsten Bildsensor 107 zugeordnet
ist. Ebenso kommt an dem Schalter 113 eine Datenleitung 214 von
dem Schalter 213 an, welcher dem wiederum nächsten Bildsensor 207 zugeordnet
ist. An den Sequencern 11, 111 und 211 kommen
eine gemeinsame Steuerleitung 20 sowie eine Taktleitung 21 von
einer zentralen Synchronisationseinheit 22 an, an der ihrerseits
eine Steuerleitung 23 von einer Triggerquelle 24 ankommt.
-
Im
folgenden wird ein Beispiel des erfindungsgemäßen Betriebsablaufes einer
CCD-Multikameraanordnung, wie er sich für die Inline-Messung eines
Druekkontrollstreifens 3 über die gesamte Breite des
Bedruckstoffs innerhalb einer Druckmaschine eignet, anhand 3 beschrieben,
die den Programmablauf in einem dem Sequencer 11, 111 oder 211 aus 2 zeigt.
Der dargestellte Ablauf ist für
die Bildsensoren 7, 107 und 207 sämtlicher
Kameras 1, 101 und 201 gleichermaßen gültig.
-
Bei
der Inbetriebnahme der Multikameraanordnung werden die Bildsensoren 7, 107 und 207 nach
gewissen einmaligen Initialisierungsvorgängen, die hier nicht interessieren,
im Schritt 30 bereit geschaltet und dabei in den sogenannten
Keepclean-Modus geschaltet, der für eine fortlaufende Löschung der
im CCD-Bildsensorspeicher
entstehenden Dunkelladungen sorgt. Diese Scharfschaltung im Schritt 30 erfolgt
durch alle Sequencer 11, 111 und 211 gleichzeitig,
so dass alle Bildsensoren 7, 107 und 207 dann
zur nächsten
asynchronen Bildaufnahme bereit sind.
-
Die
Sequencer 11, 111 oder 112 warten zunächst im
Schritt 31 auf das Eintreffen eines Triggerimpulses auf
der Leitung 20 von der zentralen Synchronisationseinheit 22,
die ihrerseits bei der Erkennung eines ankommenden Druckkontrollstreifens 3 auf
dem Druckerzeugnis über
die Leitung 23 einen Triggerimpuls von einer Triggerquelle 24 empfängt. Bei
der Triggerquelle 24 kann es sich insbesondere um einen
optischen Sensor handeln, der eine Referenzmarkierung auf dem Druckerzeugnis
detektiert. Ein zwischen der Detektion einer solchen Referenzmarkierung
und dem Erscheinen des Druckkontrollstreifens 3 im Beobachtungsbereich 5, 105, 205 der Kameras 1, 101 und 201 liegendes
Zeitintervall wird durch eine entsprechende Verzögerung eines der Triggerimpulse
berücksichtigt.
-
Durch
den Triggerimpuls von der zentralen Synchronisationseinheit 22 auf
der Leitung 20 wird für
alle Kameras 1, 101 und 201 der Multikameraanordnung
gleichzeitig die Belichtungszeit und damit die Bildaufnahme synchron
zum Erscheinen eines Druckkontrollstreifens 3 auf dem Druckerzeugnis
im gemeinsamen Beobachtungsbereich 5, 105, 205 der Kameras 1, 101 und 201 festlegt.
Die Länge
dieses Triggerimpulses bestimmt die Belichtungszeit. Stellen die
Sequencer im Schritt 32 den Anfang eines Triggerimpulses
fest, so lösen
sie die Löschung
aller Ladungen der Bildzonen der CCD-Bildsensoren 7, 107 und 207 aus
und starten die Belichtung, d.h. den Schritt 33. Das Ende
des Impulses stoppt die Belichtung. Mit dem Ende des Triggerimpulses
werden automatisch die Bildinformationen von der Bildzone der CCD-Bildsensoren 7, 107 und 207 der
einzelnen Kameras 1, 101 und 201 in deren
jeweilige Speicherzone übertragen.
-
Die
ersten zk1 Bildsensorzeilen der einzelnen CCD-Bildsensoren
werden nun im Schritt 34 bis zur ersten gültigen Bildzeile
der jeweils definierten aktiven Bildzone (ROI = Region Of Interest)
geskippt, d.h. die ersten zk1 Bildsensorzeilen
werden ausgelesen und deren Bildinhalt verworfen. Die aktiven Bildzonen
können
beliebig für
die einzelnen Bildsensoren 7, 107 und 207 definiert
werden. Je nach Justage der einzelnen Kameras 1, 101 und 201 und/oder
deren Bildsensoren 7, 107 und 207 kann
demnach die Anzahl zk1 der zu verwerfenden
Anfangszeilen ohne Nutzinformation von Bildsensor zu Bildsensor
variieren, was bei der Anzahl zk1 in dem
Index k zum Ausdruck kommt, der eine fortlaufende Ordnungsnummer
der jeweiligen Kamera darstellt. Die Anzahl zk1 der
zu verwerfenden Zeilen ist in jedem einzelnen Sequencer 11, 111 und 211 abgespeichert,
so dass jeder Sequencer 11, 111 und 211 den
Schritt 34 unabhängig
von den anderen selbständig
ausführen kann.
An dieser Stelle sei erwähnt,
dass eine geeignete Orientierung der Bildsensoren 7, 107 und 207 zu dem
Druckkontrollstreifen 3 vorausgesetzt wird, d.h. dass die
Zeilenrichtung der Bildsensoren 7, 107 und 207 parallel
zur Längsrichtung
des Kontrollstreifens 3 verläuft.
-
Nach
Abschluss des Schrittes 34 wartet jeder Sequencer 11, 111 und 211 im
Schritt 35, bis er mit dem Auslesen, Vorverarbeiten und
Ausgeben der interessierenden Bildinformation an der Reihe ist. Dieses
Warten geschieht aktiv durch Zählen
eines Taktsignals, das von dem auf der Taktleitung 21 von der
zentralen Synchronisationseinheit 22 kommenden Taktsignal
abgeleitet ist, wobei das Zählen
mit dem Eintreffen des Triggersignals auf der Leitung 20 beginnt.
Ein zweckmäßiges Taktsignal
ist hierbei der Zeilentakt. Jedem Sequencer 11, 111 und 211 ist
in Bezug auf den Zeilentakt ein Fenster zugeordnet, innerhalb dessen
er an der Reihe ist, d.h. er vergleicht im Schritt 36 die
aktuelle Zahl der Takte seit dem Eintreffen des Triggersignals mit
einem spezifischen, intern gespeicherten Wert, der für jeden
Sequencer 11, 111 und 211 verschieden
ist. Wird dieser Wert erreicht, so ist der betreffende Sequencer 11, 111 oder 211 an
der Reihe.
-
In
diesem Fall schaltet der betreffende Sequencer 11, 111 oder 211 im
Schritt 37 den ihm zugeordneten Schalter 13 bzw. 113 bzw. 213 so,
dass die Daten vom Ausgang 19 bzw. 119 bzw. 219 der
ihm zugeordneten Signalverarbeitungseinheit 12 bzw. 112 bzw. 212 auf
die jeweilige Ausgangsleitung 14 bzw. 114 bzw. 214 geleitet
werden.
-
Anschließend erfolgt
im Schritt 38 das Auslesen der zk2 Bildsensorzeilen
der aktiven Bildzone des jeweiligen Bildsensors 7 bzw. 107 bzw. 207 mit gleichzeitiger
Signalverarbeitung, 16-Bit-Analog/Digital-Wandlung und Parallel/Seriell-Wandlung.
Durch die Stellung der Schalter 13, 113 und 213 ist
stets gewährleistet,
dass der Ausgang 19, bzw. 119 bzw. 219 derjenigen
Signalverarbeitungseinheit 12 bzw. 112 bzw. 212,
die dem jeweils an der Reihe befindlichen Sequencer 11, 111 oder 212 zugeordnet
ist, bis zur Ausgangsleitung 14 des ersten Schalters 13 verbunden
ist. Diese Ausgangsleitung 14 führt zu einem Kamerainterface
eines Bildverarbeitungsrechners, in dem die Bilddaten zur Weiterverarbeitung
gespeichert werden. Die Datenübertragung
auf der Leitung 14 erfolgt seriell. Die Anzahl zk2 der Zeilen der aktiven Bildsensorzone
dürfte
im Grundsatz ebenfalls von Sensor zu Sensor verschieden sein, wird
aber bei einem Beobachtungsbereich 5, 105, 205 einheitlicher Breite
für alle
Bildsensoren 7, 107 und 207 gleich sein.
-
Beim
Auslesen im Schritt 38 ist ein beliebiges Zeilenbinning,
d.h. Zusammenfassen von Ladungen mehrerer Zeilen, je nach Anforderung
möglich. Ferner
ist dabei auch eine pixelweise Differenzbildung zwischen den Ladungen
im belichteten und im unbelichteten Zustand, auch als Double-Sampling bekannt,
vorgesehen. Während
des Auslesens eines Bildsensors 7, 107 oder 207 befinden
sich alle folgenden im Stand-by-Modus (Ruhezustand), d.h. die zugehörigen anderen
Sequencer verharren im Warteschritt 35.
-
Nach
vollständiger Übertragung
der Bilddaten der aktiven Zone eines Bildsensors 7, 107 oder 207 wird
der Schalter 13 bzw. 113 bzw. 213 im
Schritt 39 durch den Sequencer 11 bzw. 111 bzw. 212 umgeschaltet,
so dass die jeweilige Signalverarbeitungseinheit 12 bzw. 112 bzw. 212 nicht
mehr mit dem Bildverarbeitungsrechner verbunden ist. Falls der zuletzt ausgelesene
Bildsensor nicht der letzte Bildsensor 207 war, dann wird
durch die Umschaltung 39 die Signalverarbeitungseinheit
des nächsten
Bildsensors 107 oder 207 auf die zu dem Bildverarbeitungsrechner
führende
Ausgangsleitung 14 durchgeschaltet. Die durch die Schalter 13, 113 und 213 realisierte Kettenstruktur
eines Datenpfades ist an sich bekannt (daisy chain). Wenn nun der
Sequencer 112 oder 212 des nächsten Bildsensors 107 bzw. 207 in
seinem Schritt 36 feststellt, dass er an der Reihe ist,
steht der zur Ab gabe der Bilddaten benötigte Datenpfad schon bereit.
Das Auslesen, Verarbeiten, Wandeln und Übertragen der Bildinformation
erfolgt bei sämtlichen Bildsensoren 7, 107 und 207 auf
die gleiche Weise.
-
Während die
Bildinformation des nächsten Sensors 107 oder 207 ausgelesen,
verarbeitet, gewandelt und übertragen
wird, fährt
der zuletzt vorher an der Reihe befindliche Sequencer 11 oder 111 mit dem
Schritt 40 fort, d.h. er lässt die restlichen zk3 Bildzeilen des ihm zugeordneten Sensors 7 oder 107 weiter
auslesen, ohne dass die Bilddaten weitergeleitet werden, d.h. sie
werden verworfen. Dieses weitere Auslesen 40 ist nötig, um
die Ladungen der restlichen zk3 Bildsensorzeilen
zu löschen.
Je nach den Verhältnissen
der Zeilenzahlen zk2 und zk3 ist
es auch denkbar, dass während
des Auslesens und Verarbeitens der interessierenden Bilddaten aus
einem Bildsensor bei mehr als einem einzigen zuvor ausgelesenen
Bildsensor noch Restzeilen ausgelesen werden müssen, also beispielsweise nicht
nur beim Vorgänger
sondern auch noch beim Vorvorgänger
in Bezug auf die Auslesereihenfolge. Dies spielt aber für den zeitlichen
Ablauf des Auslesens und Verarbeitens der interessierenden Bilddaten
keine Rolle, da das Auslesen der Restzeilen bei jedem Bildsensor 7, 107 und 207 unabhängig von
den übrigen
abläuft. Die
Anzahl zk3 der Restzeilen kann wiederum
von Sensor zu Sensor variieren.
-
Nach
dem vollständigen
Auslesen seines zugeordneten Bildsensors 7, 107 oder 207 wartet
jeder Sequencer 11 bzw. 111 bzw. 211 in
Schritt 41 auf das Ende des aktuellen Bildaufnahmezyklus,
d.h. bis der letzte Sensor 207 vollständig ausgelesen und damit gelöscht wurde.
Diesen Zeitpunkt erkennt jeder Sequencer 11, 111 und 211 in
Schritt 42 anhand des Eingangs einer vorbestimmten Anzahl
von Taktimpulsen auf der Taktleitung 21 seit dem Empfang
des Triggersignals auf der Leitung 20.
-
Ist
der aktuelle Bildaufnahmezyklus zu Ende, so werden alle Bildsensoren 7, 107 und 207 im Schritt 30 wieder
scharfgeschaltet, und in den Keep-clean-Modus geschaltet, der die
im CCD-Bildsensorspeicher entstehenden Dunkelladungen fort laufend
löscht.
Die Multikameraanordnung ist dann zur nächsten asynchronen Bildaufnahme
bereit.
-
Abschließend sei
nochmals betont, dass die Anzahl von Modulen einer Multikameraanordnung, die
mit dem erfindungsgemäßen Verfahren
betrieben werden kann, im Hinblick auf die bei einer Druckmaschine
gegebene Bedruckstoffbreite beliebig wählbar und keineswegs auf die
hier beispielhaft angenommene Anzahl drei beschränkt ist. Ferner hängt die Funktion
des Verfahrens nicht von der vorausgehend beschriebenen, speziellen
Art der Umschaltung des Ausgangsdatenpfades mit einer Kettenstruktur
ab. Denkbar wäre
hier auch ein von der zentralen Synchronisationseinheit 22 gesteuerter,
zentraler Multiplexer.