DE102004033495A1 - Verfahren zum synchronisierten Betrieb einer Vielzahl elektronischer Kameras - Google Patents

Verfahren zum synchronisierten Betrieb einer Vielzahl elektronischer Kameras Download PDF

Info

Publication number
DE102004033495A1
DE102004033495A1 DE102004033495A DE102004033495A DE102004033495A1 DE 102004033495 A1 DE102004033495 A1 DE 102004033495A1 DE 102004033495 A DE102004033495 A DE 102004033495A DE 102004033495 A DE102004033495 A DE 102004033495A DE 102004033495 A1 DE102004033495 A1 DE 102004033495A1
Authority
DE
Germany
Prior art keywords
image
lines
reading
read
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102004033495A
Other languages
English (en)
Inventor
Theodor Dr. Tatarczyk
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Manroland AG
Original Assignee
MAN Roland Druckmaschinen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MAN Roland Druckmaschinen AG filed Critical MAN Roland Druckmaschinen AG
Priority to DE102004033495A priority Critical patent/DE102004033495A1/de
Publication of DE102004033495A1 publication Critical patent/DE102004033495A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/195Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/1903Arrangements for enabling electronic abutment of lines or areas independently scanned by different elements of an array or by different arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/195Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays
    • H04N1/19584Combination of arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/48Picture signal generators

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

Bei einem Verfahren zum synchronisierten Betrieb einer Vielzahl elektronischer Kameras nehmen die einzelnen Kameras auf ein Auslösesignal hin gleichzeitig jeweils ein Bild auf und die Bilddaten der einzelnen Kameras werden zu einem Gesamtbild zusammengeführt. Es werden Kameras mit CCD-Bildsensoren verwendet. Nach Abschluss der Bildaufnahme werden aus jeder Kamera zunächst unabhängig von den anderen Kameras eine vorbestimmte erste Anzahl von Bildzeilen ausgelesen und die ausgelesenen Bilddaten verworfen. Anschließend werden zeitlich nacheinander in einer vorbestimmten Reihenfolge der Kameras aus jeder Kamera eine zweite vorbestimmte Anzahl von Bildzeilen ausgelesen und verarbeitet sowie die ausgelesenen und verarbeiteten Bilddaten zur Speicherung als Teil eines Gesamtbildes bereitgestellt. Schließlich werden aus jeder Kamera nach dem Auslesen der zweiten Anzahl von Bildzeilen unabhängig von den anderen Kameras die restlichen Bildzeilen ausgelesen und die ausgelesenen Bilddaten verworfen.

Description

  • Die Erfindung betrifft ein Verfahren zum synchronisierten Betrieb einer Vielzahl elektronischer Kameras.
  • Aus der DE 102 08 286 A1 sind eine elektronische Bildauswerteeinrichtung und ein Verfahren zur Auswertung bekannt, bei denen ein Druckerzeugnis an der Einrichtung vorbeigefördert wird und während seiner Bewegung Bilder vorbestimmter Ausschnitte des Druckerzeugnisses erfasst und ausgewertet werden. Um Bilder von Ausschnitten aufnehmen zu können, deren Abmessungen größer sind als der Beobachtungsbereich einer einzelnen Kamera, sind mehrere elektronische Kameras so angeordnet, dass sich ihre jeweiligen Beobachtungsbereiche auf dem Druckerzeugnis teilweise gegenseitig überlappen. Die Bilderfassung wird durch einen Sensor initiiert, der beim Auftreten einer vorbestimmten Referenzmarkierung auf dem Druckerzeugnis ein Synchronisationssignal abgibt, welches eine Beleuchtung des Druckerzeugnisses durch eine Blitzlampe und eine gleichzeitige Bildaufnahme durch alle Kameras auslöst.
  • Die Flächenbildsensoren der einzelnen Kameras sollen so adressierbar sein, dass aus dem Bild jedes einzelnen Sensors ein frei wählbarer Teilbereich ausgelesen werden kann. Hierdurch können die Nutzbereiche der Bildsensoren der einzelnen Kameras hinsichtlich der Abmessungen eines interessierenden Ausschnitts des Druckerzeugnisses und der Überlappung der Beobachtungsbereiche so eingestellt werden, dass ein zusammenhängendes Bild des Ausschnitts aus den Bildern der einzelnen Kameras zusammengefügt werden kann. Als einzige konkrete Ausführungsform eines Bildsensors mit der geforderten freien Adressierbarkeit von Teilbereichen ist in der genannten Schrift ein CMOS-Bildsensor angegeben, wobei aber auf die Einzelheiten der Auslesung der Sensoren und der Zusammenführung der von den verschiedenen Kameras gelieferten Bilddaten nicht eingegangen wird.
  • CMOS-Bildsensoren sind jedoch CCD-Bildsensoren hinsichtlich einer Reihe wesentlicher Kenndaten deutlich unterlegen. So haben CCD-Bildsensoren eine etwa um den Faktor zehn höhere Empfindlichkeit, ferner geringere Streuungen von Dunkelstrom und Empfindlichkeit zwischen den einzelnen Pixeln, sowie auch einen größeren Dynamikbereich als CMOS-Bildsensoren. Insofern wäre es wünschenswert, eine Multikameraanordnung der vorausgehend beschriebenen Art unter Verwendung von CCD-Bildsensoren anstelle von CMOS-Bildsensoren zu realisieren. CCD-Bildsensoren sind aber im Gegensatz zu CMOS-Bildsensoren nicht frei adressierbar, sondern es muss stets die gesamte Sensorfläche seriell ausgelesen werden, bevor der Sensor zur Aufnahme eines neuen Bildes in der Lage ist. Kameras mit CCD-Bildsensoren erscheinen somit für die fragliche Anwendung als ungeeignet.
  • In Anbetracht dieses Standes der Technik ist es die Aufgabe der Erfindung, ein Verfahren zum synchronisierten Betrieb einer Vielzahl elektronischer Kameras anzugeben, welches unter Einsatz von Kameras mit CCD-Bildsensoren eine effiziente Zusammenführung von gleichzeitig aufgenommenen Bilddaten der einzelnen Kameras zu einem Gesamtbild ermöglicht.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen 2 bis 8 angegeben.
  • Das erfindungsgemäße Verfahren sieht vor, Kameras mit CCD-Bildsensoren zu verwenden und nach Abschluss der durch alle Kameras gleichzeitig erfolgenden Bildaufnahme aus dem Bildsensor jeder Kamera zunächst unabhängig von den anderen Bildsensoren eine vorbestimmte erste Anzahl von Bildzeilen auszulesen und die ausgelesenen Bilddaten zu verwerfen. Dabei handelt es sich um Zeilen, die keine interessierende Bildinformation beinhalten. Wenn ein Bildsensor so angeordnet würde, dass die Nutzinformation gleich mit der ersten Zeile beginnen würde, dann könnte dieser Schritt unterbleiben, d.h. die besagte erste Anzahl von Bildzeilen wäre dann gleich Null. Dies würde aber sehr hohe Anforderungen an die Justagegenauigkeit des Sensors stellen. Durch das anfängliche Auslesen und Verwerfen von Bildzeilen können hingegen Justagetoleranzen der Sensoren mühelos ausgeglichen werden, da die Anzahl der zu verwerfenden Zeilen für jeden Sensor individuell vorgegeben werden kann.
  • Anschließend werden zeitlich nacheinander in einer vorbestimmten Reihenfolge der Kameras aus dem Bildsensor jeder Kamera eine zweite vorbestimmte Anzahl von Bildzeilen ausgelesen und verarbeitet sowie die ausgelesenen und verarbeiteten Bilddaten zur Speicherung als Teil eines Gesamtbildes bereitgestellt. Nur diese zweite vorbestimmte Anzahl von Bildzeilen enthält die interessierende Nutzinformation. Das Auslesen und Verarbeiten dieser Nutzinformation wird für die einzelnen Bildsensoren seriell nacheinander ausgeführt, um für die Verbindungen von den einzelnen Bildsensoren zu dem Speicher für das Gesamtbild einen Multiplexbetrieb zu ermöglichen, bei dem stets nur von einem einzigen Bildsensor aus in besagten Speicher geschrieben werden kann. Dabei kann das Gesamtbild eine zusammenhängende Fläche darstellen, muss es aber keineswegs. So ist es durchaus möglich, dass das Gesamtbild eine Vielzahl einzelner interessierender Regionen auf einem Druckerzeugnis beinhaltet, die räumlich getrennt voneinander liegen.
  • Schließlich werden aus dem Bildsensor jeder Kamera nach dem Auslesen der Nutzinformation die restlichen Bildzeilen, die wiederum keine interessierende Bildinformation enthalten, ausgelesen, um den Bildsensor für die Aufnahme des nächsten Bildes bereit zu machen, und die ausgelesenen Bilddaten werden verworfen. Dies kann wieder unabhängig von den anderen Bildsensoren geschehen, also während bereits aus dem nächsten Bildsensor die Bildzeilen mit der Nutzinformation ausgelesen und verarbeitet werden, da beim Auslesen von Bildzeilen, deren Inhalt verworfen werden soll, keine Verbindung zu dem Speicher für das Gesamtbild benötigt wird.
  • Zweckmäßig ist beim Auslesen der zweiten vorbestimmten Anzahl von Bildzeilen eine pixelweise Addition der Ladungen von mindestens zwei aufeinanderfolgenden Zeilen, d.h. ein sogenanntes Zeilenbinning, zur Erhöhung des Signal/Rausch-Abstandes und zur Verkürzung der Auslesezeit.
  • Im Hinblick auf eine spätere digitale Auswertung beinhaltet die Verarbeitung der Bilddaten der zweiten vorbestimmten Anzahl von Bildzeilen bevorzugt eine Analog/Digital-Wandlung, sowie zur Unterdrückung von temperaturbedingten Fehlern eine vorherige pixelweise Differenzbildung zwischen den Ladungen im belichteten und im unbelichteten Zustand, d.h. ein sogenanntes Doublesampling.
  • Zur Zusammenführung der Nutzbilddaten der Bildsensoren der einzelnen Kameras ist es von Vorteil, vor dem Auslesen und Verarbeiten der die Nutzinformation beinhaltenden Bildzeilen einen Datenpfad freizuschalten, über den die ausgelesenen und verarbeiteten Bilddaten von dem jeweiligen Bildsensor zu einem für die Speicherung des Gesamtbildes vorgesehenen Speicher übertragbar sind.
  • Wenn die restlichen Bildzeilen ohne interessierende Bildinformation aus dem Bildsensor der letzten Kamera der vorbestimmten Reihenfolge ausgelesen und verworfen sind, können alle Bildsensoren in den Bereitschaftsmodus für die Aufnahme eines neuen Bildes geschaltet werden.
  • Vorteilhaft ist für die Ablaufsteuerung der Vorgänge des Auslesens und Verarbeitens oder Verwerfens der Bilddaten der einzelnen Bildsensoren eine dezentrale Lösung, d.h. die separate Steuerung für jeden einzelnen Bildsensor durch eine jeweils zugeordnete Steuereinheit, wobei die notwendige zeitliche Synchronisation der Abläufe anhand eines gemeinsamen Triggersignals und eines gemeinsamen Taktsignals erfolgt. Dabei bildet den gemeinsamen zeitlichen Referenzpunkt für die dezentral ablaufenden Steuervorgänge das zentrale Auslösesignal, mit dem die zeitgleiche Bildaufnahme durch alle Bildsensoren initiiert wird. Eine solche de zentrale Lösung benötigt tendenziell weniger Steuerleitungen als eine zentral strukturierte. Eine sinnvolle Weiterbildung dieses dezentralen Systemkonzeptes besteht in der Bereitstellung der Nutzbilddaten zur Speicherung als Teil eines Gesamtbildes mittels sukzessiver dezentraler Freischaltung eines Datenpfades ohne Verwendung eines zentralen Multiplexers.
  • Um nach dem Auslesen des Nutzbereiches eines Bildsensors die für das Auslesen der restlichen, nicht interessierenden Bildzeilen benötigte Zeitspanne abzukürzen, ist es günstig, beim Auslesen der restlichen Bildzeilen eine pixelweise Addition der Ladungen aller dieser Bildzeilen im Ausleseregister des jeweiligen Bildsensors vorzunehmen. In diesem Fall ist nur ein einziger Auslesevorgang des Ausleseregisters nötig, was sich insbesondere beim Auslesen des letzten Bildsensors bemerkbar macht, das vor dem Bereitschalten der gesamten Multikameraanordnung für die nächste Aufnahme abgewartet werden muss.
  • Nachfolgend wird ein Ausführungsbeispiel der Erfindung anhand der Zeichnungen beschrieben. In diesen zeigt
  • 1 eine schematische Perspektivansicht der optischen Komponenten einer Multikameraanordnung, die mit dem erfindungsgemäße Verfahren betreibbar ist,
  • 2 ein Blockschaltbild einer Vorrichtung zur Ausführung des erfindungsgemäßen Verfahrens, und
  • 3 eine Darstellung der wesentlichen Schritte des erfindungsgemäßen Verfahrens anhand eines Programmablaufplans.
  • 1 zeigt in vereinfachter Form die wesentlichen optischen Komponenten einer Vorrichtung, die vorteilhaft mit dem erfindungsgemäßen Verfahren betreibbar ist, nämlich eine Vielzahl elektronischer Kameras 1, 101 und 201 sowie jeweils zugehörige Beleuchtungseinrichtungen 2, 102 bzw. 202. Je eine Kamera 1, 101 und 201 und eine dieser zugeordnete Beleuchtungseinrichtung 2, 102 bzw. 202 bilden zusammen ein Bildaufnahmemodul 0, 100 bzw. 200. Die untereinander gleichartigen Bildaufnahmemodule 0, 100 und 200 sind lückenlos linear aneinandergereiht. Zunächst soll der Aufbau eines einzelnen Moduls und dessen Funktionsweise anhand des Moduls 0, welches die Kamera 1 und die Beleuchtungseinrichtung 2 umfasst, erläutert werden.
  • Die Kamera 1 ist dazu bestimmt, ein Bild von einem vorbestimmten Ausschnitt eines Druckerzeugnisses, beispielsweise von einem Kontrollstreifen 3 mit einer Vielzahl sich periodisch wiederholender Messfelder 4 aufzunehmen, während sich dieser durch einen in diesem Fall ebenfalls streifenförmigen, in 1 gestrichelt eingezeichneten Beobachtungsbereich 5 der Kamera 1 bewegt. Die Bewegungsrichtung des Kontrollstreifens 3 ist in 1 durch den Pfeil 6 angedeutet.
  • Die Kamera 1 ist eine CCD-Schwarzweiß-Kamera mit einem Flächenbildsensor 7. Das von diesem erfasste Bild besteht aus einer rechteckigen Matrix von Bildpunkten, wobei für jeden Bildpunkt ein elektrisches Signal in Form einer Ladungsmenge abgegeben wird, die ein Maß für die Intensität des einfallenden Lichtes ist. Zur verkleinernden Abbildung des Beobachtungsbereiches 5 auf den Bildsensor 7 ist ein Objektiv 8 vorgesehen. Vor dem Objektiv 8 kann noch ein Polarisationsfilter 9 angeordnet sein. Wenn der Beobachtungsbereich 5 ein schmaler langgestreckter Streifen ist, dann wird nicht die gesamte aktive Fläche des rechteckigen Bildsensors, dessen Länge/Breite-Verhältnis üblicherweise nicht allzu groß ist, zur Aufnahme des Beobachtungsbereiches 5 benötigt, sondern ebenfalls nur ein relativ schmaler Streifen. In diesem Fall wird nach der Aufnahme eines Bildes auch nur ein solcher Streifen aus dem Bildsensor 7 ausgelesen, worauf später noch im Detail eingegangen wird. Zusätzlich kann auch der Strahlengang durch Teile des in 1 nicht dargestellten Gehäuses der Kamera 1 entsprechend verengt sein, so dass nur von dem beabsichtigten Beobachtungsbereich 5 aus Licht zu dem Bildsensor 7 gelangen kann.
  • Zur Beleuchtung des Beobachtungsbereiches 5 der Kamera 1 während des dortigen Aufenthalts eines Exemplars des Kontrollstreifens 3 ist eine Beleuchtungsein richtung 2 vorgesehen. Sie soll im richtigen Augenblick einen kurzen Lichtimpuls abgeben, um eine Momentaufnahme des Kontrollstreifens 3 durch die Kamera 1 zu ermöglichen. Die Beleuchtungseinrichtung 2 weist eine Vielzahl von einzelnen Lichtquellen 10 in Form von Leuchtdioden auf, die äquidistant und linear nebeneinander angeordnet und auf den Beobachtungsbereich 5 ausgerichtet sind. Dabei verläuft die Längsrichtung der von den Lichtquellen 10 gebildeten Zeile parallel zur Längsrichtung des Beobachtungsbereiches 5.
  • Um mit der CCD-Schwarzweiß-Kamera 1 eine Farbinformation gewinnen zu können, enthält die Beleuchtungseinrichtung 2 mehrere Gruppen von Lichtquellen 10, von denen jede eine andere spektrale Emissionscharakteristik aufweist. So können beispielsweise drei verschiedene Gruppen mit den Emissionsfarben Rot, Grün und Blau vorgesehen sein, um anhand entsprechend unterschiedlich bedruckter Messfelder 4 des Kontrollstreifens 3 die Dichtemessung der Druckfarben Cyan, Magenta und Gelb zu ermöglichen. Hierzu wird der Kontrollstreifen nacheinander von der roten Gruppe, der grünen Gruppe und der blauen Gruppe beleuchtet und bei jeder Beleuchtung von der Kamera 1 ein Bild des Kontrollstreifens 3 aufgenommen. Die Farbdichtebestimmung der Druckfarbe Cyan wird dann anhand der so bedruckten Messfelder 4 in dem bei der Beleuchtung mit roten Licht aufgenommenen Bild vorgenommen. Die entsprechenden Dichtebestimmungen der Druckfarben Magenta und Gelb erfolgen analog hierzu anhand der jeweils so bedruckten Messfelder 4 getrennt voneinander in den bei den Beleuchtungen mit grünem bzw. blauen Licht aufgenommenen Bildern.
  • Wie 1 zeigt, ist jeder Kamera 1, 101 und 201 jeweils eine Beleuchtungseinrichtung 2, 102 bzw. 202 zugeordnet, so dass jede Kamera 1, 101 und 201 mit ihrer zugehörigen Beleuchtungseinrichtung 2, 102 bzw. 202 jeweils ein Bildaufnahmemodul 0, 100 bzw. 200 bildet. Dabei schließen die Beobachtungsbereiche 5, 105 und 205 der Kameras 1, 101 bzw. 201 lückenlos aneinander an oder überlappen sich ein wenig, so dass insgesamt ein zusammenhängender Beobachtungsbereich 5, 105, 205 mit etwa der dreifachen Länge jedes einzelnen der Beobachtungsbereiche 5, 105 und 205 entsteht.
  • Die Aneinanderfügung kombinierter Kamera-Beleuchtungsmodule 0, 100, 200, usw. zielt darauf ab, die Ausdehnung des gemeinsamen Beobachtungsbereiches 5, 105, 205, usw. in dessen Längsrichtung flexibel an die unterschiedlichen Arbeitsbreiten verschiedener Typen von Druckmaschinen anpassen zu können, indem jeweils bedarfsgerecht eine ausreichende Anzahl von Modulen 0, 100, 200, usw. vorgesehen werden, welche insgesamt einen Beobachtungsbereich 5, 105, 205, usw. haben, der die maximal bedruckbare Breite des Bedruckstoffes voll abdeckt. Insofern versteht es sich von selbst, dass die Anzahl drei der in 1 dargestellten Module rein beispielhaft gemeint ist.
  • Bei einer Multikameraanordnung der vorausgehend anhand 1 beschriebenen Art besteht die Notwendigkeit, die einzelnen Kameras 1, 101 und 201 synchronisiert zu betreiben. Dies bedeutet, dass die Bildaufnahme zur Erfassung eines Kontrollstreifens 3 in allen Kameras 1, 101 und 201 gleichzeitig erfolgen muss, und dass die Auslesung der Bildsensoren 7, 107 und 207 der einzelnen Kameras 1, 101 und 201 zeitlich koordiniert werden muss und ihre Bilddaten zu einem Gesamtbild zusammengeführt werden müssen, was bei Kameras mit CCD-Bildsensoren, die stets im ganzen seriell ausgelesen werden müssen, wesentlich schwieriger ist als etwa bei solchen mit CMOS-Sensoren, die eine beliebige Adressierung von Bildausschnitten erlauben.
  • Ein Blockschaltbild einer zur Durchführung des erfindungsgemäßen Verfahrens geeigneten Steuer- und Signalverarbeitungselektronik für eine Multikameraanordnung der fraglichen Art zeigt 2. Dieses Blockschaltbild geht ebenso wie 1 von einer Anordnung mit drei Kameras 1, 101 und 201 aus, wobei die Anzahl drei der Kameras auch hier als rein beispielhaft zu verstehen ist. Die Kamera 1 wird von einer ihr zugeordneten Ablaufsteuereinheit 11, in 2 und im weiteren als Sequencer 11 bezeichnet, gesteuert, wobei die einzige im vorliegenden Zusammenhang interessierende Komponente der Kamera 1 ihr CCD-Bildsensor 7 ist. Dem Bildsensor 7 eine eigene Signalverarbeitungseinheit 12 zugeordnet, deren wesentliche Komponenten eine analoge Signalvorverarbeitungselektronik, ein Analog/Digital-Wandler und ein Parallel/Seriell-Wandler sind. Schließlich ist dem Bildsensor 7 noch ein elektronischer Schalter 13 zugeordnet, der zur Freischaltung einer Datenleitung 14 zur Übertragung von Bilddaten in einen für das Gesamtbild aller Bildsensoren 7, 107 und 207 vorgesehenen Speicher dient. Den anderen Bildsensoren 107 und 207 sind gleichartige elektronische Sequencer 111 bzw. 211, Signalverarbeitungseinheiten 112 bzw. 212 und Schalter 113 bzw. 213 zugeordnet.
  • Von dem Sequencer 11 aus verlaufen Steuerleitungen 15, 16 und 17 zum Bildsensor 7, zur Signalverarbeitungseinheit 12 und zum Schalter 13. Ferner verläuft eine Signalleitung 18 vom Bildsensor 7 zur Signalverarbeitungseinheit 12 und eine Datenleitung 19 von der Signalverarbeitungseinheit 12 zur Schalter 13. An dem Schalter 13 kommt eine Datenleitung 114 von dem Schalter 113 an, welcher dem nächsten Bildsensor 107 zugeordnet ist. Ebenso kommt an dem Schalter 113 eine Datenleitung 214 von dem Schalter 213 an, welcher dem wiederum nächsten Bildsensor 207 zugeordnet ist. An den Sequencern 11, 111 und 211 kommen eine gemeinsame Steuerleitung 20 sowie eine Taktleitung 21 von einer zentralen Synchronisationseinheit 22 an, an der ihrerseits eine Steuerleitung 23 von einer Triggerquelle 24 ankommt.
  • Im folgenden wird ein Beispiel des erfindungsgemäßen Betriebsablaufes einer CCD-Multikameraanordnung, wie er sich für die Inline-Messung eines Druekkontrollstreifens 3 über die gesamte Breite des Bedruckstoffs innerhalb einer Druckmaschine eignet, anhand 3 beschrieben, die den Programmablauf in einem dem Sequencer 11, 111 oder 211 aus 2 zeigt. Der dargestellte Ablauf ist für die Bildsensoren 7, 107 und 207 sämtlicher Kameras 1, 101 und 201 gleichermaßen gültig.
  • Bei der Inbetriebnahme der Multikameraanordnung werden die Bildsensoren 7, 107 und 207 nach gewissen einmaligen Initialisierungsvorgängen, die hier nicht interessieren, im Schritt 30 bereit geschaltet und dabei in den sogenannten Keepclean-Modus geschaltet, der für eine fortlaufende Löschung der im CCD-Bildsensorspeicher entstehenden Dunkelladungen sorgt. Diese Scharfschaltung im Schritt 30 erfolgt durch alle Sequencer 11, 111 und 211 gleichzeitig, so dass alle Bildsensoren 7, 107 und 207 dann zur nächsten asynchronen Bildaufnahme bereit sind.
  • Die Sequencer 11, 111 oder 112 warten zunächst im Schritt 31 auf das Eintreffen eines Triggerimpulses auf der Leitung 20 von der zentralen Synchronisationseinheit 22, die ihrerseits bei der Erkennung eines ankommenden Druckkontrollstreifens 3 auf dem Druckerzeugnis über die Leitung 23 einen Triggerimpuls von einer Triggerquelle 24 empfängt. Bei der Triggerquelle 24 kann es sich insbesondere um einen optischen Sensor handeln, der eine Referenzmarkierung auf dem Druckerzeugnis detektiert. Ein zwischen der Detektion einer solchen Referenzmarkierung und dem Erscheinen des Druckkontrollstreifens 3 im Beobachtungsbereich 5, 105, 205 der Kameras 1, 101 und 201 liegendes Zeitintervall wird durch eine entsprechende Verzögerung eines der Triggerimpulse berücksichtigt.
  • Durch den Triggerimpuls von der zentralen Synchronisationseinheit 22 auf der Leitung 20 wird für alle Kameras 1, 101 und 201 der Multikameraanordnung gleichzeitig die Belichtungszeit und damit die Bildaufnahme synchron zum Erscheinen eines Druckkontrollstreifens 3 auf dem Druckerzeugnis im gemeinsamen Beobachtungsbereich 5, 105, 205 der Kameras 1, 101 und 201 festlegt. Die Länge dieses Triggerimpulses bestimmt die Belichtungszeit. Stellen die Sequencer im Schritt 32 den Anfang eines Triggerimpulses fest, so lösen sie die Löschung aller Ladungen der Bildzonen der CCD-Bildsensoren 7, 107 und 207 aus und starten die Belichtung, d.h. den Schritt 33. Das Ende des Impulses stoppt die Belichtung. Mit dem Ende des Triggerimpulses werden automatisch die Bildinformationen von der Bildzone der CCD-Bildsensoren 7, 107 und 207 der einzelnen Kameras 1, 101 und 201 in deren jeweilige Speicherzone übertragen.
  • Die ersten zk1 Bildsensorzeilen der einzelnen CCD-Bildsensoren werden nun im Schritt 34 bis zur ersten gültigen Bildzeile der jeweils definierten aktiven Bildzone (ROI = Region Of Interest) geskippt, d.h. die ersten zk1 Bildsensorzeilen werden ausgelesen und deren Bildinhalt verworfen. Die aktiven Bildzonen können beliebig für die einzelnen Bildsensoren 7, 107 und 207 definiert werden. Je nach Justage der einzelnen Kameras 1, 101 und 201 und/oder deren Bildsensoren 7, 107 und 207 kann demnach die Anzahl zk1 der zu verwerfenden Anfangszeilen ohne Nutzinformation von Bildsensor zu Bildsensor variieren, was bei der Anzahl zk1 in dem Index k zum Ausdruck kommt, der eine fortlaufende Ordnungsnummer der jeweiligen Kamera darstellt. Die Anzahl zk1 der zu verwerfenden Zeilen ist in jedem einzelnen Sequencer 11, 111 und 211 abgespeichert, so dass jeder Sequencer 11, 111 und 211 den Schritt 34 unabhängig von den anderen selbständig ausführen kann. An dieser Stelle sei erwähnt, dass eine geeignete Orientierung der Bildsensoren 7, 107 und 207 zu dem Druckkontrollstreifen 3 vorausgesetzt wird, d.h. dass die Zeilenrichtung der Bildsensoren 7, 107 und 207 parallel zur Längsrichtung des Kontrollstreifens 3 verläuft.
  • Nach Abschluss des Schrittes 34 wartet jeder Sequencer 11, 111 und 211 im Schritt 35, bis er mit dem Auslesen, Vorverarbeiten und Ausgeben der interessierenden Bildinformation an der Reihe ist. Dieses Warten geschieht aktiv durch Zählen eines Taktsignals, das von dem auf der Taktleitung 21 von der zentralen Synchronisationseinheit 22 kommenden Taktsignal abgeleitet ist, wobei das Zählen mit dem Eintreffen des Triggersignals auf der Leitung 20 beginnt. Ein zweckmäßiges Taktsignal ist hierbei der Zeilentakt. Jedem Sequencer 11, 111 und 211 ist in Bezug auf den Zeilentakt ein Fenster zugeordnet, innerhalb dessen er an der Reihe ist, d.h. er vergleicht im Schritt 36 die aktuelle Zahl der Takte seit dem Eintreffen des Triggersignals mit einem spezifischen, intern gespeicherten Wert, der für jeden Sequencer 11, 111 und 211 verschieden ist. Wird dieser Wert erreicht, so ist der betreffende Sequencer 11, 111 oder 211 an der Reihe.
  • In diesem Fall schaltet der betreffende Sequencer 11, 111 oder 211 im Schritt 37 den ihm zugeordneten Schalter 13 bzw. 113 bzw. 213 so, dass die Daten vom Ausgang 19 bzw. 119 bzw. 219 der ihm zugeordneten Signalverarbeitungseinheit 12 bzw. 112 bzw. 212 auf die jeweilige Ausgangsleitung 14 bzw. 114 bzw. 214 geleitet werden.
  • Anschließend erfolgt im Schritt 38 das Auslesen der zk2 Bildsensorzeilen der aktiven Bildzone des jeweiligen Bildsensors 7 bzw. 107 bzw. 207 mit gleichzeitiger Signalverarbeitung, 16-Bit-Analog/Digital-Wandlung und Parallel/Seriell-Wandlung. Durch die Stellung der Schalter 13, 113 und 213 ist stets gewährleistet, dass der Ausgang 19, bzw. 119 bzw. 219 derjenigen Signalverarbeitungseinheit 12 bzw. 112 bzw. 212, die dem jeweils an der Reihe befindlichen Sequencer 11, 111 oder 212 zugeordnet ist, bis zur Ausgangsleitung 14 des ersten Schalters 13 verbunden ist. Diese Ausgangsleitung 14 führt zu einem Kamerainterface eines Bildverarbeitungsrechners, in dem die Bilddaten zur Weiterverarbeitung gespeichert werden. Die Datenübertragung auf der Leitung 14 erfolgt seriell. Die Anzahl zk2 der Zeilen der aktiven Bildsensorzone dürfte im Grundsatz ebenfalls von Sensor zu Sensor verschieden sein, wird aber bei einem Beobachtungsbereich 5, 105, 205 einheitlicher Breite für alle Bildsensoren 7, 107 und 207 gleich sein.
  • Beim Auslesen im Schritt 38 ist ein beliebiges Zeilenbinning, d.h. Zusammenfassen von Ladungen mehrerer Zeilen, je nach Anforderung möglich. Ferner ist dabei auch eine pixelweise Differenzbildung zwischen den Ladungen im belichteten und im unbelichteten Zustand, auch als Double-Sampling bekannt, vorgesehen. Während des Auslesens eines Bildsensors 7, 107 oder 207 befinden sich alle folgenden im Stand-by-Modus (Ruhezustand), d.h. die zugehörigen anderen Sequencer verharren im Warteschritt 35.
  • Nach vollständiger Übertragung der Bilddaten der aktiven Zone eines Bildsensors 7, 107 oder 207 wird der Schalter 13 bzw. 113 bzw. 213 im Schritt 39 durch den Sequencer 11 bzw. 111 bzw. 212 umgeschaltet, so dass die jeweilige Signalverarbeitungseinheit 12 bzw. 112 bzw. 212 nicht mehr mit dem Bildverarbeitungsrechner verbunden ist. Falls der zuletzt ausgelesene Bildsensor nicht der letzte Bildsensor 207 war, dann wird durch die Umschaltung 39 die Signalverarbeitungseinheit des nächsten Bildsensors 107 oder 207 auf die zu dem Bildverarbeitungsrechner führende Ausgangsleitung 14 durchgeschaltet. Die durch die Schalter 13, 113 und 213 realisierte Kettenstruktur eines Datenpfades ist an sich bekannt (daisy chain). Wenn nun der Sequencer 112 oder 212 des nächsten Bildsensors 107 bzw. 207 in seinem Schritt 36 feststellt, dass er an der Reihe ist, steht der zur Ab gabe der Bilddaten benötigte Datenpfad schon bereit. Das Auslesen, Verarbeiten, Wandeln und Übertragen der Bildinformation erfolgt bei sämtlichen Bildsensoren 7, 107 und 207 auf die gleiche Weise.
  • Während die Bildinformation des nächsten Sensors 107 oder 207 ausgelesen, verarbeitet, gewandelt und übertragen wird, fährt der zuletzt vorher an der Reihe befindliche Sequencer 11 oder 111 mit dem Schritt 40 fort, d.h. er lässt die restlichen zk3 Bildzeilen des ihm zugeordneten Sensors 7 oder 107 weiter auslesen, ohne dass die Bilddaten weitergeleitet werden, d.h. sie werden verworfen. Dieses weitere Auslesen 40 ist nötig, um die Ladungen der restlichen zk3 Bildsensorzeilen zu löschen. Je nach den Verhältnissen der Zeilenzahlen zk2 und zk3 ist es auch denkbar, dass während des Auslesens und Verarbeitens der interessierenden Bilddaten aus einem Bildsensor bei mehr als einem einzigen zuvor ausgelesenen Bildsensor noch Restzeilen ausgelesen werden müssen, also beispielsweise nicht nur beim Vorgänger sondern auch noch beim Vorvorgänger in Bezug auf die Auslesereihenfolge. Dies spielt aber für den zeitlichen Ablauf des Auslesens und Verarbeitens der interessierenden Bilddaten keine Rolle, da das Auslesen der Restzeilen bei jedem Bildsensor 7, 107 und 207 unabhängig von den übrigen abläuft. Die Anzahl zk3 der Restzeilen kann wiederum von Sensor zu Sensor variieren.
  • Nach dem vollständigen Auslesen seines zugeordneten Bildsensors 7, 107 oder 207 wartet jeder Sequencer 11 bzw. 111 bzw. 211 in Schritt 41 auf das Ende des aktuellen Bildaufnahmezyklus, d.h. bis der letzte Sensor 207 vollständig ausgelesen und damit gelöscht wurde. Diesen Zeitpunkt erkennt jeder Sequencer 11, 111 und 211 in Schritt 42 anhand des Eingangs einer vorbestimmten Anzahl von Taktimpulsen auf der Taktleitung 21 seit dem Empfang des Triggersignals auf der Leitung 20.
  • Ist der aktuelle Bildaufnahmezyklus zu Ende, so werden alle Bildsensoren 7, 107 und 207 im Schritt 30 wieder scharfgeschaltet, und in den Keep-clean-Modus geschaltet, der die im CCD-Bildsensorspeicher entstehenden Dunkelladungen fort laufend löscht. Die Multikameraanordnung ist dann zur nächsten asynchronen Bildaufnahme bereit.
  • Abschließend sei nochmals betont, dass die Anzahl von Modulen einer Multikameraanordnung, die mit dem erfindungsgemäßen Verfahren betrieben werden kann, im Hinblick auf die bei einer Druckmaschine gegebene Bedruckstoffbreite beliebig wählbar und keineswegs auf die hier beispielhaft angenommene Anzahl drei beschränkt ist. Ferner hängt die Funktion des Verfahrens nicht von der vorausgehend beschriebenen, speziellen Art der Umschaltung des Ausgangsdatenpfades mit einer Kettenstruktur ab. Denkbar wäre hier auch ein von der zentralen Synchronisationseinheit 22 gesteuerter, zentraler Multiplexer.

Claims (9)

  1. Verfahren zum synchronisierten Betrieb einer Vielzahl elektronischer Kameras, bei dem die einzelnen Kameras auf ein Auslösesignal hin gleichzeitig jeweils ein Bild aufnehmen und die Bilddaten der einzelnen Kameras zu einem Gesamtbild zusammengeführt werden, dadurch gekennzeichnet, dass Kameras (1, 101, 201) mit CCD-Bildsensoren (7, 107, 207) verwendet werden, dass nach Abschluss der Bildaufnahme aus jedem Bildsensor (7, 107, 207) zunächst unabhängig von den anderen Bildsensoren (7, 107, 207) eine vorbestimmte erste Anzahl von Bildzeilen ausgelesen und die ausgelesenen Bilddaten verworfen werden, dass zeitlich nacheinander in einer vorbestimmten Reihenfolge der Kameras (1, 102, 201) aus den jeweiligen Bildsensoren (7, 107, 207) eine zweite vorbestimmte Anzahl von Bildzeilen ausgelesen und verarbeitet sowie die ausgelesenen und verarbeiteten Bilddaten zur Speicherung als Teil eines Gesamtbildes bereitgestellt werden, und dass aus jedem Bildsensor (7, 107, 207) nach dem Auslesen der zweiten Anzahl von Bildzeilen unabhängig von den anderen Bildsensoren (7, 107, 207) die restlichen Bildzeilen ausgelesen und die ausgelesenen Bilddaten verworfen werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass beim Auslesen der zweiten vorbestimmten Anzahl von Bildzeilen eine pixelweise Addition der Ladungen von mindestens zwei aufeinanderfolgenden Zeilen erfolgt.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Verarbeitung der Bilddaten der zweiten vorbestimmten Anzahl von Bildzeilen eine Analog/Digital-Wandlung beinhaltet.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Verarbeitung der Bilddaten der zweiten vorbestimmten Anzahl von Bildzeilen eine pixelweise Differenzbildung zwischen den Ladungen im belichteten und im unbelichteten Zustand beinhaltet.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass vor dem Auslesen und Verarbeiten der zweiten vorbestimmten Anzahl von Bildzeilen ein Datenpfad (14; 14,114; 14,114,214) freigeschaltet wird, über den die ausgelesenen und verarbeiteten Bilddaten von dem jeweiligen Bildsensor (7, 107, 207) zu einem für die Speicherung des Gesamtbildes vorgesehenen Speicher übertragbar sind.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass nach dem Auslesen und Verwerten der restlichen Bildzeilen aus dem letzten Bildsensor (207) der vorbestimmten Reihenfolge alle Bildsensoren (7, 107, 207) in den Bereitschaftsmodus für die Aufnahme eines neuen Bildes geschaltet werden.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass nach der zentralen Auslösung der Bildaufnahme das Auslesen, Verarbeiten und Bereitstellen oder das Verwerfen von Bilddaten der einzelnen Kameras für jeden einzelnen Bildsensor (7, 107, 207) separat gesteuert wird, wobei die zeitliche Synchronisation der Abläufe anhand eines gemeinsamen Triggersignals und eines gemeinsamen Taktsignals erfolgt.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Bereitstellung der aus der zweiten vorbestimmten Anzahl von Bildzeilen ausgelesenen und verarbeiteten Bilddaten zur Speicherung als Teil eines Gesamtbildes mittels sukzessiver dezentraler Freischaltung eines Datenpfades (14; 14,114; 14,114,214) ohne Verwendung eines zentralen Multiplexers erfolgt.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass nach dem Auslesen der zweiten Anzahl von Bildzeilen beim Auslesen der restlichen Bildzeilen eine pixelweise Addition der Ladungen sämtlicher restlichen Bildzeilen im Ausleseregister des jeweiligen Bildsensors (7, 107, 207) erfolgt.
DE102004033495A 2004-01-25 2004-07-10 Verfahren zum synchronisierten Betrieb einer Vielzahl elektronischer Kameras Withdrawn DE102004033495A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102004033495A DE102004033495A1 (de) 2004-01-25 2004-07-10 Verfahren zum synchronisierten Betrieb einer Vielzahl elektronischer Kameras

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102004003616.0 2004-01-25
DE102004003616 2004-01-25
DE102004033495A DE102004033495A1 (de) 2004-01-25 2004-07-10 Verfahren zum synchronisierten Betrieb einer Vielzahl elektronischer Kameras

Publications (1)

Publication Number Publication Date
DE102004033495A1 true DE102004033495A1 (de) 2005-08-11

Family

ID=34745049

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004033495A Withdrawn DE102004033495A1 (de) 2004-01-25 2004-07-10 Verfahren zum synchronisierten Betrieb einer Vielzahl elektronischer Kameras

Country Status (3)

Country Link
JP (1) JP2005210733A (de)
DE (1) DE102004033495A1 (de)
IT (1) ITRM20050030A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1862309A2 (de) 2006-05-31 2007-12-05 Koenig & Bauer Aktiengesellschaft Sensoreinrichtung
DE102010030789A1 (de) 2009-07-10 2011-02-17 Manroland Ag Bogeninspektionssystem
DE102022134232A1 (de) 2022-12-20 2024-06-20 Manroland Goss Web Systems Gmbh Vorrichtung und Verfahren zur Ermittlung von Farbdichten

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4972423B2 (ja) * 2007-02-09 2012-07-11 富士フイルム株式会社 カメラ装置及びその制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09284753A (ja) * 1996-04-11 1997-10-31 Futec Inc 監視カメラの撮像制御方法とその装置
JP2000152051A (ja) * 1998-11-05 2000-05-30 Canon Inc 撮像装置
DE10208286A1 (de) * 2002-02-26 2003-09-18 Koenig & Bauer Ag Elektronische Bildauswerteeinrichtung und ein Verfahren zur Auswertung
JP2003287828A (ja) * 2002-03-27 2003-10-10 Sony Corp 撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09284753A (ja) * 1996-04-11 1997-10-31 Futec Inc 監視カメラの撮像制御方法とその装置
JP2000152051A (ja) * 1998-11-05 2000-05-30 Canon Inc 撮像装置
DE10208286A1 (de) * 2002-02-26 2003-09-18 Koenig & Bauer Ag Elektronische Bildauswerteeinrichtung und ein Verfahren zur Auswertung
JP2003287828A (ja) * 2002-03-27 2003-10-10 Sony Corp 撮像装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1862309A2 (de) 2006-05-31 2007-12-05 Koenig & Bauer Aktiengesellschaft Sensoreinrichtung
DE102006025324A1 (de) * 2006-05-31 2007-12-13 Koenig & Bauer Aktiengesellschaft Sensoreinrichtung
EP1862309A3 (de) * 2006-05-31 2008-05-28 Koenig & Bauer Aktiengesellschaft Sensoreinrichtung
DE102010030789A1 (de) 2009-07-10 2011-02-17 Manroland Ag Bogeninspektionssystem
DE102010030789B4 (de) * 2009-07-10 2017-06-08 manroland sheetfed GmbH Bogeninspektionssystem
DE102022134232A1 (de) 2022-12-20 2024-06-20 Manroland Goss Web Systems Gmbh Vorrichtung und Verfahren zur Ermittlung von Farbdichten

Also Published As

Publication number Publication date
ITRM20050030A1 (it) 2005-07-26
JP2005210733A (ja) 2005-08-04

Similar Documents

Publication Publication Date Title
DE3887526T2 (de) Bildaufzeichnungssystem.
DE3874045T2 (de) Verfahren und vorrichtung zur bildinformationsaufname mit korrigierter lesesteuerung.
DE69730890T2 (de) Elektronische Kamera mit einem kleinen Sensor für Hochgeschwindigkeitsbildaufnahme
DE4203630C2 (de) Elektronisches Endoskop
DE69005991T2 (de) Verfahren und anordnung zur erzeugung eines hochauflösenden elektronischen signals von der zeilenabtastung einer farbvorlage.
DE4136461C2 (de) Vorrichtung und Verfahren zur großflächigen Bildinspektion
DE3788990T2 (de) Verfahren und Vorrichtung zur stroboskopischen Fernsehbesichtigung eines nicht-synchronisierten Ereignisses.
DE19624930C2 (de) Lesesystem für Datensymbole
DE3153624C2 (de)
DE69009295T2 (de) Zeitnahmevorrichtung für Rennen.
WO2016166062A1 (de) Steuermodul für eine kamera in einem produktionssystem und verfahren zum erfassen von bildern mittels einer solchen kamera
DE69823254T2 (de) Automatische Weissabgleichdetektion und Korrektur eines in einer digitalen Kamera aufgenommenen Bildes
DE2902134A1 (de) Fehlerkompensiervorrichtung fuer einen festkoerper-bildabnehmer
DE3610271A1 (de) Bild-aufnehmer
DE3308195A1 (de) Bilddaten-maskierungsvorrichtung
DE2857564B2 (de) Steuerschaltung für eine Bildaufnahmeeinrichtung
DE102019113278B4 (de) Bildsensoren mit ladungsüberlauffähigkeiten
EP1909492B1 (de) Digitale Laufbildkamera
DE10231083A1 (de) Verfahren und Vorrichtungen zum Auslesen eines Bildsensors mit reduzierter Verzögerungszeit zwischen Zeilen
WO2012076274A1 (de) Verfahren und vorrichtung zum verarbeiten von bildinformationen zweier zur bilderfassung geeigneter sensoren eines stereo-sensor-systems
DE19959539A1 (de) Bildaufnehmer
DE3785773T2 (de) Farbfilter fuer farbbildwandler.
DE112020006938T5 (de) Kamera-mehrzeilen-zeitteilungs-belichtungsverarbeitungsverfahren und -system
DE2504617C3 (de) Fernsehkamera zur Erzeugung von Signalen von Teilbildern eines Fernsehbildes
CH683893A5 (de) Verfahren und Kamerasensor zum Abtasten einer Randkante eines Objektes.

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8139 Disposal/non-payment of the annual fee