DE102018220271B4 - Optische Aufnahmevorrichtung und Verfahren zur optischen Aufnahme - Google Patents

Optische Aufnahmevorrichtung und Verfahren zur optischen Aufnahme Download PDF

Info

Publication number
DE102018220271B4
DE102018220271B4 DE102018220271.0A DE102018220271A DE102018220271B4 DE 102018220271 B4 DE102018220271 B4 DE 102018220271B4 DE 102018220271 A DE102018220271 A DE 102018220271A DE 102018220271 B4 DE102018220271 B4 DE 102018220271B4
Authority
DE
Germany
Prior art keywords
time
detection area
light
light source
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018220271.0A
Other languages
English (en)
Other versions
DE102018220271A1 (de
Inventor
Michael Schöberl
Stephan Göb
Jürgen Ernst
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE102018220271.0A priority Critical patent/DE102018220271B4/de
Publication of DE102018220271A1 publication Critical patent/DE102018220271A1/de
Application granted granted Critical
Publication of DE102018220271B4 publication Critical patent/DE102018220271B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8838Stroboscopic illumination; synchronised illumination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8845Multiple wavelengths of illumination or detection

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Optische Aufnahmevorrichtung (10, 10'), mit folgenden Merkmalen:einer Kamera (12) zur Aufnahme von Stück- oder Schüttgut (14, 14a-14n), das mit einer bekannten Bewegung durch einen Erfassungsbereich (12e) der Kamera (12) hindurchbewegt wird, wobei der Erfassungsbereich (12e) zumindest einen ersten und einen zweiten Teil umfasst;zumindest einer ersten und einerzweiten Lichtquelle (16a, 16a', 16b, 16b`), die ausgebildet sind, um unterschiedliches Licht auf das sich im Erfassungsbereich (12e) bewegende Stück- oder Schüttgut (14, 14a-14n) zu emittieren;wobei sich ein erster Objektbereich (14a) des Stück- oder Schüttguts (14, 14a-14n) zu einem ersten Zeitpunkt (t1) in dem ersten Teil des Erfassungsbereichs (12e1) befindet und sich der erste Objektbereich (14a) zu einem zweiten Zeitpunkt in dem zweiten Teil des Erfassungsbereichs (12e2) befindet;wobei die erste Lichtquelle (16a, 16a') ausgebildet ist, um den ersten Teil des Erfassungsbereichs (12e1) zumindest in dem ersten Zeitpunkt (t1) mit einem ersten Licht auszuleuchten, so dass die Kamera (12) in dem ersten Zeitpunkt (t1) den ersten Objektbereich (14a) unter Verwendung des ersten Lichts in einer ersten Aufnahme erfassen kann,wobei die zweite Lichtquelle (16b, 16b') ausgebildet ist, um den zweiten Teil des Erfassungsbereichs (12e2) zumindest in dem zweiten Zeitpunkt mit einem zweiten Licht auszuleuchten, so dass die Kamera (12) in dem zweiten Zeitpunkt den ersten Objektbereich unter Verwendung des zweiten Lichts in einer zweiten Aufnahme erfassen kann;wobei die erste Lichtquelle (16a, 16a') zu dem ersten Zeitpunkt (t1) aktiviert ist und zu dem zweiten Zeitpunkt deaktiviert ist; und/oder wobei die zweite Lichtquelle (16b, 16b') zu dem zweiten Zeitpunkt aktiviert ist und zu dem ersten Zeitpunkt (t1) deaktiviert ist.

Description

  • Ausführungsbeispiele der vorliegenden Erfindung beziehen sich auf eine optische Aufnahmevorrichtung mit einer Kamera und zumindest zwei Lichtquellen. Bevorzugte Ausführungsbeispiele beziehen sich auf eine optische Aufnahmevorrichtung, die zusammen mit Bewegungsmitteln, wie zum Beispiel einem Fließband gekoppelt sind. Ein weiteres Ausführungsbeispiel bezieht sich auf ein entsprechendes Aufnahmeverfahren sowie ein Computerprogramm.
  • In der industriellen Prüfung und Sortierung von Objekten werden diese unter Verwendung vom Karmas in den entsprechenden Farbkanälen separiert untersucht. Die Aufnahme von Bildern erfolgt mit mehreren Komponenten, z.B. den Farbkanälen rot-grün-blau (RGB). Für die Aufnahme von RGB gibt es Sensoren mit eingebauten Filtern in den Farben RGB - in anderen Anwendungen sind jedoch andere Eigenschaften des Lichts (andere Wellenlängen oder Polarisationsinformation) nötig. In diesen Fällen gibt es keine breite Auswahl an Standardsensoren und nur wenige Spezialentwicklungen für multispektrale Kameras. Diese sind damit teuer, nicht mehr auf dem aktuellsten Stand der Technik und aufwändig zu integrieren.
  • Auch im Stand der Technik gibt es bereits zahlreiche Ansätze von industrieller Prüfung und Sortierung von Objekten, wobei diese häufig linear bewegt werden (z. B. auf einem Fließband), wobei sie währenddessen mit einer Kamera beobachtet werden. Für die Aufnahme gibt es folgende etablierte Systeme, bei denen ein Filter (spektral oder für Polarisation) auf dem Bildsensor in die Kamera integriert ist.
  • Weiterer Stand der Technik ist in der Patentliteratur zu finden. Die DE 10 2016 100 437 B4 zeigt eine Vorrichtung zur Durchbildkontrolle. Darüber hinaus ist noch auf die Veröffentlichungsschriften DE 10 2010 009 957 A1 , DE 21 2017 000 206 U1 , DE 10 2004 058 778 A1 sowie DE 10 2007 007 828 A1 hinzuweisen. Multispektrale Flächenkameras oder -sensoren („division of focal plane“): Die Pixel einer Kamera sind aufgeteilt und für verschiedene Ausprägungen des Lichts empfindlich. Eine Kamera fertigt fortlaufend Bilder der bewegten Objekte an. Eine einzelne schnelle Aufnahme enthält alle Informationen, so dass eine Bewegung kein Problem erzeugt. Hierfür können beispielsweise folgende drei Kameras verwendet werden.
  • Farbkameras RGB Bayer Pattern: Entsprechende Kameras für die industrielle Prüfung sind direkt als fertige Systeme ab ca. 200 Euro verfügbar. Die Sensoren mit Bayer-Pattern sind für die Kanäle rot, grün und blau empfindlich.
  • Multispektrale Flächenkamera: Es gibt Kameras mit Spezialsensoren die andere Filter besitzen. Hier sind erste Kameras für konkrete Kombination aus Wellenlängen und Filtern verfügbar. Diese sind teuer und nur von ausgewählten Anbietern verfügbar. Es besteht noch großes Optimierungspotenzial in der Technologie und Bildqualität. Eine konkrete Kamera kostet ca. 5-15 k€ (z.B. mit 9 Kanälen von Silios oder Ximea mit IMEC Sensoren). Eine Anpassung auf eine neue Problemstellung (andere Wellenlänge oder Kombination aus Filtern und Wellenlängen) ist nicht direkt verfügbar und nur mit großem Entwicklungsaufwand erreichbar.
  • Polarisation Flächenkameras: Ebenso sind inzwischen Kameras mit Polarisations-Flächensensoren verfügbar, die alle Informationen in einem Einzelbild aufnehmen können. Auch hier ist eine Neuentwicklung oder Anpassung an neue Auflösungen sehr aufwändig.
  • In der industriellen Prüfung von definiert bewegten Objekten sind auch Zeilenkameras heute üblich. Typisch verfügbar sind Kameras mit einigen wenigen Zeilen in graustufen und Geschwindigkeiten 10k - 200k Zeilen/sec. Hierfür eignen sich beispielsweise folgende Kameras.
  • Zeilenkamera Multispektral/Multi-Polarisation: Neuerdings sind Zeilenkameras verfügbar, die mit wenigen Farbkanälen oder Polarisationsfiltern angeboten werden. Eine Adaption an neue Anwendungen/Anforderungen ist auch hier nur mit großem Aufwand möglich. Multispektrale Zeilenkameras die über einen Schlitz/Gitter arbeiten können nur in einem bestimmten Wellenlängenbereich betrieben werden. Das heißt verfügbare Modelle weisen zum Beispiel eine Wellenlänge von 400nm bis 700nm auf. Zurückzuführen ist dies auf die höheren Ordnungen am Beugungsgitter, die nur einen Bereich eines Faktor-2 zwischen minimaler und maximaler Wellenlänge erlaubt. Mit unserem Verfahren kann eine Analyse über das komplette sichtbare Spektrum bis in den IR Bereich vorgenommen werden (d.h. je nach Kamera von 400nm bis 1000nm und weiter).
  • Viel-kanalige Zeilenkameras: Ebenso gibt es Zeilenkameras mit 100+ Bändern. Das Licht wird über einen Schlitz und ein optisches Gitter aufgefächert und über einen Flächensensor erfasst. Für jede aufgenommene Zeile wird ein volles Bild des Flächensensors aufgenommen - es werden damit 100+ komplette Zeilen aufgenommen. Die Datenrate ist hoch und die Geschwindigkeit ist deutlich begrenzt. Eine Anpassung und Auswahl der Wellenlängen/Filter ist nicht direkt verfügbar und nur mit großem Entwicklungsaufwand erreichbar. Der Aufwand der optischen Konstruktion ist hoch, so dass entsprechende Systeme bei 20k€ aufwärts angeboten werden. Das Prinzip ist auch im SWIR Bereich verfügbar, die Kameras kosten dann 60k€ aufwärts.
  • Sequentielle Aufnahme mit einer Kamera und Filtern: Der Einsatz einer Kamera und optischen Filtern oder einer wechselnden Beleuchtung ist heute möglich. Es ist dazu nötig das Objekt und Förderband anzuhalten (um den Filter zu rotieren und sequentiell aufzunehmen).
  • Aufnahme mit mehreren Kameras: Es ist auch möglich mehrere synchronisierte Kameras gleichzeitig zu nutzen (wie in US 5 969 810 A ). Das Band kann sich weiter bewegen, der Aufwand steigt jedoch stark.
  • Ausgehend von der Problematik, dass häufig sehr teure Kameraapparaturen notwendig sind, um in einer guten Auswertequalität und bei hohem Objektdurchsatz die Objektprüfung durchführen zu können, besteht der Bedarf nach verbessertem Ansatz.
  • Aufgabe der vorliegenden Erfindung liegt darin mit kostengünstigen Mitteln, wie zum Beispiel mit standardmäßig bzw. kommerziell verfügbaren Kameras gleichwertige Auswertequalität bei hohem Objektdurchsatz zu erreichen.
  • Die Aufgabe wird durch die unabhängigen Patentansprüche gelöst.
  • Ausführungsbeispiele der vorliegenden Erfindung schaffen eine optische Aufnahmevorrichtung mit einer Kamera und zumindest einer ersten und einer zweiten Lichtquelle. Die Kamera dient zur Aufnahme von Stück- oder Schüttgut (Objekte, wie Flaschen, Getreide oder eine kontinuierliche Masse wie Eisenerz oder Müll). Dieses Stück- oder Schüttgut wird mit einer bekannten Bewegung (z. B. bewirkt durch ein Fließband oder eine andere Bewegungsvorrichtung) durch einen Erfassungsbereich der Kamera hindurchbewegt. Dieser Erfassungsbereich der Kamera umfasst zumindest einen ersten und einen zweiten Teil (z. B. links und rechts). Die erste und die zweite Lichtquelle sind jeweils ausgebildet, um unterschiedliches Licht, z. B. rotes und grünes Licht (d. h. also Licht mit unterschiedlichen Frequenzspektren) oder unterschiedlich polarisiertes Licht (d. h. also Licht unterschiedlicher Art oder Orientierung der Polarisation) auf das sich im Erfassungsbereich bewegende Stück- oder Schüttgut zu emittieren. Hierbei befindet sich ein erster Objektbereich des Stück- oder Schüttguts zu einem ersten Zeitpunkt in dem ersten Teil des Erfassungsbereichs, während sich der erste Objektbereich zu einem zweiten Zeitpunkt in dem zweiten Teil des Erfassungsbereichs befindet. In anderen Worten ausgedrückt heißt das also, dass das Objekt bzw. die Objektbereiche (wenn man von einem Schüttgut ausgeht) so mit einer bekannten Bewegung fortbewegt werden, dass sie sich zu zwei unterschiedlichen Zeitpunkten in den zwei unterschiedlichen Teilen des Erfassungsbereichs befinden. Die erste Lichtquelle ist ausgebildet, um den ersten Teil des Erfassungsbereichs zumindest in dem ersten Zeitpunkt mit einem ersten Licht auszuleuchten, so dass die Kamera in dem ersten Zeitpunkt den ersten Objektbereich unter Verwendung des ersten Lichts in einer ersten Aufnahmeerfassung erfassen kann. Die zweite Lichtquelle ist ausgebildet, um den zweiten Teil des Erfassungsbereichs zumindest in dem zweiten Zeitpunkt mit einem zweiten Licht auszuleuchten, so dass die Kamera in dem zweiten Zeitpunkt den ersten Objektbereich unter Verwendung des zweiten Lichts in einer zweiten Aufnahme erfassen kann. Entsprechend Ausführungsbeispielen gibt es zumindest zwei Varianten, um diesen Modus sicherzustellen.
  • Entsprechend einer ersten Variante gemäß einem Ausführungsbeispiel werden die Lichtquellen zu unterschiedlichen Zeitpunkten aktiviert, d. h. also, dass die erste Lichtquelle zu einem ersten Zeitpunkt aktiviert ist und zu dem zweiten Zeitpunkt deaktiviert ist, wobei die zweite Lichtquelle zu dem zweiten Zeitpunkt aktiviert ist und zu dem ersten Zeitpunkt deaktiviert ist. Entsprechend dieser Variante 1 wird also neben der Position des ersten Objektbereichs über die Zeit auch die Ausleuchtung variiert.
  • Entsprechend einer zweiten Variante gemäß einem weiteren Ausführungsbeispiel beleuchtet die erste Lichtquelle den ersten Teil des Erfassungsbereichs und nicht den zweiten Teil des Erfassungsbereichs, während die zweite Lichtquelle den zweiten Teil des Erfassungsbereichs und nicht den ersten Teil des Erfassungsbereichs beleuchtet. Hierbei wird also sichergestellt, dass der erste Objekterfassungsbereich zu dem ersten und zweiten Zeitpunkt mit unterschiedlichem Licht beleuchtet werden kann, auch wenn keine zeitliche abwechselnde Aktivierung und Deaktivierung des Lichts erfolgen muss, da ja der erste Erfassungsbereich gegenüber dem Licht des zweiten Erfassungsbereichs und der zweite Erfassungsbereich gegenüber dem Licht des ersten Erfassungsbereichs abgeschirmt ist.
  • Ausführungsbeispielen der vorliegenden Erfindung liegt die Erkenntnis zugrunde, dass mit einer Kamera, insbesondere einer herkömmlich verfügbaren (Graustufen-)Kamera ein Objekt oder ein Objektbereich mit unterschiedlichen Frequenzen oder Lichtmodalitäten untersucht werden kann, indem in die einzelnen Erfassungsbereichsteile bzw. Objektbereich an unterschiedlichen Position unterschiedlich ausgeleuchtet werden. Dies kann unter Zuhilfenahme einer kontinuierlichen (allgemein bekannten) Bewegung erfolgen. Der daraus resultierende Vorteil liegt darin, dass ein hoher Objektdurchsatz erreicht wird und gleichzeitig ein Objekt bzw. Objektbereich unter unterschiedlichen Beleuchtungssituationen beleuchtet werden kann. Insofern sind vorteilhafterweise keine Spezialkameras erforderlich, so dass bestehende oder vorhandene Industriekameras einfach verwendet werden können. Dies senkt den Kostenumfang für ein solches System erheblich. Ferner ist auch nur eine Kamera nötig, was auch die Kopplung zu einem PC und einer Auswertung vereinfacht. Weiterhin kann der Transport kontinuierlich erfolgen und muss nicht angehalten werden. Die heute verfügbaren hohen Bildwiederholraten der Kameras und schnell schaltbare Beleuchtungen werden ausgenutzt so dass die um den Faktor n (etwa der Anzahl der Lichtquellen) höhere Aufnahmefrequenz in der Praxis keine Begrenzung darstellt.
  • Entsprechend weiteren Ausführungsbeispielen ist die Ausleuchtung selbstverständlich nicht auf zwei unterschiedliche Lichtarten (Frequenzen/Modalitäten) begrenzt, so dass auch ein dritter Teil des Erfassungsbereichs mit einem dritten Licht zu einem dritten Zeitpunkt verwendet werden kann. Die optische Auswertevorrichtung ist in ihrer Ausprägungen frei konfigurierbar, so dass unterschiedliche Eigenschaften wie Blenden oder Polarisation über Auswahl von Lichtquellen (ggf. mit Filter) einfach erreicht werden können und variabel geschaltet werden können. Dies ermöglicht auch einen schnellen Austausch oder eine Erweiterung des Systems. Entsprechende LEDs mit verschiedenen Wellenlängen sind heute problemlos verfügbar und auch die Kombination von LEDs mit Filtern ist für schmalbandige Beleuchtung denkbar. Wenn man von LEDs als erste und zweite Lichtquelle ausgeht sind auch noch weitere Vorteile realisierbar. Durch die unterschiedliche Effizienz der LEDs verschiedener Wellenlängen kann es zu einer Einschränkung der Dynamik kommen. Bauartbedingt erzeugen nicht alle LEDs in Kombination mit den Kameras die gleiche Aussteuerung im Bild. Dies kann sehr leicht und kostengünstig durch eine unterschiedliche Belichtungszeit pro Kanal der Beleuchtung in der Kamera realisiert werden. In konventionellen Systemen wäre eine Anpassung der Lichtquelle erforderlich - hier ist der Abgleich über Software möglich. Ist eine LED in der Ausleuchtung zu schwach, entstünde bei einer langen Belichtungszeit eine Bewegungsunschärfe. Über mehrere sequentielle kurze Aufnahmen bei bewegtem Objekt, die miteinander verrechnet werden, ist - entsprechend weiteren Ausführungsbeispielen eine Verbesserung des SNR möglich.
  • Entsprechend Ausführungsbeispielen ist die Kamera als Flächenkamera ausgebildet, um die mehreren Teile des Erfassungsbereichs (Zweidimensionalität) erfassen zu können.
  • Nachfolgend werden die optionalen Bestandteile der zwei unterschiedlichen Varianten erläutert.
  • Variante 1: Wenn man von aktivierbaren und deaktivierbaren Lichtquellen ausgeht, können entsprechend Ausführungsbeispielen folgende Merkmale vorhanden sein. Entsprechend einem Ausführungsbeispiel kann durch folgendes Vorgehen der Durchsatz weiter gesteigert werden. Die zweite Lichtquelle ist ausgebildet, um den ersten Teil des Erfassungsbereichs zumindest in dem zweiten Zeitpunkt mit dem zweiten Licht auszuleuchten, so dass die Kamera in dem zweiten Zeitpunkt einen zweiten Objektbereich des Stück- oder des Schüttguts (oder auch ein zweites Objekt) unter Verwendung des zweiten Lichts in der zweiten Aufnahme erfassen kann. Beispielsweise erfolgt das Erfassen dann, wenn sich der zweite Objektbereich in dem ersten Teil des Erfassungsbereichs befindet. Hierdurch ist es also möglich, dass zu dem zweiten Zeitpunkt zumindest zwei Objektbereiche in den zumindest zwei Teilen des Erfassungsbereichs erfasst werden. Dies erfolgt gleichzeitig, so dass der Objektdurchsatz gesteigert wird. Umgekehrt ist es natürlich auch möglich, dass in dem ersten Zeitpunkt nicht nur der erste Teil, sondern auch der zweite Teil des Erfassungsbereichs ausgeleuchtet wird, so dass ein weiterer Objektbereich (vorauseilender Objektbereich) zu diesem ersten Zeitpunkt in der ersten Aufnahme mit erfasst werden kann. Der Vorteil kommt vor allem im kontinuierlichen Betrieb zum Tragen. Die Aufnahmefrequenz muss dann mindestens das n-fache dessen entsprechen, was für die normale vollständige Erfassung der transportierten Objekte erforderlich ist. N bezeichnet dabei die Anzahl der zu erfassenden Kanäle/Modalitäten.
  • Entsprechend weiteren Ausführungsbeispielen ist dieses Prinzip natürlich auch auf Erfassungsbereiche mit mehr als zwei Teilen übertragbar, so dass also eine dritte Lichtquelle vorhanden ist und ausgebildet ist, um zu einem dritten Zeitpunkt den dritten Teil des Erfassungsbereichs mit einem dritten Licht auszuleuchten, so dass die Kamera in dem dritten Zeitpunkt den ersten Objektbereich des Stückguts oder des Schüttguts unter Verwendung des dritten Lichts in der dritten Aufnahme erfassen kann. Gleichzeitig kann der zweite Teil des Erfassungsbereichs zumindest in dem dritten Zeitpunkt mit einem dritten Licht ausgeleuchtet werden, so dass die Kamera in dem dritten Zeitpunkt den zweiten Objektbereich des Stückguts oder des Schüttguts unter Verwendung des dritten Lichts in der dritten Aufnahme erfassen kann. Gleichzeitig könnte auch der erste Teil mit dem dritten Licht ausgeleuchtet werden, so dass ein dritter Objektbereich zu dem dritten Zeitpunkt in dem ersten Teil in der dritten Aufnahme erfasst wird.
  • Nachfolgend werden entsprechend Ausführungsbeispielen optionale Aspekte der Variante 2 erläutert: Hier erfolgt eine lokale Trennung der Beleuchtung des Lichts für die unterschiedlichen Teile des Erfassungsbereichs. Dies kann beispielsweise durch Blenden oder entsprechend Ausführungsbeispielen bevorzugterweise dadurch erfolgen, dass das Licht in Transmission den ersten und zweiten Objektbereich ausleuchtet. Hierbei erfolgt das Ausleuchten dieser zwei Objektbereiche gleichzeitig. Ausgehend von diesem Aufbau kann folgendes Vorgehen abgeleitet werden. Die erste Lichtquelle leuchtet den ersten Teil des Erfassungsbereichs aus, während die zweite Lichtquelle den zweiten Teil des Erfassungsbereichs ausleuchtet, so dass die Kamera in dem ersten Zeitpunkt den ersten und den zweiten Objektbereich des Stück- oder des Schüttguts unter Verwendung des ersten und des zweiten Lichts in der ersten Aufnahme erfassen kann. Durch die resultierende Bewegung wird in dem zweiten Zeitpunkt durch die erste Lichtquelle der erste Teil des Erfassungsbereichs und der zweite Teil des Erfassungsbereichs durch die zweite Lichtquelle derart ausgeleuchtet, dass die Kamera in dem zweiten Zeitpunkt den zweiten und einen dritten Objektbereich des Stückguts oder des Schüttguts unter Verwendung des ersten und des zweiten Lichts in der zweiten Aufnahme erfassen kann. Auch hierdurch ist es vorteilhafterweise möglich, dass in einer Kameraaufnahme mehrere Objektbereiche/Objekte erfasst werden können. Im Unterschied zu der obigen Prozedur umfasst jede Aufnahme zwei oder mehrere Objektbereiche/Objekte, die mit unterschiedlichem Licht ausgeleuchtet sind, während bei der ersten Variante in einer Kameraaufnahme alle Objektbereiche/Objekte immer mit dem gleichen Licht ausgeleuchtet werden.
  • Entsprechend weiterem Ausführungsbeispiel kann natürlich auch eine dritte Lichtquelle für einen dritten Teil des Erfassungsbereichs vorgesehen sein. Wenn man den ersten Zeitpunkt betrachtet, leuchtet die dritte Lichtquelle in dem dritten Teil des Erfassungsbereich einen weiteren Objektbereich (dritten Objektbereich)/Objekt aus, so dass in der ersten Kameraaufnahme, so dass der erste, zweite und dritte Objektbereich/Objekt abgelichtet wird. Wen man den Fokus auf den ersten Objektbereich legt, erfolgt, entsprechend Ausführungsbeispielen zu einem dritten Zeitpunkt die Ausleuchtung des dritten Teils des Erfassungsbereichs derart, dass die Kamera in dem dritten Zeitpunkt den ersten Objektbereich unter der Verwendung des dritten Lichts in einer dritten Aufnahme erfassen kann (wenn sich der erste Objektbereich in dem dritten Teil des Erfassungsbereichs befindet).
  • Wie oben bereits erläutert, unterscheidet sich das erste, zweite, dritte und weitere Licht jeweils voneinander, z. B. im Hinblick auf die verwendete Frequenz oder die entsprechende Modalität. Entsprechend Ausführungsbeispielen kann hierzu jede Lichtquelle mit einem entsprechenden Filter, Farbfilter oder Polfilter gekoppelt sein.
  • Da typischerweise jeder Objektbereich/jedes Objekt als Einzelnes mit den unterschiedlichen Lichtarten beurteilt wird, kann entsprechend weiteren Ausführungsbeispielen eine Kombination der Kameraaufnahmen derart erfolgen, dass die entsprechenden Inhalte zugehörig zu den Objektbereichen (z. B. zugehörig zum ersten Objektbereich) überlagert werden. Hierbei ist es also vorteilhafterweise möglich, dass dann im Resultat ein Datensatz, jeweils für den ersten, zweiten und dritten Objektbereich resultiert, in welchem jeder Objektbereich analysierbar ist. Wenn man davon ausgeht, dass mehr als drei Aufnahmen vorliegen, kann die Kombination entsprechend erfolgen. Beispielsweise ist es möglich, dass die erste und zweite Aufnahme kombiniert wird, um die Inhalte zugehörig zu dem ersten Objektbereich zu überlagern und die zweite und dritte Aufnahme kombiniert wird, um die Inhalte zugehörig zu dem zweiten Objektbereich zu überlagern. Entsprechend Ausführungsbeispielen basieren alle diese Fusions- / Kombinationsarten auf der Verwendung von a priori-Wissen, nämlich unter Kenntnis der bekannten Bewegung des Stück- oder Schüttguts bzw. der zugehörigen Objektbereiche durch den Erfassungsbereich. Typischerweise ist die Bewegung eindimensional und/oder umfasst auch eine kontinuierliche/bekannte Geschwindigkeit, so dass Bildinhalte gut der Bewegung zugeordnet werden können. Die Kenntnis der Bewegung erleichtert die Fusionierung signifikant, da so immer wiederkehrend die gleichen Zuordnungen von Objekt zu Objekt/Objektbereich zu Objektbereich erfolgt. Entsprechend Ausführungsbeispielen wird davon ausgegangen, dass die Kamera eine kontinuierliche Erfassung vornimmt, was insbesondere bei Schüttgut vorteilhaft ist, da so keine Lücken entstehen. Eine geringe unbekannte Variation der Bewegung kann durch zusätzliche Bildverarbeitung und Registrierung der Bilder zueinander ausgeglichen werden.
  • Entsprechend weiteren Ausführungsbeispielen wäre es auch denkbar, dass ein Belichtungsparameter je Aufnahme, eine Belichtungszeit je Aufnahme und/oder eine Anzahl der Belichtungen je Aufnahme in Abhängigkeit von der ersten und zweiten Lichtquelle angepasst werden. Hintergrund hierzu ist, dass Lichtquellen unterschiedliche Farbspektren häufig unterschiedliche Ausleuchtungen ermöglichen, so dass dieser Effekt durch entsprechende Anpassung bei der Belichtung oder Häufigkeit bei der Belichtung kompensiert werden muss.
  • Die oben erläuterte Aufnahmevorrichtung ist bevorzugterweise in Materialsortieranlange oder ähnlichem verwendbar. Hierbei wird die kontinuierliche Bewegung häufig mit einem Fließband erzeugt. Deshalb kann entsprechend Ausführungsbeispielen die optische Aufnahmevorrichtung mit einem Fließband gekoppelt sein, das ausgebildet ist, das Stückgut oder Schüttgut mit der bekannten Bewegung durch den Erfassungsbereich hindurch zu bewegen. Beispielsweise kann der Transport auf einem Förderband, auf einer kreisförmigen Bewegung oder auch im freien Fall von Objekten erfolgen. Alternativ wäre es natürlich auch denkbar, dass andere Bewegungsmittel, wie zum Beispiel ein Roboter oder auch ein Rollenförderer oder auch ein Greifband verwendet wird.
  • Ein weiteres Ausführungsbeispiel bezieht sich auf ein Verfahren mit folgenden Schritten:
    • - Hindurchbewegen von einem Stück- oder Schüttgut mit einer bekannten Bewegung durch einen Erfassungsbereich einer Kamera, der zumindest einen ersten und einen zweiten Teil umfasst, so dass sich ein erster Objektbereich des Stück- oder Schüttguts zu einem ersten Zeitpunkt in einem ersten Teil des Erfassungsbereichs befindet und sich der erste Objektbereich zu einem zweiten Zeitpunkt in einem zweiten Teile des Erfassungsbereich befindet;
    • - Emittieren von unterschiedlichem Licht mittels einer ersten und einer zweiten Lichtquelle auf das sich im Erfassungsbereich bewegende Stück- oder Schüttgut;
    • - Erfassen mittels einer Kamera zumindest des ersten Teils und des zweiten Teils des Erfassungsbereichs in einer ersten und zweiten gemeinsamen Aufnahmen.
  • Entsprechend weiteren Ausführungsbeispielen kann dieses Verfahren natürlich mit einem Computer durchgeführt werden.
  • Weiterbildungen sind in den Unteransprüchen definiert. Ausführungsbeispiele der vorliegenden Erfindung werden anhand der beiliegenden Zeichnungen erläutert. Es zeigen:
    • 1 eine optische Aufnahmevorrichtung in Kombination mit zumindest zwei Lichtquellen gemäß einem ersten Ausführungsbeispiel;
    • 2a - c schematische Darstellungen zur Illustration der Funktionsweise bei der Aufnahme der optischen Aufnahmevorrichtung aus 1 gemäß Ausführungsbeispielen;
    • 3 eine schematische Darstellung zur Illustration der Fusionierung ausgehend von der Aufnahme, wie sie im Zusammenhang mit 2a - c erläutert wurde gemäß weiteren Ausführungsbeispielen;
    • 4 eine schematische Darstellung einer Aufnahmevorrichtung mit zumindest zwei Lichtquellen in der Durchlichtbeleuchtung gemäß einem zweiten Ausführungsbeispiel;
    • 5 eine schematische Darstellung einer möglichen Implementierung der Lichtquellen gemäß dem Ausführungsbeispiel aus 4; und
    • 6a, 6b schematische Darstellungen zur Illustration des Aufnahmekonzepts bei dem Ausführungsbeispiel aus 4.
  • Bevor nachfolgend Ausführungsbeispiele der vorliegenden Erfindung anhand der beiliegenden Zeichnung erläutert werden, sei darauf hingewiesen, dass gleichwirkende Elemente und Strukturen mit gleichen Bezugszeichen versehen sind, so dass die Beschreibung derer aufeinander anwendbar bzw. austauschbar ist.
  • 1 zeigt eine Aufnahmevorrichtung 10 mit einer Kamera 12, die einen Erfassungsbereich 12e aufweist. Die Kamera 12 und damit der Erfassungsbereich ist auf einen lokalen Bereich 14o ausgerichtet, in welchem sich ein oder mehrere Elemente 14a bis 14n befinden. Diese hier als diskrete Objekte (Stückgüter) dargestellten Objekte 14a bis 14n repräsentieren allgemein Objektbereiche. Wenn man z.B. von Schüttgut ausgeht, bilden alle Objektbereiche 14a bis 14n zusammen das (in Reihe aufgeschüttete) Schüttgut.
  • Des Weiteren umfasst die Aufnahmevorrichtung 10 zumindest zwei Beleuchtungsvorrichtungen 16a, 16b bis 16n. Diese können zum Beispiel als Einzellampen LED-Array mit einem bestimmten schmalbandigen Farbspektrum realisiert sein oder alternativ mit einem Filter, hier exemplarisch anhand des Filters 17a illustriert, kombiniert sein. Der Filter sitzt dabei vor der Lichtquelle. Da es unterschiedliche Möglichkeiten gibt, ist dieser Filter 17a selbstverständlich nur optional.
  • Zusätzlich weist die Aufnahmevorrichtung eine Steuerung 20 auf, die einerseits die Kamera 12 und andererseits die Beleuchtungselemente 16a bis 16n steuern kann.
  • Der Erfassungsbereich 12e ist in unterschiedliche Teile, hier 12e1 bis 12e3 untergliedert, die zusammen den Gesamterfassungsbereich 12e formen. Die Objekte 14a bis 14n bewegen sich durch den Erfassungsbereich 12e durch, wie hier anhand des Pfeils B illustriert ist. Infolgedessen befindet sich beispielsweise zu einem Zeitpunkt t1 das Objekt 14a in dem ersten Erfassungsbereichsteil 12e1, während sich das Objekt 14b in dem zweiten Erfassungsbereichsteil 12e2 und sich das Objekt 14c in dem dritten Erfassungsbereichsteil 12e3 befindet.
  • Die Steuerung 20 ist dazu ausgebildet, um die Beleuchtungsvorrichtungen 16a bis 16n derart zu steuern, dass sichergestellt wird, dass zumindest in dem ersten Zeitpunkt, zu welchem sich das Objekt 14a in dem ersten Erfassungsbereichsteil 12e1 befindet, nur mit dem Licht der ersten Beleuchtungsvorrichtung 16a beleuchtet wird. Zu späteren Zeitpunkten, zu welchen sich dann auch die Objekte entsprechend fortbewegt haben, werden die anderen Beleuchtungsvorrichtung 16b und 16n aktiviert, während die andere Beleuchtungsvorrichtung 16a deaktiviert wird.
  • Diese Prozedur ist im Detail Bezug nehmend auf 2a bis 2c erläutert. Bevor auf das genaue Vorgehen eingegangen wird, wird jedoch noch einmal erwähnt, dass die Kamera 12 eine konventionelle Graustufen-Einzel-Kamera ohne Filter sein kann, die kostengünstig ist, was die gesamte Aufnahmevorrichtung 10 hinsichtlich ihrer Gestehungskosten reduziert. Typischerweise handelt es sich bei der Kamera 12 um eine Flächenkamera, so dass die Erfassungsobjektbereichsteile erfasst werden können. Ausgehend von der Flächenkamera ist also ein zweidimensionaler Bereich, z. B. ein rechteckiges Drittel der Erfassungsfläche in dem ersten Erfassungsbereichsteil 12e1 zugeordnet, während das zweite Drittel dem zweiten Erfassungsbereichsteil 12e2 zugeordnet ist und das dritte Drittel dem dritten Erfassungsbereichsteil 12e3. An dieser Stelle sei angemerkt, dass bei diesem Ausführungsbeispiel von drei Erfassungsbereichen 12e1 bis 12e3 und drei Beleuchtungskörpern 16a, 16b und 16n ausgegangen wird, wobei dieses hier nur ein Beispiel ist und im Prinzip zwei Erfassungsbereiche und zwei Beleuchtungskörper 16a und 16b ausreichend sind. Natürlich können es aber auch mehr als die drei dargestellten Erfassungsbereichsteile 12e1 bis 12e3 und Beleuchtungskörper 16a, 16b, 16c sein. Drei sind deshalb prädestiniert, weil so RGB mit einer einfachen Graustufenkamera realisiert werden kann.
  • Hieraus ergeben sich dann folgende weitere Vorteile. Eine Aufrüstung der Kamera (schneller, oder mehr Auflösung) ist nur durch Tausch der Kamera möglich - es kann einfach eine bessere Graustufen Standardkamera eingesetzt werden. Ferner ist die Aufnahme von bewegten Objekten möglich, sodass es nicht zum Anhalten des Förderbands kommt. Dies ist ein erheblicher Kostenvorteil im laufenden Prozess und ermöglicht schnellere Prüfung. Bei der verwendeten Kamera kann zusätzlich über eine ROI nur eine Ausschnitt ausgewertet werden, was die Datenmenge verringert. Wie im Zusammenhang mit 3 gezeigt werden wird, ist die Registrierung vergleichsweise einfach, da häufig nur eine relativ gut bekannte eindimeinsionale Bewegung kompensiert werden muss. Der Rechenaufwand hält sich in Grenzen.
  • 2a zeigt die Aufnahmevorrichtung 10 zu einem Zeitpunkt t1, bei welchem sich das Objekt 14a in dem Erfassungsbereich 12e1 befindet und der Beleuchtungskörper 16a aktiviert ist. Wie dargestellt, sind die Beleuchtungskörper 16b und 16n deaktiviert. Die Kamera erfasst zu diesem Zeitpunkt t1 den Objektbereich 14a, sowie die Objektbereiche 14b und 14c, die sich in den weiteren Erfassungsbereichsteilen 12e2 und 12e3 befinden.
  • Die Darstellung 2b illustriert die Aufnahmevorrichtung 10 zu einem Zeitpunkt t2, der nach dem Zeitpunkt t1 liegt, wobei zwischen dem ersten und dem zweiten Zeitpunkt t1 und t2 sich die in Reihe aufgereihten Objekte 14a bis 14n fortbewegt haben, so dass nun das erste Objekt 14a in dem Erfassungsbereich Teil 12e2 liegt. Das nächste Objekt 14n ist in den Erfassungsbereichsteil 12e1 weiter gerückt, während das Objekt 14b in dem Erfassungsbereich Teil 12e3 sich befindet. Das Objekt 14c ist aus dem Erfassungsbereich hinausgerutscht. Zu dem Zeitpunkt t2 ist die Lichtquelle 16b aktiviert, während die Lichtquellen 16a und 16n deaktiviert sind.
  • 2c stellt die Aufnahmevorrichtung 10 zu dem Zeitpunkt t3 dar, der nach dem Zeitpunkt t2 liegt. Hier ist wiederum das Stückgut/Schüttgut 14 weiter gerückt, so dass nun das Objekt 14a sich in dem Erfassungsbereich Teil 12e3 befindet. Der Vollständigkeit halber sei erwähnt, dass das Objekt 14n sich nun dem Erfassungsbereich Teil 12e2 befindet, während der Erfassungsbereichsteil 12e1 beispielsweise leer ist. Zu diesem Zeitpunkt t3 ist das Licht 16n aktiviert, während die Lichter 16a bis 16b deaktiviert sind. Bevorzugterweise sind, wenn man von einem kontinuierlichen Vorschub der Objekte 14a bis 14n ausgeht, die Zeitpunkte t1 bis t3 gleich weit voneinander beabstandet, z. B. 10 Millisekunden.
  • Durch die Aktivierung und Deaktivierung der Beleuchtungsvorrichtungen 16a bis 16n wird realisiert, dass zu dem Zeitpunkt t1 die Objekte 14a bis 14c mit dem Licht der Beleuchtungsvorrichtung 16a beleuchtet werden, während zu dem Zeitpunkt t2 die Objekte 14n, 14a und 14b mit dem Licht der Beleuchtungsvorrichtung 16b beleuchtet werden. Mit dem nachfolgenden Zeitpunkt t3 wird dann das Objekt 14n und 14a mit dem Licht des Beleuchtungskörpers 16n beleuchtet. Wenn man nun nur auf das Objekt 14a achtet, wird also realisiert, dass in den drei aufeinanderfolgenden Zeitpunkten t1 bis t3 das Objekt 14a mit drei unterschiedlichen Lichtern der Beleuchtungskörper 16a bis 16n beleuchtet wird, wobei das Objekt 14a sich jeweils in einem anderen Erfassungsbereichsteil 12e1 bis 12e3 befindet. Zusammengefasst kann dieses Verfahren also dadurch beschrieben werden, dass während der Bewegung der Objekte 14a bis 14n mehrere Aufnahmen, wie zum Beispiel drei Aufnahmen mit jeweils einer der Lichtquellen angefertigt wird. Hierzu wird in jedem Schritt, d. h. in zeitlich aufeinander folgenden Zeitpunkten immer eine Lichtquelle aktiviert, so dass dann im Resultat jedes Objekt 14a bis 14n mit den drei oder den vorhandenen Lichtquellen beleuchtet wird. So werden also alle Objekte nacheinander in allen Kanälen erfasst. Infolge der Bewegung der Objekte sind allerdings die Objekte nicht deckungsgleich erfasst, was mit der nachfolgenden Verrechnung korrigiert wird.
  • Diese Verrechnung wird durch die Fusionsvorrichtung durchgeführt. Die Fusion ist in 3 dargestellt, wobei als Inputparameter die Aufnahmen 12a1, 12a2, 12a3 und 12a4 vorliegen, die zu unterschiedlichen Zeitpunkten t1 bis t4 mit der einen Kamera 12 erhalten wurden. Die erste Aufnahme 12a ist beispielsweise mit dem Licht R, die zweite Aufnahme 12a2 mit dem zweiten Licht G und die dritte Aufnahme 12a3 mit dem dritten Licht unter Verwendung der drei unterschiedlichen Lichtquellen 16a, 16b und 16n aufgenommen. Die vierte Aufnahme ist dann wiederum unter Ausleuchtung mit dem ersten Licht R der ersten Lichtquelle 16a erhalten. Die Objekte 14a, 14b und 14n sind exemplarisch in den Aufnahmen 12a1 bis 12a4 illustriert. Wie zu erkennen ist, wandern die Objekte 12a bis 12n von Erfassungsbereich zu Erfassungsbereich, der hier nicht separat markiert ist.
  • Durch die Bewegung des Bands von einem Schritt zum nächsten passen die aufgenommenen Bilder 12a1 bis 12a4 nicht mehr direkt übereinander. Ausgehend von den Aufnahmen 12a1 bis 12a4 können beispielsweise zwei Fusionen der diskreten Objekte 14a und 14n durchgeführt werden, wie hier illustriert ist. Für die Fusion werden die Aufnahmen 12a1 bis 12a3 als Inputparameter genommen, während für die Fusion 14nf die Bilder 12a2 bis 14a4 benötigt werden. Im Detail: Die aufgenommenen Bilddaten 12a1 bis 12a3 werden zueinander registriert und zu einem Bild 14af fusioniert. Nach den ersten 3 Aufnahmen 12a1 bis 12a3 ist nur 1/3 der aufgenommenen Fläche vollständig erfasst, so dass in diesem Beispiel nach 3 Aufnahmen nur für das eine markierte Objekt 14a eine vollständige Aufnahme vorliegt.
  • Erfolgt nun eine weitere Aufnahme 12a4 (z.B. wieder der Kanal Blau in Schritt 4), dann können die Aufnahmen 12a1 bis 12a3 aus Schritt 2 und 3 verwendet werden und eine vollständige Aufnahme für das nächste Objekt 14n rekonstruiert werden (vgl. 14nf). Ausgehend hiervon ist es vorteilhafterweise zu erkennen, dass während einer Aufnahme, z. B. der Aufnahme 12a2 zu dem Zeitpunkt t2 zwei Objekte in zwei unterschiedlichen Erfassungsbereichsteilen aufgenommen werden, die für die Fusion zweier unterschiedlicher Objekte 14a und 14n dann Verwendung finden. Dieses Vorgehen steigert den Objektdurchsatz erheblich und ermöglicht eine vollständige Erfassung aller transportierten Objekte.
  • Entsprechend Ausführungsbeispielen ist die Geschwindigkeit der Aufnahme jetzt höher und muss so angelegt sein, dass jedes der Objekte 14a bis 14n mit jeder der Beleuchtungen einmal aufgenommen wird. Für 3 Lichtquellen 16a bis 16n ist damit mindestens eine 3fache Bildwiederholrate erforderlich, im Vergleich zu einem konventionellen System mit einer Flächenkamera 12. Die Anordnung arbeitet jedoch genauso für nur 2 oder mehr als 10 Kanäle. Die Anzahl der aufgenommenen Kanäle hängt von der Anforderung der Anwendung ab und ist einfach über die Anzahl und Art der Lichtquellen definierbar. Aus der Bandgeschwindigkeit ergibt sich damit die Anforderung an die Bildwiederholrate der Kamera 12, die heute auch in Standardsystemen bereits ausreichend hoch ist. Eine einfache Anpassung zur Laufzeit ist möglich (Beispielsweise bei Sortimentswechsel).
  • Bei obigem Ausführungsbeispiel wurde davon ausgegangen, dass Einzelobjekte 14a bis 14n erfasst werden. Diese Einzelobjekte könne natürlich Objektbereiche repräsentieren, wenn man von Schüttgut ausgeht. Unabhängig davon, ob man von Stückgut oder Schüttgut ausgeht, wird mit jedem weiteren Bild ein weiteres Stück der vollständigen lückenlosen Aufnahme aller Objekte 14a bis 14n möglich. Für einen kontinuierlichen Betrieb entsteht damit eine fortlaufende Abbildung der sich bewegenden Objekte, z. B. auf dem Förderband.
  • Eine Ausrichtung der Objekte zum Auslösen der Kameras ist nicht erforderlich. Die Kamera und Beleuchtung werden gemeinsam gesteuert, eine Triggerung oder Erkennung an den Objekten ist nicht erforderlich. Ebenso ist keine Kopplung an die Steuerung des Förderbands nötig, so lange die Aufnahmen schnell genug angefertigt werden. Eine variable Bandgeschwindigkeit ist problemlos möglich - bei langsamer Förderung werden lediglich die Objekte mehrfach überlappend erfasst. Dies kann in der Software erkannt werden und sogar zur Regelung der Aufnahmegeschwindigkeit herangezogen werden.
  • Entsprechend Ausführungsbeispielen arbeitet das Verfahren zunächst nur für flache Objekte, die ihre 20 Abbildung durch die Position auf dem Band nicht ändern. Dies gilt auch für für 3-dimensionale Objekte durch den Einsatz von telezentrischen Objektive oder einer Platzierung der Kamera in genügend großem Abstand zu den Objekten.
  • Bezug nehmend auf 4 wird das gleiche Konzept mit einer etwas anderen Implementierung erläutert. 4 zeigt eine Aufnahmevorrichtung 10` mit einer Kamera 12, die wiederum hier drei Erfassungsbereichsteile 12e1 bis 12e3 erfasst.
  • Zusätzlich zu der Kamera 12 sind auch Lichtquellen 16a' bis 16n' vorgesehen. Diese durchleuchten die Objekte 14a bis 14n derart, dass in dem Erfassungsbereich 12e1 bevorzugterweise nur Licht von Lichtquelle 16a' erhalten wird, in dem Erfassungsbereich Teil 12e2 bevorzugterweise nur Licht der Lichtquelle 16b`, während im Erfassungsbereich 12e3 nur Licht der Lichtquelle 16n` Verwendung findet. Somit ist es also möglich mit einer Aufnahme drei Objekte, hier die Objekte 14a bis 14c, mit drei unterschiedlichen Lichten in den drei unterschiedlichen Erfassungsbereichsteilen 12e1 bis 12e3 zu erfassen.
  • Dieses Vorgehen ist anhand der 6a und 6b illustriert, wobei die 6a den Zeitpunkt t1 und die 6b den Zeitpunkt t2 zeigt. 6a stellt die Aufnahmevorrichtung 10` zum Zeitpunkt t1 dar, an welchem sich das Objekt 14a in dem Erfassungsbereich 12e1 befindet. Zu dem Zeitpunkt t2 (vgl. 6b) befindet sich das Objekt 14a in dem Erfassungsbereich 12e2. Hier ist dann auch das Objekt 14b von dem Erfassungsbereich 12e1 (vgl. 6a) zu dem Erfassungsbereich 12e3 vorgerückt, während das Objekt 14n in den Erfassungsbereich 12e1 (vgl. 6b) nachgerückt ist.
  • Das Resultat ist also dasselbe, wie es mit der Aufnahmevorrichtung 10 (vgl. 2a bis 2c) erhalten wird, nämlich, dass die unterschiedlichen Aufnahmen ein und dasselbe Objekt, z. B. 14a mit unterschiedlichen Beleuchtungen an unterschiedlichen Positionen, d. h. in unterschiedlichen Erfassungsbereichsteilen 12e1 bis 12e3 beleuchtet wird, so dass eine nachherige Fusionierung möglich ist.
  • Bei dem hier dargestellten Durchlichtfall ist es wesentlich einfacher klar abgegrenzte Bereiche für unterschiedliche Kanäle zu erzeugen. Lichtquellen belegen im entsprechenden Beispiel jeweils nur ein Drittel der aufgenommenen Bildfläche (Erfassungsgereich) und können dauerhaft aktiviert sein. Hierbei spart man sich die Ansteuerung der Lichtquellen 16a' bis 16n`. Das jeweilige Objekt 14a bis 14n wird dann über die jeweilige Lichtquelle 16a' bis 16n' mit entsprechendem Licht durchstrahlt und aufgenommen. Im Verlauf sind damit alle Beleuchtungen für jedes Objekt 14a bis 14n aktiv. Der kleine Rand zwischen den Lichtquellen erfordert eine geringfügigere schnelle Aufnahme mit beispielweise > 3facher Bildwiederholrate für den Fall von drei Lichtquellen.
  • 5 zeigt eine mögliche Implementierung der drei Lichtquellen 16` bis 16n`, die durch ein Beleuchtungsmittel 16m in Kombination mit drei Filtern 16f1 bis 16f3 realisiert ist. Ein derartiger einfacher Aufbau ist deshalb möglich, weil keine separate Ansteuerung der einzelnen Lichtquellen 16a' bis 16n' notwendig ist. An dieser Stelle sei angemerkt, dass entsprechend weiteren Ausführungsbeispielen eine Registrierung/Fusion nicht zwingend bildbasiert nach der Aufnahme erfolgen muss - es kann auch eine Bildauswertung auf jedem der Einzelbilder erfolgen (falsche Teile bereits durch Sehwellwerte in jedem der Kanäle erkennen). Um diese Entscheidung dann beispielsweise an einen Aktor weiterzureichen ist es dann aber trotzdem nötig die gewonnenen Informationen zu fusionieren.
  • An dieser Stelle sei angemerkt, dass die Bewegung nicht gleichmäßig auf dem Fließband erfolgen muss - es ist ausreichend eine definierte Bewegung zu haben und diese zu kennen. Beispielsweise sind nicht-lineare Bewegung (z.B. freier Fall oder auf einem Drehteller) ebenfalls möglich.
  • Bei obigen Ausführungsbeispielen wurde von der Sortierung, z. B. von Schüttgut ausgegangen. Weitere Anwendungsgebiete sind die industrielle Prüfung von Objekten, beispielsweise Materialprüfung.
  • Ein weiteres Ausführungsbeispiel bezieht sich auf ein Aufnahmeverfahren. Dieses Aufnahmeverfahren umfasst die zentralen Schritte des Bewegens des Stück- oder Schüttguts 14 durch den Erfassungsbereich mit dem zumindest ersten und zweiten Teil und des Emittierens von unterschiedlichem Licht mittels einer Lichtquelle auf das sich im Erfassungsbereich bewegende Stück- oder Schüttgut. In einem dritten Schritt werden dann mit einer Kamera zumindest der erste Teil und der zweite Teil des Erfassungsbereichs in einer ersten und zweiten gemeinsamen Aufnahme erfasst. Diese Aufnahmen werden zu unterschiedlichen Zeitpunkten genommen.
  • Alle Ausführungsbeispiele haben gemein, dass der erste Teil des Erfassungsbereichs zumindest in dem ersten Zeitpunkt mit einem ersten Licht ausgeleuchtet wird, so dass in der ersten Aufnahme in dem ersten Zeitpunkt der erste Objektbereich unter Verwendung des ersten Lichts erfasst werden kann. Das Ausleuchten des zweiten Teils des Erfassungsbereichs erfolgt zumindest in dem zweiten Zeitpunkt mit einem zweiten Licht, so dass in der zweiten Aufnahme in dem zweiten Zeitpunkt der zweite Objektbereich unter Verwendung des zweiten Lichts erfasst werden kann.
  • Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch einen Hardware-Apparat (oder unter Verwendung eines Hardware-Apparats), wie zum Beispiel einen Mikroprozessor, einen programmierbaren Computer oder eine elektronische Schaltung ausgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigsten Verfahrensschritte durch einen solchen Apparat ausgeführt werden.
  • Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein.
  • Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
  • Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahingehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft.
  • Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.
  • Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.
  • Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.
  • Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist. Der Datenträger, das digitale Speichermedium oder das computerlesbare Medium sind typischerweise gegenständlich und/oder nicht-vergänglich bzw. nicht-vorübergehend.
  • Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahingehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
  • Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahingehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.
  • Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
  • Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vorrichtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen.
  • Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
  • Die hierin beschriebenen Vorrichtungen können beispielsweise unter Verwendung eines Hardware-Apparats, oder unter Verwendung eines Computers, oder unter Verwendung einer Kombination eines Hardware-Apparats und eines Computers implementiert werden.
  • Die hierin beschriebenen Vorrichtungen, oder jedwede Komponenten der hierin beschriebenen Vorrichtungen können zumindest teilweise in Hardware und/oder in Software (Computerprogramm) implementiert sein.
  • Die hierin beschriebenen Verfahren können beispielsweise unter Verwendung eines Hardware-Apparats, oder unter Verwendung eines Computers, oder unter Verwendung einer Kombination eines Hardware-Apparats und eines Computers implementiert werden.
  • Die hierin beschriebenen Verfahren, oder jedwede Komponenten der hierin beschriebenen Verfahren können zumindest teilweise durch Hardware und/oder durch Software ausgeführt werden.
  • Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.

Claims (18)

  1. Optische Aufnahmevorrichtung (10, 10'), mit folgenden Merkmalen: einer Kamera (12) zur Aufnahme von Stück- oder Schüttgut (14, 14a-14n), das mit einer bekannten Bewegung durch einen Erfassungsbereich (12e) der Kamera (12) hindurchbewegt wird, wobei der Erfassungsbereich (12e) zumindest einen ersten und einen zweiten Teil umfasst; zumindest einer ersten und einerzweiten Lichtquelle (16a, 16a', 16b, 16b`), die ausgebildet sind, um unterschiedliches Licht auf das sich im Erfassungsbereich (12e) bewegende Stück- oder Schüttgut (14, 14a-14n) zu emittieren; wobei sich ein erster Objektbereich (14a) des Stück- oder Schüttguts (14, 14a-14n) zu einem ersten Zeitpunkt (t1) in dem ersten Teil des Erfassungsbereichs (12e1) befindet und sich der erste Objektbereich (14a) zu einem zweiten Zeitpunkt in dem zweiten Teil des Erfassungsbereichs (12e2) befindet; wobei die erste Lichtquelle (16a, 16a') ausgebildet ist, um den ersten Teil des Erfassungsbereichs (12e1) zumindest in dem ersten Zeitpunkt (t1) mit einem ersten Licht auszuleuchten, so dass die Kamera (12) in dem ersten Zeitpunkt (t1) den ersten Objektbereich (14a) unter Verwendung des ersten Lichts in einer ersten Aufnahme erfassen kann, wobei die zweite Lichtquelle (16b, 16b') ausgebildet ist, um den zweiten Teil des Erfassungsbereichs (12e2) zumindest in dem zweiten Zeitpunkt mit einem zweiten Licht auszuleuchten, so dass die Kamera (12) in dem zweiten Zeitpunkt den ersten Objektbereich unter Verwendung des zweiten Lichts in einer zweiten Aufnahme erfassen kann; wobei die erste Lichtquelle (16a, 16a') zu dem ersten Zeitpunkt (t1) aktiviert ist und zu dem zweiten Zeitpunkt deaktiviert ist; und/oder wobei die zweite Lichtquelle (16b, 16b') zu dem zweiten Zeitpunkt aktiviert ist und zu dem ersten Zeitpunkt (t1) deaktiviert ist.
  2. Optische Aufnahmevorrichtung (10, 10') gemäß einem der vorhergehenden Ansprüche, wobei die zweite Lichtquelle (16b, 16b') ausgebildet ist, um den ersten Teil des Erfassungsbereichs (12e1) zumindest in dem zweiten Zeitpunkt (t2) mit dem zweiten Licht auszuleuchten, so dass die Kamera (12) in dem zweiten Zeitpunkt (t2) einen zweiten Objektbereich (14b) des Stück- oder des Schüttguts (14, 14a-14n) unter Verwendung des zweiten Lichts in der zweiten Aufnahme erfassen kann; oder wobei die zweite Lichtquelle (16b, 16b') ausgebildet ist, um den ersten Teil des Erfassungsbereichs (12e1) zumindest in dem zweiten Zeitpunkt (t2) mit dem zweiten Licht auszuleuchten, so dass die Kamera (12) in dem zweiten Zeitpunkt (t2) einen zweiten Objektbereich (14b) des Stück- oder des Schüttguts (14, 14a-14n) unter Verwendung des zweiten Lichts in der zweiten Aufnahme erfassen kann, wenn sich der zweite Objektbereich (14b) in dem ersten Teil des Erfassungsbereichs (12e1) befindet.
  3. Optische Aufnahmevorrichtung gemäß einem der vorherigen Ansprüche, wobei die erste Lichtquelle (16a, 16a') ausgebildet ist, um den zweiten Teil des Erfassungsbereichs (12e2) zumindest in einem dritten Zeitpunkt (t3) mit dem ersten Licht auszuleuchten, so dass die Kamera (12) in dem dritten Zeitpunkt (t3) den zweiten Objektbereich (14b) unter Verwendung des ersten Lichts in einer dritten Aufnahme erfassen kann; oder wobei die erste Lichtquelle (16a, 16a') ausgebildet ist, um den zweiten Teil des Erfassungsbereichs (12e2) zumindest in einem dritten Zeitpunkt (t3) mit dem ersten Licht auszuleuchten, so dass die Kamera (12) in dem dritten Zeitpunkt (t3) den zweiten Objektbereich (14b) unter Verwendung des ersten Lichts in einer dritten Aufnahme erfassen kann, wenn der zweite Objektbereich (14b) sich in dem zweiten Teil des Erfassungsbereichs (12e2) befindet.
  4. Optische Aufnahmevorrichtung (10, 10') gemäß einem der vorherigen Ansprüche, wobei die optische Aufnahmevorrichtung eine dritte Lichtquelle umfasst; wobei die dritte Lichtquelle ausgebildet ist, um den zweiten Teil des Erfassungsbereichs (12e2) zumindest in dem dritten Zeitpunkt (t3) mit einem dritten Licht auszuleuchten, so dass die Kamera (12) in dem dritten Zeitpunkt (t3) einen zweiten Objektbereich (14b) des Stück- oder des Schüttguts (14, 14a-14n) unter Verwendung des dritten Lichts in der dritten Aufnahme erfassen kann; oder wobei die dritte Lichtquelle ausgebildet ist, um den zweiten Teil des Erfassungsbereichs (12e2) zumindest in einem dritten Zeitpunkt (t3) mit einem dritten Licht auszuleuchten, so dass die Kamera (12) in dem dritten Zeitpunkt (t3) einen zweiten Objektbereich (14b) des Stück- oder des Schüttguts (14, 14a-14n) unter Verwendung des dritten Lichts in der dritten Aufnahme erfassen kann, wenn sich der zweite Objektbereich (14b) in dem zweiten Teil des Erfassungsbereichs (12e2) befindet.
  5. Optische Aufnahmevorrichtung (10, 10') gemäß Anspruch 1, wobei die erste Lichtquelle (16a, 16a') den ersten Teil des Erfassungsbereichs (12e1) und nicht den zweiten Teil des Erfassungsbereichs (12e2) beleuchtet und die zweite Lichtquelle (16b, 16b') den zweiten Teil des Erfassungsbereichs (12e2) und nicht den ersten Teil des Erfassungsbereichs (12e1) beleuchtet.
  6. Optische Aufnahmevorrichtung (10, 10') gemäß Anspruch 5, wobei die erste Lichtquelle (16a, 16a') und die zweite Lichtquelle (16b, 16b') ausgebildet sind, um den ersten und zweiten Objektbereich (14b) in Transmission zu beleuchten.
  7. Optische Aufnahmevorrichtung (10, 10') gemäß Anspruch 5 oder 6, wobei die erste Lichtquelle (16a, 16a') den ersten Teil des Erfassungsbereichs (12e1) und die zweite Lichtquelle (16b, 16b') den zweiten Teil des Erfassungsbereichs (12e2) in dem ersten Zeitpunkt (t1) ausleuchtet, so dass die Kamera (12) in dem ersten Zeitpunkt (t1) den ersten und einen zweiten Objektbereich (14b) des Stück- oder des Schüttguts (14, 14a-14n) unter Verwendung des ersten und zweiten Lichts in der ersten Aufnahme erfassen kann; und wobei die erste Lichtquelle (16a, 16a') den ersten Teil des Erfassungsbereichs (12e1) und die zweite Lichtquelle (16b, 16b') den zweiten Teil des Erfassungsbereichs (12e2) in dem zweiten Zeitpunkt (t2) ausleuchtet, so dass die Kamera (12) in dem zweiten Zeitpunkt (t2) den zweiten und einen dritten Objektbereich des Stück- oder des Schüttguts (14, 14a-14n) unter Verwendung des ersten und zweiten Lichts in der zweiten Aufnahme erfassen kann.
  8. Optische Aufnahmevorrichtung gemäß einem der vorherigen Ansprüche, wobei die optische Aufnahmevorrichtung eine dritte Lichtquelle umfasst; wobei die dritte Lichtquelle ausgebildet ist, um einen dritten Teil des Erfassungsbereichs (12e3) zumindest in einem dritten Zeitpunkt (t3) mit einem dritten Licht auszuleuchten, so dass die Kamera (12) in dem dritten Zeitpunkt (t3) den ersten Objektbereich (14a) unter Verwendung des dritten Lichts in einer dritten Aufnahme erfassen kann; oder wobei die dritte Lichtquelle ausgebildet ist, um einen dritten Teil des Erfassungsbereichs (12e3) zumindest in einem dritten Zeitpunkt (t3) mit einem dritten Licht auszuleuchten, so dass die Kamera (12) in dem dritten Zeitpunkt (t3) den ersten Teil des Erfassungsbereichs (12e1) unter Verwendung des dritten Lichts in einer dritten Aufnahme erfassen kann, wenn sich der erste Objektbereich (14a) in dem dritten Teil des Erfassungsbereichs (12e3) befindet.
  9. Optische Aufnahmevorrichtung (10, 10') gemäß einem der vorherigen Ansprüche, wobei die erste Lichtquelle (16a, 16a') einen ersten Filter, Farbfilter oder Polfilter aufweist und wobei die zweite Lichtquelle (16b, 16b') einen zweiten Filter, Farbfilter oder Polfilter aufweist; und/oder wobei sich die Lichtquellen bezüglich ihrer emitierenten Wellenlänge und/oder Modalität unterscheiden.
  10. Optische Aufnahmevorrichtung (10, 10') gemäß einem der vorherigen Ansprüche, die einen Prozessor aufweist, der ausgebildet ist, um die erste Aufnahme und die zweite Aufnahme derart miteinander zu kombinieren, so dass der Inhalt zugehörig zu dem ersten Objektbereich (14a) überlagert ist.
  11. Optische Aufnahmevorrichtung (10, 10') gemäß einem der Ansprüche 3 bis 4, die einen Prozessor aufweist, der ausgebildet ist, um die erste und zweite Aufnahme zu kombinieren, so dass der Inhalt zugehörig zu dem ersten Objektbereich (14a) überlagert ist, und die ausgebildet ist, um die zweite und dritte Aufnahme so miteinander zu kombinieren, so dass der Inhalt zugehörig zu dem zweiten Objektbereich (14b) in Deckung ist.
  12. Optische Aufnahmevorrichtung (10, 10') gemäß Anspruch 10 oder 11, wobei das Kombinieren unter der Annahme erfolgt, dass der erste Objektbereich (14a) eine eindimensionale Bewegung zwischen dem ersten und dem zweiten Zeitpunkt (t2) erfährt.
  13. Optische Aufnahmevorrichtung (10, 10') gemäß einem der Ansprüche 10 bis 12, wobei der Prozessor ausgebildet ist, kontinuierlich erfasste Aufnahmen, die lückenlos ein Schüttgut abbilden, miteinander zu kombinieren.
  14. Optische Aufnahmevorrichtung (10, 10') gemäß einem der vorherigen Ansprüche, die eine Steuerung aufweist, die ausgebildet ist, einen Belichtungsparameter je Aufnahme, eine Belichtungszeit je Aufnahme und/oder eine Anzahl von Belichtungen je Aufnahme in Abhängigkeit von der ersten und zweiten Lichtquelle (16a, 16a', 16b, 16b`) anzupassen.
  15. Optische Aufnahmevorrichtung (10, 10') gemäß einem der vorherigen Ansprüche, die mit einem Fließband gekoppelt ist, das ausgebildet ist, das Stück- oder Schüttgut (14, 14a-14n) mit der bekannten Bewegung durch den Erfassungsbereich (12e) hindurchzubewegen.
  16. Optische Aufnahmevorrichtung (10, 10') gemäß einem der vorherigen Ansprüche, wobei die Kamera (12) eine FlächenKamera (12) ist.
  17. Verfahren zur optischen Aufnahme mit folgenden Schritten: Hindurchbewegen von einem Stück- oder Schüttgut (14, 14a-14n) mit einer bekannten Bewegung durch einen Erfassungsbereich (12e) einer Kamera (12), der zumindest einen ersten und einen zweiten Teil umfasst, so dass sich ein erster Objektbereich (14a) des Stück- oder Schüttgut (14, 14a-14n)s zu einem ersten Zeitpunkt (t1) in einem ersten Teil des Erfassungsbereichs (12e1) befindet und sich der erste Objektbereich (14a) zu einem zweiten Zeitpunkt (t2) in einem zweiten Teile des Erfassungsbereichs (12e2) befindet; Emittieren von unterschiedlichem Licht mittels einer ersten und einer zweiten Lichtquelle (16b, 16b') auf das sich im Erfassungsbereich (12e) bewegende Stück- oder Schüttgut (14, 14a-14n); Erfassen mittels einer Kamera (12) zumindest des ersten Teil des und des zweiten Teil des Erfassungsbereichs (12e2) in einer ersten und zweiten gemeinsamen Aufnahmen; wobei der erste Teil des Erfassungsbereichs (12e1) zumindest in dem ersten Zeitpunkt (t1) mit einem ersten Licht ausgeleuchtet wird, so dass in der ersten Aufnahme in dem ersten Zeitpunkt (t1) der erste Objektbereich (14a) unter Verwendung des ersten Lichts erfasst werden kann; wobei der zweite Teil des Erfassungsbereichs (12e2) zumindest in dem zweiten Zeitpunkt (t2) mit einem zweiten Licht ausgeleuchtet wird, so dass in der zweiten Aufnahme in dem zweiten Zeitpunkt (t2) der Objektbereich unter Verwendung des zweiten Lichts erfasst werden kann; wobei die erste Lichtquelle (16a, 16a') zu dem ersten Zeitpunkt (t1) aktiviert ist und zu dem zweiten Zeitpunkt deaktiviert ist; und/oder wobei die zweite Lichtquelle (16b, 16b') zu dem zweiten Zeitpunkt aktiviert ist und zu dem ersten Zeitpunkt (t1) deaktiviert ist.
  18. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 17.
DE102018220271.0A 2018-11-26 2018-11-26 Optische Aufnahmevorrichtung und Verfahren zur optischen Aufnahme Active DE102018220271B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018220271.0A DE102018220271B4 (de) 2018-11-26 2018-11-26 Optische Aufnahmevorrichtung und Verfahren zur optischen Aufnahme

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018220271.0A DE102018220271B4 (de) 2018-11-26 2018-11-26 Optische Aufnahmevorrichtung und Verfahren zur optischen Aufnahme

Publications (2)

Publication Number Publication Date
DE102018220271A1 DE102018220271A1 (de) 2020-05-28
DE102018220271B4 true DE102018220271B4 (de) 2024-05-08

Family

ID=70545772

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018220271.0A Active DE102018220271B4 (de) 2018-11-26 2018-11-26 Optische Aufnahmevorrichtung und Verfahren zur optischen Aufnahme

Country Status (1)

Country Link
DE (1) DE102018220271B4 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021200316A1 (de) 2021-01-14 2022-07-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Optische Spektroskopie mittels ortsaufgelöster Beleuchtung für Schüttgut
DE102022002963A1 (de) 2022-08-16 2024-02-22 Baumer lnspection GmbH Optische Prüfvorrichtung und Prüfverfahren

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5969810A (en) 1998-05-14 1999-10-19 Owens-Brockway Glass Container Inc. Optical inspection of transparent containers using two cameras and a single light source
DE102004058778A1 (de) 2003-12-17 2005-08-04 Volkswagen Ag Prüfanordnung zum Überprüfen eines Bauteils
DE102007007828A1 (de) 2007-02-16 2008-08-21 Bst International Gmbh Verfahren und Vorrichtung zum Beleuchten eines Druckbildes auf einer Materialbahn
DE102010009957A1 (de) 2009-03-26 2010-09-30 Heidelberger Druckmaschinen Ag Vorrichtung zur Abbildung eines flächigen Objekts
DE102016100437B4 (de) 2016-01-12 2018-08-02 Stephan Krebs Vorrichtung zur Druckbildkontrolle
DE212017000206U1 (de) 2016-08-30 2019-04-10 Binder + Co. Aktiengesellschaft Vorrichtung zum Detektieren von Objekten in einem Materialstrom

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5969810A (en) 1998-05-14 1999-10-19 Owens-Brockway Glass Container Inc. Optical inspection of transparent containers using two cameras and a single light source
DE102004058778A1 (de) 2003-12-17 2005-08-04 Volkswagen Ag Prüfanordnung zum Überprüfen eines Bauteils
DE102007007828A1 (de) 2007-02-16 2008-08-21 Bst International Gmbh Verfahren und Vorrichtung zum Beleuchten eines Druckbildes auf einer Materialbahn
DE102010009957A1 (de) 2009-03-26 2010-09-30 Heidelberger Druckmaschinen Ag Vorrichtung zur Abbildung eines flächigen Objekts
DE102016100437B4 (de) 2016-01-12 2018-08-02 Stephan Krebs Vorrichtung zur Druckbildkontrolle
DE212017000206U1 (de) 2016-08-30 2019-04-10 Binder + Co. Aktiengesellschaft Vorrichtung zum Detektieren von Objekten in einem Materialstrom

Also Published As

Publication number Publication date
DE102018220271A1 (de) 2020-05-28

Similar Documents

Publication Publication Date Title
DE69929901T2 (de) Inspektionssystem für die oberfläche von zylindrischen objekten
DE102016220757A1 (de) Verfahren und Vorrichtung zur Materialbahnbeobachtung und Materialbahninspektion
EP2022347B1 (de) Optische Kontrolle von Produkten der Tabak verarbeitenden Industrie
DE112010005042T5 (de) Dezentrales Bildverarbeitungssystem mit Mehrphasensynchronisierung
DE102018220271B4 (de) Optische Aufnahmevorrichtung und Verfahren zur optischen Aufnahme
DE102016203392B3 (de) Bildinspektionsverfahren mit mehreren Kameras
DE102014115540A1 (de) Kamera und Verfahren zur Erfassung von Objekten
EP3598194A1 (de) Verfahren zur mikroskopischen auswertung
DE102011018597B3 (de) Verfahren zum synchronisierten Betrieb einer Kamera und eines Projektors
DE102017106831A1 (de) Kamera und Verfahren zur Erfassung von relativ zu der Kamera in einer Förderrichtung bewegten Objekten
EP3158285B1 (de) Verfahren zur ermittlung eines räumlichen verschiebungsvektorfeldes
EP2887010B1 (de) Verfahren und Vorrichtung zum dreidimensionalen optischen Vermessen von Objekten mit einem topometrischen Messverfahren sowie Computerprogramm hierzu
DE102015218179A1 (de) Verfahren und Vorrichtung zur Vergrößerung des Sichtfelds einer Kamera sowie damit ausgestattete Kamera
DE102014114506A1 (de) Kamera zur Montage an einer Fördereinrichtung und Verfahren zur Inspektion oder Identifikation
DE102017125799A1 (de) Reduktion von Bildstörungen in Bildern
DE102009017465A1 (de) Verfahren und Vorrichtung zum optischen Inspizieren einer zumindest teilweise reflektierenden Oberfläche an einem Gegenstand
WO2009140778A1 (de) Optische positionserkennung
DE102013223852B4 (de) Verfahren zur Erstellung von mindestens zwei Bildern mit einer Kameravorrichtung sowie Kameravorrichtung
EP3236198A1 (de) Schatlbare linienbeleuchtung
EP2966593A1 (de) Bilderfassungssystem zum Detektieren eines Objektes
DE10338323B4 (de) Verfahren und Anordnung zur Bildaufnahme für die Lageerkennung von ungeordneten Teilen
DE102013106556A1 (de) Verfahren zum Betreiben einer Dentalkamera
EP1741060A2 (de) Verfahren zum vergleich eines bildes mit mindestens einem referenzbild
DE102009057724B4 (de) Bilderfassungsvorrichtung und Verfahren zum Reduzieren von Bewegungsunschärfe
DE102019117849B4 (de) Erfassung eines Objekts in einem Überwachungsbereich

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01B0009080000

Ipc: G01N0021880000

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division