-
Die Erfindung betrifft eine Kamera zur Montage an einer Fördereinrichtung und ein Verfahren zur Inspektion oder Identifikation nach dem Oberbegriff von Anspruch 1 beziehungsweise 9.
-
In industriellen Anwendungen werden Kameras in vielfältiger Weise eingesetzt, um Objekteigenschaften automatisch zu erfassen, beispielsweise zur Inspektion oder Vermessung von Objekten. Dabei werden Bilder des Objekts aufgenommen und entsprechend der Aufgabe durch Bildverarbeitungsverfahren ausgewertet. Eine weitere Anwendung von Kameras ist das Lesen von Codes. Derartige kamerabasierte Codeleser lösen die noch weit verbreiteten Barcodescanner zunehmend ab. Mit Hilfe eines Bildsensors werden Objekte mit den darauf befindlichen Codes aufgenommen, in den Bildern die Codebereiche identifiziert und dann dekodiert. Kamerabasierte Codeleser kommen problemlos auch mit anderen Codearten als eindimensionalen Strichcodes zurecht, die wie ein Matrixcode auch zweidimensional aufgebaut sind und mehr Informationen zur Verfügung stellen. Auch die automatische Texterfassung von gedruckten Adressen (OCR, Optical Character Recognition) oder Handschriften ist im Prinzip ein Lesen von Codes. Typische Anwendungsgebiete von Codelesern sind Supermarktkassen, die automatische Paketidentifikation, Sortierung von Postsendungen, die Gepäckabfertigung in Flughäfen und andere Logistikanwendungen.
-
Eine häufige Erfassungssituation ist die Montage der Kamera über einem Förderband. Die Kamera nimmt während der Relativbewegung des Objektstroms auf dem Förderband Bilder auf und leitet in Abhängigkeit der gewonnenen Objekteigenschaften weitere Bearbeitungsschritte ein. Solche Bearbeitungsschritte bestehen beispielsweise in der an das konkrete Objekt angepassten Weiterverarbeitung an einer Maschine, die auf geförderte Objekte einwirkt, oder in einer Veränderung des Objektstroms, indem bestimmte Objekte im Rahmen einer Qualitätskontrolle aus dem Objektstrom ausgeschleust werden oder der Objektstrom in mehrere Teilobjektströme sortiert wird. Wenn die Kamera ein kamerabasierter Codeleser ist, werden die Objekte für eine korrekte Sortierung oder ähnliche Bearbeitungsschritte anhand der angebrachten Codes identifiziert. In der Regel liefert das Fördersystem durch einen Inkrementalgeber fortlaufend wegbezogene Impulse, damit die Objektpositionen zu jedem Zeitpunkt auch bei wechselnder Fördergeschwindigkeit bekannt sind.
-
Die mit einer Kamera unmittelbar erfasste Bildinformation ist zweidimensional. Um die Auswertung solcher Bilder zu unterstützen, Objekte in den Bildern aufzufinden oder zusätzliche Objektinformationen wie Höhe oder Volumen zu gewinnen, wird in herkömmlichen Installationen oft ein zusätzlicher 3D-Sensor eingesetzt. Dabei handelt es sich beispielsweise um einen entfernungsmessenden Laserscanner, der oberhalb der Kamera auf das Förderband gerichtet ist und vorab die Objektkonturen und damit die Geometrie der geförderten Objekte auf ihrem Förderband erfasst. Da eine Kamera nur die Objektoberflächen erkennt, die zu ihr hin gerichtet sind, werden regelmäßig für die vollständige Erfassung der Objekte von allen Seiten (Omnilesung) zusätzliche Kameras eingesetzt. So ergibt sich eine sehr große Anzahl von Sensoren, die miteinander kombiniert und deren Daten fusioniert werden müssen, zumal auch noch weitere Sensoren vorhanden sein können, etwa Inkrementalgeber zur Bestimmung der Fördergeschwindigkeit.
-
Die
DE 699 26 659 T2 befasst sich mit der optischen Inspektion und setzt dafür in einer Prüfvorrichtung eine zweidimensionale Matrix-Sensoreinrichtung ein. Ein Objekt wird während einer Relativbewegung mit einer Laserlinie beleuchtet und deren Verzerrung ausgewertet, um Objekt-Höheninformationen zu triangulieren. Außerdem erfolgt eine Zeilenabtastung, um auch Objekt-Flächeninformationen zu gewinnen.
-
Die
US 2009/0059242 A1 beschreibt eine 3D-Messung an einem Förderer mit Hilfe zweier überlappender Kameras und einem Stereoverfahren, wobei die eine Kamera senkrecht und die andere Kamera schräg von oben auf den Förderer ausgerichtet ist. Die Höheninformation wird nur an ausgewählten Messpunkten und Messbereichen gewonnen, und es wird ein Bild erzeugt, in dem die Höhe dieser Messpunkte und Messbereiche gegenüber einer Grundfläche visualisiert wird.
-
Aus der
US2003/0231793 A1 ist eine Scanvorrichtung bekannt, die ein 3D-Model eines Objekts erzeugt und einen Streifenprojektor sowie mehrere Lampen aufweist.
-
Eine Formerfassungsvorrichtung nach
US 2014/0071243 A1 scannt mit einem Streifenmuster und anschließend mit einer homogenen Beleuchtung.
-
Die
US 2006/0192925 A1 offenbart eine Kalibration für einen Vielfachprojektor. In einer Ausführungsform verwenden die einzelnen Projektoren unterschiedliche Farben, um mehrere Farbkanäle für die simultane Auswertung der erzeugten Muster zu schaffen.
-
Es ist daher Aufgabe der Erfindung, die Erfassung von in einem Strom bewegten Objekten zu verbessern.
-
Diese Aufgabe wird durch eine Kamera zur Montage an einer Fördereinrichtung und ein Verfahren zur Inspektion oder Identifikation nach Anspruch 1 beziehungsweise 9 gelöst. Die Kamera nimmt zur Inspektion oder Objektidentifikation Bilddaten der Objekte auf, die an ihrer Montageposition vorbeigefördert werden. Die Erfindung geht nun von dem Grundgedanken aus, Bilddaten sowohl für die Erzeugung eines zweidimensionalen Bildes als auch eines dreidimensionalen Bildes zu verwenden. Dabei werden je nach Ausführungsform die Bilddaten zeitversetzt aufgenommen oder verschiedene Auswertungen auf denselben Bilddaten ausgeführt.
-
Die Erfindung hat den Vorteil, dass durch die Kombination der zweidimensionalen und dreidimensionalen Erfassung in einem Gerät eine integrierte Gesamtlösung mit einer geringeren Anzahl an Sensoren entsteht. Dadurch werden Herstellung, Montage und Wartung vereinfacht, und die Kamera ist kompakter und preisgünstiger.
-
Die Auswertungseinheit ist bevorzugt dafür ausgebildet, in dem zweidimensionalen Bild Codebereiche zu erkennen, eine Codierung aus den Codebereichen auszulesen und so das Objekt zu identifizieren. Die Kamera ist demnach als kamerabasierter Codeleser zur Objektidentifikation ausgebildet. Dazu werden Objektflächen und innerhalb der Objektflächen relevante Bereiche mit Codierungen erkannt. Das gelingt beispielsweise anhand von Kantendetektion für die Objektflächen und Kontrastbewertung innerhalb der Objektflächen, da sich der Kontrast homogener leerer Bereiche meist signifikant von Codierungen unterscheidet. Das Auslesen von Codebereichen kann sowohl eng im Sinne bekannter Barcodes oder 2D-Codes als auch weit im Sinne von OCR oder Handschriftenerkennung verstanden werden. Alternativ zum Codelesen sind auch sonstige Inspektionsaufgaben der industriellen Bildverarbeitung denkbar, etwa die Überprüfung von Farben oder Strukturen zur Qualitätssicherung.
-
Die Auswertungseinheit ist bevorzugt dafür ausgebildet, aus dem dreidimensionalen Bild Positionen, Höhen und/oder Volumina der Objekte zu bestimmen. Das dreidimensionale Bild entspricht der Kontur der Fördereinrichtung und der darauf geförderten Objekte. Diese Kontur kann genutzt werden, um Objekte voneinander zu separieren (Segmentierung) und deren Position und Geometrie zu erfassen. Dies kann eine für sich relevante Objektinformation liefern, wie das Objektvolumen, aber auch genutzt werden, um in dem zweidimensionalen Bild Objektflächen zu identifizieren. Da die Bilddaten jeweils mit derselben Kamera aufgenommen sind, ist eine dafür erforderliche Zuordnung zwischen zweidimensionalen und dreidimensionalen Bildern sehr leicht möglich. Die Geometrie kann auch für andere Steuerungsschritte verwendet werden, etwa die Einstellung der Fokuslage einer Empfangsoptik des Bildsensors. Da die Bildwiederholfrequenz üblicherweise im Vergleich zur Fördergeschwindigkeit hoch genug ist, werden dann die gleichen Objekte lediglich mit kleinem Versatz erneut unter der soeben angepassten Fokuslage aufgenommen.
-
Die Kamera weist mindestens zwei Bildsensoren auf, deren Erfassungsbereiche einander überlappend ergänzen und so eine Breite der Fördereinrichtung abdecken, wobei die Auswertungseinheit dafür ausgebildet ist, das zweidimensionale Bild durch Zusammenfügen der Bilddaten der Bildsensoren und das dreidimensionale Bild in den überlappenden Erfassungsbereichen mit einem Stereoalgorithmus zu erzeugen. Der Öffnungswinkel einer einfachen Kamera in üblicher Montagehöhe erfasst ab einer gewissen Breite der Fördereinrichtung nur noch einen Teilausschnitt. Es werden mehrere Bildsensoren der gleichen Kamera oder mehrere Kameras nebeneinander eingesetzt, um überlappend die volle Breite abzudecken. Die einzelnen Bilder werden auf Basis überlappend erfasster Bildbereiche zusammengefügt (Image Stitching). Die Überlappungsbereiche sind dabei mehrfach aus unterschiedlicher Perspektive aufgenommen, was gerade die Voraussetzung für einen Stereoskopiealgorithmus bietet. So wird die schon zum Abdecken der Breite der Fördereinrichtung benötigte apparative Konfiguration lediglich durch zusätzliche Auswertung für die Erzeugung der dreidimensionalen Bilder genutzt.
-
Die Auswertungseinheit ist bevorzugt dafür ausgebildet, das dreidimensionale Bild in Bereichen, in denen die Bilddaten keine Entfernungsschätzung ermöglichen, auf Basis von Annahmen an die Objektgeometrien zu extrapolieren. Bereiche, in denen keine Entfernungsschätzung möglich ist, können durch fehlende Struktur in den Bilddaten, Abschattungen und insbesondere im Falle eines Stereoverfahrens wie im vorigen Absatz in nicht überlappend aufgenommenen Teilbereichen entstehen. Nimmt man dann an, dass die Objekte eine bestimmte Geometrie besitzen, etwa quaderförmig sind, so kann die Objektgeometrie auch in solche Lücken hinein extrapoliert werden.
-
Die Kamera weist bevorzugt eine Beleuchtungseinheit auf, um die Objekte mit einem strukturierten Beleuchtungsmuster zu beleuchten, wobei insbesondere die Auswertungseinheit dafür ausgebildet ist, die Bilddaten der beleuchteten Objekte mit Referenzmustern zu korrelieren, um das dreidimensionale Bild zu erzeugen. Das Beleuchtungsmuster ist beispielsweise ein zufälliges Punktmuster. Dieses Beleuchtungsmuster wird je nach Geometrie im Objektbereich verzerrt, so dass durch Korrelation mit einer zuvor eingelernten oder berechneten Referenz des Beleuchtungsmusters beispielsweise auf einen flachen Hintergrund in bekanntem Abstand Entfernungen trianguliert werden können. Das Verfahren entspricht dem Stereoverfahren, wobei aber nicht zwei Bilder einer Szenerie, sondern nur ein Bild der Szenerie und das Beleuchtungsmuster korreliert werden. Auch für ein echtes Stereoverfahren ist eine strukturierte Beleuchtung hilfreich, um Korrespondenzen auch in sonst homogenen Bildbereichen zu ermöglichen. Das Beleuchtungsmuster sollte zumindest lokal selbstunähnlich sein, d.h. Musterbereiche können durch Translationen zumindest einer gewissen Länge nicht ineinander überführt werden, um Scheinkorrespondenzen zu vermeiden.
-
Die Beleuchtungseinheit ist bevorzugt für die Erzeugung sowohl des strukturierten Beleuchtungsmusters als auch einer homogenen Beleuchtung ausgebildet. Durch Umschalten der Beleuchtung können wahlweise Aufnahmen von Bilddaten unter verschiedenen Beleuchtungen erfolgen.
-
Die Auswertungseinheit ist bevorzugt dafür ausgebildet, alternierend unter homogener Beleuchtung Bilddaten für das zweidimensionale Bild und unter Beleuchtung mit dem strukturierten Beleuchtungsmuster Bilddaten für das dreidimensionale Bild zu gewinnen. Unter homogener Beleuchtung sind die Eigenschaften der Objektflächen erfassbar, insbesondere zum Auslesen von Codebereichen. Die strukturierte Beleuchtung dagegen ist Voraussetzung oder Unterstützung für die Entfernungsschätzung. Alternierend bedeutet zunächst eine beliebige Sequenz der Beleuchtungsszenarien, vorzugsweise wechseln homogene und strukturierte Beleuchtung einander ab, so dass jeweils ein Paar Bilddaten für zweidimensionale und dreidimensionale Bilder mit kurzem zeitlichem Abstand verfügbar ist.
-
Der Bildsensor ist bevorzugt zur Aufnahme von farbigen Bilddaten und die Beleuchtungseinheit zur Erzeugung einer homogenen Beleuchtung und des strukturierten Beleuchtungsmusters in unterschiedlichen Farben ausgebildet, wobei die Auswertungseinheit Bilddaten in der Farbe der homogenen Beleuchtung für die Erzeugung des zweidimensionalen Bildes und Bilddaten in der Farbe des strukturierten Beleuchtungsmusters für die Erzeugung des dreidimensionalen Bildes verwendet. Dadurch entstehen zwei Farbkanäle, die jeweils für die zweidimensionalen beziehungsweise dreidimensionalen Bilder genutzt werden. Statt einer zeitlichen Trennung wie unter alternierender Beleuchtung erfolgt also eine Trennung über das Spektrum, was den Vorteil mit sich bringt, dass die Bilddaten für zweidimensionale und dreidimensionale Bilder gleichzeitig aufgenommen werden und damit Objekte in identischer Position erfassen.
-
Das erfindungsgemäße Verfahren kann auf ähnliche Weise weitergebildet werden und zeigt dabei ähnliche Vorteile. Derartige vorteilhafte Merkmale sind beispielhaft, aber nicht abschließend in den sich an die unabhängigen Ansprüche anschließenden Unteransprüchen beschrieben.
-
Die Abbildungen der Zeichnung zeigen in:
- 1 eine schematische dreidimensionale Ansicht einer an einem Förderband mit zu erfassenden Objekten montierten Kamera;
- 2a ein Längsschnitt der Kamera und des Förderbandes gemäß 1 unter strukturierter Beleuchtung;
- 2b ein Längsschnitt der Kamera und des Förderbandes gemäß 1 unter homogener Beleuchtung;
- 3 ein Längsschnitt der Kamera und des Förderbandes gemäß 1 unter gleichzeitiger homogener und strukturierter Beleuchtung; und
- 4 ein Querschnitt einer erfindungsgemäßen Kamera und eines Förderbandes für eine Kamera mit mehreren nebeneinander angeordneten Bildsensoren zur Erfassung breiter Förderbänder, deren Bildsensoren zusätzlich für eine stereoskopische Entfernungsschätzung genutzt werden.
-
1 zeigt eine Kamera 10, die über einem Förderband 12 montiert ist, welches Objekte 14, wie durch den Pfeil 16 angedeutet, durch einen Erfassungsbereich 18 der Kamera 10 fördert. Die Objekte 14 tragen an ihren Außenflächen Codebereiche 20. In einer Ausführungsform ist eine Aufgabe der dann als kamerabasierter Codeleser ausgebildeten Kamera 10, die Codebereiche 20 zu erkennen und die dort angebrachten Codes oder Texte auszulesen, zu dekodieren und dem jeweils zugehörigen Objekt 14 zuzuordnen. In anderen Ausführungsformen sind keine Codebereiche 20 vorgesehen oder sie werden nicht gelesen, sondern es werden von der Kamera 10 zur automatischen Inspektion andere Objekteigenschaften wie Farbe oder Kontur erfasst.
-
Die Codebereiche 20 können von der Kamera 10 nur dann erkannt werden, wenn sie auf der Oberseite oder zumindest von oben sichtbar angebracht sind. Daher kann abweichend von der Darstellung in 1 zum Lesen eines etwa seitlich oder unten angebrachten Codes 22 eine Kamera 10 auch seitlich oder unten beziehungsweise eine Mehrzahl von Kameras 10 aus verschiedenen Richtungen montiert sein, um eine sogenannte Omnilesung aus allen Richtungen zu ermöglichen.
-
Die Kamera 10 umfasst ein nur durch eine stellvertretende Linse angedeutet dargestelltes Objektiv 24 und einen Bildsensor 26 beispielsweise mit einer Vielzahl zu einer Zeile oder Matrix angeordneter pixelartiger Lichtempfangselemente zur Aufnahme von Bilddaten aus dem Erfassungsbereich 18. Mit Hilfe einer ersten Beleuchtungseinheit 28 kann der Erfassungsbereich 18 mit einem strukturierten Beleuchtungsmuster und mit Hilfe einer zweiten Beleuchtungseinheit 30 homogen beleuchtet werden. Die Darstellung der Beleuchtungseinheiten 28, 30 ist rein schematisch zu verstehen. Die räumliche Anordnung innerhalb der Kamera 10 kann eine andere sein, und es ist auch denkbar, mit nur einer Beleuchtungseinheit sowohl die homogene als auch die strukturierte Beleuchtung zu erzeugen, etwa durch ein Mustererzeugungselement, das wahlweise in den Strahlengang eingebracht wird oder durch ein LCD, auf dem das Muster wahlweise erzeugt werden kann.
-
Eine Steuer- und Auswertungseinheit 32 ist mit dem Bildsensor 26 und den Beleuchtungseinheiten 28, 30 verbunden, um Bilddaten auszulesen und auszuwerten und um die Beleuchtung zu steuern. Dabei werden in einer im Folgenden für mehrere Ausführungsformen erläuterten Weise die mit dem gleichen Bildsensor 26 und vorzugsweise über das gleiche Objektiv 24 gewonnenen Bilddaten sowohl zweidimensional als auch dreidimensional ausgewertet.
-
2a zeigt einen Längsschnitt durch das Förderband 12 mit der darüber montierten Kamera 10. In der gesamten Beschreibung bezeichnen die gleichen Bezugszeichen gleiche oder einander entsprechende Merkmale. In der in 2a gezeigten 3D-Phase der Objekterfassung ist die erste Beleuchtungseinheit 28 aktiviert und erzeugt ihr strukturiertes Beleuchtungsmuster 34. Mit Hilfe des strukturierten Beleuchtungsmusters 34 können in an sich bekannter Weise Entfernungen geschätzt und so aus den Bilddaten des Bildsensors 26 dreidimensionale Bilder berechnet werden. Eine Möglichkeit ist die segmentweise Korrelation des durch die unterschiedlichen Abstände der Objektbereiche unterschiedlich beeinflussten Beleuchtungsmusters mit einem zuvor segmentweise abstandsabhängig eingelernten Beleuchtungsmuster. Prinzipiell ist auch denkbar, mit einem zusätzlichen Bildsensor ein weiteres Bild aufzunehmen und dann unterstützend oder alternativ zwei Bilder statt eines Bildes und eines Beleuchtungsmusters zu korrelieren.
-
In der 3D-Phase entsteht so ein dreidimensionales Bild, aus dem die Geometrie auf dem Förderband 12 bekannt ist, beispielsweise Objektpositionen, Objekthöhen oder Objektvolumina.
-
2b zeigt einen entsprechenden Längsschnitt durch das Förderband 12 mit der darüber montierten Kamera 10 in einer 2D-Phase der Objekterfassung, in der nun die zweite Beleuchtungseinheit 30 aktiviert ist und für eine homogene Flächenbeleuchtung 36 sorgt. Damit können die Objektflächen aufgenommen werden, und so entsteht ein zweidimensionales Bild, das für das Erkennen von Objekteigenschaften und insbesondere das Auslesen von Codebereichen genutzt werden kann. Durch die Datenfusion können dabei Objektflächen anhand von Geometrieeigenschaften erkannt werden.
-
Somit wird durch abwechselnde Aufnahmen unter strukturierter und homogener Beleuchtung gemäß 2a und 2b die 2D- und 3D-Datenerfassung in einer Kamera 10 unter Ausnutzen desselben Bildsensors 26 und desselben Objektivs 24 kombiniert.
-
3 erläutert in einem weiteren Längsschnitt des Förderbandes 12 mit darüber montierter Kamera 10 eine Ausführungsform, in der beide Beleuchtungsszenarien zugleich aktiviert und ausgewertet werden. Dazu ist in dieser Ausführungsform der Bildsensor 26 ein Farbbildsensor, was in den anderen Ausführungsformen zwar denkbar, aber nicht notwendig ist. Durch die Farbkanäle, die dieser Bildsensor 26 zur Verfügung stellt, muss die Bildaufnahme nicht mehr zeitversetzt erfolgen.
-
Dafür sind auch die Beleuchtungseinrichtungen 28, 30 farbig, und zwar mit unterschiedlichen Farben, etwa mit einer roten strukturierten Beleuchtung 34 der ersten Beleuchtungseinrichtung 28 und einer blauen homogenen Beleuchtung 36 der zweiten Beleuchtungseinrichtung 30. Die dreidimensionale Auswertung erfolgt nun in dem roten, die zweidimensionale Auswertung in dem blauen Farbkanal.
-
Dadurch können beide Auswertungen in einer Phase kombiniert werden, was den gro-ßen Vorteil mit sich bringt, dass die Aufnahmezeit in etwa halbiert und damit eine höhere Bildaufnahmefrequenz erreicht werden kann. Da somit zwischen den Bilddaten für zweidimensionale und dreidimensionale Auswertung kein Zeitversatz mehr liegt, wird auch eine Fusion der Daten deutlich vereinfacht, da nun identische und nicht mehr nur ähnliche Situationen auf dem Förderband 12 erfasst sind. So sind auch beispielsweise Abschattungen in beiden Bildern gleich.
-
4 zeigt illustriert eine weitere Ausführungsform in einer Querschnittsdarstellung der über dem Förderband 12 montierten Kamera 10. Wegen der Darstellung im Querschnitt weist hier der Pfeil 16 für die Förderrichtung in die Papierebene hinein.
-
Die Kamera 10 weist mehrere, in dem gezeigten Beispiel drei Bildsensoren 26a-c mit jeweiliger Empfangsoptik 24a-c auf. Alternativ werden mehrere Kameras eingesetzt. Die Erfassungsbereiche 18a-c decken einzeln nur einen Teil der Breite des Förderbandes 12, insgesamt jedoch das ganze Förderband 12 ab. Zwischen je zwei Erfassungsbereichen 18a-c ergibt sich ein mehr oder weniger großer Überlappungsbereich 18ab-bc, was außer von Geräteparametern wie dem Öffnungswinkel und dem gegenseitigen Abstand der Bildsensoren 26a-c beziehungsweise Objektive 24a-c oder der Montagehöhe der Kamera 10 auch von der jeweiligen Objekthöhe abhängt.
-
Die Einzelbilder der Bildsensoren 26a-c können zu einem gemeinsamen zweidimensionalen Bild über die gesamte Breite des Förderbandes 12 zusammengefügt werden (Image Stitching). In den Überlappungsbereichen 18ab-bc stehen zudem Bilddaten zur Verfügung, die aus unterschiedlicher und bekannter Perspektive aufgenommen sind. Damit sind die Voraussetzungen für die Anwendung eines Stereoskopiealgorithmus' gegeben. Es können also einander entsprechende Bildmerkmale in einem Bildpaar gesucht, deren gegenseitiger als Disparität bezeichneter Abstand ermittelt und dies aufgrund der bekannten Kameraparameter und insbesondere dem Basisabstand der Bildsensoren 26a-c in Entfernungen umgerechnet werden. So ergibt sich ohne apparativen Zusatzaufwand, denn die mehreren Bildsensoren 26a-c waren bei der hier beschriebenen Ausführungsform zur Abdeckung der Breite des Förderbandes 12 ohnehin erforderlich, ein zusätzliches dreidimensionales Bild, das mit dem zweidimensionalen Bild kombiniert werden kann.
-
Da die Überlappungsbereiche 18ab-bc gerade bei hohen Objekten regelmäßig nur einen Teil des Förderbandes 12 abdecken, können in dem dreidimensionalen Bild Lücken entstehen. Die erfasste dreidimensionale Information kann aber je nach Anwendung dennoch ausreichen oder zumindest unterstützend genutzt werden. Das gilt insbesondere dann, wenn Annahmen über die Objektgeometrie getroffen werden können, etwa dass es sich um Quader handelt. Dann ist auch denkbar, die dreidimensionalen Bildinformationen aufgrund solcher Geometrieannahmen in die Lücken hinein zu extrapolieren.
-
Die Ausführungsform gemäß 4 kann prinzipiell passiv arbeiten, also ohne eine eigene Beleuchtung, oder lediglich eine homogene Beleuchtung für ausreichende Helligkeit verwenden. Dargestellt sind aber auch hier die Beleuchtungseinheiten 28, 30. Damit kann wie in den Ausführungsformen gemäß 2a-b und 3 wahlweise eine homogene Beleuchtung für mehr Helligkeit, eine strukturiere Beleuchtung zur Unterstützung der Stereokorrelation oder eine Überlagerung aus beidem in unterschiedlichen Farben erzeugt werden.