DE202020102581U1 - Erfassung von Objekten - Google Patents

Erfassung von Objekten Download PDF

Info

Publication number
DE202020102581U1
DE202020102581U1 DE202020102581.3U DE202020102581U DE202020102581U1 DE 202020102581 U1 DE202020102581 U1 DE 202020102581U1 DE 202020102581 U DE202020102581 U DE 202020102581U DE 202020102581 U1 DE202020102581 U1 DE 202020102581U1
Authority
DE
Germany
Prior art keywords
camera
time
distance
evaluation unit
distance sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202020102581.3U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE202020102581.3U priority Critical patent/DE202020102581U1/de
Publication of DE202020102581U1 publication Critical patent/DE202020102581U1/de
Expired - Lifetime legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0608Height gauges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)

Abstract

Kamera (10) zur Erfassung von Objekten (48) in einem Erfassungsbereich (14), die einen Bildsensor (18) zur Aufnahme von Bilddaten der Objekte (48), einen Abstandssensor (24) zur Erfassung mindestens eines Abstandswerts zu einem jeweiligen Objekt (48) sowie eine Steuer- und Auswertungseinheit (37, 38) aufweist, die dafür ausgebildet ist, anhand des Abstandswerts mindestens eine Einstellung der Kamera (10) für eine Aufnahme vorzunehmen, dadurch gekennzeichnet, dass die Steuer- und Auswertungseinheit (37) echtzeitfähig sowie dafür ausgebildet ist, anhand einer Zeitinformation des Abstandssensors (24) eine Aufnahme zu einem Auslösezeitpunkt zu erzeugen.

Description

  • Die Erfindung betrifft eine Kamera zur Erfassung von Objekten in einem Erfassungsbereich nach dem Oberbegriff von Anspruch 1.
  • In industriellen Anwendungen werden Kameras in vielfältiger Weise eingesetzt, um Objekteigenschaften automatisch zu erfassen, beispielsweise zur Inspektion oder Vermessung von Objekten. Dabei werden Bilder des Objekts aufgenommen und entsprechend der Aufgabe durch Bildverarbeitungsverfahren ausgewertet. Eine weitere Anwendung von Kameras ist das Lesen von Codes. Mit Hilfe eines Bildsensors werden Objekte mit den darauf befindlichen Codes aufgenommen, in den Bildern die Codebereiche identifiziert und dann dekodiert. Kamerabasierte Codeleser kommen problemlos auch mit anderen Codearten als eindimensionalen Strichcodes zurecht, die wie ein Matrixcode auch zweidimensional aufgebaut sind und mehr Informationen zur Verfügung stellen. Auch die automatische Texterfassung von gedruckten Adressen (OCR, Optical Character Recognition) oder Handschriften ist im Prinzip ein Lesen von Codes. Typische Anwendungsgebiete von Codelesern sind Supermarktkassen, die automatische Paketidentifikation, Sortierung von Postsendungen, die Gepäckabfertigung in Flughäfen und andere Logistikanwendungen.
  • Eine häufige Erfassungssituation ist die Montage der Kamera über einem Förderband. Die Kamera nimmt während der Relativbewegung des Objektstroms auf dem Förderband Bilder auf und leitet in Abhängigkeit der gewonnenen Objekteigenschaften weitere Bearbeitungsschritte ein. Solche Bearbeitungsschritte bestehen beispielsweise in der an das konkrete Objekt angepassten Weiterverarbeitung an einer Maschine, die auf geförderte Objekte einwirkt, oder in einer Veränderung des Objektstroms, indem bestimmte Objekte im Rahmen einer Qualitätskontrolle aus dem Objektstrom ausgeschleust werden oder der Objektstrom in mehrere Teilobjektströme sortiert wird. Wenn die Kamera ein kamerabasierter Codeleser ist, werden die Objekte für eine korrekte Sortierung oder ähnliche Bearbeitungsschritte anhand der angebrachten Codes identifiziert.
  • Die Kamera ist vielfach Teil eines komplexen Sensorsystems. Beispielsweise ist es bei Lesetunneln an Förderbändern üblich, die Geometrie der geförderten Objekte vorab mit einem gesonderten Laserscanner zu vermessen und daraus Fokusinformationen, Auslösezeitpunkte, Bildbereiche mit Objekten und dergleichen zu bestimmen. Bekannt ist weiterhin ein einfacherer Triggersensor, etwa in Form eines Lichtgitters oder einer Lichtschranke. Solche externen Zusatzsensoren müssen montiert, parametriert und in Betrieb genommen werden. Ferner müssen Informationen, wie Geometriedaten und Triggersignale, an die Kamera weitergegeben werden. Herkömmlich geschieht das über CAN-Bus und den Prozessor der Kamera, der auch für andere Tätigkeiten wie Codelesen und dergleichen zuständig ist. Eine Echtzeitfähigkeit ist dabei nicht gewährleistet.
  • In der DE 10 2018 105 301 A1 wird eine Kamera vorgestellt, die einen integrierten Abstandssensor aufweist. Das erleichtert zwar einige Einrichtschritte und die nun interne Kommunikation. Auf das Problem der Echtzeitfähigkeit wird aber nicht eingegangen.
  • Es ist daher Aufgabe der Erfindung, die Anpassung einer Kamera an eine Aufnahmesituation zu verbessern.
  • Diese Aufgabe wird durch eine Kamera zur Erfassung von Objekten in einem Erfassungsbereich nach Anspruch 1 gelöst. Die Kamera nimmt mit einem Bildsensor Bilddaten der Objekte auf. Zusätzlich zu dem Bildsensor umfasst die Kamera einen Abstandssensor, der mindestens einen Abstandswert für den Abstand zwischen Kamera und Objekt misst. Eine Steuer- und Auswertungseinheit verwendet den Abstandswert, um mindestens eine Einstellung der Kamera für eine Aufnahme vorzunehmen. Beispielsweise wird ein Aufnahmeparameter gesetzt oder nachgestellt, eine Optik oder Beleuchtung verstellt oder der Bildsensor in einen bestimmten Modus versetzt.
  • Die Erfindung geht von dem Grundgedanken aus, den Abstandssensor echtzeitfähig einzubinden. Die Steuer- und Auswertungseinheit erhält vom Abstandssensor eine Zeitinformation und löst damit eine Aufnahme zu einem geeigneten Auslösezeitpunkt aus. Dank der Echtzeitfähigkeit ist das alles präzise synchronisierbar. Der Abstandssensor selbst ist in gewisser Weise der Zeitgeber und dessen Echtzeitfähigkeit gegeben, so lange seine Messungen schnell gegen die Objektbewegungen und die Aufnahmefrequenz der Kamera bleiben, und das ist keine sonderlich strenge Anforderung. Dazu wird eine Steuer- und Auswertungseinheit eingesetzt, die zumindest insoweit echtzeitfähig ist, wie es das Auslösen der Aufnahme zum Auslösezeitpunkt und die dafür erforderliche Weitergabe und Auswertung von Abstandswerten erfordert.
  • Die Erfindung hat den Vorteil, dass eine optimale Bildaufnahme ermöglicht wird. Die Abstandswerte helfen der Kamera, geeignete Einstellungen vorzunehmen. Die Echtzeitfähigkeit wiederum sorgt dafür, dass die Bildaufnahme tatsächlich zum richtigen Zeitpunkt ausgelöst wird. Damit kann der Gewinn durch eine auf die Abstandswerte passende Einstellung der Kamera voll ausgenutzt werden.
  • Die Steuer- und Auswertungseinheit weist bevorzugt einen mit dem Abstandssensor verbundenen echtzeitfähigen Mikroprozessor oder ein mit dem Abstandssensor verbundenes FPGA (Field Programmable Gate Array) auf, die insbesondere in den Abstandssensor integriert sind. Der Mikroprozessor kann seinerseits mit einem FPGA verbunden sein oder umgekehrt. Diese Bausteine zusammen bilden die echtzeitfähige Steuer- und Auswertungseinheit. Sie kommunizieren untereinander mit einem echtzeitfähigen Protokoll. Funktional und womöglich zumindest teilweise auch strukturell kann die Steuer- und Auswertungseinheit als zum Abstandssensor gehörig angesehen werden. Die Kamera kann weitere Bausteine ohne Echtzeitfähigkeit für sonstige Steuer- und Auswertungsfunktionalität aufweisen.
  • Die Kamera weist vorzugsweise eine dem Bildsensor vorgeordnete fokusverstellbare Optik auf, wobei die Einstellung der Kamera eine Fokuseinstellung umfasst. Eine der Einstellungen, die in Abhängigkeit von dem gemessenen Abstandswert vorgenommen werden, ist demnach die Fokuslage. So wird zum Auslösezeitpunkt ein scharfes Bild aufgenommen.
  • Der Abstandssensor ist bevorzugt in die Kamera integriert. Das ergibt einen besonders kompakten Aufbau mit einfachem internem Datenzugriff und deutlich vereinfachter Montage. Außerdem ist damit die gegenseitige Ausrichtung von Abstandssensor und Kamera bekannt und festgelegt. Die Kamera mit ihrem fest verbauten eigenen Abstandssensor kann autark ihre Umgebung wahrnehmen.
  • Der Abstandssensor ist bevorzugt ein optoelektronischer Abstandssensor insbesondere nach dem Prinzip des Lichtlaufzeitverfahrens. Das ist ein besonders geeignetes Verfahren im Zusammenhang mit der ebenfalls optischen Erfassung der Kamera. Der Abstandssensor weist bevorzugt eine Vielzahl von im Geiger-Modus betreibbaren Lawinenphotodioden auf. Derartige Lawinenphotodiodenelemente können besonders einfach dadurch aktiviert und deaktiviert werden, dass eine Vorspannung über oder unter der Durchbruchspannung angelegt wird. So können aktive Zonen oder interessierende Bereiche der Abstandsmessung festgelegt werden.
  • Der Abstandssensor weist bevorzugt mehrere Messzonen zur Messung von mehreren Abstandswerten auf. Eine Messzone weist vorzugsweise ein oder mehrere Lichtempfangselemente auf. Jede Messzone ist in der Lage, einen Abstandswert zu messen, so dass der Abstandssensor eine laterale Ortsauflösung gewinnt und ein ganzes Höhenprofil bestimmen kann.
  • Die Steurer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, aus den mehreren Abstandswerten einen gemeinsamen Abstandswert zu bilden. Der gemeinsame Abstandswert soll repräsentativ sein, um ein handhabbares Kriterium für die Einstellung der Kamera zu erhalten. Dazu eignet sich beispielsweise ein statistisches Maß wie der Mittelwert. Dem gemeinsamen Abstandswert können lediglich bestimmte Abstandswerte aus einer relevanten Region der Abstandsmessung zugrunde gelegt werden. Bei einer Förderbandanwendung könnten das diejenigen Messzonen sein, die auf das jeweils kommende Objekt gerichtet sind, um möglichst frühzeitig Abstandswerte zu gewinnen. Bei einer manuellen Präsentation von Objekten in dem Erfassungsbereich werden vorzugsweise eher Messzonen im Zentrum verwendet. Für einen Abstandssensor, der nu eine Messzone besitzt, ist der einzige Abstandswert automatisch der gemeinsame Abstandswert.
  • Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, ein neues Objekt zu erkennen, wenn sich der Abstandswert verändert, und dann einen Auslösezeitpunkt dafür zu bestimmen. Die Veränderung sollte vorzugsweise eine Toleranzschwelle überschreiten, also einen gewissen Sprung darstellen. Dies wird dann als Eintritt eines neuen Objekts gewertet, für das ein weitere Auslösezeitpunkt und bei dessen Erreichen eine weitere Bildaufnahme erzeugt wird.
  • Der Abstandssensor ist bevorzugt dafür ausgebildet, einen Remissionswert zu bestimmen. Die primäre Funktion des Abstandssensors ist das Messen von Abstandswerten. Dabei kann aber zugleich auch die Intensität des Messsignals bewertet werden. Speziell bei Lawinenphotodioden im Geiger-Modus können dafür Ereignisse gezählt werden, während die Zeitpunkte der Ereignisse für die Lichtlaufzeitmessung genutzt werden.
  • Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, ein neues Objekt zu erkennen, wenn sich der Remissionswert verändert, und dann einen Auslösezeitpunkt dafür zu bestimmen. Vorzugsweise sind es vorrangig die Abstandswerte, anhand derer die Kamera eingestellt und ein jeweiliges neues Objekt erkannt wird. Es kann jedoch auch eine Veränderung des Remissionswertes als Kriterium verwendet werden, vor allem dann, wenn es zwischen zwei Objekten keine oder wenig Abstandsänderungen gibt. Dabei wird vorzugsweise eine Schwellenbewertung vorgenommen, um lediglich rauschbedingte Veränderungen des Remissionswertes auszufiltern.
  • Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, die Einstellung der Kamera gemäß einer Abfolge mehrerer Auslösezeitpunkte vorzunehmen. Werden Objekte nacheinander in den Erfassungsbereich bewegt, wie in einer Förderbandanwendung, so kann es sein, dass bereits vor dem Auslösezeitpunkt eines früheren Objekts Abstandswerte für ein weiteres Objekt gemessen werden. Es ist dann nicht zielführend, beispielsweise die Fokuslage sofort für das neue Objekt einzustellen, weil dies gar nicht die nächste Aufnahme betrifft. Stattdessen werden die Einstellungen geordnet entsprechend den Auslösezeitpunkten nacheinander vorgenommen, und somit wird erforderlichenfalls auch im Beispiel der Fokuslage mit deren Verstellung gewartet, bis die früheren Aufnahmen abgeschlossen sind.
  • Der Abstandssensor ist bevorzugt dafür ausgebildet, als Zeitinformation einen Zeitstempel zu einem Abstandswert oder einen Auslösezeitpunkt zu übertragen. Der Zeitstempel ist die rohe Zeitinformation, aus der ein Auslösezeitpunkt abgeleitet werden kann. Diese Berechnung findet je nach Ausführungsform schon im Abstandssensor oder erst in der Steuer- und Auswertungseinheit statt. Zwischen Zeitstempel und Auslösezeitpunkt liegt je nach Ausführungsform eine konstante Verzögerung oder beispielsweise eine dynamisch zu bestimmende Verzögerung, bis sich das Objekt etwa auf einem Förderband in eine gewünschte Aufnahmeposition bewegt haben wird.
  • De Kamera weist bevorzugt eine gepulste Beleuchtungseinheit auf, wobei die Steuer- und Auswertungseinheit dafür ausgebildet ist, den Auslösezeitpunkt mit einem Beleuchtungspuls zu synchronisieren. Es ist in vielen Anwendungen üblich, den Erfassungsbereich für eine Bildaufnahme auszuleuchten. Statt eines individuellen Blitzlichts wird dazu häufig eine regelmäßige Pulsbeleuchtung verwendet, die eine Koexistenz mit dem Umfeld einschließlich anderer Kamerasysteme ermöglicht. Der Auslösezeitpunkt wird in einem derartigen Szenario noch leicht verschoben, damit die Aufnahme mit einem Beleuchtungspuls zusammenfällt. Alternativ könnte der Beleuchtungspuls zeitlich verschoben werden, aber das bringt zum einen das Pulsschema durcheinander, was die Umgebung nicht immer zulässt, und außerdem müsste die Beleuchtungseinheit überhaupt eine echtzeitfähige Anpassung erlauben.
  • Die Einstellung der Kamera weist bevorzugt eine Belichtungszeit der Aufnahme. Je nach Abstandswert kann eine Über- oder Unterbelichtung drohen, und dies lässt sich durch Anpassung der Belichtungszeit kompensieren. Stattdessen könnte auch eine Beleuchtungseinheit angepasst werden, was aber erneut voraussetzt, dass diese echtzeitfähig ist.
  • Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, Codeinhalte von mit den Objekten aufgenommenen Codes auszulesen. Damit wird die Kamera zu einem kamerabasierten Codeleser für Barcodes und/oder 2D-Codes nach diversen Standards, gegebenenfalls auch für eine Texterkennung (OCR, Optical Character Reading). Für das Decodieren bestehen keine Echtzeitanforderungen, so dass hierfür andere Bausteine zuständig sein können als die echtzeitfähigen Komponenten, mit denen Abstandswerte übertragen, Auslösezeitpunkte bestimmt und Aufnahmen ausgelöst werden.
  • Die Kamera ist bevorzugt stationär an einer Fördereinrichtung montiert, welche die Objekte in Bewegungsrichtung fördert. Dies ist eine sehr häufige industrielle Anwendung einer Kamera, in der sich die Objekte in Relativbewegung dazu befinden. Die örtlichen und zeitlichen Beziehungen zwischen eine Abstandsmessung in einer Förderposition und Bildaufnahme in einer späteren Förderposition sind sehr einfach und berechenbar. Dazu muss lediglich die Fördergeschwindigkeit parametriert, von einer übergeordneten Steuerung übergeben oder, etwa anhand einer Verfolgung eines Höhenprofils, selbst gemessen werden.
  • Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in:
    • 1 eine schematische Schnittdarstellung einer Kamera mit einem optoelektronischen Abstandssensor; und
    • 2 eine dreidimensionale Ansicht einer beispielhaften Anwendung der Kamera in Montage an einem Förderband.
  • 1 zeigt eine schematische Schnittdarstellung einer Kamera 10. Empfangslicht 12 aus einem Erfassungsbereich 14 trifft auf eine Empfangsoptik 16, die das Empfangslicht 12 auf einen Bildsensor 18 führt. Die optischen Elemente der Empfangsoptik 16 sind vorzugsweise als Objektiv aus mehreren Linsen und anderen optischen Elementen wie Blenden, Prismen und dergleichen ausgestaltet, hier aber vereinfachend nur durch eine Linse repräsentiert.
  • Um den Erfassungsbereich 14 während einer Aufnahme der Kamera 10 mit Sendelicht 20 auszuleuchten, umfasst die Kamera 10 eine optionale Beleuchtungseinheit 22, die in 1 in Form einer einfachen Lichtquelle und ohne Sendeoptik dargestellt ist. In anderen Ausführungsformen sind mehrere Lichtquellen, wie LEDs oder Laserdioden, beispielsweise ringförmig um den Empfangspfad angeordnet, die auch mehrfarbig und gruppenweise oder einzeln ansteuerbar sein können, um Parameter der Beleuchtungseinheit 22 wie deren Farbe, Intensität und Richtung anzupassen.
  • Zusätzlich zu dem eigentlichen Bildsensor 18 zur Erfassung von Bilddaten weist die Kamera 10 einen optoelektronischen Abstandssensor 24 auf, der mit einem Lichtlaufzeitverfahren (ToF, Time of Flight) Abstände zu Objekten in dem Erfassungsbereich 14 misst. Der Abstandssensor 24 umfasst einen TOF-Lichtsender 26 mit TOF-Sendeoptik 28 sowie einen TOF-Lichtempfänger 30 mit TOF-Empfangsoptik 32. Damit wird ein TOF-Lichtsignal 34 ausgesandt und wieder empfangen. Eine Lichtlaufzeitmesseinheit 36 bestimmt die Laufzeit des TOF-Lichtsignals 34 und daraus den Abstand zu einem Objekt, an dem das TOF-Lichtsignal 34 zurückgeworfen wurde.
  • Der TOF-Lichtempfänger 30 weist mehrere Lichtempfangselemente 30a auf. Die Lichtempfangselemente 30a bilden einzeln oder in kleineren Gruppen Messzonen, mit denen jeweils ein Abstandswert bestimmt wird. Es wird deshalb vorzugsweise kein einzelner Abstandswert erfasst, obwohl auch das möglich ist, sondern die Abstandswerte sind ortsaufgelöst und können zu einem Höhenprofil zusammengesetzt werden. Die Anzahl der Messzonen des TOF-Lichtempfängers 30 kann vergleichsweise gering bleiben, mit beispielsweise einigen zehn, hundert oder tausend Messzonen, weit entfernt von üblichen Megapixelauflösungen des Bildsensors 18.
  • Der Aufbau des Abstandssensors 24 ist rein beispielhaft. Die optoelektronische Entfernungsmessung mittels Lichtlaufzeitverfahren ist bekannt und wird daher nicht im Einzelnen erläutert. Zwei beispielhafte Messverfahren sind Photomischdetektion mit einem periodisch modulierten TOF-Lichtsignal 34 und Pulslaufzeitmessung mit einem pulsmodulierten TOF-Lichtsignal 34. Dabei gibt es auch hochintegrierte Lösungen, in denen der TOF-Lichtempfänger 30 mit der Lichtlaufzeitmesseinheit 36 oder zumindest Teilen davon, etwa TDCs (Time-to-Digital-Converter) für Laufzeitmessungen, auf einem gemeinsamen Chip untergebracht ist. Dazu eignet sich insbesondere ein TOF-Lichtempfänger 30, der als Matrix von SPAD-Lichtempfangselementen 30a aufgebaut ist (Single-Photon Avalanche Diode). Messzonen aus SPAD-Lichtempfangselementen 30a können gezielt deaktiviert und aktiviert werden, indem die Vorspannung unter oder über die Durchbruchspannung eingestellt wird. Dadurch kann ein aktiver Bereich des Abstandssensors 24 eingestellt werden. Die TOF-Optiken 28, 32 sind nur symbolhaft als jeweilige Einzellinsen stellvertretend für beliebige Optiken wie beispielsweise ein Mikrolinsenfeld gezeigt.
  • Trotz seines Namens ist der Abstandssensor 24 in bevorzugter Ausführungsform zusätzlich in der Lage, auch einen Remissionswert zu messen. Dazu wird die Intensität des empfangenen TOF-Lichtsignals 34 ausgewertet. Bei SPAD-Lichtempfangselementen 30a ist das einzelne Ereignis nicht für eine Intensitätsmessung geeignet, weil bei Registrierung eines Photons durch den unkontrollierten Lawinendurchbruch derselbe maximale Photostrom erzeugt wird. Sehr wohl aber können Ereignisse in mehreren SPAD-Lichtempfangselementen 30a einer Messzone und/oder über eine längere Messdauer gezählt werden. Das ist dann auch bei SPAD-Lichtempfangselementen ein Maß für die Intensität.
  • Zur echtzeitfähigen Auswertung der Abstandswerte des Abstandssensors 24 ist eine echtzeitfähige Steuer- und Auswertungseinheit 37 vorgesehen. Sie umfasst beispielsweise einen echtzeitfähigen Mikroprozessor oder FPGA, oder eine Kombination davon. Die Verbindung zwischen Abstandssensor 24 und echtzeitfähiger Steuer- und Auswertungseinheit 37 kann über 12C oder SPI realisiert werden. Eine Verbindung zwischen Mikroprozessor und FPGA kann über PCI, PCle, MIPI, UART oder Ähnliches erfolgen. Von der echtzeitfähigen Steuer- und Auswertungseinheit 37 werden die zeitkritischen Prozesse gesteuert, insbesondere die Echtzeitsynchronisation mit der Bildaufnahme des Bildsensors 18. Außerdem werden anhand der Auswertung der Abstandswerte Einstellungen der Kamera 10 vorgenommen, etwa eine Fokuslage oder Belichtungszeit eingestellt.
  • Eine weitere Steuer- und Auswertungseinheit 38 muss nicht echtzeitfähig sein und ist mit der Beleuchtungseinheit 22, dem Bildsensor 18 und der Steuer- und Auswertungseinheit 37 des Abstandssensors 24 verbunden. Diese Steuer- und Auswertungseinheit ist für weitere Steuerungs-, Auswertungs- und sonstigen Koordinierungsaufgaben in der Kamera 10 zuständig. Sie liest also Bilddaten des Bildsensors 18 aus, um sie zu speichern beziehungsweise an einer Schnittstelle 40 auszugeben. Vorzugsweise ist die Steuer- und Auswertungseinheit 38 in der Lage, Codebereiche in den Bilddaten aufzufinden und zu decodieren, womit die Kamera 10 zu einem kamerabasierten Codeleser wird.
  • Die Aufteilung in eine echtzeitfähige Steuer- und Auswertungseinheit 37 und eine nicht echtzeitfähige Steuer- und Auswertungseinheit 38 in 1 soll das Prinzip klarmachen und ist rein beispielhaft. Die echtzeitfähige Steuer- und Auswertungseinheit 37 kann mindestens teilweise in dem Abstandssensor 24 oder dessen Lichtlaufzeitmesseinheit 36 implementiert sein. Weiterhin können Funktionen zwischen den Steuer- und Auswertungseinheiten 37, 38 verschoben werden. Erfindungsgemäß nicht möglich ist lediglich, dass ein nicht echtzeitfähiger Baustein zeitkritische Funktionen wie das Bestimmen eines Auslösezeitpunkts für den Bildsensor 18 übernimmt.
  • Die Kamera 10 wird durch ein Gehäuse 42 geschützt, das im vorderen Bereich, wo das Empfangslicht 12 einfällt, durch eine Frontscheibe 44 abgeschlossen ist.
  • 2 zeigt eine mögliche Anwendung der Kamera 10 in Montage an einem Förderband 46. Die Kamera 10 wird hier nur noch als ein einziges Symbol und nicht mehr mit ihrem bereits anhand der 1 erläuterten Aufbau gezeigt. Das Förderband 46 fördert Objekte 48, wie durch eine Bewegungsrichtung 50 mit einem Pfeil angedeutet, durch den Erfassungsbereich 14 der Kamera 10. Die Objekte 48 können an ihren Außenflächen Codebereiche 52 tragen. Aufgabe der Kamera 10 ist, Eigenschaften der Objekte 48 zu erfassen und in einem bevorzugten Einsatz als Codeleser die Codebereiche 52 zu erkennen, die dort angebrachten Codes auszulesen, zu dekodieren und dem jeweils zugehörigen Objekt 48 zuzuordnen. Um auch Objektseiten und insbesondere seitlich angebrachte Codebereiche 54 zu erfassen, werden vorzugsweise zusätzliche, nicht dargestellte Kameras 10 aus unterschiedlicher Perspektive eingesetzt.
  • Die Anwendung an einem Förderband 46 ist nur ein Beispiel. Die Kamera 10 kann alternativ für andere Anwendungen eingesetzt werden, etwa an einem festen Arbeitsplatz, an dem ein Arbeiter jeweils Objekte 48 in den Erfassungsbereich hält.
  • Die Echtzeitverarbeitung von Abstandswerten und die Steuerung der Bildaufnahme durch die Steuer- und Auswertungseinheit 37 wird nun in einem Ablaufbeispiel erläutert.
  • Der Abstandssensor 24 beziehungsweise dessen Lichtlaufzeitmesseinheit 36 kümmern sich bereits darum, die Rohdaten beispielsweise in Form von Empfangsereignissen in Abstandswerte umzurechnen. Zudem stehen je nach Ausführungsform ein Zeitstempel für den Zeitpunkt der Abstandsmessung des jeweiligen Abstandswertes und ein Remissionswert zur Verfügung. Bei einem einzonigen Abstandssensor 24 wird jeweils nur ein Abstandswert gemessen, der nicht weiter ausgewertet werden kann. Bei mehreren Messzonen und damit Abstandswerten wird bevorzugt eine Vorauswahl relevanter Messzonen getroffen. In einer Förderbandanwendung wie in 2 sind das vorzugsweise Messzonen, die möglichst früh ein kommendes Objekt 48 erfassen. Bei einer Arbeitsstation, in der Objekte 48 manuell in den Erfassungsbereich 14 gehalten werden, eignen sich eher zentrale Messzonen. Da manche Einstellungen nur einmal und nicht differenziert für ein Höhenprofil vorgenommen werden können, wie im Falle einer Fokuslage, werden die mehreren Abstandswerte noch miteinander verrechnet, beispielsweise als Mittelwert.
  • Meist ist es möglich, Objekte 48 anhand der Abstandswerte voneinander zu trennen. Aufgrund von Messfehlern des Abstandssensors 24 und in ungünstigen Konstellationen, etwa dicht aufeinanderfolgenden Objekten 48 ähnlicher Höhe oder bei sehr flachen Objekten 48 wie einem Brief, ist das nicht immer möglich. Dann kann der Remissionswert als ergänzendes oder alternatives Kriterium verwendet werden. In einem konkreten Beispiel kann geprüft werden, ob die Abstandswerte sich um mehr als eine Rauschschwelle von dem Abstand zu dem Förderband 46 unterscheiden. Ist das der Fall, so sind die Abstandswerte das dominante Merkmal, anhand derer der Fokuslage eingestellt wird.
  • Ein Mittelwert wird vorzugsweise nur aus Abstandswerten ungleich dem Abstand zu dem Förderband 46 gebildet, da nur diese zu dem angemessenen Objekt 48 gehören. Wenn umgekehrt alle Abstände im Rahmen der Rauschschwelle lediglich das Förderband 46 messen, so wird geprüft, ob die Remissionswerte einen Unterschied erkennen lassen, um beispielsweise einen hellen Brief auf einem dunklen Förderband 46 zu erkennen. Eine Fokuslage kann dann auf die Ebene des Förderbandes 46 gelegt werden. Gibt es weder im Abstand noch in der Remission signifikante Unterschiede, so kann ein Objekt 48 übersehen werden - ein schwarzer Brief auf schwarzem Untergrund wird nicht erkannt, würde aber ohnehin keinen lesbaren Code 52 tragen können.
  • Bei einer alternativen Anwendung, in der Objekte 48 von Hand in den Erfassungsbereich 14 gehalten werden, ist es äußerst unwahrscheinlich, dass dies lückenlos für zwei aufeinanderfolgende Objekte 48 in gleichem Abstand erfolgt. Eine Trennung von Objekten 48 anhand der Abstandswerte ist daher in aller Regel möglich. Dennoch ist auch hier ein ergänzender Rückgriff auf Remissionswerte vorstellbar.
  • Somit wird erkannt, wenn eine neue Kameraeinstellung und ein Auslösezeitpunkt für ein weiteres Objekt 48 benötigt wird. Der Auslösezeitpunkt, zu dem die Bildaufnahme erfolgt, ergibt sich aus dem Zeitstempel. Dabei ist noch ein fester oder dynamisch bestimmter Zeitversatz zu berücksichtigen. In der Förderbandanwendung ist das die Zeit, die das Objekt 48 benötigt, bis es von der ersten Erfassung durch den Abstandssensor 24 in die Aufnahmeposition beispielsweise mittig im Erfassungsbereich 14 gefördert wurde. Das hängt einmal von der Bandgeschwindigkeit ab, die durch Parametrierung, Vorgabe oder Messung bekannt ist, und zum anderen von der über die Abstandswerte gemessenen Objekthöhe sowie der geometrischen Anordnung. In einer Anwendung mit manueller Führung von Objekten 48 genügt ein konstanter Zeitversatz.
  • Die echtzeitfähige Steuer- und Auswertungseinheit 37 stellt die Kamera 10 vorzugsweise nicht sofort entsprechend den zuletzt gemessenen Abstandswerten um, sondern geordnet erst zum Auslösezeitpunkt, natürlich soweit möglich rechtzeitig unter Berücksichtigung von Anpassungsverzögerungen. Beispielsweise darf eine Fokuslage nicht sofort verstellt werden, wenn zuvor noch ein anderes Objekt 48 aufgenommen werden soll. Dann sind zunächst bis zu dessen Auslösungszeitpunkt dessen Abstandswerte maßgeblich. Sobald die echtzeitfähige Steuer- und Auswertungseinheit 37 festgestellt hat, dass auf kein voriges Bild mehr gewartet werden muss, kann die Umstellung einsetzen.
  • Die Bildaufnahme erfolgt grundsätzlich zum Auslösezeitpunkt. Wenn jedoch die Beleuchtungseinheit 22 gepulst mit einer vorgegebenen Frequenz betrieben wird, sollte die Bildaufnahme damit synchronisiert sein. Dazu wird die Bildaufnahme auf einen geeigneten Beleuchtungspuls aufsynchronisiert, also beispielsweise auf den nächsten Beleuchtungspuls vor oder nach dem ursprünglich vorgesehenen Auslösezeitpunkt verschoben. Prinzipiell ist alternativ vorstellbar, den Beleuchtungspuls zu verschieben. Das muss aber die Beleuchtungseinheit 22 unterstützen, und zudem ist die Pulsfolge häufig keine freie Variable, sondern durch Randbedingungen vorgegeben.
  • Die häufig als Beispiel herangezogene Fokuslage ist keineswegs die einzig denkbare Kameraeinstellung. Beispielsweise ist auch eine Anpassung der Belichtungszeit je nach Abstandswert vorstellbar, um eine Über- oder Unterbelichtung zu vermeiden. Dafür wäre alternativ eine Anpassung der Beleuchtungsintensität denkbar. Das setzt aber eine echtzeitfähige Einstellungsmöglichkeit der Beleuchtungseinheit 22 voraus.
  • Bei der Speicherung oder Ausgabe der Bilddaten, die zum Auslösezeitpunkt erfasst werden, können Metadaten wie die Abstandswerte oder der Auslösezeitpunkt angehängt werden. Das ermöglicht weitere Auswertungen zu einem späteren Zeitpunkt und auch eine Diagnose und Verbesserung der Kamera 10 und ihrer Anwendung.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102018105301 A1 [0005]

Claims (14)

  1. Kamera (10) zur Erfassung von Objekten (48) in einem Erfassungsbereich (14), die einen Bildsensor (18) zur Aufnahme von Bilddaten der Objekte (48), einen Abstandssensor (24) zur Erfassung mindestens eines Abstandswerts zu einem jeweiligen Objekt (48) sowie eine Steuer- und Auswertungseinheit (37, 38) aufweist, die dafür ausgebildet ist, anhand des Abstandswerts mindestens eine Einstellung der Kamera (10) für eine Aufnahme vorzunehmen, dadurch gekennzeichnet, dass die Steuer- und Auswertungseinheit (37) echtzeitfähig sowie dafür ausgebildet ist, anhand einer Zeitinformation des Abstandssensors (24) eine Aufnahme zu einem Auslösezeitpunkt zu erzeugen.
  2. Kamera (10) nach Anspruch 1, wobei die Steuer- und Auswertungseinheit (37) einen mit dem Abstandssensor (24) verbundenen echtzeitfähigen Mikroprozessor oder ein mit dem Abstandssensor (24) verbundenes FPGA aufweist, die insbesondere in den Abstandssensor (24) integriert sind.
  3. Kamera (10) nach Anspruch 1 oder 2, die eine dem Bildsensor (18) vorgeordnete fokusverstellbare Optik (16) aufweist und wobei die Einstellung der Kamera (10) eine Fokuseinstellung umfasst.
  4. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei der Abstandssensor (24) in die Kamera (10) integriert ist.
  5. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei der Abstandssensor (24) ein optoelektronischer Abstandssensor insbesondere nach dem Prinzip des Lichtlaufzeitverfahrens ist.
  6. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei der Abstandssensor (24) mehrere Messzonen (30a) zur Messung von mehreren Abstandswerten aufweist und wobei insbesondere die Steurer- und Auswertungseinheit (37) dafür ausgebildet ist, aus den mehreren Abstandswerten einen gemeinsamen Abstandswert zu bilden.
  7. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (37) dafür ausgebildet ist, ein neues Objekt (48) zu erkennen, wenn sich der Abstandswert verändert, und dann einen Auslösezeitpunkt dafür zu bestimmen.
  8. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei der Abstandssensor (24) dafür ausgebildet ist, einen Remissionswert zu bestimmen und wobei insbesondere die Steuer- und Auswertungseinheit (37) dafür ausgebildet ist, ein neues Objekt (48) zu erkennen, wenn sich der Remissionswert verändert, und dann einen Auslösezeitpunkt dafür zu bestimmen.
  9. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (37) dafür ausgebildet ist, die Einstellung der Kamera (10) gemäß einer Abfolge mehrerer Auslösezeitpunkte vorzunehmen.
  10. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei der Abstandssensor (24) dafür ausgebildet ist, als Zeitinformation einen Zeitstempel zu einem Abstandswert oder einen Auslösezeitpunkt zu übertragen.
  11. Kamera (10) nach einem der vorhergehenden Ansprüche, die eine gepulste Beleuchtungseinheit (22) aufweist, wobei die Steuer- und Auswertungseinheit (37) dafür ausgebildet ist, den Auslösezeitpunkt mit einem Beleuchtungspuls zu synchronisieren.
  12. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Einstellung der Kamera (10) eine Belichtungszeit der Aufnahme aufweist.
  13. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (38) dafür ausgebildet ist, Codeinhalte von mit den Objekten (48) aufgenommenen Codes (52) auszulesen.
  14. Kamera (10) nach einem der vorhergehenden Ansprüche, die stationär an einer Fördereinrichtung (46) montiert ist, welche die Objekte (48) in Bewegungsrichtung (50) fördert.
DE202020102581.3U 2020-05-07 2020-05-07 Erfassung von Objekten Expired - Lifetime DE202020102581U1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202020102581.3U DE202020102581U1 (de) 2020-05-07 2020-05-07 Erfassung von Objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202020102581.3U DE202020102581U1 (de) 2020-05-07 2020-05-07 Erfassung von Objekten

Publications (1)

Publication Number Publication Date
DE202020102581U1 true DE202020102581U1 (de) 2021-08-10

Family

ID=77457650

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202020102581.3U Expired - Lifetime DE202020102581U1 (de) 2020-05-07 2020-05-07 Erfassung von Objekten

Country Status (1)

Country Link
DE (1) DE202020102581U1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018105301A1 (de) 2018-03-08 2019-09-12 Sick Ag Kamera und Verfahren zur Erfassung von Bilddaten

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018105301A1 (de) 2018-03-08 2019-09-12 Sick Ag Kamera und Verfahren zur Erfassung von Bilddaten

Similar Documents

Publication Publication Date Title
DE102018105301B4 (de) Kamera und Verfahren zur Erfassung von Bilddaten
EP2546776B1 (de) Kamerabasierter Codeleser und Verfahren zu dessen justierter Herstellung
DE112011101667T5 (de) Abtastender 3D-Bildgeber
EP3383026B1 (de) Kamera und verfahren zur erfassung von relativ zu der kamera in einer förderrichtung bewegten objekten
EP1813961A2 (de) Vorrichtung zur optoelektronischen Überwachung von Objekten
DE102020109929B3 (de) Erfassung von Bilddaten eines bewegten Objekts
EP3892955B1 (de) Kamera und verfahren zur erfassung von bilddaten
EP1160719B1 (de) Sensor für die Echtheitserkennung von Signets auf Dokumenten
WO2020070311A1 (de) Bildgebender sensor
WO2020114740A1 (de) Lidar-system sowie kraftfahrzeug
DE102020112430B4 (de) Kamera und Verfahren zur Erfassung von Objekten
DE202020102581U1 (de) Erfassung von Objekten
EP3910547B1 (de) Erfassung von bewegten objekten
DE102006043956A1 (de) Filmabtaster und Erfassungsvorrichtung dafür
EP4075394B1 (de) Erfassung eines bewegten stromes von objekten
DE102014005521B4 (de) Pulslaufzeitsensor für große Abstände und hoher Abtastrate
EP3839556B1 (de) Optoelektronischer sensor und verfahren zur erfassung eines objekts
DE202020102757U1 (de) Erfassung von bewegten Objekten
EP4102293B1 (de) Kamera und verfahren zur erfassung von durch einen erfassungsbereich bewegten objekten
DE102019213812A1 (de) Optischer Sensor
DE202021103066U1 (de) Kamera zur Erfassung von durch einen Erfassungsbereich bewegten Objekten
DE202019105903U1 (de) Beleuchtung eines Erfassungsbereichs zum Erfassen von Bilddaten
DE102019128710A1 (de) Beleuchtung eines Erfassungsbereichs und Verfahren zum Erfassen von Bilddaten
DE202014105098U1 (de) Kamera zur Erfassung von Objekten
EP4358530A1 (de) Erfassung von objekten eines sich bewegenden objektstroms

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: HEHL, ULRICH, DIPL.-PHYS. DR. RER. NAT., DE

R207 Utility model specification
R156 Lapse of ip right after 3 years