DE202020102757U1 - Erfassung von bewegten Objekten - Google Patents

Erfassung von bewegten Objekten Download PDF

Info

Publication number
DE202020102757U1
DE202020102757U1 DE202020102757.3U DE202020102757U DE202020102757U1 DE 202020102757 U1 DE202020102757 U1 DE 202020102757U1 DE 202020102757 U DE202020102757 U DE 202020102757U DE 202020102757 U1 DE202020102757 U1 DE 202020102757U1
Authority
DE
Germany
Prior art keywords
camera
distance
objects
area
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202020102757.3U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE202020102757.3U priority Critical patent/DE202020102757U1/de
Publication of DE202020102757U1 publication Critical patent/DE202020102757U1/de
Expired - Lifetime legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0608Height gauges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Abstract

Kamera (10) zur Erfassung von relativ zu der Kamera (10) in einer Bewegungsrichtung (50) bewegten Objekten (48), wobei die Kamera (10) einen Bildsensor (18) zur Aufnahme von Bilddaten der Objekte (48) in einem Kamerasichtfeld (14, 56), einen optoelektronischen Abstandssensor (24) nach dem Prinzip des Lichtlaufzeitverfahrens mit mehreren Messzonen (30a) zur Messung von mehreren Abstandswerten zu den Objekten (48) in einem Abstandsmessungssichtfeld (58) sowie eine mit dem Bildsensor (18) und dem Abstandssensor (24) verbundene Steuer- und Auswertungseinheit (38) aufweist, dadurch gekennzeichnet, dass die Steuer- und Auswertungseinheit (38) dafür ausgebildet ist, automatisch einen interessierenden Bereich (60) für den Abstandssensor (24) innerhalb des Abstandsmessungssichtfeldes (58) zu konfigurieren, indem durch Messen von Abstandswerten über eine Konfigurationszeit sowie Auswerten der Abstandswerte und/oder deren Änderung ein Objektbereich als derjenige Bereich bestimmt wird, in dem sich Objekte (48) bewegen.

Description

  • Die Erfindung betrifft eine Kamera zur Erfassung von in einer Bewegungsrichtung bewegten Objekten nach dem Oberbegriff von Anspruch 1.
  • In industriellen Anwendungen werden Kameras in vielfältiger Weise eingesetzt, um Objekteigenschaften automatisch zu erfassen, beispielsweise zur Inspektion oder Vermessung von Objekten. Dabei werden Bilder des Objekts aufgenommen und entsprechend der Aufgabe durch Bildverarbeitungsverfahren ausgewertet. Eine weitere Anwendung von Kameras ist das Lesen von Codes. Mit Hilfe eines Bildsensors werden Objekte mit den darauf befindlichen Codes aufgenommen, in den Bildern die Codebereiche identifiziert und dann dekodiert. Kamerabasierte Codeleser kommen problemlos auch mit anderen Codearten als eindimensionalen Strichcodes zurecht, die wie ein Matrixcode auch zweidimensional aufgebaut sind und mehr Informationen zur Verfügung stellen. Auch die automatische Texterfassung von gedruckten Adressen (OCR, Optical Character Recognition) oder Handschriften ist im Prinzip ein Lesen von Codes. Typische Anwendungsgebiete von Codelesern sind Supermarktkassen, die automatische Paketidentifikation, Sortierung von Postsendungen, die Gepäckabfertigung in Flughäfen und andere Logistikanwendungen.
  • Eine häufige Erfassungssituation ist die Montage der Kamera über einem Förderband. Die Kamera nimmt während der Relativbewegung des Objektstroms auf dem Förderband Bilder auf und leitet in Abhängigkeit der gewonnenen Objekteigenschaften weitere Bearbeitungsschritte ein. Solche Bearbeitungsschritte bestehen beispielsweise in der an das konkrete Objekt angepassten Weiterverarbeitung an einer Maschine, die auf geförderte Objekte einwirkt, oder in einer Veränderung des Objektstroms, indem bestimmte Objekte im Rahmen einer Qualitätskontrolle aus dem Objektstrom ausgeschleust werden oder der Objektstrom in mehrere Teilobjektströme sortiert wird. Wenn die Kamera ein kamerabasierter Codeleser ist, werden die Objekte für eine korrekte Sortierung oder ähnliche Bearbeitungsschritte anhand der angebrachten Codes identifiziert.
  • Die Kamera ist vielfach Teil eines komplexen Sensorsystems. Beispielsweise ist es bei Lesetunneln an Förderbändern üblich, die Geometrie der geförderten Objekte vorab mit einem gesonderten Laserscanner zu vermessen und daraus Fokusinformationen, Auslösezeitpunkte, Bildbereiche mit Objekten und dergleichen zu bestimmen. Das erfordert zahlreiche manuelle Einrichtungsschritte für den vorgelagerten Laserscanner und die korrekte Verarbeitung von dessen Eingangsdaten in der Kamera.
  • In der DE 10 2018 105 301 A1 wird eine Kamera vorgestellt, die einen integrierten Abstandssensor aufweist. Damit können auch mehrere Abstände in Ortsauflösung gemessen werden, aber bisher ist das Auslesen der mehreren Messzonen des Abstandssensors nur sequentiell möglich. Daher lässt sich ein Höhenprofil nicht eindeutig rekonstruieren, beziehungsweise nur mit Aufwand und in Kenntnis der Fördergeschwindigkeit der Objekte. Der Abstandssensor ist in DE 10 2018 105 301 A1 eine Quelle für zusätzliche Information, die in der Kamera genutzt wird. Eine Konfiguration des Abstandssensors selbst findet aber nicht statt.
  • Die DE 10 2017 129 609 A1 offenbart eine 3D-Kamera, die ihren Erfassungsbereich in säulenartige Zellen auf einem zweidimensionalen Raster unterteilt. Bewegungen werden durch statistische Auswertung von Erfassungen in diesen Zellen erfasst. Dabei handelt es sich jedoch nicht um eine Kamera mit Abstandssensor zur Bestimmung von Hilfsparametern für die Kamera, sondern die Kamera misst selbst die Abstände mit dem Ziel einer Bewegungsdetektion als eigentliches Messergebnis. Eine Konfiguration anhand dieser Messungen findet nicht statt.
  • Aus der EP 2 708 914 A1 oder der EP 3 339 887 B1 ist jeweils ein Lichtempfänger bekannt, der Lawinenphotodioden im Geigermodus oder SPADs (Single-Photon Avalanche Diode) aufweist, mit denen Lichtlaufzeiten und somit Abstände bestimmt werden. Dabei können Teilbereiche des Lichtempfängers durch Einstellung der Vorspannung aktiviert und deaktiviert werden. Erneut sind die Abstände das eigentliche Ziel der Messung und nicht Hilfsparameter einer Kamera.
  • Es ist daher Aufgabe der Erfindung, die Handhabung einer Kamera mit Abstandssensor zu erleichtern.
  • Diese Aufgabe wird durch eine Kamera zur Erfassung von in einer Bewegungsrichtung bewegten Objekten nach Anspruch 1 gelöst. Mit einem Bildsensor werden Bilddaten der Objekte aufgenommen. Aufgrund einer Relativbewegung zwischen den Objekten und der Kamera bewegen sich die Objekte in beziehungsweise durch das Kamerasichtfeld. Die Kamera umfasst zusätzlich zu dem Bildsensor einen optoelektronischen Abstandssensor nach dem Prinzip des Lichtlaufzeitverfahrens mit mehreren Messzonen. Eine Messzone weist vorzugsweise ein oder mehrere Lichtempfangselemente auf. Jede Messzone ist in der Lage, einen Abstandswert zu messen, so dass insgesamt eine lateral ortsaufgelöste Messung mehrerer Abstandswerte erfolgt. Der Abstandssensor weist ein Abstandsmessungssichtfeld auf, das von dem Kamerasichtfeld zu unterscheiden ist. Eine Steuer- und Auswertungseinheit hat Zugriff auf die Bilddaten des Bildsensors und den Abstandssensor.
  • Die Erfindung geht von dem Grundgedanken aus, eine automatische Konfiguration des Abstandssensors zu ermöglichen. Dabei soll ein interessierender Bereich (ROI, region of interest) für den Abstandssensor innerhalb des Abstandsmessungssichtfeldes festgelegt werden. Es sei eigens betont, dass es sich um eine Konfiguration und einen interessierenden Bereich des Abstandssensors und nicht der Kamera selbst handelt. Es wird ein Objektereich bestimmt, in dem sich tatsächlich Objekte bewegen, denn nur das liefert relevante Informationen. Dies betrifft insbesondere eine passende Begrenzung quer zur Bewegungsrichtung, wobei auch längs der Bewegungsrichtung vorzugsweise eine Beschränkung erfolgt, mit denen die kommenden Objekte rechtzeitig vermessen werden.
  • Der interessierende Bereich wird anhand des Objektbereichs definiert, insbesondere durch Auswahl bestimmter Messzonen. Das kann bedeuten, den interessierenden Bereich gerade auf den Objektbereich festzulegen, aber es sind auch Anpassungen möglich, mit denen noch Teilbereiche hinzukommen oder wegfallen. Um den Objektbereich zu finden, wird das Abstandsmessungssichtfeld für eine gewisse Konfigurationszeit beobachtet. Die dabei gemessenen Abstandswerte beziehungsweise deren Änderungen werden ausgewertet. Die Konfigurationszeit ist beispielsweise vorgegeben oder endet, wenn genügend Abstandswerte erfasst sind. Die Konfigurationszeit ist dem eigentlichen Betrieb vorgelagert oder überlappt damit, etwa indem der Abstandssensor zunächst mit seinem vollen Abstandsmessungssichtfeld arbeitet und dies dann später in einem Schritt oder nach und nach auf einen optimalen interessierenden Bereich einschränkt.
  • Die Erfindung hat den Vorteil, dass eine mühsame manuelle Einstellung des Abstandssensors durch einen automatischen Ablauf ersetzt wird. Der Abstandssensor wird ohne zusätzlichen Aufwand für die gegebene Ausrichtung der Kamera und die vorhandene Umgebung angepasst, und dabei werden verlässlich sehr gute oder gar optimale Ergebnisse erreicht, die nicht von der Erfahrung des Einrichters abhängen. Die Kamera kann dementsprechend situationsangepasst entsprechend der dann gemessenen Abstandsmesswerte reagieren, beispielsweise eine Aufnahme auslösen, einen Fokus oder eine Beleuchtung einstellen.
  • Der Abstandssensor ist bevorzugt in die Kamera integriert. Das ergibt einen besonders kompakten Aufbau mit einfachem internem Datenzugriff und deutlich vereinfachter Montage. Außerdem ist damit die gegenseitige Ausrichtung von Abstandssensor und Kamera bekannt und festgelegt.
  • Die Messzonen sind vorzugsweise parallel auslesbar. Dadurch können praktisch gleichzeitig mehrere lateral ortsaufgelöste Abstandswerte erfasst werden, so dass sich ein konsistentes Höhenprofil ergibt. Bei herkömmlichem sequentiellem Auslesen müssen dafür die Abstandswerte noch mit den verschiedenen Auslesezeitpunkten und der Relativbewegung verrechnet werden.
  • Die Steuer-und Auswertungseinheit ist bevorzugt dafür ausgebildet, über eine Variationszeit ein statistisches Maß für Änderungen der Abstandswerte einer jeweiligen Messzone zu bestimmen. Die Variationszeit kann zur Vereinfachung und Verkürzung der Konfigurationszeit entsprechen oder damit überlappen, ist aber nicht zwingend daran gebunden. Das statistische Maß ist insbesondere eine Varianz oder Standardabweichung der Abstandswerte je Messzone. Liegt das statistische Maß über einer Toleranzschwelle, so haben sich die Abstandswerte über die Variationszeit mehr als rauschbedingt verändert. Deshalb kann angenommen werden, dass sich mindestens ein Objekt durch die entsprechende Messzone bewegt hat, die somit zum Objektbereich gehört. Diese Messung und Auswertung wird vorzugsweise für alle Messzonen durchgeführt.
  • Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, über eine Hintergrunderfassungszeit jeweils einen Maximalwert der Abstandswerte einer jeweiligen Messzone zu bestimmen. Die derart bestimmten Maximalwerte ergeben ein Höhenprofil des Hintergrundes ohne bewegte Objekte. Denn Objekte sind wegen der Relativbewegung als temporär zu betrachten, sie verkürzen die gemessenen Abstände im Vergleich zum Hintergrund so lange, wie sie sich im Abstandsmessungssichtfeld bewegen. Wenn die Hintergrunderfassungszeit also unter Berücksichtigung der Objektgrößen und der Dichte des Objektstroms lang genug ist, wird eine Messzone irgendwann auch eine Messung ohne Objekt durchführen und den entsprechenden Maximalwert liefern. Die Hintergrunderfassungszeit kann mit der Konfigurationszeit beziehungsweise der Variationszeit übereinstimmen oder überlappen, muss dies aber funktionell nicht. Auch der Hintergrund wird vorzugsweise für alle Messzonen bestimmt.
  • Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, den interessierenden Bereich anhand der Maximalwerte und einer erwarteten Hintergrundgeometrie anzupassen, wobei insbesondere die Anpassung eine Richtung quer zu der Bewegungsrichtung betrifft. In derartigen Ausführungsformen ist der interessierende Bereich nicht allein durch den Objektbereich bestimmt, sondern wird noch weiter angepasst. Das basiert auf einer Erwartungshaltung an den relevanten Hintergrund, insbesondere dass die Objekte auf einem ebenen Untergrund bewegt werden, wie im Falle eines Förderbandes.
  • Der interessierende Bereich kann durch die Anpassung verkleinert werden. Das ist beispielsweise vorteilhaft, wenn sich die Objekte zwischen seitlichen Aufbauten bewegen. Dann kann während der Konfiguration eine Messzone ein hohes Objekt noch unter relativ flachem Winkel getroffen haben, obwohl diese Messzone eigentlich nur die seitlichen Aufbauten erfasst, wenn kein Objekt vorhanden ist. Solche Messzonen sollen bevorzugt nicht zum interessierenden Bereich gehören, und das kann erkannt werden, weil der Maximalwert dieser Messzone nicht zu der Annahme einer flachen Hintergrundgeometrie passt.
  • Umgekehrt kann der interessierende Bereich durch die Anpassung auch vergrößert werden. Damit werden solche Messzonen noch einbezogen, in denen sich während der Konfigurationszeit kein Objekt bewegt hat, obwohl die Messzone eigentlich noch einen relevanten Bereich erfasst, beispielsweise einen Rand eines Förderbandes. Der interessierende Bereich wird hier noch ausgedehnt, soweit die Maximalwerte der erwarteten Hintergrundgeometrie entsprechen, hier dem flachen Förderband. Die Bewertung für die Anpassungen, sowohl für eine Verkleinerung wie eine Vergrößerung, erfolgt vorzugsweise mit einer anwendungsspezifischen Toleranzschwelle. Die Anpassung betrifft vorzugsweise die Querrichtung zu der Bewertungsrichtung. Nur hier kann es seitliche Aufbauten geben, und in Bewegungsrichtung durchläuft ein Objekt ohnehin sämtliche dort angeordneten Messzonen.
  • Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, den interessierenden Bereich längs der Bewegungsrichtung auf einen zu den bewegten Objekten hin gerichteten Eintrittsbereich zu beschränken. Es ist vorteilhaft, die Abstandswerte so frühzeitig wie möglich zu gewinnen, um der Kamera Zeit zu geben, sich daran rechtzeitig vor einer Aufnahme anzupassen. Das gelingt mit den Messzonen, die ein Objekt zuerst erfassen, beispielsweise eine gegen die Bewegungsrichtung dem Kamerasichtfeld möglichst weit vorgelagerte Messzone oder Spalte von Messzonen. In Bewegungsrichtung nachgelagerte Messzonen liefern, jedenfalls bei ausreichend schneller Messfrequenz, ohnehin nur redundante Abstandswerte. Für die Funktion wäre es nicht schädlich, wenn zusätzliche Messzonen und nicht nur diejenigen des Eintrittsbereichs Abstandswerte messen, aber das erhöht die anfallende Datenmenge und die Komplexität der Auswertung.
  • Der Abstandssensor weist bevorzugt eine Vielzahl von im Geiger-Modus betreibbaren Lawinenphotodioden auf, und die Steuer- und Auswertungseinheit ist dafür ausgebildet, den interessierenden Bereich durch selektive Aktivierung des Geiger-Modus in dem interessierenden Bereich entsprechenden Lawinenphotodioden einzustellen. Der interessierende Bereich oder die Auswahl der Messzonen ist hier nicht nur eine Softwareeinstellung, sondern eine Aktivierung direkt im Frontend. Nur die aktiven Lawinenphotodioden oder Messzonen liefern überhaupt Abstandswerte, so dass keine besondere Filterung notwendig ist und auch die Leistungsaufnahme des Abstandssensors reduziert werden kann. Lawinenphotodiodenelemente im Geiger-Modus lassen sich besonders einfach dadurch aktivieren und deaktivieren, dass eine Vorspannung über oder unter der Durchbruchspannung angelegt wird.
  • Das Abstandsmessungssichtfeld ragt bevorzugt über das Kamerasichtfeld hinaus, insbesondere gegen die Bewegungsrichtung. Zumindest in der relevanten Richtung, aus der die Objekte kommen, ist damit das Abstandsmessungssichtfeld effektiv größer als das Kamerasichtfeld. Das erleichtert es, rechtzeitig die relevanten Abstandswerte für das Einstellen der Kamera zu erfassen. Vorzugsweise ist das Abstandsmessungssichtfeld zumindest beidseitig längs der Bewegungsrichtung oder sogar auch in Querrichtung größer als das Kamerasichtfeld. Dann ist keine Montagerichtung der Kamera vorgegeben, und es besteht im Nachhinein eine freie Auswahl für die Konfiguration des interessierenden Bereichs in alle Richtungen je nach Montage und Umgebung.
  • Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, Codeinhalte von mit den Objekten aufgenommenen Codes auszulesen. Damit wird die Kamera zu einem kamerabasierten Codeleser für Barcodes und/oder 2D-Codes nach diversen Standards, gegebenenfalls auch für eine Texterkennung (OCR, Optical Character Reading).
  • Die Kamera ist bevorzugt stationär an einer Fördereinrichtung montiert, welche die Objekte in Bewegungsrichtung fördert. Dies ist eine sehr häufige industrielle Anwendung einer Kamera, in der sich die Objekte in Relativbewegung dazu befinden. Es gibt einen bekannten, meist flachen Hintergrund in festem Abstand in Form eines Förderbandes oder zumindest von Schalen oder Behältern sowie einen gleichmäßigen Objektstrom effektiv in nur einer Dimension.
  • Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in:
    • 1 eine schematische Schnittdarstellung einer Kamera mit einem optoelektronischen Abstandssensor;
    • 2 eine dreidimensionale Ansicht einer beispielhaften Anwendung der Kamera in Montage an einem Förderband;
    • 3 eine schematische Schnittansicht der Kamera sowie der jeweiligen Sichtfelder von Kamera und Abstandssensor;
    • 4 eine beispielhafte Darstellung einer Kamera mit angepasstem Sichtfeld des Abstandssensors über einem Förderband mit seitlichen Aufbauten; und
    • 5 eine Darstellung der gemessenen Abstandswerte über die Breite eines Förderbandes sowie des angepassten Sichtfeldes des Abstandssensors in der Beispielsituation der 4.
  • 1 zeigt eine schematische Schnittdarstellung einer Kamera 10. Empfangslicht 12 aus einem Erfassungsbereich 14 trifft auf eine Empfangsoptik 16, die das Empfangslicht 12 auf einen Bildsensor 18 führt. Die optischen Elemente der Empfangsoptik 16 sind vorzugsweise als Objektiv aus mehreren Linsen und anderen optischen Elementen wie Blenden, Prismen und dergleichen ausgestaltet, hier aber vereinfachend nur durch eine Linse repräsentiert.
  • Um den Erfassungsbereich 14 während einer Aufnahme der Kamera 10 mit Sendelicht 20 auszuleuchten, umfasst die Kamera 10 eine optionale Beleuchtungseinheit 22, die in 1 in Form einer einfachen Lichtquelle und ohne Sendeoptik dargestellt ist. In anderen Ausführungsformen sind mehrere Lichtquellen, wie LEDs oder Laserdioden, beispielsweise ringförmig um den Empfangspfad angeordnet, die auch mehrfarbig und gruppenweise oder einzeln ansteuerbar sein können, um Parameter der Beleuchtungseinheit 22 wie deren Farbe, Intensität und Richtung anzupassen.
  • Zusätzlich zu dem eigentlichen Bildsensor 18 zur Erfassung von Bilddaten weist die Kamera 10 einen optoelektronischen Abstandssensor 24 auf, der mit einem Lichtlaufzeitverfahren (ToF, Time of Flight) Abstände zu Objekten in dem Erfassungsbereich 14 misst. Der Abstandssensor 24 umfasst einen TOF-Lichtsender 26 mit TOF-Sendeoptik 28 sowie einen TOF-Lichtempfänger 30 mit TOF-Empfangsoptik 32. Damit wird ein TOF-Lichtsignal 34 ausgesandt und wieder empfangen. Eine Lichtlaufzeitmesseinheit 36 bestimmt die Laufzeit des TOF-Lichtsignals 34 und daraus den Abstand zu einem Objekt, an dem das TOF-Lichtsignal 34 zurückgeworfen wurde.
  • Der TOF-Lichtempfänger 30 weist mehrere Lichtempfangselemente 30a auf. Die Lichtempfangselemente 30a bilden einzeln oder in kleineren Gruppen Messzonen, mit denen jeweils ein Abstandswert bestimmt wird. Es wird deshalb kein einzelner Abstandswert erfasst, sondern die Abstandswerte sind ortsaufgelöst und können zu einem Höhenprofil zusammengesetzt werden. Die Messzonen sind vorzugsweise parallel auslesbar, damit bei einer Relativbewegung zwischen Kamera 10 und erfasstem Objekt ein konsistentes Höhenprofil erzeugt wird. Die Anzahl der Messzonen des TOF-Lichtempfängers 30 kann vergleichsweise gering bleiben, mit beispielsweise einigen zehn, hundert oder tausend Messzonen, weit entfernt von üblichen Megapixelauflösungen des Bildsensors 18.
  • Der Aufbau des Abstandssensors 24 ist rein beispielhaft. Die optoelektronische Entfernungsmessung mittels Lichtlaufzeitverfahren ist bekannt und wird daher nicht im Einzelnen erläutert. Zwei beispielhafte Messverfahren sind Photomischdetektion mit einem periodisch modulierten TOF-Lichtsignal 34 und Pulslaufzeitmessung mit einem pulsmodulierten TOF-Lichtsignal 34. Dabei gibt es auch hochintegrierte Lösungen, in denen der TOF-Lichtempfänger 30 mit der Lichtlaufzeitmesseinheit 36 oder zumindest Teilen davon, etwa TDCs (Time-to-Digital-Converter) für Laufzeitmessungen, auf einem gemeinsamen Chip untergebracht ist. Dazu eignet sich insbesondere ein TOF-Lichtempfänger 30, der als Matrix von SPAD-Lichtempfangselementen 30a aufgebaut ist (Single-Photon Avalanche Diode). Messzonen aus SPAD-Lichtempfangselementen 30a können gezielt deaktiviert und aktiviert werden, indem die Vorspannung unter oder über die Durchbruchspannung eingestellt wird. Dadurch kann ein aktiver Bereich des Abstandssensors 24 eingestellt werden. Die TOF-Optiken 28, 32 sind nur symbolhaft als jeweilige Einzellinsen stellvertretend für beliebige Optiken wie beispielsweise ein Mikrolinsenfeld gezeigt.
  • Eine Steuer- und Auswertungseinheit 38 ist mit der Beleuchtungseinheit 22, dem Bildsensor 18 und dem Abstandssensor 38 verbunden und für die Steuerungs-, Auswertungs- und sonstigen Koordinierungsaufgaben in der Kamera 10 zuständig. Sie liest also Bilddaten des Bildsensors 18 aus, um sie zu speichern beziehungsweise an einer Schnittstelle 40 auszugeben. Die Abstandswerte des Abstandssensors 24 nutzt die Steuer- und Auswertungseinheit 38 je nach Ausführungsform für verschiedene Zwecke, etwa um Kameraparameter zu bestimmen oder einzustellen, um Kamerafunktionen auszulösen oder um Bilddaten auszuwerten, worunter auch Vorverarbeitungen für eine eigentliche Auswertung in der Kamera 10 oder einem übergeordneten System fallen. Vorzugsweise ist die Steuer- und Auswertungseinheit 38 in der Lage, Codebereiche in den Bilddaten aufzufinden und zu decodieren, womit die Kamera 10 zu einem kamerabasierten Codeleser wird.
  • Die Kamera 10 wird durch ein Gehäuse 42 geschützt, das im vorderen Bereich, wo das Empfangslicht 12 einfällt, durch eine Frontscheibe 44 abgeschlossen ist.
  • 2 zeigt eine mögliche Anwendung der Kamera 10 in Montage an einem Förderband 46. Die Kamera 10 wird hier und im Folgenden nur noch als ein einziges Symbol und nicht mehr mit ihrem bereits anhand der 1 erläuterten Aufbau gezeigt. Das Förderband 46 fördert Objekte 48, wie durch eine Bewegungsrichtung 50 mit einem Pfeil angedeutet, durch den Erfassungsbereich 14 der Kamera 10. Die Objekte 48 können an ihren Außenflächen Codebereiche 52 tragen. Aufgabe der Kamera 10 ist, Eigenschaften der Objekte 48 zu erfassen und in einem bevorzugten Einsatz als Codeleser die Codebereiche 52 zu erkennen, die dort angebrachten Codes auszulesen, zu dekodieren und dem jeweils zugehörigen Objekt 48 zuzuordnen. Um auch Objektseiten und insbesondere seitlich angebrachte Codebereiche 54 zu erfassen, werden vorzugsweise zusätzliche, nicht dargestellte Kameras 10 aus unterschiedlicher Perspektive eingesetzt.
  • 3 zeigt nochmals eine Kamera 10 in einer Schnittansicht zur Erläuterung der verschiedenen Sichtfelder (FOV, Field of View). Der Erfassungsbereich 14 wird hier differenziert in ein Kamerasichtfeld 56 der eigentlichen Kamera 10 beziehungsweise von deren Bildsensor 18 mit gepunkteten Linien und ein Abstandsmessungssichtfeld 58 des Abstandssensors 24 mit gestrichelter Linie.
  • Erfindungsgemäß ist die Kamera 10 in der Lage, einen interessierenden Bereich 60 für den Abstandssensor 24 als Teilbereich des Abstandsmessungssichtfeldes 58 automatisch einzustellen. Dafür ist es vorteilhaft, wenn das Abstandsmessungssichtfeld 58 zumindest entgegen der Bewegungsrichtung 50 entsprechend den ankommenden Objekten 48 größer ist als das Kamerasichtfeld 56. Um die Montagerichtung der Kamera 10 nicht festzulegen, kann ein insgesamt größeres Abstandsmessungssichtfeld 58 gewählt werden.
  • Der Abstandssensors 24 erfasst Objekte 48 in dem interessierenden Bereich 60 frühzeitig, um der Kamera 10 Zeit zu geben, sich entsprechend der Abstandswerte umzustellen, ehe das Objekt 48 eine Aufnahmeposition beispielsweise in der Mitte des Kamerasichtfeldes 56 erreicht hat. Dagegen ist ein von der Aufnahmeposition abgewandter Bereich 62 für die Abstandsmessung nicht mehr interessant, jedenfalls nicht, soweit es Einstellungen der Kamera 10 betrifft, da solche Messungen zu spät kommen. Je nach Aufnahmeposition, Messfrequenz des Abstandssensors 24 und Dauer für abstandsabhängige Umstellungen der Kamera 10 kann der Bereich 62 schon früher beginnen, d.h. in 3 nach links versetzt sein. Man könnte den Bereich 62 als Vergangenheit und den Bereich links davon als Zukunft bezeichnen, da hier jeweils Objekte 48 schon die Aufnahmeposition verlassen haben beziehungsweise sie erst noch erreichen werden.
  • Eine ganz grobe Wahl des interessierenden Bereichs 60 könnte demnach lediglich den Bereich 62 ausschließen. Der interessierende Bereich 60 wird aber vorzugsweise genauer eingestellt. Einerseits geschieht dies längs der Bewegungsrichtung 50 mit Einschränkung auf einen frühesten Eintrittsbereich der Objekte 48, wie auch in 3 gezeigt. Zusätzlich kann eine Einstellung des interessierenden Bereichs 60 quer zur Bewegungsrichtung 50 erfolgen, um beispielsweise das Förderband 46 einerseits vollständig und andererseits keine Seitenbereiche jenseits des Förderbandes 46 zu erfassen. Ein genau eingestellter interessierender Bereich 60 reduziert die Datenmenge und erforderliche Bandbreite und vereinfacht damit auch die Auswertung. Zudem ist denkbar, die Messfrequenz des Abstandssensors 24 zu erhöhen, wenn sich dessen Arbeitsbereich auf weniger Messzonen reduziert. Wie schon oben erwähnt, wird der interessierende Bereich 60 vorzugsweise durch gezieltes Aktivieren entsprechender SPAD-Lichtempfangselemente 30a in den zugehörigen Messzonen eingestellt.
  • Nachfolgend wird ein beispielhafter automatischer Ablauf für die Einstellung des interessierenden Bereichs 60 erläutert. Prinzipiell könnte der interessierende Bereich 60 von Hand eingestellt werden, etwa in einem Konfigurationsmenü der Kamera 10. Erfindungsgemäß soll das aber automatisch geschehen, indem die Kamera 10 beispielsweise auf Knopfdruck eine entsprechende Selbstkalibration startet und damit automatisch den passenden interessierenden Bereich 60 für den Abstandssensor 24 aktiviert.
  • Die Einstellung des interessierenden Bereichs 60 betrifft die Richtung längs und quer zu der Bewegungsrichtung 50. Längs der Bewegungsrichtung 50 ist, wie zu 3 erläutert, zwischen Vergangenheit und Zukunft zu unterscheiden. Dies erfolgt anhand der Bewegungsrichtung 50 beispielsweise durch Aktivierung derjenigen Messzonen, die am weitesten zu den kommenden Objekten 48 hin ausgerichtet sind, etwa eine erste Spalte von Lichtempfangselementen 30a. Parameter der Bewegung der Objekte 48 wie die Bewegungsrichtung 50 und auch die Geschwindigkeit v des Förderbandes 46 können vorgegeben, von einer angeschlossenen übergeordneten Steuerung mitgeteilt oder gemessen werden. Für eine eigene Messung dieser Parameter wird beispielsweise ein Höhenprofil mindestens eines Objekts 48 verfolgt, etwa indem Abstandswerte zusammen mit einem Zeitstempel erfasst werden.
  • Die Messwiederholfrequenz des Abstandssensors 24 sollte groß genug sein, um ein Objekt 48 ein- oder besser mehrfach zu erfassen, ehe es sich an die Aufnahmeposition bewegt hat. Formal lässt sich das mit der Messperiode ΔtTOF des Abstandssensors 24, dem Abstand D zwischen Eintrittsposition der Objekte 48 in den interessierenden Bereich 60 und Aufnahmeposition und Geschwindigkeit v des Förderbandes 46 als die Bedingung ΔtTOF << D/v ausdrücken. Der Abstand D kann in der Situation der 3 über die halbe Ausdehnung des Abstandsmessungssichtfeldes 58 auf Höhe des Förderbandes 46 berechnet werden.
  • In Richtung quer zu der Bewegungsrichtung 50 soll der interessierende Bereich 60 gerade so eingestellt werden, dass alle Objekte 48 auf dem Förderband 46 und keine sonstigen Objekte erfasst werden. Ein denkbares Kriterium ist, dass dafür gerade die Breite des Förderbandes 46 umfasst sein soll. In einem automatischen Konfigurationsverfahren wird dazu der Objektstrom für eine gewisse Zeitdauer beobachtet. Dies kann eine vorgelagerte Konfigurationsphase sein, es ist aber auch möglich, mit einem schlecht oder gar nicht eingestellten interessierenden Bereich 60 zu starten und während des laufenden Betriebs einen optimalen interessierenden Bereich zu finden.
  • Durch diese Beobachtung und laufende Messung von Abstandswerten kann einerseits der Hintergrund bestimmt werden, nämlich das Förderband 46 und etwaige noch im Abstandsmessungssichtfeld 58 befindliche seitliche Bereiche daneben. Dazu wird jeweils pro Messzone der maximale Abstandswert bestimmt. Die Objekte 48 werden als transient betrachtet, der Abstandssensor 24 wartet durch die Maximalwertbestimmung sozusagen pro Messzone auf einen geeigneten Augenblick, in dem der Hintergrund zumindest kurzzeitig sichtbar wird.
  • Zudem wird die Veränderung der Abstandswerte pro Messzone bestimmt, etwa in Form einer Varianz oder Standardabweichung. Es gibt nur in den Messzonen eine signifikante Veränderung, durch die sich ein Objekt 48 bewegt hat. In den sonstigen Messzonen wird stets derselbe Abstand betrachtet. Um eine rauschbedingte Veränderung auszuschließen, wird vorzugsweise noch eine Rauschschwelle definiert. Die Messzonen mit mehr als rauschbedingter Veränderung werden als Objektbereich selektiert.
  • Der interessierende Bereich 60 kann mit diesem Objektbereich identifiziert werden. Vorzugsweise erfolgt aber noch eine Anpassung. Es kann zum einen Regionen geben, die zu dem Förderband 46 gehören, durch die sich aber während der Zeit der Beobachtung zufällig nie ein Objekt 48 bewegt hat. Da bekannt ist, dass das Förderband 46 eine Ebene bildet, kann der Objektbereich dorthin erweitert werden, wo anhand des Hintergrundes dieselbe Ebene fortgesetzt ist.
  • Umgekehrt können insbesondere hohe Objekte 48 von Messzonen erfasst worden sein, die gar nicht mehr auf das Förderband 46 gerichtet sind. Das ist in 4 illustriert. Das Förderband 46 ist hiervon seitlichen Aufbauten 64 eingerahmt, wie Stangen oder ähnlichen Störobjekten. Eine Messzone mit Messstrahl 66 hat ein hohes Objekt 48 erfasst und wurde deshalb zunächst dem Objektbereich zugeschlagen. Ohne das Objekt 48 trifft aber der Messstrahl 66 nicht das Förderband 46, sondern die seitlichen Aufbauten 64.
  • Wie in 5 illustriert, kann dieser Fall anhand der Hintergrundmessung erkannt und die entsprechende Messzone des Messstrahls 66 aus dem interessierenden Bereich 60 ausgeschlossen werden, obwohl sie zunächst Teil des Objektbereichs war. Gezeigt ist der Abstandswert in Abhängigkeit von der Position auf dem Förderband in Querrichtung zu der Bewegungsrichtung 50. Der ebene Abschnitt in der Mitte entspricht dem Förderband 46, während seitlich die Abstandswerte abweichen. Letzteres geschieht im Beispiel der 5 mit einem flacheren Profil als in 4. Messzonen, zu denen der maximale Abstandswert der Hintergrundmessung nicht dem ebenen Förderband 46 entspricht, können somit ausgeschlossen werden. Vorzugsweise wird dabei noch eine Toleranzschwelle berücksichtigt, die von der konkreten Umgebung abhängt und vorzugsweise je Anwendung bestimmt wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102018105301 A1 [0005]
    • DE 102017129609 A1 [0006]
    • EP 2708914 A1 [0007]
    • EP 3339887 B1 [0007]

Claims (11)

  1. Kamera (10) zur Erfassung von relativ zu der Kamera (10) in einer Bewegungsrichtung (50) bewegten Objekten (48), wobei die Kamera (10) einen Bildsensor (18) zur Aufnahme von Bilddaten der Objekte (48) in einem Kamerasichtfeld (14, 56), einen optoelektronischen Abstandssensor (24) nach dem Prinzip des Lichtlaufzeitverfahrens mit mehreren Messzonen (30a) zur Messung von mehreren Abstandswerten zu den Objekten (48) in einem Abstandsmessungssichtfeld (58) sowie eine mit dem Bildsensor (18) und dem Abstandssensor (24) verbundene Steuer- und Auswertungseinheit (38) aufweist, dadurch gekennzeichnet, dass die Steuer- und Auswertungseinheit (38) dafür ausgebildet ist, automatisch einen interessierenden Bereich (60) für den Abstandssensor (24) innerhalb des Abstandsmessungssichtfeldes (58) zu konfigurieren, indem durch Messen von Abstandswerten über eine Konfigurationszeit sowie Auswerten der Abstandswerte und/oder deren Änderung ein Objektbereich als derjenige Bereich bestimmt wird, in dem sich Objekte (48) bewegen.
  2. Kamera (10) nach Anspruch 1, wobei der Abstandssensor (24) in die Kamera (10) integriert ist.
  3. Kamera (10) nach Anspruch 1 oder 2, wobei die Messzonen (30a) parallel auslesbar sind.
  4. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer-und Auswertungseinheit (38) dafür ausgebildet ist, über eine Variationszeit ein statistisches Maß für Änderungen der Abstandswerte einer jeweiligen Messzone (30a) zu bestimmen.
  5. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (38) dafür ausgebildet ist, über eine Hintergrunderfassungszeit jeweils einen Maximalwert der Abstandswerte einer jeweiligen Messzone (30a) zu bestimmen.
  6. Kamera (10) nach Anspruch 5, wobei die Steuer- und Auswertungseinheit (38) dafür ausgebildet ist, den interessierenden Bereich (60) anhand der Maximalwerte und einer erwarteten Hintergrundgeometrie anzupassen, wobei insbesondere die Anpassung eine Richtung quer zu der Bewegungsrichtung (50) betrifft.
  7. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (38) dafür ausgebildet ist, den interessierenden Bereich (60) längs der Bewegungsrichtung (50) auf einen zu den bewegten Objekten (48) hin gerichteten Eintrittsbereich zu beschränken.
  8. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei der Abstandssensor (24) eine Vielzahl von im Geiger-Modus betreibbaren Lawinenphotodioden (30a) aufweist und die Steuer- und Auswertungseinheit (38) dafür ausgebildet ist, den interessierenden Bereich (60) durch selektive Aktivierung des Geiger-Modus in dem interessierenden Bereich (60) entsprechenden Lawinenphotodioden (30a) einzustellen.
  9. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei das Abstandsmessungssichtfeld (58) über das Kamerasichtfeld (56) hinausragt, insbesondere gegen die Bewegungsrichtung (50).
  10. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (38) dafür ausgebildet ist, Codeinhalte von mit den Objekten (48) aufgenommenen Codes (52) auszulesen.
  11. Kamera (10) nach einem der vorhergehenden Ansprüche, die stationär an einer Fördereinrichtung (46) montiert ist, welche die Objekte (48) in Bewegungsrichtung (50) fördert.
DE202020102757.3U 2020-05-15 2020-05-15 Erfassung von bewegten Objekten Expired - Lifetime DE202020102757U1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202020102757.3U DE202020102757U1 (de) 2020-05-15 2020-05-15 Erfassung von bewegten Objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202020102757.3U DE202020102757U1 (de) 2020-05-15 2020-05-15 Erfassung von bewegten Objekten

Publications (1)

Publication Number Publication Date
DE202020102757U1 true DE202020102757U1 (de) 2021-08-17

Family

ID=77553014

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202020102757.3U Expired - Lifetime DE202020102757U1 (de) 2020-05-15 2020-05-15 Erfassung von bewegten Objekten

Country Status (1)

Country Link
DE (1) DE202020102757U1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2708914A1 (de) 2012-09-18 2014-03-19 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung einer Tiefenkarte
EP3339887B1 (de) 2016-12-22 2019-04-03 Sick AG Lichtempfänger mit einer vielzahl von lawinenphotodioden und verfahren zum erfassen von licht
DE102017129609A1 (de) 2017-12-12 2019-06-13 Sick Ag Erkennen von Veränderungen in einem Erfassungsbereich
DE102018105301A1 (de) 2018-03-08 2019-09-12 Sick Ag Kamera und Verfahren zur Erfassung von Bilddaten

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2708914A1 (de) 2012-09-18 2014-03-19 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung einer Tiefenkarte
EP3339887B1 (de) 2016-12-22 2019-04-03 Sick AG Lichtempfänger mit einer vielzahl von lawinenphotodioden und verfahren zum erfassen von licht
DE102017129609A1 (de) 2017-12-12 2019-06-13 Sick Ag Erkennen von Veränderungen in einem Erfassungsbereich
DE102018105301A1 (de) 2018-03-08 2019-09-12 Sick Ag Kamera und Verfahren zur Erfassung von Bilddaten

Similar Documents

Publication Publication Date Title
DE102018105301B4 (de) Kamera und Verfahren zur Erfassung von Bilddaten
EP3729137B1 (de) Multipuls-lidarsystem zur mehrdimensionalen erfassung von objekten
EP3537180B1 (de) Empfängeranordnung zum empfang von lichtimpulsen, lidar-modul und verfahren zum empfangen von lichtimpulsen
DE19882768B3 (de) Zweiter Ordnung differenzierender Signalprozessor für einen Strichkodescanner sowie Signalverarbeitungsverfahren zum Verwenden von Strichkodescannern
EP3318895A1 (de) Vorrichtung und verfahren zum empfangen eines reflektierten lichtpulses in einem lidar-system
EP2708913A1 (de) Optoelektronischer Sensor und Verfahren zur Objekterfassung
EP3812953B1 (de) Codeleser und verfahren zum lesen von optischen codes
DE102010061382A1 (de) Optoelektronischer Sensor und Verfahren zur Erfassung und Abstandsbestimmung von Objekten
EP3892955B1 (de) Kamera und verfahren zur erfassung von bilddaten
EP3383026B1 (de) Kamera und verfahren zur erfassung von relativ zu der kamera in einer förderrichtung bewegten objekten
DE3602008C2 (de)
DE102020113183B4 (de) Kamera und Verfahren zur Erfassung von bewegten Objekten
EP4075394B1 (de) Erfassung eines bewegten stromes von objekten
EP3687155B1 (de) Modulare kameravorrichtung und verfahren zur optischen erfassung
DE202020102757U1 (de) Erfassung von bewegten Objekten
EP3839556B1 (de) Optoelektronischer sensor und verfahren zur erfassung eines objekts
WO2019063255A1 (de) Verfahren zur erkennung eines blattrandes, verfahren zur gezielten behandlung von pflanzen mit einem blattbehandlungsmittel und verwendung eines eventbasierten bildsensors zur erkennung eines blattrandes
EP2851704B1 (de) Vorrichtung und Verfahren zum optischen Bestimmen von Abständen zu Objekten in einem Überwachungsbereich
DE202020102581U1 (de) Erfassung von Objekten
EP4102293B1 (de) Kamera und verfahren zur erfassung von durch einen erfassungsbereich bewegten objekten
EP4047507B1 (de) Erfassen eines optischen codes
EP4358530A1 (de) Erfassung von objekten eines sich bewegenden objektstroms
DE102017130378B4 (de) Optoelektronischer Sensor und Verfahren zur Erfassung eines Erfassungsbereichs
DE202021103066U1 (de) Kamera zur Erfassung von durch einen Erfassungsbereich bewegten Objekten
DE202014101714U1 (de) Codelesesystem zum Lesen von Codes

Legal Events

Date Code Title Description
R207 Utility model specification
R156 Lapse of ip right after 3 years