DE102020112430B4 - Kamera und Verfahren zur Erfassung von Objekten - Google Patents

Kamera und Verfahren zur Erfassung von Objekten Download PDF

Info

Publication number
DE102020112430B4
DE102020112430B4 DE102020112430.9A DE102020112430A DE102020112430B4 DE 102020112430 B4 DE102020112430 B4 DE 102020112430B4 DE 102020112430 A DE102020112430 A DE 102020112430A DE 102020112430 B4 DE102020112430 B4 DE 102020112430B4
Authority
DE
Germany
Prior art keywords
camera
time
distance
distance sensor
evaluation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020112430.9A
Other languages
English (en)
Other versions
DE102020112430A1 (de
Inventor
Romain MÜLLER
Johannes Maier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE102020112430.9A priority Critical patent/DE102020112430B4/de
Priority to JP2021073631A priority patent/JP7314197B2/ja
Priority to US17/313,598 priority patent/US20210352214A1/en
Priority to CN202110496713.1A priority patent/CN113630548B/zh
Publication of DE102020112430A1 publication Critical patent/DE102020112430A1/de
Application granted granted Critical
Publication of DE102020112430B4 publication Critical patent/DE102020112430B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/40Systems for automatic generation of focusing signals using time delay of the reflected waves, e.g. of ultrasonic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10792Special measures in relation to the object to be scanned
    • G06K7/10801Multidistance reading
    • G06K7/10811Focalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10861Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing of data fields affixed to objects or articles, e.g. coded labels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14131D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means

Abstract

Kamera (10) zur Erfassung von Objekten (48) in einem Erfassungsbereich (14), die einen Bildsensor (18) zur Aufnahme von Bilddaten der Objekte (48), einen Abstandssensor (24) zur Erfassung mindestens eines Abstandswerts zu einem jeweiligen Objekt (48) sowie eine Steuer- und Auswertungseinheit (37, 38) aufweist, die dafür ausgebildet ist, anhand des Abstandswerts mindestens eine Einstellung der Kamera (10) für eine Aufnahme vorzunehmen, wobei die Steuer- und Auswertungseinheit (37) echtzeitfähig sowie dafür ausgebildet ist, anhand einer Zeitinformation des Abstandssensors (24) eine Aufnahme zu einem Auslösezeitpunkt zu erzeugen.

Description

  • Die Erfindung betrifft eine Kamera und ein Verfahren zur Erfassung von Objekten in einem Erfassungsbereich nach Anspruch 1 beziehungsweise 15.
  • In industriellen Anwendungen werden Kameras in vielfältiger Weise eingesetzt, um Objekteigenschaften automatisch zu erfassen, beispielsweise zur Inspektion oder Vermessung von Objekten. Dabei werden Bilder des Objekts aufgenommen und entsprechend der Aufgabe durch Bildverarbeitungsverfahren ausgewertet. Eine weitere Anwendung von Kameras ist das Lesen von Codes. Mit Hilfe eines Bildsensors werden Objekte mit den darauf befindlichen Codes aufgenommen, in den Bildern die Codebereiche identifiziert und dann dekodiert. Kamerabasierte Codeleser kommen problemlos auch mit anderen Codearten als eindimensionalen Strichcodes zurecht, die wie ein Matrixcode auch zweidimensional aufgebaut sind und mehr Informationen zur Verfügung stellen. Auch die automatische Texterfassung von gedruckten Adressen (OCR, Optical Character Recognition) oder Handschriften ist im Prinzip ein Lesen von Codes. Typische Anwendungsgebiete von Codelesern sind Supermarktkassen, die automatische Paketidentifikation, Sortierung von Postsendungen, die Gepäckabfertigung in Flughäfen und andere Logistikanwendungen.
  • Eine häufige Erfassungssituation ist die Montage der Kamera über einem Förderband. Die Kamera nimmt während der Relativbewegung des Objektstroms auf dem Förderband Bilder auf und leitet in Abhängigkeit der gewonnenen Objekteigenschaften weitere Bearbeitungsschritte ein. Solche Bearbeitungsschritte bestehen beispielsweise in der an das konkrete Objekt angepassten Weiterverarbeitung an einer Maschine, die auf geförderte Objekte einwirkt, oder in einer Veränderung des Objektstroms, indem bestimmte Objekte im Rahmen einer Qualitätskontrolle aus dem Objektstrom ausgeschleust werden oder der Objektstrom in mehrere Teilobjektströme sortiert wird. Wenn die Kamera ein kamerabasierter Codeleser ist, werden die Objekte für eine korrekte Sortierung oder ähnliche Bearbeitungsschritte anhand der angebrachten Codes identifiziert.
  • Die Kamera ist vielfach Teil eines komplexen Sensorsystems. Beispielsweise ist es bei Lesetunneln an Förderbändern üblich, die Geometrie der geförderten Objekte vorab mit einem gesonderten Laserscanner zu vermessen und daraus Fokusinformationen, Auslösezeitpunkte, Bildbereiche mit Objekten und dergleichen zu bestimmen. Bekannt ist weiterhin ein einfacherer Triggersensor, etwa in Form eines Lichtgitters oder einer Lichtschranke. Solche externen Zusatzsensoren müssen montiert, parametriert und in Betrieb genommen werden. Ferner müssen Informationen, wie Geometriedaten und Triggersignale, an die Kamera weitergegeben werden. Herkömmlich geschieht das über CAN-Bus und den Prozessor der Kamera, der auch für andere Tätigkeiten wie Codelesen und dergleichen zuständig ist. Eine Echtzeitfähigkeit ist dabei nicht gewährleistet.
  • In der DE 10 2018 105 301 A1 wird eine Kamera vorgestellt, die einen integrierten Abstandssensor aufweist. Das erleichtert zwar einige Einrichtschritte und die nun interne Kommunikation. Auf das Problem der Echtzeitfähigkeit wird aber nicht eingegangen.
  • Die US 2017/0374269 A1 offenbart ein Videosystem mit einem Sucher, der eine Tiefenkarte erfasst und diese mit einem Zeitstempel versehen kann.
  • Aus der US 2019/0073785 A1 ist eine Kameravorrichtung mit mehreren Kameras zur Erfassung eines Stromes von Objekten bekannt, denen ein Laserscanner zur Geometrieerfassung vorgelagert ist. Die jeweiligen Erfassungen von Laserscanner und Kamera werden einander mittels der Geschwindigkeit der Objekte zugeordnet, um anhand der Geometriedaten durch Bildverarbeitung Einzelbilder von Objektseiten zu erzeugen.
  • Die DE 10 2004 049 482 A1 zeigt eine ähnliche Überwachungsvorrichtung, in der die Abstandsmessungen des Laserscanners dazu verwendet werden, interessierende Bereiche (ROI, region of interest) in den Bilddaten aufzufinden.
  • Die US 2012/0199655 A1 befasst sich mit einer optischen Lesevorrichtung, die mit einem Triangulationsverfahren anhand der Lage eines Lichtflecks auf dem Bildsensor den Abstand zu einem Code bestimmt und damit die Fokuslage und Beleuchtung einstellt.
  • Es ist daher Aufgabe der Erfindung, die Anpassung einer Kamera an eine Aufnahmesituation zu verbessern.
  • Diese Aufgabe wird durch eine Kamera und ein Verfahren zur Erfassung von Objekten in einem Erfassungsbereich nach Anspruch 1 beziehungsweise 15 gelöst. Die Kamera nimmt mit einem Bildsensor Bilddaten der Objekte auf. Zusätzlich zu dem Bildsensor umfasst die Kamera einen Abstandssensor, der mindestens einen Abstandswert für den Abstand zwischen Kamera und Objekt misst. Eine Steuer- und Auswertungseinheit verwendet den Abstandswert, um mindestens eine Einstellung der Kamera für eine Aufnahme vorzunehmen. Beispielsweise wird ein Aufnahmeparameter gesetzt oder nachgestellt, eine Optik oder Beleuchtung verstellt oder der Bildsensor in einen bestimmten Modus versetzt.
  • Die Erfindung geht von dem Grundgedanken aus, den Abstandssensor echtzeitfähig einzubinden. Die Steuer- und Auswertungseinheit erhält vom Abstandssensor eine Zeitinformation und löst damit eine Aufnahme zu einem geeigneten Auslösezeitpunkt aus. Dank der Echtzeitfähigkeit ist das alles präzise synchronisierbar. Der Abstandssensor selbst ist in gewisser Weise der Zeitgeber und dessen Echtzeitfähigkeit gegeben, so lange seine Messungen schnell gegen die Objektbewegungen und die Aufnahmefrequenz der Kamera bleiben, und das ist keine sonderlich strenge Anforderung. Dazu wird eine Steuer- und Auswertungseinheit eingesetzt, die zumindest insoweit echtzeitfähig ist, wie es das Auslösen der Aufnahme zum Auslösezeitpunkt und die dafür erforderliche Weitergabe und Auswertung von Abstandswerten erfordert.
  • Die Erfindung hat den Vorteil, dass eine optimale Bildaufnahme ermöglicht wird. Die Abstandswerte helfen der Kamera, geeignete Einstellungen vorzunehmen. Die Echtzeitfähigkeit wiederum sorgt dafür, dass die Bildaufnahme tatsächlich zum richtigen Zeitpunkt ausgelöst wird. Damit kann der Gewinn durch eine auf die Abstandswerte passende Einstellung der Kamera voll ausgenutzt werden.
  • Die Steuer- und Auswertungseinheit weist bevorzugt einen mit dem Abstandssensor verbundenen echtzeitfähigen Mikroprozessor oder ein mit dem Abstandssensor verbundenes FPGA (Field Programmable Gate Array) auf, die insbesondere in den Abstandssensor integriert sind. Der Mikroprozessor kann seinerseits mit einem FPGA verbunden sein oder umgekehrt. Diese Bausteine zusammen bilden die echtzeitfähige Steuer- und Auswertungseinheit. Sie kommunizieren untereinander mit einem echtzeitfähigen Protokoll. Funktional und womöglich zumindest teilweise auch strukturell kann die Steuer- und Auswertungseinheit als zum Abstandssensor gehörig angesehen werden. Die Kamera kann weitere Bausteine ohne Echtzeitfähigkeit für sonstige Steuer- und Auswertungsfunktionalität aufweisen.
  • Die Kamera weist vorzugsweise eine dem Bildsensor vorgeordnete fokusverstellbare Optik auf, wobei die Einstellung der Kamera eine Fokuseinstellung umfasst. Eine der Einstellungen, die in Abhängigkeit von dem gemessenen Abstandswert vorgenommen werden, ist demnach die Fokuslage. So wird zum Auslösezeitpunkt ein scharfes Bild aufgenommen.
  • Der Abstandssensor ist bevorzugt in die Kamera integriert. Das ergibt einen besonders kompakten Aufbau mit einfachem internem Datenzugriff und deutlich vereinfachter Montage. Außerdem ist damit die gegenseitige Ausrichtung von Abstandssensor und Kamera bekannt und festgelegt. Die Kamera mit ihrem fest verbauten eigenen Abstandssensor kann autark ihre Umgebung wahrnehmen.
  • Der Abstandssensor ist bevorzugt ein optoelektronischer Abstandssensor insbesondere nach dem Prinzip des Lichtlaufzeitverfahrens. Das ist ein besonders geeignetes Verfahren im Zusammenhang mit der ebenfalls optischen Erfassung der Kamera. Der Abstandssensorweist bevorzugt eine Vielzahl von im Geiger-Modus betreibbaren Lawinenphotodioden auf. Derartige Lawinenphotodiodenelemente können besonders einfach dadurch aktiviert und deaktiviert werden, dass eine Vorspannung über oder unter der Durchbruchspannung angelegt wird. So können aktive Zonen oder interessierende Bereiche der Abstandsmessung festgelegt werden.
  • Der Abstandssensor weist bevorzugt mehrere Messzonen zur Messung von mehreren Abstandswerten auf. Eine Messzone weist vorzugsweise ein oder mehrere Lichtempfangselemente auf. Jede Messzone ist in der Lage, einen Abstandswert zu messen, so dass der Abstandssensor eine laterale Ortsauflösung gewinnt und ein ganzes Höhenprofil bestimmen kann.
  • Die Steurer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, aus den mehreren Abstandswerten einen gemeinsamen Abstandswert zu bilden. Der gemeinsame Abstandswert soll repräsentativ sein, um ein handhabbares Kriterium für die Einstellung der Kamera zu erhalten. Dazu eignet sich beispielsweise ein statistisches Maß wie der Mittelwert. Dem gemeinsamen Abstandswert können lediglich bestimmte Abstandswerte aus einer relevanten Region der Abstandsmessung zugrunde gelegt werden. Bei einer Förderbandanwendung könnten das diejenigen Messzonen sein, die auf das jeweils kommende Objekt gerichtet sind, um möglichst frühzeitig Abstandswerte zu gewinnen. Bei einer manuellen Präsentation von Objekten in dem Erfassungsbereich werden vorzugsweise eher Messzonen im Zentrum verwendet. Für einen Abstandssensor, der nu eine Messzone besitzt, ist der einzige Abstandswert automatisch der gemeinsame Abstandswert.
  • Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, ein neues Objekt zu erkennen, wenn sich der Abstandswert verändert, und dann einen Auslösezeitpunkt dafür zu bestimmen. Die Veränderung sollte vorzugsweise eine Toleranzschwelle überschreiten, also einen gewissen Sprung darstellen. Dies wird dann als Eintritt eines neuen Objekts gewertet, für das ein weitere Auslösezeitpunkt und bei dessen Erreichen eine weitere Bildaufnahme erzeugt wird.
  • Der Abstandssensor ist bevorzugt dafür ausgebildet, einen Remissionswert zu bestimmen. Die primäre Funktion des Abstandssensors ist das Messen von Abstandswerten. Dabei kann aber zugleich auch die Intensität des Messsignals bewertet werden. Speziell bei Lawinenphotodioden im Geiger-Modus können dafür Ereignisse gezählt werden, während die Zeitpunkte der Ereignisse für die Lichtlaufzeitmessung genutzt werden.
  • Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, ein neues Objekt zu erkennen, wenn sich der Remissionswert verändert, und dann einen Auslösezeitpunkt dafür zu bestimmen. Vorzugsweise sind es vorrangig die Abstandswerte, anhand derer die Kamera eingestellt und ein jeweiliges neues Objekt erkannt wird. Es kann jedoch auch eine Veränderung des Remissionswertes als Kriterium verwendet werden, vor allem dann, wenn es zwischen zwei Objekten keine oder wenig Abstandsänderungen gibt. Dabei wird vorzugsweise eine Schwellenbewertung vorgenommen, um lediglich rauschbedingte Veränderungen des Remissionswertes auszufiltern.
  • Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, die Einstellung der Kamera gemäß einer Abfolge mehrerer Auslösezeitpunkte vorzunehmen. Werden Objekte nacheinander in den Erfassungsbereich bewegt, wie in einer Förderbandanwendung, so kann es sein, dass bereits vor dem Auslösezeitpunkt eines früheren Objekts Abstandswerte für ein weiteres Objekt gemessen werden. Es ist dann nicht zielführend, beispielsweise die Fokuslage sofort für das neue Objekt einzustellen, weil dies gar nicht die nächste Aufnahme betrifft. Stattdessen werden die Einstellungen geordnet entsprechend den Auslösezeitpunkten nacheinander vorgenommen, und somit wird erforderlichenfalls auch im Beispiel der Fokuslage mit deren Verstellung gewartet, bis die früheren Aufnahmen abgeschlossen sind.
  • Der Abstandssensor ist bevorzugt dafür ausgebildet, als Zeitinformation einen Zeitstempel zu einem Abstandswert oder einen Auslösezeitpunkt zu übertragen. Der Zeitstempel ist die rohe Zeitinformation, aus der ein Auslösezeitpunkt abgeleitet werden kann. Diese Berechnung findet je nach Ausführungsform schon im Abstandssensor oder erst in der Steuer- und Auswertungseinheit statt. Zwischen Zeitstempel und Auslösezeitpunkt liegt je nach Ausführungsform eine konstante Verzögerung oder beispielsweise eine dynamisch zu bestimmende Verzögerung, bis sich das Objekt etwa auf einem Förderband in eine gewünschte Aufnahmeposition bewegt haben wird.
  • De Kamera weist bevorzugt eine gepulste Beleuchtungseinheit auf, wobei die Steuer- und Auswertungseinheit dafür ausgebildet ist, den Auslösezeitpunkt mit einem Beleuchtungspuls zu synchronisieren. Es ist in vielen Anwendungen üblich, den Erfassungsbereich für eine Bildaufnahme auszuleuchten. Statt eines individuellen Blitzlichts wird dazu häufig eine regelmäßige Pulsbeleuchtung verwendet, die eine Koexistenz mit dem Umfeld einschließlich anderer Kamerasysteme ermöglicht. Der Auslösezeitpunkt wird in einem derartigen Szenario noch leicht verschoben, damit die Aufnahme mit einem Beleuchtungspuls zusammenfällt. Alternativ könnte der Beleuchtungspuls zeitlich verschoben werden, aber das bringt zum einen das Pulsschema durcheinander, was die Umgebung nicht immer zulässt, und außerdem müsste die Beleuchtungseinheit überhaupt eine echtzeitfähige Anpassung erlauben.
  • Die Einstellung der Kamera weist bevorzugt eine Belichtungszeit der Aufnahme. Je nach Abstandswert kann eine Über- oder Unterbelichtung drohen, und dies lässt sich durch Anpassung der Belichtungszeit kompensieren. Stattdessen könnte auch eine Beleuchtungseinheit angepasst werden, was aber erneut voraussetzt, dass diese echtzeitfähig ist.
  • Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, Codeinhalte von mit den Objekten aufgenommenen Codes auszulesen. Damit wird die Kamera zu einem kamerabasierten Codeleser für Barcodes und/oder 2D-Codes nach diversen Standards, gegebenenfalls auch für eine Texterkennung (OCR, Optical Character Reading). Für das Decodieren bestehen keine Echtzeitanforderungen, so dass hierfür andere Bausteine zuständig sein können als die echtzeitfähigen Komponenten, mit denen Abstandswerte übertragen, Auslösezeitpunkte bestimmt und Aufnahmen ausgelöst werden.
  • Die Kamera ist bevorzugt stationär an einer Fördereinrichtung montiert, welche die Objekte in Bewegungsrichtung fördert. Dies ist eine sehr häufige industrielle Anwendung einer Kamera, in der sich die Objekte in Relativbewegung dazu befinden. Die örtlichen und zeitlichen Beziehungen zwischen eine Abstandsmessung in einer Förderposition und Bildaufnahme in einer späteren Förderposition sind sehr einfach und berechenbar. Dazu muss lediglich die Fördergeschwindigkeit parametriert, von einer übergeordneten Steuerung übergeben oder, etwa anhand einer Verfolgung eines Höhenprofils, selbst gemessen werden.
  • Das erfindungsgemäße Verfahren kann auf ähnliche Weise weitergebildet werden und zeigt dabei ähnliche Vorteile. Derartige vorteilhafte Merkmale sind beispielhaft, aber nicht abschließend in den sich an die unabhängigen Ansprüche anschließenden Unteransprüchen beschrieben.
  • Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in:
    • 1 eine schematische Schnittdarstellung einer Kamera mit einem optoelektronischen Abstandssensor; und
    • 2 eine dreidimensionale Ansicht einer beispielhaften Anwendung der Kamera in Montage an einem Förderband.
  • 1 zeigt eine schematische Schnittdarstellung einer Kamera 10. Empfangslicht 12 aus einem Erfassungsbereich 14 trifft auf eine Empfangsoptik 16, die das Empfangslicht 12 auf einen Bildsensor 18 führt. Die optischen Elemente der Empfangsoptik 16 sind vorzugsweise als Objektiv aus mehreren Linsen und anderen optischen Elementen wie Blenden, Prismen und dergleichen ausgestaltet, hier aber vereinfachend nur durch eine Linse repräsentiert.
  • Um den Erfassungsbereich 14 während einer Aufnahme der Kamera 10 mit Sendelicht 20 auszuleuchten, umfasst die Kamera 10 eine optionale Beleuchtungseinheit 22, die in 1 in Form einer einfachen Lichtquelle und ohne Sendeoptik dargestellt ist. In anderen Ausführungsformen sind mehrere Lichtquellen, wie LEDs oder Laserdioden, beispielsweise ringförmig um den Empfangspfad angeordnet, die auch mehrfarbig und gruppenweise oder einzeln ansteuerbar sein können, um Parameter der Beleuchtungseinheit 22 wie deren Farbe, Intensität und Richtung anzupassen.
  • Zusätzlich zu dem eigentlichen Bildsensor 18 zur Erfassung von Bilddaten weist die Kamera 10 einen optoelektronischen Abstandssensor 24 auf, der mit einem Lichtlaufzeitverfahren (ToF, Time of Flight) Abstände zu Objekten in dem Erfassungsbereich 14 misst. Der Abstandssensor 24 umfasst einen TOF-Lichtsender 26 mit TOF-Sendeoptik 28 sowie einen TOF-Lichtempfänger 30 mit TOF-Empfangsoptik 32. Damit wird ein TOF-Lichtsignal 34 ausgesandt und wieder empfangen. Eine Lichtlaufzeitmesseinheit 36 bestimmt die Laufzeit des TOF-Lichtsignals 34 und daraus den Abstand zu einem Objekt, an dem das TOF-Lichtsignal 34 zurückgeworfen wurde.
  • Der TOF-Lichtempfänger 30 weist mehrere Lichtempfangselemente 30a auf. Die Lichtempfangselemente 30a bilden einzeln oder in kleineren Gruppen Messzonen, mit denen jeweils ein Abstandswert bestimmt wird. Es wird deshalb vorzugsweise kein einzelner Abstandswert erfasst, obwohl auch das möglich ist, sondern die Abstandswerte sind ortsaufgelöst und können zu einem Höhenprofil zusammengesetzt werden. Die Anzahl der Messzonen des TOF-Lichtempfängers 30 kann vergleichsweise gering bleiben, mit beispielsweise einigen zehn, hundert oder tausend Messzonen, weit entfernt von üblichen Megapixelauflösungen des Bildsensors 18.
  • Der Aufbau des Abstandssensors 24 ist rein beispielhaft. Die optoelektronische Entfernungsmessung mittels Lichtlaufzeitverfahren ist bekannt und wird daher nicht im Einzelnen erläutert. Zwei beispielhafte Messverfahren sind Photomischdetektion mit einem periodisch modulierten TOF-Lichtsignal 34 und Pulslaufzeitmessung mit einem pulsmodulierten TOF-Lichtsignal 34. Dabei gibt es auch hochintegrierte Lösungen, in denen der TOF-Lichtempfänger 30 mit der Lichtlaufzeitmesseinheit 36 oder zumindest Teilen davon, etwa TDCs (Time-to-Digital-Converter) für Laufzeitmessungen, auf einem gemeinsamen Chip untergebracht ist. Dazu eignet sich insbesondere ein TOF-Lichtempfänger 30, der als Matrix von SPAD-Lichtempfangselementen 30a aufgebaut ist (Single-Photon Avalanche Diode). Messzonen aus SPAD-Lichtempfangselementen 30a können gezielt deaktiviert und aktiviert werden, indem die Vorspannung unter oder über die Durchbruchspannung eingestellt wird. Dadurch kann ein aktiver Bereich des Abstandssensors 24 eingestellt werden. Die TOF-Optiken 28, 32 sind nur symbolhaft als jeweilige Einzellinsen stellvertretend für beliebige Optiken wie beispielsweise ein Mikrolinsenfeld gezeigt.
  • Trotz seines Namens ist der Abstandssensor 24 in bevorzugter Ausführungsform zusätzlich in der Lage, auch einen Remissionswert zu messen. Dazu wird die Intensität des empfangenen TOF-Lichtsignals 34 ausgewertet. Bei SPAD-Lichtempfangselementen 30a ist das einzelne Ereignis nicht für eine Intensitätsmessung geeignet, weil bei Registrierung eines Photons durch den unkontrollierten Lawinendurchbruch derselbe maximale Photostrom erzeugt wird. Sehr wohl aber können Ereignisse in mehreren SPAD-Lichtempfangselementen 30a einer Messzone und/oder über eine längere Messdauer gezählt werden. Das ist dann auch bei SPAD-Lichtempfangselementen ein Maß für die Intensität.
  • Zur echtzeitfähigen Auswertung der Abstandswerte des Abstandssensors 24 ist eine echtzeitfähige Steuer- und Auswertungseinheit 37 vorgesehen. Sie umfasst beispielsweise einen echtzeitfähigen Mikroprozessor oder FPGA, oder eine Kombination davon. Die Verbindung zwischen Abstandssensor 24 und echtzeitfähiger Steuer- und Auswertungseinheit 37 kann über 12C oder SPI realisiert werden. Eine Verbindung zwischen Mikroprozessor und FPGA kann über PCI, PCle, MIPI, UART oder Ähnliches erfolgen. Von der echtzeitfähigen Steuer- und Auswertungseinheit 37 werden die zeitkritischen Prozesse gesteuert, insbesondere die Echtzeitsynchronisation mit der Bildaufnahme des Bildsensors 18. Außerdem werden anhand der Auswertung der Abstandswerte Einstellungen der Kamera 10 vorgenommen, etwa eine Fokuslage oder Belichtungszeit eingestellt.
  • Eine weitere Steuer- und Auswertungseinheit 38 muss nicht echtzeitfähig sein und ist mit der Beleuchtungseinheit 22, dem Bildsensor 18 und der Steuer- und Auswertungseinheit 37 des Abstandssensors 24 verbunden. Diese Steuer- und Auswertungseinheit ist für weitere Steuerungs-, Auswertungs- und sonstigen Koordinierungsaufgaben in der Kamera 10 zuständig. Sie liest also Bilddaten des Bildsensors 18 aus, um sie zu speichern beziehungsweise an einer Schnittstelle 40 auszugeben. Vorzugsweise ist die Steuer- und Auswertungseinheit 38 in der Lage, Codebereiche in den Bilddaten aufzufinden und zu decodieren, womit die Kamera 10 zu einem kamerabasierten Codeleser wird.
  • Die Aufteilung in eine echtzeitfähige Steuer- und Auswertungseinheit 37 und eine nicht echtzeitfähige Steuer- und Auswertungseinheit 38 in 1 soll das Prinzip klarmachen und ist rein beispielhaft. Die echtzeitfähige Steuer- und Auswertungseinheit 37 kann mindestens teilweise in dem Abstandssensor 24 oder dessen Lichtlaufzeitmesseinheit 36 implementiert sein. Weiterhin können Funktionen zwischen den Steuer- und Auswertungseinheiten 37, 38 verschoben werden. Erfindungsgemäß nicht möglich ist lediglich, dass ein nicht echtzeitfähiger Baustein zeitkritische Funktionen wie das Bestimmen eines Auslösezeitpunkts für den Bildsensor 18 übernimmt.
  • Die Kamera 10 wird durch ein Gehäuse 42 geschützt, das im vorderen Bereich, wo das Empfangslicht 12 einfällt, durch eine Frontscheibe 44 abgeschlossen ist.
  • 2 zeigt eine mögliche Anwendung der Kamera 10 in Montage an einem Förderband 46. Die Kamera 10 wird hier nur noch als ein einziges Symbol und nicht mehr mit ihrem bereits anhand der 1 erläuterten Aufbau gezeigt. Das Förderband 46 fördert Objekte 48, wie durch eine Bewegungsrichtung 50 mit einem Pfeil angedeutet, durch den Erfassungsbereich 14 der Kamera 10. Die Objekte 48 können an ihren Außenflächen Codebereiche 52 tragen. Aufgabe der Kamera 10 ist, Eigenschaften der Objekte 48 zu erfassen und in einem bevorzugten Einsatz als Codeleser die Codebereiche 52 zu erkennen, die dort angebrachten Codes auszulesen, zu dekodieren und dem jeweils zugehörigen Objekt 48 zuzuordnen. Um auch Objektseiten und insbesondere seitlich angebrachte Codebereiche 54 zu erfassen, werden vorzugsweise zusätzliche, nicht dargestellte Kameras 10 aus unterschiedlicher Perspektive eingesetzt.
  • Die Anwendung an einem Förderband 46 ist nur ein Beispiel. Die Kamera 10 kann alternativ für andere Anwendungen eingesetzt werden, etwa an einem festen Arbeitsplatz, an dem ein Arbeiter jeweils Objekte 48 in den Erfassungsbereich hält.
  • Die Echtzeitverarbeitung von Abstandswerten und die Steuerung der Bildaufnahme durch die Steuer- und Auswertungseinheit 37 wird nun in einem Ablaufbeispiel erläutert.
  • Der Abstandssensor 24 beziehungsweise dessen Lichtlaufzeitmesseinheit 36 kümmern sich bereits darum, die Rohdaten beispielsweise in Form von Empfangsereignissen in Abstandswerte umzurechnen. Zudem stehen je nach Ausführungsform ein Zeitstempel für den Zeitpunkt der Abstandsmessung des jeweiligen Abstandswertes und ein Remissionswert zur Verfügung. Bei einem einzonigen Abstandssensor 24 wird jeweils nur ein Abstandswert gemessen, der nicht weiter ausgewertet werden kann. Bei mehreren Messzonen und damit Abstandswerten wird bevorzugt eine Vorauswahl relevanter Messzonen getroffen. In einer Förderbandanwendung wie in 2 sind das vorzugsweise Messzonen, die möglichst früh ein kommendes Objekt 48 erfassen. Bei einer Arbeitsstation, in der Objekte 48 manuell in den Erfassungsbereich 14 gehalten werden, eignen sich eher zentrale Messzonen. Da manche Einstellungen nur einmal und nicht differenziert für ein Höhenprofil vorgenommen werden können, wie im Falle einer Fokuslage, werden die mehreren Abstandswerte noch miteinander verrechnet, beispielsweise als Mittelwert.
  • Meist ist es möglich, Objekte 48 anhand der Abstandswerte voneinander zu trennen. Aufgrund von Messfehlern des Abstandssensors 24 und in ungünstigen Konstellationen, etwa dicht aufeinanderfolgenden Objekten 48 ähnlicher Höhe oder bei sehr flachen Objekten 48 wie einem Brief, ist das nicht immer möglich. Dann kann der Remissionswert als ergänzendes oder alternatives Kriterium verwendet werden. In einem konkreten Beispiel kann geprüft werden, ob die Abstandswerte sich um mehr als eine Rauschschwelle von dem Abstand zu dem Förderband 46 unterscheiden. Ist das der Fall, so sind die Abstandswerte das dominante Merkmal, anhand derer der Fokuslage eingestellt wird. Ein Mittelwert wird vorzugsweise nur aus Abstandswerten ungleich dem Abstand zu dem Förderband 46 gebildet, da nur diese zu dem angemessenen Objekt 48 gehören. Wenn umgekehrt alle Abstände im Rahmen der Rauschschwelle lediglich das Förderband 46 messen, so wird geprüft, ob die Remissionswerte einen Unterschied erkennen lassen, um beispielsweise einen hellen Brief auf einem dunklen Förderband 46 zu erkennen. Eine Fokuslage kann dann auf die Ebene des Förderbandes 46 gelegt werden. Gibt es weder im Abstand noch in der Remission signifikante Unterschiede, so kann ein Objekt 48 übersehen werden - ein schwarzer Brief auf schwarzem Untergrund wird nicht erkannt, würde aber ohnehin keinen lesbaren Code 52 tragen können.
  • Bei einer alternativen Anwendung, in der Objekte 48 von Hand in den Erfassungsbereich 14 gehalten werden, ist es äußerst unwahrscheinlich, dass dies lückenlos für zwei aufeinanderfolgende Objekte 48 in gleichem Abstand erfolgt. Eine Trennung von Objekten 48 anhand der Abstandswerte ist daher in aller Regel möglich. Dennoch ist auch hier ein ergänzender Rückgriff auf Remissionswerte vorstellbar.
  • Somit wird erkannt, wenn eine neue Kameraeinstellung und ein Auslösezeitpunkt für ein weiteres Objekt 48 benötigt wird. Der Auslösezeitpunkt, zu dem die Bildaufnahme erfolgt, ergibt sich aus dem Zeitstempel. Dabei ist noch ein fester oder dynamisch bestimmter Zeitversatz zu berücksichtigen. In der Förderbandanwendung ist das die Zeit, die das Objekt 48 benötigt, bis es von der ersten Erfassung durch den Abstandssensor 24 in die Aufnahmeposition beispielsweise mittig im Erfassungsbereich 14 gefördert wurde. Das hängt einmal von der Bandgeschwindigkeit ab, die durch Parametrierung, Vorgabe oder Messung bekannt ist, und zum anderen von der über die Abstandswerte gemessenen Objekthöhe sowie der geometrischen Anordnung. In einer Anwendung mit manueller Führung von Objekten 48 genügt ein konstanter Zeitversatz.
  • Die echtzeitfähige Steuer- und Auswertungseinheit 37 stellt die Kamera 10 vorzugsweise nicht sofort entsprechend den zuletzt gemessenen Abstandswerten um, sondern geordnet erst zum Auslösezeitpunkt, natürlich soweit möglich rechtzeitig unter Berücksichtigung von Anpassungsverzögerungen. Beispielsweise darf eine Fokuslage nicht sofort verstellt werden, wenn zuvor noch ein anderes Objekt 48 aufgenommen werden soll. Dann sind zunächst bis zu dessen Auslösungszeitpunkt dessen Abstandswerte maßgeblich. Sobald die echtzeitfähige Steuer- und Auswertungseinheit 37 festgestellt hat, dass auf kein voriges Bild mehr gewartet werden muss, kann die Umstellung einsetzen.
  • Die Bildaufnahme erfolgt grundsätzlich zum Auslösezeitpunkt. Wenn jedoch die Beleuchtungseinheit 22 gepulst mit einer vorgegebenen Frequenz betrieben wird, sollte die Bildaufnahme damit synchronisiert sein. Dazu wird die Bildaufnahme auf einen geeigneten Beleuchtungspuls aufsynchronisiert, also beispielsweise auf den nächsten Beleuchtungspuls vor oder nach dem ursprünglich vorgesehenen Auslösezeitpunkt verschoben. Prinzipiell ist alternativ vorstellbar, den Beleuchtungspuls zu verschieben. Das muss aber die Beleuchtungseinheit 22 unterstützen, und zudem ist die Pulsfolge häufig keine freie Variable, sondern durch Randbedingungen vorgegeben.
  • Die häufig als Beispiel herangezogene Fokuslage ist keineswegs die einzig denkbare Kameraeinstellung. Beispielsweise ist auch eine Anpassung der Belichtungszeit je nach Abstandswert vorstellbar, um eine Über- oder Unterbelichtung zu vermeiden. Dafür wäre alternativ eine Anpassung der Beleuchtungsintensität denkbar. Das setzt aber eine echtzeitfähige Einstellungsmöglichkeit der Beleuchtungseinheit 22 voraus.
  • Bei der Speicherung oder Ausgabe der Bilddaten, die zum Auslösezeitpunkt erfasst werden, können Metadaten wie die Abstandswerte oder der Auslösezeitpunkt angehängt werden. Das ermöglicht weitere Auswertungen zu einem späteren Zeitpunkt und auch eine Diagnose und Verbesserung der Kamera 10 und ihrer Anwendung.

Claims (15)

  1. Kamera (10) zur Erfassung von Objekten (48) in einem Erfassungsbereich (14), die einen Bildsensor (18) zur Aufnahme von Bilddaten der Objekte (48), einen Abstandssensor (24) zur Erfassung mindestens eines Abstandswerts zu einem jeweiligen Objekt (48) sowie eine Steuer- und Auswertungseinheit (37, 38) aufweist, die dafür ausgebildet ist, anhand des Abstandswerts mindestens eine Einstellung der Kamera (10) für eine Aufnahme vorzunehmen, wobei die Steuer- und Auswertungseinheit (37) echtzeitfähig sowie dafür ausgebildet ist, anhand einer Zeitinformation des Abstandssensors (24) eine Aufnahme zu einem Auslösezeitpunkt zu erzeugen.
  2. Kamera (10) nach Anspruch 1, wobei die Steuer- und Auswertungseinheit (37) einen mit dem Abstandssensor (24) verbundenen echtzeitfähigen Mikroprozessor oder ein mit dem Abstandssensor (24) verbundenes FPGA aufweist, die insbesondere in den Abstandssensor (24) integriert sind.
  3. Kamera (10) nach Anspruch 1 oder 2, die eine dem Bildsensor (18) vorgeordnete fokusverstellbare Optik (16) aufweist und wobei die Einstellung der Kamera (10) eine Fokuseinstellung umfasst.
  4. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei der Abstandssensor (24) in die Kamera (10) integriert ist.
  5. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei der Abstandssensor (24) ein optoelektronischer Abstandssensor insbesondere nach dem Prinzip des Lichtlaufzeitverfahrens ist.
  6. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei der Abstandssensor (24) mehrere Messzonen (30a) zur Messung von mehreren Abstandswerten aufweist und wobei insbesondere die Steurer- und Auswertungseinheit (37) dafür ausgebildet ist, aus den mehreren Abstandswerten einen gemeinsamen Abstandswert zu bilden.
  7. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (37) dafür ausgebildet ist, ein neues Objekt (48) zu erkennen, wenn sich der Abstandswert verändert, und dann einen Auslösezeitpunkt dafür zu bestimmen.
  8. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei der Abstandssensor (24) dafür ausgebildet ist, einen Remissionswert zu bestimmen und wobei insbesondere die Steuer- und Auswertungseinheit (37) dafür ausgebildet ist, ein neues Objekt (48) zu erkennen, wenn sich der Remissionswert verändert, und dann einen Auslösezeitpunkt dafür zu bestimmen.
  9. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (37) dafür ausgebildet ist, die Einstellung der Kamera (10) gemäß einer Abfolge mehrerer Auslösezeitpunkte vorzunehmen.
  10. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei der Abstandssensor (24) dafür ausgebildet ist, als Zeitinformation einen Zeitstempel zu einem Abstandswert oder einen Auslösezeitpunkt zu übertragen.
  11. Kamera (10) nach einem der vorhergehenden Ansprüche, die eine gepulste Beleuchtungseinheit (22) aufweist, wobei die Steuer- und Auswertungseinheit (37) dafür ausgebildet ist, den Auslösezeitpunkt mit einem Beleuchtungspuls zu synchronisieren.
  12. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Einstellung der Kamera (10) eine Belichtungszeit der Aufnahme aufweist.
  13. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (38) dafür ausgebildet ist, Codeinhalte von mit den Objekten (48) aufgenommenen Codes (52) auszulesen.
  14. Kamera (10) nach einem der vorhergehenden Ansprüche, die stationär an einer Fördereinrichtung (46) montiert ist, welche die Objekte (48) in Bewegungsrichtung (50) fördert.
  15. Verfahren zur Erfassung von Objekten (48) in einem Erfassungsbereich (14), bei dem mit einer Kamera (10) Bilddaten der Objekte (48) aufgenommen werden und mit einem Abstandssensor (24) mindestens ein Abstandswert zu einem jeweiligen Objekt (48) bestimmt wird, wobei anhand des Abstandswerts mindestens eine Einstellung der Kamera (10) für eine Aufnahme vorgenommen wird, wobei in einer echtzeitfähigen Verarbeitung anhand einer Zeitinformation des Abstandssensors (24) eine Aufnahme zu einem Auslösezeitpunkt erzeugt wird.
DE102020112430.9A 2020-05-07 2020-05-07 Kamera und Verfahren zur Erfassung von Objekten Active DE102020112430B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102020112430.9A DE102020112430B4 (de) 2020-05-07 2020-05-07 Kamera und Verfahren zur Erfassung von Objekten
JP2021073631A JP7314197B2 (ja) 2020-05-07 2021-04-23 物体の検出
US17/313,598 US20210352214A1 (en) 2020-05-07 2021-05-06 Detection of objects
CN202110496713.1A CN113630548B (zh) 2020-05-07 2021-05-07 对象检测的相机和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020112430.9A DE102020112430B4 (de) 2020-05-07 2020-05-07 Kamera und Verfahren zur Erfassung von Objekten

Publications (2)

Publication Number Publication Date
DE102020112430A1 DE102020112430A1 (de) 2021-11-11
DE102020112430B4 true DE102020112430B4 (de) 2021-12-23

Family

ID=75625304

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020112430.9A Active DE102020112430B4 (de) 2020-05-07 2020-05-07 Kamera und Verfahren zur Erfassung von Objekten

Country Status (4)

Country Link
US (1) US20210352214A1 (de)
JP (1) JP7314197B2 (de)
CN (1) CN113630548B (de)
DE (1) DE102020112430B4 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020109929B3 (de) * 2020-04-09 2021-01-14 Sick Ag Erfassung von Bilddaten eines bewegten Objekts

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004049482A1 (de) 2004-10-11 2006-04-13 Sick Ag Vorrichtung zur Überwachung von bewegten Objekten
US20120199655A1 (en) 2009-07-31 2012-08-09 Optoelectronics Co., Ltd. Optical Information Reader and Optical Information Reading Method
US20170374269A1 (en) 2014-12-30 2017-12-28 Nokia Corporation Improving focus in image and video capture using depth maps
US20190073785A1 (en) 2017-09-06 2019-03-07 Sick Ag Camera apparatus and method of detecting a stream of objects
DE102018105301A1 (de) 2018-03-08 2019-09-12 Sick Ag Kamera und Verfahren zur Erfassung von Bilddaten

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000171215A (ja) * 1998-12-03 2000-06-23 Techno Wave:Kk 物流情報読取り装置
PL1645839T3 (pl) * 2004-10-11 2007-12-31 Sick Ag Urządzenie i sposób kontroli przemieszczanych obiektów
US8294809B2 (en) * 2005-05-10 2012-10-23 Advanced Scientific Concepts, Inc. Dimensioning system
US7746450B2 (en) * 2007-08-28 2010-06-29 Science Applications International Corporation Full-field light detection and ranging imaging system
GB2516786B (en) * 2012-05-03 2016-01-27 Los Alamos Nat Security Llc Acoustic camera
ES2545374T3 (es) * 2012-07-31 2015-09-10 Sick Ag Sistema de detección para el montaje en una cinta transportadora
US11002854B2 (en) * 2013-03-13 2021-05-11 Cognex Corporation Lens assembly with integrated feedback loop and time-of-flight sensor
EP3361283A4 (de) * 2015-10-09 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Bildgebungsvorrichtung und festkörperbildelement dafür
CN109074090A (zh) * 2016-02-29 2018-12-21 深圳市大疆创新科技有限公司 无人机硬件架构
US10282902B1 (en) * 2016-06-24 2019-05-07 Amazon Technologies, Inc. Real-time textured 3D models
US10120075B2 (en) * 2016-08-19 2018-11-06 Faro Technologies, Inc. Using a two-dimensional scanner to speed registration of three-dimensional scan data
EP3428683B1 (de) * 2017-07-11 2019-08-28 Sick Ag Optoelektronischer sensor und verfahren zur messung einer entfernung
CA3115898C (en) * 2017-10-11 2023-09-26 Aquifi, Inc. Systems and methods for object identification
JP6912449B2 (ja) * 2018-12-19 2021-08-04 ファナック株式会社 測距装置を有する物体監視システム
JP2020153715A (ja) * 2019-03-18 2020-09-24 株式会社リコー 測距装置および測距方法
US10725157B1 (en) * 2019-04-05 2020-07-28 Rockwell Automation Technologies, Inc. Industrial safety sensor
US20200344405A1 (en) * 2019-04-25 2020-10-29 Canon Kabushiki Kaisha Image pickup apparatus of measuring distance from subject to image pickup surface of image pickup device and method for controlling the same
JP2020193957A (ja) * 2019-05-30 2020-12-03 ファナック株式会社 測距異常を補正する距離画像生成装置
US11693102B2 (en) * 2019-06-07 2023-07-04 Infineon Technologies Ag Transmitter and receiver calibration in 1D scanning LIDAR
JP7401211B2 (ja) * 2019-06-25 2023-12-19 ファナック株式会社 外光照度測定機能を備えた測距装置及び外光照度測定方法
US11525892B2 (en) * 2019-06-28 2022-12-13 Waymo Llc Beam homogenization for occlusion resistance
US10812727B1 (en) * 2019-12-16 2020-10-20 Cognex Corporation Machine vision system and method with steerable mirror

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004049482A1 (de) 2004-10-11 2006-04-13 Sick Ag Vorrichtung zur Überwachung von bewegten Objekten
US20120199655A1 (en) 2009-07-31 2012-08-09 Optoelectronics Co., Ltd. Optical Information Reader and Optical Information Reading Method
US20170374269A1 (en) 2014-12-30 2017-12-28 Nokia Corporation Improving focus in image and video capture using depth maps
US20190073785A1 (en) 2017-09-06 2019-03-07 Sick Ag Camera apparatus and method of detecting a stream of objects
DE102018105301A1 (de) 2018-03-08 2019-09-12 Sick Ag Kamera und Verfahren zur Erfassung von Bilddaten

Also Published As

Publication number Publication date
JP7314197B2 (ja) 2023-07-25
CN113630548A (zh) 2021-11-09
JP2021193790A (ja) 2021-12-23
US20210352214A1 (en) 2021-11-11
CN113630548B (zh) 2023-09-19
DE102020112430A1 (de) 2021-11-11

Similar Documents

Publication Publication Date Title
DE102018105301B4 (de) Kamera und Verfahren zur Erfassung von Bilddaten
EP2546776B1 (de) Kamerabasierter Codeleser und Verfahren zu dessen justierter Herstellung
DE102017106380B4 (de) Optoelektronischer Sensor und Verfahren zum Erfassen von Objekten
DE112011101667T5 (de) Abtastender 3D-Bildgeber
EP3892955B1 (de) Kamera und verfahren zur erfassung von bilddaten
DE102020109929B3 (de) Erfassung von Bilddaten eines bewegten Objekts
WO2020114740A1 (de) Lidar-system sowie kraftfahrzeug
DE102020112430B4 (de) Kamera und Verfahren zur Erfassung von Objekten
DE102017106831A1 (de) Kamera und Verfahren zur Erfassung von relativ zu der Kamera in einer Förderrichtung bewegten Objekten
WO2021228815A1 (de) Verfahren zum kalibrieren und/oder justieren und steuereinheit für ein lidar-system, lidar-system und arbeitsvorrichtung
DE102020113183B4 (de) Kamera und Verfahren zur Erfassung von bewegten Objekten
DE102006043956A1 (de) Filmabtaster und Erfassungsvorrichtung dafür
DE202020102581U1 (de) Erfassung von Objekten
EP4075394B1 (de) Erfassung eines bewegten stromes von objekten
WO2020070311A1 (de) Bildgebender sensor
DE102014005521B4 (de) Pulslaufzeitsensor für große Abstände und hoher Abtastrate
EP3839556B1 (de) Optoelektronischer sensor und verfahren zur erfassung eines objekts
DE102019101490A1 (de) Modulare Kameravorrichtung und Verfahren zur optischen Erfassung
DE202020102757U1 (de) Erfassung von bewegten Objekten
EP4102293B1 (de) Kamera und verfahren zur erfassung von durch einen erfassungsbereich bewegten objekten
EP4047507B1 (de) Erfassen eines optischen codes
DE102018107710B4 (de) Intraoraler parallelkonfokaler Oberflächenscanner mit Störlichtsubtraktion
EP3859379B1 (de) Optoelektronischer sensor mit am bildfeldwinkel angepasstem empfangsfilter und verfahren zur erfassung von objekten
DE102019128710A1 (de) Beleuchtung eines Erfassungsbereichs und Verfahren zum Erfassen von Bilddaten
DE202019105903U1 (de) Beleuchtung eines Erfassungsbereichs zum Erfassen von Bilddaten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final