DE102022121770A1 - Verfahren zum kontaktlosen Einlesen von Referenzmarken - Google Patents

Verfahren zum kontaktlosen Einlesen von Referenzmarken Download PDF

Info

Publication number
DE102022121770A1
DE102022121770A1 DE102022121770.1A DE102022121770A DE102022121770A1 DE 102022121770 A1 DE102022121770 A1 DE 102022121770A1 DE 102022121770 A DE102022121770 A DE 102022121770A DE 102022121770 A1 DE102022121770 A1 DE 102022121770A1
Authority
DE
Germany
Prior art keywords
camera device
reference mark
lidar sensor
image
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022121770.1A
Other languages
English (en)
Inventor
Jonas Niesner
Thomas Irrenhauser
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102022121770.1A priority Critical patent/DE102022121770A1/de
Publication of DE102022121770A1 publication Critical patent/DE102022121770A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Es wird ein Verfahren zum kontaktlosen Einlesen von Referenzmarken (3) angegeben. Das Verfahren weist folgende Schritte auf:- Bereitstellen eines fahrerlosen Transportsystems, welches eine Raumerfassungsvorrichtung zum Erfassen von Objekträumen, zumindest eine Kameravorrichtung (1) und zumindest einen Lidar-Sensor (2) aufweist,- Aufnehmen zumindest eines Bildes innerhalb eines Objektraumes mittels der Kameravorrichtung (1),- automatisches Identifizieren einer Referenzmarke (3) im aufgenommenen Bild durch Mustererkennung und Ermitteln eines Mittelpunktes der identifizierten Referenzmarke (3),- Ermitteln eines Tiefenwertes aus einer Vielzahl von mit dem Lidar-Sensor (2) aufgenommenen Tiefendaten, welcher dem Mittelpunkt der identifizierten Referenzmarke (3) zuzuordnen ist, und- Ermitteln der relativen Position der Kameravorrichtung (1) zur Referenzmarke (3) durch den ermittelten Mittelpunkt und den ermittelten Tiefenwert.

Description

  • Es wird ein Verfahren zum kontaktlosen Einlesen von Referenzmarken angegeben.
  • Es ist im Stand der Technik bekannt, dass im Rahmen der Digitalisierung Werke mittels 3D-Scaneinrichtungen gescannt werden. Hierzu werden durch Mitarbeiter Scangeräte durch die Werkshallen getragen und alle Daten aufgenommen. Die Scans erfolgen derzeit also primär manuell. Die Druckschrift DE 10 2019 120 702 A1 zeigt z.B. ein Gestell für zumindest eine Scaneinrichtung zum Tragen der Scaneinrichtung mittels des Körpers einer Person, wobei das Gestell eine Trageeinrichtung zum Anlegen und Tragen des Gestells durch die Person umfasst. Des Weiteren beschreibt die Druckschrift eine Raumerfassungsvorrichtung mit zumindest einer Scaneinrichtung und einem solchen Gestell.
  • Nachteilig bei der bekannten Lösung zum Scannen der Werke ist, dass dies ein zeitintensiver und mühevoller Prozess ist. Gibt es irgendwelche Änderungen im Layout oder in der Anordnung von Gegenständen (Maschinen, Anlagen, Regale, Behälter usw.) ist ein erneutes Scannen, ein sogenannter Re-Scan, erforderlich. Dies könnte beispielsweise mehrmals die Woche erfolgen. Aktuelle Daten sind erforderlich, damit z.B. Produktionsplaner auf aktuellen Daten neue Konzepte erarbeiten oder autonome Transportsysteme, die anhand der gescannten Daten ihre Aufgaben erledigen, immer auf aktuelles Kartenmaterial zurückgreifen können. Weiterhin ist es von Nachteil, dass eine Vielzahl von Referenzmarken an bestimmten Punkten in der Umgebung durch Referenzmarkierungen der Scaneinrichtungen erfasst werden müssen, indem die Referenzmarkierungen in direkten Kontakt mit den Referenzmarken gebracht werden und dabei geleichzeitig vom Anwender ein Betätigungsknopf gedrückt wird.
  • Es ist eine zu lösende Aufgabe zumindest einiger Ausführungsformen, ein Verfahren zum kontaktlosen Einlesen von anzugeben, das insbesondere für autonome Scanvorgänge Vorteile aufweist.
  • Diese Aufgabe wird durch ein Verfahren gemäß dem unabhängigen Patentanspruch gelöst. Vorteilhafte Ausführungsformen und Weiterbildungen der Gegenstände gehen weiterhin aus den abhängigen Patentansprüchen, der nachfolgenden Beschreibung und aus der Zeichnung hervor.
  • Bei dem hier beschriebenen Verfahren zum kontaktlosen Einlesen von Referenzmarken wird ein fahrerloses Transportsystem bereitgestellt, welches eine Raumerfassungsvorrichtung zum Erfassen von Objekträumen, zumindest eine Kameravorrichtung und zumindest einen Lidar-Sensor aufweist. Die die Kameravorrichtung kann z.B. eine RGB-Kamera sein. Die Kameravorrichtung und der Lidar-Sensor können Teil der Raumerfassungsvorrichtung sein. Alternativ können die Kameravorrichtung und der Lidar-Sensor auch separat von der Raumerfassungsvorrichtung ausgebildet sein.
  • Weiterhin wird zumindest ein Bild innerhalb eines Objektraumes mittels der Kameravorrichtung aufgenommen. Eine Referenzmarke im aufgenommenen Bild wird automatisch durch Mustererkennung identifiziert und ein Mittelpunkt der identifizierten Referenzmarke wird Ermitteln. Die Mustererkennung kann z.B. mithilfe von neuronalen Netzen und/oder künstlicher Intelligenz erfolgen.
  • Aus einer Vielzahl von mit dem Lidar-Sensor aufgenommenen Tiefendaten wird ein Tiefenwert ermittelt, welcher dem Mittelpunkt der identifizierten Referenzmarke zuzuordnen ist. Dies kann insbesondere erfolgen, da die intrinsischen (Beschaffenheit der Kameravorrichtung, Aufbau der Linse, Entfernung von Bildsensor zu Linse, etc.) und extrinsischen Parameter (relative Position Kameravorrichtung zum Lidar-Sensor, Entfernung und/oder Drehung zum Lidar-Sensor) der Kameravorrichtung bekannt sind. Weiterhin wird die relative Position der Kameravorrichtung zur Referenzmarke ermittelt, und zwar insbesondere durch den ermittelten Mittelpunkt und den ermittelten Tiefenwert.
  • Anschließend kann zumindest ein 3D-Scan der Raumerfassungsvorrichtung georeferenziert werden, insbesondere da die absoluten Koordinaten der Referenzmarke bekannt sind, und also die Koordinaten des 3D-Scan der Raumerfassungsvorrichtung ermittelt werden können.
  • Gemäß einer weiteren Ausführungsform werden die Kameravorrichtung und der Lidar-Sensor und die Raumerfassungsvorrichtung vor dem Aufnehmen des Bildes durch das fahrerlose Transportsystem bewegt werden. Beispielsweise kann sich das fahrerlose Transportsystem innerhalb des Objektraums autonom bewegen.
  • Weiterhin können das Aufnehmen des Bildes und/oder Aufnahmen von Tiefendaten durch den Lidar-Sensor automatisiert erfolgen.
  • Die Raumerfassungsvorrichtung kann einen oder mehrere Mehrfachscanner aufweisen. Beispielweise kann die Raumerfassungsvorrichtung einen ersten Mehrfachscanner und einen zweiten Mehrfachscanner aufweisen, welche jeweils an einem Gestell angeordnet bzw. befestigt sein können. Der erste und der zweite Mehrfachscanner können insbesondere eine Vielzahl von in einem Bauteil integrierten Emissionseinheiten zum Erzeugen einer Vielzahl von Signalstrahlen in definierten Emissionsrichtungen umfassen, sowie einen Empfänger zum Detektieren von Reflexionsstrahlungen, die durch Reflexionen der Signalstrahlen an einem oder mehreren Objekten des Objektraums erzeugt werden, und eine Abtasteinrichtung zum Verändern der Emissionsrichtungen der Signalstrahlen. Der Einsatz von Mehrfachscannern ermöglicht das unterbrechungsfreie Erfassen des Objektraums. Durch die Verwendung der Mehrfachscanners kann ein Echtzeit-3D-SLAM-Verfahren mit sechs Freiheitsgraden eingesetzt werden.
  • Aus der Verwendung der Mehrfachscanners in der Raumerfassungsvorrichtung ergibt sich der Vorteil, dass die Vorrichtung in der Bewegung immer nicht nur neue Oberflächenabschnitte des Objektraums erfasst, indem die Signalstrahlen diese Oberflächenabschnitte überstreichen, sondern dass die Signalstrahlen immer auch auf bereits zuvor erfasste Oberflächenabschnitte treffen, das heißt solche Oberflächenabschnitte, die bereits von zuvor ausgesandten anderen Signalstrahlen erfasst wurden. Hierdurch wird es möglich, einen Abgleich der von dem Empfänger detektierten Reflexionsstrahlungen mit bereits zuvor detektierten Reflexionsstrahlungen durchzuführen. Aus diesem Abgleich kann dann die Bewegung der Raumerfassungsvorrichtung berechnet werden, so dass es möglich ist, die Position der Raumerfassungsvorrichtung im Objektraum zu bestimmen. Hierdurch ist es wiederum möglich, eine graphische Darstellung derjenigen Bereiche des Objektraums zu erzeugen und auszugeben, durch welche die Raumerfassungsvorrichtung bewegt wurde. Hieraus wiederum lässt sich anhand einer vorläufigen Modellierung des Objektraums anhand der Daten, die zumindest aus den Reflexionsstrahlungen gewonnen werden können, bestimmen, durch welche Bereiche im Objektraum die Raumerfassungsvorrichtung bewegt werden kann. Diese möglichen Bewegungen der Vorrichtung im Objektraum können außerdem graphisch dargestellt und ausgegeben werden. Die Mehrfachscanner können jeweils Emissionseinheiten mit einem oder mehreren Lasern aufweisen.
  • Weiterhin kann die Raumerfassungsvorrichtung eine oder mehrere Kameras aufweisen, welche an dem Gestell angeordnet bzw. befestigt sein können. Die am Gestell montierte Kamera bzw. montierten Kameras können insbesondere dazu ausgebildet sein, Kamerabilder zumindest eines Teils des Objektraums aufzunehmen. Die von der Kamera oder den Kameras aufgenommenen Bilder können beim Erzeugen der verschiedenen graphischen Darstellungen des Objektraums in Echtzeit berücksichtigt werden. Auf diese Weise kann eine sehr realitätsnahe Darstellung des begangenen und/oder begehbaren Bereichs des Objektraums oder des von der Raumerfassungsvorrichtung bereits abgetasteten Bereichs des Objektraums in Echtzeit erzeugt werden.
  • Bei dem hier beschriebenen Verfahren ist vorteilhaferweise keine physische Berührung der Referenzmarke notwendig. Dadurch kann vermieden werden, dass Sicherheitssysteme des fahrerlosen Transportfahrzeugs auslösen. Somit kann eine physische Abnahme zur Lokalisierung der Raumerfassungsvorrichtung entfallen.
  • Weitere Vorteile und vorteilhafte Ausführungsformen des hier beschriebenen Verfahrens ergeben sich aus der im Folgenden in Verbindung mit der 1 beschriebenen Ausführungsform. Es zeigt:
    • 1 eine schematische Darstellung des Verfahrens gemäß einem Ausführungsbeispiel.
  • Die dargestellten Elemente und deren Größenverhältnisse untereinander sind grundsätzlich nicht als maßstabsgerecht anzusehen. Vielmehr können einzelne Elemente zur besseren Darstellbarkeit und/oder zum besseren Verständnis übertrieben dick oder groß dimensioniert dargestellt sein.
  • 1 zeigt eine schematische Darstellung des Verfahrens gemäß einem Ausführungsbeispiel.
  • Es wird ein fahrerloses Transportsystem (nicht dargestellt) bereitgestellt, welches eine Raumerfassungsvorrichtung (nicht dargestellt) zum Erfassen von Objekträumen, zumindest eine Kameravorrichtung 1 und zumindest einen Lidar-Sensor 2 aufweist. Die die Kameravorrichtung 1 kann z.B. eine RGB-Kamera sein.
  • Um eine Referenzmarke 3 einzulesen, wird diese zuerst auf einem Bild einer Kameravorrichtung 1 bzw. einem RGB-Bild einer RGB-Kamera mit Objekterkennung erkannt. Dann wird die Pixelposition des Mittelpunkts der erkannten Referenzmarke 3 ermittelt. Daraus kann, da die intrinsischen und extrinsischen Parameter der Kameravorrichtung 1 bekannt sind, ein Tiefenwert aus der durch den Lidar-Sensor 2 erzeugten Punktwolke ermittelt werden. Dadurch kann wiederum mit den intrinsischen Kameraparametern die 3D-Position der Referenzmarke 3 relativ zur Kameravorrichtung 1 ermittelt werden. Mit dieser Information kann eine Georeferenzierung durchgeführt werden.
  • Durch die Kombination der Kameravorrichtung 1 und des Lidar-Sensors 2 kann das Einlesen von Referenzmarken 3 vorteilhafterweise auch aus größeren Entfernungen als bei einem auf einer Tiefenkamera basierenden Verfahren erfolgen, da Lidar-Sensoren 2 bzw. 3D-Lidar-Scanner auch bei höheren Distanzen genaue Tiefenwertinformationen liefern.
  • Die Raumerfassungsvorrichtung zum Erfassen von Objekträumen, die Kameravorrichtung 1 und der Lidar-Sensor 2 können autonom auf dem fahrerlosen Transportfahrzeug durch das Werk transportiert werden, um Referenzmarken 3 einzulesen und 3D-Scans der Umgebung mittels der Raumerfassungsvorrichtung auszuführen, wobei die 3D-Scans durch das Einlesen der Referenzmarken 3 georeferenziert werden können.
  • Alternativ oder zusätzlich kann das in den Figuren gezeigte Ausführungsbeispiel weitere Merkmale gemäß den Ausführungsformen der allgemeinen Beschreibung aufweisen.
  • Bezugszeichenliste
  • 1
    Kameravorrichtung
    2
    Lidar-Sensor
    3
    Referenzmarke
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102019120702 A1 [0002]

Claims (7)

  1. Verfahren zum kontaktlosen Einlesen von Referenzmarken (3), aufweisend die folgenden Schritte: - Bereitstellen eines fahrerlosen Transportsystems, welches eine Raumerfassungsvorrichtung zum Erfassen von Objekträumen, zumindest eine Kameravorrichtung (1) und zumindest einen Lidar-Sensor (2) aufweist, - Aufnehmen zumindest eines Bildes innerhalb eines Objektraumes mittels der Kameravorrichtung (1), - automatisches Identifizieren einer Referenzmarke (3) im aufgenommenen Bild durch Mustererkennung und Ermitteln eines Mittelpunktes der identifizierten Referenzmarke (3), - Ermitteln eines Tiefenwertes aus einer Vielzahl von mit dem Lidar-Sensor (2) aufgenommenen Tiefendaten, welcher dem Mittelpunkt der identifizierten Referenzmarke (3) zuzuordnen ist, und - Ermitteln der relativen Position der Kameravorrichtung (1) zur Referenzmarke (3) durch den ermittelten Mittelpunkt und den ermittelten Tiefenwert.
  2. Verfahren nach Anspruch 1, wobei anschließend zumindest ein 3D-Scan der Raumerfassungsvorrichtung georeferenziert wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Kameravorrichtung (1) und der Lidar-Sensor (2) vor dem Aufnehmen des Bildes durch das fahrerlose Transportsystem bewegt werden.
  4. Verfahren nach Anspruch 3, wobei sich das fahrerlose Transportsystem innerhalb des Objektraums autonom bewegt.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Kameravorrichtung (1) eine RGB-Kamera ist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Ermitteln des Tiefenwertes intrinsische und/oder extrinsische Parameter der Kameravorrichtung (1) verwendet werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Aufnehmen des Bildes und/oder Aufnahmen von Tiefendaten durch den Lidar-Sensor (2) automatisiert erfolgen.
DE102022121770.1A 2022-08-29 2022-08-29 Verfahren zum kontaktlosen Einlesen von Referenzmarken Pending DE102022121770A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022121770.1A DE102022121770A1 (de) 2022-08-29 2022-08-29 Verfahren zum kontaktlosen Einlesen von Referenzmarken

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022121770.1A DE102022121770A1 (de) 2022-08-29 2022-08-29 Verfahren zum kontaktlosen Einlesen von Referenzmarken

Publications (1)

Publication Number Publication Date
DE102022121770A1 true DE102022121770A1 (de) 2024-02-29

Family

ID=89844265

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022121770.1A Pending DE102022121770A1 (de) 2022-08-29 2022-08-29 Verfahren zum kontaktlosen Einlesen von Referenzmarken

Country Status (1)

Country Link
DE (1) DE102022121770A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014145471A1 (en) 2013-03-15 2014-09-18 Carnegie Mellon University A supervised autonomous robotic system for complex surface inspection and processing
US20190016312A1 (en) 2017-07-14 2019-01-17 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
DE102019120702A1 (de) 2019-07-31 2021-02-04 Navvis Gmbh Gestell für zumindest eine Scaneinrichtung und Raumerfassungsvorrichtung mit zumindest einer Scaneinrichtung
US20210035056A1 (en) 2016-09-26 2021-02-04 Cybernet Systems Corp. Automated warehousing using robotic forklifts or other material handling vehicles
US20210380340A1 (en) 2020-06-03 2021-12-09 Lingdong Technology (Beijing) Co.Ltd Warehousing system, self-driving system and method of positioning a self-driving system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014145471A1 (en) 2013-03-15 2014-09-18 Carnegie Mellon University A supervised autonomous robotic system for complex surface inspection and processing
US20210035056A1 (en) 2016-09-26 2021-02-04 Cybernet Systems Corp. Automated warehousing using robotic forklifts or other material handling vehicles
US20190016312A1 (en) 2017-07-14 2019-01-17 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
DE102019120702A1 (de) 2019-07-31 2021-02-04 Navvis Gmbh Gestell für zumindest eine Scaneinrichtung und Raumerfassungsvorrichtung mit zumindest einer Scaneinrichtung
US20210380340A1 (en) 2020-06-03 2021-12-09 Lingdong Technology (Beijing) Co.Ltd Warehousing system, self-driving system and method of positioning a self-driving system

Similar Documents

Publication Publication Date Title
EP2144036B1 (de) Verfahren und Vorrichtung zur 3D-Digitalisierung eines Objekts
DE112016006262B4 (de) Dreidimensionaler Scanner und Verarbeitungsverfahren zur Messunterstützung für diesen
EP1673589B1 (de) Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE112016001150T5 (de) Schätzung extrinsischer kameraparameter anhand von bildlinien
WO2005080916A1 (de) Vorrichtung und verfahren zur bestimmung von raumkoordinaten eines objekts
EP3433574A1 (de) Vorrichtung zur 3-dimensionalen vermessung eines objekts, verfahren und computerprogramm mit bildbasierter auslösung
EP2824525A1 (de) Verfahren und Einrichtung zur Bestimmung der Position von Betriebsmitteln einer industriellen Automatisierungsanordnung
DE102012223047B4 (de) Mehrteil-Korrespondierer (corresponder) für mehrere Kameras
DE102006060716A1 (de) Verfahren zur Bildmarken-unterstützten Bildauswertung
DE10151983A1 (de) Verfahren zur Dokumentation einer Unfallsituation
DE4113992A1 (de) Verfahren zur automatischen dreidimensionalen ueberwachung von gefahrenraeumen
DE10112732C2 (de) Verfahren zur Bestimmung der Lage von Meßbildern eines Objektes relativ zum Objekt
EP3659113B1 (de) Erkennungssystem, arbeitsverfahren und trainingsverfahren zum erzeugen eines 3d-modells mit referenzdaten
DE102014201409A1 (de) Parkplatz - trackinggerät und verfahren desselben
DE102022121770A1 (de) Verfahren zum kontaktlosen Einlesen von Referenzmarken
DE19632058C1 (de) Optoelektronisch erfaßbares Identifizierungs- oder Zielelement sowie Verfahren zu seiner Erfassung
DE102019220616B4 (de) Verfahren zur simultanen lokalisierung und abbildung
EP2630632A1 (de) Bestimmung der basisbreite eines stereobild-erfassungssystems
DE102020117271A1 (de) Verfahren und Vorrichtung zur Ermittlung von Objektdaten in Bezug auf ein Objekt
DE102019129101A1 (de) Verfahren und System zum Schätzen eines Begrenzungsrahmens, der ein Zielfahrzeug einschließt
DE102019102561A1 (de) Verfahren zum Erkennen einer Pflastermarkierung
DE102021207180B3 (de) Verfahren und Vorrichtung zum Lokalisieren eines Fahrzeugs in einem Umfeld
DE102017220634A1 (de) Fahrzeug mit Lokalisierungseinrichtung, System, Lokalisierungseinrichtung, Industrieroboter und Verfahren
DE102022111648A1 (de) Aufsatz mit Raumerfassungsvorrichtung zur Aufnahme durch ein fahrerloses Transportsystem und Verfahren zum Erfassen von Objekträumen

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed