DE102022121770A1 - Verfahren zum kontaktlosen Einlesen von Referenzmarken - Google Patents
Verfahren zum kontaktlosen Einlesen von Referenzmarken Download PDFInfo
- Publication number
- DE102022121770A1 DE102022121770A1 DE102022121770.1A DE102022121770A DE102022121770A1 DE 102022121770 A1 DE102022121770 A1 DE 102022121770A1 DE 102022121770 A DE102022121770 A DE 102022121770A DE 102022121770 A1 DE102022121770 A1 DE 102022121770A1
- Authority
- DE
- Germany
- Prior art keywords
- camera device
- reference mark
- lidar sensor
- image
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000001514 detection method Methods 0.000 claims abstract description 22
- 238000003909 pattern recognition Methods 0.000 claims abstract description 4
- 238000001454 recorded image Methods 0.000 claims abstract 2
- 230000005855 radiation Effects 0.000 description 4
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C15/00—Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
- G01C15/02—Means for marking measuring points
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Es wird ein Verfahren zum kontaktlosen Einlesen von Referenzmarken (3) angegeben. Das Verfahren weist folgende Schritte auf:- Bereitstellen eines fahrerlosen Transportsystems, welches eine Raumerfassungsvorrichtung zum Erfassen von Objekträumen, zumindest eine Kameravorrichtung (1) und zumindest einen Lidar-Sensor (2) aufweist,- Aufnehmen zumindest eines Bildes innerhalb eines Objektraumes mittels der Kameravorrichtung (1),- automatisches Identifizieren einer Referenzmarke (3) im aufgenommenen Bild durch Mustererkennung und Ermitteln eines Mittelpunktes der identifizierten Referenzmarke (3),- Ermitteln eines Tiefenwertes aus einer Vielzahl von mit dem Lidar-Sensor (2) aufgenommenen Tiefendaten, welcher dem Mittelpunkt der identifizierten Referenzmarke (3) zuzuordnen ist, und- Ermitteln der relativen Position der Kameravorrichtung (1) zur Referenzmarke (3) durch den ermittelten Mittelpunkt und den ermittelten Tiefenwert.
Description
- Es wird ein Verfahren zum kontaktlosen Einlesen von Referenzmarken angegeben.
- Es ist im Stand der Technik bekannt, dass im Rahmen der Digitalisierung Werke mittels 3D-Scaneinrichtungen gescannt werden. Hierzu werden durch Mitarbeiter Scangeräte durch die Werkshallen getragen und alle Daten aufgenommen. Die Scans erfolgen derzeit also primär manuell. Die Druckschrift
DE 10 2019 120 702 A1 zeigt z.B. ein Gestell für zumindest eine Scaneinrichtung zum Tragen der Scaneinrichtung mittels des Körpers einer Person, wobei das Gestell eine Trageeinrichtung zum Anlegen und Tragen des Gestells durch die Person umfasst. Des Weiteren beschreibt die Druckschrift eine Raumerfassungsvorrichtung mit zumindest einer Scaneinrichtung und einem solchen Gestell. - Nachteilig bei der bekannten Lösung zum Scannen der Werke ist, dass dies ein zeitintensiver und mühevoller Prozess ist. Gibt es irgendwelche Änderungen im Layout oder in der Anordnung von Gegenständen (Maschinen, Anlagen, Regale, Behälter usw.) ist ein erneutes Scannen, ein sogenannter Re-Scan, erforderlich. Dies könnte beispielsweise mehrmals die Woche erfolgen. Aktuelle Daten sind erforderlich, damit z.B. Produktionsplaner auf aktuellen Daten neue Konzepte erarbeiten oder autonome Transportsysteme, die anhand der gescannten Daten ihre Aufgaben erledigen, immer auf aktuelles Kartenmaterial zurückgreifen können. Weiterhin ist es von Nachteil, dass eine Vielzahl von Referenzmarken an bestimmten Punkten in der Umgebung durch Referenzmarkierungen der Scaneinrichtungen erfasst werden müssen, indem die Referenzmarkierungen in direkten Kontakt mit den Referenzmarken gebracht werden und dabei geleichzeitig vom Anwender ein Betätigungsknopf gedrückt wird.
- Es ist eine zu lösende Aufgabe zumindest einiger Ausführungsformen, ein Verfahren zum kontaktlosen Einlesen von anzugeben, das insbesondere für autonome Scanvorgänge Vorteile aufweist.
- Diese Aufgabe wird durch ein Verfahren gemäß dem unabhängigen Patentanspruch gelöst. Vorteilhafte Ausführungsformen und Weiterbildungen der Gegenstände gehen weiterhin aus den abhängigen Patentansprüchen, der nachfolgenden Beschreibung und aus der Zeichnung hervor.
- Bei dem hier beschriebenen Verfahren zum kontaktlosen Einlesen von Referenzmarken wird ein fahrerloses Transportsystem bereitgestellt, welches eine Raumerfassungsvorrichtung zum Erfassen von Objekträumen, zumindest eine Kameravorrichtung und zumindest einen Lidar-Sensor aufweist. Die die Kameravorrichtung kann z.B. eine RGB-Kamera sein. Die Kameravorrichtung und der Lidar-Sensor können Teil der Raumerfassungsvorrichtung sein. Alternativ können die Kameravorrichtung und der Lidar-Sensor auch separat von der Raumerfassungsvorrichtung ausgebildet sein.
- Weiterhin wird zumindest ein Bild innerhalb eines Objektraumes mittels der Kameravorrichtung aufgenommen. Eine Referenzmarke im aufgenommenen Bild wird automatisch durch Mustererkennung identifiziert und ein Mittelpunkt der identifizierten Referenzmarke wird Ermitteln. Die Mustererkennung kann z.B. mithilfe von neuronalen Netzen und/oder künstlicher Intelligenz erfolgen.
- Aus einer Vielzahl von mit dem Lidar-Sensor aufgenommenen Tiefendaten wird ein Tiefenwert ermittelt, welcher dem Mittelpunkt der identifizierten Referenzmarke zuzuordnen ist. Dies kann insbesondere erfolgen, da die intrinsischen (Beschaffenheit der Kameravorrichtung, Aufbau der Linse, Entfernung von Bildsensor zu Linse, etc.) und extrinsischen Parameter (relative Position Kameravorrichtung zum Lidar-Sensor, Entfernung und/oder Drehung zum Lidar-Sensor) der Kameravorrichtung bekannt sind. Weiterhin wird die relative Position der Kameravorrichtung zur Referenzmarke ermittelt, und zwar insbesondere durch den ermittelten Mittelpunkt und den ermittelten Tiefenwert.
- Anschließend kann zumindest ein 3D-Scan der Raumerfassungsvorrichtung georeferenziert werden, insbesondere da die absoluten Koordinaten der Referenzmarke bekannt sind, und also die Koordinaten des 3D-Scan der Raumerfassungsvorrichtung ermittelt werden können.
- Gemäß einer weiteren Ausführungsform werden die Kameravorrichtung und der Lidar-Sensor und die Raumerfassungsvorrichtung vor dem Aufnehmen des Bildes durch das fahrerlose Transportsystem bewegt werden. Beispielsweise kann sich das fahrerlose Transportsystem innerhalb des Objektraums autonom bewegen.
- Weiterhin können das Aufnehmen des Bildes und/oder Aufnahmen von Tiefendaten durch den Lidar-Sensor automatisiert erfolgen.
- Die Raumerfassungsvorrichtung kann einen oder mehrere Mehrfachscanner aufweisen. Beispielweise kann die Raumerfassungsvorrichtung einen ersten Mehrfachscanner und einen zweiten Mehrfachscanner aufweisen, welche jeweils an einem Gestell angeordnet bzw. befestigt sein können. Der erste und der zweite Mehrfachscanner können insbesondere eine Vielzahl von in einem Bauteil integrierten Emissionseinheiten zum Erzeugen einer Vielzahl von Signalstrahlen in definierten Emissionsrichtungen umfassen, sowie einen Empfänger zum Detektieren von Reflexionsstrahlungen, die durch Reflexionen der Signalstrahlen an einem oder mehreren Objekten des Objektraums erzeugt werden, und eine Abtasteinrichtung zum Verändern der Emissionsrichtungen der Signalstrahlen. Der Einsatz von Mehrfachscannern ermöglicht das unterbrechungsfreie Erfassen des Objektraums. Durch die Verwendung der Mehrfachscanners kann ein Echtzeit-3D-SLAM-Verfahren mit sechs Freiheitsgraden eingesetzt werden.
- Aus der Verwendung der Mehrfachscanners in der Raumerfassungsvorrichtung ergibt sich der Vorteil, dass die Vorrichtung in der Bewegung immer nicht nur neue Oberflächenabschnitte des Objektraums erfasst, indem die Signalstrahlen diese Oberflächenabschnitte überstreichen, sondern dass die Signalstrahlen immer auch auf bereits zuvor erfasste Oberflächenabschnitte treffen, das heißt solche Oberflächenabschnitte, die bereits von zuvor ausgesandten anderen Signalstrahlen erfasst wurden. Hierdurch wird es möglich, einen Abgleich der von dem Empfänger detektierten Reflexionsstrahlungen mit bereits zuvor detektierten Reflexionsstrahlungen durchzuführen. Aus diesem Abgleich kann dann die Bewegung der Raumerfassungsvorrichtung berechnet werden, so dass es möglich ist, die Position der Raumerfassungsvorrichtung im Objektraum zu bestimmen. Hierdurch ist es wiederum möglich, eine graphische Darstellung derjenigen Bereiche des Objektraums zu erzeugen und auszugeben, durch welche die Raumerfassungsvorrichtung bewegt wurde. Hieraus wiederum lässt sich anhand einer vorläufigen Modellierung des Objektraums anhand der Daten, die zumindest aus den Reflexionsstrahlungen gewonnen werden können, bestimmen, durch welche Bereiche im Objektraum die Raumerfassungsvorrichtung bewegt werden kann. Diese möglichen Bewegungen der Vorrichtung im Objektraum können außerdem graphisch dargestellt und ausgegeben werden. Die Mehrfachscanner können jeweils Emissionseinheiten mit einem oder mehreren Lasern aufweisen.
- Weiterhin kann die Raumerfassungsvorrichtung eine oder mehrere Kameras aufweisen, welche an dem Gestell angeordnet bzw. befestigt sein können. Die am Gestell montierte Kamera bzw. montierten Kameras können insbesondere dazu ausgebildet sein, Kamerabilder zumindest eines Teils des Objektraums aufzunehmen. Die von der Kamera oder den Kameras aufgenommenen Bilder können beim Erzeugen der verschiedenen graphischen Darstellungen des Objektraums in Echtzeit berücksichtigt werden. Auf diese Weise kann eine sehr realitätsnahe Darstellung des begangenen und/oder begehbaren Bereichs des Objektraums oder des von der Raumerfassungsvorrichtung bereits abgetasteten Bereichs des Objektraums in Echtzeit erzeugt werden.
- Bei dem hier beschriebenen Verfahren ist vorteilhaferweise keine physische Berührung der Referenzmarke notwendig. Dadurch kann vermieden werden, dass Sicherheitssysteme des fahrerlosen Transportfahrzeugs auslösen. Somit kann eine physische Abnahme zur Lokalisierung der Raumerfassungsvorrichtung entfallen.
- Weitere Vorteile und vorteilhafte Ausführungsformen des hier beschriebenen Verfahrens ergeben sich aus der im Folgenden in Verbindung mit der
1 beschriebenen Ausführungsform. Es zeigt: -
1 eine schematische Darstellung des Verfahrens gemäß einem Ausführungsbeispiel. - Die dargestellten Elemente und deren Größenverhältnisse untereinander sind grundsätzlich nicht als maßstabsgerecht anzusehen. Vielmehr können einzelne Elemente zur besseren Darstellbarkeit und/oder zum besseren Verständnis übertrieben dick oder groß dimensioniert dargestellt sein.
-
1 zeigt eine schematische Darstellung des Verfahrens gemäß einem Ausführungsbeispiel. - Es wird ein fahrerloses Transportsystem (nicht dargestellt) bereitgestellt, welches eine Raumerfassungsvorrichtung (nicht dargestellt) zum Erfassen von Objekträumen, zumindest eine Kameravorrichtung 1 und zumindest einen Lidar-Sensor 2 aufweist. Die die Kameravorrichtung 1 kann z.B. eine RGB-Kamera sein.
- Um eine Referenzmarke 3 einzulesen, wird diese zuerst auf einem Bild einer Kameravorrichtung 1 bzw. einem RGB-Bild einer RGB-Kamera mit Objekterkennung erkannt. Dann wird die Pixelposition des Mittelpunkts der erkannten Referenzmarke 3 ermittelt. Daraus kann, da die intrinsischen und extrinsischen Parameter der Kameravorrichtung 1 bekannt sind, ein Tiefenwert aus der durch den Lidar-Sensor 2 erzeugten Punktwolke ermittelt werden. Dadurch kann wiederum mit den intrinsischen Kameraparametern die 3D-Position der Referenzmarke 3 relativ zur Kameravorrichtung 1 ermittelt werden. Mit dieser Information kann eine Georeferenzierung durchgeführt werden.
- Durch die Kombination der Kameravorrichtung 1 und des Lidar-Sensors 2 kann das Einlesen von Referenzmarken 3 vorteilhafterweise auch aus größeren Entfernungen als bei einem auf einer Tiefenkamera basierenden Verfahren erfolgen, da Lidar-Sensoren 2 bzw. 3D-Lidar-Scanner auch bei höheren Distanzen genaue Tiefenwertinformationen liefern.
- Die Raumerfassungsvorrichtung zum Erfassen von Objekträumen, die Kameravorrichtung 1 und der Lidar-Sensor 2 können autonom auf dem fahrerlosen Transportfahrzeug durch das Werk transportiert werden, um Referenzmarken 3 einzulesen und 3D-Scans der Umgebung mittels der Raumerfassungsvorrichtung auszuführen, wobei die 3D-Scans durch das Einlesen der Referenzmarken 3 georeferenziert werden können.
- Alternativ oder zusätzlich kann das in den Figuren gezeigte Ausführungsbeispiel weitere Merkmale gemäß den Ausführungsformen der allgemeinen Beschreibung aufweisen.
- Bezugszeichenliste
-
- 1
- Kameravorrichtung
- 2
- Lidar-Sensor
- 3
- Referenzmarke
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102019120702 A1 [0002]
Claims (7)
- Verfahren zum kontaktlosen Einlesen von Referenzmarken (3), aufweisend die folgenden Schritte: - Bereitstellen eines fahrerlosen Transportsystems, welches eine Raumerfassungsvorrichtung zum Erfassen von Objekträumen, zumindest eine Kameravorrichtung (1) und zumindest einen Lidar-Sensor (2) aufweist, - Aufnehmen zumindest eines Bildes innerhalb eines Objektraumes mittels der Kameravorrichtung (1), - automatisches Identifizieren einer Referenzmarke (3) im aufgenommenen Bild durch Mustererkennung und Ermitteln eines Mittelpunktes der identifizierten Referenzmarke (3), - Ermitteln eines Tiefenwertes aus einer Vielzahl von mit dem Lidar-Sensor (2) aufgenommenen Tiefendaten, welcher dem Mittelpunkt der identifizierten Referenzmarke (3) zuzuordnen ist, und - Ermitteln der relativen Position der Kameravorrichtung (1) zur Referenzmarke (3) durch den ermittelten Mittelpunkt und den ermittelten Tiefenwert.
- Verfahren nach
Anspruch 1 , wobei anschließend zumindest ein 3D-Scan der Raumerfassungsvorrichtung georeferenziert wird. - Verfahren nach einem der vorhergehenden Ansprüche, wobei die Kameravorrichtung (1) und der Lidar-Sensor (2) vor dem Aufnehmen des Bildes durch das fahrerlose Transportsystem bewegt werden.
- Verfahren nach
Anspruch 3 , wobei sich das fahrerlose Transportsystem innerhalb des Objektraums autonom bewegt. - Verfahren nach einem der vorhergehenden Ansprüche, wobei die Kameravorrichtung (1) eine RGB-Kamera ist.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Ermitteln des Tiefenwertes intrinsische und/oder extrinsische Parameter der Kameravorrichtung (1) verwendet werden.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei das Aufnehmen des Bildes und/oder Aufnahmen von Tiefendaten durch den Lidar-Sensor (2) automatisiert erfolgen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022121770.1A DE102022121770A1 (de) | 2022-08-29 | 2022-08-29 | Verfahren zum kontaktlosen Einlesen von Referenzmarken |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022121770.1A DE102022121770A1 (de) | 2022-08-29 | 2022-08-29 | Verfahren zum kontaktlosen Einlesen von Referenzmarken |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022121770A1 true DE102022121770A1 (de) | 2024-02-29 |
Family
ID=89844265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022121770.1A Pending DE102022121770A1 (de) | 2022-08-29 | 2022-08-29 | Verfahren zum kontaktlosen Einlesen von Referenzmarken |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022121770A1 (de) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014145471A1 (en) | 2013-03-15 | 2014-09-18 | Carnegie Mellon University | A supervised autonomous robotic system for complex surface inspection and processing |
US20190016312A1 (en) | 2017-07-14 | 2019-01-17 | Nio Usa, Inc. | Control and coordination of driverless fuel replenishment for autonomous vehicles |
DE102019120702A1 (de) | 2019-07-31 | 2021-02-04 | Navvis Gmbh | Gestell für zumindest eine Scaneinrichtung und Raumerfassungsvorrichtung mit zumindest einer Scaneinrichtung |
US20210035056A1 (en) | 2016-09-26 | 2021-02-04 | Cybernet Systems Corp. | Automated warehousing using robotic forklifts or other material handling vehicles |
US20210380340A1 (en) | 2020-06-03 | 2021-12-09 | Lingdong Technology (Beijing) Co.Ltd | Warehousing system, self-driving system and method of positioning a self-driving system |
-
2022
- 2022-08-29 DE DE102022121770.1A patent/DE102022121770A1/de active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014145471A1 (en) | 2013-03-15 | 2014-09-18 | Carnegie Mellon University | A supervised autonomous robotic system for complex surface inspection and processing |
US20210035056A1 (en) | 2016-09-26 | 2021-02-04 | Cybernet Systems Corp. | Automated warehousing using robotic forklifts or other material handling vehicles |
US20190016312A1 (en) | 2017-07-14 | 2019-01-17 | Nio Usa, Inc. | Control and coordination of driverless fuel replenishment for autonomous vehicles |
DE102019120702A1 (de) | 2019-07-31 | 2021-02-04 | Navvis Gmbh | Gestell für zumindest eine Scaneinrichtung und Raumerfassungsvorrichtung mit zumindest einer Scaneinrichtung |
US20210380340A1 (en) | 2020-06-03 | 2021-12-09 | Lingdong Technology (Beijing) Co.Ltd | Warehousing system, self-driving system and method of positioning a self-driving system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2144036B1 (de) | Verfahren und Vorrichtung zur 3D-Digitalisierung eines Objekts | |
DE112016006262B4 (de) | Dreidimensionaler Scanner und Verarbeitungsverfahren zur Messunterstützung für diesen | |
EP1673589B1 (de) | Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes | |
DE112010004767T5 (de) | Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm | |
DE112016001150T5 (de) | Schätzung extrinsischer kameraparameter anhand von bildlinien | |
WO2005080916A1 (de) | Vorrichtung und verfahren zur bestimmung von raumkoordinaten eines objekts | |
EP3433574A1 (de) | Vorrichtung zur 3-dimensionalen vermessung eines objekts, verfahren und computerprogramm mit bildbasierter auslösung | |
EP2824525A1 (de) | Verfahren und Einrichtung zur Bestimmung der Position von Betriebsmitteln einer industriellen Automatisierungsanordnung | |
DE102012223047B4 (de) | Mehrteil-Korrespondierer (corresponder) für mehrere Kameras | |
DE102006060716A1 (de) | Verfahren zur Bildmarken-unterstützten Bildauswertung | |
DE10151983A1 (de) | Verfahren zur Dokumentation einer Unfallsituation | |
DE4113992A1 (de) | Verfahren zur automatischen dreidimensionalen ueberwachung von gefahrenraeumen | |
DE10112732C2 (de) | Verfahren zur Bestimmung der Lage von Meßbildern eines Objektes relativ zum Objekt | |
EP3659113B1 (de) | Erkennungssystem, arbeitsverfahren und trainingsverfahren zum erzeugen eines 3d-modells mit referenzdaten | |
DE102014201409A1 (de) | Parkplatz - trackinggerät und verfahren desselben | |
DE102022121770A1 (de) | Verfahren zum kontaktlosen Einlesen von Referenzmarken | |
DE19632058C1 (de) | Optoelektronisch erfaßbares Identifizierungs- oder Zielelement sowie Verfahren zu seiner Erfassung | |
DE102019220616B4 (de) | Verfahren zur simultanen lokalisierung und abbildung | |
EP2630632A1 (de) | Bestimmung der basisbreite eines stereobild-erfassungssystems | |
DE102020117271A1 (de) | Verfahren und Vorrichtung zur Ermittlung von Objektdaten in Bezug auf ein Objekt | |
DE102019129101A1 (de) | Verfahren und System zum Schätzen eines Begrenzungsrahmens, der ein Zielfahrzeug einschließt | |
DE102019102561A1 (de) | Verfahren zum Erkennen einer Pflastermarkierung | |
DE102021207180B3 (de) | Verfahren und Vorrichtung zum Lokalisieren eines Fahrzeugs in einem Umfeld | |
DE102017220634A1 (de) | Fahrzeug mit Lokalisierungseinrichtung, System, Lokalisierungseinrichtung, Industrieroboter und Verfahren | |
DE102022111648A1 (de) | Aufsatz mit Raumerfassungsvorrichtung zur Aufnahme durch ein fahrerloses Transportsystem und Verfahren zum Erfassen von Objekträumen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed |