DE102020209177A1 - Verfahren zum Bestimmen der Position eines Objekts - Google Patents

Verfahren zum Bestimmen der Position eines Objekts Download PDF

Info

Publication number
DE102020209177A1
DE102020209177A1 DE102020209177.3A DE102020209177A DE102020209177A1 DE 102020209177 A1 DE102020209177 A1 DE 102020209177A1 DE 102020209177 A DE102020209177 A DE 102020209177A DE 102020209177 A1 DE102020209177 A1 DE 102020209177A1
Authority
DE
Germany
Prior art keywords
markers
identification feature
until
arrangement
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020209177.3A
Other languages
English (en)
Inventor
Peter Ludwig
Sergej Bergen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020209177.3A priority Critical patent/DE102020209177A1/de
Publication of DE102020209177A1 publication Critical patent/DE102020209177A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25BTOOLS OR BENCH DEVICES NOT OTHERWISE PROVIDED FOR, FOR FASTENING, CONNECTING, DISENGAGING OR HOLDING
    • B25B21/00Portable power-driven screw or nut setting or loosening tools; Attachments for drilling apparatus serving the same purpose
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25BTOOLS OR BENCH DEVICES NOT OTHERWISE PROVIDED FOR, FOR FASTENING, CONNECTING, DISENGAGING OR HOLDING
    • B25B23/00Details of, or accessories for, spanners, wrenches, screwdrivers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25FCOMBINATION OR MULTI-PURPOSE TOOLS NOT OTHERWISE PROVIDED FOR; DETAILS OR COMPONENTS OF PORTABLE POWER-DRIVEN TOOLS NOT PARTICULARLY RELATED TO THE OPERATIONS PERFORMED AND NOT OTHERWISE PROVIDED FOR
    • B25F5/00Details or components of portable power-driven tools not particularly related to the operations performed and not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zum Bestimmen der Position eines Objekts (10), bei dem ein individuelles Identifikationsmerkmal (12), das dem Objekt (10) zugeordnet ist, von mindestens einer Kamera erfasst wird, anhand des erfassten Identifikationsmerkmals (12) das Objekt (10) von einer Mehrzahl an weiteren Objekten (10) unterschieden und damit identifiziert wird, und die Position des Objekts (10) bestimmt wird.

Description

  • Die Erfindung betrifft ein Verfahren zum Bestimmen der Position eines Objekts und eine Anordnung zum Durchführen des Verfahrens.
  • Stand der Technik
  • Verfügbare Systeme zur Lokalisierung von mobilen Arbeitsgeräten verwenden aktive, signalsendende Geräte, die bspw. Ultraschall oder z. B. durch Dioden erzeugtes Infrarotlicht emittieren. Diese Geräte werden bspw. an einem mobilen Arbeitsgerät angebracht. Zu beachten ist, dass die genannten Geräte bzw. die den Geräten zugeordneten Sender das Gewicht der Arbeitsgeräte signifikant erhöhen und zudem mit Strom versorgt werden müssen. So müssen bspw. Akkus regelmäßig geladen werden, weiterhin können Stöße oder eine unsachgemäße Handhabung Defekte verursachen. Auf diese Weise kann der Produktionsprozess nachteilig beeinträchtigt werden. Ggf. erforderliche Reparaturen oder benötigte Ersatzteile erhöhen zudem die Kosten.
  • Die Druckschrift DE 10 2017 215 518 A1 beschreibt ein Verfahren und ein System zur Ortung eines Objekts in einer Umgebung. Auf dem Objekt werden mehrere Lichtquellen angeordnet, die jeweils hinsichtlich wenigstens eines, von einer Kamera erfassbaren Merkmals voneinander verschieden sind, wobei unter Verwendung einer Kamera Licht von wenigstens einem Teil der auf dem Objekt angeordneten Lichtquellen erfasst wird. Mittels einer mit der Kamera verbundenen Recheneinheit werden anhand einer Anordnung der Lichtquellen auf dem Objekt ein Ort und/oder eine Ausrichtung des Objekts in der Umgebung ermittelt.
  • Aus der Druckschrift EP 3 235 605 ist ein Verfahren zum Einrichten eines Montagearbeitsplatzes mit einer Positionsbestimmungsvorrichtung bekannt. Der Montagearbeitsplatz weist mehrere Behälteraufnahmevorrichtungen auf, die zur Aufnahme von jeweils zumindest einem zugeordneten Materialbehälter ausgebildet sind. Mehrere Behälteraufnahmevorrichtungen sind mit einem ersten Datenträger versehen, mehrere Materialbehälter sind mit einem zweiten Datenträger versehen. Mit der Positionsbestimmungsvorrichtung ist die Position einer Hand eines Werkers ermittelbar.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden ein Verfahren nach Anspruch 1 und eine Anordnung gemäß Anspruch 14 vorgestellt. Ausführungsformen ergeben sich aus den abhängigen Ansprüchen und aus der Beschreibung.
  • Das vorgestellte Verfahren dient zum Bestimmen der Position eines Objekts bzw. eines Gegenstands und kann auch als Verfahren zum Lokalisieren eines Objekts bezeichnet werden. Bei diesem wird ein individuelles Identifikationsmerkmal, das dem Objekt zugeordnet ist, von mindestens einer Kamera erfasst. Individuell bedeutet hierbei, dass dieses Identifikationsmerkmal dem Objekt eindeutig zugeordnet ist und daher eine Identifikation bzw. ein Erkennen des Objekts ermöglicht. Anhand des erfassten Identifikationsmerkmals wird das Objekt von einer Mehrzahl an weiteren Objekten unterschieden und damit identifiziert. Diese weiteren Objekte haben typischerweise auch jeweils ein individuelles Indentifikationsmerkmal. Die Identifikationsmerkmale der Objekte unterscheiden sich alle voneinander und ermöglichen daher eine eindeutige Zuordnung und damit Identifikation des jeweils zugeordneten Objekts. Es wird weiterhin die Position des Objekts bestimmt. Dabei kann ein Triangulationsverfahren eingesetzt werden, wobei hierzu typischerweise zwei Kameras erforderlich sind. Dies kann auch anhand des zugeordneten Identifikationsmerkmals erfolgen. Das vorgestellte Verfahren ermöglicht es somit, ein Objekt aus einer Vielzahl anderer Objekte heraus zu identifizieren.
  • In Ausgestaltung wird das Verfahren dazu verwendet, um die Lage des Objekts zu bestimmen. Die Lage des Objekts gibt somit neben der Position des Objekts die Ausrichtung bzw. Orientierung des Objekts zu seiner Umgebung an. Bei dieser Ausführung kann das Identifikationsmerkmal eine Anordnung von mehreren unterschiedlichen Markern wie bspw. Reflexionspunktmustern an unterschiedlichen Ansichtsflächen des Objekts aufweisen, um dieses identifizieren und dessen räumliche Orientierung erkennen zu können.
  • Die Lage des Objekts kann anhand eines Verfahrens ermittelt werden, dass zwei Algorithmen POS (Pose from Orthography and Scaling) und POSIT (POS with ITeration) miteineinander kombiniert. Dieses Verfahren ist in der Druckschrift Model Based Object Pose in 25 Lines of Code; Daniel F. DeMenthon and Larry S. Davis, International Journal of Computer Vision, Seiten 123- 141, beschrieben. Das Verfahren ermöglicht es, aus einem Kamera-Bild des Identifikationsmerkmals, insbesondere von mehreren Markern, die räumliche Lage des Objekts zu berechnen.
  • In Ausgestaltung sind die verschiedenen Relativlagen der Marker so gewählt, dass der POSIT-Algorithmus nur dann konvergiert, wenn der Berechnung die korrekte Relativlage der Marker zugrunde gelegt wird. Wird die Berechnung mit dem Algorithmus parallel für alle verwendeten Marker-Relativlagen durchgeführt, konvergiert nur die Berechnung, die die richtige Marker-Relativlage verwendet.
  • Das Identifikationsmerkmal umfasst in Ausgestaltung eine Mehrzahl von Markern, die jeweils mindestens eine Eigenschaft haben, wobei diese mindestens eine Eigenschaft ausgewählt ist aus einer Gruppe, die Anordnung, Form und Farbe umfasst.
  • So ist in einer möglichen Ausführungsform vorgesehen, dass die verschiedenen Objekte bzw. Gegenstände, die identifiziert und lokalisiert werden können, unterschiedliche Anordnungen von Reflexionsmustern als Marker aufweisen, die sich hinsichtlich der Relativlage der Marker und/oder der Form, wie bspw. Kreise, Quadrate, Dreiecke, Größe, QR/Datamatrix-Code, ggf. Mischformen oder an das Grundprinzip angelehnte Codierungen , sowie markenspezifische Designelemente, der Marker und/oder der Farbe der Marker unterscheiden.
  • Weiterhin können für das Identifikationsmerkmal vorgeformte Markerpositionen bereitgestellt sein, an denen Marker anzubringen sind. Diese Markerpositionen können auf dem Objekt selbst und/oder auf einem Markerträger vorgesehen sein. Es können dann alle Markerpositionen mit Markern oder nur ein Teil der Markerpositionen mit Markern von dem Anwender versehen werden. Es kann bspw. das Objekt selbst oder ein darauf befestigter Markerträger mit einer Vielzahl von vorgeformten Markerpositionen versehen sein, z. B. Vertiefungen im spritzgegossenem Kunststoffteil, wobei die bspw. reflektierenden Marker nur in einem Teil dieser Vertiefungen, bspw. dort aufgeklebt, angeordnet sind. Vom Anwender müssen dann nur noch die ausgewählten Markerpositionen in die Anordnung eingegeben werden. Die Relativlage der vorgeformten Markerpositionen kann bereits vom Hersteller vorab in die Anordnung, typischerweise in ein Speicherelement der Anordnung, einprogrammiert werden.
  • Auf Hüllen oder Aufsätzen als Träger angebrachte Marker verringern den Konfigurationsaufwand, wenn diese bereits ab Werk korrekt auf ein bestimmtes Arbeitsgerät vorkonfiguriert sind.
  • Zu beachten ist, dass insbesondere mobile Arbeitsgeräte für die Lokalisierung mit reflektierenden Markern versehen und eingelernt werden müssen. Wenn Marker zu stark verschmutzen oder durch Abrieb nicht mehr ausreichend reflektieren, ist ein erneutes Einlernen der Arbeitsgeräte mit neuen Markern erforderlich. Einfache in der Herstellung günstige Clips oder Hüllen als Träger mit der gleichen Markercodierung können schnell ersetzt werden, ohne dass erneutes Einlernen notwendig ist.
  • Mit Markern beklebte und vorcodierte Clips als Träger passen auf ein bestimmtes, vorher spezifiziertes mobiles Arbeitsgerät. Die Koordinaten der Markercodierung werden in einer Datei gespeichert, die in das Lokalisierungssystem geladen werden muss. Ebenfalls besteht die Möglichkeit, die Koordinaten in einem RFID-Tag im Clip bzw. Hülle oder in einem QR-Code, Bar-Code usw. auf dem Clip bzw. der Hülle zu speichern und via RFID-Lesegerät oder Barcodescanner zu importieren. Zusätzlich können die relevanten Arbeitspunkte, z. B. Bitspitze, ab Werk vorkonfiguriert, gespeichert und ausgeliefert oder zum Download zur Verfügung gestellt werden.
  • Nach Anbringen des Clips bzw. der Hülle auf das mobile Arbeitsgerät weiß das Trackingsystem durch die eindeutige Codierung, um welches Arbeitsgerät es sich handelt und wo sich der Punkt des Arbeitsgeräts zur Kollisionskontrolle befindet. Somit wird der Konfigurationsaufwand stark verringert und die Arbeitsgeräte sind nach der Lokalisierung schnell einsatzbereit.
  • In einer weiteren Ausführungsform sind die verschiedenen Relativlagen der Marker so gewählt, dass z. B. der Algorithmus, der zuvor beschrieben wurde, nur dann konvergiert, wenn der Berechnung die korrekte Relativlage der Marker zugrunde gelegt worden ist. Wenn man die Berechnung parallel für alle verwendeten Marker-Relativlagen durchführt, konvergiert nur diejenige Berechnung, die die richtige Marker-Relativlage verwendet. So kann auf einfache Weise ermittelt werden, welches Objekt aus den möglichen Objekten lokalisiert wurde.
  • Die Positionsanordnung der verschiedenen Relativlagen der Marker am entsprechenden Werkzeug kann sich aus einer Datenbank, die in dem genannten Speicherelement abgelegt ist, ergeben. Diese werden entweder durch Darstellung des Werkzeugs und der Markerpositionen auf einer Anzeige bzw. einem Display oder durch augmented reality Verfahren (Erweiterte Realität) auf das Werkzeug oder das Werkzeugabbild projiziert.
  • Ein augmented reality-System hilft dem Anwender, die Marker an der für das Tracking idealen Position am Gegenstand anzubringen. Ebenfalls besteht die Möglichkeit, die Markerpositionen auf einem Gegenstand mittels eines Laserprojektionssystems oder eines Beamers anzuleuchten.
  • Die Anordnung der Marker, in Ausgestaltung mindestens drei, kann in mindestens je einem oder mehreren werkzeugspezifischen Mustern vorliegen.
  • Das Identifikationsmerkmal kann direkt an dem Objekt angebracht sein. In einer weiteren Ausführungsform ist das Identifikationsmerkmal auf einem Träger vorgesehen ist, der wiederum an dem Objekt angebracht ist.
  • Die Marker sind typischerweise so um den zu lokalisierenden Gegenstand angeordnet, dass bei jeder Ansichtsrichtung ausreichend viele Marker sichtbar sind, um eine Lokalisierung, bspw. mit den genannten Algorithmen, zu ermöglichen.
  • Der gesonderte Markerträger kann bspw. in Form eines Hohlkörpers bzw. einer Hülse ausgeführt sein, der das zugeordnete Objekt, z. B. einen Schrauber, hülsenartig umgibt, wobei er zumindest nach einer Seite offen ist. Dies unterstützt das Einführen des Schraubers. Der Markerträger kann reibschlüssig auf dem zugeordneten Objekt gehalten sein und/oder mit diesem verrastet sein.
  • Die Marker sind bspw. jeweils an ebenen Flächen angeordnet, die paarweise orthogonal zueinander ausgerichtet sind.
  • In einer weiteren Ausführungsform ist das Objekt ein in der industriellen Montage verwendetes Handwerkzeug. Dann ermöglicht das Verfahren eine verbesserte Lokalisierung von mobilen Arbeitsgeräten und Gegenständen. Als mobile Arbeitsgeräte, wie bspw. Handwerkzeuge, kommen dabei insbesondere Schraubgeräte, Nietgeräte, Clinchgeräte, Stanzgeräte, Bohrgeräte und Schweißgeräte in Betracht.
  • Das vorgestellte Verfahren kann zudem im Rahmen eines aktiven Assistenzsystems (active assist system) eingesetzt werden. Dies ist ein Montageassistenzsystem, das den Werker bei seiner Tätigkeit unterstützt. So können den Werker bspw. Informationen dazu gegeben werden, wo sich bestimmte Objekte, insbesondere Werkzeuge oder Werkstücke befinden. Dies kann bspw. auf einem Bildschirm dargestellt werden. Weiterhin kann dem Werker angezeigt werden, wo ein bestimmtes Objekt, inbsbesondere ein Werkzeug oder Werkstück, eingesetzt wird.
  • Außerdem kann bei dem Verfahren ein Referenzpunkt mit einem Projektor angezeigt werden. Dann kann der Positionsbestimmung der Referenzpunkt zugrunde gelegt werden, der außerhalb des Markerträgers angeordnet ist, insbesondere die Stelle eines Werkzeugs, an der es in Eingriff mit dem Werkstück kommt. Auch dies kann alternativ oder ergänzend auf einem Bildschirm dargestellt werden.
  • Einem Objekt können virtuelle Interaktionsstellen in Kugelform oder zylindrischer Form zugeordnet werden. Die Interaktionsstellen können in ihrem Durchmesser beliebig und dem Anwendungsfall angepasst gewählt werden. Bei einem Schraubprozess sind die Interaktionsstellen entsprechend die Schraubbereiche, in denen der Schraubprozess erlaubt ist und der Schrauber aktiv geschaltet wird.
  • So sind bspw. kugelförmige Schraubstellen dem lokalen Koordinatensystem des Bauteils zugeordnet. Es erfolgt dann bspw. die Zuordnung der Schraubstellen zum Koordinatensystem eines Werkstückträgers.
  • Bei jeder Bewegung des Bauteils bzw. des Werkstückträgers innerhalb des Arbeitsraums werden die Schraubstellen mitbewegt und befinden sich immer an den richtigen Schraubpositionen.
  • Einem Arbeitsgerät können ebenfalls Interaktionsstellen zugeordnet werden. Der Interaktionspunkt (VPOI: Virtual Point of Interest) ist dann typischerweise an der Bitspitze. Es ist ebenfalls möglich, einem Schrauber mehrere VPOIs zuzuordnen, die den unterschiedlichen Bitlängen entsprechen, die in einem Montageprozess notwendig sind. Jeder VPOI kann in beliebigem Schraubprozess individuell aktiviert werden. Bei einem aktiven VPOI sind die anderen inaktiv.
  • Damit ein Arbeitsgerät nur an der richtigen Stelle aktiviert wird, kann eine Kollisionskontrolle vorgenommen werden. Sobald sich der definierte VPOI des Arbeitsgeräts in der richtigen virtuellen Schraubstelle befindet, wird das Arbeitsgerät aktiviert.
  • Die Relativlage der Marker auf einem Gegenstand kann im Betrieb veränderbar sein, wobei abhängig von der vom Werker gewählten Relativlage, automatisiert eine Aktion am Arbeitsplatz ausgelöst wird. So können bspw. unterschiedliche Arbeitspläne angezeigt bzw. verwendet werden.
  • Bei einer Ausführungsform wird das Objekt mit einem Kameramodul erfasst, das zwei Kameras, denen jeweils ein Infrarot-Ringlicht zugeordnet ist, umfasst.
  • Die vorgestellte Anordnung dient zur Durchführung des beschriebenen Verfahrens und ist bspw. in einer Hard- und oder Software implementiert.
  • Die Anordnung ist grundsätzlich zur Lokalisation bzw. Positionsbestimmung beliebiger Objekte einsetzbar. Ein wichtiger Anwendungsfall ist bei Handwerkzeugen, die für die industrielle Montage genutzt werden, gegeben. Dabei kann es bei einem manuellen Montage-Arbeitsplatz in Verbindung mit einem aktiven Assistenzsystem verwendet werden.
  • Hierzu ist die Anordnung dazu eingerichtet, die Lage von mehreren gesonderten Objekten zu bestimmen. Dabei werden insbesondere Objekte voneinander unterschieden. Die Objekte befinden sich dabei nicht notwendigerweise gleichzeitig im Sichtfeld der Kamera. So können bspw. verschiedene Werkzeuge mit Markern versehen sein. Die Anordnung erkennt, welches Werkzeug vom Werker verwendet wird und wo es sich befindet.
  • Die Anordnung kann bei einem manuellen Arbeitsplatz eingesetzt werden, wobei zumindest eine Hand des Werkers und/oder zumindest ein Werkzeug mit den Markern versehen ist, die unterschiedlich sind. Es wird dann eine Nutzung der Reflexionspunkte gleichzeitig zur Lageerkennung und zur Identifizierung des Objekts vorgenommen.
  • Das vorgestellte Verfahren hat, zumindest in einigen der Ausführungen eine Reihe von Vorteilen. So ist durch die Ausstattung der Objekte, wie bspw. mobile Arbeitsgeräte, keine signifikante Gewichterhöhung dieser Arbeitsgeräte verbunden. Verwendete Marker müssen nicht geladen werden und es besteht keine Gefahr technischer Defekte. Insbesondere können die Marker auf beliebigen Objekten angebracht werden. Geometriegleiche Objekte können durch die Marker unterschiedlich gekennzeichnet bzw. codiert werden. Zudem können Marker in das Gehäuse von Arbeitsgeräten integriert werden.
  • Die Integration der Marker direkt im Gehäuse der Arbeitsgeräte erspart das Einlernen des lokalen Koordinatensystems durch bereits vorcodierte Arbeitsgeräte und erhöht die Exklusivität der Trackingtechnologie.
  • Die vorgestellte Anordnung ist gegenüber Systemen auf Ultraschall-Basis unempfindlich gegenüber Druckluft- und Schallquellen. Weiterhin sind die Hardwarekosten verhältnismäßig gering. Die Anordnung ist für präzise Anwendungen geeignet, da die Translationsgenauigkeit 1 mm beträgt, ausgehend von der Arbeitshöhe von 1,5 m und einem Arbeitsbereich von 1,5 m2. Darüber hinaus ist die Anordnung an die Umgebungsbeleuchtung durch Variation von Detektionsalgorithmen, Infrarotpassfilter, Refelxionsfolie und Objektive anpassbar.
  • Eine Ausführung der Anordnung sieht Infrarotdioden, die Infrarotlicht emittieren vor. An einem Objekt, bspw. einem mobilen Arbeitsgerät, angebrachte reflektierende Folie strahlt das Infrarotlicht zurück. Weiterhin kann vorgesehen sein, dass Infrarotpassfilter vor den Kameraobjektiven nur das Infrarotlicht der definierten Wellenlänge passieren. Zwei Kameras nehmen die Position der Marker auf. Die Anordnung berechnet durch Bildsegmentierung und Triangulationsverfahren die Position und Orientierung der Objekte, bspw. der mobilen Arbeitsgeräte.
  • Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und den beigefügten Zeichnungen.
  • Es versteht sich, dass die voranstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Figurenliste
    • 1 bis 13 zeigen unterschiedliche Objekte, die mit Markern als Identifikationsmerkmale versehen sind.
    • 14 bis 18 zeigen den Einsatz von Trägern.
    • 19 bis 27 zeigt das Anbringen von Markern als Identifikationsmerkmale.
    • 28 zeigt ein eine Ausführung einer Anordnung zum Durchführen des vorgestellten Verfahrens.
  • Ausführungsformen der Erfindung
  • Die Erfindung ist anhand von Ausführungsformen in den Zeichnungen schematisch dargestellt und wird nachfolgend unter Bezugnahme auf die Zeichnungen ausführlich beschrieben.
  • 1 zeigt in schematischer Darstellung ein Objekt, das mit der Bezugsziffer 10 bezeichnet ist. Dieses Objekt 10 trägt ein Identifikationsmerkmal 12, das in diesem Fall vier runde Marker 14 umfasst. Somit ist in diesem Fall über die Eigenschaften der Marker 14, nämlich die runde Form und die besondere Anordnung auf dem Objekt 10, die Individualisierung des Identifikationsmerkmals 12 bewirkt.
  • 2 zeigt ein weiteres Objekt 20, das als Identifikationsmerkmal 22 vier Marker 24 hat, die eine quadratische Form haben und die auf eine bestimmte Art auf dem Objekt angeordnet sind.
  • 3 zeigt noch ein weiteres Objekt 30, das als Identifikationsmerkmal 32 vier Marker 34 hat, die eine dreieckige Form haben und die auf eine bestimmte Art auf dem Objekt angeordnet sind.
  • 4 zeigt ein Objekt 40, das als Identifikationsmerkmal 42 vier Marker 44 hat, die unterschiedliche Formen haben und die auf eine bestimmte Art auf dem Objekt angeordnet sind.
  • 5 zeigt ein Objekt 50 mit markenspezifischen Markierungen, nämlich einen Unternehmensnamen xyz 52 und eine Marke zzz 54. 6 zeigt ein weiteres Objekt 60 mit einem Unternehmensnamen xyz 62 und einer Marke zzz 64. In diesem Fall dienen der Unternehmensnamen 52 bzw. 62 und die Marke 54 bzw. 64 als Identifikationsmerkmal, wobei auch hier ein bestimmter verwendeter Schrifttyp, die Größe der Bezeichnungen, die Farbe der Bezeichnungen und die Anordnung der Bezeichnungen weitere Eigenschaften des Identifikationsmerkmals sein können.
  • 7 zeigt ein Objekt 70, auf dem ein erster Strichcode 72, ein zweiter Strichcode 74 und ein dritter Strichcode 76 angebracht sind. Die Strichcodes 72, 74, 76 können gleich oder unterschiedlich sein und dienen hier als Identifikationsmerkmal.
  • 8 zeigt ein Objekt 80, auf dem ein erster Data-Matrix-Code 82, ein zweiter Data-Matrix-Code 84 und ein dritter Data-Matrix-Code 86 angebracht sind. Die Data-Matrix-Codes 82, 84, 86 können gleich oder unterschiedlich sein und dienen hier als Identifikationsmerkmal.
  • 9 zeigt ein Objekt 90, auf dem ein erster QR-Code 92, ein zweiter QR-Code 94 und ein dritter QR-Code 96 angebracht sind. Die QR-Codes 92, 94, 96 können gleich oder unterschiedlich sein und dienen hier als Identifikationsmerkmal.
  • 10 zeigt ein Objekt 100, auf dem ein erster roter Marker 106, ein zweiter grüner Marker 107, ein dritter blauer Marker 108 und ein vierter weißer Marker 109 aufgebracht sind. Diese Marker 106, 107, 108 und 109 bilden das Identifikationsmerkmal, das als Eigenschaften die Anzahl und Form der Marker, die Anordnung der Marker und die Farbe der Marker hat.
  • 11 zeigt ein Objekt 110, in diesem Fall ein Handwerkzeug, das mit Markern 112 versehen ist, die direkt auf das Objekt 110 aufgeklebt sind.
  • 12 zeigt ein Objekt 120, das mit Markern 122 versehen ist, die als Punktflächen ausgebildet sind, die direkt im Herstellungsprozess eingebracht wurden. Es erfolgte somit eine in den Herstellungsprozess integrierte Anbringung der Marker 122.
  • 13 zeigt ein Objekt 130 mit Markern 132, die direkt im Herstellungsprozess bereitgestellt wurden. Auf der rechten Seite ist ein solcher Marker 132 in einer Schnittdarstellung zu erkennen. Die Darstellung zeigt, wie der Marker 132 in die Oberfläche 134 des Objekts 130 eingelassen ist.
  • 14 zeigt einen objekt- bzw. gegenstandsspezifischen Träger 140, der auch als Halter bezeichnet wird. Dieser Träger 140 ist oben in einer Seitenansicht, unten links in einer Draufsicht und unten rechts in einer Ansicht von unten dargestellt. Der Träger 140 ist mit einem Unternehmensnamen xyz 142 und einer Anzahl an Markern 144 versehen. Der Unternehmensnamen 142 und die Marker 144 können bspw., zumindest zum Teil, aufgeklebt oder während der Herstellung eingebracht sein und bilden das Identifikationsmerkmal.
  • 15 zeigt ein Objekt 150, das mit dem Träger 140 aus 14 verbunden ist.
  • 16 zeigt in zwei Darstellungen ein Objekt 160, das mit einem Träger 162 versehen ist, der zu diesem Objekt beweglich bzw. verschiebbar angeordnet ist, wie dies mit Pfeil 164 verdeutlicht ist. Die Darstellung oben zeigt das Objekt 160 mit einem nach links verschoben Träger 162, die Darstellung unten zeigt das Objekt 160 mit einem nach rechts verschobenen Träger 162. Der Träger 162 ist mit zwei ersten Markern 166 versehen. Auf dem Objekt 160 ist ein zweiter Marker 167 und ein dritter Marker 168 vorgesehen. Zu erkennen ist, dass die Sichtbarkeit des zweiten Markers 167 und des dritten Markers 168 von der Position des Trägers 162 abhängt. Bilden alle Marker 166, 167 und 168 das Identifikationsmerkmal, so sind Eigenschaften dieses Identifikationsmerkmals von der Position des Trägers 162 abhängig.
  • 17 zeigt weitere Träger 170a, 170b, 170c und 170d, die jeweils mit Markern 172a, 172b, 172c und 172d versehen sind. Diese Träger 172 a-d sind als Hüllen ausgebildet und können auf ein Objekt, insbesondere ein Werkzeug, aufgeschoben werden, so dass eine Zuordnung Objekt zu Markern als Identifikationsmerkmal gegeben ist.
  • 18 zeigt ein Objekt 180, in diesem Fall ein Handwerkzeug, das mit einem Träger 182 versehen ist. Dieser Träger 182 weist eine Anzahl von Markern 184 auf, die als Identifikationsmerkmal für das Objekt 180 dienen.
  • 19 zeigt rein schematisch ein Objekt 190, das an einer Ansichtsseite 192 drei Marker 194 aufweist.
  • 20 zeigt ein weiteres Objekt 200, das auf mehreren Ansichtsseiten 202 jeweils Marker 204 aufweist. Die Marker 204 identifizieren somit nicht nur das Objekt 200, sondern auch, welche Seite des Objekts 200 erfasst wird, somit kann auch eine Aussage zur Lage des Objekts 200 getroffen werden.
  • 21 zeigt zwei Objekte 210 und 212 und einige Marker 214, die vom Anwender selbst auf die Objekte 210, 212 aufgebracht, bspw. durch Kleben, werden können. Die Objekte 210, 212 mit aufgebrachten Markern 214 sind auf der rechten Seite gezeigt.
  • 22 zeigt ein erstes Obekt 220, ein zweites Objekt 222 und Marker 224, die entsprechend einer Vorgabe anzubringen sind. Die mit Markern 224 versehenen Objekte 220, 222 sind rechts unten gezeigt. Das Vorgeben kann mittels und oder mittels einer Darstellung auf einem Bildschirm 228 erfolgen. Entsprechend kann dann der Anwender die Marker 224 auf den Objekten 220, 222 anbringen.
  • 23 zeigt zwei Objekte 230 und 232 und einige Marker 234, die vom Anwender selbst auf die Objekte 230, 232 aufgebracht werden können. Die Objekte 230, 232 mit aufgebrachten Markern 234 sind auf der rechten Seite wiedergegeben. Die Anbringung erfolgt gemäß Vorgaben, die dem Anwender mittels einer Tabelle 236 gegeben werden.
  • 24 zeigt ein ein CAD-Modell eines Objekts 240, das auf einem Bildschirm 242 dargestellt ist. Dieses Objekt 240 trägt Marker 244 als Identifikationsmerkmal. Der Vorschlag zum Anbringen der Marker 244 erfolgt somit mittels eines CAD-Modells.
  • 25 zeigt ein Objekt 250, das auf einer gepunkteten Unterlage 252 abgelegt ist und mit einem 3D-Sensor 253 erfasst wird (Strahlen 254). Es erfolgt dann in einer Recheneinheit 255 eine Verarbeitung der erfassten Daten zu dem Objekt 250 und eine Ermittlung von Vorschlägen für ein Identifikationsmerkmal, das typischerweise Marker 258 umfasst. Es wird dann auf einem Bildschirm 256 das Objekt 250 mit den vorgeschlagenen Markern 258 dargestellt.
  • 26 verdeutlicht die Ermittlung von Vorschlägen mittels Erweiterter Reality (augmented reality). Darunter ist die computergestützte Erweiterung der Realitätswahrnehmung zu verstehen. Die Darstellung zeigt ein Objekt 260, das auf einer Anzeige 262 mit Markern 264 versehen dargestellt ist. Entsprechend ist auf der rechten Seite das Objekt 260 dargestellt, auf dem die Marker 264 entsprechend der Darstellung auf der linken Seite angebracht werden können.
  • 27 verdeutlicht das Anbringen von Markern als Identifikationsmerkmale und das Erfassen dieser Identifikationsmerkmale. Die Darstellung zeigt auf der linken Seite ein Objekt 270a und Marker 272a sowie das Objekt 270b mit aufgebrachten Markern 272b. Dieses Objekt 270b und insbesondere die Marker 272b werden von einem Kamera-Modul 274 mit zwei Kameras 276, das InfrarotStrahlen 278, bspw. mittels Infrarotdioden, emittiert, erfasst. Erfasste Daten werden in einem Speicher 280 abgelegt und können von einer Recheneinheit verarbeitet werden. Wie weiterhin dargestellt ist, werden insbesondere die Marker 272b erfasst (Bezugsziffer 282) und es erfolgt die Auswertung der erfassten Marker 272b. Dabei kann eine Einteilung in Gruppen 284, 286 erfolgen. Dies unterstützt die Identifizierung des Objekts 272b.
  • Wie auf der rechten Seite dargestellt ist, wird anschließend das Objekt 272b, das identifiziert ist und dessen Position bekannt ist, bewegt. Es kann dann auch die geänderte Lage des Objekts 272b bestimmt werden.
  • 28 zeigt eine Ausführung einer Anordnung zum Durchführen des Verfahrens, die insgesamt mit der Bezugsziffer 290 bezeichnet ist. Die Darstellung zeigt den Grundaufbau eines Kameramoduls, das insgesamt mit der Bezugsziffer 300 bezeichnet ist. Zwei Infrarot-Ringlichter 302, die um Kameraobjektive 304 angeordnet sind, strahlen Infrarotlicht in einem Bereich von 850 nm Wellenlänge aus. Das Kameramodul 300 umfasst somit zwei Kameras 306. Die Objektive und deren Brennweite ist variabel und an den Arbeitsbereich anpassbar. Vor den Objektiven 304 der Kameras 306 ist jeweils ein Infrarotpassfilter angebracht, der das zurückgestrahlte Infrarotlicht mit der Wellenlänge von 850 nm passieren lässt. Der Bereich der Wellenlänge ist durch alternative Infrarotdioden und Infrarotpassfilter auf die Umgebungsbeleuchtung individuell abstimmbar.
  • Auf einer Recheneinheit 310 läuft eine Software zur Bildauswertung und Positionsbestimmung. Ebenfalls werden auf der Recheneinheit die lokalen Koordinatensysteme der Objekte und deren Interaktionspunkte gespeichert.
  • Im Wesentlichen wird die Szene bzw. der Arbeitsbereich mit Infrarotlicht beleuchtet. Die Kameras 306 nehmen das von Markern reflektierte Licht auf. Die reflektierenden Bereiche werden durch Infrarotpassfilter und anschließender Bildverarbeitung im Rechner extrahiert und die Markerkanten bestimmt. Anschließend erfolgt die Berechnung des Koordinatensystems innerhalb der einzelnen Markerpositionen sowie der Position und Orientierung der Objekte,
  • Das Anordnung 290 ist in der Lage, gleichzeitig die Bewegung der Montageobjekte und der Arbeitsgeräte zu lokalisieren.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102017215518 A1 [0003]
    • EP 3235605 [0004]

Claims (15)

  1. Verfahren zum Bestimmen der Position eines Objekts (10, 20, 30, 40, 50, 60, 70, 80. 90, 100, 110, 120, 130, 150, 160, 190, 190, 200, 210, 212, 220, 222, 230, 232, 240, 250, 260, 270), bei dem - ein individuelles Identifikationsmerkmal (12, 22, 32, 42), das dem Objekt (10, 20, 30, 40, 50, 60, 70, 80. 90, 100, 110, 120, 130, 150, 160, 190, 190, 200, 210, 212, 220, 222, 230, 232, 240, 250, 260, 270) zugeordnet ist, von mindestens einer Kamera (276, 306) erfasst wird, - anhand des erfassten Identifikationsmerkmals (12, 22, 32, 42) das Objekt (10, 20, 30, 40, 50, 60, 70, 80. 90, 100, 110, 120, 130, 150, 160, 190, 190, 200, 210, 212, 220, 222, 230, 232, 240, 250, 260, 270) von einer Mehrzahl an weiteren Objekten (10, 20, 30, 40, 50, 60, 70, 80. 90, 100, 110, 120, 130, 150, 160, 190, 190, 200, 210, 212, 220, 222, 230, 232, 240, 250, 260, 270) unterschieden und damit identifiziert wird, und - die Position des Objekts (10, 20, 30, 40, 50, 60, 70, 80. 90, 100, 110, 120, 130, 150, 160, 190, 190, 200, 210, 212, 220, 222, 230, 232, 240, 250, 260, 270) bestimmt wird.
  2. Verfahren nach Anspruch 1, bei dem die Position des Objekts (10, 20, 30, 40, 50, 60, 70, 80. 90, 100, 110, 120, 130, 150, 160, 190, 190, 200, 210, 212, 220, 222, 230, 232, 240, 250, 260, 270) anhand des zugeordneten Identifikationsmerkmals (12, 22, 32, 42) bestimmt wird.
  3. Verfahren nach Anspruch 1 oder 2, bei dem die Lage des Objekts (10, 20, 30, 40, 50, 60, 70, 80. 90, 100, 110, 120, 130, 150, 160, 190, 190, 200, 210, 212, 220, 222, 230, 232, 240, 250, 260, 270) bestimmt wird.
  4. Verfahren nach Anspruch 3, bei dem die Lage des Objekts (10, 20, 30, 40, 50, 60, 70, 80. 90, 100, 110, 120, 130, 150, 160, 190, 190, 200, 210, 212, 220, 222, 230, 232, 240, 250, 260, 270) anhand eines Algorithmus bestimmt wird, wobei überprüft wird, ob der Algorithmus konvergiert.
  5. Verfahren nach einem der Ansprüche 1 bis 4, bei dem das Identifikationsmerkmal (12, 22, 32, 42) eine Mehrzahl von Markern (14, 24, 34, 44, 106, 107, 108, 109, 112, 122, 132, 144, 166, 167, 168, 172, 184, 194, 204, 214, 224, 234, 244, 258, 264, 272) mit mindestens einer Eigenschaft umfasst, wobei diese mindestens eine Eigenschaft ausgewählt ist aus einer Gruppe, die Anordnung, Form und Farbe umfasst.
  6. Verfahren nach einem der Ansprüche 1 bis 5, bei dem das Identifikationsmerkmal (12, 22, 32, 42) direkt an dem Objekt (10, 20, 30, 40, 50, 60, 70, 80. 90, 100, 110, 120, 130, 150, 160, 190, 190, 200, 210, 212, 220, 222, 230, 232, 240, 250, 260, 270) angebracht ist.
  7. Verfahren nach einem der Ansprüche 1 bis 5, bei dem das Identifikationsmerkmal (12, 22, 32, 42) auf einem Träger (140, 162, 170, 182) vorgesehen ist, der wiederum an dem Objekt (10, 20, 30, 40, 50, 60, 70, 80. 90, 100, 110, 120, 130, 150, 160, 190, 190, 200, 210, 212, 220, 222, 230, 232, 240, 250, 260, 270) angebracht ist.
  8. Verfahren nach einem der Ansprüche 1 bis 7, bei dem für das Identifikationsmerkmal (12, 22, 32, 42) vorgeformte Markerpositionen bereitgestellt sind, von denen nur ein Teil mit Markern (14, 24, 34, 44, 106, 107, 108, 109, 112, 122, 132, 144, 166, 167, 168, 172, 184, 194, 204, 214, 224, 234, 244, 258, 264, 272) versehen sind.
  9. Verfahren nach einem der Ansprüche 1 bis 8, bei dem das Objekt (10, 20, 30, 40, 50, 60, 70, 80. 90, 100, 110, 120, 130, 150, 160, 190, 190, 200, 210, 212, 220, 222, 230, 232, 240, 250, 260, 270) ein in der industriellen Montage verwendetes Handwerkzeug ist.
  10. Verfahren nach Anspruch 9, das im Rahmen eines aktiven Assistenzsystems eingesetzt wird.
  11. Verfahren nach einem der Ansprüche 1 bis 10, bei dem ein Referenzpunkt mit einem Projektor angezeigt wird.
  12. Verfahren nach einem der Ansprüche 1 bis 11, bei dem das Objekt (10, 20, 30, 40, 50, 60, 70, 80. 90, 100, 110, 120, 130, 150, 160, 190, 190, 200, 210, 212, 220, 222, 230, 232, 240, 250, 260, 270) mit einem Kameramodul (274, 300) erfasst wird, das zwei Kameras (276, 306), denen jeweils ein Infrarot-Ringlicht (302) zugeordnet ist, umfasst.
  13. Verfahren nach einem der Ansprüche 1 bis 12, bei dem die Bestimmung der Position mittels Triangulationsverfahren erfolgt.
  14. Anordnung zum Bestimmen der Lage eines Objekts (10, 20, 30, 40, 50, 60, 70, 80. 90, 100, 110, 120, 130, 150, 160, 190, 190, 200, 210, 212, 220, 222, 230, 232, 240, 250, 260, 270), die zum Durchführen eines Verfahrens nach einem der Ansprüche 1 bis 13 eingerichtet ist.
  15. Anordnung nach Anspruch 14, die zwei Kameras (276, 306), denen jeweils Infrarotdioden zugeordnet sind, und eine Recheneinheit (255, 310) umfasst.
DE102020209177.3A 2020-07-22 2020-07-22 Verfahren zum Bestimmen der Position eines Objekts Pending DE102020209177A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020209177.3A DE102020209177A1 (de) 2020-07-22 2020-07-22 Verfahren zum Bestimmen der Position eines Objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020209177.3A DE102020209177A1 (de) 2020-07-22 2020-07-22 Verfahren zum Bestimmen der Position eines Objekts

Publications (1)

Publication Number Publication Date
DE102020209177A1 true DE102020209177A1 (de) 2022-01-27

Family

ID=79179282

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020209177.3A Pending DE102020209177A1 (de) 2020-07-22 2020-07-22 Verfahren zum Bestimmen der Position eines Objekts

Country Status (1)

Country Link
DE (1) DE102020209177A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10106997A1 (de) 2001-02-15 2002-08-29 Axel Bartsch Verfahren zum Auffinden von Objekten und Steuern von Computern mittels Digitalkameras und optischer Kennzeichnungen
DE102009019019A1 (de) 2009-04-27 2010-10-28 Phacon Gmbh Video-basiertes Mono-Kamera-Navigationssystem
EP3235605A1 (de) 2016-04-19 2017-10-25 Robert Bosch GmbH Montagearbeitsplatz mit positionsbestimmungsvorrichtung
DE102017215518A1 (de) 2017-09-05 2019-03-07 Robert Bosch Gmbh Verfahren und System zur Ortung eines Objekts

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10106997A1 (de) 2001-02-15 2002-08-29 Axel Bartsch Verfahren zum Auffinden von Objekten und Steuern von Computern mittels Digitalkameras und optischer Kennzeichnungen
DE102009019019A1 (de) 2009-04-27 2010-10-28 Phacon Gmbh Video-basiertes Mono-Kamera-Navigationssystem
EP3235605A1 (de) 2016-04-19 2017-10-25 Robert Bosch GmbH Montagearbeitsplatz mit positionsbestimmungsvorrichtung
DE102017215518A1 (de) 2017-09-05 2019-03-07 Robert Bosch Gmbh Verfahren und System zur Ortung eines Objekts

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
REKIMOTO, Jun. Matrix: A realtime object identification and registration method for augmented reality. In: Proceedings. 3rd Asia Pacific Computer Human Interaction (Cat. No. 98EX110). IEEE, 1998

Similar Documents

Publication Publication Date Title
EP2161219B1 (de) Verfahren und Vorrichtung zur visuellen Unterstützung von Kommissioniervorgängen
EP3092129B1 (de) Bearbeitungssystem für mehrere unterschiedliche werkstücke
EP3664961A1 (de) Erstellung eines digitalen zwillings in einem bearbeitungszentrum
WO2017207602A1 (de) Verfahren zur identifizierung eines werkstücks, ermitteln eines messablaufs und vermessung eines werkstücks mit einem messgerät
EP3651091A1 (de) Lagerverwaltungssystem mit positionsermittlung von lagergütern und zugeordneten lagerbereichen
WO2016020527A1 (de) Regalbeleuchtungssystem und verfahren zum auffinden von waren und verwalten von preisinformationen
EP2700596B1 (de) Kommissioniersystem
EP3153940A1 (de) Verfahren und steuerungsvorrichtung zur steuerung eines fahrzeuges
DE102006039207B3 (de) System sowie Verfahren zur Organisation von zu bearbeitenden Werkstücken
DE102011118611A1 (de) Vorrichtung und Verfahren für eine halbautomatische Prüfstation
DE102017211839A1 (de) Steuersystem für ein Agrararbeitssystem, Arbeitssystem, Verwendung
DE202011107932U1 (de) Vorrichtung für eine halbautomatische Prüfstation
EP1532500A1 (de) Verfahren und vorrichtung zum betrieb einer zeigeeinheit an einer arbeitsmaschine
DE102020209177A1 (de) Verfahren zum Bestimmen der Position eines Objekts
EP3977225B1 (de) Verfahren zur erstellung einer umgebungskarte für die verwendung bei der autonomen navigation eines mobilen roboters
DE102012016552A1 (de) Kommissioniersystem
DE102013000964A1 (de) Verfahren zum Erfassen und Darstellen von dreidimensionalen Objekten und Vorrichtung zur Durchführung eines solchen Verfahrens
WO2017167449A1 (de) Landevorrichtung und verfahren zum optischen leiten von liefervorrichtungen
DE102011052586B4 (de) Prägekopf mit Positionierungshilfe
DE102015004227A1 (de) Verfahren zum Einbringen einer Codierung in ein Werkstück und Stempel zum Einbringen einer Codierung in ein Werkstück
AT514339A2 (de) Bearbeitungssystem für mehrere unterschiedliche Werkstücke
DE102017204629A1 (de) System mit einem werkzeug und verfahren zum führen eines benutzers eines werkzeugs bei einer behandlung mindestens eines werkstücks
EP4186651B1 (de) System und verfahren mit einem system
DE10106997A1 (de) Verfahren zum Auffinden von Objekten und Steuern von Computern mittels Digitalkameras und optischer Kennzeichnungen
DE102021203779B4 (de) Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009780000

Ipc: G06V0030200000