-
Die Erfindung betrifft eine Sensoreinrichtung für ein Greifsystem, wobei das Greifsystem einen Roboter, also einen Manipulator mit mindestens einem Freiheitsgrad wie beispielsweise einen Industrieroboter, mit einer Greifvorrichtung zum Handhaben von Objekten und eine Roboter- oder Maschinensteuerung zur Ansteuerung des Roboters und der Greifvorrichtung umfasst. Die Erfindung betrifft auch ein Verfahren zur Erzeugung von Greifposen für eine Maschinen- oder Robotersteuerung zur Ansteuerung des Roboters und der Greifvorrichtung zum Greifen von Objekten und ein zugehöriges Greifsystem.In der
US 9,002,098 B1 wird ein robotergestütztes visuelles Wahrnehmungssystem zur Bestimmung einer Position und Pose eines dreidimensionalen Objekts beschrieben. Das System erhält einen externen Input zur Auswahl eines zu greifenden Objekts. Das System empfängt auch visuelle Eingaben von einem Sensor einer Robotersteuerung, der das interessierende Objekt abtastet. Rotationsinvariante Formmerkmale und Aussehen werden aus dem erfassten Objekt und einem Satz von Objektvorlagen extrahiert. Anhand von Formmerkmalen wird eine Übereinstimmung zwischen dem abgetasteten Objekt und einer Objektvorlage identifiziert. Die Übereinstimmung zwischen dem abgetasteten Objekt und der Objektvorlage wird anhand von Erscheinungsmerkmalen bestätigt. Das abgetastete Objekt wird dann identifiziert, und es wird eine dreidimensionale Pose des abgetasteten Objekts von Interesse bestimmt. Auf der Grundlage der ermittelten dreidimensionalen Pose des abgetasteten Objekts wird die Robotersteuerung zum Greifen und Manipulieren des abgetasteten Objekts verwendet. Dabei arbeitet das System auf Basis von Schablone (Templates) oder rotationsinvarianten Merkmalen (Features) um die Sensordaten mit dem Modell zu vergleichen. Diese Verfahren können bevorzugt in kontrastreichen Szenen verwendet werden, versagen aber bei unzureichendem Kontrast oder geometrischer Ähnlichkeit zwischen Objektklassen. Ein modellfreies Greifen wird nicht gezeigt. Auch wird die semantische Zuordnung der Objektklasse nicht gelöst.
-
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, die Erzeugung von optimalen Greifposen bereitzustellen. Aus diesen Greifposen können dann roboter- oder maschinenseitig Befehlssätze zur Ansteuerung der Greifvorrichtung zum Greifen von Objekten auf vorteilhafte Art und Weise erzeugt werden. Dabei soll sowohl das Greifen von bekannten Objekten als auch das Greifen von unbekannten Objekten möglich sein. Diese Aufgabe wird gelöst durch eine Sensoreinrichtung mit den Merkmalen des Anspruchs 1.
-
Eine solche Sensoreinrichtung erlaubt insbesondere eine schnelle Inbetriebnahme von Handhabungsaufgaben wie Pick & Place ohne Eingriff in die Roboter- oder Maschinensteuerung und ohne Expertenwissen im Bereich Bildverarbeitung und Robotik. Die Sensoreinrichtung stellt eine weitgehend autarke Einheit dar, mit der geeignete Greifposen erzeugt werden können. Aus diesen Greifposen können roboter- oder maschinenseitig anwendungsfallunabhängige Befehlssätze für die Roboter- oder Maschinensteuerung generiert werden.
-
Die Segmentierung ist ein Teilgebiet der digitalen Bildverarbeitung und des maschinellen Sehens. Dabei bezeichnet man die Erzeugung von inhaltlich zusammenhängenden Regionen durch Zusammenfassung benachbarter Pixel oder Voxel entsprechend einem bestimmten Homogenitätskriterium als Segmentierung.
-
Die Steuerungsschnittstelle stellt dabei der Roboter-/Maschinensteuerungen insbesondere semantische/numerische Informationen über die in den Bilddaten enthaltenen Objekte und insbesondere die Greifposen als Dienst zur Verfügung.
-
Ein System mit einer solchen Sensoreinrichtung erlaubt folglich das Greifen von bekannten Objekten als auch das Greifen von unbekannten Objekten auf Basis des generalisierten Segmentierungs- und Greifplanungsalgorithmus.
-
Mit der Benutzerschnittstelle sind insbesondere die Objektmodelle für das Segmentierungsmodell, die Greifplanungsparamter für das Greifplanungsmodul und/oder die Steuerungsparameter für die Steuerungsschnittstelle vorgebbar, wie beispielsweise die Parametrierung von Sensor, die Kalibrierung Sensor und Roboter und/oder die Parametrierung der Greifplanung.
-
Weitere Ausführungsformen und vorteilhafte Ausgestaltungen der Erfindung sind in den abhängigen Ansprüchen definiert.
-
Die genannte Aufgabe wird auch gelöst durch ein Verfahren nach Patentanspruch 12 sowie durch ein Greifsystem nach Patentanspruch 14.
-
Weitere Einzelheiten und vorteilhafte Ausführungsformen der Erfindung sind der nachfolgenden Beschreibung zu entnehmen.
-
Dazu zeigen:
- : (a) Sensoreinrichtung: Pipeline;
(b) Training und Deployment auf Device.
- : Prototypenaufbau zu Sensoreinrichtung.
- : Hardwarearchitektur Sensoreinrichtung.
-
Immer geringer werdende Losgrößen und steigende Lohnkosten stellen die Produktionstechnik in Hochlohnländern vor große Herausforderungen. Damit diese angegangen werden können, muss ein heutiges Automatisierungssystem schnell auf die neuen Umgebungsbedingungen adaptiert werden können. In folgendem wird eine Sensoreinrichtung vorgestellt, die eine schnelle Inbetriebnahme von Handhabungsaufgaben wie Pick & Place ohne Programmierung erlaubt.
-
Die Sensoreinrichtung, stellt insbesondere eine Recheneinheit dar, die es erlaubt insbesondere auf Basis von Grauwertdaten, Farbdaten oder 3D-Punktwolkendaten (bspw. durch Mono- oder Stereokamerasysteme) eine geeignete Greifpose für ein Objekt zu bestimmen. Geeignet heißt hierbei, dass der resultierende Griff sowohl bestimmten Gütekriterien genügt als auch zu keinen Kollisionen zwischen Greifer, Roboter und anderen Objekten führt.
-
In ist die Softwarearchitektur (Pipeline) der Sensoreinrichtung, sowie in das Training und Deployment exemplarisch dargestellt.
-
Das Kamerasystem kann dabei extern oder direkt in die Sensoreinrichtung konstruktiv integriert sein, was aus der Hardwarearchitektur gemäß deutlich wird. Die Greifpose wird an ein, mit der Sensoreinrichtung, verbundenes Steuerungssystem mit Greifvorrichtung und Manipulator (bspw. Roboter) weitergegeben, welches anschließend den Griff ausführt.
-
Es können dabei beliebige bildgebende Sensoren bzw. Kamerasysteme, sowie Manipulatorsysteme über insbesondere eine physikalische Ethernetschnittstelle angebunden werden. Die softwareseitigen Eigenheiten der jeweiligen Teilsysteme (Roboter, Kamera) werden über eine Metabeschreibung und integrierte Funktionstreiber abstrahiert.
-
Die Bezeichnung der Softwarearchitektur als Pipeline erfolgt dabei, da das Ergebnis von Prozess i die Eingangsgröße für den Prozess i+1 darstellt. Aus der vom Sensorsystem zur Verfügung gestellten Bildinformation werden die einzelnen Objekte über ein Instanzsegmentierungs-Verfahren detektiert. Werden andere/weitere Bildverarbeitungsfunktionen benötigt, können diese über die Vision Runtime dem Gesamtsystem zur Verfügung gestellt werden. Dabei können eigene Funktionen entwickelt als auch fertige Runtime Systeme eingebunden werden. Die segmentierten Objekte (Objekthülle mit Klassenzugehörigkeit) stellen die Eingangsgröße für die Greifplanung dar. Der Greifplaner detektiert daraufhin einen geeigneten/gesuchten Griff, welcher der Steuerungsschnittstelle zur Ausführung zur Verfügung gestellt wird.
-
Der in dargestellte Prozess beschreibt das Einlernen und das Deployment von neuen Greifobjekten exemplarisch. Auf Basis von CAD und realen Szenendaten werden über die Virtual Environment Engine Trainingsdaten generiert. Hierbei handelt es sich um synthetische Bilddaten (2D oder 3D) der Greifobjekte in der Gesamtszene und deren Annotation (Ground Truth der Objekte) in einem vorgegebenen Datenformat. Anhand der synthetischen Trainingsdaten wird ein Segmentierungsmodell trainiert, welches im Anschluss über die Benutzerschnitstelle (Webschnittstelle) der Sensoreinrichtung heruntergeladen und dem Segmentierungsverfahren zur Verfügung gestellt werden kann. Das Training erfolgt insbesondere außerhalb der Sensoreinrichtung auf einem leistungsfähigen Server kann aber auch auf der Sensoreinrichtung ausgeführt werden.
-
Aufgrund der Autonomisierung der einzelnen Schritte entfällt das zeitaufwendige Programmieren von Bildverarbeitungs- und Roboterprogramm. Von Endnutzer müssen manuell insbesondere nur folgende Prozesse parametriert/ausgeführt werden:
- - Upload von CAD-Modellen (und/oder Realbilddaten mit Label) der Objekte auf den eventuell externen Trainingserver (über die Benutzerschnittstelle der Sensoreinrichtung)
- - Parametrisierung des Prozesses (z. B. Zwischenbahnpunkte, Ablagebahnpunkte), der Objektmodelle (z.B. z-Grifftiefe bei 2D-Bilddaten, Ausrichtung etc.) und der Greifermodelle (z. B. Greiffingergeometrie) erfolgt über die Benutzerschnitstelle (Webschnittstelle) der Sensoreinrichtung
- - Ausführung der semiautomatischen Kamerakalibrierung sowie der geometrischen Registrierung zwischen Kamera und Robotersystem.
- - Vorgabe der zu greifenden Objekte in Reihenfolge und Anzahl mit Funktionsbaustein, welcher in der Robotersteuerung integriert wird (aufgabenorientierte Programmierung).
-
Somit können kundenspezifische Greifprobleme individuell und ohne zeit- und kostenintensiven Programmieraufwand gelöst werden. In ist eine Ausführungsform mit den einzelnen Komponenten aufgeführt.
-
Die Sensoreinrichtung bildet den kompletten Engineering-Prozess zur Automatisierung einer Pick & Place Applikation ab. Dabei werden sowohl 2D- als auch 3D-Bildgebende Sensoren betrachtet, sodass sich in Abhängigkeit des Anwendungsfalls eine hardwaretechnisch passende Lösung ergibt. Auch vereint kein bekanntes System die verschiedenen Möglichkeiten der Greifplanung (modellfrei/modellbasiert), sodass es frei für verschiedene Applikationen einsetzbar ist. Bekannte Lösungen sind dabei entweder auf einen beliebigen Objektgriff oder einen spezifischen festgelegt. Durch die Verschiebung der Systemgrenzen wird erstmalig eine aufgabenorientierte Programmierung der Pick & Place Aufgabe möglich. Dies bedeutet, dass der Benutzer nur noch angeben muss, welches Objekt (Semantik) er als nächstes greifen möchte.
-
Im Folgenden wird das Gesamtsystem sowohl soft- als auch hardwaretechnisch dargelegt. Dabei wird mit der Beschreibung der Softwarearchitektur und dem Systemablauf begonnen. Darauf aufbauend wird das Einlernen und Deployment der Sensoreinrichtung für neue Objekte vorgestellt, bevor abschließend die hardwaretechnische Umsetzung abgebildet wird.
-
Softwarearchitektur und Systemablauf
-
Die Pipeline mit dem Ablauf von Sensordatenaufnahme bis zur Kommunikation mit der Steuerung durch die Sensoreinrichtung 14 ist in dargestellt. Dabei werden die Sensordaten über insbesondere unterschiedliche bildgebende Sensoren 1 (2d) und 1.2 (3D) (vgl. ) gewonnen. Prinzipiell können beliebige Sensoren eingebunden werden.
-
Die Daten werden vom Vision-Runtime-Modul 2 verarbeitet. Diese nutzt das Instanzsegmentierungs-Modul 3 im normalen Betrieb (Greifplanung). Die Ausgabe sind die Objekthüllen samt Klassenzugehörigkeit der in den Sensordaten enthaltenen Objekte. Damit das Verfahren in 3 die Objekte segmentieren kann, muss vorab ein Segmentierungsmodell über ein datengetriebenes Verfahren trainiert werden, vergleiche , das über die Benutzerschnittstelle 9 eingebunden wird. Auch steht die Möglichkeit zur Verfügung weitere Bildverarbeitungsfunktionen aus dem Modul Zusatzfunktionen 4 (bspw. Qualitätsprüfung, Barcodelesung, usw.) der Vision Runtime 2 zur Verfügung zu stellen.
-
Im Merkmalsgenerierungsmodul 5 werden die relevanten Greifmerkmale aus der Objektsegmentierung bestimmt. Diese stellen dann die Basis für die Greifplanung im Greifplanungsmodul 6 dar.
-
Im Greifplanungsmodul 6 sind verschiedenen Verfahren zur Greifplanung durch den Benutzer frei wählbar. Dabei sind modellbasierte Verfahren (es wird ein Griff oder mehrere Griffe durch den Nutzer vorgegebenen und das System sucht diesen im Szenenobjekt) als auch modellfreie Verfahren (es wird ein möglichst optimaler Griff in Bezug auf Griffstabilität und -güte durch das System bestimmt) im Greifplanungsmodul 6 möglich. Auch können verschiedene Greifsysteme (Anzahl Finger, Wirkprinzip (Klemmgreifen als auch Vakuumgreifen)) eingestellt werden. Dies wird über die Benutzerschnittstelle 9 über die Greifplanungsparameter konfiguriert.
-
Als Ausgabe stellt der Planer eine Greifpose sowie die Greiffingerkonfiguration im SE(3) über die Steuerungsschnittstelle zur Verfügung. Wahlweise kann auch (zusätzlich zur Greifpose) eine Liste aller erkannten Objekte samt Klassenzugehörigkeit und Objekthüllen zur Verfügung gestellt werden.
-
Die Steuerungsschnittstelle 7 dient der Kommunikation mit der Roboter- oder Maschinensteuerung 8. Diese ist als Client-Server Schnittstelle ausgeführt, wobei die Sensoreinrichtung der Server und die Steuerung 8 den Client abbildet. Die Schnittstelle 7 basiert auf einem allgemeingültigen Protokoll, sodass diese für verschiedene proprietäre Steuerungen und deren spezifische Befehlssätze einsetzbar ist. Die Kommunikation erfolgt über TCP/IP oder über ein Feldbusprotokoll. Steuerungsmodulseitig 8 wird ein spezifischer Funktionsblock integriert, der steuerungsspezifische Befehlssätze generiert.
-
Die gesamte Parametrierung und Konfiguration der Sensoreinrichtung erfolgt über die Benutzerschnittstelle 9. Abgebildet ist diese über einen Webserver, welcher lokal auf der Sensoreinrichtung 14 läuft. Das Einlernen von Segmentierungsmodellen wird auf einem eventuell externen Trainingsserver durchgeführt, der Upload von Trainingsdaten und Download des fertigen Modells wird über die Benutzerschnittstelle 9 durchgeführt.
-
Einlernphase und Deployment
-
Der Prozess zum Einlernen der Greifobjekte und zum Deployment auf der Sensoreinrichtung ist in aufgeführt.
-
Zum Einlernen des Segmentierungsmodells steht ein Trainingsserver 11 zur Verfügung. Dieser Dienst kann außerhalb der Sensoreinrichtung 14 durchgeführt werden. Der Nutzer 10 kann die zu greifenden Objekte als CAD-Daten und als reale Szenendaten zur Verfügung stellen. Auf Basis dieser Daten werden verschiedene Objektszenen im Virtual Environment Modul 12 generiert und als fotosynthetische Daten dem Trainingsmodul 13 zur Verfügung gestellt. Somit kann der Zeitaufwand für die Trainingsdatenannotation weitgehend minimiert werden. Im Modul 13 erfolgt das Training des datengetriebenen Segmentierungsalgorithmus. Die Ausgabe ist ein Segmentierungsmodell, welches der Benutzer 10 auf der Sensoreinrichtung 14 über die Benutzerschnittstelle 9 einbindet.
-
Hardwarearchitektur
-
Die Hardwarearchitektur und die Einbettung der Sensoreinrichtung 14 in das Gesamtautomatisierungssystem ist in dargestellt.
-
Die elektrische Energieversorgung der Sensoreinrichtung 14 erfolgt über das Energieversorgungsmodul 18. Die Sensoreinrichtung, welcher als Server in Bezug auf die Steuerung 8 fungiert, stellt in der Kommunikationstopologie des Gesamtautomatisierungssystem den Slave dar. Die Steuerung 8 als Master integriert software- und hardwaretechnisch die Greifvorrichtung 22, über das zur Verfügung gestellte Feldbussystem. Auch kann die Greifvorrichtung 22 über eine Anlagensteuerung 21 integriert sein, falls dies die Architektur der Gesamtanlage erfordert.
-
Die Sensoreinrichtung 14 wird über die physikalische Benutzerschnittstelle 15 (bspw. Ethernet) mit einem Endgerät (bspw. PC) durch den Benutzer 10 verbunden. Die softwareseitige Konfiguration erfolgt dann über die Schnittstelle 9 (Webserver).
-
Die Kommunikation der Sensoreinrichtung 14 mit der Steuerung 8 findet ebenso über eine gegebenfalls physikalisch getrennte oder gemeiname Schnittstelle 15 (bspw. Ethernet, Feldbus) statt. Die Kommunikation erfolgt wie bereits dargestellt.
-
Über eine weitere, physikalisch separate EthernetSchnittstelle 16 findet die Kommunikation zum bildgebenden Sensor statt. Hierbei kann beispielsweise GigE verwendet werden. Auch kann ein zusätzliches Beleuchtungsmodul 19 über die Sensoreinrichtung Schnittstelle 17 (digitaler Ausgang) aktiviert werden. Die Systemgrenze von 14 kann auch durch die Integration von 1 und 19 erweitert werden, wobei die Schnittstellen dieselben bleiben.
-
Strukturelle Systemmerkmale
-
- - Ein bildverarbeitender Sensor kann über eine einheitliche Schnittstelle (Ethernet) mit der Sensoreinrichtung verbunden werden, welcher die Sensordaten nutzt.
- - Ein Manipulatorsystem (Steuerung und Kinematik) kann über eine einheitliche Schnittstelle (bspw. Ethernet) mit der Sensoreinrichtung verbunden werden. Die Sensoreinrichtung stellt als Server der Steuerung als Client dann die verschiedenen Dienste wie Greifpose, Objektpositionen usw. zur Verfügung.
- - Der Benutzer kann sich über die Benutzerschnittstelle (Ethernet) mit der Sensoreinrichtung verbinden und alle nötigen Konfigurationen und Parametrierungen über einen Webserver einstellen.
- - Die Sensoreinrichtung stellt ein Rechnersystem dar, welches entweder als separate Berechnungsbox ausgeführt ist oder in eine Subkomponente (bspw. Greifsystem, Flansch) integrierbar ist. Auch kann diese als Softwarelösung auf entsprechende externe Hardware portiert werden.
- - Die Sensoreinrichtung lässt sich durch die offenen Schnittstellen zur Steuerung und zum bildgebenden Sensor nahtlos in heutige Automatisierungsarchitekturen integrieren.
-
Funktionale Systemmerkmale
-
- - Die Sensoreinrichtung nutzt die visuellen Sensordaten und führt eine Instanzsegmentierung der vorab definierten Greifobjekte durch.
- - In der Vision Runtime können weitere Bildverarbeitungsfunktionen eingebunden werden, sodass bspw. spezielle Aufgaben wie Qualitätsprüfungen oder ähnliches durchführbar sind.
- - Der Greifplaner kann für die Objekte automatisch einen vorab definierten oder einen geeigneten Griff auf Basis der Ergebnisse der Segmentierung automatisch bestimmen.
- - Die Greifpose wird direkt in das ausgewählte Roboterkoordinatensystem transformiert und an die Steuerung übergeben.
- - Durch eine semiautomatische Kalibrierfunktion kann der bildverarbeitende Sensor kalibriert und einfach mit dem Manipulatorsystem geometrisch registriert werden.
- - Durch die Sensoreinrichtung ist keine Systemprogrammierung des Bildverarbeitungssystems nötig. Auch robotersystemseitig sind nur einfache Anweisungen nötig, wie beispielsweise die Programmierung von Ablagepose oder spezifische logische und anwendungsspezifische Operationen.
- - Die einzelnen Greifaufgaben werden in aufgabenorientierter Form durch den Nutzer vorgegeben (pick(Object-X)) und sind in der jeweiligen Steuerung abgebildet. Die einzelnen Softwarebausteine werden hierzu bereitgestellt.
- - Die Sensoreinrichtung kann auch einfach nur die erkannten Objekte zurückgeben (ohne geplanten Griff), da die Schnittstelle zur Steuerung flexibel aufgebaut ist. Beispielsweise können folgende Dienste angeboten werden getGraspPose(), getObjects(), getBestObject(), hasObject(x), usw.
- - Die Sensoreinrichtung kann auf Basis von CAD-Daten (bspw. stl) oder realen Bilddaten der Objekte vorab für die Greifaufgabe trainiert werden. Somit sind wenig/keine Realdaten für eine hohe Greifwahrscheinlichkeit (>95%; Wert ist applikationsabhängig) erforderlich. Ist keine Semantik der Objekte für die Greifaufgabe gefordert (beispielsweise das greifen einer spezifischen Objektklasse) kann auch ein generalisiertes Segmentierungsmodell verwendet werden, dass die Segmentierung unterschiedlicher und unbekannter Objekte erlaubt. Das Training kann auf einem externen Rechnersystem erfolgen.
-
Bezugszeichenliste
-
- 1
- Bildgebender Sensor: Dient der Aufnahme von 2D- oder 3D-Daten.
- 2
- Vision Runtime: Softwaremodul das Bildverarbeitungsalgorithmen anbietet.
- 3
- Instance Segmentation: Software Algorithmus welcher die Instance Segmentierung (Segmentierung zwischen einzelnen unterschiedlichen und gleichen Objektklassen, also Separation zwischen allen Objekten) ausführt.
- 4
- Zusatzfunktionen Bildverarbeitung: Softwareblock, welche die Einbettung zusätzlicher Bildverarbeitungsoperationen ermöglicht.
- 5
- Merkmalsgenerierung: Softwarealgorithmus, welcher die für die Greifplanung notwendigen Merkmale berechnet (modellbasiert, modellfrei).
- 6
- Greifplanungsmodul: Softwarealgorithmus, welcher aus Merkmalen einen geeigneten Griff berechnet.
- 7
- Steuerungsschnittstelle: Schnittstelle der Sensoreinrichtung zur Kommunikation mit 8.
- 8
- Roboter-/Maschinensteuerung: Steuerung des Roboters.
- 9
- Benutzerschnittstelle: Schnittstelle zum Benutzer für die Konfiguration und Parametrierung.
- 10
- Benutzer: Bediener der Sensoreinrichtung.
- 11
- Trainingsserver: Generierung fotosynthetischer Daten oder Augmentation der Daten und Training von 3. Übersystem von 12 und 13.
- 12
- Virtual Environment Engine: Virtuelle Rendering und Physikengine zur Generierung fotosynthetischer Daten und zur Augmentation realer Bilddaten.
- 13
- Training Segmentierung: Trainingsalgorithmus für 3.
- 14
- Sensoreinrichtung : Übersystem von 1, 2, 3, 4, 5, 6, 7, 8 und 9.
- 15
- Schnittstelle Steuerung/User: Physikalische Ethernetschnittstelle.
- 16
- Schnittstelle Sensor: Physikalische Ethernetschnittstelle.
- 17
- Schnittstelle Beleuchtung
- 18
- Energieversorgungsmodul: Externe elektrische Energieversorgung.
- 19
- Beleuchtung: Zusätzliche Beleuchtung für 1.
- 20
- Schnittstelle Greifer: Hardware- und Softwareschnittstelle für Greifer.
- 21
- Schnittstelle Anlagensteuerung: Hardware- und Softwareschnittstelle für Anlage.
- 22
- Greifvorrichtung
- 23
- Roboter
- 24
- Ablage
- 25
- zu greifendes Objekt
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-