DE102017123088A1 - Arbeitsunterstützungssystem, das eine Maschinenlerneinheit aufweist - Google Patents

Arbeitsunterstützungssystem, das eine Maschinenlerneinheit aufweist Download PDF

Info

Publication number
DE102017123088A1
DE102017123088A1 DE102017123088.2A DE102017123088A DE102017123088A1 DE 102017123088 A1 DE102017123088 A1 DE 102017123088A1 DE 102017123088 A DE102017123088 A DE 102017123088A DE 102017123088 A1 DE102017123088 A1 DE 102017123088A1
Authority
DE
Germany
Prior art keywords
worker
unit
work
status
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102017123088.2A
Other languages
English (en)
Other versions
DE102017123088B4 (de
Inventor
Masafumi OOBA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102017123088A1 publication Critical patent/DE102017123088A1/de
Application granted granted Critical
Publication of DE102017123088B4 publication Critical patent/DE102017123088B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23PMETAL-WORKING NOT OTHERWISE PROVIDED FOR; COMBINED OPERATIONS; UNIVERSAL MACHINE TOOLS
    • B23P19/00Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/423Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40198Contact with human allowed if under pain tolerance limit
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40409Robot brings object near operator, operator places object in correct position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • General Factory Administration (AREA)
  • Numerical Control (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)

Abstract

Situationen werden flexibel bestimmt und die Arbeit wird unterstützt, selbst wenn sich die Weise und das Timing aufgrund der individuellen Unterschiede zwischen Arbeitern unterscheiden. Es wird ein Arbeitsunterstützungssystem bereitgestellt, das eine Sensoreinheit 2, die eine Position und eine Lage wenigstens eines Körperteils eines Arbeiters 5 detektiert; eine Liefereinheit 4, die dem Arbeiter 5 ein Teil oder ein Werkzeug liefert; und eine Zellensteuereinheit 7, die die Liefereinheit 4 steuert, aufweist, wobei die Zellensteuereinheit 3 eine Maschinenlerneinheit 31, die durch Lernen eines Arbeitsstatus des Arbeiters 5 auf der Basis der detektierten Position und Lage ein Modell aufbaut, und eine Arbeitsstatusbestimmungseinheit 32, die unter Verwendung des aufgebauten Modells den Arbeitsstatus des Arbeiters 5 bestimmt, aufweist. Die Liefereinheit 4 wählt das Teil oder das Werkzeug auf der Basis des bestimmten Arbeitsstatus und verändert die Position und die Lage des Teils oder des Werkzeugs auf der Basis der Position und der Lage des wenigstens einen Körperteils.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Arbeitsunterstützungssystem, das eine Maschinenlerneinheit aufweist.
  • Allgemeiner Stand der Technik#
  • Typischerweise musste ein mit einer Montagearbeit an einer Fertigungsstätte befasster Arbeiter für die Montagearbeit nötige Teile, Werkzeuge usw. von Aufbewahrungsorten holen. Als Ergebnis bestand die Probleme eines Zeitverlusts und einer verschlechterten Arbeitseffizient.
  • Um diesem Problem entgegenzuwirken, offenbart PTL 1 ein Arbeitsunterstützungssystem, das die Arbeitssituation durch statistisches Verarbeiten der Position des Arbeiters einschätzt und gemäß der Arbeitssituation Teile und Werkzeuge liefert
  • Literaturliste
  • Patentliteratur
    • PTL 1: Veröffentlichung der japanischen Patentschrift Nr. 5717033
  • Kurzdarstellung der Erfindung
  • Technisches Problem
  • Doch bei PTL 1 müssen die Weise und das Timing der Arbeit, die sich aufgrund von individuellen Unterschieden zwischen Arbeitern verändern können, in Betracht gezogen werden, und war es nötig, Vermutungen bezüglich verschiedener Situationen, die während der Arbeit auftreten können, anzustellen. Somit war es nötig, für jeden Arbeiter Bewegungen der Hände und Füße usw. detailliert mit den jeweiligen Schritten der Arbeit in Verbindung zu bringen.
  • Die vorliegende Erfindung wurde unter den oben beschriebenen Umständen vorgenommen und zielt darauf ab, ein Arbeitsunterstützungssystem bereitzustellen, das in der Lage ist, den Arbeitsstatus flexibel zu bestimmen und die Arbeit zu unterstützen, selbst wenn sich die Weise und das Timing aufgrund der individuellen Unterschiede zwischen Arbeitern unterscheiden.
  • Lösung des Problems
  • Zur Erfüllung der oben beschriebenen Aufgabe stellt die vorliegende Erfindung die folgenden Lösungen bereit.
  • Ein Gesichtspunkt der vorliegenden Erfindung richtet sich auf ein Arbeitsunterstützungssystem, das eine Sensoreinheit, die eine Position und eine Lage wenigstens eines Körperteils eines Arbeiters detektiert; eine Liefereinheit, die dem Arbeiter ein Teil oder ein Werkzeug liefert; und eine Zellensteuereinheit, die die Liefereinheit steuert, aufweist, wobei die Zellensteuereinheit eine Maschinenlerneinheit, die durch Lernen eines Arbeitsstatus des Arbeiters auf der Basis der detektierten Position und Lage ein Modell aufbaut, und eine Arbeitsstatusbestimmungseinheit, die unter Verwendung des aufgebauten Modells den Arbeitsstatus des Arbeiters bestimmt, aufweist, wobei die Liefereinheit das Teil oder das Werkzeug auf der Basis des bestimmten Arbeitsstatus wählt und die Position und die Lage des Teils oder des Werkzeugs auf der Basis der Position und der Lage des wenigstens einen Körperteils verändert.
  • Durch das Arbeitsunterstützungssystem nach dem oben beschriebenen Gesichtspunkt der vorliegenden Erfindung werden die Position und die Lage wenigstens eines Körperteils des Arbeiters durch die Sensoreinheit detektiert. Auf der Basis der detektierten Position und Lage lernt die Maschinenlerneinheit in der Zellensteuereinheit den Arbeitsstatus des Arbeiters und baut sie ein Modell auf. Dann bestimmt die Arbeitsstatusbestimmungseinheit in der Zellensteuereinheit unter Verwendung des aufgebauten Modells den Arbeitsstatus des Arbeiters. Dann wählt die Liefereinheit auf der Basis des bestimmten Arbeitsstatus das Teil oder das Werkzeug, das dem Arbeiter geliefert werden soll. Dann werden die Position und die Lage des Teils oder des Werkzeugs auf der Basis der Position und der Lage wenigstens einen Körperteils des Arbeiters verändert und wird dem Arbeiter das Teil oder das Werkzeug geliefert.
  • Da der Arbeitsstatus des Arbeiters wie oben beschrieben durch Verwenden des Modells, das durch Maschinenlernen aufgebaut wurde, bestimmt wird, kann der Arbeitsstatus flexibel bestimmt werden und die Arbeit unterstützt werden, selbst wenn sich die Weise und das Timing aufgrund der individuellen Unterschiede zwischen den Arbeitern unterscheiden. Überdies sind Vorbereitungen wie etwa das detaillierte Verbinden des Arbeiters mit den jeweiligen Arbeitsschritten nicht länger nötig und kann das Arbeitsunterstützungssystem leichter eingeführt werden.
  • Bei dem Arbeitsunterstützungssystem nach dem oben beschriebenen Gesichtspunkt der vorliegenden Erfindung kann das in der Maschinenlerneinheit aufgebaute Modell als Modell, das in einer anderen Zellensteuereinheit, die über ein Netzwerk mit der Zellensteuereinheit verbunden ist, aufgebaut ist, mitbenutzt werden.
  • Auf diese Weise kann die Lerneffizienz durch Maschinenlernen gesteigert werden.
  • Bei dem Arbeitsunterstützungssystem nach dem oben beschriebenen Gesichtspunkt der vorliegenden Erfindung kann die Liefereinheit einen Roboter aufweisen.
  • Bei dem Arbeitsunterstützungssystem nach dem oben beschriebenen Gesichtspunkt der vorliegenden Erfindung kann die Maschinenlerneinheit ein neuronales Netz aufweisen.
  • Vorteilhafte Wirkungen der Erfindung
  • Die vorliegende Erfindung bietet dahingehend eine vorteilhafte Wirkung, dass die Situationen flexibel bestimmt werden können und die Arbeit unterstützt werden kann, selbst wenn sich die Weise und das Timing der Arbeit aufgrund der individuellen Unterschiede zwischen den Arbeitern unterscheiden. Überdies bietet die vorliegende Erfindung dahingehend eine vorteilhafte Wirkung, dass das Arbeitsunterstützungssystem leichter eingeführt werden kann.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Diagramm, das den Gesamtaufbau eines Arbeitsunterstützungssystems nach einer Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • 2 ist ein Blockdiagramm, das den Gesamtaufbau einer Maschinenlerneinheit einer Zellensteuereinheit in dem in 1 dargestellten Arbeitsunterstützungssystem veranschaulicht.
  • 3 ist ein schematisches Diagramm, das ein neuronales Netz in der Maschinenlerneinheit veranschaulicht.
  • 4 ist ein Ablaufdiagramm, das den Prozess veranschaulicht, der in dem Arbeitsunterstützungssystem nach einer Ausführungsform der vorliegenden Erfindung ausgeführt werden soll.
  • 5 ist ein Diagramm, das ein Beispiel für eine Arbeitstabelle, die in dem Arbeitsunterstützungssystem nach einer Ausführungsform der vorliegenden Erfindung verwendet wird, veranschaulicht.
  • 6 ist ein Statusübergangsdiagramm, das der Arbeitstabelle entspricht.
  • Beschreibung von Ausführungsformen
  • Unter Bezugnahme auf die Zeichnungen wird nachstehend ein Arbeitsunterstützungssystem nach einer Ausführungsform der vorliegenden Erfindung beschrieben.
  • Wie in 1 veranschaulicht weist ein Arbeitsunterstützungssystem 1 eine Sensoreinheit 2, eine Zellensteuereinheit 3, die an die Sensoreinheit 2 angeschlossen ist, und eine Liefereinheit 4, die an die Zellensteuereinheit 3 angeschlossen ist, auf.
  • Die Sensoreinheit 2 weist Kameras 21 auf, die Vision-Sensoren sind, und ist dazu ausgebildet, sequentiell Positionen und Lagen von Körperteilen (zum Beispiel, den Händen, eines Fußes. des Kopfs usw.) eines Arbeiters 5 zu detektieren. Bei dieser Ausführungsform sind zwei Kameras 21 bereitgestellt, doch kann die Anzahl der Kameras 21 eine oder mehr als eine betragen.
  • Die Zellensteuereinheit 3 ist dazu ausgebildet, auf der Basis der durch die Sensoreinheit 2 detektierten Positionen und Lagen der Körperteile des Arbeiters 5 den gegenwärtigen Arbeitsstatus des Arbeiters zu bestimmen. Die Zellensteuereinheit 3 weist einen Prozessor (nicht in der Zeichnung dargestellt) und eine Speichervorrichtung wie etwa einen Nurlesespeicher (ROM) oder einen Direktzugriffsspeicher (RAM) (nicht in der Zeichnung dargestellt) auf und ist so ausgebildet, dass durch den Prozessor die nachstehend beschriebenen Funktionen ausgeführt werden. Die Zellensteuereinheit 3 weist Funktionsblöcke auf, bei denen es sich um eine Maschinenlerneinheit 31 und eine Arbeitsstatusbestimmungseinheit 32 handelt.
  • Wie in 2 veranschaulicht weist die Maschinenlerneinheit 31 eine Eingangsdatenempfangseinheit 311, eine Labelerlangungseinheit 312 und eine Lerneinheit 313 auf.
  • Die Eingangsdatenempfangseinheit 311 ist dazu ausgebildet, die durch die Sensoreinheit 2 detektieren Positionen und Lagen der Körperteile des Arbeiters 5 als Eingangsdaten zu erhalten, eine Vorverarbeitung wie etwa eine Normalisierung durchzuführen, um das Maschinenlernen zu ermöglichen, und die vorverarbeiteten Lerndaten X = {x1, x2, ... xn} an die Lerneinheit 313 zu liefern.
  • Die Labelerlangungseinheit 312 ist dazu ausgebildet, Übungsdaten, d.h., ein Label, das für das überwachte Lernen erforderlich ist, zu erlangen, eine Vorverarbeitung wie etwa eine Normalisierung durchzuführen, um das Maschinenlernen zu ermöglichen, und das vorverarbeitete Label D = {d1, d2, ... dm} an die Lerneinheit 313 zu liefern.
  • Die Lerneinheit 313 ist dazu ausgebildet, auf der Basis der Lerndaten X, die in der Eingangsdatenempfangseinheit 311 erlangt wurden, und der Lernlabel D, die in der Labelerlangungseinheit 312 vorverarbeitet wurden, ein Lernmodell (Modell) 3131 aufzubauen. Das Lernmodell 3131 wird aufgebaut, indem der Lerneinheit 313 eine große Menge von Sätzen der Lerneingangsdaten X und der Lernlabel D bereitgestellt wird.
  • Beim Aufbauen des Lernmodells 3131 wird ein in 3 veranschaulichtes neuronales Netz verwendet. Wie in 3 dargestellt sind vorzugsweise drei oder mehr Zwischenschichten bereitgestellt, damit ein tiefes Lernen durchgeführt wird.
  • Als Ergebnis des Lernens wird für alle Sätze der Lerneingangsdaten X und der Lernlabels D, die dem in 3 dargestellten neuronalen Netz bereitgestellt wurden, das Gewicht W, das die Gesamtheit der Fehler ||D – Y||2 minimiert, bestimmt und das Lernmodell 3131 aufgebaut.
  • Die Eingangsdaten, die der Maschinenlerneinheit 31 bereitgestellt werden, sind die Position und die Lage wenigstens eines Körperteils des Arbeiters 5, und sind zum Beispiel eine Position und eine Lage einer Hand oder eines Fußes. Das Label, das der Maschinenlerneinheit 31 bereitgestellt wird, ist der Arbeitsstatus. Der Ausgang der Maschinenlerneinheit 31, mit anderen Worten, der Ausgang Y des Lernmodells = {y1, y2, ... ym} ist zum Beispiel die Wahrscheinlichkeit des entsprechenden Arbeitsstatus.
  • Wie in 2 veranschaulicht kann das Lernmodell 3131 über ein Netzwerk mit einer anderen Zellensteuereinheit verbunden sein und als das Lernmodell der in der anderen Zellensteuereinheit eingerichteten Maschinenlerneinheit mitbenutzt werden.
  • Auf diese Weise kann die Lerneffizienz des Lernmodells 3131 gesteigert werden.
  • Wie in 1 veranschaulicht ist die Arbeitsstatusbestimmungseinheit 32 zur Bestimmung des gegenwärtigen Arbeitsstatus auf der Basis der durch die Sensoreinheit 2 detektierten Positionen und Lagen der Körperteile des Arbeiters 5 und des in der Maschinenlerneinheit 31 aufgebauten Lernmodells 3131 ausgebildet.
  • Die Liefereinheit 4 ist dazu ausgebildet, dem Arbeiter 5 auf der Basis des gegenwärtigen Arbeitsstatus, der in der Zellensteuereinheit 3 bestimmt wurde, ein Werkzeug oder ein Teil zu liefern. Insbesondere weist die Liefereinheit 4 einen gemeinschaftlichen Roboter 41, eine Robotersteuereinheit 42, die den gemeinschaftlichen Roboter 41 steuert, und eine Plattform 43 auf.
  • An dem distalen Ende des Arms des gemeinschaftlichen Roboters 41 sind eine Hand 6, die einen Endeffektor darstellt, und eine Kamera (nicht in der Zeichnung dargestellt) bereitgestellt, und der gemeinschaftliche Roboter 41 ist dazu ausgebildet, als Reaktion auf einen Befehl von der Robotersteuereinheit 41 ein Teil auf der Plattform 43 zu ergreifen und das Teil dem Arbeiter 5 zu liefern.
  • Obwohl dies in der Zeichnung nicht dargestellt ist, weist die Robotersteuereinheit 42 einen Prozessor, eine Speichervorrichtung wie etwa einen Nurlesespeicher (ROM) oder einen Direktzugriffsspeicher (RAM), eine externe Schnittstelle zum Austausch verschiedener Daten zwischen dem gemeinschaftlichen Roboter 41 und der Robotersteuereinheit 42, usw. auf, die über einen Bus miteinander verbunden sind, damit der Steuerbefehl an den gemeinschaftlichen Roboter 41 durch den Prozessor ausgeführt wird. Die Robotersteuereinheit 42 steuert den gemeinschaftlichen Roboter 41 auf der Basis des in der Zellensteuereinheit 3 bestimmten Arbeitsstatus, der in der Speichervorrichtung gespeicherten Arbeitstabelle und der Information von der in dem gemeinschaftlichen Roboter installierten Kamera. Genauer führt die Robotersteuereinheit 42 eine Suche nach dem von der Zellensteuereinheit 3 erhaltenen Arbeitsstatus in der in der Speichervorrichtung gespeicherten Arbeitstabelle durch und weist den gemeinschaftlichen Roboter 4 an, die mit dem entsprechenden Arbeitsstatus verbundene Roboterbewegung auszuführen. Überdies detektiert die Robotersteuereinheit 42 auf der Basis des Bilds der Handfläche des Arbeiters 5, das durch die in dem gemeinschaftlichen Roboter 41 installierte Kamera aufgenommen wurde, die Position und die Lage der Handfläche, und bewegt sie den gemeinschaftlichen Roboter 41 so, dass das Koordinatensystem, das für jedes Teil oder Werkzeug vorab festgelegt wurde, mit dem Koordinatensystem, das die Position und die Lage der Handfläche angibt, übereinstimmt.
  • Die Plattform ist eine Bühne, auf der für die Arbeit nötige Werkzeuge und Teile angeordnet sind, und kann ein Teilegestell, eine Ablage, ein Werkzeugkasten oder dergleichen sein.
  • Anstelle des Installierens einer Kamera in dem gemeinschaftlichen Roboter 41 kann eine an die Robotersteuereinheit 42 angeschlossene Kamera an einer festen Position installiert sein und kann der gemeinschaftliche Roboter 41 dazu ausgebildet sein, auf der Basis der Information von jener Kamera ein Teil auf der Plattform 43 zu ergreifen und das Teil dem Arbeiter 5 zu liefern.
  • Nun wird unter Bezugnahme auf 1 und 4 das Arbeitsunterstützungsverfahren, das in dem wie oben beschrieben ausgebildeten Arbeitsunterstützungssystem 1 durchgeführt wird, beschrieben werden.
  • Zuerst misst die Sensoreinheit 2 sequentiell die Positionen und Lagen der Körperteile des Arbeiters 5 (Schritt S1 in 4). Dann bestimmt die Arbeitsstatusbestimmungseinheit 32 der Zellensteuereinheit 3 auf der Basis der gemessenen Positionen und Lagen der Körperteile des Arbeiters 5 den Arbeitsstatus (Schritt S2 in 4). Als nächstes überwacht die Robotersteuereinheit 42 sequentiell den von der Zellensteuereinheit 3 erhaltenen Arbeitsstatus, und bestimmt sie, ob der Arbeitsstatus gewechselt hat (Schritt S3 in 4). Wenn bestimmt wird, dass der Arbeitsstatus nicht gewechselt hat, werden der Schritt S1 und der Schritt S2 wiederholt. Wenn bestimmt wird, dass der Arbeitsstatus gewechselt hat, wird der nächste Prozess durchgeführt.
  • Wenn bestimmt wird, dass der Arbeitsstatus gewechselt hat, führt die Robotersteuereinheit 42 eine Suche nach dem Arbeitsstatus nach dem Wechsel in der in der Speichervorrichtung gespeicherten Arbeitstabelle durch. Dann sendet die Robotersteuereinheit 42 einen Steuerbefehl an den gemeinschaftlichen Roboter 41, damit der gemeinschaftliche Roboter 42 die mit dem entsprechenden Arbeitsstatus verbundene Roboterbewegung ausführt.
  • Die Roboterbewegung ist im Grunde eine Bewegung, die dem Arbeiter 5 ein Werkzeug oder ein Teil liefert. Daher wählt der gemeinschaftliche Roboter 41 zuerst gemäß dem Steuerbefehl von der Robotersteuereinheit 42 ein Werkzeug oder ein Teil von der Plattform 43 und ergreift er es mit der Hand 6, um sich auf die Lieferung des Werkzeugs oder des Teils an den Arbeiter 5 vorzubereiten (Schritt S4 in 4).
  • Anschließend nimmt die in dem gemeinschaftlichen Roboter 41 installierte Kamera ein Bild auf, das die Handfläche des Arbeiters 5 enthält, und werden durch die Robotersteuereinheit 42 die Position und die Lage der Handfläche des Arbeiters 5 gemessen (Schritt S5 in 4). Dann wird der gemeinschaftliche Roboter 41 durch die Robotersteuereinheit 42 gesteuert und so bewegt, dass die Position und die Lage der Hand des Arbeiters 5 mit dem vorab festgelegten Koordinatensystem für das Werkzeug oder das Teil übereinstimmen (Schritt S6 in 4).
  • Als nächstes wird bestimmt, ob das Werkzeug oder das Teil die Position der Handfläche des Arbeiters 5 erreicht hat (Schritt S7 in 4). Diese Bestimmung kann auf der Basis des durch die Kamera des gemeinschaftlichen Roboters 41 aufgenommenen Bilds oder auf der Basis der Rückmeldung eines in der Hand 6 des gemeinschaftlichen Roboters 41 installierten Kraftsensors vorgenommen werden.
  • Wenn bestimmt wird, dass das Werkzeug oder das Teil die Position der Handfläche des Arbeiters 5 nicht erreicht hat, werden der Schritt S5 und der Schritt S6 wiederholt, Wenn bestimmt wird, dass das Werkzeug oder das Teil die Position der Handfläche des Arbeiters 5 erreicht hat, wird der Prozess beendet.
  • Beispiel
  • In der folgenden Beschreibung wird ein Beispiel für die Anwendung des Arbeitsunterstützungssystems 1 nach der vorliegenden Erfindung beschrieben werden, wobei ein Beispiel für eine Arbeit verwendet wird, die das Anbringen einer Abdeckung auf einem Untergestell mit den Händen und dann das Vornehmen einer Schraubenbefestigung an vier Positionen unter Verwendung eines Schraubendrehers und von vier Schrauben umfasst.
  • Wie in 5 veranschaulicht sind die Schritte dieser Arbeit ein Abdeckungsanbringungsschritt und ein Schraubenbefestigungsschritt. Die Arbeitsstati des Arbeiters 5 bei dem Abdeckungsanbringungsschritt sind ein Untergestellwartestatus, ein Abdeckungswartestatus und ein "Abdeckungsanbringung-im-Gange"-Status. Die Arbeitsstati des Arbeiters 5 bei dem Schraubenbefestigungsschritt sind ein Schraubendreherwartestatus, ein Schraubenwartestatus und ein "Schraubenbefestigung-im-Gange"-Status. Da es sich um vier Schrauben handelt, gibt es vier Schraubenwartestati und vier "Schraubenbefestigung-im-Gange"-Stati.
  • Wie in 6 veranschaulicht erfolgt der Übergang der oben beschriebenen Arbeitsstati untereinander durch eine bestimmte Bewegung. Das heißt, der Untergestellwartestatus geht zu dem Abdeckungswartestatus über, wenn durch den gemeinschaftlichen Roboter 41 das Untergestell geliefert wird. Der Abdeckungswartestatus geht zu dem "Abdeckungsanbringung-im-Gange"-Status über, wenn durch den gemeinschaftlichen Roboter 41 die Abdeckung geliefert wird. Der "Abdeckungsanbringung-im-Gange"-Status geht zu dem Schraubendreherwartestatus über, wenn die Arbeit durch den Arbeiter 5 endet. Der Schraubendreherwartestatus geht zu dem Schraubenwartestatus über, wenn durch den gemeinschaftlichen Roboter 41 der Schraubendreher geliefert wird. Der Schraubenwartestatus geht zu dem "Schraubenbefestigung-im-Gange"-Status über, wenn durch den gemeinschaftlichen Roboter 41 eine Schraube geliefert wird. Der "Schraubenbefestigung-im-Gange"-Status geht zu dem Schraubenwartezustand über, wenn die Arbeit des Arbeiters 5 endet. Bei diesem Beispiel wird die Schraubenbefestigung an vier Positionen vorgenommen; daher wird der Übergang von dem Schraubenwartestatus zu dem "Schraubenbefestigung-im- Gange"-Status vier Mal wiederholt und ist die Arbeit dann abgeschlossen.
  • In der Arbeitstabelle 5, die in 5 veranschaulicht ist, sind die Arbeitsstati mit den Roboterbewegungen, wodurch ein Arbeitsstatus zu einem anderen Arbeitsstatus übergeht, verbunden. Der "Abdeckungsanbringung-im-Gange"- Status und der "Schraubenbefestigung-im-Gange"-Status gehen durch die Bewegung des Arbeiters 5 zu den nächsten Stati über; daher wird die Roboterbewegung auf einen Bereitschaftsstatus gesetzt. Doch zur Steigerung der Leistungsfähigkeit der Arbeit erfolgt der Eintritt in den Bereitschaftsstatus vorzugsweise, nachdem der Roboter das Werkzeug oder das Teil gewählt und ergriffen hat, damit das Werkzeug oder das Teil, das bei der nächsten Arbeit verwendet wird, dem Arbeiter 5 unverzüglich geliefert werden kann.
  • Die in 5 veranschaulichte Arbeitstabelle wird im Voraus vorbereitet und in der Speichervorrichtung in der Robotersteuereinheit 42 gespeichert.
  • Bei diesem Beispiel werden die Daten, die durch Normalisieren der Positionen und Lagen der Hände, des Kopfs und der Zehen des Arbeiters 5 erhalten werden, als die Lerndaten X verwendet. Die Lernlabels D werden durch Normalisieren von sechs Arbeitsstati, nämlich "Warten auf das Untergestell", "Warten auf die Abdeckung", Abdeckungsanbringung im Gange", "Warten auf den Schraubendreher", "Warten auf die Schraube" und "Schraubenbefestigung im Gange", erhalten. Der Lerneinheit 313 wird eine große Menge an Sätzen der Lerndaten X und der Lernlabels D bereitgestellt, um das Lernmodell 3131 aufzubauen.
  • Als Ergebnis werden bei einer Eingabe der Daten hinsichtlich der Positionen und Lagen der Hände, des Kopfes und der Zehen des Arbeiters 5, die bei der gegenwärtigen Arbeit erhalten wurden, in das Lernmodell 3131 die Wahrscheinlichkeiten, dass sich die gegenwärtige Arbeit bei den jeweiligen Arbeitsstati befindet, in der Arbeitsstatusbestimmungseinheit 32 als Ausgang Y ausgegeben. Die Arbeitsstatusbestimmungseinheit 32 bestimmt, dass der Arbeitsstatus mit der höchsten Wahrscheinlichkeit der gegenwärtige Arbeitsstatus ist, und sendet den gegenwärtigen Arbeitsstatus an die Robotersteuereinheit 42. Wenn zum Beispiel die Wahrscheinlichkeit von "Warten auf das Untergestell" am höchsten ist, wird angenommen, dass der gegenwärtige Arbeitsstatus "Warten auf das Untergestell" ist und dieser Ausgang an die Robotersteuereinheit 42 gesendet.
  • Die Robotersteuereinheit 42 führt eine Suche nach "Warten auf das Untergestell" in der Arbeitstabelle, die in der internen Speichervorrichtung gespeichert ist, durch und erhält als Roboterbewegung, die mit "Warten auf das Untergestell" verbunden ist, "Lieferung des Untergestells". Dann steuert die Robotersteuereinheit 42 den gemeinschaftlichen Roboter 41 so, dass der gemeinschaftliche Roboter 41 die "Lieferung des Untergestells" vornimmt.
  • Der gemeinschaftliche Roboter 41 nimmt das Untergestell von der Plattform 43 auf und liefert dem Arbeiter 5 das Untergestell. Hier wird das Untergestell dem Arbeiter 5 so geliefert, dass die Position und die Lage der Handfläche des Arbeiters 5 mit dem vorab festgelegten Koordinatensystem des Untergestells übereinstimmen.
  • Ebenso wird der oben beschriebene Prozess wiederholt, bis alle der Arbeitsstati in der Arbeitstabelle abgeschlossen sind.
  • Da der Arbeitsstatus des Arbeiters 5 unter Verwendung des durch das Maschinenlernen als solches aufgebauten Lernmodells 3131 bestimmt wird, kann der Arbeitsstatus flexibel bestimmt werden und die Arbeit unterstützt werden, selbst wenn sich die Weise und das Timing aufgrund der individuellen Unterschiede zwischen den Arbeitern 5 unterscheiden. Überdies sind Vorbereitungen wie etwa das detaillierte Verbinden des Arbeiters 5 mit den jeweiligen Schritten nicht länger nötig und kann das Arbeitsunterstützungssystem 1 leichter eingeführt werden.
  • Die Ausführungsform der vorliegenden Erfindung wurde unter Bezugnahme auf die Zeichnungen ausführlich beschrieben, doch ist der bestimmte Aufbau nicht auf jenen der Ausführungsform beschränkt, sondern kann er innerhalb des Umfangs der vorliegenden Erfindung Gestaltungsabwandlungen aufweisen.
  • Obwohl zum Beispiel das Bild, das zum Messen der Position und der Lage der Handfläche des Arbeiters 5 verwendet wird, bei der vorliegenden Ausführungsform durch eine in dem gemeinschaftlichen Roboter 41 installierte Kamera aufgenommen wird, können anstelle der in dem gemeinschaftlichen Roboter 41 installierten Kamera die in der Sensoreinheit 2 installierten Kameras 21 verwendet werden.
  • Bezugszeichenliste
  • 1
    Arbeitsunterstützungssystem
    2
    Sensoreinheit
    3
    Zellensteuereinheit
    4
    Liefereinheit
    5
    Arbeiter
    31
    Maschinenlerneinheit
    32
    Arbeitsstatusbestimmungseinheit
    41
    gemeinschaftlicher Roboter

Claims (4)

  1. Arbeitsunterstützungssystem(1), umfassend: eine Sensoreinheit (2), die eine Position und eine Lage wenigstens eines Körperteils eines Arbeiters (5) detektiert; eine Liefereinheit (4), die dem Arbeiter (5) ein Teil oder ein Werkzeug liefert; und eine Zellensteuereinheit (3), die die Liefereinheit (4) steuert, wobei die Zellensteuereinheit (3) eine Maschinenlerneinheit (31), die durch Lernen eines Arbeitsstatus des Arbeiters (5) auf der Basis der detektierten Position und Lage ein Modell aufbaut, und eine Arbeitsstatusbestimmungseinheit (32), die unter Verwendung des aufgebauten Modells den Arbeitsstatus des Arbeiters (5) bestimmt, umfasst, wobei die Liefereinheit (4) das Teil oder das Werkzeug auf der Basis des bestimmten Arbeitsstatus wählt und die Position und die Lage des Teils oder des Werkzeugs auf der Basis der Position und der Lage des wenigstens einen Körperteils verändert.
  2. Arbeitsunterstützungssystem (1) nach Anspruch 1, wobei das in der Maschinenlerneinheit (31) aufgebaute Modell als Modell, das in einer anderen Zellensteuereinheit (3), die über ein Netzwerk mit der Zellensteuereinheit (3) verbunden ist, aufgebaut ist, mitbenutzt wird.
  3. Arbeitsunterstützungssystem (1) nach Anspruch 1 oder 2, wobei die Liefereinheit (4) einen Roboter (41) aufweist.
  4. Arbeitsunterstützungssystem (1) nach einem der Ansprüche 1 bis 3, wobei die Maschinenlerneinheit (31) ein neuronales Netz aufweist.
DE102017123088.2A 2016-10-07 2017-10-05 Arbeitsunterstützungssystem, das eine Maschinenlerneinheit aufweist Active DE102017123088B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-198717 2016-10-07
JP2016198717A JP6662746B2 (ja) 2016-10-07 2016-10-07 機械学習部を備えた作業補助システム

Publications (2)

Publication Number Publication Date
DE102017123088A1 true DE102017123088A1 (de) 2018-04-12
DE102017123088B4 DE102017123088B4 (de) 2021-01-28

Family

ID=61695695

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017123088.2A Active DE102017123088B4 (de) 2016-10-07 2017-10-05 Arbeitsunterstützungssystem, das eine Maschinenlerneinheit aufweist

Country Status (4)

Country Link
US (1) US10603793B2 (de)
JP (1) JP6662746B2 (de)
CN (1) CN107914124B (de)
DE (1) DE102017123088B4 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10675766B1 (en) * 2017-08-28 2020-06-09 Disney Enterprises, Inc. System for introducing physical experiences into virtual reality (VR) worlds
IT201800006156A1 (it) * 2018-06-08 2019-12-08 Metodo di controllo predittivo di un robot e relativo sistema di controllo
WO2020066850A1 (ja) * 2018-09-27 2020-04-02 パナソニックIpマネジメント株式会社 搬送システム、搬送装置の制御方法及びプログラム
JP6826086B2 (ja) * 2018-09-28 2021-02-03 ファナック株式会社 状態判定装置及び状態判定方法
US11077559B2 (en) * 2018-12-05 2021-08-03 Honda Motor Co., Ltd. Support robot and methods of use thereof
US10866579B2 (en) * 2019-03-01 2020-12-15 Toyota Motor Engineering & Manufacturing North America, Inc. Automated manufacturing process tooling setup assist system
JP6940542B2 (ja) * 2019-03-14 2021-09-29 ファナック株式会社 把持力調整装置及び把持力調整システム
JP7021158B2 (ja) * 2019-09-04 2022-02-16 株式会社東芝 ロボットシステムおよび駆動方法
JP7448327B2 (ja) 2019-09-26 2024-03-12 ファナック株式会社 作業員の作業を補助するロボットシステム、制御方法、機械学習装置、及び機械学習方法
JP7362107B2 (ja) * 2019-09-30 2023-10-17 Johnan株式会社 制御装置、制御方法およびプログラム
JP2022156507A (ja) * 2021-03-31 2022-10-14 Johnan株式会社 ロボット制御システム、および制御装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5717033A (en) 1980-07-02 1982-01-28 Mitsubishi Electric Corp Voltage stabilizing circuit

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56135588A (en) * 1980-03-28 1981-10-23 Kunimine Kogyo Kk Bentonite for drilling mud and production thereof
JPH01199753A (ja) * 1988-02-05 1989-08-11 Fanuc Ltd 工具交換の制御方法
JP2003080484A (ja) 2001-09-07 2003-03-18 Tomy Co Ltd 動作反応玩具
JP4630553B2 (ja) * 2004-01-15 2011-02-09 ソニー株式会社 動的制御装置および動的制御装置を用いた2足歩行移動体
JP2005219161A (ja) * 2004-02-05 2005-08-18 Matsushita Electric Ind Co Ltd ロボット把持制御装置及びロボット把持制御システム
JP4682217B2 (ja) 2007-03-07 2011-05-11 パナソニック株式会社 行動制御装置、方法、プログラム
US20080229255A1 (en) * 2007-03-15 2008-09-18 Nokia Corporation Apparatus, method and system for gesture detection
JP5022868B2 (ja) * 2007-11-16 2012-09-12 キヤノン株式会社 情報処理装置、情報処理方法
JP5201968B2 (ja) * 2007-12-10 2013-06-05 サンデン株式会社 コンプレッサトルク推定装置
JP4803212B2 (ja) * 2008-05-28 2011-10-26 ソニー株式会社 データ処理装置、データ処理方法、及びプログラム
JP5336896B2 (ja) * 2009-03-24 2013-11-06 株式会社国際電気通信基礎技術研究所 対物行動推定装置およびサービス提供システム
CN104308849B (zh) 2009-05-22 2016-06-01 丰田自动车东日本株式会社 作业辅助机器人系统
US20130245882A1 (en) 2012-03-14 2013-09-19 Christopher P. Ricci Removable, configurable vehicle console
US9283675B2 (en) * 2010-11-11 2016-03-15 The Johns Hopkins University Human-machine collaborative robotic systems
CN103347662A (zh) * 2011-01-27 2013-10-09 松下电器产业株式会社 机器人手臂的控制装置及控制方法、机器人、机器人手臂控制程序以及集成电路
US8718822B1 (en) * 2011-05-06 2014-05-06 Ryan Hickman Overlaying sensor data in a user interface
CN102402712B (zh) * 2011-08-31 2014-03-05 山东大学 基于神经网络的机器人强化学习初始化方法
JP2013184273A (ja) 2012-03-09 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP5717033B2 (ja) * 2012-07-19 2015-05-13 トヨタ自動車東日本株式会社 作業支援システム
CN203062094U (zh) * 2012-12-31 2013-07-17 徐州润物科技发展有限公司 激光切割工业机器人
CN103170973B (zh) * 2013-03-28 2015-03-11 上海理工大学 人机协作装置及实现人机协作的方法
JP2015071206A (ja) * 2013-10-03 2015-04-16 セイコーエプソン株式会社 制御装置、ロボット、教示データ生成方法及びプログラム
US9381642B2 (en) * 2014-01-13 2016-07-05 Massachusetts Institute Of Technology Wearable robot assisting manual tasks
JP6291922B2 (ja) * 2014-03-11 2018-03-14 アイシン精機株式会社 睡眠深度判定装置
WO2015178078A1 (ja) 2014-05-22 2015-11-26 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6397226B2 (ja) 2014-06-05 2018-09-26 キヤノン株式会社 装置、装置の制御方法およびプログラム
WO2015186436A1 (ja) * 2014-06-06 2015-12-10 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
US9469028B2 (en) * 2014-09-30 2016-10-18 Toyota Jidosha Kabushiki Kaisha Robotic handover system natural for humans
JP6435581B2 (ja) * 2015-01-29 2018-12-12 パナソニックIpマネジメント株式会社 転移学習装置、転移学習システム、転移学習方法およびプログラム
CN104985599B (zh) * 2015-07-20 2018-07-10 百度在线网络技术(北京)有限公司 基于人工智能的智能机器人控制方法、系统及智能机器人
CN105718857B (zh) * 2016-01-13 2019-06-04 兴唐通信科技有限公司 一种人体异常行为检测方法及系统
CN105913117A (zh) * 2016-04-04 2016-08-31 北京工业大学 一种计算机智能识别的相关神经网络方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5717033A (en) 1980-07-02 1982-01-28 Mitsubishi Electric Corp Voltage stabilizing circuit

Also Published As

Publication number Publication date
DE102017123088B4 (de) 2021-01-28
US20180126558A1 (en) 2018-05-10
CN107914124B (zh) 2021-11-19
US10603793B2 (en) 2020-03-31
JP2018058178A (ja) 2018-04-12
JP6662746B2 (ja) 2020-03-11
CN107914124A (zh) 2018-04-17

Similar Documents

Publication Publication Date Title
DE102017123088A1 (de) Arbeitsunterstützungssystem, das eine Maschinenlerneinheit aufweist
DE102017009223B4 (de) Steuervorrichtung zum Steuern eines Roboters durch Lernen einer Aktion einer Person, Robotersystem und Produktionssystem
DE69812558T2 (de) Roboter System und Methode zum Antreiben eines Roboters
DE112017007028B4 (de) Positionskontrollvorrichtung und Positionskontrollverfahren
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102017001305A1 (de) Fehlerdiagnosevorrichtung eines Robotersystem zum Beurteilen eines Fehlers anhand eines Kamerabildes
DE102017003154B4 (de) Fertigungsverwaltungssystem mit der fähigkeit zur verbesserung des verfügbarkeitsgrades einer fertigungszelle
EP2615418B1 (de) Verfahren zur Erhöhung der Zuverlässigkeit von Sensorsystemen
DE102015004932A1 (de) Simulationsvorrichtung für mehrere Roboter
DE102016008576A1 (de) Robotersimulationsvorrichtung für ein menschliches Eingreifen umfassendes Robotersystem
DE102018100420B4 (de) Offline-Programmierungseinrichtung und Positionsparameterkorrekturverfahren
DE102020204118A1 (de) Bearbeitungssteuerungssystem und bearbeitungssystem
DE112018007727B4 (de) Robotersystem
DE102017120927A1 (de) Trainingsunterstützungsvorrichtung
DE102017125924B4 (de) Robotisches System mit kooperativem Arbeitsbereich
DE102019112043A1 (de) Robotersystem
DE102017120929A1 (de) Trainingsunterstützungsvorrichtung
DE10215885A1 (de) Automatische Prozesskontrolle
DE102017123090A1 (de) Robotersystem und Wartungsverfahren zum Verfolgen von Informationen eines Moduls
EP3959046A1 (de) Verfahren und system zum betreiben eines roboters
DE102018007826A1 (de) Identifikationscode-lesevorrichtung und maschinelle lernvorrichtung
DE102015010637A1 (de) Robotersteuerung eines Roboters, der mit einem Maschinenwerkzeug verwendet wird, und Verarbeitungssystem
DE102017122119A1 (de) Informationsprozessor
DE112021000986T5 (de) Robotersystem
DE112018007729T5 (de) Maschinelle Lernvorrichtung und mit dieser ausgestattetes Robotersystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final