AT514528A1 - Formgebungsanlage mit Gestensteuerung - Google Patents

Formgebungsanlage mit Gestensteuerung Download PDF

Info

Publication number
AT514528A1
AT514528A1 AT5092013A AT5092013A AT514528A1 AT 514528 A1 AT514528 A1 AT 514528A1 AT 5092013 A AT5092013 A AT 5092013A AT 5092013 A AT5092013 A AT 5092013A AT 514528 A1 AT514528 A1 AT 514528A1
Authority
AT
Austria
Prior art keywords
shaping
gesture
gesture control
shaping system
user
Prior art date
Application number
AT5092013A
Other languages
English (en)
Inventor
Josef Dipl Ing Giessauf
Hannes Dipl Ing Fritz
Albin Dipl Ing Kern
Georg Dipl Ing Dr Pillwein
Original Assignee
Engel Austria Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Engel Austria Gmbh filed Critical Engel Austria Gmbh
Priority to AT5092013A priority Critical patent/AT514528A1/de
Publication of AT514528A1 publication Critical patent/AT514528A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Optics & Photonics (AREA)
  • Numerical Control (AREA)

Abstract

Formgebungsanlage (12) mit einer Einrichtung zur Produktion von Formteilen und mit einer Bedieneinheit (2) wobei die Formgebungsanlage (12) mit ihrer Bedieneinheit (2) durch eine Gestensteuerung (7) von zumindest einem angemeldeten Benutzer berührungslos über dessen Gesten bedienbar ausgebildet ist, wobei die Gestensteuerung (7) zumindest eine Erkennungsvorrichtung (1), eine Interpretationsvorrichtung (5) und einen Konverter (6) aufweist.

Description

Die Erfindung betrifft eine Formgebungsanlage mit einer Einrichtung zur Produktionvon Formteilen und mit einer Bedieneinheit.
Eine Formgebungsanlage besteht aus einer Formgebungsmaschine wiebeispielsweise einer Spritzgießmaschine, Spritzpresse, Presse oder dergleichen,optional zumindest einem Roboter und optional mindestens einem Peripheriegerät,welche mit einer Bedieneinheit und einem Steuerungsrechner zur Steuerung undRegelung der Anlage verbunden sind. An dieser Bedieneinheit könnenbeispielsweise auch diverse Parameter, Befehle und andere Werte visualisiert,eingestellt und eingegeben werden.
Aufgabe der Erfindung istes, eine gegenüber dem Stand der Technik verbesserteFormgebungsanlage anzugeben. Insbesondere sollte die Bedienung der genanntenFormgebungsanlage für einen und/oder mehrere Benutzer ergonomischer undeinfacher gestaltet und somit auch ein verbessertes Maß an Produktionszeit undProduktionsaufwand erzielbar sein.
Dies wird erfindungsgemäß dadurch erreicht, dass die Formgebungsanlage mit ihrerBedieneinheit durch eine Gestensteuerung von zumindest einem angemeldetenBenutzer berührungslos über dessen Gesten bedienbar ausgebildet ist, wobei dieGestensteuerung zumindest eine Erkennungsvorrichtung, eineInterpretationsvorrichtung und einen Konverter aufweist. Beispiele fürerfindungsgemäße Formgebungsanlagen sind, besonders bevorzugt,Spritzgießanlagen mit einer Spritzgießmaschine, Spritzpresse, Presse oderdergleichen.
Weitere Einzelheiten und Vorteile der vorliegenden Erfindung werden anhand derFigurenbeschreibung unter Bezugnahme auf die in den Zeichnungen dargestelltenAusführungsbeispiele im Folgenden näher erläutert.
Darin zeigt:
Fig. 1 als Beispiel eine Formgebungsanlage 12 in Form einer Spritzgießanlage miteiner Formgebungsmaschine 3, ausgeführt als Spritzgießmaschine, Spritzpresse,Presse oder dergleichen, einem entsprechenden Peripheriegerät 9, einen Roboter 8,eine Gestensteuerung 7 mit einer optischen Erkennungsvorrichtung 1 gekoppelt miteiner Bedieneinheit 2 und einem Steuerungsrechner 10, welcher beispielsweise mitder Formgebungsmaschine 3 verbunden ist.
Fig. 2 eine Gestensteuerung 7 mit einer optischen Erkennungsvorrichtung 1, einerSpeichervorrichtung 4, einer Interpretationsvorrichtung 5 und einen Konverter 6.
Fig. 1 zeigt schematisch eine Gestensteuerung 7 mit einer optischenErkennungsvorrichtung 1 gekoppelt mit einer Bedieneinheit 2 und einemSteuerungsrechner 10, welcher beispielsweise mit der Formgebungsmaschine 3verbunden ist. Weiters ist optional zumindest ein Roboter 8 und/ oder einPeripheriegerät 9 an die Bedieneinheit 2 gekoppelt. Ein Peripheriegerät 9 kannbeispielsweise eine Fördereinrichtung oder Entnahmeeinrichtung sein, welche zumBeispiel für die Beförderung von Formteilen, Werkzeugen oder ähnlichem verwendetwerden. Für die Erkennung und Interpretation von Gesten durch die Gestensteuerung 7 istzumindest eine optische Erkennungsvorrichtung 1 vorgesehen, welche die erfasstenBewegungen einer Interpretationsvorrichtung 5 zur Verfügung stellt. Der Konverter 6wandelt die so gewonnenen Daten um und gibt diese an die Bedieneinheit 2 weiter.Die Bedieneinheit 2 verarbeitet die so eingehenden Informationen und gibt dieseüber den Steuerungsrechner 10 gegebenenfalls and die Formgebungsmaschine 3,dem Roboter 8 oder dem Peripheriegerät 9 weiter oder zeigt diese an einemBildschirm an.
Die Darstellung der optischen Erkennungsvorrichtung 1, der Bedieneinheit 2, derFormgebungsmaschine 3 und des Steuerungsrechners 10 in Figur 1 ist nurschematisch und gibt keine Rückschlüsse darüber, wie die einzelnen Komponentenin der Formgebungsanlage 12 örtlich angeordnet sind; so kann beispielsweise dieoptische Erkennungsvorrichtung 1 direkt an der Bedieneinheit 2 und/oder derFormgebungsmaschine 3 fixiert und/oder alternativ auch mobil ausgeführt sein.
Somit kann die Gestensteuerung 7 auch an einem beliebigen Ort derFormgebungsanlage 12 verwendet werden. Durch diese Anordnungsbeispielekönnen nun durch die Bewegungen des Benutzers im dreidimensionalen RaumBefehle an die Gestensteuerung 7 weitergegeben werden.
Die Gestensteuerung 7 kann beispielsweise für folgende Aktionen verwendbar sein:Navigation in der Ausgabeeinheit, Auswahl von Eingabefeldern, Einstellen oderÄndern von Einstellparametern, Auslösen von Aktionen, Steuern/Regeln vonBewegungen. Diese Aktionen werden nun etwas genauer erläutert:
Navigation: Eine Bedieneinheit 2 kann zum Beispiel ein Bildschirm oder Touchscreensein. Hier kann ein Auswahlen der einzelnen Bildschirmseiten in der Menuführung ander Bedieneinheit 2 erfolgen. Auch die bekannten Grundfunktionen wie Scrollen,Blättern, Vergrößern und Verkleinern der einzelnen Ansichten können navigiertwerden. Weiters kann das Bewegen des Cursors mittels Gestensteuerung erfolgen.
Auswahl: Die Auswahl von Einstellparametern, Eingabefeldern, Zahlenwerten,beispielsweise Soll- und Istwerten, Diagrammen und/oder jeder anderen Art vonElementen in der Menuführung an der Bedieneinheit 2 kann zu deren Ansicht oderzur späteren Veränderung vorgenommen werden.
Einstellen oder Ändern der Parameter: Die ausgewählten Einstellparameter oder dieanderen vorhin genannten Elemente können an der Bedieneinheit (2) dann über dieGestensteuerung verändert werden. Diese Einstellparameter können beispielsweiseSollwerte (Position, Geschwindigkeit und Drücke), Sollwertprofile,
Bildschirmhelligkeit, Uhrzeit und Datum sein. Dabei kann zum Beispiel diePositionsänderung, die Geschwindigkeit oder die Beschleunigung der Geste, welchedurch den Bediener ausgeführt wird, in einen Absolutwert des Sollwertes oder einerelative Änderung des neuen zum alten Sollwert umgerechnet werden.
Als Beispiel: Der Benutzer legt die Hand für eine vorgegebene Mindestzeit(beispielsweise eine Sekunde) auf die optische Erkennungsvorrichtung 1. Dannentfernt der Benutzer seine Hand um einen bestimmten Abstand und stoppt dieBewegung anschließend für eine vorgegebene Mindestzeit. Die optische
Erkennungsvorrichtung 1 erkennt den Weg, welcher von der Hand des Benutzerszurückgelegt wird. Die erkannte Bewegung wird von der Interpretationsvorrichtung 5ausgewertet. Mittels Konverter 6 wird nun aus den ausgewerteten Daten derInterpretationsvorrichtung 5 der Eingabesollwert für die Bedieneinheit 2umgewandelt. So kann der Abstand „null“ als Messwert der optischenErkennungsvorrichtung 1 einem Eingabewert „null“ an der Bedieneinheit 2entsprechen, der Abstand von einem Meter, gemessen durch die optischeErkennungsvorrichtung 1 könnte dem Maximalwert für die Bedieneinheit 2entsprechen. Aus dem Wert „null“ und einem Meter kann nun durch lineareInterpolation die Berechnung des gewünschten Eingabewerts an die Bedieneinheit 2erfolgen. Während der Bediener die Bewegung durchführt, wird in Echtzeit an derBedieneinheit 2 der entsprechende Eingabewert zur Handposition angezeigt. Dieskann dem Bediener dabei helfen, über seine Geste den gewünschten Eingabewertsehr genau zu erreichen.
Alternativ und/oder zusätzlich kann auch eine geschwindigkeitsabhängige In-und/oder Dekrementierung des Eingabewerts an der Gestensteuerung erfolgen. Dieskann bedeuten, dass verhältnismäßig schnelle Bewegungen die Sollwerte in großenSchritten verändern, langsame aber die Schrittweite reduzieren.
Anstelle der Eingabe zur Änderung von Geschwindigkeits- oder anderenSollwertprofilen mittels Einzelwerten, wie zum Beispiel durch Zahlenwerte, kann auchdas gesamte Profil aus der Geste interpretiert werden. UnterschiedlicheBewegungsgeschwindigkeiten aus der Geste des Benutzers können über denKonverter 6 etwa direkt in ein Geschwindigkeits-Sollwertprofil umgewandelt werden.Denkbar kann es auch sein, dass man das Sollwertprofil vor derErkennungsvorrichtung 1 „nachzeichnen“ könnte, indem man es in dendreidimensionalen Raum zeichnet. Dabei kann die Bewegung in der erstenDimension als X-Achse und die in der zweiten Dimension als Y-Achse über dieInterpretationsvorrichtung 5 und den Konverter 6 als neuer Sollwert für das Profil andie Bedieneinheit 2 weitergegeben werden.
Auslösen von Aktionen: Befehle, die bisher durch das Betätigen einer Hardware-Komponente wie beispielsweise einer Maustaste, Taste auf der Tastatur oder einer
Bildschirmtaste (Touchscreen) eingeleitet wurden, können nun durch Gesteneingeleitet werden. Beispielsweise das Starten einzelner Bewegungen im gesamtenAutomatikzyklus der Formgebungsanlage 12 wie Öffnen und/oder Schließen derSchutzeinrichtungen oder Speichern von Datensätzen, etc. sind nun durch eineGeste auslösbar.
Steuerung und Regelung von Bewegungen: In diesem Fall sind als BeispielBewegungen an der Formgebungsmaschine 3, dem Peripheriegerät 9 oder auchdem Roboter 8 durch die Geste nicht nur auslösbar, es sind auch die Positionen,Geschwindigkeiten oder Beschleunigungen aus der Geste des Bedieners herausinterpretierbar, welche in weiterer Folge die entsprechende Reaktion an derFormgebungsmaschine 3, dem Roboter 8 und/oder auch dem Peripheriegerät 9beeinflussbar ausgestalten. Dabei ist es unerheblich, ob die Reaktion an derMaschine gleichzeitig mit der Geste oder erst nach Abschluss und nochmaligerBestätigung durch einen Benutzer erfolgt. Als Beispiel zur Anwendung kann hier das„Teachen“, sprich Einlernen, der Roboterbewegungen genannt werden.
Die Aktivierung und Deaktivierung der Gestensteuerung 7 und die Identifizierung desBenutzers sind wichtige Bestandteile des Systems, um ein unbeabsichtigtesAuslösen von Aktionen verhindern zu können. Der Benutzer, der befugt ist dieMaschine zu bedienen, wird identifiziert. Hier ist jedes heute bekannteIdentifizierungsverfahren anwendbar. Diese Aufgabe ist aber auch durch die optischeErkennungsvorrichtung 1 erfolgbar, indem der Benutzer durch seine biometrischenMerkmale erkannt wird. Es ist aber auch durch spezielle Gesten, wie beispielsweise„An- und Abmeldegesten“, eine Identifizierung des Bedieners realisierbar.
Die optische Erkennungsvorrichtung 1 darf mit der Interpretation der Gesten nurdefiniert starten und diese auch beenden. Sozusagen kann mittels einerbeispielsweise „Start-/Stoppgeste“ der Vorgang der Gestenerkennung begonnenoder beendet werden. Als Beispiel können die folgenden zwei Varianten dienen,welche ein versehentliches Anlaufen einer Aktion in der Spritzgussvorrichtung 12verhindern wie eine Zweihand-Gesten Variante, welche mit der Position der linkenHand kennzeichnet, in welchem Zeitraum die Geste der rechten Hand zu interpretieren ist oder einer zweiten Zweihand-Gesten Variante, bei welcher beideHände dieselbe Geste durchführen.
Eine weitere Möglichkeit kann natürlich auch ein klassischer Ein-Aus Schalter sein,welcher die Gestensteuerung aktiviert oder deaktiviert.
Einem Benutzer wird es vorzugsweise ermöglicht, eine Rückmeldung durch dieGestensteuerung zu bekommen, um sich orientieren zu können. Anders als beieinem Touchscreen fehlt dem Benutzer eine Ebene, die bei der Orientierung hilfreicherscheint. Bewegt man sich nämlich im dreidimensionalen Raum kann hierbeispielsweise auf visuelle oder akustische Rückmeldungen zurückgegriffen werden,um dem Bediener eine Hilfestellung zu bieten. Die einfachste Möglichkeit kanneinfach eine Rückmeldung über die Bedieneinheit 2 sein. Eine weitere Möglichkeitwäre die Projektion einer Rückmeldung auf eine Fläche, wie auf dieMaschinenverkleidung, Schutzumwehrung oderaufeine Spezialbrille.
Das System kann in weiterer Folge zusätzliche Funktionen aufweisen, die dasArbeiten mit der Gestensteuerung zusätzlich erleichtern. Hier kann beispielsweiseeine fertig vorbelegte „Shortcut-Geste“ eine fertig vorbelegte Aktion hervorrufen undden Weg dahin sozusagen abkürzen.
Eine andere Art der Erleichterung kann sein, dass die optischeErkennungsvorrichtung 1 den Benutzer „verfolgt“, sobald sich dieser im Raumbewegt. Die optische Erkennungsvorrichtung 1 muss hierfür beweglich ausgestaltetsein und/oder über einen entsprechenden Antriebsmechanismus verfügen.
Fig. 2 zeigt schematisch ein weiteres Beispiel einer Gestensteuerung 7 mit eineroptischen Erkennungsvorrichtung 1 und einer internen Speichervorrichtung 4. DieFunktion der Gestensteuerung 7 entspricht im Wesentlichen der Beschreibung derFig. 1, mit dem Unterschied, dass die von der Erkennungsvorrichtung 1 gewonnenenInformationen aus den erfassten Bewegungen nicht direkt an dieInterpretationsvorrichtung 5 und den Konverter 6 weitergereicht, sondern vorerst ineiner internen Speichervorrichtung 4 genutzt werden, um die Geste des Bedieners als Istwert mit den Daten, die sich als Sollwert in der Speichervorrichtung 4 befinden,zu vergleichen. Die Gestensteuerung wird in weiterer Folge an der Schnittstelle 11an die Bedieneinheit 2 und den Steuerungsrechner 10 angeschlossen.

Claims (13)

  1. Patentansprüche 1. Formgebungsanlage (12) mit einer Einrichtung zur Produktion von Formteilenund mit einer Bedieneinheit (2) dadurch gekennzeichnet, dass dieFormgebungsanlage (12) mit ihrer Bedieneinheit (2) durch eineGestensteuerung (7) von zumindest einem angemeldeten Benutzerberührungslos über dessen Gesten bedienbar ausgebildet ist, wobei dieGestensteuerung (7) zumindest eine Erkennungsvorrichtung (1), eineInterpretationsvorrichtung (5) und einen Konverter (6) aufweist.
  2. 2. Formgebungsanlage (12) nach Anspruch 1, dadurch gekennzeichnet, dasszumindest ein Roboter (8) und/oder Peripheriegeräte (9) derFormgebungsanlage (12) über die Gestensteuerung (7) bedienbar sind.
  3. 3. Formgebungsanlage (12) nach Anspruch 1 oder 2, dadurch gekennzeichnet,dass die zumindest eine optische Erkennungsvorrichtung (1) an derFormgebungsmaschine (3), insbesondere deren Verkleidungselemente oderder Bedieneinheit (2) befestigt ist.
  4. 4. Formgebungsanlage (12) nach Anspruch 1 oder 2, dadurch gekennzeichnet,dass die Gestensteuerung (7) mobil anwendbar ist.
  5. 5. Formgebungsanlage (12) nach Anspruch 4, dadurch gekennzeichnet, dass dieGestensteuerung (7) bewegbar ausgeführt ist und vorzugsweise dem Benutzermittels Antrieb folgt und seine Gesten erfasst, sobald sich dieser im Raumbewegt.
  6. 6. Formgebungsanlage (12) nach einem der Ansprüche 1 bis 5, dadurchgekennzeichnet, dass die Gestensteuerung (7) durch eine Start/Stopp-Gesteund/oder durch einen Schalter aktivierbar oder deaktivierbar ist.
  7. 7. Formgebungsanlage (12) nach Anspruch 1 bis 7, dadurch gekennzeichnet,dass für die Gestensteuerung (7) die biometrischen Merkmale des Benutzers identifizierbar sind und dieser an der Bedieneinheit (2) der Formgebungsanlage (12) anmeldbar ist.
  8. 8. Formgebungsanlage (12) nach Anspruch 1, dadurch gekennzeichnet, dass dieGestensteuerung (7) eine Erkennungsgeste des Benutzers erfassbar ist unddiesen an der Bedieneinheit (2) der Formgebungsanlage (12) anmeldet.
  9. 9. Formgebungsanlage (12) nach Anspruch 1,7 und 8 dadurch gekennzeichnet,dass die Formgebungsanlage (12) nur durch den angemeldeten Benutzerbedienbar ist.
  10. 10. Formgebungsanlage (12) nach Anspruch 1, dadurch gekennzeichnet, dass fürdie Formgebungsmaschine (3), Bedieneinheit (2), Roboter (8) undPeripheriegeräte (9) relevante Parameter durch die Gestensteuerung (7)veränderbar sind.
  11. 11. Formgebungsanlage (12) nach Anspruch 1, dadurch gekennzeichnet, dass fürdie Identifizierung eines Benutzers relevanten Parameter durch dieGestensteuerung (7) veränderbar sind.
  12. 12. Formgebungsanlage (12) nach Anspruch 1, dadurch gekennzeichnet, dassnach erkannter Geste für den Benutzer ein charakteristisches Signal von derFormgebungsanlage (12) wahrnehmbar ist.
  13. 13. Formgebungsanlage (12) nach Anspruch 1 bis 12, dadurch gekennzeichnet,dass die Gestensteuerung (7) optional eine in der Gestensteuerung (7)befindliche Speichervorrichtung (4) zum Zwischenspeichern der durch dieGesten erfassten Informationen aufweist.
AT5092013A 2013-06-21 2013-06-21 Formgebungsanlage mit Gestensteuerung AT514528A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AT5092013A AT514528A1 (de) 2013-06-21 2013-06-21 Formgebungsanlage mit Gestensteuerung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
AT5092013A AT514528A1 (de) 2013-06-21 2013-06-21 Formgebungsanlage mit Gestensteuerung

Publications (1)

Publication Number Publication Date
AT514528A1 true AT514528A1 (de) 2015-01-15

Family

ID=52273674

Family Applications (1)

Application Number Title Priority Date Filing Date
AT5092013A AT514528A1 (de) 2013-06-21 2013-06-21 Formgebungsanlage mit Gestensteuerung

Country Status (1)

Country Link
AT (1) AT514528A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017204629A1 (de) * 2017-03-20 2018-09-20 Robert Bosch Gmbh System mit einem werkzeug und verfahren zum führen eines benutzers eines werkzeugs bei einer behandlung mindestens eines werkstücks

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004108348A2 (de) * 2003-06-06 2004-12-16 Siemens Aktiengesellschaft Werkzeug- oder produktionsmaschine mit anzeigeeinheit zur visualisierung von arbeitsabläufen
US20100150399A1 (en) * 2008-12-12 2010-06-17 Miroslav Svajda Apparatus and method for optical gesture recognition
CN102350700A (zh) * 2011-09-19 2012-02-15 华南理工大学 一种基于视觉的机器人控制方法
WO2012126426A2 (zh) * 2012-05-21 2012-09-27 华为技术有限公司 一种非接触式手势控制方法及装置
DE102011075467A1 (de) * 2011-05-06 2012-11-08 Deckel Maho Pfronten Gmbh Vorrichtung zum bedienen einer automatisierten maschine zur handhabung, montage oder bearbeitung von werkstücken
WO2012153401A1 (ja) * 2011-05-11 2012-11-15 三菱電機株式会社 数値制御装置
AT511487A1 (de) * 2011-06-09 2012-12-15 Engel Austria Gmbh Bedieneinheit für eine spritzgiessmaschine
TW201314495A (zh) * 2011-09-16 2013-04-01 Gi Yi Electromic Co Ltd 3d手勢控制系統與控制方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004108348A2 (de) * 2003-06-06 2004-12-16 Siemens Aktiengesellschaft Werkzeug- oder produktionsmaschine mit anzeigeeinheit zur visualisierung von arbeitsabläufen
US20100150399A1 (en) * 2008-12-12 2010-06-17 Miroslav Svajda Apparatus and method for optical gesture recognition
DE102011075467A1 (de) * 2011-05-06 2012-11-08 Deckel Maho Pfronten Gmbh Vorrichtung zum bedienen einer automatisierten maschine zur handhabung, montage oder bearbeitung von werkstücken
WO2012153401A1 (ja) * 2011-05-11 2012-11-15 三菱電機株式会社 数値制御装置
AT511487A1 (de) * 2011-06-09 2012-12-15 Engel Austria Gmbh Bedieneinheit für eine spritzgiessmaschine
TW201314495A (zh) * 2011-09-16 2013-04-01 Gi Yi Electromic Co Ltd 3d手勢控制系統與控制方法
CN102350700A (zh) * 2011-09-19 2012-02-15 华南理工大学 一种基于视觉的机器人控制方法
WO2012126426A2 (zh) * 2012-05-21 2012-09-27 华为技术有限公司 一种非接触式手势控制方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Multivac "Mulitivac Benuteroberfläche HMI 2.0 Bedienkomfort in einer neuen Dimension" 05/2010; abgerufen am 27.05.2014 im Internet unter URL: <http://www.multivac.at/fileadmin/multivac/de/emag/multivac/ multivac-hmi-2/pdf/multivac-hmi-20-de.pdf> *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017204629A1 (de) * 2017-03-20 2018-09-20 Robert Bosch Gmbh System mit einem werkzeug und verfahren zum führen eines benutzers eines werkzeugs bei einer behandlung mindestens eines werkstücks

Similar Documents

Publication Publication Date Title
EP2709803B2 (de) Verfahren zur manuell gesteuerten beeinflussung von bewegungen einer maschine oder anlage sowie entsprechende maschinensteuerung
DE102012218297B4 (de) Verfahren zur dynamischen Optimierung einer Robotersteuerschnittstelle
DE102016208811B3 (de) Mobile Sicherheits-Grundsteuervorrichtung mit einer Kodiervorrichtung für ein mobiles Endgerät mit Multi-Touchscreen
DE102015105687B4 (de) Roboter
EP2920656B1 (de) Verfahren zum sicheren und bewussten aktivieren von funktionen und/oder bewegungen einer steuerbaren technischen einrichtung
DE10325894B4 (de) Werkzeug- oder Produktionsmaschine mit Anzeigeeinheit zur Visualisierung von Arbeitsabläufen
DE102015011830C5 (de) Robotersystem zum Einstellen eines Bewegungsüberwachungsbereichs eines Roboters
EP2100197A1 (de) Bedieneinheit mit touchscreen-tasten
EP2846249B1 (de) Verzahnmaschine mit multitouch-fähigem Display
EP3098034B1 (de) Auswahl eines gerätes oder eines objektes mit hilfe einer kamera
AT10596U1 (de) Konfigurierung von maschinenablaufen
DE102018009025A1 (de) Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems
EP2883738A2 (de) Verfahren und Anordnung zum Steuern von Funktionen eines Kraftfahrzeugs
DE102017002486B4 (de) Werkzeugmaschinensystem und Vorrichtung zur Berechnung der Öffnungsanhalteposition
EP2596409B1 (de) Vorrichtung sowie verfahren zur steuerung eines prozessverlaufs bei der herstellung von teilen
EP3336628A1 (de) Verfahren und mobile vorrichtung zur analyse eines produktionsablaufes einer produktionsmaschine, sowie computerprogramm, set zur analyse des produktionsablaufes der produktionsmaschine und koffer
WO2013053529A1 (de) Bediensystem und verfahren zur darstellung einer bedienfläche
DE102004062163A1 (de) Verfahren zur Ermittlung einer möglichen Kollision mindestens zweier zueinander beweglicher Objekte
WO2017186369A1 (de) Bedienpanel zum steuern einer industriellen anlage
AT514528A1 (de) Formgebungsanlage mit Gestensteuerung
EP2735425A2 (de) Bedieneinheit für eine Spritzgießmaschine
DE112017004159T5 (de) Schleifmaschine
EP3298477A1 (de) Verfahren zum betreiben einer bedienvorrichtung sowie bedienvorrichtung für ein kraftfahrzeug
EP3312711A1 (de) Verfahren zur schnellen navigation in einer benutzeroberfläche, verfahren zum herstellen eines produkts aus thermoplastischem kunststoff, anlagensteuerung zur schnellen navigation in einer benutzeroberfäche und anlage zum herstellen eines produkts aus thermoplastischem kunststoff
DE102014224599A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung