AT514528A1 - Formgebungsanlage mit Gestensteuerung - Google Patents
Formgebungsanlage mit Gestensteuerung Download PDFInfo
- Publication number
- AT514528A1 AT514528A1 AT5092013A AT5092013A AT514528A1 AT 514528 A1 AT514528 A1 AT 514528A1 AT 5092013 A AT5092013 A AT 5092013A AT 5092013 A AT5092013 A AT 5092013A AT 514528 A1 AT514528 A1 AT 514528A1
- Authority
- AT
- Austria
- Prior art keywords
- shaping
- gesture
- gesture control
- shaping system
- user
- Prior art date
Links
- 238000007493 shaping process Methods 0.000 title claims abstract description 29
- 238000004519 manufacturing process Methods 0.000 claims abstract description 5
- 230000003287 optical effect Effects 0.000 claims description 16
- 230000002093 peripheral effect Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 3
- 230000003139 buffering effect Effects 0.000 claims 1
- 238000005253 cladding Methods 0.000 claims 1
- 238000009434 installation Methods 0.000 claims 1
- 238000000465 moulding Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 238000001746 injection moulding Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23Q—DETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
- B23Q17/00—Arrangements for observing, indicating or measuring on machine tools
- B23Q17/24—Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/409—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Robotics (AREA)
- Manufacturing & Machinery (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Optics & Photonics (AREA)
- Numerical Control (AREA)
Abstract
Formgebungsanlage (12) mit einer Einrichtung zur Produktion von Formteilen und mit einer Bedieneinheit (2) wobei die Formgebungsanlage (12) mit ihrer Bedieneinheit (2) durch eine Gestensteuerung (7) von zumindest einem angemeldeten Benutzer berührungslos über dessen Gesten bedienbar ausgebildet ist, wobei die Gestensteuerung (7) zumindest eine Erkennungsvorrichtung (1), eine Interpretationsvorrichtung (5) und einen Konverter (6) aufweist.
Description
Die Erfindung betrifft eine Formgebungsanlage mit einer Einrichtung zur Produktionvon Formteilen und mit einer Bedieneinheit.
Eine Formgebungsanlage besteht aus einer Formgebungsmaschine wiebeispielsweise einer Spritzgießmaschine, Spritzpresse, Presse oder dergleichen,optional zumindest einem Roboter und optional mindestens einem Peripheriegerät,welche mit einer Bedieneinheit und einem Steuerungsrechner zur Steuerung undRegelung der Anlage verbunden sind. An dieser Bedieneinheit könnenbeispielsweise auch diverse Parameter, Befehle und andere Werte visualisiert,eingestellt und eingegeben werden.
Aufgabe der Erfindung istes, eine gegenüber dem Stand der Technik verbesserteFormgebungsanlage anzugeben. Insbesondere sollte die Bedienung der genanntenFormgebungsanlage für einen und/oder mehrere Benutzer ergonomischer undeinfacher gestaltet und somit auch ein verbessertes Maß an Produktionszeit undProduktionsaufwand erzielbar sein.
Dies wird erfindungsgemäß dadurch erreicht, dass die Formgebungsanlage mit ihrerBedieneinheit durch eine Gestensteuerung von zumindest einem angemeldetenBenutzer berührungslos über dessen Gesten bedienbar ausgebildet ist, wobei dieGestensteuerung zumindest eine Erkennungsvorrichtung, eineInterpretationsvorrichtung und einen Konverter aufweist. Beispiele fürerfindungsgemäße Formgebungsanlagen sind, besonders bevorzugt,Spritzgießanlagen mit einer Spritzgießmaschine, Spritzpresse, Presse oderdergleichen.
Weitere Einzelheiten und Vorteile der vorliegenden Erfindung werden anhand derFigurenbeschreibung unter Bezugnahme auf die in den Zeichnungen dargestelltenAusführungsbeispiele im Folgenden näher erläutert.
Darin zeigt:
Fig. 1 als Beispiel eine Formgebungsanlage 12 in Form einer Spritzgießanlage miteiner Formgebungsmaschine 3, ausgeführt als Spritzgießmaschine, Spritzpresse,Presse oder dergleichen, einem entsprechenden Peripheriegerät 9, einen Roboter 8,eine Gestensteuerung 7 mit einer optischen Erkennungsvorrichtung 1 gekoppelt miteiner Bedieneinheit 2 und einem Steuerungsrechner 10, welcher beispielsweise mitder Formgebungsmaschine 3 verbunden ist.
Fig. 2 eine Gestensteuerung 7 mit einer optischen Erkennungsvorrichtung 1, einerSpeichervorrichtung 4, einer Interpretationsvorrichtung 5 und einen Konverter 6.
Fig. 1 zeigt schematisch eine Gestensteuerung 7 mit einer optischenErkennungsvorrichtung 1 gekoppelt mit einer Bedieneinheit 2 und einemSteuerungsrechner 10, welcher beispielsweise mit der Formgebungsmaschine 3verbunden ist. Weiters ist optional zumindest ein Roboter 8 und/ oder einPeripheriegerät 9 an die Bedieneinheit 2 gekoppelt. Ein Peripheriegerät 9 kannbeispielsweise eine Fördereinrichtung oder Entnahmeeinrichtung sein, welche zumBeispiel für die Beförderung von Formteilen, Werkzeugen oder ähnlichem verwendetwerden. Für die Erkennung und Interpretation von Gesten durch die Gestensteuerung 7 istzumindest eine optische Erkennungsvorrichtung 1 vorgesehen, welche die erfasstenBewegungen einer Interpretationsvorrichtung 5 zur Verfügung stellt. Der Konverter 6wandelt die so gewonnenen Daten um und gibt diese an die Bedieneinheit 2 weiter.Die Bedieneinheit 2 verarbeitet die so eingehenden Informationen und gibt dieseüber den Steuerungsrechner 10 gegebenenfalls and die Formgebungsmaschine 3,dem Roboter 8 oder dem Peripheriegerät 9 weiter oder zeigt diese an einemBildschirm an.
Die Darstellung der optischen Erkennungsvorrichtung 1, der Bedieneinheit 2, derFormgebungsmaschine 3 und des Steuerungsrechners 10 in Figur 1 ist nurschematisch und gibt keine Rückschlüsse darüber, wie die einzelnen Komponentenin der Formgebungsanlage 12 örtlich angeordnet sind; so kann beispielsweise dieoptische Erkennungsvorrichtung 1 direkt an der Bedieneinheit 2 und/oder derFormgebungsmaschine 3 fixiert und/oder alternativ auch mobil ausgeführt sein.
Somit kann die Gestensteuerung 7 auch an einem beliebigen Ort derFormgebungsanlage 12 verwendet werden. Durch diese Anordnungsbeispielekönnen nun durch die Bewegungen des Benutzers im dreidimensionalen RaumBefehle an die Gestensteuerung 7 weitergegeben werden.
Die Gestensteuerung 7 kann beispielsweise für folgende Aktionen verwendbar sein:Navigation in der Ausgabeeinheit, Auswahl von Eingabefeldern, Einstellen oderÄndern von Einstellparametern, Auslösen von Aktionen, Steuern/Regeln vonBewegungen. Diese Aktionen werden nun etwas genauer erläutert:
Navigation: Eine Bedieneinheit 2 kann zum Beispiel ein Bildschirm oder Touchscreensein. Hier kann ein Auswahlen der einzelnen Bildschirmseiten in der Menuführung ander Bedieneinheit 2 erfolgen. Auch die bekannten Grundfunktionen wie Scrollen,Blättern, Vergrößern und Verkleinern der einzelnen Ansichten können navigiertwerden. Weiters kann das Bewegen des Cursors mittels Gestensteuerung erfolgen.
Auswahl: Die Auswahl von Einstellparametern, Eingabefeldern, Zahlenwerten,beispielsweise Soll- und Istwerten, Diagrammen und/oder jeder anderen Art vonElementen in der Menuführung an der Bedieneinheit 2 kann zu deren Ansicht oderzur späteren Veränderung vorgenommen werden.
Einstellen oder Ändern der Parameter: Die ausgewählten Einstellparameter oder dieanderen vorhin genannten Elemente können an der Bedieneinheit (2) dann über dieGestensteuerung verändert werden. Diese Einstellparameter können beispielsweiseSollwerte (Position, Geschwindigkeit und Drücke), Sollwertprofile,
Bildschirmhelligkeit, Uhrzeit und Datum sein. Dabei kann zum Beispiel diePositionsänderung, die Geschwindigkeit oder die Beschleunigung der Geste, welchedurch den Bediener ausgeführt wird, in einen Absolutwert des Sollwertes oder einerelative Änderung des neuen zum alten Sollwert umgerechnet werden.
Als Beispiel: Der Benutzer legt die Hand für eine vorgegebene Mindestzeit(beispielsweise eine Sekunde) auf die optische Erkennungsvorrichtung 1. Dannentfernt der Benutzer seine Hand um einen bestimmten Abstand und stoppt dieBewegung anschließend für eine vorgegebene Mindestzeit. Die optische
Erkennungsvorrichtung 1 erkennt den Weg, welcher von der Hand des Benutzerszurückgelegt wird. Die erkannte Bewegung wird von der Interpretationsvorrichtung 5ausgewertet. Mittels Konverter 6 wird nun aus den ausgewerteten Daten derInterpretationsvorrichtung 5 der Eingabesollwert für die Bedieneinheit 2umgewandelt. So kann der Abstand „null“ als Messwert der optischenErkennungsvorrichtung 1 einem Eingabewert „null“ an der Bedieneinheit 2entsprechen, der Abstand von einem Meter, gemessen durch die optischeErkennungsvorrichtung 1 könnte dem Maximalwert für die Bedieneinheit 2entsprechen. Aus dem Wert „null“ und einem Meter kann nun durch lineareInterpolation die Berechnung des gewünschten Eingabewerts an die Bedieneinheit 2erfolgen. Während der Bediener die Bewegung durchführt, wird in Echtzeit an derBedieneinheit 2 der entsprechende Eingabewert zur Handposition angezeigt. Dieskann dem Bediener dabei helfen, über seine Geste den gewünschten Eingabewertsehr genau zu erreichen.
Alternativ und/oder zusätzlich kann auch eine geschwindigkeitsabhängige In-und/oder Dekrementierung des Eingabewerts an der Gestensteuerung erfolgen. Dieskann bedeuten, dass verhältnismäßig schnelle Bewegungen die Sollwerte in großenSchritten verändern, langsame aber die Schrittweite reduzieren.
Anstelle der Eingabe zur Änderung von Geschwindigkeits- oder anderenSollwertprofilen mittels Einzelwerten, wie zum Beispiel durch Zahlenwerte, kann auchdas gesamte Profil aus der Geste interpretiert werden. UnterschiedlicheBewegungsgeschwindigkeiten aus der Geste des Benutzers können über denKonverter 6 etwa direkt in ein Geschwindigkeits-Sollwertprofil umgewandelt werden.Denkbar kann es auch sein, dass man das Sollwertprofil vor derErkennungsvorrichtung 1 „nachzeichnen“ könnte, indem man es in dendreidimensionalen Raum zeichnet. Dabei kann die Bewegung in der erstenDimension als X-Achse und die in der zweiten Dimension als Y-Achse über dieInterpretationsvorrichtung 5 und den Konverter 6 als neuer Sollwert für das Profil andie Bedieneinheit 2 weitergegeben werden.
Auslösen von Aktionen: Befehle, die bisher durch das Betätigen einer Hardware-Komponente wie beispielsweise einer Maustaste, Taste auf der Tastatur oder einer
Bildschirmtaste (Touchscreen) eingeleitet wurden, können nun durch Gesteneingeleitet werden. Beispielsweise das Starten einzelner Bewegungen im gesamtenAutomatikzyklus der Formgebungsanlage 12 wie Öffnen und/oder Schließen derSchutzeinrichtungen oder Speichern von Datensätzen, etc. sind nun durch eineGeste auslösbar.
Steuerung und Regelung von Bewegungen: In diesem Fall sind als BeispielBewegungen an der Formgebungsmaschine 3, dem Peripheriegerät 9 oder auchdem Roboter 8 durch die Geste nicht nur auslösbar, es sind auch die Positionen,Geschwindigkeiten oder Beschleunigungen aus der Geste des Bedieners herausinterpretierbar, welche in weiterer Folge die entsprechende Reaktion an derFormgebungsmaschine 3, dem Roboter 8 und/oder auch dem Peripheriegerät 9beeinflussbar ausgestalten. Dabei ist es unerheblich, ob die Reaktion an derMaschine gleichzeitig mit der Geste oder erst nach Abschluss und nochmaligerBestätigung durch einen Benutzer erfolgt. Als Beispiel zur Anwendung kann hier das„Teachen“, sprich Einlernen, der Roboterbewegungen genannt werden.
Die Aktivierung und Deaktivierung der Gestensteuerung 7 und die Identifizierung desBenutzers sind wichtige Bestandteile des Systems, um ein unbeabsichtigtesAuslösen von Aktionen verhindern zu können. Der Benutzer, der befugt ist dieMaschine zu bedienen, wird identifiziert. Hier ist jedes heute bekannteIdentifizierungsverfahren anwendbar. Diese Aufgabe ist aber auch durch die optischeErkennungsvorrichtung 1 erfolgbar, indem der Benutzer durch seine biometrischenMerkmale erkannt wird. Es ist aber auch durch spezielle Gesten, wie beispielsweise„An- und Abmeldegesten“, eine Identifizierung des Bedieners realisierbar.
Die optische Erkennungsvorrichtung 1 darf mit der Interpretation der Gesten nurdefiniert starten und diese auch beenden. Sozusagen kann mittels einerbeispielsweise „Start-/Stoppgeste“ der Vorgang der Gestenerkennung begonnenoder beendet werden. Als Beispiel können die folgenden zwei Varianten dienen,welche ein versehentliches Anlaufen einer Aktion in der Spritzgussvorrichtung 12verhindern wie eine Zweihand-Gesten Variante, welche mit der Position der linkenHand kennzeichnet, in welchem Zeitraum die Geste der rechten Hand zu interpretieren ist oder einer zweiten Zweihand-Gesten Variante, bei welcher beideHände dieselbe Geste durchführen.
Eine weitere Möglichkeit kann natürlich auch ein klassischer Ein-Aus Schalter sein,welcher die Gestensteuerung aktiviert oder deaktiviert.
Einem Benutzer wird es vorzugsweise ermöglicht, eine Rückmeldung durch dieGestensteuerung zu bekommen, um sich orientieren zu können. Anders als beieinem Touchscreen fehlt dem Benutzer eine Ebene, die bei der Orientierung hilfreicherscheint. Bewegt man sich nämlich im dreidimensionalen Raum kann hierbeispielsweise auf visuelle oder akustische Rückmeldungen zurückgegriffen werden,um dem Bediener eine Hilfestellung zu bieten. Die einfachste Möglichkeit kanneinfach eine Rückmeldung über die Bedieneinheit 2 sein. Eine weitere Möglichkeitwäre die Projektion einer Rückmeldung auf eine Fläche, wie auf dieMaschinenverkleidung, Schutzumwehrung oderaufeine Spezialbrille.
Das System kann in weiterer Folge zusätzliche Funktionen aufweisen, die dasArbeiten mit der Gestensteuerung zusätzlich erleichtern. Hier kann beispielsweiseeine fertig vorbelegte „Shortcut-Geste“ eine fertig vorbelegte Aktion hervorrufen undden Weg dahin sozusagen abkürzen.
Eine andere Art der Erleichterung kann sein, dass die optischeErkennungsvorrichtung 1 den Benutzer „verfolgt“, sobald sich dieser im Raumbewegt. Die optische Erkennungsvorrichtung 1 muss hierfür beweglich ausgestaltetsein und/oder über einen entsprechenden Antriebsmechanismus verfügen.
Fig. 2 zeigt schematisch ein weiteres Beispiel einer Gestensteuerung 7 mit eineroptischen Erkennungsvorrichtung 1 und einer internen Speichervorrichtung 4. DieFunktion der Gestensteuerung 7 entspricht im Wesentlichen der Beschreibung derFig. 1, mit dem Unterschied, dass die von der Erkennungsvorrichtung 1 gewonnenenInformationen aus den erfassten Bewegungen nicht direkt an dieInterpretationsvorrichtung 5 und den Konverter 6 weitergereicht, sondern vorerst ineiner internen Speichervorrichtung 4 genutzt werden, um die Geste des Bedieners als Istwert mit den Daten, die sich als Sollwert in der Speichervorrichtung 4 befinden,zu vergleichen. Die Gestensteuerung wird in weiterer Folge an der Schnittstelle 11an die Bedieneinheit 2 und den Steuerungsrechner 10 angeschlossen.
Claims (13)
- Patentansprüche 1. Formgebungsanlage (12) mit einer Einrichtung zur Produktion von Formteilenund mit einer Bedieneinheit (2) dadurch gekennzeichnet, dass dieFormgebungsanlage (12) mit ihrer Bedieneinheit (2) durch eineGestensteuerung (7) von zumindest einem angemeldeten Benutzerberührungslos über dessen Gesten bedienbar ausgebildet ist, wobei dieGestensteuerung (7) zumindest eine Erkennungsvorrichtung (1), eineInterpretationsvorrichtung (5) und einen Konverter (6) aufweist.
- 2. Formgebungsanlage (12) nach Anspruch 1, dadurch gekennzeichnet, dasszumindest ein Roboter (8) und/oder Peripheriegeräte (9) derFormgebungsanlage (12) über die Gestensteuerung (7) bedienbar sind.
- 3. Formgebungsanlage (12) nach Anspruch 1 oder 2, dadurch gekennzeichnet,dass die zumindest eine optische Erkennungsvorrichtung (1) an derFormgebungsmaschine (3), insbesondere deren Verkleidungselemente oderder Bedieneinheit (2) befestigt ist.
- 4. Formgebungsanlage (12) nach Anspruch 1 oder 2, dadurch gekennzeichnet,dass die Gestensteuerung (7) mobil anwendbar ist.
- 5. Formgebungsanlage (12) nach Anspruch 4, dadurch gekennzeichnet, dass dieGestensteuerung (7) bewegbar ausgeführt ist und vorzugsweise dem Benutzermittels Antrieb folgt und seine Gesten erfasst, sobald sich dieser im Raumbewegt.
- 6. Formgebungsanlage (12) nach einem der Ansprüche 1 bis 5, dadurchgekennzeichnet, dass die Gestensteuerung (7) durch eine Start/Stopp-Gesteund/oder durch einen Schalter aktivierbar oder deaktivierbar ist.
- 7. Formgebungsanlage (12) nach Anspruch 1 bis 7, dadurch gekennzeichnet,dass für die Gestensteuerung (7) die biometrischen Merkmale des Benutzers identifizierbar sind und dieser an der Bedieneinheit (2) der Formgebungsanlage (12) anmeldbar ist.
- 8. Formgebungsanlage (12) nach Anspruch 1, dadurch gekennzeichnet, dass dieGestensteuerung (7) eine Erkennungsgeste des Benutzers erfassbar ist unddiesen an der Bedieneinheit (2) der Formgebungsanlage (12) anmeldet.
- 9. Formgebungsanlage (12) nach Anspruch 1,7 und 8 dadurch gekennzeichnet,dass die Formgebungsanlage (12) nur durch den angemeldeten Benutzerbedienbar ist.
- 10. Formgebungsanlage (12) nach Anspruch 1, dadurch gekennzeichnet, dass fürdie Formgebungsmaschine (3), Bedieneinheit (2), Roboter (8) undPeripheriegeräte (9) relevante Parameter durch die Gestensteuerung (7)veränderbar sind.
- 11. Formgebungsanlage (12) nach Anspruch 1, dadurch gekennzeichnet, dass fürdie Identifizierung eines Benutzers relevanten Parameter durch dieGestensteuerung (7) veränderbar sind.
- 12. Formgebungsanlage (12) nach Anspruch 1, dadurch gekennzeichnet, dassnach erkannter Geste für den Benutzer ein charakteristisches Signal von derFormgebungsanlage (12) wahrnehmbar ist.
- 13. Formgebungsanlage (12) nach Anspruch 1 bis 12, dadurch gekennzeichnet,dass die Gestensteuerung (7) optional eine in der Gestensteuerung (7)befindliche Speichervorrichtung (4) zum Zwischenspeichern der durch dieGesten erfassten Informationen aufweist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AT5092013A AT514528A1 (de) | 2013-06-21 | 2013-06-21 | Formgebungsanlage mit Gestensteuerung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AT5092013A AT514528A1 (de) | 2013-06-21 | 2013-06-21 | Formgebungsanlage mit Gestensteuerung |
Publications (1)
Publication Number | Publication Date |
---|---|
AT514528A1 true AT514528A1 (de) | 2015-01-15 |
Family
ID=52273674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
AT5092013A AT514528A1 (de) | 2013-06-21 | 2013-06-21 | Formgebungsanlage mit Gestensteuerung |
Country Status (1)
Country | Link |
---|---|
AT (1) | AT514528A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017204629A1 (de) * | 2017-03-20 | 2018-09-20 | Robert Bosch Gmbh | System mit einem werkzeug und verfahren zum führen eines benutzers eines werkzeugs bei einer behandlung mindestens eines werkstücks |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004108348A2 (de) * | 2003-06-06 | 2004-12-16 | Siemens Aktiengesellschaft | Werkzeug- oder produktionsmaschine mit anzeigeeinheit zur visualisierung von arbeitsabläufen |
US20100150399A1 (en) * | 2008-12-12 | 2010-06-17 | Miroslav Svajda | Apparatus and method for optical gesture recognition |
CN102350700A (zh) * | 2011-09-19 | 2012-02-15 | 华南理工大学 | 一种基于视觉的机器人控制方法 |
WO2012126426A2 (zh) * | 2012-05-21 | 2012-09-27 | 华为技术有限公司 | 一种非接触式手势控制方法及装置 |
DE102011075467A1 (de) * | 2011-05-06 | 2012-11-08 | Deckel Maho Pfronten Gmbh | Vorrichtung zum bedienen einer automatisierten maschine zur handhabung, montage oder bearbeitung von werkstücken |
WO2012153401A1 (ja) * | 2011-05-11 | 2012-11-15 | 三菱電機株式会社 | 数値制御装置 |
AT511487A1 (de) * | 2011-06-09 | 2012-12-15 | Engel Austria Gmbh | Bedieneinheit für eine spritzgiessmaschine |
TW201314495A (zh) * | 2011-09-16 | 2013-04-01 | Gi Yi Electromic Co Ltd | 3d手勢控制系統與控制方法 |
-
2013
- 2013-06-21 AT AT5092013A patent/AT514528A1/de unknown
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004108348A2 (de) * | 2003-06-06 | 2004-12-16 | Siemens Aktiengesellschaft | Werkzeug- oder produktionsmaschine mit anzeigeeinheit zur visualisierung von arbeitsabläufen |
US20100150399A1 (en) * | 2008-12-12 | 2010-06-17 | Miroslav Svajda | Apparatus and method for optical gesture recognition |
DE102011075467A1 (de) * | 2011-05-06 | 2012-11-08 | Deckel Maho Pfronten Gmbh | Vorrichtung zum bedienen einer automatisierten maschine zur handhabung, montage oder bearbeitung von werkstücken |
WO2012153401A1 (ja) * | 2011-05-11 | 2012-11-15 | 三菱電機株式会社 | 数値制御装置 |
AT511487A1 (de) * | 2011-06-09 | 2012-12-15 | Engel Austria Gmbh | Bedieneinheit für eine spritzgiessmaschine |
TW201314495A (zh) * | 2011-09-16 | 2013-04-01 | Gi Yi Electromic Co Ltd | 3d手勢控制系統與控制方法 |
CN102350700A (zh) * | 2011-09-19 | 2012-02-15 | 华南理工大学 | 一种基于视觉的机器人控制方法 |
WO2012126426A2 (zh) * | 2012-05-21 | 2012-09-27 | 华为技术有限公司 | 一种非接触式手势控制方法及装置 |
Non-Patent Citations (1)
Title |
---|
Multivac "Mulitivac Benuteroberfläche HMI 2.0 Bedienkomfort in einer neuen Dimension" 05/2010; abgerufen am 27.05.2014 im Internet unter URL: <http://www.multivac.at/fileadmin/multivac/de/emag/multivac/ multivac-hmi-2/pdf/multivac-hmi-20-de.pdf> * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017204629A1 (de) * | 2017-03-20 | 2018-09-20 | Robert Bosch Gmbh | System mit einem werkzeug und verfahren zum führen eines benutzers eines werkzeugs bei einer behandlung mindestens eines werkstücks |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2709803B2 (de) | Verfahren zur manuell gesteuerten beeinflussung von bewegungen einer maschine oder anlage sowie entsprechende maschinensteuerung | |
DE102012218297B4 (de) | Verfahren zur dynamischen Optimierung einer Robotersteuerschnittstelle | |
DE102016208811B3 (de) | Mobile Sicherheits-Grundsteuervorrichtung mit einer Kodiervorrichtung für ein mobiles Endgerät mit Multi-Touchscreen | |
DE102015105687B4 (de) | Roboter | |
EP2920656B1 (de) | Verfahren zum sicheren und bewussten aktivieren von funktionen und/oder bewegungen einer steuerbaren technischen einrichtung | |
DE10325894B4 (de) | Werkzeug- oder Produktionsmaschine mit Anzeigeeinheit zur Visualisierung von Arbeitsabläufen | |
DE102015011830C5 (de) | Robotersystem zum Einstellen eines Bewegungsüberwachungsbereichs eines Roboters | |
EP2100197A1 (de) | Bedieneinheit mit touchscreen-tasten | |
EP2846249B1 (de) | Verzahnmaschine mit multitouch-fähigem Display | |
EP3098034B1 (de) | Auswahl eines gerätes oder eines objektes mit hilfe einer kamera | |
AT10596U1 (de) | Konfigurierung von maschinenablaufen | |
DE102018009025A1 (de) | Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems | |
EP2883738A2 (de) | Verfahren und Anordnung zum Steuern von Funktionen eines Kraftfahrzeugs | |
DE102017002486B4 (de) | Werkzeugmaschinensystem und Vorrichtung zur Berechnung der Öffnungsanhalteposition | |
EP2596409B1 (de) | Vorrichtung sowie verfahren zur steuerung eines prozessverlaufs bei der herstellung von teilen | |
EP3336628A1 (de) | Verfahren und mobile vorrichtung zur analyse eines produktionsablaufes einer produktionsmaschine, sowie computerprogramm, set zur analyse des produktionsablaufes der produktionsmaschine und koffer | |
WO2013053529A1 (de) | Bediensystem und verfahren zur darstellung einer bedienfläche | |
DE102004062163A1 (de) | Verfahren zur Ermittlung einer möglichen Kollision mindestens zweier zueinander beweglicher Objekte | |
WO2017186369A1 (de) | Bedienpanel zum steuern einer industriellen anlage | |
AT514528A1 (de) | Formgebungsanlage mit Gestensteuerung | |
EP2735425A2 (de) | Bedieneinheit für eine Spritzgießmaschine | |
DE112017004159T5 (de) | Schleifmaschine | |
EP3298477A1 (de) | Verfahren zum betreiben einer bedienvorrichtung sowie bedienvorrichtung für ein kraftfahrzeug | |
EP3312711A1 (de) | Verfahren zur schnellen navigation in einer benutzeroberfläche, verfahren zum herstellen eines produkts aus thermoplastischem kunststoff, anlagensteuerung zur schnellen navigation in einer benutzeroberfäche und anlage zum herstellen eines produkts aus thermoplastischem kunststoff | |
DE102014224599A1 (de) | Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung |