EP3140083A1 - Bedieneinrichtung und steuersystem - Google Patents

Bedieneinrichtung und steuersystem

Info

Publication number
EP3140083A1
EP3140083A1 EP15728382.1A EP15728382A EP3140083A1 EP 3140083 A1 EP3140083 A1 EP 3140083A1 EP 15728382 A EP15728382 A EP 15728382A EP 3140083 A1 EP3140083 A1 EP 3140083A1
Authority
EP
European Patent Office
Prior art keywords
control
operating
visualization
data
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP15728382.1A
Other languages
English (en)
French (fr)
Inventor
Helmut Bugl
Benjamin HACKL
Semir HAMZIC
Andreas MÜLLER
Thomas Wurm
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keba AG
Original Assignee
Keba AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keba AG filed Critical Keba AG
Publication of EP3140083A1 publication Critical patent/EP3140083A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q15/00Automatic control or regulation of feed movement, cutting velocity or position of tool or work
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/10Plc systems
    • G05B2219/13Plc programming
    • G05B2219/13031Use of touch screen
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/23Pc programming
    • G05B2219/23044Transparent overlay with touch sensors, put over display panel, select function
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/23Pc programming
    • G05B2219/23377Touch screen, with representation of buttons, machine on screen
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36168Touchscreen

Definitions

  • the invention relates to an operating device according to the preamble of claim 1, a control system according to the preamble of claim 19, a method for controlling a machine or system, and a method for creating a graphical user interface for the visualization device of an operating device and / or a control system.
  • the problem underlying the invention is that so far the inputs on the touch screen of an HMI device (e.g., control panel or handheld terminal) have not been satisfactorily, i. only limited real-time capable detected and can be forwarded in real time as control commands to a machine control.
  • the HMI device (control panel or handheld terminal) has a processor and memory that performs software both for displaying information to the user and for detecting inputs by the user and communicating with the controller of a machine via a suitable data interface and exchanges information as well as sends commands to the machine control.
  • This software Even complex process diagrams, machine graphics, process data, etc. can be graphically presented and animated on a case-by-case basis.
  • the essential parts of this software are usually an operating system (eg Windows or Linux) with integrated support for graphical user interfaces under which then a device-specific basic software for the control panel or the handheld terminal (eg drivers, function libraries) and a machine software. specific application software will be executed.
  • machine-specific software components for the operation and visualization can also be executed only on the machine control itself and the communication between the HMI device and the machine control can take place in a generally held format, eg in the manner of an HTTP server in the machine control and a browser on the HMI device.
  • the device-specific basic software is developed and provided by the manufacturer of the HMI device.
  • the machine-specific application software is usually developed and provided by the manufacturer of the machine or system in which the HMI device is integrated, whereby the machine manufacturer uses software tools and libraries of the HMI device manufacturer to create this machine-specific software, in particular the screen masks ,
  • the object of the invention is to eliminate the disadvantages of the prior art and to provide an operating device or a control system, on the one hand, from which the advantages of using the widely used (open) operating systems and the tools for creating and configuring remain graphical user interfaces (eg their powerful libraries for the graphical output), but still a reliable real-time capable evaluation of touch operations including forwarding to the control device of the machine or system is enabled.
  • the use of additional controls next to the touch screen should be avoided.
  • an off-value device which is connected to the touch sensor of the touch screen and which comprises a real-time data processing device and an output interface, wherein the real-time data processing device of the output device is set up to operate in dependence to generate control commands for the control device and to provide them at the output interface, the real-time data processing device of the evaluation device being independent of the data processing device of the visualization device.
  • the generation and provision of the control commands for the control device at the output interface takes place uninfluenced by the time of the data processing device of the / a visualization device.
  • the time sequence or the speed of the data processing in the data processing device of the value device is independent of the data processing device of the visualization device.
  • the data processing in the data processing device of the value device is therefore independent of a processing process running on the data processing device of the visualization device.
  • the generation of the control commands in the data processing device of the evaluation unit, its provision or transmission to the control device can thus be done by bypassing the data processing device of the visualization device or the interface for the visualization device.
  • the generation of real-time-critical control commands for the control device takes place according to the invention separately from the visualization of the control elements by a visualization device.
  • the visualization device may be located within the operator device (e.g., in the form of a handheld device) or external to it.
  • the evaluation device or the data processing device of the evaluation device forms, with reference to the visualization device or the data processing device of the visualization device, a bypass path (bypass) between the touch sensor and the control device, so to speak ,
  • This bypass path allows the processing of sensor data and the provision of control commands in real time and thus enables real-time control of a machine or plant, bypassing the visualization device or its data processing device.
  • the evaluation device and the visualization device are connected in parallel between the touch sensor and the control device.
  • the data processing means of the evaluator and the visualizer may be separate (i.e., stand-alone) processors, or may be functionally separate (i.e., stand-alone) cores of a processor unit.
  • a common, real-time-capable bus for the control device, visualization unit and evaluation unit can be provided and, as it were, looped through to the evaluation unit by the visualization unit.
  • the visualization device and the evaluation device are structurally combined and have a common real-time capable data bus (or mixed: real-time capable and non-realtime). real-time capable) to the controller have out.
  • Such variants do not change the basic principle that the data from the data processing device of the evaluation device (temporally) uninfluenced by the data processing device of the visualization device reach the control device via the common bus.
  • an independent output interface (not shared with the visualization device) of the value-value device and a separate real-time-capable data connection are preferably transmitted to the control device.
  • the visualization device can be used in addition to the visualization function, i. Providing output data / image data for the display (as before) for generating and providing non-real-time control commands or machine or system parameters.
  • the control system according to the invention can therefore, in addition to the real-time capable (bypass) path, which is formed by the evaluation device or its data processing device, comprise a non-real-time-capable path, which is formed by the visualization device. Both paths lead to the control device.
  • the invention thus provides a real-time-capable operating device and a real-time-capable control system for at least part of the control commands sent to the control device.
  • real-time is to be understood in particular that from corresponding (possibly by a touch controller processed) sensor data of the touch sensor within a predetermined period of time, in particular within a guaranteed short period of time, or a predetermined time grid corresponding control commands are provided at the output interface of Aus Wert worn and thus also in real time to the control device can be transmitted.
  • An operating element in the sense of the present invention is an operating element of the touchscreen. It is thus a touch-sensitive control element, which is visualized on the display of the touch screen and is actuated by touch.
  • the operating element can also be referred to as a control panel which occupies a spatially predetermined area on the touchscreen.
  • the real-time evaluation device preferably has a processor, memory means, an input interface for reading in the sensor data and an output interface for outputting control actions corresponding to operator actions on the touchscreen.
  • the off value device is in the communication connection between the touch sensor or a downstream touch controller, which detects the touch operator actions based on the sensor signals and provides raw data to the operator actions, eg coordinate pairs to the detected touch points, and the visualization, for the visualization and non-real-time-capable operation is responsible.
  • the evaluation device reads the sensor signals of the touch sensor (which were optionally converted by the touch controller into sensor raw data and preferably also sent to the visualization device).
  • the visualization device of the evaluation device can provide information about the position and the type as well as possibly about the release state of the control elements or control panels shown on the display (configuration data).
  • the value-setting device independently and in real-time determines the operating states of the individual control elements on the touchscreen, generates corresponding control commands (or actuating information) and transmits these via the output interface to the control device without involvement of the visualization device. to the machine or plant control.
  • the software of the evaluation device is real-time capable and comparatively simple, slim and reliable.
  • the visualization device may receive the same sensor data on the various touch events, e.g. from a touch controller or via the evaluation device, and these for non-real-time critical operations, e.g. Parameterization, evaluation.
  • the off value device of the visualization device or - if the visualization device is located outside the control device - of the Interface for a visualization device is functionally separated and is equipped with a standalone processor unit and stand-alone operating software and has its own output interface for the transmission of control commands to the control device of the machine or system.
  • the visualization device can indeed configure the value device via a configuration interface and thus change its mode of operation, e.g. the nature, number and position of virtual controls, but only within a narrow and defined framework, and without compromising the real-time responsiveness of the evaluation device.
  • the evaluation device evaluates the touch operator actions autonomously and independently of the visualization device, but in addition does not need to take on additional computationally time-consuming tasks, the evaluation of the operating processes is carried out within a defined narrow time frame, i. in real time, possible. Due to the direct forwarding of the control commands to the control device, bypassing the visualization device, preferably by direct connection via a real-time communication bus, the immediate and instantaneous execution of machines or system functions, in particular traversing movements is possible.
  • the software of the evaluation device is developed and executed independently of the visualization software of the visualization device, it is normally created and carefully checked by the manufacturer of the HMI device and then no longer changed (at least not in the context of the comparatively frequent and varied adaptation of the visualization software a particular machine by the machine manufacturer or an end user), high reliability and safety of the real-time operating functions can be ensured.
  • the evaluation device is connected to the visualization device via a preferably bidirectional data connection.
  • the visualization device is preferably set up in order to configure the configuration data concerning at least one control element visualized on the display To provide, wherein the configuration data preferably contain information about the position, size, orientation, type, associated machine or system function, the associated machine or system parameters, the release state and / or the current operating state or set value of the at least one control element, and the evaluation device is set up to generate the control commands for the control device as a function of the configuration data.
  • the visualization device is preferably connected at least indirectly to the touch sensor and to the control device and configured to generate control commands and / or machine or system parameters for the control device as a function of control elements of the touchscreen operated by an operator.
  • the sensor data connection between the touch sensor and the off-value device preferably comprises a branch leading to the visualization unit or to the interface for the visualization device.
  • a preferred solution is characterized by a point-to-point connection between the touch controller and the evaluation device, wherein the sensor data (touch data) are forwarded by the evaluation device to the visualization device.
  • the evaluation device is, as it were, interposed between the touch controller and the visualization device.
  • the operating device is a mobile, preferably portable operating device which can be connected to the control device of a machine or system via a data connection, in particular via a flexible line or a radio link.
  • the operating device comprises at least one actuator for generating a haptic signal for the operator and the evaluation device is connected to the actuator and adapted to actuate the at least one actuator in dependence on the sensor data of the touch sensor.
  • This haptic feedback can vary with the type of control, with the operator, the location, the operating state or the release state of the control. In this way, the operator receives a clear feedback whether an operator action was registered as such, or already in Advance whether a particular virtual control is touched (to find a specific control without visual control).
  • a preferred embodiment is characterized in that the output interface of the evaluation device, are transmitted via the control commands to the controller, at least one real-time control output or at least one digital or analog control output, preferably the output interface comprises at least two control outputs, each control output a different machines - or plant-related functions is assigned.
  • This allows reliable real-time transmission to the control device.
  • direct digital or analog control outputs on the evaluation device would also be conceivable (i.e., a separate signal line per machine or system function, for example).
  • a technically particularly simple, fast and interference-free signal connection of an HMI device to one or more control devices or occasionally also directly to actuators or their actuators is made possible.
  • the touch sensor is a multi-touch sensor and the off value device is configured to evaluate sensor data from the multi-touch sensor, wherein preferably the operation of at least two control elements can be evaluated simultaneously.
  • the off value device is configured to evaluate sensor data from the multi-touch sensor, wherein preferably the operation of at least two control elements can be evaluated simultaneously.
  • a multi-touch sensor is also already important in connection with merely one control element, since, for example, an activation of a control element by means of a two-finger gesture can prevent unwanted false tripping.
  • a preferred embodiment is characterized in that the evaluation device is adapted to a movement or contact pattern on the touch sensor, which is performed before, during and / or after the actual operation, which is performed by operating a control element, and for the Execution of a control process is absolutely necessary to check and only after a positive check of this motion or touch pattern to provide a control operation corresponding control command at the output interface, preferably the movement or Berüh- is a preliminary gesture for activating the control element for a certain period of time or the simultaneous actuation of another control element.
  • gestures For activating the controls, special gestures, i. in relation to the actual actuation process necessarily additional introductory, accompanying or final movement or contact pattern be provided on the touch sensor, whose execution is checked by the evaluation and so the risk of unwanted operation in the course of accidental or unintentional contact of the controls is reduced. It is also possible to provide functions and gestures which temporarily block the triggering or actuation of all operating elements, for example in order to be able to temporarily clean the entire touch surface without triggering unwanted operating processes.
  • a preferred embodiment is characterized in that between the touch sensor and the off value device a touch controller is connected, which is set up to detect the touches on the touch screen or actuation of the control elements of the touch screen and as sensor raw data provide.
  • the sensor raw data may contain, for example, coordinate pairs for describing the position of one or more touch points.
  • the sensor raw data are already processed data, which are obtained from the sensor signals.
  • the touch controller normally the entire touch sensor is a unitary area, i. a location-resolving sensor. Whether and where there are control elements (virtual controls), the touch controller does not "know". Such assignment or checking takes place only in the off value device or in the visualization device.
  • a possible embodiment is characterized in that the evaluation device is designed in such a way or connected to the data stream of the touch controller that the data stream is supplied in the same way to both the value device (13) and the visualization device (10).
  • the visualization device is also connected to the touch sensor and thus connected to the sensor data stream independently of the evaluation device.
  • the evaluation device can store the sensor data relating to an actuation of real-time-capable virtual operating Evaluate elements while the visualization device, the sensor data regarding non-real-time relevant inputs, such as swipe gestures to switch between different screens, can evaluate. It may sometimes depend on which of the three units is the master, ie causes the transfer of data.
  • the out-of-value device reads passively, but it could also passively read the visualization device or even both (if the touch controller is the master and simply sends whatever data is required).
  • the touch controller is structurally and functionally integrated in the evaluation device. As a result, the operating device can be dimensioned more easily with regard to the data connections, which also results in cost savings.
  • a preferred embodiment is characterized in that the touch controller and the evaluation device in addition to the sensor data connection, are transmitted via the sensor raw data to the evaluation, via a communication link, preferably in the manner of an interrupt signal line, interconnected via that the touch controller of the evaluation asynchronously and without delay can signal the presence of a relevant for the evaluation operation.
  • a preferred embodiment is characterized in that the evaluation device has at least three interfaces, wherein sensor raw data are received via a first interface and forwarded via a second interface to the visualization device or to the interface for the visualization device, wherein preferably the evaluation device on the second interface, the behavior of a touch controller at least partially emulated.
  • the behavior of the 'emulated touch controller' may differ slightly from the actual touch controller that is present at an input interface of the evaluation device.
  • the off-value device preferably comprises at least one memory connected to the real-time data processing device.
  • the additionally required (configuration) data for the real-time evaluation can be retrieved directly from the memory.
  • the real-time processing is thereby guaranteed, since the evaluation device is not dependent on the timely transmission of such data from other units.
  • a preferred embodiment is characterized in that configuration data relating to at least one display element can be contained in the memory and / or stored, the configuration data preferably containing information about the position, size, orientation, type, associated machine or system function to- ordered machine or system parameters, the release state and / or the current operating state or set value of the at least one control element included.
  • a preferred embodiment is characterized in that in the memory calibration information contained and / or can be stored, with which the coordinate information supplied by the touch controller are corrected, preferably in terms of offset, scaling and / or equalization. A faulty operation is thereby avoided.
  • An adaptation to copy-dependent deviations of the sensor parameters is basically possible (eg, each copy of a touch may behave somewhat differently due to process variations in production), so that the operation of this embodiment is possible independently of such specimen scatters on each control panel.
  • the storage means can thus contain (also in addition): configuration data for the position or position of at least one operating element relative to the dimensions or coordinates of a touchscreen; Configuration data describing the release state (ie whether an actuation can ever lead to an activation of a machine or system function or whether the relevant control element is blocked) by at least one operating element; Configuration data that allows an assignment of at least one operating element to a specific machine or system function or a machine or system parameters; Status information describing the current actuation state or set value of at least one control element.
  • the control elements that can be detected by the evaluation device preferably include digital actuation elements in the manner of touch-sensitive buttons, on-off switches, two-stage or multistage slide switches or rotary switches or other switches or the like.
  • control elements that can be detected by the evaluation device preferably comprise analogue or quasi-analogue or finely resolving actuating elements in the form of one- or two-dimensional sliders, joysticks or turntables (handwheels), potentiometers, touch pads, each with or without automatic return to one starting position.
  • a control system for controlling a machine or plant for controlling the machine or system; an operating device connected to the control device, in particular according to one of the preceding claims, for operating the machine or system by an operator, wherein the operating device has a touch screen, which is formed from a display for visualization of control elements and a touch sensor superimposed on the display; a visualization device connected to the display for providing image data for the display of the touchscreen, wherein the visualization device comprises a data processing device; characterized by an evaluation device which is connected to the touch sensor of the touchscreen and which comprises a real-time data processing device and an output interface connected to the control device, wherein the real-time data processing device of the Auswert constructive is adapted to control the sensor data of the touch sensor control commands for the control device and to be transmitted via the output interface to the control device, wherein the real-time data processing device of the value device is independent with respect to the data processing device
  • the generation and provision of the control commands for the control device at the output interface takes place temporally uninfluenced by the data processing device of the visualization device.
  • the data processing in the data processing device of the value device is therefore independent of a processing process running on the data processing device of the visualization device.
  • the generation of the control commands in the data processing device of the evaluation unit, its provision or transmission to the control device can thus be carried out bypassing the data processing device of the visualization device.
  • the output interface of the evaluation device is connected to the control device via a real-time capable data bus (eg SERCOS, Profinet, EtherCAT, Varan, PowerLink, EtherNet / IP or other Real Time Ethernet connections).
  • a real-time capable data bus eg SERCOS, Profinet, EtherCAT, Varan, PowerLink, EtherNet / IP or other Real Time Ethernet connections.
  • the operating device is preferably a structural unit separate from the control device, in particular a mobile, preferably portable operating device, and the evaluation device is integrated in this structural unit.
  • the visualization device is arranged outside the operating device, wherein preferably the visualization device is integrated in the control device.
  • the object is also achieved by methods for controlling a machine or plant by means of an operating device and / or by means of a control system according to one of the embodiments described above, wherein the visualization device provides image data for the display of the touch screen so that controls are visualized on the display and wherein the Real-time data processing device of the value device as a function of the sensor data of the touch sensor of the touch screen generates control commands and transmitted to the control device.
  • the generation and transmission of the control commands takes place temporally uninfluenced by the data processing of the visualization device.
  • the time sequence or the speed of the data processing in the data processing device of the evaluation device is independent of the data processing device of the visualization device.
  • a preferred embodiment is characterized in that configuration data relating to at least one control panel shown or displayable on the display, preferably in the form of a parameter set, are loaded into the evaluation device, the configuration data preferably containing information about the position, size, orientation, type assigned machine or system function, the assigned machine or system parameter, the release state and / or the current actuation state or set value of the at least one operating element, and that the value device generates the control commands for the control device as a function of the configuration data.
  • the configuration data are preferably generated by the visualization device and / or by the control device and transmitted to the evaluation device.
  • a preferred embodiment is characterized in that the evaluation device receives information from the visualization device, preferably via regular communication or signaling, from which conclusions about the correct or incorrect execution of the visualization software running on the data processing device of the visualization device can be obtained.
  • the evaluation device can thus assume a watchdog function, whereby the generation of false, i. can not be avoided by the operator unintended control commands.
  • a preferred embodiment is characterized in that the configuration data relating to an operating element, which are transmitted from the visualization device and / or control device to the evaluation device, are / are provided within the evaluation device with a time-limited validity, and that the corresponding operating element is deactivated after the expiration of validity, so that operation of the machine or system is disabled via this control.
  • the parameterization of the virtual control elements and / or their activation status (ie release for issuing control commands) transmitted by the visualization device to the evaluation device can be provided with a time-limited validity within the evaluation device.
  • the activation status is set to "not activated” and thus the command output is disabled via the respective control element.Also, this is a special execution of a watchdog function.
  • the visualization device via a Data connection between the evaluation and visualization device reads out the operating states of the monitored by the evaluation controls and with respect to non-real-time critical functions, such as for an optical, acoustic or tactile feedback to the operator, evaluates.
  • non-real-time critical functions such as for an optical, acoustic or tactile feedback to the operator
  • a preferred embodiment is characterized in that in the evaluation device after changing an operating state of a control element, a timer is started with a predetermined expiry time and that an error signal is sent to the controller or a control element is set in a deactivated state when the visualization device is not before the expiry of the expiration time with a confirmation information answers, which refers to a completed update of the information displayed on the touch screen, in particular regarding the operating state of the control element. It can be started specifically for each control a separate timer or it can alternatively be provided a common timer for all controls.
  • the advantage of this embodiment is that the evaluation device responds without delay to actuation processes, but also recognizes when the visualization does not respond to such actuation processes within a reasonable time. In this way, a movement can be aborted if the discrepancy between the actual and visually displayed actuation or switching state lasts too long and, for this reason, misunderstandings can occur for the operator.
  • a preferred embodiment is characterized in that the evaluation device is signal-technically coupled to one or more actuators in such a way that, upon actuation of a control element or already when the touch screen is merely touched, a haptic feedback is generated to the operator.
  • the positions and the type of operating elements are preferably stored in the evaluation device and preferably correspond with existing haptic markings on the touchscreen.
  • the positions and the type of controls may be fixed in the evaluation device.
  • the parameterization on the part of the visualization software can be limited to the activation or deactivation of the operating elements (virtual operating elements) and optionally to the presetting of the machine function associated with a specific operating element as a function of the screen mask just shown.
  • a preferred embodiment is characterized in that a deactivation of a monostable operating element, preferably as a virtual pushbutton or virtual joystick with automatic return to an unactuated starting position, regardless of the actual operating state of the control element to the undelayed signaling of an unactuated state by the Visualticianseinrich- leads to the evaluation device or to a control command corresponding to the unactuated state from the value device to the control device.
  • a deactivation of a monostable operating element preferably as a virtual pushbutton or virtual joystick with automatic return to an unactuated starting position, regardless of the actual operating state of the control element to the undelayed signaling of an unactuated state by the Visualticianseinrich- leads to the evaluation device or to a control command corresponding to the unactuated state from the value device to the control device.
  • an additional data connection is provided between the evaluation device and the visualization device, preferably in the manner of an interrupt line, with which the value device signals an operating procedure of an operator to the visualization device. This information can convert the visualization device
  • a preferred embodiment is characterized in that a real-time bus connection, for example a real-time Ethernet bus connection, is provided for transmitting the real-time control commands, via which the operating states of the control elements are cyclically transmitted in a predetermined time grid to the control device. This also ensures real-time transmission from the evaluator to the controller, i. for machine or system control.
  • a real-time bus connection for example a real-time Ethernet bus connection
  • the object is also achieved with a method for creating a graphical user interface for the visualization device of an operating device and / or a control system according to one of the embodiments described above by means of a development environment, wherein the development environment at least one control element is selected from a predetermined set of available controls and this at least one operating element is parameterized with regard to its position, size, orientation, size, type, assigned machine or system function, its assigned machine or system parameter and / or its release state, and wherein from the assignment of the parameters to the at least one Sachedeld configuration data, in particular in the form of a parameter record, are generated for the evaluation.
  • the development environment preferably itself has a graphical user interface with which the various operating elements can be selected, placed and parameterized in a simple and intuitive manner, and their subsequent appearance on the operating device can be visually checked in advance.
  • the invention also relates to a method for operating a real-time evaluation device, characterized in that configuration data concerning at least one operating element which can be evaluated by the evaluation device is loaded from the visualization device or from the control device into the evaluation device, wherein the configuration data preferably contains information about the position, size, Orientation, type, associated machine or system function, the associated machine or system parameters, the release state and / or the current operating state or set value of the at least one control element included.
  • the configuration data can be transmitted during the initialization phase of the operating device or else during operation for adapting the configuration data to different operating states.
  • FIG. 1 control system of a machine or system
  • 2 shows an operating device according to the prior art
  • Fig. 3 A control system according to the prior art
  • 4 shows an operating device according to the invention
  • FIG. 6 shows a variant of a control system according to the invention
  • 7 shows a further variant of a control system according to the invention
  • Figure 1 shows a typical field of application for the invention, an injection molding machine including control and an HMI device in the manner of an integrated into the machine control panel.
  • the control panel is both integrated into the machine and shown pulled out for clarity.
  • the control of the machine is also shown outside the actual machine construction for better clarity of the signal flow, but in practice is often accommodated directly in or in the machine in a control cabinet.
  • the machine controller controls the flow of energy to the various actuators of the machine in response to a predetermined manufacturing program, signals from the sensors representing the current state of the machine and the manufacturing process being performed, and commands and parameters set by an operator through the machine also be connected to the machine control associated control panel.
  • a machine control typically has at least one CPU, memory means for storing a program and for data, various interfaces for connection to the machine, their actuators and sensors and for connection to input and output devices such as a stationary and / or a mobile control panel or for the connection to a network for remote access to data, programs and functions of the machine.
  • the control panel may be stationary, ie be integrated into the structure of the machine, or be designed as a mobile handheld terminal, which is technically in operative connection via a flexible cable connection or via a wireless radio link with the machine control.
  • FIG. 1 shows only a stationary operating panel.
  • An operating panel has output means in the form of a screen, preferably a high-resolution color display, via which or which information about the machine, its operating state and the executed manufacturing process can be output to an operator.
  • a control panel has a number of input means or controls by which the operator can change parameters of the machine, select information about the machine or process for output, switch operating modes, start and stop automatic machining processes, and machine functions, e.g. It is also possible to manually trigger traversing movements directly and without delay.
  • FIG. 2 shows an enlarged and exemplary representation of a front view of an operating device 30 in the form of a control panel according to the prior art. It has a first operating area 31 which consists of a touch-sensitive screen (a touch display), i. a structural overlay of a high-resolution color display, and a transparent, touch-sensitive sensor is formed. In this first operating area 31, the output of information to the operator and inputs of the operator, for example, to adapt the information displayed and to adjust the operation and process parameters of the machine.
  • a touch-sensitive screen i. a structural overlay of a high-resolution color display
  • this first operating area 31 a large number of virtual operating elements and input fields can be displayed and hidden depending on the situation and used.
  • the inputs and outputs in this first operating area 31 are processed or processed by a visualization device which is signal-connected to the touch display.
  • information is read out from the machine or system controller by the visualization device and prepared for output to the operator, and conversely, for example, updated parameter values are transmitted to the machine controller.
  • the visualization device typically has processors, memory means and interfaces, as are well known to those skilled in the art.
  • processors typically has processors, memory means and interfaces, as are well known to those skilled in the art.
  • an operating system with appropriate support for graphical user interfaces, such as Windows or Linux, is used on the visualization device Use under which then a machine-specific visualization software gets executed.
  • the inputs via this first operating area 31 have in common that they are not suitable for triggering or executing machine functions which are directly coupled to an operating procedure, for example the method of machine axes, which is to take place only during the duration of a keystroke.
  • the reason for this is that the conventional operating systems used are not or only to a limited extent real-time capable and in the detection and forwarding of operations on the controls (virtual controls) can always lead to delays (such as read / write to storage media or Network connections, garbage collection, reinitialization of components, etc.).
  • at least parts of the visualization software are often written by persons to whom the special measures and rules for the creation of real-time software components are only insufficiently known or familiar.
  • a further, second operating area 32 which has an array of mechanical buttons, switches, turntables, multi-axis joysticks and the like.
  • conventional membrane keys are used for the keys.
  • the signal outputs of these operating elements are not recorded and forwarded via the software of the visualization device, but are conducted directly to the machine control independently of the visualization device.
  • the operations on these controls are detected and implemented reliably and essentially instantaneously by the machine control. Changes to the state of the machine or process are first redirected to the visualization device by the machine control system and output to the operator via the operating device or HMI.
  • this second operating area 32 other simple output devices, such as LEDs or signal lamps can be accommodated, which signal the switching state and / or the release state of a control element or the operating state of a machine component. These can be controlled directly by the machine control or also by the visualization device.
  • the first and second operating areas 31, 32 are structurally separated and do not overlap.
  • FIG. 3 the structure of an operating device 30 or operating terminals according to the prior art described in FIG. 2 and the signal-technical linking of the essential components are shown in greatly simplified form.
  • FIG. 3 shows two input and output components of the operating device 30: a touch screen 5 forming the first operating area 31 comprising a high-resolution, graphics-capable display 6 and a transparent touch sensor 8 arranged above it, and mechanical input elements forming the second operating area 32.
  • the signals of the mechanical input elements of the second operating area 32 used for immediate machine operation are fed directly to the control device 3 (i.e., machine control) of the machine 4.
  • the signals of the touch sensor 8 are detected by a special touch controller 21 and converted into a data sequence (touch raw data), which essentially represent the positions (coordinates) of one or more contact points registered by the touch sensor 8 , Depending on the touch technology used, these touch raw data may also include further information, for example about the actuation pressure or the size of the contact surface. For example, capacitive or resistive sensors as well as sensors based on the piezo-effect or similar principles can be used as the touch sensor. Depending on the touch technology used, it may be suitable for detecting only one or preferably also several simultaneous touch points.
  • the touch controller 21 is usually embodied as an ASIC and is often connected to the visualization device 10 via an RS232, an RS485, an I2C or a USB interface.
  • the touch sensor 8 can have a plurality of discrete sensor fields or sensor zones, each corresponding to a specific operating or input element or having a homogeneous large sensor area with a sufficiently fine spatial resolution.
  • the touch raw data are transmitted via a suitable signal connection, for example via a USB interface, to the visualization device 10 or can be queried by the latter via this interface at regular time intervals. From the raw touch data, the visualization device determines the actuation processes for the various control elements 7a currently shown. Simple coordinate evaluations of touch points can be made or even more complex sequences (eg gestures) and changes can be evaluated and made plausible.
  • different functions eg activation / deactivation or incrementing / decrementing
  • different functions can be triggered at a specific control element 7a depending on the gestural movement that has been carried out, or unwanted intentional actuations can be distinguished (eg touches being hidden by the palm of the hand) or even sporadic actuation signals According to any electromagnetic interference fields are filtered out or ignored.
  • Some of the described measures can be implemented both in the visualization device 10 and in the touch controller 21.
  • the visualization device 10 transmits via a further interface or signal connection (for example a VGA, DVI or HDMI interface) the image data required for the screen output to the display 6.
  • the display 6 can be any of a number of available technologies.
  • the display 6 is a high-resolution, graphics-capable color display with sufficient life and thermal and mechanical load capacity for reliable use in industrial environments.
  • the visualization device exchanges parameters, operating states and process data, error information and the like with the control device 3 and prepares this information for display on the display 6.
  • data is grouped in a suitable and clear manner in various screens (windows).
  • the invention will be described in more detail, wherein the preceding remarks on the display 6, the touch controller 21 and the visualization device 10, in particular for their construction, also apply with regard to the subject matter according to the invention, unless otherwise stated below.
  • 4 now shows the front view of an operating device 2 according to an embodiment of the invention. It is characterized by a largely flat front, which is formed by a large parts of the entire front surface engaging, high-resolution (color) display 6 together with a built-lieh superimposed touch sensor 8.
  • first input / output area In the upper first input / output area are input / output elements, conventional touch controls 7a, shown, which are provided for displaying and changing machine parameters and process states.
  • middle part or the second input / output area An overview picture of the controlled machine or system is shown. It can be used to both represent certain machine states (i.e., the map may be changed depending on the machine state and display the machine state), as well as for the simple, intuitive selection of a machine component for the presentation and modification of detailed data in the first input / output area.
  • some control elements 7b for triggering control commands (machine commands) for immediate execution by the machine or system are shown by way of example. These are virtual controls in the form of bistable inputs and switches, monostable buttons and sliders and turntable, with which, for example, positions or speeds are quasi analog predeterminable.
  • FIGS. 5 to 7 now show various possibilities of implementation and signal-technical integration of a real-time evaluation device 13 according to the invention into the control system 1 of a machine or plant 4.
  • a manipulator, a processing device for machining workpieces and / or a manufacturing s anläge for the production of modules be.
  • the control system 1 for controlling a machine or installation 4 comprises a control device 3 for controlling the machine or installation 4 and an operating device 2 connected to the control device 3 for operating the machine or installation 4 by an operator.
  • the operating device 2 has a touchscreen 5, which is formed from a display 6 for the visualization of operating elements 7a, 7b and a touch sensor 8 superimposed on the display 6.
  • the operating device comprises 2 a visualization device 10 connected to the display 6 via a data connection 29 with a data processing device 11 for providing image data for the display 6 of the touch screen 5.
  • the control system 1 comprises an evaluation device 13 whose input interface 26 is connected to the touch sensor 8 of the touch screen 5 (here via a preceding touch controller 21) via a sensor data link 18.
  • the evaluation device 13 comprises a real-time data processing device 14 (CPU) and an output interface 16 connected to the control device 3.
  • the value-value device 13 contains software with which the real-time data processing device 14 is capable of depending on the sensor data of the touch sensor 8 to generate control commands for the control device 3 and provide via the output interface 16 or to the control device 3 to transmit.
  • the real-time data processing device 14 of the evaluation device 13 is independent in relation to the data processing device 11 of the visualization device 10. That the data processing devices 11, 14 are separate data processing devices. Since the value-value device 13 is connected in parallel to the visualization device 10, the transmission of the control commands to the control device 3 takes place without the visualization device 10, i. via an independent signal path or an independent data channel to the control device 3.
  • the operating elements 7b are associated with machine functions which are controlled via the value-value device 13 in real time.
  • the operating elements 7a are associated with machine functions or machine parameters which do not require real-time control and are controlled or transmitted via the visualization device.
  • the data stream of the touch raw data generated by the touch controller 21 is split and transmitted equally to the visualization device 10 as well as to the evaluation device 13.
  • the visualization device evaluates the touch inputs. lent to the non-real-time relevant operations, such as the user desired change to another screen or the display and change a machine or process parameter or other functions such as saving or loading whole sets of parameters or the output of operating or service instructions. This includes other functionalities that are well-known in the context of graphical user interfaces on computer-based control and data processing systems.
  • the evaluation device 13 or its data processing device 14 forms between the touch sensor 8 of the touch screen 5 and the control device 3 of the machine or system 4 a bypass path to the visualization device 10 and their data processing device 11 for operations via the touch sensor 8.
  • the evaluation device 13 continuously analyzes the same data stream on sensor data with regard to such operating patterns which are suitable for actuating the operating elements 7b parameterized in their memory 15 (FIG. 8).
  • the evaluation device 13 can adapt the status information about the actuation states of the operating elements 7b, i. into converted control commands, and this converted status information within a defined time frame or a predetermined time frame, i. in real time, via an output interface 16 and a real-time data link 22 of the controller 3 available.
  • the transmission of the control commands from the off value device 13 to the control device 3 preferably takes place cyclically and in each case completely so that a current image of the actuation states of all operating elements is present in the control device 3 at all times.
  • a preferably bidirectional data connection 17 (in particular as a parameter interface) between the real-time evaluation device 13 and the visualization device 10 enables the parameterization of the control elements 7b monitored by the evaluation device 13 by the visualization device 10.
  • this can be simple release information be, with the only determines whether and which of the controls 7b are unlocked for an operator action.
  • the type, the position and the orientation of the operating elements 7b can be stored permanently in at least one memory 15 of the value device 13 (FIGS. 8 and 9).
  • the nature of the respective operating elements 7b, ie the virtual control elements, their position on the screen, their orientation (orientation) and their initial operating state can but also parameterizable, in particular by the visualization device 10 via the data connection 17 can be specified.
  • Such a parameterization of the evaluation device 13 can take place once during the initialization phase of the operating device 2 but also several times during ongoing operation, for example, to adapt the type and number of operating elements 7b to different operating and operating situations.
  • An additional data connection 27 can be provided between the value-value device 13 and the visualization device 10, preferably in the manner of an interrupt line, with which the evaluation device 13 signals an operating procedure of an operator to the visualization device 10.
  • the touch controller 21 and the evaluation device 13 can, in addition to the sensor data connection 18, are transmitted via the raw sensor data to the value-value device 13 via a communication connection 23, preferably in the manner of an interrupt signal line. Via this communication connection, the touch controller 21 of the value-value device 13 can signal in advance asynchronously and without delay the presence of an operating process relevant for the evaluation.
  • the operating device 2 may be a structurally independent operating device 24, in particular in the form of an HMI (human-machine-interface) panel, a handheld terminal, a handheld programmer, a TPU (teach pendant unit) and the like ..
  • HMI human-machine-interface
  • TPU terminal unit
  • the operating elements 7a and 7b shown in FIGS. 4 to 7 represent virtual input elements which are visually variable via the display 6 and represent the use of structurally independent and additional mechanical operating elements for delivering real-time machine commands and movement commands necessary.
  • the elimination of additional mechanical input elements results in significant simplifications in terms of production engineering, for example in terms of sealing against the ingress of dirt and liquids.
  • the elimination of mechanically moving components reduces wear-related failures. Since the appearance, the number, position and function of the operating elements 7a, 7b are determined by the values in the evaluation device 13 and in the visualization device. 10 software executed or their parameterization is determined, the number and variant diversity of the remaining hardware components is reduced. The adaptation to machine-specific requirements is also simplified for series with smaller quantities. Thus, the same operating device can be used for a number of different machines with different functional scope, and the display and selection of the operating elements can be adapted by software to the respective machine or system 4.
  • the touch sensor 8 used is preferably a high-resolution, capacitive multi-touch sensor. This sensor technology enables the detection of simultaneous multiple touches through a front, in particular a glass surface, through. Such a front forms a mechanically and chemically particularly resistant, scratch-resistant and durable front surface for an operating device 24 in an industrial environment.
  • Figures 5 to 7 show next to the display 6 for the output of information to the operator and the full-surface touch sensor 8 for the input or the detection of operator actions even a superimposed front 9, for example in the form of a transparent (glass) plate ,
  • the front 9 has haptic markings 25. These markings 25 make it easier to find an operator on the operating device 24 during an operation. envorganges in which, for example, machine axes moved manually controlled, in particular positioned, and while the view is directed to the respective machine component and not on the control unit 24.
  • the position of a control element 7b is easy to feel, so that the operator can locate a specific control element 7b without looking at the touchscreen 5.
  • FIG. 6 shows a variant in which the data of the touch controller 21 are initially guided solely to the value device 13 and are evaluated there as previously described.
  • the control actions on the operating elements 7b detected by the evaluation device 13 are coded into corresponding control commands and sent directly to the control device 3.
  • data are forwarded from the value device 13 to the visualization computer 10, essentially corresponding to the touch raw data, so that the latter also receives the touch inputs with respect to the non-realtime evaluate and implement critical operating procedures via the graphical user interface.
  • Such functions include, for example, switching between different screens or selecting particular groups of status values or parameters for display on the display 6 (screen) or the like.
  • the evaluation device 13 can emulate the interface behavior of a touch controller and send the data stream supplied by the actual touch controller 21 substantially unchanged.
  • a standard driver for the evaluation of the touch data can be used.
  • the evaluation device 13 has exclusive access to the touch controller 21 and can therefore execute the access to the touch data with regard to a reliable manner that conforms to the real-time requirements. Disturbances in the data stream due to any effects on the part of the visualization device can not occur. Compliance with real-time conditions is not endangered.
  • FIG. 7 shows a further advantageous implementation in which the visualization device 10 is not arranged in the operating device 24 but outside.
  • the operating device 2 or the operating device 24 comprises an interface 12 for a visualization device 10.
  • the interface 12 may be part of a plug connection or a component of a radio-based interface.
  • the visualization device can be integrated in the control device or combined with it structurally.
  • This comprises: a data connection 22 between evaluation device 13 and control device 3, preferably in the form of a real-time bus, e.g. Real-time Ethernet, for the transmission of real-time control commands; another data link 17, e.g.
  • the display output data can be designed, for example, according to the VGA, DVI or HDMI standard.
  • FIG. 7 also shows a variant in which the touch controller 21 (from FIGS. 5 and 6), which converts the signals of the touch sensor 8 into a corresponding data stream, is already structurally integrated into the evaluation device 13 or the value device 13 already takes over the function of the touch controller 21 with.
  • the evaluation device 13 additional and direct sensor information for the evaluation are available, which allow a more reliable and faster response.
  • the direct integration can enable a faster acquisition and reaction to the inputs.
  • FIG. 7 shows the activation of at least one actuator 20 of the operating device 2 by the evaluation device 13.
  • the actuator 20 is mechanically coupled to the front 9 and can couple mechanical oscillations or impulses into it.
  • Various parameters of the tactile feedback may be variable, such as the intensity or frequency of pulses, and may also be parameterizable depending on the application (e.g., in the design of the graphical user interface).
  • changes to the operating states of the operating elements 7b can also be fed directly to the visualization device 10 via the data connection 17 between the evaluation device 13 and the visualization device 10 and used there to adapt the display output.
  • the visualization device 10 receives updated information about inputs or changed operating states via the mechanical input elements only after access to the control device 3, since this is signal-technically coupled only to the control device 3.
  • a non-volatile memory 15 may be provided, in which a program code and data are stored, which should be available again after the power supply is switched off again. This may be read only memory (ROM), but it may also be nonvolatile writable memory (NVRAM - Non Volatile RAM).
  • the non-volatile memory 15 may also contain only a simple bootloader program which, after the supply voltage has been switched on, makes it possible to load the actual program code of the evaluation device 13 together with data via the data connection 17 by the visualization device 10.
  • the real-time evaluation device 13 has a first (USB) interface 26 for the connection to the touch controller 21 or directly to the touch sensor 8 and a second (USB) interface 28 for the connection to the visualization device 10.
  • USB universal serial Bus
  • these interfaces can also be designed according to other interface standards such as I2C or according to a proprietary standard.
  • Another (RT Ethernet) interface - the output interface 16 - is provided for the real-time transmission of the control commands to the control device 3.
  • the individual components and interfaces of the off-value device preferably communicate via a common bus connection.
  • the software of the evaluator 13 is normally simple and without much overhead. In particular, it does not have a complex operating system and is preferably not based on a graphical user interface.
  • the clearly defined purpose of the soft- ware, the clearly limited scope of functions and the absence of complex operating system functionalities enable a high level of functional reliability, short program execution times and a predictable and guaranteeable temporal behavior ( real-time behavior).
  • the evaluation device 13 can be structurally independent as well as designed to be combined with other control components, in particular with the visualization device 10 or the control device 3. It is only important that the evaluation device 13 has an independent data processing device 14, which differs from the data processing device 11 of the visualization device 10 or is functionally separated from it. Basically, the two data processing devices 11 and 14 can also be two independently executing cores of a common CPU.
  • the visualization device 10 is configured to provide the evaluation device 13 with configuration data relating to at least one control element 7b visualized on the display 6.
  • configuration data may be stored in the memory 15 of the value device 13.
  • the configuration data preferably contain information about the position, size, orientation, type, the permissible or associated operating gestures for an actuation and their parameterisable characteristics, parameters for any active tactile feedback, assigned machine or system function, the assigned machine or system parameters , the release state and / or the current actuation state or set value of the at least one control element.
  • the evaluation device 13 or its software is set up to generate the control commands for the control device 3 as a function of the configuration data.
  • FIG. 9 schematically shows an extract of the memory 15 (RAM) of a real-time evaluation device 13 according to the invention.
  • the memory 15 program memory
  • the program code provided for execution by the data processing device 14 (CPU) is stored.
  • Another part contains general data required to execute the program code or incurred during its execution.
  • the parameters and data for the individual control elements 7 that can be detected by the value device 13 are stored (configuration data or "parameterized operating elements").
  • each control element at least one identifier is deposited in the manner of an identifier, which allows the assignment of an operator action performed on the respective control element to a specific machine or system function or a parameter.
  • data can be stored which determine the type and the basic properties of the respective control element. In other parameters, the position, the size and the orientation with respect to the display or with respect to the touch sensor can be specified, if these properties are made changeable. Via an enable status, the function of a virtual control element can be temporarily blocked and released again (enable state). In principle, this mechanism also makes it possible to define several control elements superimposed on the touchscreen, one of which is then activated depending on the operating or operating state of the machine / system while the others are locked. Corresponding to this, the visual representation on the display can be adapted.
  • the data for an operating element may also have its current or last operating status, e.g. On / Off state, map in a state value.
  • the invention relates not only to the operating device and the control system but also to methods for controlling a machine or system which have already been described in detail above. Also, the invention relates to a method for creating a graphical user interface for the visualization device 10 of an operating device 2 and / or a control system 1 by means of a development environment Reference designation Control system 27 Data connection
  • Machine or system 30 HMI device according to the state of the touchscreen technology

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Numerical Control (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

Die Erfindung betrifft eine Bedieneinrichtung (2) zum Erzeugen von Steuerbefehlen für die Steuereinrichtung (3) einer Maschine oder Anlage (4), gekennzeichnet durch eine Auswerteeinrichtung (13), die mit dem Berührungssensor (8) eines Touchscreens (5) verbunden ist und die eine Echtzeit-Datenverarbeitungseinrichtung (14) und eine Ausgabeschnittstelle (16) umfasst, wobei die Echtzeit-Datenverarbeitungseinrichtung (14) der Aus Werteeinrichtung (13) eingerichtet ist, um in Abhängigkeit der Sensordaten des Berührungssensors (8) Steuerbefehle für die Steuereinrichtung (3) zu generieren und an der Ausgabeschnittstelle (16) bereitzustellen, wobei die Echtzeit-Datenverarbeitungseinrichtung (14) der Auswerteeinrichtung (13) in Bezug auf die Datenverarbeitungseinrichtung (11) einer Visualisierungseinrichtung (10) eigenständig ist. Die Erfindung betrifft auch ein Steuerungssystem sowie ein Verfahren zum Steuern einer Maschine oder Anlage.

Description

Bedieneinrichtung und Steuersystem
Die Erfindung betrifft eine Bedieneinrichtung gemäß dem Oberbegriff von Anspruch 1, ein Steuerungssystem gemäß dem Oberbegriff von Anspruch 19, ein Verfahren zum Steuern einer Maschine oder Anlage, sowie ein Verfahren zur Erstellung einer grafischen Benutzeroberfläche für die Visualisierungseinrichtung einer Bedieneinrichtung und/oder eines Steuerungssystems. Das der Erfindung zugrunde liegende Problem ist, dass bisher die Eingaben auf dem Touch- screen eines HMI-Gerätes (z.B. Bedienpanel oder Handbediengerät) nicht zufriedenstellend, d.h. nur eingeschränkt echtzeitfähig erfasst und in Echtzeit als Steuerkommandos an eine Maschinensteuerung weitergeleitet werden können. Es kann daher bei Bedienhandlungen an virtuellen Bedienelementen bzw. Bedienfeldern des Touchscreens für das Auslösen von Ver- fahrbewegungen oder anderen Aktionen zu verzögerten Reaktionen der Maschine kommen, aus denen dann eine deutlich verschlechterte Bedienbarkeit und fallweise ein gewisses Gefährdung spotenzial zumindest hinsichtlich einer Beschädigung von Maschinenkomponenten, Werkzeugen oder Werkstücken resultieren können. Aus diesem Grund sind bislang für das direkte Ausführen von Verfahrbewegungen von Maschinenachsen zusätzlich zum Touch- Screen weitere diskrete Bedienelemente (z.B. mechanische Tasten) vorgesehen, deren Betätigungszustand erfasst und direkt, d.h. nicht über die Rechnereinheit des HMI-Gerätes, zur Maschinensteuerung übermittelt wird.
Das HMI-Gerät (Bedienpanel oder Handbediengerät) weist einen Prozessor samt Speicher auf, der eine Software sowohl zur Anzeige von Informationen für den Benutzer als auch zur Erfassung von Eingaben durch den Benutzer ausführt und über eine geeignete Datenschnittstelle mit der Steuerung einer Maschine kommuniziert, Daten und Informationen austauscht, sowie Kommandos an die Maschinensteuerung sendet. Mit Hilfe dieser Software können auch komplexe Prozessschaubilder, Maschinengrafiken, Prozessdaten etc. grafisch ansprechend und fallweise animiert dargestellt werden. Die wesentlichen Teile dieser Software sind in der Regel ein Betriebssystem (z.B. Windows oder Linux) mit integrierter Unterstützung für grafische Benutzerinterfaces unter dem dann eine gerätespezifische Basissoftware für das Bedienpanel oder das Handbediengerät (z.B. Treiber, Funktionsbibliotheken) sowie eine maschinen- spezifische Anwendungssoftware zur Ausführung gelangen. Grundsätzlich können maschinenspezifische Softwarekomponenten für die Bedienung und Visualisierung auch nur auf der Maschinensteuerung selbst zur Ausführung gelangen und kann die Kommunikation zwischen HMI-Gerät und der Maschinensteuerung in einem allgemein gehaltenen Format erfolgen, z.B. in Art eines HTTP-Servers in der Maschinensteuerung und eines Browsers am HMI-Gerät.
Die gerätespezifische Basissoftware wird vom Hersteller des HMI-Gerätes entwickelt und bereitgestellt. Die maschinenspezifische Anwendungssoftware wird in der Regel vom Hersteller der Maschine oder Anlage entwickelt und bereitgestellt, in welche das HMI-Gerät inte- griert ist, wobei der Maschinenhersteller zum Erstellen dieser maschinenspezifischen Software, insbesondere der Bildschirmmasken, auf Softwaretools und Bibliotheken des HMI- Geräteherstellers zurückgreift.
Die Verwendung von Standard-Betriebssystemen auf solchen HMI-Geräten erleichtert die Erstellung der maschinenspezifischen Software und des grafischen Benutzerinterfaces durch Rückgriff auf zahlreiche verfügbare und weit verbreitete Softwaretools, standardisierte Programmierschnittstellen etc. sowie generell auch die Integration in das industrielle Steuerungsumfeld. Die Verwendung von lizenzfrei verfügbaren, offenen Betriebssystemplattformen wird wegen ihrer weiten Verbreitung, dem offengelegten Source-Code und aus Kostengründen grundsätzlich angestrebt.
Es besteht dabei aber das Problem, dass diese Betriebssysteme nicht oder nicht hinreichend echtzeitfähig sind und somit eine garantierte und hinreichend kurze Reaktionszeit auf Bedienhandlungen nicht erzielt werden kann. Dies betrifft insbesondere jene Teile, welche die Erfas- sung und Auswertung von Touch-Eingaben vornehmen. Auch können Fehler oder ungünstige Ausgestaltungen beispielsweise in der Anwendungssoftware dazu führen, dass bestimmte Teile des Betriebssystems oder der Basissoftware zeitweilig oder dauerhaft nicht mehr ordnungsgemäß oder verzögert ausgeführt werden und damit die Zuverlässigkeit der Bedienfunktionen beeinträchtigen.
Diese Schwierigkeiten führen dazu, dass über die virtuellen Bedienelemente auf einem Touch-Screen zwar nicht zeitkritische Maschineneinstellungen (Parametrierungen) vorgenommen bzw. verändert werden können, dass aber zum unmittelbaren Auslösen von Verfahr- bewegungen oder anderen Aktionen, etwa beim Einrichten oder Programmieren von Bewegungsabläufen, immer noch zusätzliche herkömmliche Bedienelemente, z.B. mechanische Taster bzw. Folientasten, neben dem Touchscreen vorgesehen sind, über welche die Betätigung sinformationen erfasst sowie direkt und unverzögert an die Steuereinrichtung der Ma- schine übermittelt werden können. Dies wird in der Regel über eine direkte Ankopplung solcher Bedienelemente an die Maschinensteuerung bewerkstelligt.
Der Erfindung liegt die Aufgabe zugrunde, die Nachteile aus dem Stand der Technik zu beseitigen und eine Bedieneinrichtung bzw. ein Steuerungssystem bereitzustellen, bei denen einer- seits die Vorteile aus der Verwendung der weit verbreiteten (offenen) Betriebssysteme und der Tools zur Erstellung und Konfigurierung von grafischen Benutzeroberflächen erhalten bleiben (z.B. deren leistungsfähigen Bibliotheken für die grafische Ausgabe), trotzdem aber eine zuverlässig echtzeitfähige Auswertung der Touch-Bedienvorgänge samt Weiterleitung an die Steuereinrichtung der Maschine bzw. Anlage ermöglicht wird. Die Verwendung von zu- sätzlichen Bedienelementen neben dem Touch-Screen soll erübrigt werden.
Diese Aufgabe wird mit einer Bedieneinrichtung der eingangs genannten Art, durch eine Aus Werteeinrichtung gelöst, die mit dem Berührungssensor des Touchscreens verbunden ist und die eine Echtzeit-Datenverarbeitungseinrichtung und eine Ausgabeschnittstelle umfasst, wobei die Echtzeit-Datenverarbeitungseinrichtung der Aus Werteeinrichtung eingerichtet ist, um in Abhän-gigkeit der Sensordaten des Berührungssensors Steuerbefehle für die Steuereinrichtung zu generieren und an der Ausgabeschnittstelle bereitzustellen, wobei die Echtzeit- Datenverarbeitungseinrichtung der Aus Werteeinrichtung in Bezug auf die Datenverarbeitungseinrichtung der/einer Visualisierungseinrichtung eigenständig ist.
Die Generierung und Bereitstellung der Steuerbefehle für die Steuereinrichtung an der Aus- gabeschnittstelle erfolgt zeitlich unbeeinflusst von der Datenverarbeitungseinrichtung der/einer Visualisierungseinrichtung. Der zeitliche Ablauf bzw. die Geschwindigkeit der Datenverarbeitung in der Datenverarbeitungseinrichtung der Aus Werteeinrichtung ist unabhängig von der Datenverarbeitungseinrichtung der Visualisierungseinrichtung. Die Datenverarbeitung in der Datenverarbeitungseinrichtung der Aus Werteeinrichtung erfolgt demnach unabhängig von einem auf der Datenverarbeitungseinrichtung der Visualisierungseinrichtung laufenden Verarbeitungsprozess. Die Generierung der Steuerbefehle in der Datenverarbeitungseinrichtung der Auswerteeinheit, ihrer Bereitstellung bzw. Übermittlung an die Steuereinrichtung kann demnach unter Umgehung der Datenverarbeitungseinrichtung der Visualisierungseinrichtung oder der Schnittstelle für die Visualisierungseinrichtung erfolgen.
Die Erzeugung von echtzeitkritischen Steuerbefehlen für die Steuereinrichtung erfolgt gemäß Erfindung getrennt von der Visualisierung der Bedienelemente durch eine Visualisierungseinrichtung. Die Visualisierungseinrichtung kann innerhalb der Bedieneinrichtung (z.B. in Form eines Handbediengerätes) oder außerhalb derselben angeordnet sein. Die Echtzeit- Datenverarbeitungseinrichtung der Auswerteeinrichtung ist eigenständig und von den auf der Datenverarbeitungseinrichtung der Visualisierungseinrichtung laufenden Prozessen unabhängig- Die Auswerteeinrichtung oder die Datenverarbeitungseinrichtung der Auswerteeinrichtung bildet in Bezug auf die Visualisierungseinrichtung oder die Datenverarbeitungseinrichtung der Visualisierungseinrichtung sozusagen einen Umgehungspfad (Bypass) zwischen dem Berührungssensor und der Steuereinrichtung. Dieser Umgehungspfad erlaubt die Verarbeitung von Sensordaten und die Bereitstellung von Steuerbefehlen in Echtzeit und ermöglicht somit die echtzeitfähige Steuerung einer Maschine bzw. Anlage unter Umgehung der Visualisierungseinrichtung bzw. deren Datenverarbeitungseinrichtung. Mit anderen Worten sind die Auswerteeinrichtung und die Visualisierungseinrichtung, zumindest aber deren Datenverarbeitungseinrichtungen, zwischen Berührungssensor und Steuereinrichtung parallel geschaltet. Die Datenverarbeitungseinrichtungen der Aus Werteeinrichtung und der Visualisierungseinrichtung können getrennte (d.h. eigenständige) Prozessoren sein oder aber auch funktional getrennte (d.h. eigenständige) Kerne einer Prozessoreinheit sein.
In einer möglichen Ausführungsform kann ein gemeinsamer, echtzeitfähiger Bus für Steuer- einrichtung, Visualisierungseinheit und Auswerteeinheit vorgesehen sein und durch die Visualisierungseinheit quasi zur Auswerteeinheit durchgeschliffen werden. Es ist auch denkbar, dass die Visualisierungseinrichtung und die Auswerteeinrichtung baulich kombiniert werden und einen gemeinsamen echtzeitfähigen Datenbus (oder gemischt: echtzeitfähig und nicht- echtzeitfähig) zur Steuereinrichtung hin aufweisen. Solche Varianten ändern nichts am grundlegenden Prinzip, dass die Daten von der Datenverarbeitungseinrichtung der Auswerteeinrichtung (zeitlich) unbeeinflusst von der Datenverarbeitungseinrichtung der Visualisierungseinrichtung über den gemeinsamen Bus zur Steuereinrichtung gelangen.
Bevorzugt wird jedenfalls eine eigenständige (nicht mit der Visualisierungseinrichtung geteilte) Ausgabeschnittstelle der Aus Werteeinrichtung und eine gesonderte echtzeitfähige Datenverbindung an die Steuereinrichtung übermittelt. Die Visualisierungseinrichtung kann neben der Visualisierungsfunktion, d.h. Bereitstellung von Ausgangsdaten/Bilddaten für das Display (nach wie vor) für die Erzeugung und Bereitstellung von nicht-echtzeitfähigen Steuerbefehlen oder Maschinen- bzw. Anlagenparametern herangezogen werden. Das erfindungsgemäße Steuerungssystem kann daher neben dem echt- zeitfähigen (Umgehungs-)Pfad, der durch die Auswerteeinrichtung bzw. deren Datenverarbei- tungseinrichtung gebildet wird, einen nicht-echtzeitfähigen Pfad, der durch die Visualisierungseinrichtung gebildet wird, umfassen. Beide Pfade münden in der Steuereinrichtung.
Die Erfindung stellt somit eine echtzeitfähige Bedieneinrichtung und ein echtzeitfähiges Steuerungssystem für zumindest einen Teil der an die Steuereinrichtung gesendeten Steuerbefehle bereit. Unter Echtzeit ist insbesondere zu verstehen, dass aus (gegebenenfalls durch einen Touch-Controller aufbereiteten) Sensordaten des Berührungssensors jeweils innerhalb einer vorgegebenen Zeitspanne, insbesondere innerhalb einer garantiert kurzen Zeitspanne, bzw. einem vorgegebenen Zeitraster entsprechende Steuerbefehle an der Ausgabeschnittstelle der Aus Werteeinrichtung bereitgestellt werden und somit auch in Echtzeit an die Steuereinrich- tung übermittelt werden können.
Ein Bedienelement im Sinne vorliegender Erfindung ist ein Bedienelement des Touchscreens. Es handelt sich somit um ein berührungssensitives Bedienelement, das am Display des Touchscreens visualisiert wird und durch Berührung betätigt wird. Das Bedienelement kann auch als Bedienfeld bezeichnet werden, das einen räumlich vorgegebenen Bereich am Touch- screen einnimmt. Die Echtzeit- Auswerteeinrichtung weist vorzugsweise einen Prozessor, Speichermittel, eine Eingangsschnittstelle zum Einlesen der Sensordaten sowie eine Ausgabeschnittstelle zur Ausgabe von mit Bedienhandlungen am Touchscreen korrespondierenden Steuerbefehlen auf. Bevorzugt ist die Aus Werteeinrichtung in der Kommunikationsverbindung zwischen dem Berührungssensor bzw. einem diesem nachgeschalteten Touch-Controller, der anhand der Sensorsignale die Touch-Bedienhandlungen erfasst und Rohdaten zu den Bedienhandlungen, z.B. Koordinatenpaare zu den erfassten Berührpunkten, bereitstellt, und der Visualisierungseinrichtung, die für die Visualisierung und die nicht echtzeitfähige Bedienung zuständig ist, ein- gebunden.
Die Auswerteeinrichtung liest die Sensorsignale des Berührungssensors (die gegebenenfalls vom Touch-Controller in Sensor-Rohdaten umgewandelt wurden und vorzugsweise auch an die Visualisierungseinrichtung gesendet werden) aus. Gleichzeitig kann die Visualisierungs- einrichtung der Auswerteeinrichtung Informationen über die Position und die Art sowie evtl. über den Freigabezustand der am Display dargestellten Bedienelemente bzw. Bedienfelder zur Verfügung stellen (Konfigurationsdaten).
Aus den Sensordaten und aus Konfigurationsdaten zu den Bedienelementen ermittelt die Aus Werteeinrichtung selbständig und in Echtzeit die Betätigungszustände der einzelnen Bedienelemente am Touchscreen, generiert entsprechende Steuerbefehle (bzw. Betätigungsinformationen) und übermittelt diese über die Ausgabeschnittstelle ohne Beteiligung der Visualisierungseinrichtung an die Steuereinrichtung, d.h. an die Maschinen- bzw. Anlagensteuerung. Die Software der Auswerteeinrichtung ist echtzeitfähig und vergleichsweise einfach, schlank und zuverlässig gehalten.
Parallel dazu kann die Visualisierungseinrichtung die gleichen Sensor-Daten über die diversen Touch-Ereignisse erhalten, z.B. von einem Touch-Controller oder über die Auswerteeinrichtung, und diese für nicht echtzeitkritische Bedienvorgänge, z.B. Parametrierung, auswer- ten.
Wesentlich ist, dass die Aus Werteeinrichtung von der Visualisierungseinrichtung bzw. - falls die Visualisierungseinrichtung außerhalb der Bedieneinrichtung angeordnet ist - von der Schnittstelle für eine Visualisierungseinrichtung funktional getrennt ist und mit einer eigenständigen Prozessoreinheit und einer eigenständigen Betriebssoftware ausgestattet ist sowie eine eigene Ausgabeschnittstelle für die Übermittlung von Steuerbefehlen an die Steuereinrichtung der Maschine oder Anlage aufweist.
In einer vorteilhaften Weiterbildung kann die Visualisierungseinrichtung über eine Konfigurationsschnittstelle zwar die Aus Werteeinrichtung konfigurieren und damit deren Arbeitsweise verändern, z.B. die Art, Anzahl und Position von virtuellen Bedienelementen bzw. Bedienfeldern, jedoch nur in einem engen und definierten Rahmen und ohne Beeinträchtigung der Echtzeit-Reaktionsfähigkeit der Aus Werteeinrichtung.
Dadurch, dass die Auswerteeinrichtung die Touch-Bedienhandlungen eigenständig und unabhängig von der Visualisierungseinrichtung auswertet, darüber hinaus jedoch keine zusätzlichen rechenzeitaufwändigen Aufgaben übernehmen braucht, ist die Auswertung der Bedien- Vorgänge in einem definierten engen Zeitraster, d.h. in Echtzeit, möglich. Durch die direkte Weiterleitung der Steuerbefehle an die Steuereinrichtung unter Umgehung der Visualisierungseinrichtung, vorzugsweise durch direkte Anbindung über einen echtzeitfähigen Kommunikationsbus, ist die unmittelbare und unverzögerte Ausführung von Maschinen bzw. Anlagenfunktionen, insbesondere Verfahrbewegungen ermöglicht.
Da die Software der Auswerteeinrichtung unabhängig von der Visualisierungssoftware der Visualisierungseinrichtung entwickelt und ausgeführt wird, normalerweise vom Hersteller des HMI-Gerätes erstellt und sorgfältig geprüft und dann in der Folge nicht mehr verändert wird (zumindest nicht im Rahmen der vergleichsweise häufigen und vielfältigen Anpassung der Visualisierungssoftware an eine bestimmte Maschine durch den Maschinenhersteller oder einen Endanwender), kann eine hohe Zuverlässigkeit und Sicherheit der Echtzeit- Bedienfunktionen sichergestellt werden.
Bevorzugt ist die Auswerteeinrichtung mit der Visualisierungseinrichtung über eine vorzugs- weise bidirektionale Datenverbindung verbunden.
Bevorzugt ist die Visualisierungseinrichtung dazu eingerichtet, um der Aus Werteeinrichtung Konfigurationsdaten betreffend zumindest ein am Display visualisiertes Bedienelement zur Verfügung zu stellen, wobei die Konfigurationsdaten vorzugsweise Informationen über die Position, Größe, Orientierung, Art, zugeordnete Maschinen- bzw. Anlagenfunktion, den zugeordneten Maschinen- bzw. Anlagenparameter, den Freigabezustand und/oder den aktuellen Betätigungszustand oder Einstellwert des zumindest einen Bedienelementes enthalten, und ist die Auswerteeinrichtung eingerichtet, um die Steuerbefehle für die Steuereinrichtung in Abhängigkeit der Konfigurationsdaten zu generieren.
Bevorzugt ist die Visualisierungseinrichtung zumindest indirekt mit dem Berührungssensor und mit der Steuereinrichtung verbunden und zum Generieren von Steuerbefehlen und/oder Maschinen- bzw. Anlagenparametern für die Steuereinrichtung in Abhängigkeit von durch eine Bedienperson betätigten Bedienelemente des Touchscreens eingerichtet.
Bevorzugt umfasst die Sensor-Datenverbindung zwischen dem Berüh-rungssensor und der Aus Werteeinrichtung eine Abzweigung, die zur Visualisierungseinheit oder zur Schnittstelle für die Visualisierungseinrichtung führt.
Eine bevorzugte Lösung zeichnet sich durch eine Punkt-zu-Punkt Verbindung zwischen dem Touch-Controller und der Auswerteeinrichtung aus, wobei die Sensordaten (Touch-Daten) von der Auswerteeinrichtung an die Visualisierungseinrichtung weitergeleitet werden. In die- sem Fall ist die Auswerteeinrichtung gleichsam zwischen Touch-Controller und Visualisierungseinrichtung zwischengeschaltet.
In einer weiteren Ausführungsform ist die Bedieneinrichtung ein mobiles, vorzugsweise tragbares Bediengerät, das mit der Steuereinrichtung einer Maschine oder Anlage über eine Da- tenverbindung, insbesondere über eine flexible Leitung oder eine Funkstrecke, verbindbar ist.
Bevorzugt umfasst die Bedieneinrichtung zumindest einen Aktuator zum Erzeugen eines hap- tischen Signales für die Bedienperson und ist die Auswerteeinrichtung mit dem Aktuator verbunden und dazu eingerichtet, um in Abhängigkeit der Sensordaten des Berührungssensors den zumindest einen Aktuator zu betätigen. Diese haptische Rückmeldung kann mit der Art des Bedienelementes, mit der Bedienhandlung, der Lage, dem Betätigungszustand oder dem Freigabezustand des Bedienelementes variieren. Auf diese Weise erhält die Bedienperson ein eindeutiges Feedback, ob eine Bedienhandlung als solche registriert wurde, oder bereits im Vorfeld, ob ein bestimmtes virtuelles Bedienelement berührt wird (zum Auffinden eines bestimmten Bedienelementes ohne visuelle Kontrolle).
Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass die Ausgabeschnittstelle der Auswerteeinrichtung, über die Steuerbefehle zur Steuereinrichtung übermittelt werden, zumindest einen echtzeitfähigen Steuerausgang oder zumindest einen digitalen oder analogen Steuerausgang umfasst, wobei vorzugsweise die Ausgabeschnittstelle zumindest zwei Steuerausgänge umfasst, wobei jedem Steuerausgang eine unterschiedliche maschinen- oder anlagenbezogene Funktionen zugeordnet ist. Dies ermöglicht eine zuverlässige echtzeitfähige Weiterleitung an die Steuereinrichtung. Statt der Anbindung der Auswerteeinrichtung an die Steuerung über eine echtzeitfähige Kommunikationsschnittstelle wären auch direkte digitale oder analoge Steuerausgänge an der Auswerteeinrichtung denkbar (d.h. beispielsweise je Maschinen- bzw. Anlagenfunktion eine gesonderte Signalleitung). Dadurch wird eine technisch besonders einfache, schnelle und störfeste Signalanbindung eines HMI-Gerätes an eine oder mehrere Steuereinrichtungen oder fallweise auch direkt an Aktuatoren bzw. deren Ansteue- relemente ermöglicht.
Bevorzugt ist der Berührungssensor ein Multi-Touch-Sensor und die Aus Werteeinrichtung dazu eingerichtet, um Sensordaten von dem Multi-Touch-Sensor auszuwerten, wobei vor- zugsweise die Betätigung zumindest zweier Bedienelemente gleichzeitig ausgewertet werden kann. Dies erweitert die Funktionalitäten der Bedieneinrichtung und erhöht deren Zuverlässigkeit. Ein Multi-Touch-Sensor ist auch in Verbindung mit bloß einem Bedienelement bereits von Bedeutung, da beispielsweise durch eine Aktivierung eines Bedienelementes mittels einer Zweifinger-Geste eine ungewollte Fehlauslösung vermieden werden kann.
Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass die Auswerteeinrichtung dazu eingerichtet ist, um ein Bewegungs- bzw. Berührungsmuster an dem Berührungssensor, das vor, während und/oder nach dem eigentlichen Bedienvorgang, der durch Betätigung eines Bedienelementes erfolgt, ausgeführt wird und für die Ausführung eines Steuervorganges zwingend erforderlich ist, zu überprüfen und erst nach positiver Überprüfung dieses Bewegungs- bzw. Berührungsmusters einen dem Bedienvorgang entsprechenden Steuerbefehl an der Ausgabeschnittstelle bereitzustellen, wobei vorzugsweise das Bewegungs- bzw. Berüh- rungsmuster eine einleitende Geste zum Aktivieren des Bedienelementes für eine bestimmte Zeitspanne oder die gleichzeitige Betätigung eines weiteren Bedienelementes ist.
Für das Aktivieren bzw. Betätigen der Bedienelemente können spezielle Gesten, d.h. in Bezug auf den eigentlichen Betätigungsvorgang zwingend zusätzliche einleitende, begleitende oder abschließende Bewegungs- bzw. Berührungsmuster am Berührungssensor vorgesehen sein, deren Ausführung von der Auswerteeinrichtung überprüft wird und so die Gefahr einer ungewollten Betätigung im Zuge einer zufälligen oder unabsichtlichen Berührung der Bedienelemente verringert wird. Es können auch Funktionen und Gesten vorgesehen sein, die das Aus- lösen bzw. Betätigen sämtlicher Bedienelemente vorübergehend sperren, etwa um die gesamte Touch- Oberfläche zwischenzeitlich reinigen zu können, ohne dabei ungewollte Bedienvorgänge auszulösen.
Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass zwischen dem Berüh- rungssensor und der Aus Werteeinrichtung ein Touch-Controller geschaltet ist, der dazu eingerichtet ist, die Berührungen am Touchscreen bzw. Betätigung der Bedienelemente des Touch- screens zu erfassen und als Sensor-Rohdaten bereitzustellen. Die Sensor-Rohdaten können beispielsweise Koordinatenpaare zur Beschreibung der Lage eines bzw. mehrerer Berührpunkte enthalten. In diesem Zusammenhang wird erwähnt, dass die Sensor-Rohdaten bereits aufbereitete Daten sind, die aus den Sensorsignalen gewonnen werden.
Für den Touch-Controller ist normalerweise der gesamte Berührungssensor eine einheitliche Fläche, d.h. ein orts auflösender Sensor. Ob und wo sich darauf Bedienelemente (virtuelle Bedienelemente) befinden, das "weiß" der Touch-Controller nicht. Eine solche Zuordnung bzw. Überprüfung erfolgt erst in der Aus Werteeinrichtung bzw. in der Visualisierungseinrichtung.
Eine mögliche Ausführungsform zeichnet sich dadurch aus, dass die Auswerteeinrichtung derart ausgebildet ist bzw. an den Datenstrom des Touch-Controllers angebunden ist, dass der Datenstrom sowohl der Aus Werteeinrichtung (13) als auch der Visualisierungseinrichtung (10) in gleicher Weise zugeführt wird. Bei dieser Ausführungsform ist auch die Visualisierungseinrichtung mit dem Berührungssensor verbunden und somit unabhängig von der Auswerteeinrichtung an den Sensordatenstrom angebunden. Auf diese Weise kann die Auswerteeinrichtung die Sensordaten bezüglich einer Betätigung echtzeitfähiger virtueller Bedien- elemente auswerten, während gleichzeitig die Visualisierungseinrichtung die Sensordaten bezüglich nicht-echtzeitrelevanter Eingaben, z.B. Wisch-Gesten zum Wechseln zwischen verschiedenen Bildschirmmasken, auswerten kann. Es kann mitunter darauf ankommen, welche der drei Einheiten der Master ist, d.h. das Übertragen von Daten veranlasst. Es könnte sein, dass die Aus Werteeinrichtung passiv mitliest, es könnte aber auch die Visualisierungseinrichtung bloß passiv mitlesen oder aber auch beide (wenn der Touch-Controller der Master ist und einfach sendet, was an Daten anfällt). Bevorzugt ist der Touch-Controller baulich und funktional in der Auswerteeinrichtung integriert. Dadurch kann die Bedieneinrichtung im Hinblick auf die Datenverbindungen einfacher dimensioniert werden, wodurch sich auch Kosteneinsparungen ergeben.
Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass der Touch-Controller und die Auswerteeinrichtung zusätzlich zur Sensor-Datenverbindung, über die Sensor- Rohdaten an die Auswerteeinrichtung übermittelt werden, über eine Kommunikationsverbindung, vorzugsweise in Art einer Interrupt-Signalleitung, miteinander verbunden sind, über die der Touch-Controller der Auswerteeinrichtung asynchron und unverzögert das Vorliegen eines für die Auswertung relevanten Bedienvorganges signalisieren kann. Dies verringert die Reak- tionszeit der Aus Werteeinrichtung auf ein Touch-Ereignis und kann das Einhalten der Echtzeit-Bedingung (d.h. eine garantierte Reaktion innerhalb einer definierten kurzen Zeitspanne) erleichtern.
Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass die Auswerteeinrichtung zumindest drei Schnittstellen aufweist, wobei Sensor-Rohdaten über eine erste Schnittstelle empfangen werden und über eine zweite Schnittstelle an die Visualisierungseinrichtung oder an die Schnittstelle für die Visualisierungseinrichtung weitergeleitet werden, wobei vorzugsweise die Auswerteeinrichtung an der zweiten Schnittstelle das Verhalten eines Touch- Controllers zumindest teilweise emuliert. Das Verhalten des , emulierten Touch-Controllers' kann von dem tatsächlichen Touch-Controller, der an einer Eingangsschnittstelle der Auswerteeinrichtung anliegt, etwas abweichen. Dies ermöglicht zwar grundsätzlich eine Vorfilterung der Sensordaten durch die Aus Werteeinrichtung, sodass gegebenenfalls nur mehr jene, für die Visualisierungseinrichtung relevante Sensor-Daten an diese weitergeleitet werden, jedoch erfolgt eine solche nicht, wenn einzelne Koordinatenpaare für sich genommen noch nicht unbedingt eindeutig zu einem echtzeitfähigen oder einem nicht-echtzeitrelevanten Betätigungsvorgang zuordenbar sind. Die Möglichkeit einer solchen Zuordnung ergibt sich erst aus einer zusammenhängenden Folge von Koordinatenpaaren, die beispielsweise eine Bewegung bzw. eine Geste mit einem bestimmten Ausgangs- oder Endpunkt beschreiben. Das muss aber sowohl die Aus Werteeinrichtung als auch die Visualisierungseinrichtung jeweils für sich ermitteln und bewerten und benötigt daher jede der beiden Einheiten jeweils den kompletten Datenstrom vom Touch-Controller. Der Grund für das abweichende Verhalten des emulierten Touch-Controllers zum tatsächlichen Touch-Controllers kann darin liegen, dass es eine Vielzahl unterschiedlicher Touch- Controller am Markt mit leicht unterschiedlichen Schnittstellen und Protokollen gibt. Bei Verwendung verschiedener Controller in unterschiedlichen Produktvarianten (zB Displaygrößen) muss damit nur die Auswerteeinrichtung daran angepasst werden, während in Richtung Visualisierungseinrichtung immer ein bestimmter Standard-Touch-Controller emuliert wird und dort keinerlei Anpassungen notwendig werden.
Ein weiterer Grund ist, dass bestimmte Einstellungen bzw. Parameter des tatsächlichen Touch-Controllers nur von der Aus Werteeinrichtung vorgegeben werden dürfen und nicht etwa von der Visualisierungseinrichtung wieder verstellt werden dürfen (dies könnte die Zuverlässigkeit der Auswerteeinrichtung beeinträchtigen). Solche Parametrierungen seitens der Visualisierungseinrichtung müssen daher von der Aus Werteeinrichtung abgefangen werden.
Bevorzugt umfasst die Aus Werteeinrichtung zumindest einen mit der Echtzeit- Datenverarbeitungseinrichtung verbundenen Speicher. Die für die Echtzeit- Auswertung zusätzlich erforderlichen (Konfigurations-)Daten können direkt aus dem Speicher abgerufen werden. Die Echtzeit- Verarbeitung wird dadurch garantiert, da die Aus Werteeinrichtung nicht auf die zeitgerechte Übermittlung solcher Daten von anderen Einheiten angewiesen ist. Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass in dem Speicher Konfigurationsdaten betreffend zumindest ein am Display darstellbares Bedienelement enthalten und/oder ablegbar sind, wobei die Konfigurationsdaten vorzugsweise Informationen über die Position, Größe, Orientierung, Art, zugeordnete Maschinen- bzw. Anlagenfunktion, den zu- geordneten Maschinen- bzw. Anlagenparameter, den Freigabezustand und/oder den aktuellen Betätigungszustand oder Einstellwert des zumindest einen Bedienelementes enthalten.
Dadurch kann eine rasche und vor allem eindeutige Generierung von korrespondierenden Steuerbefehlen erfolgen.
Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass in dem Speicher Kalibrierinformationen enthalten und/oder ablegbar sind, mit denen die vom Touch-Controller gelieferten Koordinateninformationen korrigiert werden, vorzugsweise in Bezug auf Offset, Skalierung und/oder Entzerrung. Eine fehlerhafte Bedienung wird dadurch vermieden. Eine An- passung an exemplarabhängige Abweichungen der Sensorparameter ist grundsätzlich möglich (z.B kann sich jedes Exemplar eines Touches aufgrund von Prozessschwankungen bei der Herstellung etwas anders verhalten), so dass die Funktionsweise dieser Ausführungsform unabhängig von solchen Exemplarstreuungen auf jedem Bedienpanel möglich ist. Die Speichermittel können somit (auch zusätzlich) enthalten: Konfigurationsdaten zur Position bzw. Lage von zumindest einem Bedienelement relativ zu den Abmessungen bzw. Koordinaten eines Touchscreens; Konfigurationsdaten die den Freigabezustand (d.h. ob eine Betätigung überhaupt zu einer Aktivierung einer Maschinen- bzw. Anlagenfunktion führen kann oder ob das betreffende Bedienelement gesperrt ist) von zumindest einem Bedienelement be- schreiben; Konfigurationsdaten, die eine Zuordnung von zumindest einem Bedienelement zu einer bestimmten Maschinen- bzw. Anlagenfunktion oder einem Maschinen- bzw. Anlagenparameter ermöglicht; Statusinformationen, die den aktuellen Betätigungszustand oder Einstellwert von zumindest einem Bedienelement beschreiben. Bevorzugt umfassen die von der Auswerteeinrichtung erfassbaren Bedienelemente digitale Betätigungselemente in der Art von Tipp-Tasten, von Ein- Aus Schaltern, von zwei- oder mehrstufigen Schiebeschaltern oder Drehschaltern oder sonstigen Umschaltern oder dergleichen. Bevorzugt umfassen die von der Auswerteeinrichtung erfassbaren Bedienelemente analoge oder quasi-analoge bzw. fein auflösende Betätigungselemente in der Art von ein- oder zweidimensionalen Schiebereglern, Joysticks oder von Drehstellern (Handrädern), Potentiometern, Touch-Pads, jeweils mit oder ohne automatischer Rückkehr in eine Ausgangslage. Die Aufgabe wird auch gelöst mit einem Steuerungssystem zum Steuern einer Maschine oder Anlage, insbesondere eines Manipulators, einer Bearbeitungsvorrichtung oder einer Fertigungsanlage, mittels einer Bedieneinrichtung, umfassend: eine Steuereinrichtung zur Ansteuerung der Maschine oder Anlage; eine mit der Steuereinrichtung verbundene Bedieneinrichtung, insbesondere nach einem der vorhergehenden Ansprüche, zum Bedienen der Maschine oder Anlage durch eine Bedienperson, wobei die Bedieneinrichtung einen Touchscreen aufweist, der aus einem Display zur Visualisierung von Bedienelementen und einem dem Display überlagerten Berührungssensor gebildet wird; eine mit dem Display verbundene Visualisierungseinrichtung zur Bereitstellung von Bilddaten für das Display des Touchscreens, wobei die Visualisierungseinrichtung eine Datenverarbeitungseinrichtung umfasst; gekennzeichnet durch eine Auswerteeinrichtung, die mit dem Berührungssensor des Touchscreens verbunden ist und die eine Echtzeit-Datenverarbeitungseinrichtung und eine mit der Steuereinrichtung verbundene Ausgabeschnittstelle umfasst, wobei die Echtzeit- Datenverarbeitungseinrichtung der Aus Werteeinrichtung eingerichtet ist, um in Abhängigkeit der Sensordaten des Berührungssensors Steuerbefehle für die Steuereinrichtung zu generieren und über die Ausgabeschnittstelle an die Steuereinrichtung zu übermitteln, wobei die Echtzeit-Datenverarbeitungseinrichtung der Aus Werteeinrichtung in Bezug auf die Datenverarbeitungseinrichtung der Visualisierungseinrichtung eigenständig ist.
Die Generierung und Bereitstellung der Steuerbefehle für die Steuereinrichtung an der Aus- gabeschnittstelle erfolgt zeitlich unbeeinflusst von der Datenver-arbeitungseinrichtung der Visualisierungseinrichtung. Die Datenverarbeitung in der Datenverarbeitungseinrichtung der Aus Werteeinrichtung erfolgt demnach unabhängig von einem auf der Datenverarbeitungseinrichtung der Visualisie-rungseinrichtung laufenden Verarbeitungsprozess. Die Generierung der Steuerbefehle in der Datenverarbeitungseinrichtung der Auswerteeinheit, ihrer Bereitstellung bzw. Übermittlung an die Steuereinrichtung kann demnachunter Umgehung der Datenverarbeitungseinrichtung der Visualisierungseinrichtung erfolgen. Bevorzugt ist die Ausgabeschnittstelle der Auswerteeinrichtung mit der Steuereinrichtung über einen echtzeitfähigen Datenbus verbunden (z.B. SERCOS, Profinet, EtherCAT, Varan, PowerLink, EtherNet/IP oder andere Real Time Ethernet - Verbindungen).
Bevorzugt ist die Bedieneinrichtung eine von der Steuereinrichtung getrennte bauliche Ein- heit, insbesondere ein mobiles, vorzugsweise tragbares Bediengerät, und ist die Auswerteeinrichtung in dieser baulichen Einheit integriert.
In einer weiteren Ausführungsform ist die Visualisierungseinrichtung außerhalb der Bedieneinrichtung angeordnet, wobei vorzugsweise die Visualisierungseinrichtung in der Steuerein- richtung integriert ist.
Die Aufgabe wird auch gelöst durch Verfahren zum Steuern einer Maschine oder Anlage mittels einer Bedieneinrichtung und/oder mittels eines Steuerungssystems nach einer der oben beschriebenen Ausführungen, wobei die Visualisierungseinrichtung Bilddaten für das Display des Touchscreens bereitstellt, sodass Bedienelemente auf dem Display visualisiert werden und wobei die Echtzeit-Datenverarbeitungseinrichtung der Aus Werteeinrichtung in Abhängigkeit der Sensordaten des Berührungssensors des Touchscreens Steuerbefehle generiert und an die Steuereinrichtung übermittelt. Die Generierung und Übermittlung der Steuerbefehle erfolgt zeitlich unbeeinflusst von der Datenverarbeitung der Visualisierungseinrichtung. Der zeitliche Ablauf bzw. die Geschwindigkeit der Datenverarbeitung in der Datenverarbeitungseinrichtung der Auswerteeinrichtung ist unabhängig von der Datenverarbeitungseinrichtung der Visualisierungseinrichtung.
Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass Konfigu-rationsdaten be- treffend zumindest ein am Display dargestelltes oder darstellbares Bedienfeld, vorzugsweise in Form eines Parametersatzes, in die Auswerteeinrichtung geladen werden, wobei die Konfigurationsdaten vorzugsweise Informationen über die Position, Größe, Orientierung, Art, zugeordnete Maschinen- bzw. Anlagenfunktion, den zugeordneten Maschinen- bzw. Anlagenpa- rameter, den Freigabezustand und/oder den aktuellen Betätigungszustand oder Einstellwert des zumindest einen Bedienelementes enthalten, und dass die Aus Werteeinrichtung die Steuerbefehle für die Steuereinrichtung in Abhängigkeit der Konfigurationsdaten generiert. Bevorzugt werden die Konfigurationsdaten von der Visualisierungseinrichtung und/oder von der Steuereinrichtung generiert und an die Auswerteeinrichtung übermittelt.
Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass die Auswerteeinrichtung, vorzugsweise über regelmäßige Kommunikation oder Signalisierung, Informationen von der Visualisierungseinrichtung empfängt, aus denen Rückschlüsse über die korrekte bzw. fehlerhafte Ausführung der auf der Datenverarbeitungseinrichtung der Visualisierungseinrichtung laufenden Visualisierungssoftware gewonnen werden können. Die Auswerteeinrichtung kann somit eine Watchdog-Funktion übernehmen, wodurch die Generierung falscher, d.h. von der Bedienperson gar nicht beabsichtigter Steuerbefehle vermieden werden kann.
Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass die ein Bedienelement betreffenden Konfigurationsdaten, die von der Visualisierungseinrichtung und/oder Steuereinrichtung an die Auswerteeinrichtung übermittelt werden, innerhalb der Auswerteeinrichtung mit einer zeitlich begrenzten Gültigkeit versehen sind bzw. werden, und dass das entspre- chende Bedienelement nach dem zeitlichen Ablauf der Gültigkeit deaktiviert wird, sodass eine Bedienung der Maschine oder Anlage über dieses Bedienelement gesperrt ist. Es kann somit die von der Visualisierungseinrichtung an die Auswerteeinrichtung übermittelte Para- metrierung der virtuellen Bedienelemente und/oder deren Aktivierungsstatus (d.h. Freigabe zur Abgabe von Steuerkommandos) innerhalb der Auswerteeinrichtung mit einer zeitlich be- grenzten Gültigkeit versehen werden. Nach deren zeitlichem Ablauf wird der Aktivierungsstatus auf„nicht aktiviert" gesetzt und damit die Befehlsabgabe über das jeweilige Bedienelement gesperrt. Auch hier handelt es sich um eine spezielle Ausführung einer Watchdog- Funktion. Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass die Visualisierungseinrichtung über eine Datenverbindung zwischen Auswerteeinrichtung und Visualisierungseinrichtung die Betätigungszustände der von der Auswerteeinrichtung überwachten Bedienelemente ausliest und in Bezug auf nicht echt- zeitkritische Funktionen, beispielsweise für ein optisches, akustisches oder taktiles Feedback an die Bedienperson, auswertet. Damit wird die Auswerteeinrichtung von Aufgaben frei gehalten, die nicht dem Echtzeit-Erfordernis unterliegen. Die Echtzeit-Zuverlässigkeit wird damit erhöht bzw. einfacher realisierbar. Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass in der Auswerteeinrichtung nach Änderung eines Betätigungszustandes eines Bedienelementes ein Timer mit einer vorgegebenen Ablaufzeit gestartet wird und dass ein Fehlersignal an die Steuereinrichtung gesendet wird oder ein Bedienelement in einen deaktivierten Zustand versetzt wird, wenn die Visualisierung seinrichtung nicht vor Ende der Ablaufzeit mit einer Bestätigungsinformation antwor- tet, die sich auf eine erfolgte Aktualisierung der am Touchscreen dargestellten Information, insbesondere betreffend den Betätigungszustand des Bedienelementes, bezieht. Es kann dabei spezifisch für jedes Bedienelement ein eigener Timer gestartet werden oder es kann alternativ ein gemeinsamer Timer für alle Bedienelemente vorgesehen sein. Der Vorteil dieser Ausführungsform besteht darin, dass die Auswerteeinrichtung zwar unverzögert auf Betätigungsvor- gänge reagiert, aber auch erkennt, wenn die Visualisierung auf solche Betätigungsvorgänge nicht in angemessener Zeit reagiert. Damit kann eine Verfahrbewegung abgebrochen werden, wenn die Diskrepanz zwischen tatsächlichem und visuell dargestellten Betätigungs- bzw. Schaltzustand zu lange andauert und es aus diesem Grund zu Missverständnissen für die Bedienperson kommen kann.
Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass die Auswerteeinrichtung mit einem oder mehreren Aktuatoren signaltechnisch derart gekoppelt ist, dass bei Betätigung eines Bedienelementes oder bereits bei bloßer Berührung des Touchscreens eine haptische Rückmeldung an die Bedienperson generiert wird.
Bevorzugt sind die Positionen und die Art der Bedienelemente in der Auswerteeinrichtung hinterlegt und korrespondieren vorzugsweise mit vorhandenen haptischen Markierungen am Touchscreen. Die Positionen und die Art der Bedienelemente können in der Auswerteeinrichtung fix vorgegeben sein. Die Parametrierung seitens der Visualisierungssoftware kann sich in diesem Fall auf die Aktivierung bzw. Deaktivierung der Bedienelemente (virtuellen Bedienelemente) sowie gegebenenfalls auf die Vorgabe der mit einem bestimmten Bedienelement in Abhängigkeit der gerade dargestellten Bildschirmmaske zugeordnete Maschinenfunktion beschränken. Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass eine Deaktivierung eines monostabilen Bedienelementes, vorzugsweise als virtueller Taster oder virtueller Joystick mit automatischer Rückkehr in eine unbetätigte Ausgangslage, durch die Visualisierungseinrich- tung unabhängig vom tatsächlichen Betätigungszustand des Bedienelementes zu einer unver- zögerten Signalisierung eines unbetätigten Zustandes an die Auswerteeinrichtung bzw. zu einem dem unbetätigten Zustand entsprechenden Steuerbefehl von der Aus Werteeinrichtung an die Steuereinrichtung führt. Dadurch können Fehlsteuerungen vermieden werden. Bevorzugt ist zwischen der Auswerteeinrichtung und der Visualisierungseinrichtung eine zusätzliche Datenverbindung vorgesehen, vorzugsweise in der Art einer Interrupt-Leitung, mit der die Aus Werteeinrichtung einen Bedienvorgang einer Bedienperson an die Visualisierungseinrichtung signalisiert. Diese Information kann die Visualisierungseinrichtung in ein auf dem Display darstellbares Feedback umwandeln, insbesondere eine Veränderung der Darstellung des betreffenden Bedienelementes.
Eine bevorzugte Ausführungsform zeichnet sich dadurch aus, dass für die Übertragung der Echtzeit- Steuerbefehle eine echtzeitfähige Busverbindung, beispielsweise eine Echtzeit- Ethernet Busverbindung, vorgesehen ist, über welche die Betätigungszustände der Bedien- elemente zyklisch in einem vorgegebenen Zeitraster zur Steuereinrichtung übertragen werden. Dies gewährleistet auch eine Echtzeit-Übertragung von der Auswerteeinrichtung zur Steuereinrichtung, d.h. zur Maschinen- bzw. Anlagensteuerung.
Die Aufgabe wird auch gelöst mit einem Verfahren zur Erstellung einer grafischen Benutzer- Oberfläche für die Visualisierungseinrichtung einer Bedieneinrichtung und/oder eines Steuerungssystems nach einem der oben beschriebenen Ausführungen mittels einer Entwicklungsumgebung, wobei mit der Entwicklungsumgebung zumindest ein Bedienelement aus einer vorgegebenen Menge verfügbarer Bedienelemente ausgewählt wird und dieses zumindest eine Bedienelement hinsichtlich seiner Position, Größe, Orientierung, Größe, Art, zugeordneter Maschinen- bzw. Anlagenfunktion, seines zugeordneten Maschinen- bzw. Anlagenparameters und/oder seines Freigabezustandes parametriert wird, und wobei aus der Zuordnung der Parameter zu dem zumindest einen Bediendeld Konfigurationsdaten, insbesondere in Form eines Parameter-Datensatzes, für die Auswerteeinrichtung erzeugt werden. Die Entwicklungsumgebung weist vorzugsweise selbst eine grafische Benutzeroberfläche auf, mit der die verschiedenen Bedienelemente auf einfache und intuitive Weise ausgewählt, platziert und parametriert werden können und deren späteres Erscheinungsbild auf dem Bediengerät vorab visuell geprüft werden kann.
Die Erfindung betrifft auch ein Verfahren zum Betreiben einer Echtzeit- Auswerteeinrichtung, dadurch gekennzeichnet, dass Konfigurationsdaten betreffend zumindest ein von der Auswerteeinrichtung auswertbares Bedienelement von der Visualisierungseinrichtung oder von der Steuereinrichtung in die Auswerteeinrichtung geladen wird, wobei die Konfigurationsdaten vorzugsweise Informationen über die Position, Größe, Orientierung, Art, zugeordnete Maschinen- bzw. Anlagenfunktion, den zugeordneten Maschinen- bzw. Anlagenparameter, den Freigabezustand und/oder den aktuellen Betätigungszustand oder Einstellwert des zumindest einen Bedienelementes enthalten. Die Konfigurationsdaten können während der Initialisierungsphase der Bedieneinrichtung übertragen werden oder aber auch während des Betriebs zur Anpassung der Konfigurationsdaten an unterschiedliche Betriebszustände.
Zum besseren Verständnis der Erfindung wird diese anhand der nachfolgenden Figuren näher erläutert.
Es zeigen jeweils in stark vereinfachter, schematischer Darstellung: Fig. 1 Steuerungssystem einer Maschine bzw. Anlage; Fig. 2 eine Bedieneinrichtung gemäß Stand der Technik; Fig. 3 Ein Steuerungssystem gemäß Stand der Technik; Fig. 4 eine erfindungsgemäße Bedieneinrichtung; ein erfindungsgemäßes Steuerungssystem;
Fig. 6 eine Variante eines erfindungsgemäßen Steuersystems; Fig. 7 eine weitere Variante eines erfindungsgemäßen Steuersystems;
Fig. 8 eine Auswerteeinrichtung im Detail;
Fig. 9 einen Speicherinhalt der Aus Werteeinrichtung in schematischer Darstellung;
Einführend sei festgehalten, dass in den unterschiedlich beschriebenen Ausführungsformen gleiche Teile mit gleichen Bezugszeichen bzw. gleichen Bauteilbezeichnungen versehen wer- den, wobei die in der gesamten Beschreibung enthaltenen Offenbarungen sinngemäß auf gleiche Teile mit gleichen Bezugszeichen bzw. gleichen Bauteilbezeichnungen übertragen werden können. Auch sind die in der Beschreibung gewählten Lageangaben, wie z.B. oben, unten, seitlich usw. auf die unmittelbar beschriebene sowie dargestellte Figur bezogen und sind diese Lageangaben bei einer Lageänderung sinngemäß auf die neue Lage zu übertragen.
FIGURENBESCHREIBUNG
Die Ausführungsbeispiele zeigen mögliche Ausführungsvarianten der Bedieneinrichtung bzw. des Steuerungssystems, wobei an dieser Stelle bemerkt sei, dass die Erfindung nicht auf die speziell dargestellten Ausführungsvarianten derselben eingeschränkt ist, sondern vielmehr auch diverse Kombinationen der einzelnen Ausführungsvarianten untereinander möglich sind und diese Variationsmöglichkeit aufgrund der Lehre zum technischen Handeln durch gegenständliche Erfindung im Können des auf diesem technischen Gebiet tätigen Fachmannes liegt. Weiters können auch Einzelmerkmale oder Merkmalskombinationen aus den gezeigten und beschriebenen unterschiedlichen Ausführungsbeispielen für sich eigenständige, erfinderische oder erfindungsgemäße Lösungen darstellen.
Die den eigenständigen erfinderischen Lösungen zugrundeliegende Aufgabe kann der Be- Schreibung entnommen werden. Vor allem können die einzelnen in den Figuren gezeigten Ausführungen den Gegenstand von eigenständigen, erfindungsgemäßen Lösungen bilden. Die diesbezüglichen, erfindungsgemäßen Aufgaben und Lösungen sind den Detailbeschreibungen dieser Figuren zu entnehmen. Der Ordnung halber sei abschließend darauf hingewiesen, dass zum besseren Verständnis des Aufbaus der Erfindung diese bzw. deren Bestandteile teilweise unmaßstäblich und/oder vergrößert und/oder verkleinert dargestellt wurden.
Figur 1 zeigt als typisches Anwendungsgebiet für die Erfindung eine Spritzgießmaschine samt Steuerung und einem HMI-Gerät in der Art eines in die Maschine integrierten Bedienpanels. In der Figur 1 ist das Bedienpanel sowohl in die Maschine integriert als auch zur Verdeutlichung herausgezogen dargestellt. Die Steuerung der Maschine ist zu besseren Verdeutlichung des Signalflusses ebenfalls außerhalb der eigentlichen Maschinenkonstruktion dargestellt, ist aber in der Praxis häufig in einem Schaltschrank unmittelbar an bzw. in der Maschi- ne untergebracht. Die Maschinensteuerung steuert den Energiefluss zu den verschiedenen Aktoren der Maschine in Abhängigkeit von einem vorgegebenen Fertigungsprogramm, von Signalen der Sensoren, die den jeweiligen Ist-Zustand der Maschine und des ausgeführten Fertigungsprozesses repräsentieren und in Abhängigkeit von Kommandos und Parametern, die von einer Bedienperson über das ebenfalls mit der Maschinensteuerung verbundene Bedi- enpanel eingegeben werden. Zu diesem Zweck weist eine Maschinensteuerung typischerweise zumindest eine CPU, Speichermittel zum Speichern eines Programms sowie für Daten, verschiedene Schnittstellen zur Anbindung an die Maschine, deren Aktuatoren und Sensoren und zur Anbindung an Ein- und Ausgabegeräten wie ein stationäres und/oder ein mobiles Bedienpanel oder für die Anbindung an ein Netzwerk für einen Fernzugriff auf Daten, Programme und Funktionen der Maschine, auf.
Das Bedienpanel kann stationär ausgebildet sein, d.h. fix in den Aufbau der Maschine integriert sein, oder aber auch als mobile Handbediengerät ausgebildet sein, welches über eine flexible Kabelverbindung oder über eine drahtlose Funkverbindung signaltechnisch mit der Maschinensteuerung in Wirkverbindung steht. In der Figur 1 ist nur ein stationäres Bedienpanel abgebildet. Ein Bedienpanel weist Ausgabemittel in der Art eines Bildschirmes, vorzugsweise eines hochauflösenden Farbdisplays auf, über welchen bzw. welches an eine Bedienperson Informationen über die Maschine, deren Betriebszustand sowie über den ausgeführten Fertigungs- prozess ausgegeben werden können.
Weiters weist ein Bedienpanel eine Reihe von Eingabemitteln bzw. von Bedienelementen auf, über welche die Bedienperson Parameter der Maschine verändern kann, Informationen über die Maschine oder den Prozess für die Ausgabe auswählen kann, Betriebsmodi umschalten, automatische Bearbeitungsprozesse starten und stoppen, sowie Maschinenfunktionen, z.B. Verfahrbewegungen auch direkt und unverzögert manuell auslösen kann.
Fig. 2 zeigt in vergrößerter und beispielsweiser Darstellung eine Frontansicht eines Bediengerätes 30 in Form eines Bedienpanels gemäß dem Stand der Technik. Es weist einen ersten Bedienbereich 31 auf, der aus einem berührungssensitiven Bildschirm (einem Touch- Display), d.h. einer baulichen Überlagerung eines hochauflösenden Farbdisplays, und einem transparenten, berührungssensitiven Sensors gebildet ist. In diesem ersten Bedienbereich 31 erfolgen die Ausgabe von Informationen an die Bedienperson sowie Eingaben der Bedienperson beispielsweise zur Anpassung der dargestellten Informationen und zur Anpassung der Betriebsweise und Prozessparameter der Maschine.
In diesem ersten Bedienbereich 31 können eine Vielzahl virtueller Bedienelemente und Eingabefelder situationsabhängig ein- und ausgeblendet und verwendet werden. Die Ein- und Ausgaben in diesem ersten Bedienbereich 31 werden von einer mit dem Touch-Display signaltechnisch verbundenen Visualisierungseinrichtung verarbeitet bzw. aufbereitet. Insbeson- dere werden von der Visualisierungseinrichtung Informationen von der Maschinen- bzw. Anlagensteuerung ausgelesen und für die Ausgabe an die Bedienperson aufbereitet und umgekehrt beispielsweise aktualisierte Parameterwerte zur Maschinensteuerung übertragen.
Die Visualisierungseinrichtung (bzw. Visualisierungsrechner) weist typischerweise Prozesso- ren, Speichermittel und Schnittstellen auf, wie sie dem Fachmann hinlänglich bekannt sind. Auf der Visualisierungseinrichtung kommt beispielsweise ein Betriebssystem mit entsprechender Unterstützung für grafische Benutzeroberflächen, wie etwa Windows oder Linux zum Einsatz, unter welchem dann eine maschinenspezifische Visualisierungssoftware zur Ausführung gelangt.
Den Eingaben über diesen ersten Bedienbereich 31 ist gemeinsam, dass sie nicht zum Auslö- sen bzw. Ausführen von Maschinenfunktionen geeignet sind, die an einen Bedienvorgang unmittelbar gekoppelt sind, beispielsweise dem Verfahren von Maschinenachsen, welches nur während der Dauer eines Tastendruckes erfolgen soll. Der Grund dafür ist, dass die verwendeten herkömmlichen Betriebssysteme nicht oder nur eingeschränkt echtzeitfähig sind und es bei der Erfassung und Weiterleitung von Bedienvorgängen an den Bedienelementen (virtuel- len Bedienelementen) immer wieder zu Verzögerungen kommen kann (etwa durch Schreib- /Lesevorgänge auf Speichermedien oder Netzwerkverbindungen, Speicherbereinigung, Re- Initialisierungsvorgänge von Komponenten, etc.). Dazu kommt, dass zumindest Teile der Visualisierungssoftware oftmals von Personen geschrieben werden, denen die besonderen Maßnahmen und Regeln für die Erstellung echtzeitfähiger Softwarekomponenten nur unzu- reichend bekannt bzw. geläufig sind.
Daher ist bei einem Bediengerät 30 gemäß dem Stand der Technik ein weiterer, zweiter Bedienbereich 32 vorgesehen, welcher eine Anordnung von mechanischen Tasten, Schaltern, Drehstellern, mehrachsige Joysticks und dergleichen aufweist. Für die Tasten kommen bei- spielsweise herkömmliche Folientasten zum Einsatz. Die Signalausgänge dieser Bedienelemente werden nicht über die Software der Visualisierungseinrichtung erfasst und weitergeleitet, sondern unabhängig von der Visualisierungseinrichtung direkt an die Maschinensteuerung geleitet. Damit werden die Bedienhandlungen an diesen Bedienelementen zuverlässig und im Wesentlichen unverzögert durch die Maschinensteuerung erfasst und umgesetzt. Änderungen am Maschinen- oder Prozesszustand werden erst von der Maschinensteuerung wieder an die Visualisierungseinrichtung geleitet und über das Bediengerät bzw. HMI an die Bedienperson ausgegeben.
In diesem zweiten Bedienbereich 32 können auch weitere einfache Ausgabeeinrichtungen, wie beispielsweise LEDs oder Signallampen untergebracht sein, welche den Schaltzustand und/oder den Freigabezustand eines Bedienelementes oder den Betriebszustand einer Maschinenkomponente signalisieren. Diese können direkt von der Maschinensteuerung oder aber auch von der Visualisierungseinrichtung angesteuert werden. Der erste und zweite Bedienbereich 31, 32 sind baulich getrennt und überlappen sich nicht.
In Fig. 3 ist nochmals die zu Fig. 2 beschriebene Struktur eines Bediengerätes 30 bzw. Be- dienterminals gemäß dem Stand der Technik und die signaltechnische Verknüpfung der wesentlichen Komponenten stark vereinfacht dargestellt.
Die Figur 3 zeigt zwei Ein- und Ausgabekomponenten des Bediengerätes 30: einen den ersten Bedienbereich 31 bildenden Touchscreen 5 aus einem hochauflösenden, grafikfähigen Dis- play 6 und einem darüber angeordneten transparenten Berührungssensor 8, und den zweiten Bedienbereich 32 bildende mechanischen Eingabeelemente.
Die Signale der für die unmittelbare Maschinenbedienung verwendeten mechanischen Eingabeelemente des zweiten Bedienbereiches 32 werden direkt an die Steuereinrichtung 3 (d.h. Maschinen- bzw. Anlagensteuerung) der Maschine bzw. Anlage 4 geleitet.
Die Signale des Berührungssensors 8 (Touch-Sensors) werden von einem speziellen Touch- Controller 21 erfasst und in eine Datenfolge (Touch-Rohdaten) konvertiert, die im Wesentlichen die Positionen (Koordinaten) von einem oder mehreren vom Berührungssensor 8 re- gistrierten Berührungspunkten repräsentieren. Je nach eingesetzter Touch-Technologie können diese Touch-Rohdaten auch noch weitere Informationen, beispielsweise über den Betätigungsdruck oder die Größe der Kontaktfläche mit umfassen. Als Berührungssensor können beispielsweise kapazitive oder resistive Sensoren sowie auch auf dem Piezo-Effekt oder ähnlichen Prinzipien basierende Sensoren zum Einsatz kommen. Je nach verwendeter Touch- Technologie kann diese zum Erfassen von nur einem oder vorzugsweise auch von mehreren gleichzeitigen Berührungspunkten geeignet sein. Der Touch-Controller 21 ist üblicherweise als ASIC ausgeführt und wird signaltechnisch häufig über eine RS232-, eine RS485-, eine I2C- oder eine USB -Schnittstelle an die Visualisierungseinrichtung 10 angebunden. Der Berührungssensor 8 kann mehrere diskret ausgebildete Sensorfelder bzw. Sensorzonen aufwei- sen, die jeweils einem bestimmten Bedien- oder Eingabeelement entsprechen oder aber eine homogene große Sensorfläche mit einer hinreichend feinen Ortsauflösung aufweisen. Die Touch-Rohdaten werden über eine geeignete Signalverbindung, beispielsweise über eine USB -Schnittstelle, an die Visualisierungseinrichtung 10 übertragen bzw. können von dieser über diese Schnittstelle in regelmäßigen Zeitabständen abgefragt werden. Die Visualisierungseinrichtung ermittelt aus den Touch-Rohdaten die Betätigungsvorgänge für die ver- schiedenen, jeweils gerade dargestellten Bedienelemente 7a. Dabei können einfache Koordinatenauswertungen von Berührpunkten vorgenommen werden oder auch noch komplexere Abfolgen (z.B. Gesten) und Veränderungen ausgewertet und plausibilisiert werden. So können beispielsweise an einem bestimmten Bedienelement 7a je nach vorgenommener Gestenbewegung unterschiedliche Funktionen (z.B. Aktivieren/Deaktivieren oder Inkrementie- ren/Dekrementieren) ausgelöst werden, oder ungewollte von gewollten Betätigungen unterschieden werden (z.B. Berührungen durch den Handballen ausgeblendet werden) oder auch sporadische Betätigung ssignale zufolge irgendwelcher elektromagnetischer Störfelder ausgefiltert bzw. ignoriert werden. Einzelne der beschriebenen Maßnahmen können sowohl in der Visualisierungseinrichtung 10 als auch im Touch-Controller 21 realisiert sein.
Die Visualisierungseinrichtung 10 übermittelt über eine weitere Schnittstelle bzw. Signalverbindung (z.B. eine VGA-, DVI- oder HDMI-Schnittstelle) die für die Bildschirmausgabe benötigten Bilddaten an das Display 6. Als Display 6 kommen verschiedene verfügbare Technologien in Betracht. Vorzugsweise ist das Display 6 ein hochauflösendes, grafikfähiges Farbdisplay mit ausreichender Lebensdauer und thermischer und mechanischer Belastbarkeit für einen zuverlässigen Einsatz in industrieller Umgebung.
Über eine dritte Schnittstelle bzw. Datenverbindung, beispielsweise eine Ethernet- Busverbindung, tauscht die Visualisierungseinrichtung Parameter, Betriebszu stände und Pro- zessdaten, Fehlerinformationen und dergleichen mit der Steuereinrichtung 3 aus und bereitet diese Informationen für die Darstellung auf dem Display 6 auf. Dabei werden Daten je nach Betriebs- oder Fehlerzustand und auch abhängig von der Wahl der Bedienperson in geeigneter und übersichtlicher Weise in verschiedenen Bildschirmmasken (Fenstern) gruppiert. Im Folgenden wird die Erfindung näher beschrieben, wobei die vorhergehenden Ausführungen zu dem Display 6, dem Touch-Controller 21 und der Visualisierungseinrichtung 10, insbesondere zu deren Aufbau, auch im Hinblick auf den erfindungsgemäßen Gegenstand gelten können, soweit im Folgenden nicht unterschiedliches ausgeführt wird. Fig. 4 zeigt nun die Frontansicht einer Bedieneinrichtung 2 gemäß einer Ausführungsform der Erfindung. Es zeichnet sich durch eine weitgehend ebene Front aus, die von einem weite Teile der gesamten Frontfläche einnehmenden, hochauflösenden (Farb)Display 6 samt einem bau- lieh überlagerten Berührungssensor 8 gebildet wird.
Im oberen ersten Ein-/Ausgabebereich sind Ein-/Ausgabeelemente, herkömmliche Touch- Bedienelemente 7a, dargestellt, welche zum Anzeigen und Ändern von Maschinenparametern und Prozesszuständen vorgesehen sind. Im mittleren Teil bzw. dem zweiten Ein- /Ausgabebereich ist ein Übersichtsbild der gesteuerten Maschine oder Anlage dargestellt. Es kann sowohl zur Darstellung bestimmter Maschinenzustände dienen (d.h. die Abbildung kann je nach Maschinenzustand verändert werden und den Maschinenzustand anzeigen), als auch zur einfachen, intuitiven Selektion einer Maschinenkomponente für die Darstellung und Änderung detaillierter Daten im ersten Ein-/ Ausgabebereich. Im unteren, dritten Ein- /Ausgabebereich der Bedieneinrichtung 2 sind exemplarisch einige Bedienelemente 7b für das Auslösen von Steuerbefehlen (Maschinenkommandos) zur unmittelbaren Ausführung durch die Maschine bzw. Anlage dargestellt. Hierbei handelt es sich um virtuelle Bedienelemente in der Art von bistabilen Ein- und Umschaltern, von monostabilen Tastern sowie um Schieberegler und Drehsteller, mit denen beispielsweise Positionen oder Geschwindigkeiten quasi analog vorgebbar sind.
Die Fig. 5 bis 7 zeigen nun verschiedene Möglichkeiten der Implementierung und der signaltechnischen Einbindung einer erfindungsgemäßen Echtzeit- Auswerteeinrichtung 13 in das Steuerungssystem 1 einer Maschine bzw. Anlage 4. Die Maschine bzw. Anlage 4 kann z.B. ein Manipulator, eine Bearbeitungs Vorrichtung zur Bearbeitung von Werkstücken und/oder einer Fertigung s anläge zur Herstellung von Baugruppen sein.
Das Steuerungssystem 1 zum Steuern einer Maschine oder Anlage 4 umfasst eine Steuereinrichtung 3 zur Ansteuerung der Maschine oder Anlage 4 und eine mit der Steuereinrichtung 3 verbundene Bedieneinrichtung 2 zum Bedienen der Maschine oder Anlage 4 durch eine Bedienperson. Die Bedieneinrichtung 2 weist einen Touchscreen 5 auf, der aus einem Display 6 zur Visualisierung von Bedienelementen 7a, 7b und einem dem Display 6 überlagerten Berührungssensor 8 gebildet wird. In der Ausführungsform der Fig. 5 umfasst die Bedieneinrich- tung 2 eine mit dem Display 6 über eine Datenverbindung 29 verbundene Visualisierungseinrichtung 10 mit einer Datenverarbeitungseinrichtung 11 zur Bereitstellung von Bilddaten für das Display 6 des Touchscreens 5.
Das Steuerungssystem 1 umfasst eine Auswerteeinrichtung 13, deren Eingangsschnittstelle 26 mit dem Berührung ssensor 8 des Touchscreens 5 (hier über einen vorangeschalteten Touch-Controller 21) über eine Sensor-Datenverbindung 18 verbunden ist. Die Auswerteein- richtung 13 umfasst eine Echtzeit-Datenverarbeitungseinrichtung 14 (CPU) und eine mit der Steuereinrichtung 3 verbundene Ausgabeschnittstelle 16. Die Aus Werteeinrichtung 13 enthält eine Software, mit der die Echtzeit-Datenverarbeitungseinrichtung 14 in der Lage ist, in Abhängigkeit der Sensordaten des Berührungssensors 8 Steuerbefehle für die Steuereinrichtung 3 zu generieren und über die Ausgabeschnittstelle 16 bereitzustellen bzw. an die Steuerein- richtung 3 zu übermitteln. Die Echtzeit-Datenverarbeitungseinrichtung 14 der Auswerteeinrichtung 13 ist in Bezug auf die Datenverarbeitungseinrichtung 11 der Visualisierungseinrichtung 10 eigenständig. D.h. es handelt sich bei den Datenverarbeitungseinrichtungen 11, 14 um gesonderte Datenverarbeitungseinrichtungen. Da die Aus Werteeinrichtung 13 zur Visualisierungseinrichtung 10 parallel geschaltet ist, erfolgt die Übermittlung der Steuerbefehle an die Steuereinrichtung 3 unter Umgehung der Visualisierungseinrichtung 10, d.h. über einen eigenständigen Signalpfad bzw. einen eigenständigen Datenkanal zur Steuereinrichtung 3.
An dieser Stelle wird der Unterschied zwischen den Bedienelementen 7a und 7b nochmals hervorgehoben. Die Bedienelemente 7b sind Maschinenfunktionen zugeordnet, die über die Aus Werteeinrichtung 13 in Echtzeit gesteuert werden. Die Bedienelemente 7a sind Maschinenfunktionen oder Maschinenparametern zugeordnet, die keine Echtzeitsteuerung erfordern und über die Visualisierungseinrichtung gesteuert bzw. übermittelt werden.
In Fig. 5 wird der vom Touch-Controller 21 generierte Datenstrom der Touch-Rohdaten aufgeteilt und gleichermaßen an die Visualisierungseinrichtung 10 wie auch an die Auswerteeinrichtung 13 übertragen. Die Visualisierungseinrichtung wertet die Touch-Eingaben hinsieht- lieh der nicht-echtzeitrelevanten Bedienvorgänge aus, wie etwa der vom Benutzer gewünschte Wechsel in eine andere Bildschirmmaske oder das Anzeigen und Ändern eines Maschinenoder Prozessparameters oder auch anderer Funktionen wie das Speichern oder Laden ganzer Parametersätze oder die Ausgabe von Bedien- oder Service-Anleitungen. Hierzu gehören auch weitere Funktionalitäten, die im Zusammenhang mit grafischen Benutzeroberflächen auf computer-gestützten Steuer- und Datenverarbeitungssystemen wohl bekannt sind.
Die Auswerteeinrichtung 13 bzw. deren Datenverarbeitungseinrichtung 14 bildet zwischen dem Berührungssensor 8 des Touchscreens 5 und der Steuereinrichtung 3 der Maschine bzw. Anlage 4 einen Umgehungspfad zur Visualisierungseinrichtung 10 bzw. deren Datenverarbeitungseinrichtung 11 für Bedienvorgänge über den Berührungssensor 8. Die Auswerteeinrichtung 13 analysiert fortwährend denselben Datenstrom an Sensordaten hinsichtlich solcher Bedienmuster, die zur Betätigung der in ihrem Speicher 15 (Fig. 8) parametrierten Bedienelemente 7b passen. Die Auswerteeinrichtung 13 kann die Statusinformationen über die Betä- tigungszustände der Bedienelemente 7b anpassen, d.h. in Steuerbefehle umwandeln, und diese umgewandelten Statusinformationen innerhalb einer definierten Zeitspanne bzw. eines vorgegebenen Zeitrasters, d.h. in Echtzeit, über eine Ausgabeschnittstelle 16 und eine echt- zeitfähige Datenverbindung 22 der Steuereinrichtung 3 zur Verfügung stellen. Die Übermittlung der Steuerbefehle von der Aus Werteeinrichtung 13 an die Steuereinrichtung 3 erfolgt vorzugsweise zyklisch und jeweils komplett, so dass in der Steuereinrichtung 3 zu jeder Zeit ein aktuelles Abbild der Betätigungszustände sämtlicher Bedienelemente vorliegt.
Eine vorzugsweise bidirektionale Datenverbindung 17 (insbesondere als Parameter- Schnittstelle) zwischen der Echtzeit- Auswerteeinrichtung 13 und der Visualisierungseinrich- tung 10 ermöglicht die Parametrierung der von der Auswerteeinrichtung 13 überwachten Bedienelemente 7b durch die Visualisierungseinrichtung 10. Dies kann im einfachsten Fall eine einfache Freigabe-Information sein, mit der lediglich bestimmt wird, ob und welche der Bedienelemente 7b für eine Bedienhandlung freigeschaltet sind. In diesem einfachen Fall können die Art, die Position und die Orientierung der Bedienelemente 7b fix in zumindest einem Speicher 15 der Aus Werteeinrichtung 13 hinterlegt sein (Fig. 8 und 9).
Die Art der jeweiligen Bedienelemente 7b, d.h. der virtuellen Bedienelemente, ihre Position am Bildschirm, ihre Ausrichtung (Orientierung) und ihr initialer Betätigungszustand können aber ebenso parametrierbar, insbesondere von der Visualisierungseinrichtung 10 über die Datenverbindung 17 vorgegeben werden. Eine solche Parametrierung der Auswerteeinrichtung 13 kann einmalig während der Initialisierungsphase der Bedieneinrichtung 2 aber auch mehrmals während des laufenden Betriebes erfolgen, um beispielsweise die Art und Anzahl der Bedienelemente 7b an unterschiedliche Betriebs- und Bediensituationen anzupassen.
Zwischen der Aus Werteeinrichtung 13 und der Visualisierungseinrichtung 10 kann eine zusätzliche Datenverbindung 27 vorgesehen sein, vorzugsweise in der Art einer Interrupt- Leitung, mit der die Auswerteeinrichtung 13 einen Bedienvorgang einer Bedienperson an die Visualisierungseinrichtung 10 signalisiert.
Der Touch-Controller 21 und die Auswerteeinrichtung 13 können zusätzlich zur Sensor- Datenverbindung 18, über die Sensor-Rohdaten an die Aus Werteeinrichtung 13 übermittelt werden, über eine Kommunikationsverbindung 23, vorzugsweise in Art einer Interrupt- Signalleitung, miteinander verbunden sein. Über diese Kommunikationsverbindung kann der Touch-Controller 21 der Aus Werteeinrichtung 13 asynchron und unverzögert das Vorliegen eines für die Auswertung relevanten Bedienvorganges vorab signalisieren.
Die Bedieneinrichtung 2 kann ein baulich eigenständiges Bediengerät 24 sein, insbesondere in Form eines HMI (human-machine-interface)-Panels, eines Handbediengerätes, eines Handprogrammiergerätes, eines TPU (teach pendant unit) und dgl.. Alternativ wäre es auch denkbar, dass die Bedieneinrichtung 2 zusammen mit der Steuereinrichtung 3 eine bauliche Einheit bildet. Die in den Fig. 4 bis 7 abgebildeten Bedienelemente 7a und 7b stellen virtuelle, d.h. über das Display 6 dargestellte und visuell veränderbare Eingabeelemente dar. Die Verwendung baulich eigenständiger und zusätzlicher mechanischer Bedienelemente für die Abgabe echtzeit- gebundener Maschinenkommandos und Verfahrbefehle ist gemäß Erfindung nicht mehr nötig. Durch den Wegfall zusätzlicher mechanischer Eingabeelemente ergeben sich fertigungstech- nisch wesentliche Vereinfachungen, etwa hinsichtlich der Abdichtung gegen Eindringen von Schmutz und Flüssigkeiten. Der Wegfall mechanisch beweglicher Komponenten verringert verschleißbedingte Ausfälle. Da das Aussehen, die Anzahl, Position und Funktion der Bedienelemente 7a, 7b durch die in der Auswerteeinrichtung 13 und in der Visualisierungseinrich- tung 10 ausgeführte Software bzw. deren Parametrierung bestimmt wird, verringert sich die Anzahl und Variantenvielfalt der verbleibenden Hardwarekomponenten. Auch wird die Anpassung an maschinenspezifische Anforderungen auch bei Serien mit kleineren Stückzahlen vereinfacht. So kann für eine Anzahl unterschiedlicher Maschinen mit unterschiedlichem Funktionsumfang dieselbe Bedieneinrichtung verwendet und die Darstellung und Auswahl der Bedienelemente per Software an die jeweilige Maschine bzw. Anlage 4 angepasst werden.
Der verwendete Berührungssensor 8 ist vorzugsweise ein hochauflösender, kapazitiver Multi- Touch-Sensor. Diese Sensortechnologie ermöglicht die Detektion von gleichzeitig mehreren Berührungen durch eine Front, insbesondere eine Glasfläche, hindurch. Eine solche Front bildet eine mechanisch wie chemisch besonders widerstandsfähige, kratzfeste und dauergebrauchsfähige Frontfläche für ein Bediengerät 24 in industrieller Umgebung.
Durch das Fehlen von aufgedruckten Tastenbeschriftungen können diese auch nicht im Laufe der Zeit abgegriffen werden und verblassen. Eine klare Kennzeichnung ist durch die Darstellung am darunter liegenden Display 6 ermöglicht. Ebenso die Darstellung unmittelbar zugeordneter Maschinen- oder Schaltzustände beispielsweise durch eine entsprechende farbliche Kennzeichnung auf dem Display 6. An der Front können weiters spezielle ertastbare Markierungen 25 angebracht sein, die es einem Benutzer ermöglichen, die einzelnen Bedienelemente 7a, 7b auch ohne unmittelbar visuelle Kontrolle ertasten bzw. ein ganz bestimmtes Bedienelement 7a, 7b auffinden zu können. Dies ist insbesondere für solche Bedienelemente 7b vorteilhaft, die für das Auslösen unmittelbarer Aktionen, insbesondere Verfahrbewegungen entsprechend der vorliegenden Er- findung vorgesehen sind, da dabei oftmals der Blick der Bedienperson auf die jeweils betreffende Maschinenkomponente gerichtet ist, um eine bestimmte Position anzusteuern und dies visuell zu überwachen.
Die Figuren 5 bis 7 zeigen neben dem Display 6 für die Ausgabe von Informationen an die Bedienperson und dem vollflächigen Touch-Sensor 8 für die Eingabe bzw. die Erfassung von Bedienhandlungen auch noch eine überlagerte Front 9, z.B. in Form einer durchsichtigen (Glas)platte. Die Front 9 weist haptische Markierungen 25 auf. Diese Markierungen 25 erleichtern das Zurechtfinden einer Bedienperson auf dem Bediengerät 24 während eines Bedi- envorganges, bei dem beispielsweise Maschinenachsen manuell gesteuert verfahren, insbesondere positioniert, werden und dabei der Blick auf die jeweilige Maschinenkomponente und nicht auf das Bediengerät 24 gerichtet ist. Die Lage eines Bedienelementes 7b ist gut zu ertasten, so dass die Bedienperson ein bestimmtes Bedienelement 7b auch ohne Blick auf den Touchscreen 5 auffinden kann. Auf einer vollkommen ebenen Bedienfläche sind die Bedienelemente 7b zunächst jedoch nur visuell wahrnehmbar, so dass dieser potenzielle Nachteil vorzugsweise durch auf die Front 9 aufgebrachte haptisch wahrnehmbare Markierungen 25 ausgeglichen wird. Fig. 6 zeigt eine Variante, bei der die Daten des Touch-Controllers 21 zunächst alleinig zur Aus Werteeinrichtung 13 geführt werden und dort wie zuvor bereits beschrieben, ausgewertet werden. Die von der Auswerteeinrichtung 13 erfassten Bedienhandlungen an den Bedienelementen 7b werden in entsprechende Steuerbefehle codiert und direkt an die Steuereinrichtung 3 gesendet.
Über eine weitere Schnittstelle der Auswerteeinrichtung 13 und eine Datenverbindung 17 zur Visualisierungseinrichtung 10 werden Daten - im Wesentlichen entsprechend zu den Touch- Rohdaten - von der Aus Werteeinrichtung 13 an den Visualisierungsrechner 10 weitergeleitet, so dass dieser die Touch-Eingaben auch hinsichtlich der nicht echtzeit-kritischen Bedienvor- gänge über die grafische Benutzeroberfläche auswerten und umsetzen kann. Zu solchen Funktionen zählen beispielsweise das Umschalten zwischen verschiedenen Bildschirmmasken oder das Auswählen bestimmter Gruppen von Statuswerten oder Parametern für die Ausgabe am Display 6 (Bildschirm) oder dergleichen. Die Auswerteeinrichtung 13 kann zu diesem Zweck das Schnittstellenverhalten eines Touch-Controllers emulieren und den vom eigentlichen Touch-Controller 21 gelieferten Datenstrom im Wesentlichen unverändert weitersenden. Der Vorteil dieser Methode ist, dass in der Visualisierungseinrichtung ein Standard-Treiber für die Auswertung der Touch-Daten verwendet werden kann. Es kann aber auch ein proprietäres Kommunikationsformat zwischen Visualisierungseinrichtung 10 und Auswerteeinrichtung 13 vorgesehen sein, das dafür umfangreichere Funktionalitäten, z.B. in Verbindung mit der Pa- rametrierung der Aus Werteeinrichtung 13 und verschiedener Sicherheitsfunktionen ermöglicht. Ein wesentlicher Vorteil dieser Konfiguration nach Fig. 6 ist, dass die Auswerteeinrichtung 13 exklusiven Zugriff auf den Touch-Controller 21 hat und daher den Zugriff auf die Touch- Daten im Hinblick auf eine zuverlässige und mit den Echtzeitanforderungen konforme Weise ausführen kann. Störungen im Datenstrom zufolge irgendwelcher Effekte seitens der Visuali- sierungseinrichtung können nicht auftreten. Die Einhaltung der Echtzeitbedingungen ist nicht gefährdet.
Fig. 7 zeigt eine weitere vorteilhafte Umsetzung, bei der die Visualisierungseinrichtung 10 nicht im Bediengerät 24, sondern außerhalb angeordnet ist. In diesem Fall umfasst die Bedie- neinrichtung 2 bzw. das Bediengerät 24 eine Schnittstelle 12 für eine Visualisierungseinrichtung 10. Die Schnittstelle 12 kann Teil einer Steckverbindung oder Bestandteil einer funkbasierten Schnittstelle sein. Die Visualisierungseinrichtung kann dabei in die Steuereinrichtung integriert oder mit dieser baulich kombiniert sein. Die Anbindung des Bediengerätes 24 an die Steuereinrichtung 3 erfolgt über eine Datenverbindung 19, die kabelgebunden oder funkba- siert ausgebildet sein kann. Diese umfasst: eine Datenverbindung 22 zwischen Auswerteeinrichtung 13 und Steuereinrichtung 3, vorzugsweise in Form eines Echtzeit-Bus, z.B. Echtzeit- Ethernet, für die Übertragung der Echtzeit-Steuerbefehle; eine weitere Datenverbindung 17, z.B. in der Art einer USB-Schnittstelle oder I2C-Schnittstelle für die Übertragung der Sensordaten von der Auswerteeinrichtung 13 zur Visualisierungseinrichtung 10 sowie für die Über- tragung von Konfigurationsdaten von der Visualisierungseinrichtung 10 zur Auswerteeinrichtung 13; sowie eine weitere Datenverbindung 29 zur Übertragung der Display-Ausgabedaten von der Visualisierungseinrichtung 10 zum Display 6. Die Display-Ausgabedaten können beispielsweise nach dem VGA, DVI oder HDMI-Standard ausgebildet sein. Vorteilhaft bei dieser Konfiguration ist, dass das Bediengerät 24 selbst völlig unabhängig von der zur Visua- lisierung benötigten Rechenleistung ist, die je nach Anwendungskomplexität, Betriebssystem und Programmierplattform stark variieren kann. Dadurch können die Variantenvielfalt und somit die Her stell- und Lagerhaltungskosten weiter reduziert werden.
Der Wegfall der fix beschrifteten und angeordneten mechanischen Tasten (aus dem Stand der Technik) und der Ersatz durch die konfigurierbaren und echtzeitfähigen virtuellen Bedienelemente bzw. Bedienelemente 7 führt in Verbindung mit der Anordnung nach Fig. 7 zu einem Bediengerät 24, das in der Praxis für ein sehr breites Spektrum an Einsatzfällen und je- weils individuellen Gestaltungsanforderungen zum Einsatz gebracht werden kann. Dadurch ergeben sich sehr kostengünstige Lösungen.
Fig. 7 zeigt darüber hinaus eine Variante, bei der der Touch-Controller 21 (aus Fig. 5 und 6), welcher die Signale des Berührungssensors 8 in einen entsprechenden Datenstrom umwandelt, bereits baulich in die Auswerteeinrichtung 13 integriert ist bzw. die Aus Werteeinrichtung 13 bereits die Funktion des Touch-Controllers 21 mit übernimmt. Damit stehen der Auswerteeinrichtung 13 zusätzliche und direkte Sensorinformationen für die Auswertung zur Verfügung, welche eine zuverlässigere und schnellere Reaktion ermöglichen. Insbesondere bei ei- ner multi-touch-fähigen Auswertung kann die direkte Integration eine schnellere Erfassung und Reaktion auf die Eingaben ermöglichen.
Als weitere Variante zeigt Fig. 7 die Ansteuerung zumindest eines Aktuators 20 der Bedieneinrichtung 2 durch die Auswerteeinrichtung 13. Der Aktuator 20 ist mechanisch mit der Front 9 gekoppelt und kann mechanische Schwingungen oder Impulse in diese einkoppeln.
Diese können bei Berührung von einer Bedienperson wahrgenommen werden. Auf diese Weise kann der Bedienperson auch taktiles Feedback über die Reaktion auf eine Bedienhandlung gegeben werden. Verschiedene Parameter des taktilen Feedbacks können veränderlich sein, beispielsweise die Intensität oder Frequenz von Impulsen, und können auch anwendungsab- hängig parametrierbar sein (z.B. im Zuge der Gestaltung der grafischen Bedienoberfläche).
In allen drei Varianten nach den Fig. 5 bis 7 können über die Datenverbindung 17 zwischen der Auswerteeinrichtung 13 und der Visualisierungseinrichtung 10 Änderungen an den Bedienzuständen der Bedienelemente 7b auch unmittelbar der Visualisierungseinrichtung 10 zugeführt und dort zu einer Anpassung der Displayausgabe herangezogen werden.
Bei den Ausführungen gemäß dem Stand der Technik nach Fig. 3 erhält die Visualisierungseinrichtung 10 hingegen erst nach einem Zugriff auf die Steuereinrichtung 3 aktualisierte Informationen über Eingaben oder geänderte Bedienzustände über die mechanischen Eingabe- elemente, da dieses signaltechnisch nur mit der Steuereinrichtung 3 gekoppelt ist.
In einer weiteren Ausführungsform der Erfindung können über die Datenverbindung 22 zur Übertragung der Echtzeit- Steuerbefehle an die Steuereinrichtung 3 auch umgekehrt Daten von der Steuereinrichtung 3 an die Ausgabeeinheit 13 übermittelt werden. Mit solchen Daten kann z.B. das Verhalten oder der gespeicherte Betätigungszustand eines Bedienelementes beein- flusst werden. Die Erfindung ist nicht auf die Verwendung einer bestimmten Touch-Technologie beschränkt. Als Berührungssensor kommen insbesondere verschiedene gebräuchliche Typen und Technologien, insbesondere basierend auf kapazitiven, resistiven oder piezoelektrischen Technologien in Frage. Fig. 8 zeigt stark vereinfacht und beispielhaft den Aufbau einer Auswerteeinrichtung 13. Diese umfasst eine Echtzeit-Datenverarbeitungseinrichtung 14 in Form einer Prozessoreinheit (CPU) und zumindest einen Speicher 15, der einen Arbeitsspeicher (RAM) umfasst, in dem eine Software zur Ausführung durch die Datenverarbeitungseinrichtung 14 sowie für die Ausführung erforderliche Daten gespeichert sind. Darüber hinaus kann auch ein nicht flüchtiger Speicher 15 (ROM) vorgesehen sein, in dem ein Programmcode sowie Daten gespeichert sind, welche auch nach Wegfall der Versorgungsspannung beim nächsten Wiedereinschalten wieder vorliegen sollen. Dabei kann es sich um einen nur lesbaren Speicher (ROM) handeln, es kann aber ebenso ein nicht flüchtiger beschreibbarer Speicher sein (NVRAM - Non Volati- le RAM). Im nicht flüchtigen Speicher 15 kann auch nur ein einfaches Bootloader-Programm enthalten sein, welches nach dem Einschalten der Versorgungsspannung das Laden des eigentlichen Programmcodes der Auswerteeinrichtung 13 samt Daten über die Datenverbindung 17 durch die Visualisierungseinrichtung 10 ermöglicht.
Weiters weist die Echtzeit- Auswerteeinrichtung 13 eine erste (USB-)Schnittstelle 26 für die Anbindung an den Touch-Controller 21 bzw. direkt an den Berührungssensor 8 und eine zweite (USB-)Schnittstelle 28 für die Anbindung an die Visualisierungseinrichtung 10 auf. Diese Schnittstellen können aber ebenso nach anderen Schnittstellenstandards wie beispielsweise I2C oder auch nach einem proprietären Standard ausgebildet sein. Eine weitere (RT-Ethernet-)Schnittstelle - die Ausgabeschnittstelle 16 - ist für die Echtzeit- Übertragung der Steuerbefehle an die Steuereinrichtung 3 vorgesehen. Intern kommunizieren die einzelnen Komponenten und Schnittstellen der Aus Werteeinrichtung vorzugsweise über eine gemeinsame Busverbindung. Die Software der Aus Werteeinrichtung 13 ist normalerweise einfach und ohne viel Overhead gehalten. Sie weist insbesondere kein komplexes Betriebssystem auf und basiert vorzugsweise nicht auf einer grafischen Benutzeroberfläche. Durch den klar umrissenen Zweck der Soft- wäre, den klar eingegrenzten Funktionsumfang und den Verzicht auf komplexe Betriebssystem-Funktionalitäten sind eine hohe Funktionszuverlässigkeit, kurze Programmausführungszeiten und ein vorhersagbares und garantierbares zeitliches Verhalten (=Echtzeitverhalten) ermöglicht. Die Auswerteeinrichtung 13 kann sowohl baulich eigenständig ausgebildet sein, als auch mit anderen Steuerungskomponenten, insbesondere mit der Visualisierungseinrichtung 10 oder der Steuereinrichtung 3 kombiniert ausgeführt sein. Wesentlich ist nur, dass die Auswerteeinrichtung 13 eine eigenständige Datenverarbeitungseinrichtung 14 aufweist, die sich von der Datenverarbeitungseinrichtung 11 der Visualisierungseinrichtung 10 unterscheidet bzw. von dieser funktional getrennt ist. Im Grunde kann es sich bei den beiden Datenverarbeitungseinrichtungen 11 und 14 aber auch um zwei eigenständig ausführende Kerne einer gemeinsamen CPU handeln.
Bevorzugt ist die Visualisierungseinrichtung 10 dazu eingerichtet, um der Auswerteeinrich- tung 13 Konfigurationsdaten betreffend zumindest ein am Display 6 visualisiertes Bedienelement 7b zur Verfügung zu stellen. Alternativ oder zusätzlich können solche Konfigurationsdaten im Speicher 15 der Aus Werteeinrichtung 13 hinterlegt sein/werden. Die Konfigurationsdaten enthalten vorzugsweise Informationen über die Position, Größe, Orientierung, Art, die zulässigen oder zugeordneten Bediengesten für eine Betätigung sowie deren parametriebarer Charakteristiken, Parameter für ein etwaiges aktives taktiles Feedback, zugeordnete Maschinen- bzw. Anlagenfunktion, den zugeordneten Maschinen- bzw. Anlagenparameter, den Freigabezustand und/oder den aktuellen Betätigungszustand oder Einstellwert des zumindest einen Bedienelementes. Die Auswerteeinrichtung 13 bzw. deren Software ist dazu eingerichtet, um die Steuerbefehle für die Steuereinrichtung 3 in Abhängigkeit der Konfigurationsdaten zu generieren.
In Fig. 9 ist schematisch ein Auszug des Speichers 15 (RAM) einer erfindungsgemäßen Echtzeit-Auswerteeinrichtung 13 wiedergegeben. In einem Teil des Speichers 15 (Programmspei- eher) ist der zur Ausführung durch die Datenverarbeitungseinrichtung 14 (CPU) vorgesehene Programmcode abgelegt. Ein weiterer Teil beinhaltet allgemeine Daten, die zur Ausführung des Programmcodes erforderlich sind bzw. während dessen Ausführung anfallen. In einem dritten Teil des Speichers 15 sind die Parameter und Daten zu den einzelnen, von der Aus Werteeinrichtung 13 erfassbaren Bedienelemente 7 abgelegt (Konfigurationsdaten bzw. "Parametrierte Bedienelemente").
Zu jedem Bedienelement ist zumindest eine Kennung in der Art eines Identifiers hinterlegt, die die Zuordnung einer vorgenommenen Bedienhandlung an dem jeweiligen Bedienelement zu einer bestimmten Maschinen- bzw. Anlagenfunktion oder einem Parameter ermöglicht. Weiters können Daten hinterlegt sein, welche die Art und die grundsätzlichen Eigenschaften des jeweiligen Bedienelementes bestimmen. In weiteren Parametern können die Position, die Größe und die Ausrichtung in Bezug auf das Display bzw. in Bezug auf den Touch-Sensor vorgegeben werden, sofern diese Eigenschaften veränderbar ausgeführt sind. Über einen Enable-Status kann die Funktion eines virtuellen Bedienelementes vorübergehend gesperrt und wieder freigegeben werden (Freigabezustand). Grundsätzlich ist es über diesen Mechanismus auch möglich, mehrere am Touchscreen überlagerte Bedienelemente zu definieren, von denen dann je nach Betriebs- oder Bedienzustand der Maschine/ Anlage jeweils ein be- stimmtes freigeschaltet ist, während die anderen gesperrt sind. Korrespondierend dazu kann die visuelle Darstellung am Display angepasst werden.
Schließlich können die Daten zu einem Bedienelement auch noch dessen aktuellen bzw. letztgültigen Bedienstatus, z.B. Ein-/Aus-Zustand, in einem Zustandswert abbilden.
Wie bereits eingangs ausführlich dargelegt betrifft die Erfindung neben der Bedieneinrichtung und dem Steuerungssystem auch Verfahren zum Steuern einer Maschine oder Anlage, die bereits weiter oben ausführlich beschrieben wurden. Ebenfalls betrifft die Erfindung ein Verfahren zur Erstellung einer grafischen Benutzeroberfläche für die Visualisierungseinrichtung 10 einer Bedieneinrichtung 2 und/oder eines Steuerungs Systems 1 mittels einer Entwicklung sumgebung Bezugszeichenaufstellung Steuerungssystem 27 Datenverbindung
Bedieneinrichtung 28 Schnittstelle
Steuereinrichtung 29 Datenverbindung
Maschine bzw. Anlage 30 Bediengerät gemäß Stand der Touchscreen Technik
Display 31 erster Bedienbereich a Bedienelement 32 zweiter Bedienbereichb Bedienelement, das mit der Echtzeit-Funktion verknüpft ist
Berührungssensor
Front
0 Visualisierungseinrichtung
1 Datenverarbeitungseinrichtung
2 Schnittstelle für Visualisierungseinrichtung 10
3 Auswerteeinrichtung
4 Echtzeit- Datenverarbeitungseinrichtung
5 Speicher
6 Ausgabeschnittstelle
7 Datenverbindung
8 Sensor-Datenverbindung
9 Datenverbindung
0 Aktuator
1 Touch-Controller
2 echtzeitfähige Datenverbindung
3 Kommunikationsverbindung
4 bauliche Einheit
5 haptische Markierungen
6 Eingangsschnittstelle

Claims

P a t e n t a n s p r ü c h e
1. Bedieneinrichtung (2) zum Erzeugen von Steuerbefehlen für die Steuereinrichtung (3) einer Maschine oder Anlage (4), wobei die Bedieneinrichtung (2) umfasst:
- einen Touchscreen (5), der aus einem Display (6) zur Visualisierung von Bedienelementen (7b) und einem dem Display überlagerten Berührungssensor (8) gebildet wird; eine mit dem Display (6) verbundene Visualisierungseinrichtung (10), die eine Datenverarbeitungseinrichtung (11) umfasst, oder eine mit dem Display (6) verbundene Schnittstelle (12) für eine solche Visualisierungseinrichtung (10) zur Bereitstellung von Bilddaten für das Display (6) des Touchscreens (5);
gekennzeichnet durch eine Aus Werteeinrichtung (13), die mit dem Berührungssensor (8) des Touchscreens (5) verbunden ist und die eine Echtzeit-Datenverarbeitungseinrichtung (14) und eine Ausgabeschnittstelle (16) umfasst, wobei die Echtzeit-Datenverarbeitungseinrichtung (14) der Aus Werteeinrichtung (13) eingerichtet ist, um in Abhängigkeit der Sensordaten des Berührungssensors (8) Steuerbefehle für die Steuereinrichtung (3) zu generieren und an der Ausgabeschnittstelle (16) bereitzustellen, wobei die Echtzeit-Datenverarbeitungseinrichtung (14) der Aus Werteeinrichtung (13) in Bezug auf die Datenverarbeitungseinrichtung (11) der/einer Visualisierungseinrichtung (10) eigenständig ist.
2. Bedieneinrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Auswerteeinrichtung (13) mit der Visualisierungseinrichtung (10) über eine vorzugsweise bidirektionale Datenverbindung (17) verbunden ist.
3. Bedieneinrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Visualisierungseinrichtung (10) dazu eingerichtet ist, um der Auswerteeinrichtung (13) Konfigurationsdaten betreffend zumindest ein am Display (6) visualisiertes Bedienelement (7b) zur Verfügung zu stellen, wobei die Konfigurationsdaten vorzugsweise Informationen über die Position, Größe, Orientierung, Art, zugeordnete Maschinen- bzw. Anlagenfunktion, den zugeordneten Maschinen- bzw. Anlagenparameter, den Freigabezustand und/oder den aktuel- len Betätigungszustand oder Einstellwert des zumindest einen Bedienelementes (7b) enthalten, und dass die Aus Werteeinrichtung (13) eingerichtet ist, um die Steuerbefehle für die Steuereinrichtung (3) in Abhängigkeit der Konfigurationsdaten zu generieren.
4. Bedieneinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Visualisierungseinrichtung (10) zumindest indirekt mit dem Berührungssensor (8) und mit der Steuereinrichtung (3) verbunden ist und zum Generieren von Steuerbefehlen und/oder Maschinen- bzw. Anlagenparametern für die Steuereinrichtung (3) in Abhän- gigkeit von durch eine Bedienperson betätigten Bedienelemente (7a) des Touchscreens (5) eingerichtet ist.
5. Bedieneinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Sensor-Datenverbindung (18) zwischen dem Berührungssensor (8) und der Aus Werteeinrichtung (13) eine Abzweigung umfasst, die zur Visualisierungseinrichtung (10) oder zur Schnittstelle (12) für eine Visualisierungseinrichtung (10) führt.
6. Bedieneinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bedieneinrichtung (2) ein mobiles, vorzugsweise tragbares Bediengerät ist, das mit der Steuereinrichtung (3) einer Maschine oder Anlage (4) über eine Datenverbindung (19), insbesondere über eine flexible Leitung oder eine Funkstrecke, verbindbar ist.
7. Bedieneinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bedieneinrichtung (2) zumindest einen Aktuator (20) zum Erzeugen eines haptischen Signales für die Bedienperson umfasst und dass die Auswerteeinrichtung (13) mit dem Aktuator (20) verbunden und dazu eingerichtet ist, um in Abhängigkeit der Sensordaten des Berührungssensors (8) den zumindest einen Aktuator (20) zu betätigen.
8. Bedieneinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass die Ausgabeschnittstelle (16) der Auswerteeinrichtung (13), über die Steuerbefehle zur Steuereinrichtung (3) übermittelt werden, zumindest einen echtzeitfähigen Steuerausgang oder zumindest einen digitalen oder analogen Steuerausgang umfasst, wobei vorzugsweise die Ausgabeschnittstelle (16) zumindest zwei Steuerausgänge umfasst, wobei jedem Steuerausgang eine unterschiedliche maschinen- oder anlagenbezogene Funktion zuge- ordnet ist.
9. Bedieneinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Berührungssensor (8) ein Multi-Touch-Sensor ist und die Auswerteeinrich- tung (13) dazu eingerichtet ist, um Sensordaten von dem Multi-Touch-Sensor auszuwerten, wobei vorzugsweise die Betätigung zumindest zweier Bedienelemente (7b) gleichzeitig ausgewertet werden kann.
10. Bedieneinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Aus Werteeinrichtung (13) dazu eingerichtet ist, um ein Bewegungs- bzw. Berührungsmuster an dem Berührungssensor (8), das vor, während und/oder nach dem eigentlichen Bedienvorgang, der durch Betätigung eines Bedienelementes (7b) erfolgt, ausgeführt wird und für die Ausführung eines Steuervorganges zwingend erforderlich ist, zu überprüfen und erst nach positiver Überprüfung dieses Bewegungs- bzw. Berührungsmusters einen dem Bedienvorgang entsprechenden Steuerbefehl an der Ausgabeschnittstelle (16) bereitzustellen, wobei vorzugsweise das Bewegungs- bzw. Berührungsmuster eine einleitende Geste zum Aktivieren des Bedienelementes (7b) für eine bestimmte Zeitspanne oder die gleichzeitige Betätigung eines weiteren Bedienelementes (7b) ist.
11. Bedieneinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zwischen dem Berührungssensor (8) und der Auswerteeinrichtung (13) ein Touch-Controller (21) geschaltet ist, der dazu eingerichtet ist, die Betätigung der Bedienelemente (7a, 7b) des Touchscreens (5) zu erfassen und als Sensor-Rohdaten bereitzustellen.
12. Bedieneinrichtung nach Anspruch 11, dadurch gekennzeichnet, dass die Auswerteeinrichtung (13) derart ausgebildet ist bzw. an den Datenstrom des Touch-Controllers (21) angebunden ist, dass der Datenstrom sowohl der Auswerteeinrichtung (13) als auch der Visualisierungseinrichtung (10) in gleicher Weise zugeführt wird.
13. Bedieneinrichtung nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass der Touch-Controller (21) baulich und funktional in der Auswerteeinrichtung (13) integriert ist.
14. Bedieneinrichtung nach einem der Ansprüche 11 bis 13, dadurch gekennzeich- net, dass der Touch-Controller (21) und die Aus Werteeinrichtung (13) zusätzlich zur Sensor- Datenverbindung (18), über die Sensor-Rohdaten an die Aus Werteeinrichtung (13) übermittelt werden, über eine Kommunikationsverbindung (23), vorzugsweise in Art einer Interrupt- Signalleitung, miteinander verbunden sind, über die der Touch-Controller (21) der Auswer- teeinrichtung (13) asynchron und unverzögert das Vorliegen eines für die Auswertung relevanten Bedienvorganges signalisieren kann.
15. Bedieneinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass die Aus Werteeinrichtung (13) zumindest drei Schnittstellen aufweist, wobei
Sensor-Rohdaten über eine erste Schnittstelle empfangen werden und über eine zweite Schnittstelle an die Visualisierungseinrichtung (10) oder an die Schnittstelle (12) für eine Visualisierungseinrichtung (10) weitergeleitet werden, wobei vorzugsweise die Auswerteeinrichtung (13) an der zweiten Schnittstelle das Verhalten eines Touch-Controllers (21) zumin- dest teilweise emuliert.
16. Bedieneinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Aus Werteeinrichtung (13) zumindest einen mit der Echtzeit- Datenverarbeitungseinrichtung (14) verbundenen Speicher (15) umfasst.
17. Bedieneinrichtung nach Anspruch 16, dadurch gekennzeichnet, dass in dem Speicher (15) Konfigurationsdaten betreffend zumindest ein am Display (6) darstellbares Bedienelement (7b) enthalten und/oder ablegbar sind, wobei die Konfigurationsdaten vorzugsweise Informationen über die Position, Größe, Orientierung, Art, zugeordnete Maschinen- bzw. Anlagenfunktion, den zugeordneten Maschinen- bzw. Anlagenparameter, den Freigabezustand und/oder den aktuellen Betätigungszustand oder Einstellwert des zumindest einen Bedienelementes (7b) enthalten.
18. Bedieneinrichtung nach Anspruch 16 oder 17, dadurch gekennzeichnet, dass in dem Speicher (15) Kalibrierinformationen enthalten und/oder ablegbar sind, mit denen die vom Touch-Controller gelieferten Koordinateninformationen korrigiert werden, vorzugsweise in Bezug auf Offset, Skalierung und/oder Entzerrung.
19. Steuerungs System (1) zum Steuern einer Maschine oder Anlage (4), insbesonde- re eines Manipulators, einer Bearbeitungsvorrichtung oder einer Fertigungsanlage, mittels einer Bedieneinrichtung (2), umfassend:
eine Steuereinrichtung (3) zur Ansteuerung der Maschine oder Anlage (4); eine mit der Steuereinrichtung (3) verbundene Bedieneinrichtung (2), insbesondere nach einem der vorhergehenden Ansprüche, zum Bedienen der Maschine oder Anlage (4) durch eine Bedienperson, wobei die Bedieneinrichtung (2) einen Touchscreen (5) aufweist, der aus einem Display (6) zur Visualisierung von Bedienelementen (7b) und einem dem Display (6) überlagerten Berührungssensor (8) gebildet wird;
eine mit dem Display (6) verbundene Visualisierungseinrichtung (10) zur Bereitstellung von Bilddaten für das Display (6) des Touchscreens (5), wobei die Visualisierungseinrichtung (10) eine Datenverarbeitungseinrichtung (11) umfasst;
gekennzeichnet durch eine Aus Werteeinrichtung (13), die mit dem Berührungssensor (8) des Touchscreens (5) verbunden ist und die eine Echtzeit-Datenverarbeitungseinrichtung (14) und eine mit der Steuereinrichtung (3) verbundene Ausgabeschnittstelle (16) umfasst, wobei die Echtzeit-Datenverarbeitungseinrichtung (14) der Auswerteeinrichtung (13) eingerichtet ist, um in Abhängigkeit der Sensordaten des Berührungssensors (8) Steuerbefehle für die Steuereinrichtung (3) zu generieren und über die Ausgabeschnittstelle (16) an die Steuereinrichtung (3) zu übermitteln, wobei die Echtzeit-Datenverarbeitungseinrichtung (14) der Auswerteeinrichtung (13) in Bezug auf die Datenverarbeitungseinrichtung (11) der Visualisierungseinrichtung (10) eigenständig ist.
20. Steuerungs System nach Anspruch 19, dadurch gekennzeichnet, dass die Ausga- beschnittsteile (16) der Auswerteeinrichtung (13) mit der Steuereinrichtung (3) über einen echtzeitfähigen Datenbus (22) verbunden ist.
21. Steuerungs System nach Anspruch 19 oder 20, dadurch gekennzeichnet, dass die Bedieneinrichtung (2) eine von der Steuereinrichtung (3) getrennte bauliche Einheit (24), ins- besondere ein mobiles, vorzugsweise tragbares Bediengerät, ist, und dass die Auswerteeinrichtung (13) in dieser baulichen Einheit (24) integriert ist.
22. Steuerungs System nach Anspruch 21, dadurch gekennzeichnet, dass die Visualisierung seinrichtung (10) außerhalb der Bedieneinrichtung (24) angeordnet ist, wobei vor- zugsweise die Visualisierungseinrichtung (10) in der Steuereinrichtung (3) integriert ist.
23. Verfahren zum Steuern einer Maschine oder Anlage (4) mittels einer Bedieneinrichtung (2) nach einem der Ansprüche 1 bis 18 und/oder mittels eines Steuerungssystems (1) nach einem der Ansprüche 19 bis 22, wobei die Visualisierungseinrichtung (10) Bilddaten für das Display (6) des Touchscreens (5) bereitstellt, sodass Bedienelemente (7b) auf dem Display (6) visualisiert werden und wobei die Echtzeit-Datenverarbeitungseinrichtung (14) der Aus Werteeinrichtung (13) in Abhängigkeit der Sensordaten des Berührungssensors (8) des Touchscreens (5) Steuerbefehle generiert und an die Steuereinrichtung (3) übermittelt.
24. Verfahren nach Anspruch 23, dadurch gekennzeichnet, dass Konfigurationsdaten betreffend zumindest ein am Display (6) dargestelltes oder darstellbares Bedienelement (7b), vorzugsweise in Form eines Parametersatzes, in die Aus Werteeinrichtung geladen werden, wobei die Konfigurationsdaten vorzugsweise Informationen über die Position, Größe, Orientierung, Art, zugeordnete Maschinen- bzw. Anlagenfunktion, den zugeordneten Maschinenbzw. Anlagenparameter, den Freigabezustand und/oder den aktuellen Betätigungszustand oder Einstellwert des zumindest einen Bedienelementes (7b) enthalten, und dass die Auswerteeinrichtung (13) die Steuerbefehle für die Steuereinrichtung (3) in Abhängigkeit der Konfi- gurationsdaten generiert.
25. Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass die Konfigurationsdaten von der Visualisierungseinrichtung (10) und/oder von der Steuereinrichtung (3) generiert und an die Auswerteeinrichtung (13) übermittelt werden.
26. Verfahren nach einem der Ansprüche 23 bis 25, dadurch gekennzeichnet, dass die Auswerteeinrichtung (13), vorzugsweise über regelmäßige Kommunikation oder Signalisierung, Informationen von der Visualisierungseinrichtung (10) empfängt, aus denen Rückschlüsse über die korrekte bzw. fehlerhafte Ausführung der auf der Datenverarbeitungsein- richtung (11) der Visualisierungseinrichtung (10) laufenden Visualisierungssoftware gewonnen werden können.
27. Verfahren nach einem der Ansprüche 23 bis 26, dadurch gekennzeichnet, dass die ein Bedienelement (7b) betreffenden Konfigurationsdaten, die von der Visualisierungsein- richtung (10) und/oder Steuereinrichtung (3) an die Auswerteeinrichtung (13) übermittelt werden, innerhalb der Auswerteeinrichtung (13) mit einer zeitlich begrenzten Gültigkeit versehen sind bzw. werden, und dass das entsprechende Bedienelement (7b) nach dem zeitlichen Ablauf der Gültigkeit deaktiviert wird, sodass eine Bedienung der Maschine oder Anlage (4) über dieses Bedienelement (7b) gesperrt ist.
28. Verfahren nach einem der Ansprüche 23 bis 27, dadurch gekennzeichnet, dass die Visualisierungseinrichtung (10) über eine Datenverbindung (17) zwischen Auswerteeinrichtung (13) und Visualisierungseinrichtung (10) die Betätigungszustände der von der Auswerteeinrichtung (13) überwachten Bedienelemente (7b) ausliest und in Bezug auf nicht echtzeitkritische Funktionen, beispielsweise für ein optisches, akustisches oder taktiles Feedback an die Bedienperson, auswertet.
29. Verfahren nach einem der Ansprüche 23 bis 28, dadurch gekennzeichnet, dass in der Auswerteeinrichtung (13) nach Änderung eines Betätigungszustandes eines Bedienelementes (7b) ein Timer mit einer vorgegebenen Abiaufzeit gestartet wird und dass ein Fehlersignal an die Steuereinrichtung (3) gesendet wird oder ein Bedienelement (7b) in einen deak- tivierten Zustand versetzt wird, wenn die Visualisierungseinrichtung (10) nicht vor Ende der Abiaufzeit mit einer Bestätigungsinformation antwortet, die sich auf eine erfolgte Aktualisierung der am Touchscreen (5) dargestellten Information, insbesondere betreffend den Betätigungszustand des Bedienelementes (7b), bezieht.
30. Verfahren nach einem der Ansprüche 23 bis 29, dadurch gekennzeichnet, dass die Auswerteeinrichtung (13) mit einem oder mehreren Aktuatoren (20) signaltechnisch derart gekoppelt ist, dass bei Betätigung eines Bedienelementes (7b) oder bereits bei bloßer Berührung des Touchscreens (5) eine haptische Rückmeldung an die Bedienperson generiert wird.
31. Verfahren nach einem der Ansprüche 23 bis 30, dadurch gekennzeichnet, dass die Positionen und die Art der Bedienelemente (7b) in der Aus Werteeinrichtung (13) hinterlegt sind und vorzugsweise mit vorhandenen haptischen Markierungen am Touchscreen (5) korrespondieren.
32. Verfahren nach einem der Ansprüche 23 bis 31, dadurch gekennzeichnet, dass eine Deaktivierung eines monostabilen Bedienelementes (7b), vorzugsweise in Form eines Tasters oder Joysticks mit automatischer Rückkehr in eine unbetätigte Ausgangslage, durch die Visualisierungseinrichtung (10) unabhängig vom tatsächlichen Betätigungszustand des Bedienelementes (7b) zu einer unverzögerten Signalisierung eines unbetätigten Zustandes an die Auswerteeinrichtung (13) bzw. zu einem dem unbetätigten Zustand entsprechenden Steuerbefehl von der Aus Werteeinrichtung (13) an die Steuereinrichtung (3) führt.
33. Verfahren nach einem der Ansprüche 23 bis 32, dadurch gekennzeichnet, dass zwischen der Aus Werteeinrichtung (13) und der Visualisierungseinrichtung (10) eine zusätzliche Datenverbindung (27) vorgesehen ist, vorzugsweise in der Art einer Interrupt-Leitung, mit der die Auswerteeinrichtung (13) einen Bedienvorgang einer Bedienperson an die Visualisierungseinrichtung (10) signalisiert.
34. Verfahren nach einem der Ansprüche 23 bis 33, dadurch gekennzeichnet, dass für die Übertragung von Echtzeit-Steuerbefehlen eine echtzeitfähige Datenverbindung (22), beispielsweise eine Echtzeit-Ethernet Busverbindung, vorgesehen ist, über welche die Betäti- gungszustände der Bedienelemente (7b) bzw. den Betätigungszuständen der Bedienelemente (7b) zugeordnete Steuerbefehle zyklisch in einem vorgegebenen Zeitraster zur Steuereinrichtung (3) übertragen werden.
35. Verfahren zur Erstellung einer grafischen Benutzeroberfläche für die Visualisierungseinrichtung (10) einer Bedieneinrichtung (2) nach einem der Ansprüche 1 bis 18 und/oder eines Steuerungssystems (1) nach einem der Ansprüche 19 bis 22 mittels einer Entwicklung sumgebung, wobei mit der Entwicklungsumgebung zumindest ein Bedienelement (7b) aus einer vorgegebenen Menge verfügbarer Bedienelemente (7b) ausgewählt wird und dieses zumindest eine Bedienelement (7b) hinsichtlich seiner Position, Größe, Orientierung, Größe, Art, zugeordneter Maschinen- bzw. Anlagenfunktion, seines zugeordneten Maschinen- bzw. Anlagenparameters und/oder seines Freigabezustandes parametriert wird, und wobei aus der Zuordnung der Parameter zu dem zumindest einen Bedienelement (7b) Konfigurationsdaten, insbesondere in Form eines Parameter-Datensatzes, für die Auswerteeinrichtung (13) erzeugt werden.
EP15728382.1A 2014-05-09 2015-05-05 Bedieneinrichtung und steuersystem Withdrawn EP3140083A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ATA50325/2014A AT515719A1 (de) 2014-05-09 2014-05-09 Bedieneinrichtung und Steuersystem
PCT/AT2015/050111 WO2015168716A1 (de) 2014-05-09 2015-05-05 Bedieneinrichtung und steuersystem

Publications (1)

Publication Number Publication Date
EP3140083A1 true EP3140083A1 (de) 2017-03-15

Family

ID=53385407

Family Applications (1)

Application Number Title Priority Date Filing Date
EP15728382.1A Withdrawn EP3140083A1 (de) 2014-05-09 2015-05-05 Bedieneinrichtung und steuersystem

Country Status (5)

Country Link
EP (1) EP3140083A1 (de)
JP (1) JP6629759B2 (de)
CN (1) CN106457564B (de)
AT (1) AT515719A1 (de)
WO (1) WO2015168716A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016004630A1 (de) * 2016-04-16 2017-10-19 J.G. WEISSER SöHNE GMBH & CO. KG Werkzeugmaschine sowie Verwendung eines berührempfindlichen Displays zur Ansteuerung eines Maschinenteils einer Werkzeugmaschine
WO2018100629A1 (ja) 2016-11-29 2018-06-07 株式会社Fuji 実装装置
DE102017108547A1 (de) * 2017-04-21 2018-10-25 Sig Technology Ag Bereitstellen einer Benutzeroberfläche zum Überwachen und/oder Steuern einer Verpackungsanlage
DE102017210947B4 (de) * 2017-06-28 2019-08-01 Kuka Deutschland Gmbh Feedback Robotermechanik
CN107479486A (zh) * 2017-09-12 2017-12-15 昆山思柯马自动化设备有限公司 基于流水线、成型机和robot的智能控制方法
EP3543402A1 (de) 2018-03-19 2019-09-25 Joseph Vögele AG Baumaschine zum erstellen oder bearbeiten einer strasse
JP7188407B2 (ja) * 2020-03-25 2022-12-13 ブラザー工業株式会社 工作機械と工作機械の制御方法
EP4296810A1 (de) * 2022-06-21 2023-12-27 WEILER Werkzeugmaschinen GmbH Werkzeugmaschine mit einem sicherheitsgeschützten betriebszustand
CN115157201A (zh) * 2022-07-02 2022-10-11 歌尔股份有限公司 一种用于放置固化保压工装的定时货架

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009017030A1 (de) * 2009-08-06 2011-02-10 Bachmann Gmbh Schnelles Mensch-Maschinen-Interface

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07253841A (ja) * 1994-03-15 1995-10-03 Ricoh Co Ltd 操作パネル
US5465215A (en) * 1994-07-07 1995-11-07 Cincinnati Milacron Inc. Numerical control method and apparatus
US6275741B1 (en) * 1998-10-05 2001-08-14 Husky Injection Molding Systems Ltd. Integrated control platform for injection molding system
US6684264B1 (en) * 2000-06-16 2004-01-27 Husky Injection Molding Systems, Ltd. Method of simplifying machine operation
JP2007536634A (ja) * 2004-05-04 2007-12-13 フィッシャー−ローズマウント・システムズ・インコーポレーテッド プロセス制御システムのためのサービス指向型アーキテクチャ
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US7792602B2 (en) * 2006-08-22 2010-09-07 Precision Automation, Inc. Material processing system and a material processing method including a saw station and an interface with touch screen
JP2008296310A (ja) * 2007-05-30 2008-12-11 Fanuc Ltd 加工ロボットの制御装置
EP2124117B1 (de) * 2008-05-21 2012-05-02 Siemens Aktiengesellschaft Bedieneinrichtung zur Bedienung einer Werkzeugmaschine
US9530246B2 (en) * 2009-01-15 2016-12-27 Mitsubishi Electric Corporation Collision determination device and collision determination program
CN101604153B (zh) * 2009-07-06 2011-06-29 三一重工股份有限公司 工程车辆臂架控制器、控制系统、工程车辆、及控制方法
JP5482023B2 (ja) * 2009-08-27 2014-04-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2012226432A (ja) * 2011-04-15 2012-11-15 E & E Planning:Kk 携帯端末、及び省エネルギー診断システム
AT511488A3 (de) * 2011-05-16 2014-12-15 Keba Ag Verfahren zur manuell gesteuerten beeinflussung von bewegungen einer maschine oder anlage sowie entsprechende maschinensteuerung
JP5613113B2 (ja) * 2011-06-29 2014-10-22 株式会社日立製作所 プラント監視制御装置
AT12208U3 (de) * 2011-09-06 2013-07-15 Keba Ag Verfahren, steuerungssystem und bewegungsvorgabemittel zum programmieren oder vorgeben von bewegungen oder abläufen eines industrieroboters
US20130103356A1 (en) * 2011-10-21 2013-04-25 General Electric Company Gas turbine monitoring system
JP5901962B2 (ja) * 2011-12-26 2016-04-13 株式会社日立システムズ コマンド処理システム及び方法
JP5779556B2 (ja) * 2012-07-27 2015-09-16 株式会社日立製作所 監視制御装置、監視制御方法及び監視制御システム
US10081109B2 (en) * 2012-09-06 2018-09-25 Fanuc America Corporation Haptic teach pendant

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009017030A1 (de) * 2009-08-06 2011-02-10 Bachmann Gmbh Schnelles Mensch-Maschinen-Interface

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of WO2015168716A1 *

Also Published As

Publication number Publication date
JP6629759B2 (ja) 2020-01-15
WO2015168716A1 (de) 2015-11-12
AT515719A1 (de) 2015-11-15
JP2017525000A (ja) 2017-08-31
CN106457564B (zh) 2019-12-24
CN106457564A (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
EP3140083A1 (de) Bedieneinrichtung und steuersystem
EP3359348B1 (de) Robotersystem und verfahren zur steuerung eines robotersystems
EP2920656B1 (de) Verfahren zum sicheren und bewussten aktivieren von funktionen und/oder bewegungen einer steuerbaren technischen einrichtung
EP2664971B1 (de) Touchscreen mit analoger Druckerfassung als Bedienerschnittstelle für industrielle technische Einrichtung
EP2367083B1 (de) Vorrichtung zur Erstellung eines Programms für eine speicherprogrammierbare Steuerung, Programmiereinrichtung und Verfahren zur Programmierung einer speicherprogrammierbaren Steuerung
EP2709803A2 (de) Verfahren zur manuell gesteuerten beeinflussung von bewegungen einer maschine oder anlage sowie entsprechende maschinensteuerung
WO2014111417A1 (de) Mikroprozessor-gesteuerte steuerungseinrichtung für eine spritzgiessanlage mit einem simulationsrechner
EP3776206B1 (de) Verfahren und überwachungseinheiten für sicherheitsrelevante grafische benutzeroberflächen
EP3904984B1 (de) Verfahren für eine immersive mensch-maschine-interaktion
WO2017186369A1 (de) Bedienpanel zum steuern einer industriellen anlage
EP3990231B1 (de) System zum vornehmen einer eingabe an einem robotermanipulator
EP3662345B1 (de) Steuervorrichtung für industrielle maschinen
DE102016103700A1 (de) Steuerkonsole
DE10161924A1 (de) Verfahren zur Zweihandbedienung einer flächigen Anzeige- und Bedieneinheit, mit berührungssensitivem Display, HMI Gerät, Automatisierungssystem und Computerprogrammprodukt zur Durchführung des Verfahrens
WO2003032141A2 (de) Verfahren zur zweihandbedienung einer flächigen anzeige- und bedieneinheit, mit berührungssensitivem display, hmi gerät, automatisierungssystem und computerprogrammprodukt zur durchführung des verfahrens
DE202019103188U1 (de) Sicherheitsschaltelement für Maschinen oder Roboter
EP3980224B1 (de) Sicherheitsschaltelement für maschinen oder roboter
DE102014221280A1 (de) Vorrichtung und Verfahren zur entfernten Bedienung eines durch einenTouchscreen bedienbaren Endgeräts
EP2624114A1 (de) Handsteuergerät zur Steuerung einer Vorrichtung und Verfahren
EP2977840A1 (de) Fehlersichere Bedienung eines Gerätes aus dem Bereich der industriellen Automatisierungstechnik mittels Gesten
EP3513260B1 (de) Steuervorrichtung und steuerverfahren für industrielle maschinen mit gesteuerten bewegungsantrieben
EP3770705A1 (de) Verfahren zur bedienung einer industriellen maschine
WO2024064989A1 (de) Anzeigevorrichtung und steuerungssystem für potentiell gefahrbringende technische systeme
DE102021108012A1 (de) Steuervorrichtung mit einer Überwachungseinrichtung
EP2660690A1 (de) Kombinierte Bedien- und Anzeigeeinheit für ein Automatisierungsgerät und Automatisierungsgerät mit einer solchen Bedien- und Anzeigeeinheit

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20161206

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20180205

TPAC Observations by third parties

Free format text: ORIGINAL CODE: EPIDOSNTIPA

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20190907