WO2023285599A1 - Eingabegerät - Google Patents

Eingabegerät Download PDF

Info

Publication number
WO2023285599A1
WO2023285599A1 PCT/EP2022/069750 EP2022069750W WO2023285599A1 WO 2023285599 A1 WO2023285599 A1 WO 2023285599A1 EP 2022069750 W EP2022069750 W EP 2022069750W WO 2023285599 A1 WO2023285599 A1 WO 2023285599A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
input device
modules
finger
operator
Prior art date
Application number
PCT/EP2022/069750
Other languages
English (en)
French (fr)
Inventor
Anton Brams
Original Assignee
Anton Brams
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anton Brams filed Critical Anton Brams
Publication of WO2023285599A1 publication Critical patent/WO2023285599A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04809Textured surface identifying touch areas, e.g. overlay structure for a virtual keyboard

Definitions

  • the invention relates to a new type of input device which can be used, for example, for a personal computer and which is particularly suitable for replacing the usual, widespread input devices, keyboard and mouse, for merging them into one input device, or for at least one of these devices (keyboard or mouse) to be replaced in order to achieve improved usability.
  • a personal computer (whether desktop device or notebook) is operated today predominantly with a keyboard and mouse, with the mouse often being substituted by a so-called touchpad or a control stick, particularly in the case of notebooks.
  • the keyboard is one of the most universal peripherals for desktop and laptop computers, and yet it is based on the QWERTY system, which dates back to the 1870s. It is probably the oldest part of the ones used today
  • a keyboard with a projection system is known from WO 2017/019390 A1. With this projection system, keys are dynamically projected onto the keyboard. This means that different layouts and intuitive macros are possible.
  • Input devices including proximity sensor devices (also commonly referred to as touchpads or touch sensor devices), are used in a variety of electronic systems.
  • a multi-touch keyboard is known from US Pat. No. 8,896,539 B2, in which the input depends on the finger position or finger movement.
  • DE 11 2009 003 647 T5 discloses a display input device in which vibrations between the finger and the touch panel are detected by a vibration detection sensor and the control elements under the finger are shown enlarged.
  • Some research concepts examine and demonstrate a mechanical keyboard capable of capturing rich and expressive motion gestures performed both on and directly above the device.
  • Another paper examined keyboards with gesture sensors and integrated function keys into gestures for individual keys.
  • these gestures are limited on the surface in two dimensions and cannot be operated blindly due to the lack of a tactile surface or haptic feedback.
  • Mechanical keyboards can give users tactile feedback when the keys on the keyboards are pressed. Users can tell if the button is pressed based on the tactile feedback.
  • the mechanical keyboards are very bulky and only allow a few forms of interaction (no gestures). At least for this reason, the new electronic handheld devices z. B. provided with touch keyboards, since the touch keyboards are very thin compared to the mechanical keyboards.
  • touch keyboards do not provide tactile feedback for users. Accordingly, in the absence of tactile feedback, users cannot know if they actually pressed the buttons. In order to still give the user feedback, alternatively acoustic or optical signals are generated as feedback. However, many users prefer direct tactile feedback rather than an audible or visual signal. It is also known that humans react more slowly to optical and acoustic stimuli than to tactile stimuli.
  • a keyboard with vibration feedback is known from US 2009/167694 A1, with two different vibrating key groups. Previous input devices did not combine haptic feedback with visual feedback (screens).
  • Some input devices are also able to recognize and determine the force exerted on a sensing surface in addition to the position information.
  • An input device that is touch-sensitive and pressure-sensitive is known from US Pat. No. 9,335,844 B2. Depending on the pressure, it can function as a touchpad or keypad. However, this input device lacks the tactile and haptic advantages of the classic mechanical keyboard.
  • the layout (the assignment of the individual keys) can be adjusted via software, but the change in functionality can only be seen on keyboards with screens or on virtual keyboards that are displayed on screens.
  • An input device is known from WO 2017/019390 A1, in which the displayed layouts can be adapted visually.
  • the neo community offers various layouts for download that are optimized for specific applications. Many applications allow the user to create time-saving "macros", but most users do not take advantage of this because the barrier to learning how to program the macros is very high. Users often buy more than one keyboard or controller, each made for a specific purpose. Many gaming applications only use about 8 buttons, and the unused buttons become redundant during gaming. Many users in the graphics and imaging fields perform thousands of mouse clicks every day to accomplish tasks that could be greatly simplified with a smarter human-computer interface.
  • the keyboard layout can be completely reassigned by software.
  • the novel input device described here discloses a new solution that allows the user to switch between different operating modes, particularly with regard to the need for movement.
  • the novel input device described here is a new type of input device that adapts visually, offers local haptic feedback and enables a new class of operating actions through the combination of touch and pressure controls.
  • An input device for operation with the fingers of an operator having at least two touch-sensitive and pressure-sensitive screen modules, each of which enables a position-accurate detection of a touch by the operator's finger and is set up for the display of graphical interface layouts, with the touch-sensitive and pressure-sensitive screen modules are each designed with at least one vibration motor, the input device being set up to provide haptic feedback when the operator touches the screen module in question with a finger.
  • the touch-sensitive and pressure-sensitive screen modules of the input device described here have local individual haptic feedback and pressure sensitivity for operation by wiping movements and typing by touch operation and pressure movements.
  • the input device has a splitting up of the screen modules for separate interaction and for separate tactile and haptic operation and feedback within one device.
  • An essential feature of the input device described here is that at least two, but preferably more and very particularly preferably five, touch-sensitive and pressure-sensitive screen modules are provided, which are each assigned to individual fingers of an operator's hand.
  • Each screen module enables the precise position of a touch to be detected, and each screen module has its own pressure sensor and vibration motor. It is a finding underlying the input device described here that the assignment of a screen module with its own touch detection, its own pressure detection and its own vibration motor (both independent of the touch detection, pressure detection and the vibration motors of other screen modules of the input device), offers significant improvements in providing the user experience which is similar to the user experience when operating a normal keyboard.
  • the input device is therefore in particular divided into separate screen modules (each with its own touch recognition, pressure recognition and vibration motors). Each finger is then assigned to an individual screen module. Vibrations can be carried out completely independently of each other for each finger individually and sometimes simultaneously or overlapping in time. This enables the user experience to be significantly improved.
  • the input device preferably has a uniform surface for the operator.
  • This uniform surface preferably extends over several screen modules. It is possible that there are (small) interruptions in the surface at a transition area between the screen modules, which are designed, for example, as a type of (narrow) gap between two adjacent screen modules. About such However, the operator can swipe away interruptions with his finger and thus switch from one screen module of the input device to another (neighboring/adjacent) screen module of the input device in one swipe movement.
  • the input device preferably has sensors for using multiple operating actions such as touching, clicking, pressing, swiping, typing, and drumming.
  • the vibration motor and the pressure-sensitive screen module have essential elements for enabling the recognition of these operating actions in order to provide the operator with feedback that corresponds to these operating actions or is perceived by the operator as a suitable/comprehensible reaction to the respective operating action.
  • the input device has screen modules for graphically displaying the interface layout. Interface layouts preferably have one or more control elements that can be displayed dynamically on the screen modules. Interface layouts feature controls such as symbols, numbers, letters, indicators, touchpads, sliders, drum pads, and joysticks.
  • the input device is set up as a touchscreen for the precise detection of touches.
  • the screen module preferably has a screen layer that is touch-capable and particularly preferably multi-touch-capable.
  • touch-capable means here that the screen layer can recognize a touch and it can also be determined where this touch took place. In this way it can be recognized whether an operator is touching a specific position of the screen module with a finger. It may also be possible to recognize how the position changes at which the operator's finger touches the screen module (movement in the two-dimensional area on the surface).
  • multi-touch capable means that the screen layer can recognize multiple touches with multiple fingers at the same time and it can also be determined where the touches took place. A multi-touch screen layer also enables more complex ones Operations on a single screen module.
  • the screen module (and in particular the screen layer set up in the screen module) is particularly preferably designed for operation by touch gestures.
  • the input device or each individual screen module of the input device exhibits pressure sensitivity for operation using pressure gestures.
  • the pressure sensitivity is set up in particular in such a way that the strength of the pressure exerted with a finger on the surface of the screen module can be detected and thus also evaluated.
  • the input device or each individual screen module of the input device thus has sensors to differentiate between different pressure movements and pressure levels of the operator's fingers on the touch-sensitive screen modules.
  • the input device or each individual screen module of the input device has a vibration function for operation with dynamic haptic feedback to imitate a realistic click feeling.
  • the input device also features local dynamic vibration feedback for blind typing in augmented reality.
  • the vibration function is realized with at least one vibration motor.
  • the at least one vibration motor is preferably set up in such a way that it can generate a vibration with a movement amplitude in the direction of a touch surface of the screen module (X
  • the display of operating elements or interface layouts on the screen modules and the control for evaluating touches on the screen modules are preferably coordinated with one another.
  • the input device is set up to evaluate touches made by the operator in such a way that this is indicated to the operator by the representation of the control elements or the interface layout.
  • the input device can be operated with one or more fingers using various operating actions.
  • An operator action always refers to a specific sequence of touches on the screen modules of the input device, which is recognized by the sensors and evaluated by the software in order to trigger specific control commands.
  • Operating actions take place by touching the screen modules, for example the touch surfaces of the screen modules and can be different.
  • Light touches can be made with a pressure of 50 grams.
  • Strong touches can be made with a pressure of 120 grams.
  • Operating actions for operating the input device can, for example, also include movement profiles such as mouse movements, 2 to 4 finger gestures, and pinch-to-zoom or the like. Operating actions can be chained together and result in a new operating action. Eg: double touch, double click; Touch or move when released after a light/strong press.
  • the input device may be configured to be impact sensitive.
  • impact sensitivity not only is the pressure (e.g. 50 grams or 120 grams) that occurs when touched recognized, but also the slope of the pressure increase during the impact movement, e.g. in the unit [grams/second]. Operator actions can also be evaluated differently depending on the length of the operator action, eg: short vs. long hold.
  • each touch-sensitive screen module is divided into at least two tactile areas, with the touch surface having an orientation structure that can be felt by the operator's fingers in order to form the tactile areas.
  • the orientation structure that can be felt can be felt, in particular, haptically.
  • the tactile orientation structure can be formed, for example, by arranging a concave dent in each of the at least two tactile areas, which provides the operator's fingers with haptic orientation on the touch surface of the touch-sensitive screen module. The entirety of the dents in each tactile area thus forms the tactile orientation structure. This is a first possibility to develop the orientation structure that can be felt.
  • the tactile orientation structure can also be designed with grooves, elevations or similar structural features of the contact surface. On conventional keyboards, the keys in different rows of keys are always slightly offset from one another. Historically, this layout came about because it was mechanically advantageous for typewriters.
  • the individual touch areas on the screen modules are arranged in rows and columns that are aligned with one another in both directions (X direction and Y direction) and are not offset.
  • the input device therefore preferably has straightened or orthogonal touch range columns. This is preferred to create a cleaner physical layout and symmetrical movement between the left and right hands.
  • the touch surface of the input device preferably has elevations between arched indentations of adjacent touch areas. Such elevations then preferably also form the tactile orientation structure.
  • the elevations preferably form boundaries of the respective tactile areas that can be haptically detected by the operator.
  • the dents or elevations can be noticed by the operator when he runs his finger over them, but they do not impede his movement.
  • the dents are deep enough to give the operator's fingers orientation when typing blindly and flat enough to be able to carry out gestures comfortably on the multi-touch capable surface, with which the operator strokes beyond the boundaries of the individual touch areas and, if necessary exerts a pressure on the screen module or exerts a touch that can be perceived by the screen module. No pressure is usually required to detect a touch. Rather, the presence of a finger of the operator when touched is perceptible, preferably independent of pressure.
  • a first group of touch-sensitive screen modules is provided for operation with the index finger, middle finger, ring finger and little finger, which are arranged in a row next to one another and a further touch-sensitive screen module is arranged below for operation with the thumb. It is also preferred if the touch-sensitive screen modules of the first group each have at least three rows of touch areas arranged one above the other.
  • the tactile areas of the screen modules assume the role of the keys on the classic keyboard. Screen modules with up to six key areas combine separate keys from the classic keyboard.
  • the first group comprises exactly four touch-sensitive screen modules, with each of the fingers forefinger, middle finger, ring finger and little finger being assigned or assignable to exactly one touch-sensitive screen module, with the touch-sensitive screen modules for the index finger and little finger Fingers each have two columns of tactile areas arranged next to one another and the touch-sensitive screen modules for the ring finger and middle finger each have exactly one column of tactile areas arranged next to one another.
  • relevant control elements can be displayed directly under a finger that is to be used to operate these control elements.
  • a rest position of finger positions on the screen modules is preferably provided, each of which defines a touch area of the fingers. These resting finger positions preferably form a so-called “homerow” - a series of finger positions for the index, middle, ring and pinky fingers.
  • the size and position of the screen modules and tactile areas relative to one another is preferably defined in such a way that, starting from one of the finger positions in the "Homerow", other tactile areas of the respective screen module are within reach of the fingers and there is good mobility of the fingers towards these other tactile areas .
  • the screen modules for the middle finger and ring finger have a width of one touch area because they have less mobility.
  • the screen modules for the index finger and little finger have a width of two tactile areas, since these both fingers have greater flexibility.
  • the screen modules for the index finger and the little finger next to the column of tactile areas with the finger position in the “Homerow”, there is in each case another column of tactile areas further out.
  • the input device preferably has a smaller number of keys or key areas. This makes it easier to reach the keys when typing blindly.
  • the design and presentation of the control elements is preferably based on the mobility and reach of the fingers, also independently of the shape and design of the touch areas. This applies in particular to operating elements that also extend over several touch areas and possibly even over several screen modules.
  • the input device has a dynamic representation of controls near the finger position of the fingers in the "Homerow” for quick accessibility and operability.
  • the arrangement of the tactile areas in an orthogonal arrangement that is not offset from one another suggests and teaches the operator how to type correctly.
  • the input device has an arrangement of screen modules and tactile areas to suggest the optimal placement of the hand on the input device.
  • the quick and blind usability of an input device with all fingers of an operator's hand essentially depends on the tactile areas around a finger position being easily accessible.
  • the tactile areas assigned to a finger for operation are each combined in a screen module in the input device, which is set up to also offer the operator haptic feedback with the vibration motor.
  • the other screen module for operation with the thumb is preferably set up to take on the role of the "modifier keys” of the classic keyboard.
  • the further screen module preferably also has tactile areas and preferably exactly four tactile areas, which are arranged in a 2 ⁇ 2 layout.
  • the tactile areas of the additional screen module are preferably at least partially set up as “modifier keys”.
  • the thumb is usually only used for the space character or "SPACE” when using a keyboard and is off mostly free for this reason.
  • 2-button shortcuts e.g. consisting of a "modifier key” such as “alt”, “shift” or “ctrl” as well as a letter and a number
  • graphical interface layouts of the first group of touch-sensitive screen modules can be selected by operating actions on the further touch-sensitive screen module with the thumb.
  • interface layouts can provide operating options for different applications.
  • such interface layouts can also be automatically selected on the input device if the operator himself or automatically opens a specific application for which the respective interface layout is intended.
  • the method described here of using the additional screen module for operation with the thumb to select the interface layout is an advantageous addition to the automatic selection of the intended interface layout.
  • At least one keyboard interface layout and at least one touchpad interface layout can be displayed on the first group of touch-sensitive screen modules, and a change between the at least one keyboard interface layout and the at least one touchpad interface layout by confirming the further touch-sensitive screen module can be done with the thumb.
  • the keyboard interface layout makes it possible to take over the usual operating functions of a keyboard.
  • the four screen modules of the first group of the input device have a total of 18 buttons. With two input devices, which are used for the left and right hand, a total of 36 keys are available Disposal. This is sufficient to provide a keyboard that can be operated very quickly and easily with 8 fingers (+ 2 thumbs).
  • the touchpad interface layout replaces the usual mouse or touchpad on a notebook/laptop. It is particularly advantageous that the touchpad can be embodied over several screen modules of the input device. When operating the touchpad, the operator can swipe across the border of the screen modules.
  • the controller/software of the input device is preferably set up to compensate for this and to ensure consistent evaluation of the inputs on a number of screen modules.
  • the input device is suitable (particularly in combination with another mirror-inverted input device) to completely replace the keyboard and mouse for operating a PC.
  • At least one special interface layout can also be displayed on the first group of touch-sensitive screen modules and a change to this special interface layout can be made by confirming the other touch-sensitive screen module with your thumb, with the at least one special - Interface layout provides at least one of the following functions: a layout comprising at least one slider; an arrow key layout; and at least one custom interface layout.
  • Interface layouts have at least one control element.
  • Interface layout controls are icons, sliders, indicators, touchpads, joysticks, or drum pads.
  • Interface layouts show any arrangement of control elements to be divided into different control areas.
  • the left Input device Used in embodiment variants to represent symbols and function keys and the mirrored right input device is used to represent a touchpad or similar components. Many other arrangements can be implemented.
  • Controls can be set up on individual touch areas, across touch area boundaries on entire screen modules, across screen module boundaries, or the entire touch surface of the device.
  • Control elements have an adjustable pressure sensor to differentiate between different impact strengths for taps or drums.
  • Input and output parameters of the control elements can be adjusted by the operator both in terms of touch sensitivity, visually and haptically (e.g. click threshold, strength of vibration feedback). These settings can also be permanently linked to an interface layout and automatically predetermined by the selection of a specific interface layout.
  • control elements of such interface layouts are preferably adapted to the grid specified by columns and rows of touch areas.
  • the operator preferably has the option of positioning, scaling and configuring control elements on the input device grid.
  • Control elements can be moved, edited and deleted by the operator in a user interface for modifying user-defined interface layouts, preferably using drag'n'drop technology.
  • clicking on the control element opens options for setting the appearance and functionality of the control element.
  • the surface for modifying user-defined interface layouts is particularly preferably offered at least partially on the input device or its screen modules themselves.
  • Interface layouts can be created and edited by the operator via a client. Interface layouts with already optimized application-specific layouts can also be made available to the operator in a crowdsourced layout library.
  • a change can be made to at least one sub-operating menu, in which it is possible to switch between sub-functions and the functionality provided at the screen position, subfunctions in the sub-operating menu can be selected by swiping with the finger.
  • a simple possibility was created here to combine several functions in a touch area or on a button simulated in a touch area.
  • the user accesses different virtual operating levels of the input device.
  • the pressure on the touch area is interpreted differently. For example, a first virtual level, accessible by a slight pinch motion, can be used to output lowercase letters such as "a”. in the second virtual level below, which can be reached by higher pressure, capital letters such as "A" can then be output. Pressing movements within an operating element (e.g. a button of an operating element simulated in a touch area) can be used to switch to further sub-operating menus (operating levels).
  • the operating element can be operated by releasing it or by swiping.
  • the selection of a specific virtual level can only be recognized with certainty when it is clear that the operator does not allow the operating pressure to increase any further and thus no longer allows the possibility consists in switching to a deeper virtual level. This is achieved in that, depending on the selected virtual level, the selection of the level is recognized either by a high of the pressure movement or by a low of the pressure movement, with a low meaning that the pressure is still increasing and a high meaning that the pressure is already falling again . Basically, for all virtual levels below which there are further virtual levels that can be reached with a higher pressure, the selection of the Final level can only be recognized when the pressure movement is high.
  • the touch-sensitive and pressure-sensitive screen modules of the input device have a layered structure with at least the following layers:
  • a board layer at least with a vibration motor and a pressure sensor
  • the layered structure described here is a possible, particularly preferred structure, but the input device described here is not based on it is limited. It can also be structured differently in order to meet the functional characteristics described. For example, depending on the application and production options, the order of the layers can be changed.
  • the haptic vibration motor and the pressure sensor are preferably integrated directly into a circuit board of the circuit board layer.
  • the screen layer which is essential for the screen module, also serves as a weight which can be set in motion by the vibration motor and preferably oscillates on the elastically deformable spacers.
  • the screen layer itself serves as part of the haptic vibration motor.
  • the vibration motor preferably generates a vibration/oscillation in a plane of the various layers (X-direction or Y-direction) and not perpendicular to this plane. An operator then perceives the vibration as pleasant haptic feedback.
  • the deformable spacers can be designed as silicone pads, for example.
  • the deformable spacers are preferably elastic and they also serve in particular to direct the force of a vibration through the layers into the operator's finger and not into the ground under the input device.
  • the individual touch-sensitive screen modules of the input device are preferably installed in a continuous housing.
  • the housing is preferably L-shaped, so that the four screen modules for the index finger, middle finger, ring finger and little finger are arranged in a row next to each other and below the screen module for the index finger there is another screen module for operation with the thumb located.
  • the input device preferably has lateral magnets that provide detachable couplings to which further input devices of this type can be detachably attached.
  • Other input device modules can be, for example, input devices for smart buttons, knobs or similar components.
  • Two input devices that are mirror-inverted to one another provide the user with operating options that largely correspond to operation with a keyboard, with the input devices offering many other advantageous operating options.
  • the combined input device consists of two input devices.
  • An input device is preferably assigned to each hand of the operator.
  • the operating angle of the input devices to each other can be freely adjusted by the operator to optimize the angle of the wrists.
  • the adjustability of the operating angles prevents injuries such as RSI syndrome.
  • the separability of the combined input device shows increased freedom and flexibility in the choice of posture and additional input devices (e.g. mouse) to improve long-term performance.
  • the input device is preferably designed with several different interfaces, e.g. MIDI or MQTT to control loT devices.
  • the various interfaces and their communication protocols can be expanded using adapters. In this way, the input device can be used as a universal operating device for various devices (not just computers).
  • an input device for operation with an operator's fingers, having at least two modules, each of which enables precise detection of a touch by the operator's finger, the touch-sensitive and pressure-sensitive modules each having at least one vibration motor, the input device to provide haptic feedback when the respective module is touched with a finger of the operator, the input device being set up to interact with software that displays the at least two modules as virtual screen modules on a screen, where the virtual screen modules are set up for the display of graphical interface layouts, which an operator assigns to the at least two modules.
  • This variant is a modification of the previously described input device with at least two screen modules, which is simplified in particular with regard to the hardware, but requires customized software with which the modules are displayed as virtual screen modules on a screen.
  • the screen is, for example, a screen of a computer to which the input device described is connected.
  • the virtual screen modules are set up in such a way that the user perceives them as if they were the modules of the input device.
  • the operator's fingers and their current position above the module or on the module can be displayed on the virtual screen module. The operator can use the modules to navigate through the interface layouts as previously described for the screen modules described.
  • the input device with modules and corresponding virtual screen modules can have particular advantages as a variant with less expensive hardware compared to the input device with screen modules.
  • the input device with modules and corresponding virtual screen modules can also be used as a variant for experiments and testing of functions of the input device with screen modules.
  • the input device with modules and corresponding virtual display modules can be used via virtual and mixed reality devices.
  • the screen here is, for example, a screen built into the VR glasses, on which the virtual interface layout is displayed.
  • the virtual screens can do so Be part of a virtual workplace.
  • the position of the fingers and hands can be represented in mixed reality on the virtual screen module as a digital avatar.
  • the input device with modules and corresponding virtual screen modules can be used with standard desktop monitors, with the digital interface being displayed on this face layout.
  • the position of the fingers and hands is shown as a digital avatar on the digital interface layout.
  • Fig. 1 The described combined input device consisting of two individual input devices for both hands of an operator;
  • Fig.3 The touch surface of the input device in profile view
  • 4b An illustration of the layer structure of a screen module of the input device in an exploded view from above; 5: a sketch of the operation of a combined input device supplemented by extension screen modules; 6a: a described combined input device with keyboard interface face layout;
  • 6c a described combined input device with a touchpad interface layout
  • 6d a described combined input device with a command interface layout
  • FIG. 8 shows a diagram of haptic feedback when the input device is pressed
  • 9b example structure of a sub-control menu with a touchpad for controlling a camera view
  • FIG. 11a an embodiment variant of the input device with modules with virtual screen modules with an avatar in mixed reality (AR/VR); 11b: a second embodiment variant of the input device with modules with virtual screen modules with avatar on the desktop monitor; and FIG. 11c: an embodiment variant of the input device on the desktop monitor.
  • AR/VR mixed reality
  • FIG. 11c an embodiment variant of the input device on the desktop monitor.
  • Fig. 1 the combined input device 23 is shown, which consists of two mirrored input devices 1 (one for each hand of an operator).
  • Each input device 1 consists of five screen modules 3 which each provide a plurality of touch areas 7 .
  • Each input device 1 has two screen modules 3 with 3x2 touch areas 7, two screen modules 3 with 3x1 touch areas 7, and another screen module 42 with 2x2 touch areas 7.
  • the screen modules 3 are aligned in such a way that each screen module 3 has a finger 2 can be assigned and can be operated by hand when not in use.
  • magnets 30 can be arranged, which connect the two reflecting input devices 1 to the combined input device 23 or to expansion screen modules 25.
  • each touch area 7 of the input devices 1 can be reached quickly by small movements of the fingers.
  • the other screen module 42 is intended for operation with the thumb and below Arranged screen modules 3, on the touch areas 7, the "Homerow” form the finger positions 11 are arranged.
  • the screen modules 3 are preferably still bumpy orientation aids 33 for orienting the fingers 2 when typing blindly. These orientation aids 33 enable the operator to quickly find the correct positions of all hands with all fingers on the input devices 1, even without looking.
  • the ergonomic touch surface 6 of the input device 1 is shown in profile.
  • the height H between the deep points of the dents 8 for the tactile areas 7 and the surveys 17 is between 0.4 and 2 mm.
  • the length L of the dents 8 for the touch areas 7 is 12-19 mm.
  • these dimensions mean that the operator has a very good orientation with his fingers on the touch surface 6 of the input device.
  • these dimensions ensure that a quick change with the finger from one touch area 7 to the adjacent touch areas 7 is possible.
  • FIGS. 4a and 4b The structure of the input device 1 is shown in FIGS. 4a and 4b.
  • the input device has a housing 38 into which the respective screen modules 3 are inserted.
  • the structure is shown in the form of layers of a single screen module 1 in the manner of an exploded view.
  • 4a shows a view from below
  • FIG. 4b shows a view viewed from above.
  • each screen module 3 first has a ergonomic touch surface 6, which has the structure with dents, elevations, etc. described further above.
  • a multi-touch-capable surface 19 which makes it possible to recognize touches by the operator.
  • a screen layer 18 which enables the graphical representation of interface layouts.
  • Circuit board layer 20 Under the screen layer 18 is a Circuit board layer 20, which is movably mounted on the housing 38 with elastically deformable spacers 21 together with all layers arranged above (Be touch surface 6, multi-touch-enabled surface 19 and screen layer 18).
  • the circuit board layer 20 has a vibration motor 5 and a pressure sensor 24 here. Further components (not shown separately here) can be present and be part of the circuit board layer 20 or be connected to the circuit board layer 20 .
  • the circuit board layer 20 and the other layers arranged thereon are on the one hand downwards (in a z-direction) in relation to the housing 38 ) as well as in the plane (in the x-direction and in the y-direction) are elastically reversible.
  • the possibility of movement in the z-direction primarily serves to allow a movement that allows the registration of different pressures with the pressure sensor 24 .
  • the elastically deformable spacers 21 deform in the z-direction in proportion to the applied force of pressure.
  • the pressure sensor 24 determines the pressure exerted on the circuit board layer by measuring the distance between the housing 38 and the circuit board layer 18.
  • the elastically deformable spacers 21 serve also to the fact that the force of a vibration 43 is conducted via the layers into the finger 2 and not into the underground under the input device 1.
  • the 5 shows how the combined input device 23 consisting of two input devices 1 can be combined with expansion screen modules 25 and can be connected.
  • the expansion screen modules 25 can be connected to an input device 1 with detachable couplings 22, such as magnets 30, for example.
  • FIG. 6a to 6e give various examples of interface layouts 4 that can be displayed with the input devices 1 described in order to provide the operator with operating options.
  • the keyboard interface layout 13 is shown in FIG. 6a.
  • Operating elements 41, such as letters, symbols 37 are shown on the interface layout grid of the input device 1 on the three rows 12 and the six columns 10 per input device 1.
  • Interface layouts 4 like the keyboard interface layout 13 are shown on the screen modules 3 and operated.
  • the upper and first group 9 of the screen modules 3 represents the actual interface layouts 4.
  • the further screen modules 42 are preferably set up so that you can switch between the interface layouts 4 with your thumb.
  • 6b shows an interface layout 4 of the combined input device 23 for additional symbols 37 and numbers.
  • a thick circle marks how this interface layout 4 can be selected.
  • Operating elements 41, such as numbers, symbols 37 are shown on the interface layout grid of the input device 1 on the three rows 12 and the six columns 10 per input device 1.
  • a touchpad interface layout 14 of the combined input device 23 is shown in FIG. 6c.
  • a thick circle marks how this interface layout 4 can be selected.
  • the touchpad 35 fills the right-hand input device 1 of the first group 9 of the combined input device 23 over all four screen modules 3.
  • the touchpad 35 thus also extends beyond the borders between screen modules 3.
  • On the left input device 1 a control element 41 on each screen module 3 is seen here.
  • the controls 41 here are special controls 41 that an operator in combination with a touchpad 35 urgently needs.
  • Fig. 6d an interface layout 4 of the combined input device 23 is shown for command keys.
  • a thick circle marks how this interface layout 4 can be selected.
  • Controls 41 are here each individual command keys, with which a to the input device 23 connected hardware can be prompted directly to execute more complex commands. If necessary, such command keys can also be programmed individually.
  • 6e shows an interface layout 4 of the combined input device 23 for PC navigation.
  • a thick circle marks how this interface layout 4 can be selected.
  • Operating elements 41 such as modifier keys 27, indicators 50 and sliders 34 are shown on the interface layout grid of the input device 1 on the three rows 12 and the six columns 10 per input device 1. They can each be assigned special functions of operation.
  • Interface layouts 4 consist of combinations of control elements 41.
  • Fig. 8 is visualized in a diagram as a function of the pressure on an input device or on the touch surface of the input device are implemented under different functions.
  • One application of this principle is, for example, that a user will recognize a letter as either a capital letter "A” or a small letter “a” depending on how hard he presses on a control element of the interface layout.
  • a slight pressure movement 31 and a strong pressure movement 32 are plotted here on the force axis over the time axis.
  • the printing movements 31, 32 each take place in the Z-direction.
  • the pressed screen module 3 first generates a vibration 43 at the low end of a gentle pressing movement 45 to simulate clicking, and at the high end of a gentle pressing movement 44 it generates another vibration 43 to simulate the clicking of releasing a key simulate.
  • the pressed screen module 3 first generates a vibration 43 at the bottom of a slight pressing movement 45 and then another vibration when the bottom of a strong pressing movement 47 is reached 43 to simulate clicking two levels.
  • the screen module 3 first generates a vibration 43 at the top of a strong pressing movement 46 and then at the top of a light pressing movement 44 to simulate the release on two levels.
  • the various pressure movements 31, 32 and the respective assigned and specific pressure threshold values assigned highs and lows of these pressure movements 44, 45, 46 and 47 each virtual levels are defined, which the Users can specifically select and on which the user has certain operating options.
  • the input device is set up to recognize whether the operator wants to select the first virtual level 48 (here the small "a") or the underlying second virtual level 49 (here the capital "A"), if based on the Form of the temporal pressure movement 31.32 is clearly visible whether the operator wanted to select the respective level. If the user wanted to select a level below which further levels can be found (here the level with the small "a"), this is only recognized when the pressure movement 31 reverses again or the pressure of the operator decreases. This point is also marked in FIG. From this point it is clear that the operator will not go down to a level below. If the user selects the lowest level, the respective selection can already be recognized before the printing movement 32 is reversed. This is marked here by recognizing the capital "A”. Then it is already clear at the point in time at which the operator exceeds the low of the strong pressure movement 47 that the respective level (here the capital "A") should be selected.
  • FIGS. 9a and 9b Another operating option is shown in FIGS. 9a and 9b, which can be implemented using the technology shown in FIG. 8 for changing between different virtual levels 48 and 49.
  • Fig. 9a it is shown how a slight pressure movement 31 in a first virtual level 48 and a strong pressure movement 32 in a second virtual level 49 when pressing an “a” symbol 37 different sub-operating menus 16 for operation with an additional swiping movement 28 are available place. If a slight pressure movement 31 is performed with the finger 2 on the touch area 7 with the symbol 37 “a” of a screen module 3, a sub-operating menu 16 opens with the options “ä”, “ä”, and “ä”. An option can be selected with a swipe movement 28 and operated by releasing it.
  • the submenu is preferably set up in such a way that the pressure movement takes place while maintaining the pressure that the operator has applied in order to get to the respective virtual plane 48, 49.
  • the operator reaches the respective virtual plane 48, 49 when the pressure is applied in the Z direction.
  • the washing movement then takes place in a plane parallel to the contact surface in the X direction and/or in the Y direction .
  • the first virtual plane 48 is selected with a slight pressure movement 31 . Without a swiping movement 28, the "a” is then formed. Since the screen module 3 generates a vibration 43 when you press down at the bottom of a slight pressure movement 45, and the sub-control menu 16 with “ä”, “ä”, and “ä” appears. When released without a swiping movement 28, the screen module 3 generates a second vibration 43 with a slight pressing movement 44 and an “a” is recognized as a command.
  • the first virtual plane 48 is selected with a slight pressure movement 31 .
  • a washing movement 28 is then necessary.
  • the screen module 3 When you press down, the screen module 3 generates a slight pressure movement 45 when you press it down, then a swiping movement 28 in the sub-operating menu 16 to the left is performed on the “ä” and released at this point, so that when you release the screen module 3 at the After a slight pressing movement 44 a second vibration 43 is generated, and “ä” is recognized as a command.
  • a strong pressure movement 32 in the second virtual plane 49 without a wiping movement 28 is necessary.
  • the screen module 3 generates a first vibration 43 when you press down at the bottom of a slight pressure movement 45, and the sub-control menu 16 with “ä”, “ä”, and “ä” appears. With further pressing in a strong pressing movement 32, the screen module 3 generates another vibration 43 at the bottom of a strong pressing movement 47 and the sub-operating menu 16 with “ ⁇ ”, “ ⁇ ”, and “ ⁇ ” appears. When released without a swiping motion 28, the screen module 3 generates a third vibration 43 at the top of a strong press motion 46 and a fourth vibration 43 at the top of a light press motion 44 and an “A” is recognized as a command.
  • a strong pressing movement 32 in the second virtual plane 49 with a swiping movement 28 is necessary.
  • the screen module 3 generates a first vibration 43 when you press down at the bottom of a slight pressure movement 45, and the sub-control menu 16 with “ä”, “ä”, and “ä” appears.
  • the screen module 3 With further pressing in a strong pressing movement 32, the screen module 3 generates another vibration 43 at the bottom of a strong pressing movement 47 and the sub-operating menu 16 with “ ⁇ ”, “ ⁇ ”, and “ ⁇ ” appears.
  • a washing movement 28 in the sub-operating menu 16 to the right on the “ ⁇ ” is executed and released.
  • the screen module 3 When released at the position after the swiping motion 28, the screen module 3 generates a third vibration 43 at the top of a strong press motion 46 and a fourth vibration 43 at the top of a light press motion 44 and an “ ⁇ ” is recognized as a command.
  • FIG. 9b shows how this principle can be used in connection with the touchpad 35 for camera operation, for example.
  • a normal touch operation by means of a swipe movement 28 and a slight pressure movement 31 to switch to a first virtual plane 38 allows different functions to be fulfilled when operating a camera using the touchpad 35 .
  • the camera rotation position can be rotated within an application program 29 with sweeping movements 28 via the touchpad 35 operating element 41 without any relevant pressure.
  • the screen module 3 does not generate any vibration 43 for click simulation.
  • the zoom function of the camera position is operated.
  • the screen module When the light pressure movement 31 is released, the screen module generates a second vibration 43 at the top of a light pressure movement 44 and the camera rotation position can be operated again with wiping movements 28 .
  • a special interface layout 15 for an application program 29 such as “Ableton” is shown in FIG. 10a.
  • the input device 1 automatically switches to the appropriate special interface layout 15 as soon as the application program 29 is running in the foreground.
  • the special interface layout 15 for the music production application program Ableton contains relevant operating elements 41 such as sliders 34 for volume, a touchpad 35 for filter setting, and various drum pads 26.
  • FIG. 10b Another special interface layout 15 for an application program 29 such as “Photoshop” is shown in FIG. 10b.
  • the input device 1 automatically switches to the appropriate special interface layout 15 as soon as the application program 29 is running in the foreground.
  • the special interface layout 15 for the image processing application program Photoshop contains relevant control elements 41 such as slide controls 34 for lighting or a touchpad 35 for the color setting.
  • FIG. 11a An embodiment of the input device with modules without built-in screens 53 and virtual screens 51 in AR/VR glasses 54 is shown in FIG. 11a.
  • the hand of the user 52 operates the input device with modules without built-in screens 53 and in the AR/VR glasses 54 the position of the hands is shown as a digital avatar 55 on the virtual screen module 51, so that the digital virtual interface layout 56 for operating the Application Programs 29 is possible.
  • An embodiment of the input device with modules without built-in screens 53 and virtual screens 51 on the desktop monitor 57 is shown in FIG. 11b.
  • the hand of the user 52 operates the input device with modules without built-in screens 53 and on the desktop monitor 57 the position of the hands is shown as a digital avatar 55 on the virtual screen module 51, so that the digital virtual interface layout 56 for operating the application programs can be operated easily 29 is possible.
  • 11c shows an embodiment variant of the input device 1 with integrated screens, on which the interface layout 4 can be seen.
  • the hand of the user 52 operates the interface layout 4 on the input device 1, so that the application programs 29 can be operated easily.

Abstract

Eingabegerät (1) zur Bedienung mit Fingern (2) eines Bedieners aufweisend mindestens zwei berührungsempfindliche und drucksensible Bildschirmmodule (3), die jeweils eine positionsgenaue Erkennung einer Berührung durch den Finger (2) des Bedieners ermöglichen und für die Anzeige von grafischen Interface layouts (4) eingerichtet sind, wobei die berührungsempfindlichen und drucksensiblen Bildschirmmodule (3) jeweils mit mindestens einem Vibrationsmotor (5) ausgeführt sind, wobei das Eingabegerät (1) dazu eingerichtet ist bei einer Berührung des jeweiligen Bildschirmmoduls (3) mit einem Finger (2) des Bedieners ein haptisches Feedback zu bieten

Description

Eingabegerät Technischer Hintergrund
Die Erfindung betrifft ein neuartiges Eingabegerät, welches beispielsweise für ei nen Personalcomputer eingesetzt werden kann und welches insbesondere dazu geeignet ist die üblichen, weit verbreiteten Eingabegeräte Tastatur und Maus zu ersetzen, miteinander zu einem Eingabegerät zu verschmelzen oder zumindest eines dieser Geräte (Tastatur oder Maus) zu ersetzen, um eine verbesserte Be dienbarkeit zu erreichen.
Grundsätzlich erfolgt die Bedienung eines Personalcomputers (ob Desktop-Gerät oder Notebook) heute überwiegend mit Tastatur und Maus, wobei insbesondere bei Notebooks die Maus häufig durch ein sogenanntes Touchpad odereinen Steu erstick substituiert wird.
Bei dieser Bedienung besteht häufig die Problematik, dass eine umfangreiche Be- wegung der Hand des Bedieners zum Wechsel zwischen Tastatur und Maus bzw. Touchpad erforderlich ist.
Die Tastatur ist eine der universellsten Peripheriekomponenten für Desktop- und Laptop-Computer, und doch basiert sie auf dem QWERTY-System, das bis in die 1870er Jahre zurückreicht. Sie ist wohl der älteste Teil der heute verwendeten
Desktop- und Laptop-Computer. Die Verwendung von Tastaturen ist bei Textver arbeitung, Web-Browsing, Multimedia-Streaming und Gaming allgegenwärtig. Je doch ist das Design des QWERTY-Layouts nicht auf die Ergonomischen Anforde rungen moderner Ansprüche optimiert. Aus der Schrift US 5,689,253 A ist eine ergonomische Tastatur mit orthogonalen Tasten bekannt. Zusätzlich ist bei dem Design die Bedienung der Funktionstasten mit dem Daumen angedacht. Ebenfalls bekannt sind Geräte, bei denen Tasten zum Umschalten zwischen verschiedenen Einstellungen (bspw. Groß und Kleinschreibung) zu prominenten Positionen ver schoben sind, um ein Umschalten ergonomisch zu vereinfachen.
Die statische Darstellung der Tasten auf der Tastatur limitiert allerdings die An wendungsbereiche der Tastatur und deren intuitive Benutzung. Aus der WO 2017/019390 A1 ist eine Tastatur mit Projektionssystem bekannt. Mit diesem Pro jektionssystem werden dynamisch Keys auf die Tastatur projiziert. Somit sind ver schiedene Layouts und intuitive Makros möglich. Eingabegeräte, einschließlich Näherungssensorvorrichtungen (auch häufig als Touchpads oder Berührungs sensorvorrichtungen bezeichnet), werden in einer Vielzahl von elektronischen Sys temen verwendet. Aus US 8,896,539 B2 ist eine Multitouch-Tastatur bekannt, bei der die Eingabe von der Fingerposition oder Fingerbewegung abhängt. Aus DE 11 2009 003 647 T5 ist eine Anzeigeeingabevorrichtung bekannt, bei der zwischen Finger und Touch-panel Vibrationen per Vibrationsdetektionssensor erkannt wer den und Bedienelemente unter dem Finger vergrößert dargestellt werden.
Es sind auch sogenannte virtuelle Tastaturen beschrieben worden. Virtuelle Tas taturen nach dem Stand der Technik projizieren auf Oberflächen und werden wahr scheinlich nie zur "bevorzugten" Tastatur für Benutzer. Virtuelle Tastaturen haben ein futuristisches Aussehen und können anstelle von Tastaturen für kurze Sitzun gen verwendet werden, aber für den "normalen" oder "schweren" Computerbenut zer fehlen der virtuellen Tastatur das Haptische und Taktile und viele weitere Funk tionen. ein Höchstmaß an Kontrolle und Präzision bei der Texteingabe ist aufgrund der Taktilität nur mit einem physischen Gerät möglich.
Manche Forschungskonzepte untersuchen und zeigen eine mechanische Tasta tur, die in der Lage ist, reichhaltige und ausdrucksstarke Bewegungsgesten zu er fassen, die sowohl auf als auch direkt über dem Gerät ausgeführt werden. Ein weiteres Papier hat Tastaturen mit Gestensensorik untersucht und Funktionstas ten in Gesten einzelner Tasten integriert. Jedoch sind diese Gesten auf der Ober fläche im zweidimensionalen limitiert und sind durch mangelnde taktile Oberfläche oder haptischem Feedback nicht blind zu bedienen. Mechanische Tastaturen können den Benutzern eine taktile Rückmeldung geben, wenn die Tasten auf den Tastaturen gedrückt werden. Die Benutzer können an hand der taktilen Rückmeldung erkennen, ob die T aste gedrückt ist. Allerdings sind die mechanischen Tastaturen sehr sperrig und erlaube nur wenige Formen der Interaktion (keine Gesten). Zumindest aus diesem Grund wurden die neuartigen elektronischen Handgeräte z. B. mit Touch-Tastaturen versehen, da die Touch- Tastaturen im Vergleich zu den mechanischen Tastaturen sehr dünn sind. Aller dings bieten die Touch-Tastaturen keine taktile Rückmeldung für die Benutzer. Dementsprechend können die Benutzer in Ermangelung einer taktilen Rückmel dung nicht wissen, ob sie die Tasten tatsächlich gedrückt haben. Um den Anwen dern dennoch ein Feedback zu geben, werden alternativ akustische oder optische Signale als Rückmeldung erzeugt. Viele Benutzer bevorzugen jedoch eine direkte taktile Rückmeldung anstelle eines akustischen oder optischen Signals. Es ist auch bekannt, dass der Mensch auf optische und akustische Reize langsamer re agiert als auf taktile Reize. Aus der US 2009/167694 A1 ist eine Tastatur mit Vib rations-Feedback bekannt, mit Zwei verschiedenen vibrierenden Keygruppen. Bis herige Eingabegeräte haben haptisches Feedback nicht mit visuellem Feedback (Bildschirmen) kombiniert.
Einige Eingabegeräte sind auch in der Lage, neben der Positionsinformation auch die auf eine Abtastfläche ausgeübte Kraft zu erkennen und zu bestimmen. Aus der US 9,335,844 B2 ist ein Eingabegerät bekannt, das berührungsempfindlich und druckempfindlich ist. Somit kann es je nach Druckstärke als Touchpad oder Keypad funktionieren. Jedoch fehlen diesem Eingabegerät die taktilen und hapti schen Vorteile der klassischen mechanischen Tastatur.
Bei Tastaturen kann das Layout (die Belegung der einzelnen Tasten) per Software angepasst werden, jedoch ist die Änderung der Funktionalität nur bei Tastaturen mit Bildschirmen zu sehen bzw. bei virtuellen Tastaturen, die auf Bildschirmen dar gestellt sind. Aus der WO 2017/019390 A1 ist ein Eingabegerät bekannt, bei dem die dargestellten Layouts visuell angepasst werden können. Die neo-Community bietet verschiedene Layouts zum Download an, die für bestimmte Anwendungen optimiert sind. Viele Anwendungen ermöglichen es dem Benutzer, zeitsparende "Makros" zu erstellen, aber die meisten Benutzer machen davon keinen Gebrauch, da die Hürde, die Programmierung der Makros zu erlernen, sehr hoch ist. Benutzer kaufen oft mehr als eine Tastatur oder einen Controller, jede/r für einen bestimm ten Zweck hergestellt. Viele Spieleanwendungen nutzen nur etwa 8 Tasten, und die nicht genutzten Tasten werden während des Spielens überflüssig. Viele Benut zer in den Bereichen Grafik und Bildbearbeitung führen täglich Tausende von Mausklicks aus, um Aufgaben zu erledigen, die mit einer intelligenteren Mensch- Computer-Schnittsteile stark vereinfacht werden könnten. Das Tastaturlayout kann durch Software komplett neu belegt werden.
Das hier beschriebene neuartige Eingabegerät offenbart eine neue Lösung, die insbesondere im Hinblick auf die Notwendigkeit der Bewegung des Benutzers zum Wechsel zwischen verschiedenen Bedienarten ermöglicht. Das hier beschriebene neuartige Eingabegerät bildet neben der klassischen Tastatur und dem Touch screen eine neue Form von Eingabegerät, das sich visuell anpasst, lokales hapti sches Feedback bietet, und durch die Kombination von Touch- und Druckbedie nungen eine neue Klasse an Bedienaktionen ermöglicht.
Offenbarung der Erfindung
Hier beschrieben wird ein Eingabegerät zur Bedienung mit Fingern eines Bedie ners aufweisend mindestens zwei berührungsempfindliche und drucksensible Bild- schirmmodule, die jeweils eine positionsgenaue Erkennung einer Berührung durch den Finger des Bedieners ermöglichen und für die Anzeige von grafischen Inter facelayouts eingerichtet sind, wobei die berührungsempfindlichen und drucksen siblen Bildschirmmodule jeweils mit mindestens einem Vibrationsmotor ausgeführt sind, wobei das Eingabegerät dazu eingerichtet ist bei einer Berührung des jewei ligen Bildschirmmoduls mit einem Finger des Bedieners ein haptisches Feedback zu bieten. Die berührungsempfindlichen und drucksensiblen Bildschirmmodule des hier be schriebenen Eingabegeräts weisen ein lokales individuelles haptisches Feedback und Drucksensibilität zur Bedienung durch Wischbewegungen und Tippen durch Touch-Bedienung und Druckbewegungen auf. Das Eingabegerät weist eine Auf teilung der Bildschirmmodule zur getrennten Interaktion und zur getrennten taktilen und haptischen Bedienung und Feedback innerhalb eines Gerätes auf. Ein we sentliches Merkmal des hier beschriebenen Eingabegerätes ist, dass mindestens zwei, bevorzugt jedoch mehr und ganz besonders bevorzugt fünf berührungsemp findliche und drucksensible Bildschirmmodule vorgesehen sind, die jeweils einzel nen Fingern einer Hand eines Bedieners zugeordnet sind. Jedes Bildschirmmodul ermöglicht die positionsgenaue Erkennung einer Berührung und jedes Bildschirm modul weist einen eigenen Drucksensor und Vibrationsmotor auf. Es ist eine dem hier beschriebenen Eingabegerät zu Grunde liegende Erkenntnis, dass die Zuord nung jeweils eines Bildschirmmoduls mit eigener Erkennung der Berührung, eige ner Erkennung des Drucks und eigenem Vibrationsmotor (beides unabhängig von der Berührungserkennung, Druckerkennung und den Vibrationsmotoren weiterer Bildschirmmodule des Eingabegeräts), wesentliche Verbesserungen bei der Be reitstellung der Bedienererfahrung bietet, welche der Bedienererfahrung bei der Bedienung einer normalen Tastatur ähnlich ist. Das Eingabegerät weist daher ins besondere eine Einteilung in getrennte Bildschirmmodule (jeweils mit eigener Be rührungserkennung, Druckerkennung und eigenen Vibrationsmotoren) auf. Dann erfolgt eine Zuordnung jedes Fingers zu einem individuellen Bildschirmmodul. Vib rationen können völlig unabhängig voneinander für jeden Finger individuell und teilweise auch zeitgleich oder zeitlich überlappend ausgeführt werden. Dies er möglicht es die Nutzererfahrung erheblich zu verbessern.
Bevorzugt weist das Eingabegerät trotzdem eine für den Bediener einheitliche Oberfläche auf. Bevorzugt erstreckt sich diese einheitliche Oberfläche über meh rere Bildschirmmodule hinweg. Dabei ist es möglich, dass an einem Übergangs bereich zwischen den Bildschirmmodulen (kleine) Unterbrechungen der Oberflä che vorhanden sind, die beispielsweise als eine Art (schmaler) Spalt zwischen zwei aneinander angrenzenden Bildschirmmodulen ausgeführt sind. Über solche Unterbrechungen kann der Bediener aber mit dem Finger hinweg streichen und so in einer Streichbewegung von einem Bildschirmmodul des Eingabegeräts hin zu einem weiteren (benachbarten/angrenzenden) Bildschirmmodul des Eingabegerä tes wechseln.
Das Eingabegerät weist bevorzugt Sensorik zur Nutzung mehrerer Bedienungsak tionen wie Berühren, Klicken, Drücken, Wischen, Tippen, und Trommeln auf. Der Vibrationsmotor und das drucksensible Bildschirmmodul weisen wesentliche Ele mente zum Ermöglichen der Erkennung dieser Bedienungsaktionen auf, um dem Bediener ein Feedback zu liefern, welches diesen Bedienaktionen entspricht bzw. vom Bediener als geeignete/nachvollziehbare Reaktion auf die jeweilige Bedien aktion wahrgenommen wird. Das Eingabegerät weist Bildschirmmodule zur grafi schen Anzeige von Interfacelayout auf. Interfacelayouts weisen bevorzugt ein oder mehrere Bedienelement auf, die auf den Bildschirmmodulen dynamisch dargestellt werden können. Interfacelayouts weisen Bedienelementen wie Symbole, Zahlen, Buchstaben, Indikatoren, Touchpads, Schieberegler, Drumpads, und Joysticks auf. Das Eingabegerät ist zur positionsgenauen Erkennung von Berührungen als ein Touchscreen eingerichtet. Bevorzugt hat das Bildschirmmodul zu diesem Zweck eine Bildschirmschicht, die touchfähig und besonders bevorzugt multitouch-fähig ist. Mit dem Begriff "touchfähig" ist hier gemeint, dass die Bildschirmschicht eine Berührung erkennen kann und dabei auch festgestellt werden kann, wo diese Be- rührung stattgefunden hat. So kann erkannt werden, ob ein Bediener mit einem Finger eine bestimmte Position des Bildschirmmoduls berührt. Ggf. kann so auch erkannt werden, wie sich die Position ändert, an der der Finger des Bedieners das Bildschirmmodul berührt (Bewegung im zweidimensionalen Bereich auf der Ober fläche). Mit dem Begriff "multitouch-fähig" ist gemeint, dass die Bildschirmschicht mehrere Berührungen mit mehreren Fingern gleichzeitig erkennen kann und je weils auch festgestellt werden kann, wo die Berührungen stattgefunden haben. Eine multitouch-fähige Bildschirmschicht ermöglicht auch komplexere Bedienungen auf einem einzelnen Bildschirmmodul. Besonders bevorzugt ist das Bildschirmmodul (und insbesondere die im Bildschirmmodul eingerichtete Bild schirmschicht) zur Bedienung durch Berührungsgesten ausgebildet. Das Eingabe gerät bzw. jedes einzelne Bildschirmmodul des Eingabegeräts weist eine Druck sensibilität zur Bedienung durch Druckgesten auf. Die Drucksensibilität ist insbe sondere so eingerichtet, dass die Stärke des mit einem Finger ausgeübten Drucks auf die Oberfläche des Bildschirmmoduls erkannt und damit auch ausgewertet werden kann. Das Eingabegerät bzw. jedes einzelne Bildschirmmodul des Einga begeräts weist also Sensorik zur Unterscheidung unterschiedlicher Druckbewe gungen und Druckstärken der Finger des Bedieners auf den berührungsempfind lichen Bildschirmmodulen auf. Das Eingabegerät bzw. jedes einzelne Bildschirm modul des Eingabegeräts weist eine Vibrationsfunktion zur Bedienung mit dyna mischem haptischem Feedback zur Nachahmung eines realistischen Klick-Ge- fühls auf. Das Eingabegerät weist lokales dynamisches Vibrationsfeedback zum blinden Tippen auch in ergänzter Realität auf. Die Vibrationsfunktion ist mit min destens einen Vibrationsmotor realisiert. Der mindestens eine Vibrationsmotor ist bevorzugt so eingerichtet, dass dieser eine Vibration mit einer Bewegungs amplitude in Richtung einer Berührungsoberfläche des Bildschirmmoduls (X-Rich- tung oder Y-Richtung) erzeugen kann.
Die Darstellung von Bedienelementen bzw. Interfacelayouts auf den Bildschirm modulen und die Steuerung zur Auswertung von Berührungen der Bildschirmmo- dule sind bevorzugt aufeinander abgestimmt. Das Eingabegerät ist dazu einge richtet Berührungen des Bedieners so auszuwerten, wie dies dem Bediener durch die Darstellung der Bedienelemente bzw. der Interfacelayouts angezeigt wird.
Das Eingabegerät kann mit verschiedenen Bedienungsaktionen mit einem bis mehreren Fingern bedient werden. Mit einer Bedienaktion ist immer ein bestimmter Ablauf von Berührungen der Bildschirmmodule des Eingabegeräts gemeint, wel cher mit der Sensorik erkannt und von Software ausgewertet wird, um bestimmte Steuerbefehle auszulösen. Bedienungsaktionen finden durch Berührungen der Bildschirmmodule bspw. der Berührungsoberflächen der Bildschirmmodule statt und können unterschiedlich ausgeprägt sein. Es können leichte Berührungen mit einem Druck von 50 Gramm erfolgen. Es können starke Berührungen mit einem Druck von 120 Gramm erfolgen. Bedienungsaktionen zur Bedienung des Einga begerätes können beispielsweise auch Bewegungsprofile wie Mausbewegungen, 2-bis-4 Finger-Gesten, und Pinch-to-Zoom oder ähnliches umfassen. Bedienungs aktionen können aneinandergereiht werden und in eine neue Bedienungsaktion resultieren. Z.B.: doppelte Berührung, Doppelklick; Berühren oder Bewegen beim Loslassen nach einem leicht/starkem Drücken. Das Eingabegerät kann dazu ein gerichtet sein schlag-empfindlich zu reagieren. Bei einer Schlagempfindlichkeit wird nicht nur der auftretende Druck (bspw. 50 Gramm oder 120 Gramm) bei einer Berührung erkannt, sondern zusätzlich auch die Steigung des Druckanstiegs bei der Schlagbewegung bspw. in der Einheit [Gramm/Sekunde]. Bedienungsaktionen können auch unterschiedlich ausgewertet werden je nach Länge der Bedienungs aktion z.B.: Kurzes vs. langes Halten.
Bevorzugt ist, wenn eine Berührungsoberfläche jedes berührungsempfindlichen Bildschirmmoduls jeweils in mindestens zwei Tastbereiche unterteilt ist, wobei die Berührungsoberfläche zur Ausbildung der T astbereiche eine für die Finger des Be- dieners ertastbare Orientierungsstruktur aufweist.
Die ertastbare Orientierungsstruktur ist insbesondere haptisch ertastbar. Die er tastbare Orientierungsstruktur kann beispielsweise dadurch gebildet sein, dass in jedem der mindestens zwei Tastbereiche jeweils eine eingewölbte Delle angeord- net ist, die den Fingern eines Bedieners eine haptische Orientierung auf der Be rührungsoberfläche des berührungsempfindlichen Bildschirmmoduls bietet. Die Gesamtheit der Dellen in jedem Tastbereich bildet hier also die ertastbare Orien tierungsstruktur. Dies ist eine erste Möglichkeit die ertastbare Orientierungsstruk tur auszubilden. In weiteren Ausführungsvarianten kann die ertastbare Orientie- rungsstruktur beispielsweise auch mit Rillen, Erhebungen oder ähnlichen Struktur merkmalen der Berührungsoberfläche ausgebildet sind. Bei üblichen Tastaturen sind die Tasten verschiedener Tastenreihen immer leicht versetzt zueinander angeordnet. Dieses Layout ist historisch so entstanden, weil es bei Schreibmaschinen aufgrund der Mechanik vorteilhaft war. Bei dem hier be schriebenen Eingabegerät ist es bevorzugt, wenn die einzelnen Tastbereiche auf den Bildschirmmodulen jeweils in Reihen und Spalten angeordnet sind, die in bei den Richtungen (X-Richtung und Y-Richtung) zueinander ausgerichtet und nicht versetzt sind. Das Eingabegerät weist also bevorzugt begradigte, bzw. orthogonale Tastbereichsspalten auf. Dies dient bevorzugt zur Schaffung eines übersichtliche ren physischen Layouts und symmetrischer Bewegung zwischen der linken und rechten Hand.
Bevorzugt weist die Berührungsoberfläche des Eingabegerätes zwischen einge wölbten Dellen benachbarter Tastbereiche jeweils Erhebungen auf. Solche Erhe bungen bilden dann bevorzugt ebenfalls die ertastbare Orientierungsstruktur. Die Erhebungen bilden bevorzugt für den Bediener haptisch erfassbare Begrenzungen der jeweiligen Tastbereiche. Die Dellen bzw. die Erhebungen sind fürden Bediener beim Darüberstreichen mit dem Finger wahrnehmbar, behindern ihn aber in der Bewegung nicht. Die Dellen sind tief genug, um den Fingern des Bedieners beim blinden Tippen eine Orientierung zu geben und flach genug, um auf der Multitouch fähigen Oberfläche bequem Gesten auszuführen zu können, bei welchen der Be diener über die Grenzen der einzelnen Tastbereiche hinweg streicht und dabei gegebenenfalls einen Druck auf das Bildschirmmodul ausübt bzw. eine Berührung ausübt, die von dem Bildschirmmodul wahrgenommen werden kann. Zum Erken nen einer Berührung ist üblicherweise kein Druck erforderlich. Vielmehr ist die An wesenheit eines Fingers des Bedieners bei einer Berührung bevorzugt druckun abhängig wahrnehmbar.
Außerdem bevorzugt ist, wenn zur Bedienung mit Zeigefinger, Mittelfinger, Ring finger und kleinem Finger eine erste Gruppe von berührungsempfindlichen Bild schirmmodulen vorgesehen ist, die in einer Reihe nebeneinander angeordnet sind und unterhalb ein weiteres berührungsempfindliches Bildschirmmodul zur Bedie nung mit dem Daumen angeordnet ist. Darüber hinaus bevorzugt ist, wenn die berührungsempfindlichen Bildschirmmo- dule der ersten Gruppe jeweils mindestens drei übereinander angeordnete Reihen von Tastbereichen aufweisen.
Die Tastbereiche der Bildschirmmodule übernehmen die Rolle der Tasten der klas sischen Tastatur. Bildschirmmodule mit bis zu sechs Tastbereichen fassen sepa rate Tasten der klassischen Tastatur zusammen.
In diesem Zusammenhang ist auch bevorzugt, wenn die erste Gruppe genau vier berührungsempfindliche Bildschirmmodule umfasst, wobei jedem der Finger Zei gefinger, Mittelfinger, Ringfinger und kleiner Finger genau ein berührungsempfind liches Bildschirmmodul zugeordnet bzw. zuordenbar ist, wobei die berührungs empfindlichen Bildschirmmodule für Zeigefinger und kleinen Finger jeweils zwei Spalten nebeneinander angeordneter Tastbereiche und die berührungsempfindli chen Bildschirmmodule für Ringfinger und Mittelfinger jeweils genau eine Spalte nebeneinander angeordneter Tastbereiche aufweisen.
Auf den berührungsempfindlichen Bildschirmmodulen können relevante Bedien elemente direkt unter einem Finger eingeblendet werden, mit dem die Bedienung dieser Bedienelemente erfolgen soll. Bevorzugt ist eine Ruhestellung von Finger positionen auf den Bildschirmmodulen vorgesehen, die jeweils einen Tastbereich der Finger definiert. Diese Ruhestellungen von Fingerpositionen bilden bevorzugt eine sogenannte "Homerow" - eine Reihe von Fingerpositionen, für Zeigefinger, Mittelfinger, Ringfinger und kleinen Finger. Die Größe und Position der Bildschirm module und Tastbereiche zueinander ist bevorzugt so festgelegt, dass ausgehend von einer der Fingerpositionen in der "Homerow" sich weitere Tastbereiche des jeweiligen Bildschirmmoduls in der Reichweite der Finger befinden und eine gute Mobilität der Finger hin zu diesen weiteren Tastbereichen besteht. Die Bildschirm module für Mittelfinger und Ringfinger weisen eine Breite von einem Tastbereich auf, da diese eine geringere Mobilität haben. Die Bildschirmmodule für den Zeige finger und kleinen Finger weisen eine Breite von zwei Tastbereichen auf, da diese beiden Finger eine größere Flexibilität haben. Bevorzugt liegt bei den Bildschimo dulen für den Zeigefinger und den kleinen Finger neben der Spalte von Tastberei chen mit der Fingerposition in der "Homerow" jeweils noch eine weiter außen lie gende Spalte von Tastbereichen.
Das Eingabegerät weist im Vergleich zur klassischen Tastatur bevorzugt eine ge ringere Anzahl an Tasten bzw. Tastbereichen auf. Dies bewirkt eine leichtere Er reichbarkeit der Tasten beim blinden Tippen. Die Gestaltung und Darstellung der Bedienelemente orientiert sich bevorzugt auch unabhängig von der Form und Ge stalt der Tastbereiche an der Mobilität und Reichweite der Finger. Dies gilt insbe sondere für Bedienelemente, die sich auch über mehrere Tastbereiche hinweg und ggf. sogar über mehrere Bildschirmmodule hinweg erstrecken. Das Eingabegerät weist eine dynamische Darstellung von Bedienelementen nahe der Fingerposition der Finger in der "Homerow" zur schnellen Erreichbarkeit und Bedienbarkeit auf. Die Anordnung der T astbereiche in einer orthogonalen nicht zueinander versetzten Anordnung suggeriert und lehrt dem Bediener das richtige Tippen. Das Eingabe gerät weist eine Anordnung von Bildschirmmodulen und Tastbereichen zur Sug gestion der optimalen Platzierung der Hand auf dem Eingabegerät auf. Die schnelle blinde Bedienbarkeit eines Eingabegeräts mit allen Fingern der Hand ei nes Bedieners hängt hier im Wesentlichen davon ab, dass die um eine Fingerpo sition herum liegenden Tastbereiche gut erreichbar sind. Die einem Finger für die Bedienung zugeordneten Tastbereiche sind in dem Eingabegerät jeweils in einem Bildschirmmodul zusammengefasst, welches dazu eingerichtet ist, dem Bediener mit dem Vibrationsmotor auch ein haptisches Feedback zu bieten.
Das weitere Bildschirmmodul zur Bedienung mit dem Daumen ist bevorzugt dazu eingerichtet die Rolle der “modifier keys” der klassischen Tastatur zu übernehmen. Das weitere Bildschirmmodul hat bevorzugt ebenfalls Tastbereiche und bevorzugt genau vier Tastbereiche, die in einem 2x2-Layout angeordnet sind. Die Tastberei che des weiteren Bildschirmmoduls sind bevorzugt zumindest teilweise als “modi fier keys” eingerichtet. Der Daumen wird während der Verwendung einer Tastatur üblicherweise nur für das Leerzeichen bzw. "SPACE" verwendet und ist aus diesem Grund meist frei. Durch die Nutzung des Daumens, insbesondere für die Bedienung von "modifier keys" ermöglicht es beispielsweise 2-Tasten-Shortcuts (bspw. bestehend aus einer "modifier key" wie "alt", "umschalt" oder "strg" sowie einem Buchstaben und einer Zahl) sehr schnell vorzunehmen, insbesondere ohne die Hand von den Fingerpositionen in der "Homerow" zu nehmen oder spezielle unbequeme Fingerhaltungen einzunehmen.
Auch bevorzugt ist, wenn eine Auswahl von grafischen Interfacelayouts der ersten Gruppe von berührungsempfindlichen Bildschirmmodulen durch Bedienungsaktio nen an dem weiteren berührungsempfindlichen Bildschirmmodul mit dem Daumen erfolgen kann.
Interfacelayouts können beispielsweise Bedienoptionen für verschiedene Anwen dungen bereithalten. Optional können solche Interfacelayouts auf dem Eingabe gerät auch automatisiert ausgewählt werden, wenn vom Bediener selbst oder au tomatisch eine bestimmte Anwendung geöffnet wird, für die das jeweilige Inter facelayout vorgesehen ist. Die hier beschriebene Methode das weitere Bildschirm modul zur Bedienung mit dem Daumen zur Auswahl der Interfacelayouts zu ver wenden ist eine vorteilhafte Ergänzung der automatischen Auswahl des vorgese henen Interfacelayouts.
Außerdem bevorzugt ist, wenn auf der ersten Gruppe von berührungsempfindli chen Bildschirmmodulen mindestens ein Tastatur-Interfacelayout und mindestens ein Touchpad-Interfacelayout angezeigt werden können, und ein Wechsel zwi schen dem mindestens einen Tastatur-Interfacelayout und dem mindestens einen Touchpad-Interfacelayout durch eine Bestätigung des weiteren berührungsemp findlichen Bildschirmmoduls mit dem Daumen erfolgen kann.
Das Tastatur-interfacelayout ermöglicht es die üblichen Bedienfunktionen einer Tastatur zu übernehmen. Die vier Bildschirmmodule der ersten Gruppe des Ein gabegeräts haben zusammen 18 Tasten. Bei zwei Eingabegeräten, die für die linke und die rechte Hand verwendet werden, stehen insgesamt 36 Tasten zur Verfügung. Dies ist ausreichend um eine sehr schnell und einfach mit 8 Fingern (+ 2 Daumen) zu bedienende Tastatur zur Verfügung zu stellen.
Das Touchpad-Interfacelayout ersetzt die übliche Maus oder ein Touchpad bei ei nem Notebook/Laptop. Besonders vorteilhaft ist, dass das Touchpad über mehrere Bildschirmmodule des Eingabegeräts hinweg ausgebildet sein kann. Der Bediener kann bei einer Bedienung des Touchpads über die Grenze der Bildschirmmodule hinweg streichen. Die Steuerung/Software des Eingabegerätes ist bevorzugt dazu eingerichtet dies auszugleichen und eine durchgängige Auswertung der Eingaben auf mehreren Bildschirmmodulen sicher zu stellen.
Durch die Kombination eines Tastaturlayouts und eines Touchpad-Interfacelay- outs in dem Eingabegerät kann eine sehr unproblematische und umfassende Mög lichkeit der Bedienung geschaffen werden. Das Eingabegerät ist (insbesondere im Verbund mit einem weiteren spiegelverkehrten Eingabegerät) dazu geeignet Tas tatur und Maus zur Bedienung eines PCs vollständig zu ersetzen.
Des Weiteren bevorzugt ist, wenn auf der ersten Gruppe von berührungsempfind lichen Bildschirmmodulen zusätzlich mindestens ein Spezial-Interfacelayout dar gestellt werden kann und ein Wechsel zu diesem Spezial-Interfacelayout durch eine Bestätigung des weiteren berührungsempfindlichen Bildschirmmoduls mit dem Daumen erfolgen kann, wobei das mindestens eine Spezial-Interfacelayout mindestens eine der folgenden Funktionen bereitstellt: ein Layout umfassend mindestens einen Schieberegler; ein Pfeiltastenlayout; und mindestens ein benutzerdefiniertes Interfacelayout.
Interfacelayouts weisen mindestens ein Bedienelement auf. Bedienelemente der Interfacelayouts sind Symbole, Schieberegler, Indikatoren, Touchpads, Joysticks oder Drumpads. Interfacelayouts weisen eine beliebige Anordnung von Bedienele menten zur Aufteilung in unterschiedliche Bedienbereiche vor. In einem System aus zwei zueinander spiegelverkehrt aufgebauten Eingabegeräten wird das linke Eingabegerät In Ausführungsvarianten dazu verwendet Symbole und Funktions tasten darzustellen und das gespiegelte rechte Eingabegerät wird dazu verwendet ein Touchpad oder ähnliche Komponenten darzustellen. Es sind viele andere An ordnungen umsetzbar. Bedienelemente können auf einzelnen Tastbereichen, über Tastbereichsgrenzen hinweg auf ganzen Bildschirmmodulen, über Bildschirmmo dulgrenzen hinweg, oder der ganzen Berührungsoberfläche des Gerätes einge richtet sein.
Das Bedienen der Bedienelemente erzeugt eine anpassbare haptische Rückkopp lung. Bedienelemente weisen eine anpassbare Druck-Sensorik zur Unterschei dung verschiedener Schlagstärken für Tippen oder auch Trommeln vor. Eingabe- und Ausgabeparameter der Bedienelemente lassen sich sowohl in der T ouch-Sen- sitivität, visuell als auch haptisch vom Bediener anpassen (z.B.: Klick-Schwell- punkt, Stärke der Vibrationsrückkopplung). Diese Einstellungen können auch fest mit einem Interfacelayout verknüpft sein und automatisch durch die Auswahl eines bestimmten Interfacelayouts vorfestgelegt sein.
Die Bedienelemente solcher Interfacelayouts sind bevorzugt an das durch Spalten und Reihen von Tastbereichen vorgegebene Raster angepasst. Bei benutzerdefi nierten Interfacelayouts besteht bevorzugt die Möglichkeit Bedienelemente vom Bediener auf dem Eingabegerät-Raster zu positionieren, zu skalieren, und zu kon figurieren. Bedienelemente können vom Bediener in einer Oberfläche zur Modifi zierung von benutzerdefinierten Interfacelayouts bevorzugt per Drag’n’Drop-Tech- nik verschoben, bearbeitet und gelöscht werden. Bei der Bearbeitung der Bedien elemente erscheinen per Klick auf das Bedienelement Optionen zur Einstellung des Aussehens und der Funktionsweisen des Bedienelementes. Besonders be vorzugtwird die Oberfläche zur Modifizierung von benutzerdefinierten Interfacelay outs zumindest teilweise auf dem Eingabegerät bzw. dessen Bildschirmmodulen selbst angeboten.
Interfacelayouts können über einen Client vom Bediener erstellt und bearbeitet werden. Interfacelayouts mit bereits optimierten Anwendungsspezifischen Layouts können dem Bediener auch auf einer per Crowdsourcing gefüllten Layout-Biblio thek zur Verfügung gestellt werden.
Außerdem bevorzugt ist, wenn durch die Ausübung eines vorgegebenen Drucks auf die berührungsempfindlichen Bildschirmmodule an durch das Interfacelayout vorgegebenen Bildschirmpositionen ein Wechsel in mindestens ein Unter-Bedien- menü erfolgen kann, in welchem zwischen Unterfunktionen zu der an der Bild schirmposition vorgesehenen Funktionalität gewechselt werden kann, wobei in dem Unter-Bedienmenü Unterfunktionen durch Wischbewegungen mit dem Finger ausgewählt werden können.
Hier wurde eine einfache Möglichkeit geschaffen in einem Tastbereich bzw. auf einer in einem Tastbereich simulierten Taste mehrere Funktionen zusammen zu fassen. Je nach Stärke eines Druckes gelangt der Benutzer in unterschiedliche virtuelle Bedienebenen des Eingabegeräts. Je nachdem bis in welche virtuelle Be dienebene der Benutzer geht wird der Druck auf den Tastbereich unterschiedlich interpretiert. Bspw. kann eine erste virtuelle Ebene, die durch eine leichte Druck bewegung erreichbar ist, verwendet werden, um Kleinbuchstaben wie "a" auszu geben. in der drunter liegenden zweiten virtuellen Ebene, die durch einen höheren Druck erreichbar ist, können dann Großbuchstaben wie "A" ausgegeben werden. Mit Druckbewegungen kann innerhalb eines Bedienelements (bspw. einer in einem Tastbereich simulierten Taste eines Bedienelementes) also in weitere Unter-Bedi- enmenüs (Bedienebenen) gewechselt werden. In Unter-Bedienmenüs kann das Bedienelement durch Loslassen oder durch Wischbewegungen bedient werden. Durch eine Druckbewegung auf einen Buchstaben kann zwischen verschiedenen Variationen eines Buchstabens gewechselt und durch eine ergänzende Wischbe wegung innerhalb eines Schiebemenüs zwischen verschiedenen Variationen des Buchstabens ausgewählt werden.
Hierbei ist zu beachten, dass die Auswahl einer bestimmten virtuellen Ebene im mer erst dann sicher erkannt werden kann, wenn klar ist, dass der Bediener den Bediendruck nicht noch weiter ansteigen lässt und so nicht mehr die Möglichkeit besteht in eine tiefere virtuelle Ebene zu wechseln. Dies gelingt dadurch, dass je nach ausgewählter virtueller Ebene die Auswahl der Ebene entweder an einem Hoch der Druckbewegung oder an einem Tief der Druckbewegung erkannt wird, wobei ein Tief bedeutet, dass der Druck noch ansteigt und ein Hoch bedeutet, dass der Druck bereits wieder abfällt. Grundsätzlich gilt, dass bei allen virtuellen Ebenen unter denen sich weitere, mit einem höheren Druck erreichbare virtuelle Ebenen befinden, die Auswahl der Ebene Final nur beim Hoch der Druckbewegung erkannt werden kann. Eine Alternative wäre die Auswahl zu erkennen, wenn der Bediener unter konstantem Druck anfängt weitere Bedienaktionen auszuführen, wie bei spielsweise zu wischen, um bestimmte Varianten eines Buchstabens auszuwäh len. In einer untersten virtuellen Ebene ist es nicht mehr wichtig die Auswahl erst beim Hoch der Druckbewegung zu erkennen, sondern die Erkennung kann bereits beim Tief der Druckbewegung erfolgen, weil eine weitere Erhöhung des Drucks nicht mehr den Wechsel in eine weitere, noch tiefere virtuelle Ebene ermöglicht.
In einer bevorzugten Ausführungsvariante weisen die berührungsempfindlichen und drucksensiblen Bildschirmmodule des Eingabegerätes, einen schichtweisen Aufbau mit zumindest den folgenden Schichten auf:
- eine ergonomische transparente Berührungsoberfläche, welche Dellen und Erhebungen bereitstellt, die einem Bediener eine haptische Orientierung bie ten,
- eine Bildschirmschicht,
- eine multitouch-fähige Oberfläche,
- eine Platinenschicht zumindest mit einem Vibrationsmotor und einem Drucksensor,
- ein gemeinsames Gehäuse für mehrere Bildschirmmodule, auf welchem die Berührungsoberfläche, die Bildschirmschicht, die multitouch-fähige Ober fläche und die Platinenschicht mit mindestens einem elastisch verformbaren Abstandhalter beweglich gelagert sind.
Der hier beschriebene schichtweise Aufbau ist ein möglicher, besonders bevor zugter Aufbau, auf welchen das hier beschriebene Eingabegerät jedoch nicht beschränkt ist. Es kann auch anders aufgebaut sein, um die beschriebenen Funk tionsmerkmale zu erfüllen. Beispielsweise kann je nach Anwendungsfall und Her stellungsmöglichkeiten die Reihenfolge der Schichten geändert werden.
Bevorzugt sind der haptische Vibrationsmotor und der Drucksensor direkt in eine Platine der Platinenschicht integriert. Die für das Bildschirmmodul wesentliche Bildschirmschicht dient auch als Gewicht, welches von dem Vibrationsmotor in Be wegung versetzt werden kann und bevorzugt auf den elastisch verformbaren Ab standhaltern schwingt. Die Bildschirmschicht dient damit selbst als Teil des hapti schen Vibrationsmotors. Der Vibrationsmotor erzeugt bevorzugt eine Vibra tion/Schwingung in einer Ebene der verschiedenen Schichten (X-Richtung bzw. Y- Richtung) und nicht senkrecht zu dieser Ebene. Dann wird die Vibration von einem Bediener als angenehmes haptisches Feedback empfunden. Die verformbaren Abstandshalter können beispielsweise als Silikon-Pads ausgeführt sein. Die ver formbaren Abstandshalter sind bevorzugt elastisch und sie dienen insbesondere auch dazu, die Kraft einer Vibration über die Schichten in den Finger des Bedie ners und nicht in den Untergrund unter das Eingabegerät zu leiten.
Bevorzugt sind die einzelnen berührungsempfindlichen Bildschirmmodule des Ein gabegeräts in einem durchgängigen Gehäuse verbaut. Das Gehäuse ist bevorzugt L-förmig, so dass in einer Reihe nebeneinander die vier Bildschirmmodule für Zei gefinger, Mittelfinger, Ringfinger und kleinem Finger angeordnet sind und sich un terhalb des Bildschirmmoduls für den Zeigefinger dann jeweils noch das weitere Bildschirmmodul für die Bedienung mit dem Daumen befindet.
Bevorzugt hat das Eingabegerät seitliche Magnete, die lösbare Kupplungen bereit stellen, an welche weitere Eingabegeräte dieses Typs lösbar angesetzt werden können.
Weitere Eingabegerät-Module können z.B. Eingaberäte für Smart-button, Drehreg ler oder ähnliche Komponenten sein.
Hier auch beschrieben wird ein kombiniertes Eingabegerät umfassend zwei Ein gabegeräte gemäß einem der vorhergehenden Ansprüche, die spiegelverkehrt zueinander ausgeführt sind und zur Bedienung mit zwei Händen eines Bedieners vorgesehen sind.
Durch zwei spiegelverkehrt zueinander ausgeführte Eingabegeräte werden dem Benutzer Bedienmöglichkeiten bereitgestellt, die weitgehend der Bedienung mit einer Tastatur entsprechen, wobei die Eingabegeräte viele weitere vorteilhafte Be dienmöglichkeiten bieten. Das kombinierte Eingabegerät besteht aus zwei Einga begeräten. Jeder Hand des Bedieners wird bevorzugt ein Eingabegerät zugeord net. Der Bedienwinkel der Eingabegeräte zueinander kann zur Optimierung des Winkels der Handgelenke vom Bediener frei eingestellt werden. Die Anpassbarkeit der Bedienwinkel beugt Verletzungen wie das RSI-Syndrom vor. Die Trennbarkeit des kombinierten Eingabegerätes weist eine erhöhte Freiheit und Flexibilität bei der Wahl der Haltung und ergänzenden Eingabegeräte (z.B. Maus) zur Verbesse rung der Langzeit Leistung vor.
Bevorzugt ist das Eingabegerät mit mehreren unterschiedlichen Schnittstellen aus geführt z.B.: MIDI oder MQTT, um loT Geräte zu steuern. Die verschiedenen Schnittstellen bzw. deren Kommunikationsprotokolle können durch Adapter erwei tert werden. So kann das Eingabegerät als ein universelles Bediengerät für ver schiedene Geräte (nicht nur Computer) verwendet werden.
Hier soll auch noch eine alternative Ausführungsvariante eines Eingabegeräts be schrieben werden. Es handelt sich um ein Eingabegerät zur Bedienung mit Fingern eines Bedieners aufweisend mindestens zwei Module, die jeweils eine positions genaue Erkennung einer Berührung durch den Finger des Bedieners ermöglichen, wobei die berührungsempfindlichen und drucksensiblen Module jeweils mit min destens einem Vibrationsmotor ausgeführt sind, wobei das Eingabegerät dazu ein gerichtet ist bei einer Berührung des jeweiligen Moduls mit einem Finger des Be dieners ein haptisches Feedback zu bieten, wobei das Eingabegerät dazu einge richtet ist, mit einer Software zusammenzuwirken, welche die mindestens zwei Mo dule als virtuelle Bildschirmmodule auf einem Bildschirm darstellt, wobei die virtuellen Bildschirmmodule für die Anzeige von grafischen Interfacelayouts einge richtet sind, welche ein Bediener den mindestens zwei Modulen zuordnet..
Bei dieser Ausführungsvariante handelt es sich um eine Abwandlung des zuvor beschriebenen Eingabegeräts mit mindestens zwei Bildschirmmodulen, die insbe sondere hinsichtlich der Hardware vereinfacht ist, jedoch eine angepasste Soft ware benötigt, mit der die Module als virtuelle Bildschirmmodule auf einem Bild schirm dargestellt werden. Der Bildschirm ist beispielsweise ein Bildschirm eines Computers, an welchem das beschriebene Eingabegerät angeschlossen ist. Die virtuellen Bildschirmmodule sind so eingerichtet, das der Benutzer sie wahrnimmt als wären es die Module des Eingabegeräts. Optional können die Finger des Be dieners und deren aktuelle Position über dem Modul bzw. auf dem Modul auf dem virtuellen Bildschirmmodul dargestellt werden. Der Bediener kann mit den Modulen so durch die Interfacelayouts navigieren wie dies zuvor für die beschriebenen Bild schirmmodule erläutert ist.
Sämtliche Details und Ausführungsvarianten, die vorstehend für Eingabegeräte mit mindestens zwei Bildschirmmodulen beschrieben wurden, können auf das Ein gabegerät mit mindestens zwei Modulen und entsprechenden virtuellen Bild schirmmodulen übertragen werden.
Das Eingabegerät mit Modulen und entsprechenden virtuellen Bildschirmmodulen kann insbesondere Vorteile aufweisen als Variante mit kostengünstigerer Hard ware gegenüber dem Eingabegerät mit Bildschirmmodulen. Das Eingabegerät mit Modulen und entsprechenden virtuellen Bildschirmmodulen kann darüber hinaus als Variante für Versuche und Erprobung von Funktionen des Eingabegeräts mit Bildschirmmodulen zum Einsatz kommen.
Das Eingabegerät mit Modulen und entsprechenden virtuellen Bildschirmmodulen kann über Geräte der virtuellen und gemischten Realität benutzt werden. Der Bild schirm ist hier beispielsweise ein in die VR-Brille eingebauter Bildschirm, auf dem das virtuelle Interfacelayout angezeigt wird. Die virtuellen Bildschirme können so Teil eines virtuellen Arbeitsplatzes sein. Die Position der Finger und Hände kann in der gemischten Realität auf dem virtuellen Bildschirmmodul als digitaler Avatar dargestellt werden. Das Eingabegerät mit Modulen und entsprechenden virtuellen Bildschirmmodulen kann mit üblichen Desktop Monitoren benutzt werden, wobei das digitale Inter facelayout auf diesem dargestellt wird. Die Position der Finger und Hände wird hierbei als digitaler Avatar auf dem digitalen Interfacelayout dargestellt. Die Erfindung sowie das technische Umfeld werden nachfolgend anhand der Fi guren näher erläutert. Die Figuren zeigen bevorzugte Ausführungsbeispiele, auf welche die Erfindung jedoch nicht gegrenzt sind. Die Figuren und insbesondere die in den Figuren dargestellten Größenverhältnisse sind nur schematisch. Es zei gen.
Fig. 1: Das beschriebene kombinierte Eingabegerät bestehend aus zwei ein zelnen Eingabegeräten für beide Hände eines Bedieners;
Fig.2: Die Berührungsoberfläche des Eingabegerätes in einer dreidimensio- nalen schematischen Ansicht;
Fig.3: Die Berührungsoberfläche des Eingabegerätes in der Profilansicht;
Fig. 4a: Eine Darstellung des Schichtaufbaus eines Bildschirmmoduls des Ein gabegeräts in einer Explosionsdarstellung von unten;
Fig. 4b: Eine Darstellung des Schichtaufbaus eines Bildschirmmoduls des Ein gabegeräts in ein einer Explosionsdarstellung von oben; Fig. 5: eine Skizze der Bedienung eines kombinierten Eingabegeräts ergänzt um Erweiterungsbildschirmmodule; Fig. 6a: ein beschriebenes kombiniertes Eingabegerät mit Tastatur-Inter facelayout;
Fig. 6b: ein beschriebenes kombiniertes Eingabegerät mit Interfacelayout für weitere Symbole und Zahlen;
Fig. 6c: ein beschriebenes kombiniertes Eingabegerät mit Touchpad-Inter- facelayout; Fig. 6d: ein beschriebenes kombiniertes Eingabegerät mit Befehls-Inter- facelayout;
Fig. 6e: ein beschriebenes kombiniertes Eingabegerät mit Befehls-Inter- facelayout;
Fig. 7: verschiedene Bedienelemente eines Interfacelayouts;
Fig. 8: ein Diagramm eines haptischen Feedbacks bei einem Druck auf das Eingabegerät;
Fig. 9a: Beispielstruktur eines Unter-Bedienmenüs mit dem Symbol-Buchsta ben “a” mit mehreren Ebenen;
Fig. 9b: Beispielstruktur eines Unter-Bedienmenüs mit einem Touchpad zur Bedienung einer Camera-Ansicht;
Fig. 10a: eine erste Variante eines anwendungsspezifischen Interfacelayouts;
Fig. 10b: eine zweite Variante eines anwendungsspezifischen Interfacelayouts;
Fig. 11a: eine Ausführungsvariante des Eingabegerätes mit Modulen mit virtuel len Bildschirmmodulen mit Avatar in gemischter Realität (AR/VR); Fig. 11b: eine zweite Ausführungsvariante des Eingabegerätes mit Modulen mit virtuellen Bildschirmmodulen mit Avataram Desktop Monitor; und Fig. 11c: eine Ausführungsvariante des Eingabegerätes am Desktop Monitor.
In Fig. 1 ist das kombinierte Eingabegerät 23 dargestellt, welches aus zwei sich spiegelnden Eingabegeräten 1 besteht (eines für jede Hand eines Bedieners). Je- des Eingabegerät 1 besteht aus fünf Bildschirmmodulen 3, die jeweils mehreren Tastbereiche 7 bereitstellen. Es existieren in jedem Eingabegerät 1 zwei Bild- schirmmodule 3 mit 3x2 Tastbereichen 7, zwei Bildschirmmodule 3 mit 3x1 Tast bereichen 7, und ein weiteres Bildschirmmodul 42 mit 2x2 Tastbereichen 7. Die Bildschirmmodule 3 sind so ausgerichtet, dass jedes Bildschirmmodul 3 einem Fin- ger 2 zugeordnet werden kann und im Ruhezustand der Hand bedient werden kann. Im Gehäuse 38 des Eingabegerätes 1 können Magnete 30 angeordnet sein, die die beiden sich spiegelnden Eingabegeräte 1 zu dem kombinierten Eingabe gerät 23 oder zu Erweiterungs-Bildschirmmodule 25 verbinden. Hierfür befinden sich auf der Innenseite des Eingabegerätes 1 Kontakte 39 zum Laden und zur Kommunikation zwischen den Eingabegeräten 1. Weitere Kontakte 39 befinden sich an der Aussenseite des weiteren Bildschirmmoduls 42. Auf der Aussenseite des Eingabegerätes 1 befindet sich ein USB-C Port 40 zur Verbindung mit weiteren Geräten und zum Aufladen. Auf der Bildschirmschicht 18 der Bildschirmmodule 3 können grafische Bedienelemente 41 wie Symbole 37, Schieberegler 34, Touch- pads 35, und Joysticks 36 dargestellt werden. Diese füllen mindestens einen Tast bereich 7, können aber auch mehrere Bildschirmmodule 3 füllen. Die Anordnung der Bildschirmmodule 3 und Tastbereiche 7 orientieren sich an der idealen Finger position 11 einer ruhenden Hand. Die Fingerpositionen 11 bilden eine sogenannte "Homerow", für die Finger außer den Daumen. Ausgehend von den Fingerpositio- nen 11 in der "Homerow" kann jeder Tastbereich 7 der Eingabegeräte 1 durch kleine Bewegungen der Finger schnell erreicht werden. Das weitere Bildschirm modul 42 ist für die Bedienung mit dem Daumen vorgesehen und unterhalb der Bildschirmmodule 3 angeordnet, auf deren Tastbereichen 7 die "Homerow" bilden den Fingerpositionen 11 angeordnet sind.
Fig. 2 zeigt die ergonomische Berührungsoberfläche 6 des Eingabegerätes 1 , wo bei jedem Tastbereich 7 eine Delle 8 zugeschrieben ist. Die Dellen 8 können beim blinden Tippen lokalisiert werden, da sie durch eine Erhebungen 17 getrennt sind. Auf den Dellen 8 für die Zeigefinger Bildschirmmodule 3 befinden sich bevorzugt noch huckelartige Orientierungshilfen 33 zur Orientierung der Finger 2 beim blin den Tippen. Diese Orientierungshilfen 33 ermöglichen es dem Bediener auch blind die richtigen Positionen der gesamten Hände mit allen Fingern auf den Eingabe geräten 1 schnell zu finden.
In Fig. 3 ist die ergonomische Berührungsoberfläche 6 des Eingabegerätes 1 im Profil dargestellt. Die Höhe H zwischen den tiefen Stellen der Dellen 8 für die Tast bereiche 7 und den Erhebungen 17 beträgt zwischen 0,4 und 2 mm. Die Länge L der Dellen 8 für die Tastbereiche 7 beträgt 12-19 mm. Diese Abmessungen bewir ken einerseits, dass der Bediener mit seinen Fingern eine sehr gute Orientierung auf der Berührungsoberfläche 6 des Eingabegeräts hat. Diese Abmessungen sor gen andererseits dafür, dass ein schneller Wechsel mit dem Finger von einem Tastbereich 7 zu den benachbarten Tastbereichen 7 möglich ist.
In Fig. 4a und Fig. 4b ist der Aufbau des Eingabegerätes 1 dargestellt. Das Einga begerät weist ein Gehäuse 38 auf, in welches die jeweiligen Bildschirmmodule 3 eingesetzt sind. Hier ist der Aufbau in Form von Schichten eines einzelnen Bild schirmmoduls 1 nach Art einer Explosionsdarstellung dargestellt. Fig. 4a zeigt da bei eine Darstellung von unten, während Fig. 4b eine Darstellung von oben be trachtet zeigt. Auf einer Oberseite hat jedes Bildschirmmodul 3 zunächst eine er gonomische Berührungsoberfläche 6, die weiter vorne beschriebene Struktur mit Dellen, Erhebungen etc. aufweist. Darunter befindet sich eine Multitouch-fähige Oberfläche 19, die es ermöglicht Berührungen durch den Bediener zu erkennen. Hierunter befindet sich eine Bildschirmschicht 18, die die grafische Darstellung von Interfacelayouts ermöglicht. Unter der Bildschirmschicht 18 befindet sich eine Platinenschicht 20, die zusammen mit allen darüber angeordneten Schichten (Be rührungsoberfläche 6, multitouch-fähige Oberfläche 19 und Bildschirmschicht 18) an dem Gehäuse 38 mit elastisch verformbaren Abstandhaltern 21 beweglich ge lagert ist. Die Platinenschicht 20 weist hier einen Vibrationsmotor 5, und einen Drucksensor 24 auf. Es können weitere (hier nicht gesondert dargestellte) Kompo nenten vorhanden und Teil der Platinenschicht 20 sein bzw. mit der Platinenschicht 20 verbunden sein. Durch die Lagerung der Platinenschicht 20 mit den elastisch verformbaren Abstandhaltern 21 sind die Platinenschicht 20 sowie die darauf an geordneten weiteren Schichten (Berührungsoberfläche 6, multitouch-fähige Ober fläche 19 und Bildschirmschicht 18) gegenüber dem Gehäuse 38 einerseits nach unten (in einer z-Richtung) als auch in der Ebene (in x-Richtung und in y-Richtung) elastisch reversibel beweglich. Die Möglichkeit der Bewegung in z-Richtung dient in erster Linie dazu eine Bewegung zuzulassen, die die Registrierung unterschied licher Drücke mit dem Drucksensor 24 ermöglicht. Die elastisch verformbaren Ab standhalter 21 verformen sich in z-Richtung proportional zur eingesetzten Kraft des Drucks. Der Drucksensor 24 bestimmt den auf die Platinenschicht ausgeübten Druck durch eine Messung des Abstands zwischen dem Gehäuse 38 und der Pla tinenschicht 18. Die elastisch verformbaren Abstandshalter 21 dienen auch dazu, dass die Kraft einer Vibration 43 über die Schichten in den Finger 2 und nicht in den Untergrund unter das Eingabegerät 1 geleitet wird.
In Fig. 5 ist dargestellt wie das kombinierte Eingabegerät 23 bestehend aus zwei Eingabegeräten 1 mit Erweiterungs-Bildschirmmodulen 25 kombiniert und verbun den werden kann. Die Zwei spiegelverkehrt zueinander gestalteten Eingabegeräte 1 bilden zusammen das kombinierte Eingabegerät 23. Die Erweiterungs-Bild- schirmmodule 25 können mit lösbaren Kupplungen 22, wie zum Beispiel Magneten 30, mit einem Eingabegerät 1 verbunden werden.
Die Fig. 6a bis 6e geben verschiedene Beispiele für Interfacelayouts 4, die mit den beschriebenen Eingabegeräten 1 dargestellt werden können, um dem Bediener Bedienoptionen bereitzustellen. In Fig. 6a ist das Tastatur-Interfacelayout 13 dargestellt. Bedienelemente 41, wie Buchstaben Symbole 37 sind auf dem Interfacelayout-Raster des Eingabegerätes 1 auf den drei Reihen 12 und den sechs Spalten 10 pro Eingabegerät 1 abgebildet. Interfacelayouts 4 wie das Tastatur-Interfacelayout 13 werden auf den Bildschirm modulen 3 dargestellt und bedient. Die obere und erste Gruppe 9 der Bildschirm- module 3 stellt eigentliche Interfacelayouts 4 dar. Bevorzugt sind die weiteren Bild schirmmodulen 42 dazu eingerichtet, dass mit dem Daumen zwischen den Inter facelayouts 4 gewechselt werden kann.
In Fig. 6b ist ein Interfacelayout 4 des kombiniertes Eingabegerätes 23 für weitere Symbole 37 und Zahlen dargestellt. In dem weiteren Bildschirmmodul 42 ist mit einem dicken Kreis markiert, wie dieses Interfacelayout 4 ausgewählt werden kann. Bedienelemente 41, wie Zahlen Symbole 37 sind auf dem Interfacelayout- Raster des Eingabegerätes 1 auf den drei Reihen 12 und den sechs Spalten 10 pro Eingabegerät 1 abgebildet.
In Fig. 6c ist ein Touchpad-Interfacelayout 14 des kombinierten Eingabegerätes 23 dargestellt. In dem weiteren Bildschirmmodul 42 ist mit einem dicken Kreis mar kiert, wie dieses Interfacelayout 4 ausgewählt werden kann. Das Touchpad 35 füllt das rechte Eingabegerät 1 der ersten Gruppe 9 des kombinierten Eingabegerätes 23 über alle vier Bildschirmmodule 3. Das Touchpad 35 erstreckt sich damit auch über die Grenzen zwischen Bildschirmmodulen 3 hinweg. Auf dem linken Einga begerät 1 ist hier jeweils ein Bedienelemente 41 auf jedem Bildschirmmodul 3 vor gesehen. So wird hier in Kombination mit dem Touchpad 35 auf dem rechten Ein gabegerät 1 eine besonders einfache Bedienung ermöglicht. Die Bedienelemente 41 sind hier spezielle Bedienelemente 41, die ein Bediener in Kombination mit ei nem Touchpad 35 besonders dringend benötigt.
In Fig. 6d ist ein Interfacelayout 4 des kombiniertes Eingabegerätes 23 für Befehls tasten dargestellt. In dem weiteren Bildschirmmodul 42 ist mit einem dicken Kreis markiert, wie dieses Interfacelayout 4 ausgewählt werden kann. Bedienelemente 41 sind hier jeweils einzelne Befehlstasten, mit denen eine an das Eingabegerät 23 angeschlossene Hardware direkt dazu veranlasst werden kann, komplexere Befehle auszuführen. Gegebenenfalls können solche Befehlstasten auch individu ell programmiert werden.
In Fig. 6e ist ein Interfacelayout 4 des kombiniertes Eingabegerätes 23 für die PC- Navigation dargestellt. In dem weiteren Bildschirmmodul 42 ist mit einem dicken Kreis markiert, wie dieses Interfacelayout 4 ausgewählt werden kann. Bedienele mente 41 wie modifier-keys 27, Indikatoren 50 und Schieberegler 34 sind auf dem Interfacelayout-Raster des Eingabegerätes 1 auf den drei Reihen 12 und den sechs Spalten 10 pro Eingabegerät 1 abgebildet. Sie können jeweils speziellen Funktionen der Bedienung zugeordnet sein.
In Fig. 7 sind verschiedene besondere Bedienelemente 41 wie ein Schieberegler 34, ein Touchpad 35, ein Joystick 36, ein Indikator 50 und ein Symbol 37 zu sehen. Interfacelayouts 4 bestehen aus Kombinationen von Bedienelementen 41.
In Fig. 8 ist in einem Diagramm visualisiert, wie in Abhängigkeit des Drucks auf ein Eingabegerät bzw. auf die Berührungsoberfläche des Eingabegerätes unter schiedliche Funktionen realisiert sind. Eine Anwendung dieses Prinzips ist bei spielsweise, dass ein Benutzer je nachdem wie fest er auf ein Bedienelement des Interfacelayouts drückt, ein Buchstabe entweder als Großbuchstabe "A" oder als kleiner Buchstabe "a" erkannt wird. Über die Zeitachse sind hier auf der Kraftachse eine leichte Druckbewegung 31 und eine starke Druckbewegung 32 aufgetragen. Die Druckbewegungen 31,32 finden jeweils in Z-Richtung statt. Bei einer leichten Druckbewegung 31 erzeugt das gedrückte Bildschirmmodul 3 erstmal beim Tief einer leichten Druckbewegung 45 eine Vibration 43, um das Anklicken zu simulie ren, und erzeugt beim Hoch einer leichten Druckbewegung 44 eine weitere Vibra tion 43, um das Klicken des Loslassens einer Taste zu simulieren.
Bei einer starken Druckbewegung 32 erzeugt das gedrückte Bildschirmmodul 3 zuerst beim Tief einer leichten Druckbewegung 45 eine Vibration 43 und dann beim Erreichen des Tiefs einer starken Druckbewegung 47 eine weitere Vibration 43, um das Klicken auf zwei Levels zu simulieren. Beim Loslassen erzeugt das Bildschirmmodul 3 erstmal eine Vibration 43 beim Hoch einer starken Druckbewe gung 46 und dann beim Hoch einer leichten Druckbewegung 44, um das Loslassen auf zwei Levels zu simulieren.
Durch die verschiedenen Druckbewegungen 31, 32 und die jeweils zugeordneten und bestimmten Druckschwellwerten zugeordneten Hochs und Tiefs dieser Druck bewegungen 44, 45, 46 und 47 werden jeweils virtuelle Ebenen (hier eine erste virtuelle Ebene 48 und eine zweite virtuelle Ebene 49) definiert, die der Benutzer gezielt anwählen kann und auf welchen dem Benutzer bestimmte Bedienoptionen zur Verfügung steht.
Das Eingabegerät ist dazu eingerichtet die Information, ob der Bediener die erste virtuelle Ebene 48 (hier das kleine "a") oder die darunter liegende zweite virtuelle Ebene 49 (hier das große "A") auswählen will, dann zu erkennen, wenn anhand der Form der zeitlichen Druckbewegung 31,32 eindeutig erkennbar ist, ob der Be diener die jeweilige Ebene auswählen wollte. Sofern der Benutzer eine Ebene aus wählen wollte unterhalb derer noch weitere Ebenen zu finden sind (hier die Ebene mit dem kleinen "a") wird dies erst erkannt, wenn die Druckbewegung 31 wieder zurück geht, bzw. der Druck des Bedieners nachlässt. Dieser Punkt ist in Fig. 8 auch markiert. Ab diesem Punkt ist es eindeutig, dass der Bediener nicht mehr in eine darunter liegende Ebene wechseln wird. Sofern der Benutzer die unterste Ebene auswählt, kann bereits vor der Umkehr der Druckbewegung 32 die jeweilige Auswahl erkannt werden. Dies ist hier durch die Erkennung des großen "A" mar kiert. Dann ist schon zu dem Zeitpunkt, in dem der Bediener das Tief der starken Druckbewegung 47 überschreitet, klar, dass die jeweilige Ebene (hier das große "A") ausgewählt werden soll.
In den Fig. 9a und 9b ist ein weitere Bedienoption dargestellt, die mit der in Fig. 8 dargestellten Technologie zum Wechsel zwischen verschiedenen virtuellen Ebe nen 48 und 49 umgesetzt sein kann. In Fig. 9a ist dargestellt wie eine leichte Druckbewegung 31 in eine erste virtuelle Ebene 48 und eine starke Druckbewegung 32 in eine zweite virtuelle Ebene 49 beim Drücken eines “a” Symbols 37 unterschiedliche Unter-Bedienmenüs 16 zur Bedienung mit einer ergänzenden Wischbewegung 28 zur Verfügung stellen. Wrd mit dem Finger 2 eine leichte Druckbewegung 31 auf dem Tastbereich 7 mit dem Symbol 37 “a” eines Bildschirmmodul 3 ausgeführt, öffnet sich ein Unter-Bedien- menü 16 mit den Optionen “ä”, “ä”, und “ä”. Mit einer Wschbewegung 28 kann eine Option ausgewählt, und mit Loslassen bedient werden. Bevorzugt ist das Unter menü so eingerichtet, dass die Druckbewegung unter Aufrechterhaltung des Drucks erfolgt, den der Bediener aufgebracht hat, um in die jeweilige virtuelle Ebene 48, 49 zu gelangen. We im Zusammenhang mit Fig. 8 beschrieben gelangt der Bediener unter Aufbringung des Drucks in Z-Richtung in die jeweilige virtuelle Ebene 48, 49. Die Wschbewegung erfolgt dann in einer Ebene parallel zur Berüh rungsoberfläche in X-Richtung und/oder in Y-Richtung.
Um ein “a” zu erzeugen, wird durch eine leichte Druckbewegung 31 die erste vir tuelle Ebene 48 ausgewählt. Ohne Wschbewegung 28 entsteht dann das "a". Da bei erzeugt das Bildschirmmodul 3 beim Herunterdrücken beim Tief einer leichten Druckbewegung 45 eine Vibration 43, und das Unter-Bedienmenü 16 mit “ä”, “ä”, und “ä” erscheint. Beim Loslassen ohne Wschbewegung 28 erzeugt das Bild schirmmodul 3 beim Hoch einer leichten Druckbewegung 44 eine zweite Vibration 43 und ein “a” wird als Befehl erkannt.
Um ein “ä” zu erzeugen, wird durch eine leichte Druckbewegung 31 die erste vir tuelle Ebene 48 ausgewählt. Dann ist eine Wschbewegung 28 nötig. Dabei er zeugt das Bildschirmmodul 3 beim Herunterdrücken beim Tief einer leichten Druckbewegung 45 eine Vibration 43, daraufhin wird eine Wschbewegung 28 im Unter-Bedienmenü 16 nach Links auf das “ä” ausgeführt und an dieser Stelle los gelassen, sodass beim Loslassen das Bildschirmmodul 3 beim Hoch einer leichten Druckbewegung 44 eine zweite Vibration 43 erzeugt, und “ä” als Befehl erkannt wird. Um ein “A” zu erzeugen ist eine starke Druckbewegung 32 in die zweite virtuelle Ebene 49 ohne Wischbewegung 28 nötig. Dabei erzeugt das Bildschirmmodul 3 beim Herunterdrücken beim Tief einer leichten Druckbewegung 45 eine erste Vib ration 43, und das Unter-Bedienmenü 16 mit “ä”, “ä”, und “ä” erscheint. Mit weite rem Drücken in eine starke Druckbewegung 32 erzeugt das Bildschirmmodul 3 eine weitere Vibration 43 beim Tief einer starken Druckbewegung 47 und das Un- ter-Bedienmenü 16 mit “Ä”, “Ä”, und “Ä” erscheint. Beim Loslassen ohne Wschbe- wegung 28 erzeugt das Bildschirmmodul 3 eine dritte Vibration 43 beim Hoch einer starken Druckbewegung 46 und eine vierte Vibration 43 beim Hoch einer leichten Druckbewegung 44 und ein “A” wird als Befehl erkannt.
Um ein “Ä” zu erzeugen ist eine starke Druckbewegung 32 in die zweite virtuelle Ebene 49 mit Wschbewegung 28 nötig. Dabei erzeugt das Bildschirmmodul 3 beim Herunterdrücken beim Tief einer leichten Druckbewegung 45 eine erste Vib ration 43, und das Unter-Bedienmenü 16 mit “ä”, “ä”, und “ä” erscheint. Mit weite rem Drücken in eine starke Druckbewegung 32 erzeugt das Bildschirmmodul 3 eine weitere Vibration 43 beim Tief einer starken Druckbewegung 47 und das Un- ter-Bedienmenü 16 mit “Ä”, “Ä”, und “Ä” erscheint. Daraufhin wird eine Wschbe wegung 28 im Unter-Bedienmenü 16 nach rechts auf das “Ä” ausgeführt und los gelassen. Beim Loslassen an der Position nach der Wschbewegung 28 erzeugt das Bildschirmmodul 3 eine dritte Vibration 43 beim Hoch einer starken Druckbe wegung 46 und eine vierte Vibration 43 beim Hoch einer leichten Druckbewegung 44 und ein “Ä” wird als Befehl erkannt.
In Fig. 9b ist dargestellt, wie dieses Prinzip in der Verbindung mit dem Touchpad 35 beispielsweise für eine Kamerabedienung verwendet werden kann. Durch eine normale T ouch-Bedienung per Wschbewegung 28 und leichte Druckbewegung 31 zum Wechsel in eine erste virtuelle Ebene 38 können beim Bedienen einer Kamera per Touchpad 35 unterschiedliche Funktionen erfüllt werden. Mit Wschbewegun- gen 28 über das Touchpad 35 Bedienelement 41 ohne relevanten Druck kann die Camera-Rotations-Position innerhalb eines Anwendungsprogramms 29 rotiert werden. Dabei erzeugt das Bildschirmmodul 3 keine Vibration 43 zur Klick- Simulierung. Bei der Ausführung von Wischbewegungen 28 innerhalb der leichten Druckbewegung 31 nach der ersten Vibration 43 nach Erreichen des Tiefs einer leichten Druckbewegung 45 (zum Wechsel in eine erste virtuelle Ebene 48), wird die Zoom-Funktion der Camera-Position bedient. Beim Loslassen der leichten Druckbewegung 31 erzeugt das Bildschirmmodul eine zweite Vibration 43 beim Hoch einer leichten Druckbewegung 44 und es kann mit Wischbewegungen 28 wieder die Camera-Rotations-Position bedient werden.
In Fig. 10a ist ein Spezial-Interfacelayout 15 für ein Anwendungsprogramm 29 wie “Ableton” dargestellt. Das Eingabegerät 1 schaltet automatisch das passende Spezial-Interfacelayout 15, sobald das Anwendungsprogramm 29 im Vordergrund läuft. Das Spezial-Interfacelayout 15 für das Musik-Produktions-Anwendungspro- gramm Ableton, beinhaltet relevante Bedienelemente 41 wie Schieberegler 34 für Lautstärke, ein Touchpad 35 für die Filter-Einstellung, und diverse Drumpads 26.
In Fig. 10b ist ein weiteres Spezial-Interfacelayout 15 für ein Anwendungspro gramm 29 wie “Photoshop” dargestellt. Das Eingabegerät 1 schaltet automatisch das passende Spezial-Interfacelayout 15, sobald das Anwendungsprogramm 29 im Vordergrund läuft. Das Spezial-Interfacelayout 15 für das Bildbearbeitungs-An- wendungsprogramm Photoshop, beinhaltet relevante Bedienelemente 41 wie Schieberegler 34 für Beleuchtung oder ein Touchpad 35 für die Farbton-Einstel lung.
In Fig. 11a ist eine Ausführungsvariante des Eingabegerätes mit Modulen ohne eingebaute Bildschirme 53 und virtuellen Bildschirmen 51 in einer AR/VR Brille 54 dargestellt. Die Hand des Anwenders 52 bedient das Eingabegerät mit Modulen ohne eingebaute Bildschirme 53 und in der AR/VR Brille 54 wird die Position der Hände als digitaler Avatar 55 auf dem virtuellen Bildschirmmodul 51 dargestellt, sodass eine einfache Bedienung des digitalen virtuellen Interfacelayouts 56 zur Bedienung der Anwendungsprogramme 29 möglich ist. In Fig. 11b ist eine Ausführungsvariante des Eingabegerätes mit Modulen ohne eingebaute Bildschirme 53 und virtuellen Bildschirmen 51 am Desktop Monitor 57 dargestellt. Die Hand des Anwenders 52 bedient das Eingabegerät mit Modulen ohne eingebaute Bildschirme 53 und auf dem Desktop Monitor 57 wird die Position der Hände als digitaler Avatar 55 auf dem virtuellen Bildschirmmodul 51 darge stellt, sodass eine einfache Bedienung des digitalen virtuellen Interfacelayouts 56 zur Bedienung der Anwendungsprogramme 29 möglich ist.
In Fig. 11c ist eine Ausführungsvariante des Eingabegerätes 1 mit integrierten Bild- schirmen dargestellt, auf dem das Interfacelayout 4 zu sehen ist. Die Hand des Anwenders 52 bedient das Interfacelayout 4 auf dem Eingabegerät 1, sodass eine einfache Bedienung der Anwendungsprogramme 29 möglich ist.
Bezugszeichenliste
1 Eingabegerät
2 Finger 3 Bildschirmmodul
4 Interfacelayout
5 Vibrationsmotor
6 Berührungsoberfläche
7 T astbereich 8 Delle
9 erste Gruppe
10 Spalte
11 Fingerposition
12 Reihe 13 Tastatur- Interfacelayout
14 Touchpad-Interfacelayout
15 Spezial-Interfacelayout
16 Unter-Bedienmenü
17 Erhebungen 18 Bildschirmschicht
19 multitouch-fähige Oberfläche
20 Platinenschicht
21 verformbare Abstandhalter
22 lösbare Kupplungen 23 kombiniertes Eingabegerät
24 Drucksensor
25 Erweiterungs-Bildschirmmodul
26 Drumpad
27 Modifier-key 28 Wischbewegung
29 Anwendungsprogramm
30 Magnet 31 Leichte Druckbewegung
32 Starke Druckbewegung
33 Orientierungshilfe
34 Schieberegler
35 Touchpad
36 Joystick
37 Symbol
38 Gehäuse
39 Kontakte
40 USB-C Port
41 Bedienelement
42 Weiteres Bildschirmmodul
43 Vibration
44 Hoch einer leichten Druckbewegung
45 Tief einer leichten Druckbewegung
46 Hoch einer starken Druckbewegung
47 Tief einer starken Druckbewegung
48 erste virtuelle Ebene
49 zweite virtuelle Ebene
50 Indikator
51 Virtuelles Bildschirmmodul
52 Hand des Anwenders
53 Eingabegerät mit Modulen ohne eingebaute Bildschirme
54 VAR/AR-Brile
55 Digitaler Avatar
56 Digitales virtuelles Interfacelayout
57 Desktop Monitor
H: Höhe der Dellen L: Länger der Dellen

Claims

Patentansprüche
1. Eingabegerät (1) zur Bedienung mit Fingern (2) eines Bedieners aufweisend mindestens zwei berührungsempfindliche und drucksensible Bildschirmmo- dule (3), die jeweils eine positionsgenaue Erkennung einer Berührung durch den Finger (2) des Bedieners ermöglichen und für die Anzeige von grafischen Interfacelayouts (4) eingerichtet sind, wobei die berührungsempfindlichen und drucksensiblen Bildschirmmodule (3) jeweils mit mindestens einem Vibrati onsmotor (5) ausgeführt sind, wobei das Eingabegerät (1) dazu eingerichtet ist bei einer Berührung des jeweiligen Bildschirmmoduls (3) mit einem Finger (2) des Bedieners ein haptisches Feedback zu bieten.
2. Eingabegerät (1) nach Anspruch 1, wobei eine Berührungsoberfläche (6) je des berührungsempfindlichen Bildschirmmoduls (3) jeweils in mindestens zwei Tastbereiche (7) unterteilt ist, wobei die Berührungsoberfläche (6) zur Ausbildung der Tastbereiche (7) eine für die Finger des Bedieners ertastbare Orientierungsstruktur aufweist.
3. Eingabegerät (1) nach einem der vorhergehenden Ansprüche, wobei zur Be dienung mit Zeigefinger, Mittelfinger, Ringfinger und kleinem Finger eine erste Gruppe (9) von berührungsempfindlichen Bildschirmmodulen (3) vorgesehen ist, die in einer Reihe nebeneinander angeordnet sind und unterhalb ein wei teres berührungsempfindliches Bildschirmmodul (3, 42) zur Bedienung mit dem Daumen angeordnet ist.
4. Eingabegerät (1) nach Anspruch 3, wobei die berührungsempfindlichen Bild schirmmodule (3) der ersten Gruppe (9) jeweils mindestens drei übereinander angeordnete Reihen (12) von Tastbereichen (7) aufweisen.
5. Eingabegerät (1) nach Anspruch 3 oder 4, wobei die erste Gruppe (9) genau vier berührungsempfindlichen Bildschirmmodule (3) umfasst, wobei jedem der Finger (2) Zeigefinger, Mittelfinger, Ringfinger und kleiner Finger genau ein berührungsempfindliches Bildschirmmodul (3) zugeordnet ist, wobei die be rührungsempfindlichen Bildschirmmodule (3) für Zeigefinger und kleinen Fin ger jeweils zwei Spalten (10) nebeneinander angeordneter Tastbereiche (7) und die berührungsempfindlichen Bildschirmmodule (3) für Ringfinger und Mit telfinger jeweils genau eine Spalte (10) nebeneinander angeordneter Tastbe reiche (7) aufweisen.
6. Eingabegerät (1) nach einem der Ansprüche 3 bis 5, wobei eine Auswahl von grafischen Interfacelayouts (4) der ersten Gruppe (9) von berührungsempfind lichen Bildschirmmodulen (3) durch Bedienungsaktionen an dem weiteren be rührungsempfindlichen Bildschirmmodul (3, 42) mit dem Daumen erfolgen kann.
7. Eingabegerät (1) nach Anspruch 6, wobei auf der ersten Gruppe (9) von be rührungsempfindlichen Bildschirmmodulen (3) mindestens ein Tastatur-Inter facelayout (13) und mindestens ein Touchpad-Interfacelayout (14) angezeigt werden können, und ein Wechsel zwischen dem mindestens einen Tastatur inte rfacelay out (13) und dem mindestens einen Touchpad-Interfacelayout (14) durch eine Bestätigung des weiteren berührungsempfindlichen Bildschirmmo duls (3, 42) mit dem Daumen erfolgen kann.
8. Eingabegerät (1) nach Anspruch 7, wobei auf der ersten Gruppe (9) von be rührungsempfindlichen Bildschirmmodulen (3) zusätzlich mindestens ein Spe- zial-lnterfacelayout (15) dargestellt werden kann und ein Wechsel zu diesem Spezial-Interfacelayout (15) durch eine Bestätigung des weiteren berührungs empfindlichen Bildschirmmoduls (3, 42) mit dem Daumen erfolgen kann, wo bei das mindestens eine Spezial-Interfacelayout (15) mindestens eine der fol genden Funktionen bereitstellt: ein Layout umfassend mindestens einen Schieberegler; ein Pfeiltastenlayout; und mindestens ein benutzerdefiniertes Interfacelayout.
9. Eingabegerät (1) nach einem der vorhergehenden Ansprüche, wobei durch die Ausübung eines vorgegebenen Drucks auf die berührungsempfindlichen Bildschirmmodule (3) an durch das Interfacelayout (4) vorgegebenen Bild schirmpositionen ein Wechsel in mindestens ein Unter-Bedienmenü (16) er folgen kann, in welchem zwischen Unterfunktionen zu der an der Bildschirm position vorgesehenen Funktionalität gewechselt werden kann, wobei in dem Unter-Bedienmenü (16) Unterfunktionen durch Wischbewegungen (28) mit dem Finger (2) ausgewählt werden können.
10. Eingabegerät (1) nach einem der vorhergehenden Ansprüche, wobei die be rührungsempfindliche und drucksensible Bildschirmmodule (3), einen schicht weisen Aufbau mit zumindest den folgenden Schichten aufweisen: eine ergonomischen transparenten Berührungsoberfläche (6), welche Dellen (8) und Erhebungen (17) bereitstellt, die einem Bediener eine hap tische Orientierung bieten, eine Bildschirmschicht (18), eine multitouch-fähige Oberfläche (19), eine Platinenschicht (20) zumindest mit einem Vibrationsmotor (5) und einem Drucksensor (24), und ein gemeinsames Gehäuse (38) für mehrere Bildschirmmodule (3), auf welchem die Berührungsoberfläche (6), die Bildschirmschicht (18), die multitouch-fähige Oberfläche (19) und die Platinenschicht (20) mit min destens einem elastisch verformbaren Abstandhalter (21) beweglich ge lagert sind.
11. Eingabegerät (1), wobei die einzelnen berührungsempfindlichen Bildschirm module (3) durch lösbare Kupplungen (22) miteinander verbunden sind.
12. Kombiniertes Eingabegerät (23) umfassend zwei Eingabegeräte (1) gemäß einem der vorhergehenden Ansprüche, die spiegelverkehrt zueinander aus geführt sind und zur Bedienung mit zwei Händen eines Bedieners vorgesehen sind.
13. Eingabegerät (1) zur Bedienung mit Fingern (2) eines Bedieners aufweisend mindestens zwei Module (3), die jeweils eine positionsgenaue Erkennung ei ner Berührung durch den Finger (2) des Bedieners ermöglichen, wobei die berührungsempfindlichen und drucksensiblen Module (3) jeweils mit mindes tens einem Vibrationsmotor (5) ausgeführt sind, wobei das Eingabegerät (1) dazu eingerichtet ist bei einer Berührung des jeweiligen Module (3) mit einem Finger (2) des Bedieners ein haptisches Feedback zu bieten, wobei das Ein gabegerät (1) dazu eingerichtet ist, mit einer Software zusammenzuwirken, welche die mindestens zwei Module (3) als virtuelles Bildschirmmodule (51) auf einem Bildschirm (57) darstellt, wobei die virtuellen Bildschirmmodule für die Anzeige von grafischen Interfacelayouts (4) eingerichtet sind, welche ein Bediener den mindestens zwei Modulen (3) zuordnet.
PCT/EP2022/069750 2021-07-15 2022-07-14 Eingabegerät WO2023285599A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021118382.0A DE102021118382A1 (de) 2021-07-15 2021-07-15 Neuartiges Eingabegerät
DE102021118382.0 2021-07-15

Publications (1)

Publication Number Publication Date
WO2023285599A1 true WO2023285599A1 (de) 2023-01-19

Family

ID=82846546

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/069750 WO2023285599A1 (de) 2021-07-15 2022-07-14 Eingabegerät

Country Status (2)

Country Link
DE (1) DE102021118382A1 (de)
WO (1) WO2023285599A1 (de)

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689253A (en) 1991-04-10 1997-11-18 Kinesis Corporation Ergonomic keyboard apparatus
WO2000050979A1 (en) * 1999-02-26 2000-08-31 Jerry Moscovitch Supplemental touch screen lcd panel
US6972945B1 (en) * 1997-10-17 2005-12-06 Gateway Inc. Modular computer device and computer keyboard for modular device
US20090167694A1 (en) 2007-12-31 2009-07-02 Htc Corporation Touch sensor keypad with tactile feedback mechanisms and electronic device with the same
US20100066698A1 (en) * 2008-09-18 2010-03-18 Samsung Electronics Co., Ltd. Method and appress for controlling multitasking operations of mobile terminal having touchscreen
US20110141052A1 (en) * 2009-12-10 2011-06-16 Jeffrey Traer Bernstein Touch pad with force sensors and actuator feedback
KR20110135036A (ko) * 2010-06-10 2011-12-16 연세대학교 산학협력단 터치스크린용 키보드/키패드가 결합된 케이스
DE112009003647T5 (de) 2008-12-04 2012-08-02 Mitsubishi Electric Corp. Anzeigeeingabevorrichtung
US20130016042A1 (en) * 2011-07-12 2013-01-17 Ville Makinen Haptic device with touch gesture interface
US8896539B2 (en) 2012-02-03 2014-11-25 Synerdyne Corporation Touch-type keyboard with character selection through finger location on multifunction keys
US20150097795A1 (en) * 2013-10-08 2015-04-09 Tk Holdings Inc. Systems and methods for locking an input area associated with detected touch location in a force-based touchscreen
US20160085440A1 (en) * 2014-09-19 2016-03-24 Qualcomm Incorporated Systems and methods for providing an anatomically adaptable keyboard
US9335844B2 (en) 2011-12-19 2016-05-10 Synaptics Incorporated Combined touchpad and keypad using force input
WO2017019390A1 (en) 2015-07-27 2017-02-02 Berger Jordan A Universal keyboard
US20180052556A1 (en) * 2012-11-20 2018-02-22 Immersion Corporation System and Method for Feedforward and Feedback With Haptic Effects
CN207268922U (zh) * 2017-07-26 2018-04-24 深圳市联建光电股份有限公司 一种模块化的大型触控显示屏
CN207529358U (zh) * 2017-07-26 2018-06-22 深圳市联建光电股份有限公司 一种新型模块化的大型触控显示屏
KR20200022074A (ko) * 2018-08-22 2020-03-03 황영범 스마트 휴대용 키보드

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5122786A (en) 1990-06-27 1992-06-16 Freeman Rader Ergonomic keypads for desktop and armrest applications
US20020084919A1 (en) 2000-11-28 2002-07-04 Green Peter C. Configurable keyboard
DE10128908A1 (de) 2001-06-15 2002-12-19 Christoph Doerrer Eingabefeld mit haptischer Rückmeldung zur Bedienung technischer Geräte
US10585493B2 (en) 2008-12-12 2020-03-10 Apple Inc. Touch sensitive mechanical keyboard

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689253A (en) 1991-04-10 1997-11-18 Kinesis Corporation Ergonomic keyboard apparatus
US6972945B1 (en) * 1997-10-17 2005-12-06 Gateway Inc. Modular computer device and computer keyboard for modular device
WO2000050979A1 (en) * 1999-02-26 2000-08-31 Jerry Moscovitch Supplemental touch screen lcd panel
US20090167694A1 (en) 2007-12-31 2009-07-02 Htc Corporation Touch sensor keypad with tactile feedback mechanisms and electronic device with the same
US20100066698A1 (en) * 2008-09-18 2010-03-18 Samsung Electronics Co., Ltd. Method and appress for controlling multitasking operations of mobile terminal having touchscreen
DE112009003647T5 (de) 2008-12-04 2012-08-02 Mitsubishi Electric Corp. Anzeigeeingabevorrichtung
US20110141052A1 (en) * 2009-12-10 2011-06-16 Jeffrey Traer Bernstein Touch pad with force sensors and actuator feedback
KR20110135036A (ko) * 2010-06-10 2011-12-16 연세대학교 산학협력단 터치스크린용 키보드/키패드가 결합된 케이스
US20130016042A1 (en) * 2011-07-12 2013-01-17 Ville Makinen Haptic device with touch gesture interface
US9335844B2 (en) 2011-12-19 2016-05-10 Synaptics Incorporated Combined touchpad and keypad using force input
US8896539B2 (en) 2012-02-03 2014-11-25 Synerdyne Corporation Touch-type keyboard with character selection through finger location on multifunction keys
US20180052556A1 (en) * 2012-11-20 2018-02-22 Immersion Corporation System and Method for Feedforward and Feedback With Haptic Effects
US20150097795A1 (en) * 2013-10-08 2015-04-09 Tk Holdings Inc. Systems and methods for locking an input area associated with detected touch location in a force-based touchscreen
US20160085440A1 (en) * 2014-09-19 2016-03-24 Qualcomm Incorporated Systems and methods for providing an anatomically adaptable keyboard
WO2017019390A1 (en) 2015-07-27 2017-02-02 Berger Jordan A Universal keyboard
CN207268922U (zh) * 2017-07-26 2018-04-24 深圳市联建光电股份有限公司 一种模块化的大型触控显示屏
CN207529358U (zh) * 2017-07-26 2018-06-22 深圳市联建光电股份有限公司 一种新型模块化的大型触控显示屏
KR20200022074A (ko) * 2018-08-22 2020-03-03 황영범 스마트 휴대용 키보드

Also Published As

Publication number Publication date
DE102021118382A1 (de) 2023-01-19

Similar Documents

Publication Publication Date Title
US5568603A (en) Method and system for transparent mode switching between two different interfaces
Buxton et al. Issues and techniques in touch-sensitive tablet input
US9495021B2 (en) Computer input device
US8259077B2 (en) Electronic device for inputting user command 3-dimensionally and method for employing the same
KR101442271B1 (ko) 촉각에 의해 생성된 기준 키를 가지는 터치 패널
DE102016219845B4 (de) Berühreingabeeinrichtung und Fahrzeug, welches die Berühreingabeeinrichtung beinhaltet
DE60022030T2 (de) Kommunikationssystem und -verfahren
WO2013018480A1 (ja) タッチ入力が可能な画面内に原画像を縮小表示するタッチパッドを有するユーザインタフェース装置、入力処理方法及びプログラム
US20150009165A1 (en) Counter-tactile keypad
DE112017004677T5 (de) Berührungsempfindliche Tastatur
DE112007000278T5 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
KR20130088752A (ko) 다방향 버튼, 키 및 키보드
WO2003054680A2 (de) Flexible computer-eingabe
DE202008001338U1 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
WO2004010276A1 (ja) 情報表示入力装置及び情報表示入力方法、並びに情報処理装置
US20110025718A1 (en) Information input device and information input method
DE102015222326A1 (de) Berührungseingabeeinrichtung, Fahrzeug mit derselben, und Verfahren zum Steuern derselben
DE112012003889T5 (de) Verfahren, Vorrichtung und Computerprogramm, die zum Zeigen auf ein Objekt dienen
DE102017121342A1 (de) Anzeigesteuerungsvorrichtung, anzeigesteuerungssystem und anzeigesteuerungsverfahren
WO2004034241A2 (de) Schnell-eingabevorrichtung
Moyle et al. Analysing mouse and pen flick gestures
DE102011000771A1 (de) Eingabegerät, Maus, Fernsteuerung, Steuerkreis, elektronisches System und Verfahren zur Steuerung
KR20160064980A (ko) 차량용 집중 조작 시스템
US20150035760A1 (en) Control system and method for defining function thereof
WO2023285599A1 (de) Eingabegerät

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22751693

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE