WO2023070142A1 - Portable digital audio device for capturing user interactions - Google Patents

Portable digital audio device for capturing user interactions Download PDF

Info

Publication number
WO2023070142A1
WO2023070142A1 PCT/AT2022/060372 AT2022060372W WO2023070142A1 WO 2023070142 A1 WO2023070142 A1 WO 2023070142A1 AT 2022060372 W AT2022060372 W AT 2022060372W WO 2023070142 A1 WO2023070142 A1 WO 2023070142A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio device
signal
user
sound generation
processing
Prior art date
Application number
PCT/AT2022/060372
Other languages
German (de)
French (fr)
Inventor
Ulf Hakan Benny Sällberg
Mikhael BEIM
Original Assignee
Birdkids Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Birdkids Gmbh filed Critical Birdkids Gmbh
Publication of WO2023070142A1 publication Critical patent/WO2023070142A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0016Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/391Angle sensing for musical purposes, using data from a gyroscope, gyrometer or other angular velocity or angular movement sensing device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor

Definitions

  • the invention relates to a portable digital audio device for detecting user interactions, which can be used for later conversion into an acoustic signal and/or a control signal for controlling an acoustic signal.
  • US2016124559A1 relates to a device comprising an array of touch zones, each touch zone capable of measuring the compressive force exerted by a user and its variation over time in three axes (X,Y positions, Z for pressure), each independently capture.
  • the device is able to calculate and generate initiation, continuation and release events per touch zone and subsequent changes per axis (X,Y,Z) corresponding to the moment a user starts interacting with a Touch zone begins, changes interaction, or ends interaction at that zone.
  • the event generator according to the present invention, which also intends to generate engage, change and release events depending on the state of user interaction with a sensor.
  • the detection can be reduced to two axes per touch zone.
  • US2016124559A1 describes at least one method for optimizing the calculations of simultaneous events and their prioritization in processing, but only within the framework of the specific hardware equipment and its requirements.
  • the method with which the events "Engage (Activate)”, “Change (Modify)” and “Release (Release)” are calculated can be recorded in the present invention in a granular way by the user - and differentiated for further processing released, or partially omitted. Therefore, the basic behavior of a device according to the invention (when events are generated in response to user input and consequently the rate of events per second) is user controllable. This allows the user to find a trade-off between battery/power consumption and event granularity.
  • our event generator is directly suitable for processing any sampled/digital one- or multi-dimensional sensor signal and not just force-measuring sensors.
  • Any sensors such as gyroscope or acceleration sensors can be used to record user interaction.
  • the provision of configurable event generation in the present invention reduces the processing power required to process sensor data and reduces the bandwidth required to transmit control data since data is only generated in response to the generated events.
  • the assignment of the generated events is user-configurable in the present invention. This means that a user is not limited to assigning a MIDI note with a velocity of e.g. B. corresponds to a compressive force. A user can configure a sensor's Engage event to output any other effect or control that affects sound generation in an external instrument.
  • the present invention also allows the user to map many output generators (processing elements) onto the same generated event. So pressing one key can lead to many output actions.
  • US9076419B2 includes a configurable control unit consisting of several sensors and different sensor types.
  • the device uses the signals from sensors to interpret user interactions and generate control data.
  • the device is user configurable using external software, allowing the user to assign what output actions are possible for each input sensor.
  • the user can also control the sensitivity of each sensor, e.g. B. to control at which pressure force the output should be generated.
  • the device described in this document is intended exclusively for the output of control signals within the framework of MIDI.
  • the prior art is limited to mapping input sensor events to MIDI output actions. It is not possible to configure the device to perform any processing in response to an event.
  • the present invention allows the user to map any input event to any processing element, and since the processing elements in the present invention can be more freely configured, the output actions of the present invention are not limited to generating simple MIDI outputs, but can also programmed to provide, for example, MIDI polyphonic expression (MPE) functionality.
  • MPE MIDI polyphonic expression
  • the patent is limited to touch and force sensors, while the event generation according to the present invention can process any one-dimensional sensor signal, including e.g. B. Gyroscope and accelerometer data.
  • the present invention allows priority execution of assigned events to processing elements (which may be configured to generate MIDI or other form of control signals for a standard protocol such as OSC), therefore the present invention ensures a certain quality of service for mappings (Assignments) with high priority over low-priority mappings, so that e.g. B. Certain functions are guaranteed low latency compared to other functions. This is particularly relevant in connection with wireless transmission methods with a limited bandwidth, such as e.g. B. bluetooth low energy (BLE), an advantage.
  • BLE bluetooth low energy
  • US2014214189 relates to a DJ radio controller consisting of an accelerometer, a control button and a radio transmitter.
  • the DJ radio controller detects the depression of the control button and gets an output value from the accelerometer. Based on this output value, the DJ radio control generates a control signal and transmits this control signal to influence an external audio signal.
  • the DJ radio controller offers a fairly simple user interface, consisting of buttons that when pressed initiate a transmission of accelerometer data.
  • a limiting factor of a device according to US2014214189A1 is the inflexible and restrictive use of the existing sensors. It is not possible for the user to greatly change the settings of the US2014214189A1 series device compared to the present invention. Only the predefined, limiting interaction properties can be changed and subsequently assigned to external audio devices.
  • US2020098343A1 relates to a human interface device including a processor with memory.
  • a plurality of switch banks also coupled to the processor, a rotary selector and a slider, both coupled to the control circuitry such that the control circuitry is able to communicate the position of the rotary selector and slider to the processor.
  • the rotary selector and the slider are placed on the interface device to form a connection with the switch bank, a converter coupled to the processor, said converter containing a number of LED sources spatially positioned on a position ring, a series of non-transitory processor instructions ready for the processor rules to provide MIDI commands through a BLE port.
  • the device according to US2020098343A1 offers advantages such as visual feedback through the LED sources positioned on the positioning ring, the device is limited in the setting options for artistic expression outside of visual design (the inventor's intention is to control three-dimensional operations in VR, A/R applications ), namely to satisfy the real-time processing and mapping needs of interactions in musical performances.
  • the present invention is very well suited to controlling visual applications and manipulations in virtual 3D spaces (A/R, VR) in a variety of ways, since the processing is subject neither to type-specific input sensors nor to a rigid allocation methodology.
  • US2019251937A1 describes a fingerless digital music effects control glove consisting of a glove-mounted device with a cable sensor to measure movement of the user's wrist, an accelerometer, and a flexible pressure sensor or switch on the glove's palm.
  • the device transmits data wirelessly to digital audio software running on an external computer, laptop or smartphone, allowing the user to manipulate various parameters of the resulting sound or piece of music.
  • the fingerless digital music effects control glove is configured to be recognized by the external computer as a MIDI or audio device, making it compatible with existing digital audio software.
  • the glove is lightweight, flexible and fingerless, allowing unrestricted movement of the user's fingers while playing a musical instrument or other musical device.
  • a disadvantage of this control glove according to US2019251937A1 is its limited differentiation of possible events when capturing user interactions, their lack of processing and limited assignment of parameters. This means that there is only very limited configurability.
  • US2010022183A1 describes a system and method for real-time radio transmission of a digital audio signal and control data.
  • a transmitter can be linked to the audio source.
  • the transmitter includes a processor to combine the control data with the digital audio signal from the audio source, and the processor transmits the combined control data and audio signal over the air to a receiver.
  • the receiver includes a processor which is used to receive the combined control data and audio signals and to process the control data to perform a user defined function.
  • a significant disadvantage of a device according to US2010022183A1 is that it is not a radio control device for external devices for creating artistic expressions, but rather an independent real-time processing of sound in which the receiving unit depends on the sensor data provided by the transmitting unit.
  • WO2006133207A2 relates to an audio signal controller for controlling and a method for controlling the application of special audio effects to an audio signal, where the audio effect controller includes a sensor that detects motion and associates the detected motion with the formation of audio signals by using the sensor Control signal generated in response to the detected movement and this control signal is forwarded to an audio effects unit for controlling the application of an audio effect to an audio signal.
  • orientation sensors serves as an example where an orientation sensor is attached to an instrument to provide orientation sensor data to the effects unit that modifies the instrument's acoustic expression, for example, tilting the guitar can be used to activate modulation effects on the guitar sound.
  • WO2006133207A2 requires a device that is limited to the use of orientation and motion sensors and that the possibility of reconfigurability is limited to simply mapping sensor events and sensor data to controllable musical input parameters of the instrument.
  • US8686276B1 relates to techniques developed for recording and performing musical performances on portable devices. The techniques developed enable the recording, encoding and use of gestural data for the execution of a musical performance.
  • a sign stream enables the audible performance of the musical performance to be encrypted locally at the portable device on which the musical performance is recorded, typically in real time.
  • a sign stream efficiently encodes the musical performance for transmission from the portable device on which the musical performance was recorded to (or to) an external device on which the musical performance is recorded (or can be).
  • a gesture stream is recorded and encoded so that it can be recorded locally and on an external device using substantially identical or equivalent circumstances of digital synthesis of the musical instrument.
  • US2018137847A1 includes a hardware segment that electronically captures the physical inputs of a musician playing his or her musical playing style or articulated intent; a software segment that interprets and formulates the data output from the hardware segment for application to any digitally modulated synthesizer or recording sampler; and an optional advanced method for sampling or digitally recording articulated acoustic instrument sounds.
  • the device according to US2018137847A1 is limited in comparison to the present invention for general control of external digital applications in that the requirement of using a matrix of at least 16x16 mechanical sensors and a slight reconfigurability, which the prior art invention provides, affects the assignment from sensor events to output MIDI commands.
  • WO2012170344A2 describes how a wireless sensor network for musical instruments is provided, which enables a musician to use natural performance gestures (alignment, pressure, tilt, etc.) to a computer.
  • User interfaces and computer modules are also provided that allow a user to utilize the data transmitted by the wireless sensor network to complement and/or augment artistic expression.
  • a particularly advantageous feature of this prior art is the possibility of calibrating and defining a sensor data range and of supplying correctly assigned sensor data to external devices.
  • WO2012170344A2 requires the use of at least two technically separate devices; a transmitting unit with a sensor and a receiving device and the configuration of this device is limited to the assignment of sensor output data, either pure sensor data or processed and generated sensor events, to musical input parameters, which represent severely limiting properties from WO2012170344A2.
  • the object on which the invention is based is to provide a portable digital audio device for detecting user interactions that can be used for later conversion into an acoustic signal and/or a control signal for controlling an acoustic signal.
  • the audio device should be configurable by the user and have a higher degree of configurability than the existing devices and solutions already have to a certain extent.
  • the freely designable configurability of the audio device makes the user's artistic work in creating sounds and music much easier.
  • the audio device should have such an exceptionally freely designable configurability that the user will find previously unexplored ways of generating sounds and music.
  • the necessary electronic energy consumption and the bandwidth required by the audio device during data transmission should be minimal in view of the configurability of the device.
  • the object of the invention is achieved by a portable digital audio device according to claim 1.
  • Fig. 1 shows a schematic representation of a portable digital device according to the invention
  • Audio device in one embodiment.
  • Fig. 2 shows a schematic representation of a portable digital device according to the invention
  • Audio device in another embodiment.
  • Fig. 3 shows a schematic representation of a further embodiment according to
  • FIG. 4 shows a schematic representation of an exemplary detail of the invention, in which at least the number of pre-stored and linkable sound generation and/or processing operations and an input event list of potentially possible input events are stored in an internal data memory.
  • Fig. 5 shows the sequence of individual steps that can be carried out by the invention.
  • FIG. 6 shows an exemplary data flow diagram for an exemplary sensor
  • Fig. 7 shows an embodiment of a force sensor for the detection of the
  • Fig. 8 shows and advantageous embodiment of a in the invention
  • Audio device located position sensor
  • Fig. 9 shows an advantageous embodiment of a data transmission interface that can be used in the invention.
  • Fig. 10 shows an embodiment of a light source that can be used for a feedback function of the invention.
  • Fig. 11 shows a top view of an embodiment of an audio device according to the invention, wherein a light source is located below a semi-transparent silicone push button.
  • FIG. 12 shows a top view of the audio device, with a loudspeaker being integrated in the housing and emitting acoustic signals through housing recesses.
  • a portable digital audio device 1 for converting user interactions 3 that can be detected as user input signal(s) 2 into a digital data stream 4 for subsequent conversion into an acoustic signal 5 and/or a control signal 6 for controlling an acoustic signal 5, the audio device 1 being set up to carry out the conversion taking into account specifications that can be configured in accordance with a configuration file 7 .
  • FIG. 2 shows a further preferred embodiment of the invention, with the control signal 6 of the audio device 1 being routed externally in order to control an external acoustic signal 5 .
  • the invention also allows a combination of internal and external conversions of detectable user interactions 3 into acoustic signals 5 and/or control signals 6 for later conversion into an acoustic signal 5.
  • the audio device 1 comprises at least the following: a housing 8, a number of sensors 9 arranged in or on the housing, a first internal data memory 10 arranged in the housing 8 , a processing unit 11 arranged in or on the housing 8 with an arithmetic processor 12 and a processing memory 13 and a power source 14 for the electrical supply of the number of sensors 9, the internal data memory 10 and the processing unit 11.
  • the number of sensors 9 arranged in or on the housing includes at least one input sensor for continuously detecting a user interaction 3 .
  • the continuous detection of a user interaction 3 has the advantage that the user can generate acoustic signals 5 and/or control signals 6 for controlling an acoustic signal 5 in a more granular manner compared to, for example, the binary granularity that a digital on/off button offers.
  • the following example is used, in which it is assumed that one of the input sensors 9 is a directional sensor, and the audio device 1 is set up in such a way that the directional sensor outputs output data, which in this case represent the user input signal 2, a corresponding acoustic signal 5 can be influenced, e.g. the pitch of the acoustic signal.
  • the user can thus carry the audio device 1 in his hands and continuously influence the pitch of the acoustic signal 5 by moving the audio device 1 .
  • the audio device 1 can have a force sensor as an input sensor 9, and the audio device 1 is set up in such a way that the pressure exerted by the user on the force sensor, depending on the pressure intensity, is converted into a stronger or weaker acoustic signal 5 or control signal 6 for controlling a Acoustic signal 5 is converted, or continuous changes in the compressive force are converted into continuous changes in the acoustic signal or the control signal.
  • This advantageous example explains the intuitive approach of how the user can interact with the audio device 1 in order to influence an acoustic signal.
  • a conversion of the user interactions 3 detected by the input sensors 9 as user input signals 2 into a digital data stream 4 with a resolution of at least 7 bits is proposed.
  • the further and later processing, some of which takes place in the arithmetic processor 12 proposed according to the invention, can thus enjoy the well-known advantages of digital processing.
  • An example of such an advantage of digital processing is that the functionality of software or configurable hardware can be changed by simple reprogramming or reconfiguration can be done.
  • the proposed computing processor 12 can either execute predetermined software to implement the functionality proposed according to the invention, or the computing processor 12 can also be implemented from configurable hardware, e.g.
  • FPGA Field Programmable Gate Array
  • a combination of a plurality of software and configurable hardware units of the computing processor 12 can also be advantageous, where modern microcontrollers and digital processors typically consist of multiple computing cores or have configurable hardware peripheral units.
  • the conversion of input sensors 9 from recorded user interactions 3 into user input signals 2, which thereby become further digital signals that can be processed, can, as is generally known in the technical field and is also permissible with the present invention, either already be integrated in the input sensor 9 and the Input sensor 9 thereby already supply a digital user input signal 2, or - should the input sensor 9 not have such a possibility for such a conversion - the audio device (1) can have a conversion set up according to the conversion task in order to provide digital user input signals 2 therefrom.
  • both input sensors 9 with integrated converters and input sensors 9 without integrated converters are present, in which case the audio device 1 has a conversion of the analog input signals from input sensors 9 without integrated converters into digital user input signals 2.
  • the invention proposes in particular, as also shown in FIG. 4, that at least a number of pre-stored and linkable sound generation and/or processing operations 15 and an input event list 16 of potentially possible input events 17 are stored on the internal data memory 10, wherein according to the invention, for each potentially possible input event 17 at least one link 18 to at least one sound generation and/or "operation" 15 can be defined by the user of the audio device 1, with each link 18 being assigned a priority value 19 in accordance with a configuration file 7 stored on the audio device assigned.
  • potentially possible input events 17 are linked to “operations” (15) in a selectable manner by the user, and the link is provided with a priority value 19 .
  • the user has the choice due to the freedom of configuration assign no, one, or even several links to potentially possible input events 17 and provide them with a priority value 19 .
  • a certain user interaction 3 can be correspondingly assigned to an input event 17 .
  • the audio device 1 can be set up such that when the user exerts a force sensor with a force above a definable force threshold, one of the potential possible input events 17 corresponding to the event is activated.
  • the links 18 associated with this activated input event 17 are thus also activated and the “operations” 15 defined accordingly for these activated links 18 are processed in the arithmetic processor 12 .
  • the priority values 19 correlate with the latency sensitivity of the sound generation or processing operations 15 assigned by the link 18 .
  • the advantage of this is that “operations” that have a higher latency sensitivity are also assigned corresponding priority values 19, so that when the “operations” are processed later, their priority values lead to faster processing of the “operations”.
  • the audio device 1 also has a processing unit 11 arranged in or on the housing 8 with an arithmetic processor 12 and a processing memory 13, the processing unit 11 having access to the internal data memory 10, the processing unit 11 being set up to do so using the arithmetic processor 12 to execute an algorithm 20 stored in the processing memory 13, according to which algorithm 20 the following steps are carried out, as also shown in FIG.
  • the trigger generator 21 for each sensor 9 having assignment criteria 22 for assigning input events 17 to user input signals 2 that can be detected by the sensors 9, with the reduction of energy consumption and bandwidth requirements of the audio device 1, the assignment criteria 22 of the trigger generator 21 according to step a) include limit values for the user input signals 2 detected by the sensors 9, so that input events 17 are only switched to an active state for those signals 2 that exceed the limit values, b) comparison of the priority values of the links 18 associated with the recorded input events 17 that are active and to which a link 18 to a sound generation and/or processing operation 15 is also assigned at the same time, and determining the order in which the linked and simultaneously active input events 17 assigned sound generation and/or or processing operation 15 are to be processed according to the level of the priority values 19, c) and execution of the sound generation and/or processing operations 15 assigned to the linked and simultaneously active input events 17 in the order defined according to the previous step b) for the generation of a digital data stream 4
  • the trigger generator 21 having three potentially possible input events 17 for each sensor 9; Activation Entry Event, Change Entry Event, and Inactivation Entry Event.
  • the advantageous embodiment of the trigger generator 21 is illustrated using a state machine in a very energy-saving manner.
  • the state machine has only two states per sensor 9: active and inactive, and these are assumed depending on whether there is a user interaction; if a user interaction is detected, an active state exists; or if there is no user interaction, then the inactive state is assumed.
  • the User input signal 2 for a sensor 9 will shortly be denoted as x[t], where t corresponds to the time of a sample value of the user input signal 2 .
  • This advantageous embodiment uses a variable X per sensor (see FIG. 6), which can be changed by the state machine. Assignment criteria that can be defined by the user are named TE, TD and TM in this example, which have the following meaning:
  • TD is another limit considered only in the active state, where the calculation and comparison abs(x[t] - X) > TD is performed to detect a change in the user input signal in the active state.
  • the introduction of a waiting time TW after the activation of an input event is particularly advantageous in order to prevent multiple activations of an input event possibly caused by measurement noise.
  • the trigger generator only requires a maximum of a few calculations and one comparison operation per signal sample value and is therefore extremely energy-efficient and can be easily implemented in a computer processor.
  • the input events that are assigned to the sensors 9 and can potentially be activated are only then switched to active mode as soon as the respectively corresponding user input signal exceeds the limits (TE and TD) which are definable by the user.
  • the limit values can be set higher in order to then activate the input events less frequently. Increasing the limit values and the input events that occur less frequently as a result leads to a reduction in the processing effort when processing linked "operations" leads to additional power savings and also significantly reduces the bandwidth required for later transmission of the digital data stream generated by the linked "operations". can.
  • the user thus has the choice of how often and simply how often input events assigned to a sensor should be activated, and subsequently how often linked operations should be processed.
  • each sensor has assignment criteria that can be individually defined and an individual state machine.
  • step b) of the algorithm proposed above it is proposed in particular that the priority values 19 be compared in such a way that those links 18 that are assigned to linked and simultaneously active input events 17 are processed in descending order with regard to their latency sensitivity, so that the link with with the highest latency sensitivity is processed first. If it is possible to process the links in parallel (e.g. by multi-core processors), they can advantageously also be processed in parallel. Subsequent links can also be processed in parallel (and thus taken at the same time). However, it should be ensured that a link with higher sensitivity is not processed after a link with lower sensitivity.
  • each priority value is assigned a time function that is set up to increase priority values of links of active input events 17 that have not yet been executed by forming a time integral from the original priority value over the Duration is formed until the processing of its link, and the calculated value resulting from this integral calculation as a temporally dynamic priority value in the calculation in the ranking according to step b) as a priority value is used.
  • the big advantage of this is that "operations" with a low latency sensitivity are also queued up and processed at some point, should there always be "operations" with a higher latency sensitivity.
  • filter parameters such as filter type, filter frequencies, filter gain being parameterizable and controllable
  • internal sound generation operations are operations commonly used in signal generation, signal modulation and signal filtration.
  • Internal tone generation operations in the present invention can either be digital operations or analog operations that can be controlled digitally.
  • the signal generation, in which the pitch and tone strength can be controlled, is advantageously also carried out in combination with the control of the signal spectrum.
  • the signal generator is then advantageously aligned in such a way that it can selectably generate different signal types, the signal types comprising at least sinusoidal signals, sawtooth signals and square-wave signals.
  • the invention advantageously proposes that the modulation function and the filtering be aligned in such a way that parameterizable features of those functions can be selected and controlled by the user are.
  • the modulation strength and modulation width can be controlled, or the signal that can be used as the modulation signal source can advantageously be linked dynamically by control.
  • the filter type e.g. low-pass, band-pass, band-stop, high-pass
  • those cut-off frequencies that are used in the current filter type, and the filter gain can be parameterized and controlled. Since the configuration of the internal sound generation operations can be selected by the user and can be stored in a configuration file 7 and called up again, the invention permits a particularly advantageous dynamic system configuration.
  • the invention advantageously proposes that the sound generation operations comprise externally suppliable sound generation operations, these externally suppliable sound generation operations comprising at least one selection from the following list:
  • the invention advantageously proposes that external sound generation operations are operations and/or arithmetic and combinatorial processing that process and convert the signal values detected by the sensors, so that these processed and converted signal values can be used accordingly for further use .
  • the further use can be, for example, either direct conversion into an acoustic signal and/or conversion into a control signal for controlling an acoustic signal and/or conversion into a protocol format that may be required for further data transmission. Since the configuration of the external sound generation operations can be selected by the user and can be stored in a configuration file 7 and called up again, the invention also allows a particularly advantageous dynamic system configuration in this case.
  • the processing operations can include at least one selection from the following list:
  • each state the state machine is capable of performing selectable sound generation and/or processing operations.
  • An event generation that is able to trigger a selectable input event forcibly and to emulate this input event therewith in order to process the assignment to the emulated input event to sound generation and processing operations in the predetermined prioritization list.
  • processing operations are, for example, operations that can influence internal states and generate events. It is not absolutely necessary for the processing operations to convert signal values directly into an acoustic signal and/or control signal, rather this happens in the sound generation operations linked by the processing operations and thus executed.
  • the invention also allows a particularly advantageous dynamic system configuration in this case.
  • the division into internal sound generation operations, external sound generation operations and processing operations made possible by the invention has the advantage that the user gets a particular clarity as to which operations are available and also a special overview of the associated configuration options with regard to the selectable operations.
  • the audio device 1 has at least one touch sensor for detecting manual user interactions 3 carried out on the audio device 1 by touching/pressing the touch sensor and the audio device 1 at least one position sensor for detecting on the audio device 1 through movement and/or or direction and/or change in position of the position sensor.
  • user input signals 2 are provided from the user interactions 3 detected by the sensors.
  • the user input signals 2 or their signal values can be used by the user as control signals 6 for the above-mentioned listing of both internal and external sound generation operations as well as processing operations 15 .
  • the user therefore has the choice and possibility of linking the user input signals to the operations by storing the configuration in the configuration file 7 .
  • the user creates a link between user input signals 2 and the selected executing operations.
  • This configuration which can be selected by the user, forms a major advantage of the invention, since new links between user interactions and executions that could not be represented before are now possible. Examples of such links of the user-created configuration that are advantageous due to the invention are given below:
  • the user's finger pressure force is recorded by a force sensor and linked to the sound strength parameter of a signal generator.
  • the link is configured and the recorded pressure force signal is processed and converted in such a way that the sound strength of the acoustic signal generated by the signal generator forms a function of the pressure force, with an increasing finger pressure force being represented as an increasing sound strength.
  • the vertical position of the audio device 1 is detected by a position sensor and linked to the pitch parameters of a signal generator.
  • the link is configured and the recorded vertical position signal is processed and converted in such a way that the pitch of the the acoustic signal generated by the signal generator forms a function of the orientation in relation to the vertical position.
  • Fig. 7 shows an advantageous embodiment of a force sensor for detecting the finger pressure force of the user, a so-called Force Sensing Resistor (FSR) pressure force sensor being used to detect the finger pressure force exerted by a correlating electrical resistance value, the detected resistance being value is in turn converted into a user input signal (2).
  • FSR Force Sensing Resistor
  • FIG. 7 a cross-sectional image of the audio device 1 is shown, with the user exerting a finger pressure force F7a on a silicone button F7b.
  • the silicone push button F7b protrudes from a recess in the upper half of the housing 8 and distributes the exerted finger pressure force F7a on the underlying FSR pressure force sensor F7d.
  • the applied finger pressure force F7a as well as the finger pressure force F7a distributed through the silicone button F7b on the FSR pressure force sensor F7d is illustrated in FIG. 7 by arrows.
  • the FSR compression force sensor F7d is mounted on an underlying circuit board F7e, which is placed between the upper case half F7c and the lower case half F7f.
  • FIG. 8 shows a position sensor located in the audio device 1, the position sensor in this case detecting the angles Fx, Fy and Fz mentioned here about the Cartesian coordinate system that is locally aligned for the audio device 1.
  • Fx, Fy and Fz correspond to the roll, pitch and yaw angles of the audio device 1.
  • the user input signals 2 formed from these angles can advantageously be used by the user as described above as control signals 6 for the above-mentioned listing of internal and external sound generation operations as well as processing operation 15 can be used configurably.
  • sensors other than those listed above can also be used, namely sensors that are able to detect user interactions 3 and convert them into user input signals 2, the detected user input signals 2 being used in the internal and/or external sound generation operations and/or or the processing operations 15 can be selectively linked and used by the configuration file 7 .
  • An audio device 1 according to the invention can also advantageously use the following types of sensors: - Joystick sensor for detecting joystick position, whereby the X/Y joystick orientations can be used as user input signals 2,
  • - Radar sensor for detecting hand movements in the immediate vicinity of the audio device 1, where the detected hand position can be used as a user input signal 2.
  • the audio device 1 also has a data transmission interface for wireless transmission of the data stream to external devices, in particular a Bluetooth interface.
  • the user can link detected user input signals 2 to external instruments and equipment based on the appropriate configuration in the configuration file 7 and send data.
  • the audio device 1 can be used as a kind of remote control, whereby the user input signals 2 are converted accordingly and then transmitted to be further converted into sound signals and/or control signals in the external instruments and equipment.
  • FIG 9 shows an advantageous embodiment of said data transmission interface, in which case a bidirectional data connection F9b is set up between the audio device 1 and an external device F9a in order to exchange control signals between the devices.
  • the audio device 1 advantageously has at least one output unit 23, with the output unit 23 being able to convert at least one of the signals generated by the signal generation and processing functions into an optical or acoustic or mechanical feedback signal and to send this feedback signal as feedback functions to the submit user.
  • the audio device 1 has at least one speaker and at least one calibration source, with at least one of the feedback signals being routed to the speaker and the speaker representing the feedback signal routed to it as an acoustic reproduction of a feedback function, with at least one of the feedback signals being routed to the Light source is passed and the light source represents the feedback signal passed to her as an optical representation of a feedback function.
  • FIG. 10 shows an advantageous embodiment of a light source that can be used for said feedback function, it being advantageously proposed here that the light source is integrated in the finger pressure force sensor according to FIG. Similar to FIG. 7, FIG. 10 shows a cross-sectional image of the audio device 1, with a semi-transparent silicone pushbutton F10a protruding from a recess in the upper housing half F10b.
  • the finger pressure force sensor FlOd is located under the silicone button FlOa and the light source FlOc is located in a recess in the middle of the finger pressure force sensor FlOd.
  • the light source FlOc and the finger pressure force sensor FlOd are attached to a printed circuit board FlOe, which is placed between the upper housing half FlOb and the lower housing half FlOf.
  • the light source FlOc When the light source FlOc is activated, it emits light through the semi-transparent silicone push button FlOa, as a result of which said feedback function is formed.
  • the audio device 1 is configured by the user in such a way that the luminosity of the light source FlOc correlates with the finger pressure force exerted by the user on the finger pressure force sensor FlOd, this forms a particularly effective and advantageous feedback function which can be used in the present invention.
  • the effect of the feedback function 1 becomes particularly strong when the light source in such an embodiment is able to emit different color tones. For example, the green-orange-red color tones emitted and their mixed colors can correlate with the force of the finger pressure.
  • Fig. 11 shows a top view of the audio device 1, the light source being located below the semi-transparent silicone button Fila and when activated, the light source radiates through the semi-transparent silicone button Fila.
  • FIG. 12 shows a top view of the audio device 1, a loudspeaker being integrated in the housing 8 and emitting acoustic signals through the housing recesses F12a.
  • the feedback function allows the user to return selected states and functions of the audio device 1 as feedback information.
  • This feedback function is advantageously also linked by the configuration file 7 and configured accordingly. The user thus has the choice of which feedback functions in should be active in a configuration and for which states or which user input signals they should be activated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

The invention relates to a portable audio device (1) for converting user interactions (3) that can be captured in the form of user input signal(s) (2) into a digital data stream for conversion into an acoustic signal (5) and/or a control signal (6) for controlling an acoustic signal (5) at a later stage, the audio device (1) being designed for conversion while taking into account specifications that can be configured according to a configuration data set (7).

Description

P22952pct P22952pct
TRAGBARES DIGITALES AUDIOGERÄT ZUR ERFASSUNG VON BENUTZERINTERAKTIONEN PORTABLE DIGITAL AUDIO DEVICE TO CAPTURE USER INTERACTIONS
Die Erfindung betrifft ein tragbares digitales Audiogerät zur Erfassung von Benutzerinteraktionen, die zur späteren Wandlung in ein Akustiksignal und/ oder ein Steuersignal zur Steuerung eines Akustiksignals verwendbar sind. The invention relates to a portable digital audio device for detecting user interactions, which can be used for later conversion into an acoustic signal and/or a control signal for controlling an acoustic signal.
Dazu seien aus der Patentliteratur die folgenden Beispiele vorgestellt: The following examples from the patent literature are presented:
Die US2016124559A1 bezieht sich auf eine Vorrichtung, die eine Anordnung von Berührungszonen umfasst, wobei jede Berührungszone in der Lage ist, die von einem Benutzer ausgeübte Druckkraft und deren Veränderung über Zeit in drei Achsen (X,Y Positionen, Z für Druck) jeweils unabhängig voneinander zu erfassen. Die Vorrichtung ist in der Lage, Anfangs-, Fortsetzungs- und Loslass- Ereignisse pro Berührungszone und in Folge Veränderungen pro Achse (X,Y,Z) zu berechnen und zu erzeugen, die dem Zeitpunkt entsprechen, an dem ein Benutzer die Interaktion mit einer Berührungszone beginnt, die Interaktion ändert oder die Interaktion an dieser Zone beendet. Das Gerät generiert für das Initial-Event der Berührung eine MIDI Note-On (=Note An) mit einem Note-Velocity Wert (Anschlagsgeschwindigkeit), bestehend aus der Druckkraft und der Notennummer, wie sie für diese Zone konfiguriert ist, eine MIDI Note-Off (Beenden/ Auslassen) wird generiert, wenn die Berührungszone losgelassen wird, und für das Continuation-Event (Fortsetzung) kann je ein Steueränderung Signal pro Achsenänderung-über-Zeit zugewiesen werden, zumeist sind es MIDI Parameteränderungen über Zeit der Klasse loudness, pitch, and timbre die außerhalb der Vorrichtung musikalisch verarbeitet werden. Dies mag auf den ersten Blick sehr ähnlich zu dem Event-Generator gemäß der vorliegenden Erfindung erscheinen, der ebenfalls beabsichtigt, Engage-, Change- und Release-Events in Abhängigkeit vom Zustand der Benutzerinteraktion mit einem Sensor zu erzeugen. Je nach Wahl der Zielanwendung kann die Erfassung auf zwei Achsen pro Berührungszone reduziert werden, weiters beschreibt die US2016124559A1 mindestens eine Methodik der Optimierung der Berechnungen von gleichzeitigen Ereignissen und deren Priorisierung in der Verarbeitung, dennoch nur im Rahmen der spezifischen Hardwareausstattung und derer Voraussetzungen. Bei näherer Betrachtung zeigt sich jedoch, dass die vorliegende Erfindung einige Unterscheidungsmerkmale aufweist und dadurch wesentliche Vorteile gegenüber diesem Stand der Technik dar stellt: - Die Methode, mit der die Ereignisse "Engage (Betätigen)", "Change (Verändern)" und "Release (Loslassen)" berechnet werden, kann bei der vorliegenden Erfindung auf granuläre Art und Weise vom Benutzer erfasst- und differenziert zur weiteren Verarbeitung freigegeben, oder teilweise ausgelassen werden. Daher ist das grundlegende Verhalten eines erfindungsgemäßen Geräts (wann Ereignisse als Reaktion auf Benutzereingaben erzeugt werden und folglich die Rate der Ereignisse pro Sekunde) vom Benutzer steuerbar. Dies ermöglicht dem Benutzer, einen Kompromiss zwischen Batterie-/ Stromverbrauch und Ereignisgranularität zu finden. US2016124559A1 relates to a device comprising an array of touch zones, each touch zone capable of measuring the compressive force exerted by a user and its variation over time in three axes (X,Y positions, Z for pressure), each independently capture. The device is able to calculate and generate initiation, continuation and release events per touch zone and subsequent changes per axis (X,Y,Z) corresponding to the moment a user starts interacting with a Touch zone begins, changes interaction, or ends interaction at that zone. For the initial touch event, the device generates a MIDI note-on (=note on) with a note velocity value consisting of the pressing force and the note number as configured for this zone, a MIDI note- Off is generated when the touch zone is released, and for the continuation event, one control change signal can be assigned per axis change-over-time, mostly MIDI parameter changes over time of class loudness, pitch , and timbre which are musically processed outside of the device. This may at first glance appear very similar to the event generator according to the present invention, which also intends to generate engage, change and release events depending on the state of user interaction with a sensor. Depending on the choice of target application, the detection can be reduced to two axes per touch zone. Furthermore, US2016124559A1 describes at least one method for optimizing the calculations of simultaneous events and their prioritization in processing, but only within the framework of the specific hardware equipment and its requirements. A closer look, however, shows that the present invention has some distinguishing features and thus represents significant advantages over this prior art: - The method with which the events "Engage (Activate)", "Change (Modify)" and "Release (Release)" are calculated can be recorded in the present invention in a granular way by the user - and differentiated for further processing released, or partially omitted. Therefore, the basic behavior of a device according to the invention (when events are generated in response to user input and consequently the rate of events per second) is user controllable. This allows the user to find a trade-off between battery/power consumption and event granularity.
- Im Gegensatz zum genannten Stand der Technik, bei dem eine fixe Anordnung von Berührungssensoren (Force Sensitive) gedacht ist, ist unser Ereignisgenerator direkt geeignet, jedes abgetastete/ digitale ein- oder -mehrdimensionale Sensorsignal zu verarbeiten und nicht nur kraftmessende Sensoren. So lassen sich beliebige Sensoren wie z.B. Gyroskop- oder Beschleunigungssensoren zur Erfassung der Nutzerinteraktion anwenden. - In contrast to the prior art mentioned, in which a fixed arrangement of touch sensors (force sensitive) is intended, our event generator is directly suitable for processing any sampled/digital one- or multi-dimensional sensor signal and not just force-measuring sensors. Any sensors such as gyroscope or acceleration sensors can be used to record user interaction.
- Durch die Bereitstellung der konfigurierbaren Ereignisgenerierung in der vorliegenden Erfindung wird die für die Verarbeitung von Sensordaten erforderliche Verarbeitungsleistung reduziert und die erforderliche Bandbreite zur Übertragung von Steuerdaten verringert, da Daten nur als Reaktion auf die generierten Ereignisse erzeugt werden. The provision of configurable event generation in the present invention reduces the processing power required to process sensor data and reduces the bandwidth required to transmit control data since data is only generated in response to the generated events.
- Die Zuordnung der generierten Ereignisse ist in der vorliegenden Erfindung vom Benutzer konfigurierbar. Das bedeutet, dass ein Benutzer nicht darauf beschränkt ist, dem Engage- Ereignis eine MIDI-Note zuzuordnen, deren Anschlagstärke z. B. einer Druckkraft entspricht. Ein Benutzer kann das Engage-Ereignis eines Sensors so konfigurieren, dass es einen beliebigen anderen Effekt oder eine Steuerung ausgibt, die die Klangerzeugung in einem externen Instrument beeinflusst. - The assignment of the generated events is user-configurable in the present invention. This means that a user is not limited to assigning a MIDI note with a velocity of e.g. B. corresponds to a compressive force. A user can configure a sensor's Engage event to output any other effect or control that affects sound generation in an external instrument.
- Die vorliegende Erfindung erlaubt es dem Benutzer außerdem, viele Ausgabegeneratoren (Verarbeitungselemente) auf ein und dasselbe generierte Ereignis abzubilden. So kann das Drücken einer Taste zu vielen Ausgabeaktionen führen. - The present invention also allows the user to map many output generators (processing elements) onto the same generated event. So pressing one key can lead to many output actions.
- Die Auslösung von Ereignissen durch unseren Event-Generator kann von unserem Sequenzer auf bestimmte Verarbeitungselemente weiterführend abgebildet werden, die ein weitergehendes Geräteverhalten als das einfache Senden von Steuerdaten implementieren können. - The triggering of events by our event generator can be further mapped by our sequencer to certain processing elements that a device behavior that goes beyond the simple sending of control data.
Die US9076419B2 umfasst ein konfigurierbares Steuergerät, das aus mehreren Sensoren und unterschiedlichen Sensortypen besteht. Das Gerät verwendet die Signale von Sensoren, um Benutzerinteraktionen zu interpretieren und Steuerdaten zu erzeugen. Das Gerät ist vom Benutzer mit Hilfe einer externen Software konfigurierbar, wobei der Benutzer zuweisen kann, welche Ausgabeaktionen für jeden Eingangssensor möglich sind. Der Benutzer kann auch die Empfindlichkeit jedes Sensors steuern, um z. B. zu kontrollieren, bei welcher Druckkraft die Ausgabe erzeugt werden soll. Die in diesem Dokument beschriebene Vorrichtung ist ausschließlich für die Ausgabe von Steuersignalen im Rahmen von MIDI vorgesehen. Hier folgen einige Punkte, in denen die vorliegende Erfindung Vorteile gegenüber diesem Stand der Technik bringt: US9076419B2 includes a configurable control unit consisting of several sensors and different sensor types. The device uses the signals from sensors to interpret user interactions and generate control data. The device is user configurable using external software, allowing the user to assign what output actions are possible for each input sensor. The user can also control the sensitivity of each sensor, e.g. B. to control at which pressure force the output should be generated. The device described in this document is intended exclusively for the output of control signals within the framework of MIDI. Here are a few points where the present invention offers advantages over this prior art:
- Der Stand der Technik ist darauf beschränkt, Eingangssensor-Ereignisse auf MIDI- Ausgangsaktionen abzubilden. Es ist nicht möglich, das Gerät so zu konfigurieren, dass es eine beliebige Verarbeitung als Reaktion auf ein Ereignis durchführt. Die vorliegende Erfindung ermöglicht es dem Benutzer, jedes Eingangsereignis auf ein beliebiges Verarbeitungselement abzubilden, und da die Verarbeitungselemente in der vorliegenden Erfindung freier konfiguriert werden können, sind auch die Ausgabeaktionen der vorliegenden Erfindung nicht auf die Erzeugung von einfachen MIDI-Ausgängen beschränkt, sondern können auch so programmiert werden, dass sie beispielsweise eine MIDI polyphone Ausdruckfunktionalität (MPE) bieten. - The prior art is limited to mapping input sensor events to MIDI output actions. It is not possible to configure the device to perform any processing in response to an event. The present invention allows the user to map any input event to any processing element, and since the processing elements in the present invention can be more freely configured, the output actions of the present invention are not limited to generating simple MIDI outputs, but can also programmed to provide, for example, MIDI polyphonic expression (MPE) functionality.
- Da sich der genannte Stand der Technik darauf beschränkt, nur grundlegende MIDI-Befehle auszusenden, benötigt es eine Host-Software auf einem PC, um digitale Audio-Workstation- Programme anzuschließen. Es ist nicht möglich, das Gerät des Patents als eigenständige Schnittstelle zu digitalen Audio-Workstations zu konfigurieren, noch zeitgemäße Drahtlose Geräte- und Anwendungen per z.B. MIDI-over-Bluetooth zu steuern. Dies ist ein großer Vorteil der vorliegenden Erfindung, dass die Ausgabeaktionen als Reaktion auf Ereignisse von frei programmierbaren Verarbeitungselementen gekapselt sind und dadurch an spezifische, von digitalen Audio-Workstations benötigte Kommunikationsformate angepasst werden können. - Das Patent ist auf ein Gerät beschränkt, das mit einer externen Stromquelle betrieben wird. Die vorliegende Erfindung sollte tragbar und batteriebetrieben sein. - Since the prior art mentioned is limited to sending out only basic MIDI commands, it requires host software on a PC in order to connect digital audio workstation programs. It is not possible to configure the device of the patent as an independent interface to digital audio workstations, nor to control contemporary wireless devices and applications via, for example, MIDI-over-Bluetooth. This is a major advantage of the present invention that the output actions in response to events are encapsulated by freely programmable processing elements and thereby can be adapted to specific communication formats required by digital audio workstations. - The patent is limited to a device that runs on an external power source. The present invention should be portable and battery powered.
- Das Patent ist auf Berührungs- und Kraftsensoren beschränkt, während die Ereignisgenerierung gemäß der vorliegenden Erfindung jedes eindimensionale Sensorsignal verarbeiten kann, einschließlich z. B. Gyroskop- und Beschleunigungsmesserdaten. - The patent is limited to touch and force sensors, while the event generation according to the present invention can process any one-dimensional sensor signal, including e.g. B. Gyroscope and accelerometer data.
- Der Stand der Technik erlaubt es dem Benutzer, die Empfindlichkeit der Sensoren zu steuern, indem er einen Wert für beide Engage-/ Release-/ Change Ereignisse verwendet, wohingegen unsere Erfindung es dem Benutzer ausdrücklich erlaubt, die Engage-, Release- und Engage Schwellen getrennt zu steuern, mit dem Vorteil, dass ein Benutzer die erforderliche Betätigungskraft (Engage Threshold) eines Kraftsensors und die erforderliche Änderungskraft (Change Threshhold) zur Ausgabe von Änderungsereignissen getrennt steuern kann. - The prior art allows the user to control the sensitivity of the sensors using one value for both Engage/Release/Change events, whereas our invention explicitly allows the user to set the Engage, Release and Engage To control thresholds separately, with the advantage that a user can separately control the required actuation force (Engage Threshold) of a force sensor and the required change force (Change Threshhold) for the output of change events.
- Die vorliegende Erfindung ermöglicht die vorrangige Ausführung von zugewiesenen Ereignissen an Verarbeitungselemente (die so konfiguriert sein können, dass sie MIDI oder eine andere Form von Steuersignalen für ein Standard-Protokoll erzeugen wie z.B. OSC), daher gewährleistet die vorliegende Erfindung eine bestimmte Dienstgüte für Mappings (Zuweisungen) mit hoher Priorität gegenüber Mappings mit niedriger Priorität, so dass z. B. bestimmten Funktionen eine niedrige Latenz gegenüber anderen Funktionen garantiert wird. Dies ist insbesondere im Zusammenhang mit drahtlosen Übertragungsverfahren mit begrenzter Bandbreite, wie z. B. bluetooth low energy (BLE), von Vorteil. - The present invention allows priority execution of assigned events to processing elements (which may be configured to generate MIDI or other form of control signals for a standard protocol such as OSC), therefore the present invention ensures a certain quality of service for mappings (Assignments) with high priority over low-priority mappings, so that e.g. B. Certain functions are guaranteed low latency compared to other functions. This is particularly relevant in connection with wireless transmission methods with a limited bandwidth, such as e.g. B. bluetooth low energy (BLE), an advantage.
Die US2014214189 bezieht sich auf eine DJ-Funksteuerung, die aus einem Beschleunigungssensor, einem Steuerknopf und einem Funksender besteht. Die DJ- Funksteuerung detektiert das Niederdrücken des Steuerknopfes und bekommt einen Ausgabewert vom Beschleunigungsmesser. Basierend auf diesen Ausgabewert, generiert die DJ-Funksteuerung ein Steuersignal und überträgt dieses Steuersignal um ein externes Audiosignal zu beeinflussen. Das DJ-Funktsteuergerät bietet eine ziemlich einfache Benutzeroberfläche, bestehend aus Knöpfen, die beim Niederdrücken eine Übertragung von Beschleunigungsmessdaten initiieren. Ein begrenzender Faktor eines Gerätes nach US2014214189A1 ist der unflexible und einschränkende Gebrauch der vorhandenen Sensoren. Es ist für den Benutzer im Vergleich zur vorliegenden Erfindung nicht möglich die Einstellungen des Gerätes aus der Serie US2014214189A1 großartig zu verändern. Nur die vordefinierten, begrenzenden Interaktionseigenschaften können verändert werden und in Folge externen Audiogeräten zugewiesen. US2014214189 relates to a DJ radio controller consisting of an accelerometer, a control button and a radio transmitter. The DJ radio controller detects the depression of the control button and gets an output value from the accelerometer. Based on this output value, the DJ radio control generates a control signal and transmits this control signal to influence an external audio signal. The DJ radio controller offers a fairly simple user interface, consisting of buttons that when pressed initiate a transmission of accelerometer data. A limiting factor of a device according to US2014214189A1 is the inflexible and restrictive use of the existing sensors. It is not possible for the user to greatly change the settings of the US2014214189A1 series device compared to the present invention. only the predefined, limiting interaction properties can be changed and subsequently assigned to external audio devices.
Die US2020098343A1 bezieht sich auf ein Schnittstellengerät zum Menschen, das einen Prozessor mit einem Speicher beinhaltet. Eine Mehrzahl an Schaltbänken, auch an den Prozessor gekoppelt, ein Drehwähler und ein Schieber, beide an den Kontrollkreis gekoppelt, so dass der Kontrollkreis in der Lage ist, die Lage des Drehwählers und Schiebers an den Prozessor zu übergeben. Der Drehwähler und der Schieber sind auf dem Schnittstellengerät platziert, um eine Verbindung mit der Schaltbank zu bilden, ein Wandler mit dem Prozessor gekoppelt, besagter Wandler beinhaltet eine Anzahl an LED Quellen räumlich auf einem Positionsring positioniert, eine Reihe von nicht-transitorischenProzessorbefehlenbereit den Prozessor zu regeln um MIDI Befehle durch einen BLE-Port bereitzustellen. Obwohl das Gerät nach US2020098343A1 Vorteile bietet wie visuelles Feedback durch die LED Quellen, die am Positionsring positioniert sind, ist das Gerät limitiert in den Einstellungsmöglichkeiten die zum künstlerischen Ausdruck außerhalb visueller Gestaltung (Intention der Erfinder die Steuerung dreidimensionaler Operationen in VR, A/R Anwendungen), nämlich der Echtzeit Verarbeitungs- und Zuweisungsbedürfnisse der Interaktionen bei musikalischen Darbietungen zu befriedigen. Umgekehrt eignet sich die vorliegende Erfindung aber sehr wohl um auf vielfältige Arten visuelle Anwendungen, und Manipulationen in virtuellen 3D Räumen (A/R, VR) zu steuern, da die Verarbeitung weder von Typspezifischen Eingabesensoren, noch einer starren Zuweisungsmetehodik unterliegt. US2020098343A1 relates to a human interface device including a processor with memory. A plurality of switch banks, also coupled to the processor, a rotary selector and a slider, both coupled to the control circuitry such that the control circuitry is able to communicate the position of the rotary selector and slider to the processor. The rotary selector and the slider are placed on the interface device to form a connection with the switch bank, a converter coupled to the processor, said converter containing a number of LED sources spatially positioned on a position ring, a series of non-transitory processor instructions ready for the processor rules to provide MIDI commands through a BLE port. Although the device according to US2020098343A1 offers advantages such as visual feedback through the LED sources positioned on the positioning ring, the device is limited in the setting options for artistic expression outside of visual design (the inventor's intention is to control three-dimensional operations in VR, A/R applications ), namely to satisfy the real-time processing and mapping needs of interactions in musical performances. Conversely, the present invention is very well suited to controlling visual applications and manipulations in virtual 3D spaces (A/R, VR) in a variety of ways, since the processing is subject neither to type-specific input sensors nor to a rigid allocation methodology.
Die US2019251937A1 beschreibt einen fingerlosen digitalen Musik-Effekt Steuerhandschuh, welcher aus einem am Handschuh montierten Gerät mit einem Kabelsensor, um die Bewegung des Handgelenks des Benutzers zu messen, einem Beschleunigungsmesser und einem flexiblen Drucksensor- oder -Schalter am Handteller des Handschuhs besteht. Das Gerät überträgt Daten per Funk an Digitale Audiosoftware, die an einem externen Computer, Laptop oder Smartphone läuft, und erlaubt es dem Nutzer verschiedene Parameter des resultierenden Klangs oder Musikstückes zu verändern. Der fingerlose digitale Musik Effekt Steuerhandschuh ist so konfiguriert, dass er vom externen Computer als ein MIDI oder Audiogerät erkannt wird und ist somit mit existierender digitaler Audiosoftware kompatibel. Der Handschuh ist leichtgewichtig, flexibel und fingerlos und erlaubt somit uneingeschränkte Bewegung der Finger des Benutzers mit gleichzeitigem Spielen eines Musikinstruments oder eines anderen Musikgeräts. Ein Nachteil dieses Steuer-Handschuhs nach der US2019251937A1 ist seine eingeschränkte Differenzierung möglicher Ereignisse bei der Erfassung von Benutzerinteraktionen, deren mangelnde Verarbeitung- sowie eingeschränkte Zuweisung der Parameter. Somit liegt eine nur sehr eingeschränkte Konfigurierbarkeit vor. US2019251937A1 describes a fingerless digital music effects control glove consisting of a glove-mounted device with a cable sensor to measure movement of the user's wrist, an accelerometer, and a flexible pressure sensor or switch on the glove's palm. The device transmits data wirelessly to digital audio software running on an external computer, laptop or smartphone, allowing the user to manipulate various parameters of the resulting sound or piece of music. The fingerless digital music effects control glove is configured to be recognized by the external computer as a MIDI or audio device, making it compatible with existing digital audio software. The glove is lightweight, flexible and fingerless, allowing unrestricted movement of the user's fingers while playing a musical instrument or other musical device. A disadvantage of this control glove according to US2019251937A1 is its limited differentiation of possible events when capturing user interactions, their lack of processing and limited assignment of parameters. This means that there is only very limited configurability.
Die US2010022183A1 beschreibt ein System und eine Methode für Echtzeit Funkübertragungen eines digitalen Audiosignals und Steuerdaten. Ein Sender kann an die Audioquelle gekoppelt werden. Der Sender beinhaltet einen Prozessor um die Steuerdaten mit dem digitalen Audiosignal von der Audioquelle zu kombinieren und der Prozessor überträgt per Funk die kombinierten Kontrolldaten und Audiosignale an einen Empfänger. Der Empfänger beinhaltet einen Prozessor, welcher verwendet wird, um die kombinierten Kontrolldaten und Audiosignale zu empfangen und die Steuerdaten zu verarbeiten, um eine vom Benutzer definierte Funktion durchzuführen. Ein signifikanter Nachteil eines Geräts nach der US2010022183A1 ist, dass es kein Funktsteuergerät für externe Geräte zur Bildung von künstlerischen Ausdrücken ist, sondern eine eigenständige Echtzeitverarbeitung von Sound in der die Empfangseinheit von den bereitgestellten Sensordaten der Übertragungseinheit abhängt. US2010022183A1 describes a system and method for real-time radio transmission of a digital audio signal and control data. A transmitter can be linked to the audio source. The transmitter includes a processor to combine the control data with the digital audio signal from the audio source, and the processor transmits the combined control data and audio signal over the air to a receiver. The receiver includes a processor which is used to receive the combined control data and audio signals and to process the control data to perform a user defined function. A significant disadvantage of a device according to US2010022183A1 is that it is not a radio control device for external devices for creating artistic expressions, but rather an independent real-time processing of sound in which the receiving unit depends on the sensor data provided by the transmitting unit.
Die W02006133207A2 bezieht sich auf eine Audiosignal-Steuerung zur Kontrolle und einer Methode zur Kontrolle der Anwendung von Spezial Audioeffekten auf ein Audiosignal, wo die Audioeffektsteuerung einen Sensor beinhaltet, der Bewegung erkennt und die erkannte Bewegung mit der Bildung von Audiosignalen verknüpft, indem der Sensor ein Kontrollsignal als Antwort auf die detektierte Bewegung erzeugt und dieses Kontrollsignal an eine Audioeffekt Einheit weitergeleitet wird zur Kontrolle der Anwendung eines Audioeffekts auf ein Audiosignal. Die Anwendung von Orientierungssensoren dient als ein Beispiel, wo ein Orientierungssensor an ein Instrument angebracht wird um mit Orientierungssensordaten die Effekteinheit zu versorgen, die den akustischen Ausdruck des Instruments modifiziert, beispielsweise das Kippen der Gitarre kann dazu genutzt werden, um Modulationseffekte des Gitarrensounds zu aktivieren. Ein Nachteil von der W02006133207A2 ist, dass es ein Gerät braucht, das sich auf den Gebrauch von Orientierungs- und Bewegungssensoren beschränkt und dass die Möglichkeit der Rekonfigurierbarkeit auf die einfache Zuordnung von Sensorereignissen und Sensordaten auf steuerbare musikalische Inputparameter des Instruments beschränkt ist. Die US8686276B1 bezieht sich auf Techniken, die für die Aufnahme und Ausführung von musikalischen Darbietungen an tragbaren Geräten entwickelt wurden. Die entwickelten Techniken ermöglichen die Aufnahme, die Verschlüsselung und den Gebrauch von Gebärdenstreams (gestural data) für die Ausführung einer musikalischen Darbietung. In einigen Darstellungen ermöglicht ein Gebärdenstream das Verschlüsseln der hörbaren Ausführung der musikalischen Darbietung lokal am tragbaren Gerät, auf welchem die musikalische Darbietung aufgenommen wird, normalerweise in Echtzeit. In anderen Darstellungen verschlüsselt ein Gebärdenstream effizient die musikalische Darbietung für die Übertragung vom tragbaren Gerät, auf welchem die musikalische Darbietung aufgenommen wurde, auf (oder zu) ein(em) externes(n) Gerät, auf welchem die musikalische Darbietung auf genommen wird (oder werden kann). Tatsächlich wird in einigen Darstellungen, ein Gebärdenstream so aufgenommen und verschlüsselt, dass unter Benutzung wesentlich identischer oder äquivalenter Umstände einer digitalen Synthese des Musikinstruments lokal und auf einem externen Gerät aufgenommen werden kann. Obwohl die US8686276B1 ein Gerät beinhaltet, das als Fernsteuergerät Musik und Sound auf ähnlichen Geräten im Netzwerk der Geräte verändert, ist es im diesem Stand der Technik nicht vorgesehen eine generelle Steuerung unter Nutzung von beispielsweise MIDI oder einem beliebigen anderen Datenprotokoll von externen Geräten (die nicht den Gerätetypen im Patent entsprechen) durchzuführen. WO2006133207A2 relates to an audio signal controller for controlling and a method for controlling the application of special audio effects to an audio signal, where the audio effect controller includes a sensor that detects motion and associates the detected motion with the formation of audio signals by using the sensor Control signal generated in response to the detected movement and this control signal is forwarded to an audio effects unit for controlling the application of an audio effect to an audio signal. The use of orientation sensors serves as an example where an orientation sensor is attached to an instrument to provide orientation sensor data to the effects unit that modifies the instrument's acoustic expression, for example, tilting the guitar can be used to activate modulation effects on the guitar sound. A disadvantage of WO2006133207A2 is that it requires a device that is limited to the use of orientation and motion sensors and that the possibility of reconfigurability is limited to simply mapping sensor events and sensor data to controllable musical input parameters of the instrument. US8686276B1 relates to techniques developed for recording and performing musical performances on portable devices. The techniques developed enable the recording, encoding and use of gestural data for the execution of a musical performance. In some implementations, a sign stream enables the audible performance of the musical performance to be encrypted locally at the portable device on which the musical performance is recorded, typically in real time. In other representations, a sign stream efficiently encodes the musical performance for transmission from the portable device on which the musical performance was recorded to (or to) an external device on which the musical performance is recorded (or can be). Indeed, in some representations, a gesture stream is recorded and encoded so that it can be recorded locally and on an external device using substantially identical or equivalent circumstances of digital synthesis of the musical instrument. Although US8686276B1 includes a device which, as a remote control device, changes music and sound on similar devices in the network of devices, this prior art does not provide for general control using, for example, MIDI or any other data protocol from external devices (which are not correspond to the device types in the patent).
Die US2018137847A1 umfasst ein Hardwaresegment, das die physischen Eingaben eines Musikers, der seinen musikalischen Spielstil oder seine artikulierte Absicht spielt, elektronisch erfasst; ein Softwaresegment, das die vom Hardwaresegment ausgegebenen Daten interpretiert und formuliert, um sie auf einen beliebigen digital modulierten Synthesizer oder Aufnahmesampler anzuwenden; und eine optionale erweiterte Methode zum Sampling oder zur digitalen Aufnahme artikulierter Klänge akustischer Instrumente. Das Gerät nach der US2018137847A1 ist im Vergleich zu der vorliegenden Erfindung für generelle Ansteuerung externer digitaler Anwendungen insofern eingeschränkt als dass die Voraussetzung des Gebrauchs einer Matrix von zumindest 16x16 mechanischer Sensoren sowie eine geringfügige Rekonfigurierbar keif, die der Stand der Technik Erfindungbereitstellt, sich auf die Zuordnung von Sensorereignissen auf Ausgangs MIDI Befehle begrenzt. US2018137847A1 includes a hardware segment that electronically captures the physical inputs of a musician playing his or her musical playing style or articulated intent; a software segment that interprets and formulates the data output from the hardware segment for application to any digitally modulated synthesizer or recording sampler; and an optional advanced method for sampling or digitally recording articulated acoustic instrument sounds. The device according to US2018137847A1 is limited in comparison to the present invention for general control of external digital applications in that the requirement of using a matrix of at least 16x16 mechanical sensors and a slight reconfigurability, which the prior art invention provides, affects the assignment from sensor events to output MIDI commands.
Die WO2012170344A2 beschreibt wie ein drahtloses Sensornetzwerk für Musikinstrumente bereitgestellt wird, das es einem Musiker ermöglicht, natürliche Performance-Gesten (Ausrichtung, Druck, Neigung usw.) an einen Computer zu übermitteln. Es werden auch Benutzeroberflächen und Computermodule bereitgestellt, die es einem Benutzer ermöglichen, die vom drahtlosen Sensornetzwerk übermittelten Daten zu nutzen, um den künstlerischen Ausdruck zu ergänzen und/oder zu erweitern. Besonders vorteilhaft an diesem Stand der Technik ist die Möglichkeit eine Sensordaten Reichweite zu kalibrieren und zu definieren und korrekt zugeordnete Sensordaten an externe Geräte zu liefern. Obwohl vorteilhaft in der Bildung von künstlerischen Ausdrücken in externen Geräten setzt die WO2012170344A2 die Anwendung von zumindest zwei technisch getrennten Geräten voraus; eine Sendeeinheit mit Sensor und ein Empfangsgerät und die Konfiguration der dieser Vorrichtung beschränkt sich auf die Zuordnung von Sensorausgangsdaten, entweder reine Sensordaten oder verarbeitete und erzeugte Sensorereignisse, auf musikalische Eingangsparameter, welche stark limitierende Eigenschaften von der WO2012170344A2 darstellen. WO2012170344A2 describes how a wireless sensor network for musical instruments is provided, which enables a musician to use natural performance gestures (alignment, pressure, tilt, etc.) to a computer. User interfaces and computer modules are also provided that allow a user to utilize the data transmitted by the wireless sensor network to complement and/or augment artistic expression. A particularly advantageous feature of this prior art is the possibility of calibrating and defining a sensor data range and of supplying correctly assigned sensor data to external devices. Although advantageous in the formation of artistic expressions in external devices, WO2012170344A2 requires the use of at least two technically separate devices; a transmitting unit with a sensor and a receiving device and the configuration of this device is limited to the assignment of sensor output data, either pure sensor data or processed and generated sensor events, to musical input parameters, which represent severely limiting properties from WO2012170344A2.
Die der Erfindung zu Grunde liegende Aufgabenstellung besteht darin, ein tragbares digitales Audiogerät zur Erfassung von Benutzerinteraktionen, die zur späteren Wandlung in ein Akustiksignal und/oder ein Steuersignal zur Steuerung eines Akustiksignals verwendbar sind. Das Audiogerät soll vom Benutzer konfigurierbar sein und einen höheren Grad an Konfigurierbarkeit aufweisen als die bereits vorhandenen Geräte und Lösungen bereits zu einem gewissen Teil aufweisen. Durch die frei gestaltbare Konfigurierbarkeit des Audiogerätes wird die künstlerische Arbeit des Benutzers bei der Erstellung von Klängen und Musik weitgehend erleichtert. Dadurch soll das Audiogerät eine so außergewöhnlich frei gestaltbare Konfigurierbarkeit aufweisen, dass der Benutzer dadurch bisher technisch unerforschte Wege findet, wie Klänge und Musik erzeugt werden können. Zudem soll der erforderliche elektronische Energieverbrauch und die von dem Audiogerät erforderliche Bandbreite bei der Datenübertragung in Anbetracht der Konfigurierbarbarkeit des Geräts Minimal sein. The object on which the invention is based is to provide a portable digital audio device for detecting user interactions that can be used for later conversion into an acoustic signal and/or a control signal for controlling an acoustic signal. The audio device should be configurable by the user and have a higher degree of configurability than the existing devices and solutions already have to a certain extent. The freely designable configurability of the audio device makes the user's artistic work in creating sounds and music much easier. As a result, the audio device should have such an exceptionally freely designable configurability that the user will find previously unexplored ways of generating sounds and music. In addition, the necessary electronic energy consumption and the bandwidth required by the audio device during data transmission should be minimal in view of the configurability of the device.
Die Aufgabe der Erfindung wird durch ein tragbares digitales Audiogerät gemäß Anspruch 1 gelöst. The object of the invention is achieved by a portable digital audio device according to claim 1.
Weitere vorteilhafte Ausführungsformen der Erfindung sind in den abhängigen Ansprüchen genannt. Die Erfindung wird anhand von Zeichnungen, die beispielhafte und nicht einschränkende Ausführungsformen zeigen, näher erläutert. Further advantageous embodiments of the invention are specified in the dependent claims. The invention will be explained in more detail with reference to drawings showing exemplary and non-limiting embodiments.
Fig. 1: zeigt eine schematische Darstellung eines erfindungsgemäßen tragbaren digitalenFig. 1 shows a schematic representation of a portable digital device according to the invention
Audiogeräts in einer Ausführungsform. Audio device in one embodiment.
Fig. 2: zeigt eine schematische Darstellung eines erfindungsgemäßen tragbaren digitalenFig. 2 shows a schematic representation of a portable digital device according to the invention
Audiogeräts in einer weiteren Ausführungsform. Audio device in another embodiment.
Fig. 3: zeigt eine schematische Darstellung einer weiteren Ausführungsform gemäß derFig. 3: shows a schematic representation of a further embodiment according to
Erfindung. Invention.
Fig. 4: zeigt eine schematische Darstellung eines beispielhaften Details der Erfindung, bei dem in einem internen Datenspeicher zumindest der eine Anzahl an vorgespeicherten und miteinander verknüpfbare Klangerzeugungs- und/ oder Verarbeitungsoperationen sowie eine Eingangseventliste an potentiell möglichen Eingangsevents abgespeichert sind. 4 shows a schematic representation of an exemplary detail of the invention, in which at least the number of pre-stored and linkable sound generation and/or processing operations and an input event list of potentially possible input events are stored in an internal data memory.
Fig. 5: zeigt den Ablauf einzelner Schritte, die durch die Erfindung ausgeführt werden können. Fig. 5: shows the sequence of individual steps that can be carried out by the invention.
Fig. 6: zeigt ein beispielhaftes Datenflussdiagramm zu einem beispielhaften Sensor derFIG. 6: shows an exemplary data flow diagram for an exemplary sensor
Erfindung. Invention.
Fig. 7: zeigt eine Ausführungsform eines Kraftsensors für die Erfassung von derFig. 7: shows an embodiment of a force sensor for the detection of the
Fingerdruckkraft des Benutzers, welcher Kraftsensor in der vorliegenden Erfindung eingesetzt werden kann. User's finger pressure force, which force sensor can be used in the present invention.
Fig. 8: zeigt und vorteilhafte Ausführungsform eines in dem erfindungsgemäßenFig. 8: shows and advantageous embodiment of a in the invention
Audiogerät befindlichen Lagesensors. Audio device located position sensor.
Fig. 9: zeigt eine vorteilhafte Ausführungsform einer Datenübertragungsschnittstelle, die in der Erfindung eingesetzt werden kann. Fig. 9 shows an advantageous embodiment of a data transmission interface that can be used in the invention.
Fig. 10: zeigt eine Ausführungsform einer für eine Feedbackfunktion der Erfindung verwendbaren Lichtquelle. Fig. 11: zeigt eine Draufsicht auf eine Ausführungsform eines erfindungsgemäßen Audiogerätes, wobei eine Lichtquelle sich unterhalb eines semitransparenten Silikondruckknopfs befindet. Fig. 10 shows an embodiment of a light source that can be used for a feedback function of the invention. Fig. 11: shows a top view of an embodiment of an audio device according to the invention, wherein a light source is located below a semi-transparent silicone push button.
Fig. 12: zeigt eine Draufsicht des Audiogerätes, wobei ein Lautsprecher in dem Gehäuse integriert ist und durch Gehäuseaussparungen akustische Signale ausstrahlt. 12: shows a top view of the audio device, with a loudspeaker being integrated in the housing and emitting acoustic signals through housing recesses.
In den folgenden Figuren bezeichnen - sofern nicht anders angegeben - gleiche Bezugszeichen gleiche Merkmale. Unless otherwise stated, the same reference symbols denote the same features in the following figures.
In Fig. 1 ist eine schematische Darstellung eines erfindungsgemäßen tragbaren digitalen Audiogeräts 1 in einer Ausführungsform gezeigt. Für das Lösen der eingangs genannten Aufgabe wird, folgendes vorgeschlagenen: ein tragbares digitales Audiogerät 1 zur Wandlung von als Benutzereingabesignal/e 2 erfassbaren Benutzerinteraktionen 3 in einen digitalen Datenstrom 4 zur späteren Wandlung in ein Akustiksignal 5 und/ oder ein Steuersignal 6 zur Steuerung eines Akustiksignals 5, wobei das Audiogerät 1 dazu eingerichtet ist, die Wandlung unter Berücksichtigung gemäß einer Konfigurationsdatei 7 konfigurierbaren Vorgaben durchzuführen. 1 shows a schematic representation of a portable digital audio device 1 according to the invention in one embodiment. The following is proposed for solving the task mentioned at the outset: a portable digital audio device 1 for converting user interactions 3 that can be detected as user input signal(s) 2 into a digital data stream 4 for subsequent conversion into an acoustic signal 5 and/or a control signal 6 for controlling an acoustic signal 5, the audio device 1 being set up to carry out the conversion taking into account specifications that can be configured in accordance with a configuration file 7 .
Fig. 2: Zeigt eine weitere bevorzugte Ausführungsform der Erfindung, wobei das Steuersignal 6 des Audiogerätes 1 extern geleitet wird um ein externes Akustiksignal 5 anzusteuern. Entsprechend der beispielhaften Darstellung in Fig. 2, lässt die Erfindung zusätzlich eine Kombination aus internen und externen Wandlungen von erfassbaren Benutzerinteraktionen 3 in Akustiksignale 5 und/ oder Steuersignale 6 zur späteren Wandlung in ein Akustiksignal 5 zu. FIG. 2 shows a further preferred embodiment of the invention, with the control signal 6 of the audio device 1 being routed externally in order to control an external acoustic signal 5 . According to the exemplary illustration in FIG. 2, the invention also allows a combination of internal and external conversions of detectable user interactions 3 into acoustic signals 5 and/or control signals 6 for later conversion into an acoustic signal 5.
Es wird vorgeschlagen - wie im Fig. 3 für eine bevorzugte Ausführungsform dargestellt ist - dass das Audiogerät 1 zumindest Folgendes umfasst: ein Gehäuse 8, eine Anzahl von in oder an dem Gehäuse angeordneten Sensoren 9, einen in dem Gehäuse 8 angeordneten ersten internen Datenspeicher 10, eine in oder an dem Gehäuse 8 angeordnete Verarbeitungseinheit 11 mit einem Rechenprozessor 12 und einen Verarbeitungsspeicher 13 und eine Energiequelle 14 zur elektrischen Versorgung der Anzahl von Sensoren 9, des internen Datenspeichers 10 sowie der Verarbeitungseinheit 11. It is proposed - as shown in Fig. 3 for a preferred embodiment - that the audio device 1 comprises at least the following: a housing 8, a number of sensors 9 arranged in or on the housing, a first internal data memory 10 arranged in the housing 8 , a processing unit 11 arranged in or on the housing 8 with an arithmetic processor 12 and a processing memory 13 and a power source 14 for the electrical supply of the number of sensors 9, the internal data memory 10 and the processing unit 11.
Erfindungsgemäß wird zusätzlich vorgeschlagen, dass die Anzahl von in oder an dem Gehäuse angeordneten Sensoren 9 zumindest ein Eingabesensor zur kontinuierlichen Erfassung einer Benutzerinteraktion 3 umfasst. Die kontinuierliche Erfassung einer Benutzerinteraktion 3 hat den Vorteil, dass der Benutzer die Erzeugung von Akustiksignale 5 und/ oder Steuersignale 6 zur Steuerung eines Akustiksignals 5 granulärer ausführen kann im Vergleich zu, beispielsweise, die binäre Granularität, die einen digitalen Ein-/ Aus-Taster anbietet. Um den Vorteil, der die kontinuierliche Erfassung von Benutzerinteraktionen 3 mit sich bringt, näher zu beleuchten, dient Folgendes Beispiel, bei dem angenommen wird, einer der Eingabesensoren 9 sei ein Richtungssensor, und das Audiogerät 1 ist so eingerichtet, dass aus der Richtungssensor ausgangsdaten, welche in diesem Fall das Benutzer eingabesignal 2 darstellen, ein entsprechendes Akustiksignal 5 beeinflussbar ist, z.B. die Tonhöhe des Akustiksignals. Somit kann der Benutzer das Audiogerät 1 in den Händen tragen und durch das Bewegen vom Audiogerät 1 die Tonhöhe des Akustiksignals 5 kontinuierlich beeinflussen. Alternativ oder ergänzen dazu kann das Audiogerät 1 einen Kraftsensor als Eingabesensor 9 aufweist, und das Audiogerät 1 wird so eingerichtet, dass der durch den Benutzer auf den Kraftsensors ausgeübte Druck in Abhängigkeit der Druckstärke in ein stärkeres oder schwächeres Akustiksignal 5 oder Steuersignal 6 zur Steuerung eines Akustiksignals 5 gewandelt wird, bzw. kontinuierliche Änderungen der Druckkraft in kontinuierlichen Änderungen des Akustiksignals bzw. das Steuersignals umgesetzt werden. Dieses vorteilhafte Beispiel erläutert die intuitive Herangehensweise, wie der Benutzer mit dem Audiogerät 1 interagieren kann um ein Akustiksignal zu beeinflussen. According to the invention, it is additionally proposed that the number of sensors 9 arranged in or on the housing includes at least one input sensor for continuously detecting a user interaction 3 . The continuous detection of a user interaction 3 has the advantage that the user can generate acoustic signals 5 and/or control signals 6 for controlling an acoustic signal 5 in a more granular manner compared to, for example, the binary granularity that a digital on/off button offers. In order to elucidate the advantage of continuously capturing user interactions 3, the following example is used, in which it is assumed that one of the input sensors 9 is a directional sensor, and the audio device 1 is set up in such a way that the directional sensor outputs output data, which in this case represent the user input signal 2, a corresponding acoustic signal 5 can be influenced, e.g. the pitch of the acoustic signal. The user can thus carry the audio device 1 in his hands and continuously influence the pitch of the acoustic signal 5 by moving the audio device 1 . Alternatively or in addition to this, the audio device 1 can have a force sensor as an input sensor 9, and the audio device 1 is set up in such a way that the pressure exerted by the user on the force sensor, depending on the pressure intensity, is converted into a stronger or weaker acoustic signal 5 or control signal 6 for controlling a Acoustic signal 5 is converted, or continuous changes in the compressive force are converted into continuous changes in the acoustic signal or the control signal. This advantageous example explains the intuitive approach of how the user can interact with the audio device 1 in order to influence an acoustic signal.
Erfindungsgemäß wird eine Wandlung der durch die Eingabesensoren 9 erfassten Benutzerinteraktionen 3 als Benutzereingabesignale 2 in einen digitalen Datenstrom 4 mit einer Auflösung von zumindest 7 Bit vorgeschlagen. Damit wird vorteilhaft erreicht, dass die weiteren und späteren Verarbeitungen von den Benutzereingabesignale 2 in digitaler Form realisierbar sind. Die weiteren und späteren Verarbeitungen, die zum Teil in dem erfindungsgemäß vorgeschlagenen Rechenprozessor 12 stattfinden, können somit die allgemein bekannten Vorteile digitaler Verarbeitung genießen. Ein Beispiel eines solchen Vorteils durch digitale Verarbeitung ist, dass eine Änderung der Funktionsweise der Software oder konfigurierbaren Hardware durch einfaches Umprogrammieren bzw. Rekonfigurieren gemacht werden kann. Typischer eise kann der vorgeschlagene Rechenprozessor 12 entweder vorgegebene Software ausführen um die gemäß der Erfindung vorgeschlagene Funktionsweise zu realisieren, oder der Rechenprozessor 12 kann auch aus konfigurierbaren Hardware realisiert werden, z.B. durch ein Field Programmable Gate Array (FPGA), das ein Beispiel solcher konfigurierbarer Hardware ist. Es kann auch eine Kombination aus ein Mehrzahl an Software- und konfigurierbaren Hardwareeinheiten des Rechenprozessors 12 vorteilhaft sein, wo moderne Mikrocontroller und digitale Prozessoren typischerweise aus mehrere Rechenkerne bestehen bzw. konfigurierbare Hardware-Peripherieeinheiten aufweisen. According to the invention, a conversion of the user interactions 3 detected by the input sensors 9 as user input signals 2 into a digital data stream 4 with a resolution of at least 7 bits is proposed. This advantageously means that the further and later processing of the user input signals 2 can be implemented in digital form. The further and later processing, some of which takes place in the arithmetic processor 12 proposed according to the invention, can thus enjoy the well-known advantages of digital processing. An example of such an advantage of digital processing is that the functionality of software or configurable hardware can be changed by simple reprogramming or reconfiguration can be done. Typically, the proposed computing processor 12 can either execute predetermined software to implement the functionality proposed according to the invention, or the computing processor 12 can also be implemented from configurable hardware, e.g. by a Field Programmable Gate Array (FPGA), which is an example of such configurable hardware is. A combination of a plurality of software and configurable hardware units of the computing processor 12 can also be advantageous, where modern microcontrollers and digital processors typically consist of multiple computing cores or have configurable hardware peripheral units.
Die Wandlung von Eingabesensoren 9 aus erfassten Benutzerinteraktionen 3 in Benutzereingabesignale 2, die dadurch zu weiteren bearbeitbare digitalen Signale werden, kann, wie in der Fachwelt allgemein bekannt ist und auch bei der vorliegenden Erfindung zulässig ist, entweder in dem Eingabesensor 9 schon integriert sein und der Eingabesensor 9 dadurch bereits einem digitalen Benutzereingangssignal 2 liefern, oder - solltet der Eingabesensor 9 mit keiner derartigen Möglichkeit zur solchen Wandlung aufweisen - es kann das Audiogerät (1) eine mit einer entsprechend der Wandlungsaufgabe eingerichteten Wandlung aufweisen, um daraus digitale Benutzereingangssignale 2 bereitzustellen. Es besteht auch die Möglichkeit, dass sowohl Eingabesensoren 9 mit integrierten Wandler als auch Eingabesensoren 9 ohne integrierten Wandler vorhanden sind, in welchem Fall, das Audiogerät 1 eine Wandlung der Analogeingabesignale von Eingabesensoren 9 ohne integrierten Wandler in digitalen Benutzereingangssignale 2 aufweist. The conversion of input sensors 9 from recorded user interactions 3 into user input signals 2, which thereby become further digital signals that can be processed, can, as is generally known in the technical field and is also permissible with the present invention, either already be integrated in the input sensor 9 and the Input sensor 9 thereby already supply a digital user input signal 2, or - should the input sensor 9 not have such a possibility for such a conversion - the audio device (1) can have a conversion set up according to the conversion task in order to provide digital user input signals 2 therefrom. There is also the possibility that both input sensors 9 with integrated converters and input sensors 9 without integrated converters are present, in which case the audio device 1 has a conversion of the analog input signals from input sensors 9 without integrated converters into digital user input signals 2.
Die Erfindung schlägt insbesondere vor, wie auch im Fig. 4 dargestellt, dass auf dem internen Datenspeicher 10 zumindest der eine Anzahl an vorgespeicherten und miteinander verknüpfbare Klangerzeugungs- und/oder Verarbeitungsoperationen 15 sowie eine Eingangseventliste 16 an potentiell möglichen Eingangsevents 17 abgespeichert sind, wobei, der Erfindung entsprechend, zu jedem potentiell möglichen Eingangsevent 17 zumindest eine Verknüpfung 18 zu zumindest einer Klangerzeugungs- und/ oder "Operation" 15 durch den Benutzer des Audiogerätes 1 festlegbar ist, wobei jeder Verknüpfung 18 entsprechend einer auf dem Audiogerät abgespeicherten Konfigurationsdatei 7 ein Prioritätswert 19 zugeordnet ist. In anderen Worten ausgedrückt, werden potentiell möglichen Eingangsevents 17 vom Benutzer wählbar mit "Operationen" (15) verknüpft und die Verknüpfung mit einem Prioritätswert 19 versehen. Der Benutzer hat durch die Konfigurationsfreiheit die Wahl einen potentiell möglichen Eingangsevent 17 keine, eine, oder sogar mehrere Verknüpfungen zuordnen und sie mit einem Prioritätswert 19 versehen. So wie in nächstem Abschnitt näher beschrieben wird, kann einem Eingangsevent 17 eine gewisse Benutzerinteraktion 3 entsprechend zugeordnet werden. Zum Beispiel kann das Audiogerät 1 so eingerichtet werden, dass wenn der Benutzer eine Kraftsensor mit einer, über eine festlegbare Kraftschwelle, Kraft ausübt, einer der potentiell möglichen Eingangsevents 17 entsprechend dem Ereignis aktiviert wird. Die zu diesem aktivierten Eingangsevent 17 zugehörigen Verknüpfungen 18 werden somit auch aktiviert und die dementsprechend diesen aktivierten Verknüpfungen 18 festgelegte "Operationen" 15 werden im Rechenprozessor 12 abgearbeitet. Damit wird erreicht, dass der verknüpfbare und festlegbare Eingangseventliste 16 an potentiell möglichen Eingangsevents 17 an eine Reihe an "Operationen" 15 zugeordnet wird. Dadurch, dass der Benutzer diese Verknüpfungen 18 sowie den abgespeicherten "Operationen" 15 frei gestalten und konfigurieren kann, wird die künstlerische Arbeit des Benutzers bei der Erstellung von Klänge und Musik weitgehend erleichtert und die durch die Erfindung vorgeschlagene Methodik führt zudem dazu, dass das Audiogerät 1 eine so außergewöhnlich frei gestaltbare Konfigurierbarkeit aufweist, dass der Benutzer bisher technisch unerforschte Wege finden kann, wie Klänge und Musik erzeugt werden. Dieses hohe Maß an frei gestaltbarer Konfigurierbarkeit gibt es bei keinem anderen vorhandene Audiogerät. The invention proposes in particular, as also shown in FIG. 4, that at least a number of pre-stored and linkable sound generation and/or processing operations 15 and an input event list 16 of potentially possible input events 17 are stored on the internal data memory 10, wherein according to the invention, for each potentially possible input event 17 at least one link 18 to at least one sound generation and/or "operation" 15 can be defined by the user of the audio device 1, with each link 18 being assigned a priority value 19 in accordance with a configuration file 7 stored on the audio device assigned. In other words, potentially possible input events 17 are linked to “operations” (15) in a selectable manner by the user, and the link is provided with a priority value 19 . The user has the choice due to the freedom of configuration assign no, one, or even several links to potentially possible input events 17 and provide them with a priority value 19 . As will be described in more detail in the next section, a certain user interaction 3 can be correspondingly assigned to an input event 17 . For example, the audio device 1 can be set up such that when the user exerts a force sensor with a force above a definable force threshold, one of the potential possible input events 17 corresponding to the event is activated. The links 18 associated with this activated input event 17 are thus also activated and the “operations” 15 defined accordingly for these activated links 18 are processed in the arithmetic processor 12 . This ensures that the input event list 16 that can be linked and defined is assigned to a series of “operations” 15 of potentially possible input events 17 . The fact that the user can freely design and configure these links 18 and the stored "operations" 15 greatly facilitates the user's artistic work when creating sounds and music, and the methodology proposed by the invention also means that the audio device 1 has such exceptional free-form configurability that the user can find previously unexplored ways of creating sound and music. No other existing audio device offers this high degree of freely designable configurability.
Insbesondere wird vorgeschlagen, dass die Prioritätswerte 19 mit der Latenzsensiüvität der durch die Verknüpfung 18 zugeordneten Klangerzeugungs- oder Verarbeitungsoperationen 15 korrelieren. Der Vorteil dadurch ist, dass "Operationen" die ein höhere Latenzsensiüvität aufweisen auch entsprechende Prioritätswerte 19 zugeteilt sind, sodass bei der späteren Abarbeitung der "Operationen" deren Prioritätswerte zu einer schnelleren Bearbeitung der "Operationen" führt. In particular, it is proposed that the priority values 19 correlate with the latency sensitivity of the sound generation or processing operations 15 assigned by the link 18 . The advantage of this is that “operations” that have a higher latency sensitivity are also assigned corresponding priority values 19, so that when the “operations” are processed later, their priority values lead to faster processing of the “operations”.
Das erfindungsgemäße Audiogerät 1 weist zudem eine in oder an dem Gehäuse 8 angeordnete Verarbeitungseinheit 11 mit einem Rechenprozessor 12 und einen Verarbeitungsspeicher 13 auf, wobei die Verarbeitungseinheit 11 Zugriff auf den internen Datenspeicher 10 hat, wobei die Verarbeitungseinheit 11 unter Verwendung des Rechenprozessors 12 dazu eingerichtet ist, einen auf dem Verarbeitungsspeicher 13 abgespeicherten Algorithmus 20 auszuführen, gemäß welchem Algorithmus 20 folgende Schritte ausgeführt werden, wie auch in Fig. 5 dargestellt ist: a) Abrufen eines vor definierbaren Trigger generators 21 in Abhängigkeit von der aktuellen Konfigurationsdatei 7 wobei der Trigger generator 21 für jeden Sensor 9 Zuordnungskriterien 22 zur Zuordnung von Eingangsevents 17 zu durch die Sensoren 9 erfassbaren Benutzereingabesignalen 2 aufweist, wobei zur Reduktion des Energieverbrauchs und des Bandbreitenbedarfes des Audiogeräts 1 die Zuordnungskriterien 22 des Trigger generators 21 gemäß Schritt a) Grenzwerte für die durch die Sensoren 9 erfassten Benutzereingabesignale 2 umfassen, sodass nur für jene Signale 2 Eingangsevents 17 in einen aktiven Zustand geschaltet werden, die Grenzwerte überschreiten, b) Vergleich der Prioritätswerte der Verknüpfungen 18 zugehörigen den erfassten Eingangsevents 17, die aktiv sind und denen auch gleichzeitig eine Verknüpfung 18 zu einer Klangerzeugungs- und/oder Verarbeitungsoperation 15 zugeordnet ist, und Festlegen der Reihenfolge, in der die verknüpfte und gleichzeitig aktive Eingangsevents 17 zugeordneten Klangerzeugungs- und/oder Verarbeitungsoperation 15 abgearbeitet werden sollen entsprechend Höhe der Prioritätswerte 19, c) und Ausführen der den verknüpften und gleichzeitig aktiven Eingangsevents 17 zugeordneten Klangerzeugungs- und/oder Verarbeitungsoperationen 15 in der gemäß dem vorhergehenden Schritt b) festgelegten Reihenfolge zur Erzeugung eines digitalen Datenstroms 4 zur späteren Wandlung in ein Akustiksignal 5 und/oder eines Steuersignals 6 zur Steuerung eines Akustiksignals 5. The audio device 1 according to the invention also has a processing unit 11 arranged in or on the housing 8 with an arithmetic processor 12 and a processing memory 13, the processing unit 11 having access to the internal data memory 10, the processing unit 11 being set up to do so using the arithmetic processor 12 to execute an algorithm 20 stored in the processing memory 13, according to which algorithm 20 the following steps are carried out, as also shown in FIG. 5: a) Calling up a pre-definable trigger generator 21 depending on the current configuration file 7, the trigger generator 21 for each sensor 9 having assignment criteria 22 for assigning input events 17 to user input signals 2 that can be detected by the sensors 9, with the reduction of energy consumption and bandwidth requirements of the audio device 1, the assignment criteria 22 of the trigger generator 21 according to step a) include limit values for the user input signals 2 detected by the sensors 9, so that input events 17 are only switched to an active state for those signals 2 that exceed the limit values, b) comparison of the priority values of the links 18 associated with the recorded input events 17 that are active and to which a link 18 to a sound generation and/or processing operation 15 is also assigned at the same time, and determining the order in which the linked and simultaneously active input events 17 assigned sound generation and/or or processing operation 15 are to be processed according to the level of the priority values 19, c) and execution of the sound generation and/or processing operations 15 assigned to the linked and simultaneously active input events 17 in the order defined according to the previous step b) for the generation of a digital data stream 4 to the later Conversion into an acoustic signal 5 and/or a control signal 6 for controlling an acoustic signal 5.
Eine vorteilhafte Ausführungsform des Trigger generators 21 gemäß der Erfindung folgt, wobei der Triggergenerator 21 für jeden Sensor 9 drei potentiell mögliche Eingangsevents 17 aufweist; Aktivierungs-Eingangsevent, Änderungs-Eingangsevent, und Inaktivierungs- Eingangsevent. Die vorteilhafte Ausführungsform des Triggergenerators 21 wird anhand einer Zustandsmaschine sehr stromsparend dargestellt. Die Zustandsmaschine weist pro Sensor 9 in diesem Beispiel lediglich zwei Zustände auf: Aktiv und Inaktiv, und diese werden abhängig davon angenommen, ob eine Benutzerinteraktion vorhanden ist; wenn eine Benutzerinteraktion erfasst wird, liegt ein Aktivzustand vor; beziehungsweise wenn keine Benutzerinteraktion vorhanden ist, dann wird der Inaktivzustand angenommen. Das Benutzereingabesignal 2 für einen Sensor 9 wird demnächst als x[t] benannt, wobei t dem Zeitpunkt eines Samplewertes des Benutzereingangssignals 2 entspricht. Diese vorteilhafte Ausführung verwendet pro Sensor eine Variable X (siehe Fig. 6), die durch die Zustandsmaschine veränderbar ist. Durch den Benutzer festlegbare Zuordnungskriterien sind in diesem Beispiel benannt TE, TD und TM, welche folgende Bedeutung besitzen: An advantageous embodiment of the trigger generator 21 according to the invention follows, the trigger generator 21 having three potentially possible input events 17 for each sensor 9; Activation Entry Event, Change Entry Event, and Inactivation Entry Event. The advantageous embodiment of the trigger generator 21 is illustrated using a state machine in a very energy-saving manner. In this example, the state machine has only two states per sensor 9: active and inactive, and these are assumed depending on whether there is a user interaction; if a user interaction is detected, an active state exists; or if there is no user interaction, then the inactive state is assumed. The User input signal 2 for a sensor 9 will shortly be denoted as x[t], where t corresponds to the time of a sample value of the user input signal 2 . This advantageous embodiment uses a variable X per sensor (see FIG. 6), which can be changed by the state machine. Assignment criteria that can be defined by the user are named TE, TD and TM in this example, which have the following meaning:
• TE ist ein Grenzwert, der sobald x[t] > TE vorliegt, dazu führt, dass die Zustandsmaschine vom Inaktivzustand in den Aktivzustand wechselt. Gleichfalls sobald x[t] < TE wechselt die Zustandsmaschine vom Aktivzustand in Inaktivzustand. Sobald die Zustandsmaschine vom Inaktivzustand in Aktivzustand wechselt, wird den Aktivierungs-Eingangsevent aktiviert und sobald die Zustandsmaschine vom Aktivzustand in den Inaktivzustand wechselt, wird den Inaktivierungs-Eingangsevent aktiviert, wobei in beide Fälle wird den Variabel X = x[t] zugewiesen um den Signalsampelwert beim Auslösezeitpunkt jenes Eingangsevents mitzuspeichern. • TE is a limit value which, as soon as x[t] > TE is present, causes the state machine to change from the inactive state to the active state. Likewise, as soon as x[t] < TE, the state machine changes from the active state to the inactive state. As soon as the state machine changes from the inactive state to the active state, the activation input event is activated and as soon as the state machine changes from the active state to the inactive state, the deactivation input event is activated, in both cases the variable X = x[t] is assigned to the signal sample value to be saved at the time of the triggering of that input event.
• TD ist ein weiterer Grenzwert, der ausschließlich in dem Aktivzustand berücksichtigt wird, wobei die Berechnung und Vergleich abs(x[t] - X) > TD ausgeführt wird, um eine Änderung des Benutzereingangssignals in dem Aktivzustand zu detektieren. Die Berechnung abs(x[t] - X) berechnet die Differenzmagntiude zwischen aktuellen Signalsampelwert x[t] und dem Signalsampelwert X vom letztmaligen Auslösezeitpunkt jenes Eingangsevent. Sobald diese Differenzmagnitude den Grenzwert TD überschreitet, wird den Änderungs-Eingangsevent aktiviert und X = x[t] gesetzt. • TD is another limit considered only in the active state, where the calculation and comparison abs(x[t] - X) > TD is performed to detect a change in the user input signal in the active state. The calculation abs(x[t] - X) calculates the difference magnitude between the current signal sample value x[t] and the signal sample value X from the last time the input event was triggered. As soon as this difference magnitude exceeds the limit value TD, the change input event is activated and X=x[t] is set.
• Besonders vorteilhaft ist die Einführung einer W artezeit TW nach der Aktivierung von einem Eingangsevent um durch Messrauschen ev. bedingte Mehrfachaktivierungen eines Eingangsevents zu verhindern. • The introduction of a waiting time TW after the activation of an input event is particularly advantageous in order to prevent multiple activations of an input event possibly caused by measurement noise.
Der Trigger generator laut dieser Ausführungsform bedingt lediglich maximal ein paar Berechnungen und eine Vergleichsoperation pro Signalsampelwert und ist somit äußerst energieeffizient und leicht realisierbar in einem Rechenprozessor. Zudem werden die entsprechend den Sensoren 9 zugeordneten und potentiell aktivierbaren Eingangsevents nur dann in den Aktivmodus geschaltet, sobald das jeweils entsprechende Benutzereingangssignal jene Grenzwerte (TE und TD), die durch den Benutzer festlegbar sind, überschreitet. In einer beispielhaften Ausführung können die Grenzwerte höher gesetzt werden, um dann die Eingangsevents seltener zu aktivieren. Das Erhöhen der Grenzwerte und die dadurch seltener aufgetreten Eingangsevents führt zu einer Reduktion der Abarbeitungsaufwand bei der Abarbeitung von verknüpften "Operationen" zu zusätzlichen Stromeinsparungen führt und auch die erforderliche Bandbreite bei einer späteren Übertragung von den durch die verknüpfte "Operationen" erzeugten digitalen Datenstrom erheblich reduzieren kann. Der Benutzer besitzt somit die Wahl, wie oft und einfach einem Sensor zugeordnete Eingangsevents aktiviert werden sollen, und in weiterer Folge, wie oft verknüpfte Operationen abgearbeitet werden sollen. The trigger generator according to this embodiment only requires a maximum of a few calculations and one comparison operation per signal sample value and is therefore extremely energy-efficient and can be easily implemented in a computer processor. In addition, the input events that are assigned to the sensors 9 and can potentially be activated are only then switched to active mode as soon as the respectively corresponding user input signal exceeds the limits (TE and TD) which are definable by the user. In an exemplary embodiment, the limit values can be set higher in order to then activate the input events less frequently. Increasing the limit values and the input events that occur less frequently as a result leads to a reduction in the processing effort when processing linked "operations" leads to additional power savings and also significantly reduces the bandwidth required for later transmission of the digital data stream generated by the linked "operations". can. The user thus has the choice of how often and simply how often input events assigned to a sensor should be activated, and subsequently how often linked operations should be processed.
Besonders vorteilhaft wird die oben beschriebene Ausführungsform des Triggergenerators realisiert, wenn jeder Sensor individuell festlegbare Zuordnungskriterien und eine individuelle Zustandsmaschine aufweist. The embodiment of the trigger generator described above is implemented particularly advantageously if each sensor has assignment criteria that can be individually defined and an individual state machine.
Gemäß Schritt b) des oben vorgeschlagenen Algorithmus, wird insbesondere vorgeschlagen, dass der Vergleich der Prioritätswerte 19 dergestalt erfolgt, dass jene Verknüpfungen 18, die verknüpften und gleichzeitig aktiven Eingangsevents 17 zugeordnet sind, in hinsichtlich ihrer Latenzsensitivität absteigender Reihenfolge abgearbeitet werden, sodass die Verknüpfung mit der höchsten Latenzsensitivität zuerst abgearbeitet wird. Vorteilhaft können im Falle des Vorliegens der Möglichkeit paralleler Abarbeitung der Verknüpfungen (z.B. durch Multicore- Prozessoren) diese auch parallel abgearbeitet werden. Auch können nachgereihte Verknüpfungen parallel (und damit für sich genommen zeitgleich) abgearbeitet werden. Allerdings soll dabei sichergestellt werden, dass eine Verknüpfung mit höherer Sensitivität jedenfalls nicht nach einer Verknüpfung mit geringerer Sensitivität abgearbeitet wird. According to step b) of the algorithm proposed above, it is proposed in particular that the priority values 19 be compared in such a way that those links 18 that are assigned to linked and simultaneously active input events 17 are processed in descending order with regard to their latency sensitivity, so that the link with with the highest latency sensitivity is processed first. If it is possible to process the links in parallel (e.g. by multi-core processors), they can advantageously also be processed in parallel. Subsequent links can also be processed in parallel (and thus taken at the same time). However, it should be ensured that a link with higher sensitivity is not processed after a link with lower sensitivity.
Vorteilhaft wird gemäß Schritt b) des oben vorgeschlagenen Algorithmus zusätzlich vorgeschlagen, dass jedem Prioritätswert eine Zeitfunktion zugeordnet ist, die dazu eingerichtet ist, Prior itätswerte noch nicht ausgeführter Verknüpfungen von aktiven Eingangsevents 17 zu erhöhen, indem ein zeitliches Integral gebildet aus dem ursprünglichen Prioritätswert über die Zeitdauer bis zur Abarbeitung seiner Verknüpfung gebildet wird, und der aus dieser Integralrechnung resultierende errechnete Wert als zeitlich dynamischer Prioritätswert bei der Berechnung bei der Reihung nach Schritt b) als Prioritätswert herangezogen wird. Der große Vorteil damit ist, dass auch "Operationen" mit einer geringen Latenzsensitivität auch irgendwann angereiht und abgearbeitet werden, solltet sonst immer "Operationen" mit einer höheren Latenzsensitivität vorhanden sein. Advantageously, according to step b) of the algorithm proposed above, it is additionally proposed that each priority value is assigned a time function that is set up to increase priority values of links of active input events 17 that have not yet been executed by forming a time integral from the original priority value over the Duration is formed until the processing of its link, and the calculated value resulting from this integral calculation as a temporally dynamic priority value in the calculation in the ranking according to step b) as a priority value is used. The big advantage of this is that "operations" with a low latency sensitivity are also queued up and processed at some point, should there always be "operations" with a higher latency sensitivity.
Die Erfindung schlägt zudem vorteilhaft vor, dass die Klangerzeugungsoperationen interne Klangerzeugungsoperationen sind und zumindest eine Auswahl aus der folgenden Liste umfassen: The invention also advantageously proposes that the sound generation operations are internal sound generation operations and include at least one selection from the following list:
- Generierung von einem Klangsignal, dessen Tonhöhe und Tonstärke parametrierbar und ansteuerbar sind, - Generation of a sound signal whose pitch and volume can be parameterized and controlled,
- Generierung von einem Klangsignal, dessen Spektrum parametrierbar und ansteuerbar ist, - Generation of a sound signal whose spectrum can be parameterized and controlled,
- Modulation von einem Klangsignal, wobei die Modulationsstärke und Modulations weite parametrierbar und ansteuerbar sind, - Modulation of a sound signal, whereby the modulation strength and modulation width can be parameterized and controlled,
- Filtrierung von einem Klangsignal, wobei Filterparameter wie Filterart, Filterfrequenzen, Filterverstärkung parametrierbar und ansteuerbar sind, - Filtering of a sound signal, with filter parameters such as filter type, filter frequencies, filter gain being parameterizable and controllable,
- Verzögerung von einem Klangsignal, wobei die Verzögerungsdauer parametrierbar und ansteuerbar ist. - Delay of a sound signal, whereby the duration of the delay can be parameterized and controlled.
In anderen Worten ausgedrückt, schlägt die Erfindung vor, dass interne Klangerzeugungsoperationen solche Operationen sind, die üblicherweise bei der Signalgenerierung, Signalmodulierung und Signalfiltrierung Verwendung finden. Interne Klangerzeugungsoperationen können bei der vorliegenden Erfindung entweder digitale Operationen sein oder analoge Operationen sein, die digital ansteuerbar sind. Die Signalgenerierung, wobei die Tonhöhe und Tonstärke ansteuerbar sind, wird vorteilhaft auch in Kombination mit der Ansteuerung von dem Signalspektrum ausgeführt. Der Signalgenerator ist vorteilhaft dann so ausgerichtet, dass er wählbar unterschiedliche Signalarten generieren kann, wobei die Signalarten zumindest Sinussignale, Zägezahnsignale und Rechtecksignale umfassen. In ähnlicher Art und Weise schlägt die Erfindung vorteilhaft vor, dass die Modulationsfunktion sowie die Filtrierung so ausgerichtet sind, dass parametrierbare Merkmale jener Funktionen durch den Benutzer wählbar und ansteuerbar sind. Bei der Modulationsfunktion lassen sich die Modulationsstärke und Modulationsweite ansteuern beziehungsweise das als Modulationssignalquelle verwendbare Signal ist vorteilhaft per Ansteuerung dynamisch verknüpfbar. Bei der Filtrierung sind insbesondere zumindest die Filterart (z.B. Tiefpass, Bandpass, Bandsperr, Hochpass), jene Grenzfrequenzen, die bei der aktuellen Filter art zur Verwendung kommen, sowie auch die Filterverstärkung parametrierbar und ansteuerbar. Da die Konfiguration von den internen Klangerzeugungsoperationen durch den Benutzer wählbar und in einem Konfigurationsdatei 7 ablegbar und wieder aufrufbar ist, lässt die Erfindung eine besonders vorteilhafte dynamische Systemkonfiguration zu. In other words, the invention proposes that internal sound generation operations are operations commonly used in signal generation, signal modulation and signal filtration. Internal tone generation operations in the present invention can either be digital operations or analog operations that can be controlled digitally. The signal generation, in which the pitch and tone strength can be controlled, is advantageously also carried out in combination with the control of the signal spectrum. The signal generator is then advantageously aligned in such a way that it can selectably generate different signal types, the signal types comprising at least sinusoidal signals, sawtooth signals and square-wave signals. In a similar way, the invention advantageously proposes that the modulation function and the filtering be aligned in such a way that parameterizable features of those functions can be selected and controlled by the user are. In the modulation function, the modulation strength and modulation width can be controlled, or the signal that can be used as the modulation signal source can advantageously be linked dynamically by control. In the case of filtration, at least the filter type (e.g. low-pass, band-pass, band-stop, high-pass), those cut-off frequencies that are used in the current filter type, and the filter gain can be parameterized and controlled. Since the configuration of the internal sound generation operations can be selected by the user and can be stored in a configuration file 7 and called up again, the invention permits a particularly advantageous dynamic system configuration.
Die Erfindung schlägt vorteilhaft vor, dass die Klangerzeugungsoperationen extern zuführbare Klangerzeugungsoperationen umfassen, wobei diese externen zuführbaren Klangerzeugungsoperationen zumindest eine Auswahl aus der folgenden Liste umfassen: The invention advantageously proposes that the sound generation operations comprise externally suppliable sound generation operations, these externally suppliable sound generation operations comprising at least one selection from the following list:
- Wandlung von dem Signalwert, der durch die Sensoren erfassten Benutzereingabesignale, in einen Signalwert, der zur späteren Wandlung in ein Akustiksignal und/oder eines Steuersignals zur Steuerung eines Akustiksignals zulässigen Werteraumes und/oder in ein für die weitere Datenübertragung etwaig erforderliches Protokollformat, - Conversion of the signal value of the user input signals detected by the sensors into a signal value that is permissible for later conversion into an acoustic signal and/or a control signal for controlling an acoustic signal and/or into a protocol format that may be required for further data transmission,
- arithmetische und kombinatorische Verarbeitung von aktuellen und vorherigen Signalen, die durch die Sensoren erfassten Benutzereingabesignale erfasst sind, die in der Lage sind ein abgewandeltes Signal zu erzeugen, das zur späteren Wandlung in ein Akustiksignal und/ oder eines Steuersignals zur Steuerung eines Akustiksignals verwendbar ist. - arithmetic and combinatorial processing of current and previous signals detected by the user input signals detected by the sensors capable of generating a modified signal usable for later conversion into an acoustic signal and/or a control signal for controlling an acoustic signal.
In anderen Worten aus gedrückt, schlägt die Erfindung vorteilhaft vor, dass externe Klangerzeugungsoperationen solche Operationen und/oder arithmetische und kombinatorische Verarbeitungen sind, die die durch die Sensoren erfassten Signalwerte verarbeiten und umwandeln, sodass diese verarbeiteten und gewandelten Signalwerte für eine weitere Verwendung dementsprechend verwendbar sind. Die weitere Verwendung kann beispielsweise entweder eine direkte Wandlung in ein Akustiksignal und/oder eine Wandlung in ein Steuersignal zur Steuerung eines Akustiksignals und/ oder Wandlung in ein für die weitere Datenübertragung etwaig erforderliches Protokollformat sein. Da die Konfiguration von den externen Klangerzeugungsoperationen durch den Benutzer wählbar und in einer Konfigurationsdatei 7 ablegbar und wieder aufrufbar ist, lässt die Erfindung auch in diesem Fall eine besonders vorteilhafte dynamische Systemkonfiguration zu. In other words, the invention advantageously proposes that external sound generation operations are operations and/or arithmetic and combinatorial processing that process and convert the signal values detected by the sensors, so that these processed and converted signal values can be used accordingly for further use . The further use can be, for example, either direct conversion into an acoustic signal and/or conversion into a control signal for controlling an acoustic signal and/or conversion into a protocol format that may be required for further data transmission. Since the configuration of the external sound generation operations can be selected by the user and can be stored in a configuration file 7 and called up again, the invention also allows a particularly advantageous dynamic system configuration in this case.
Die Verarbeitungsoperationen können zumindest eine Auswahl aus der folgenden Liste umfassen: The processing operations can include at least one selection from the following list:
- eine Zustandsmaschine, die in der Lage ist, anhand aktueller Signalwerte, die durch die Sensoren erfassten Benutzereingabesignale erfasst sind, und/oder der interne Zustand der Zustandsmaschine und/ oder andere Werte von dem Verarbeitungsspeicher 13 den Zustand der Zustandsmaschine zu verändern, wobei jeder Zustand der Zustandsmaschine in der Lage ist, wählbare Klangerzeugungs- und/ oder Verarbeitungsoperationen auszuführen. - a state machine capable of changing the state of the state machine based on current signal values, the user input signals detected by the sensors, and/or the internal state of the state machine and/or other values from the processing memory 13, each state the state machine is capable of performing selectable sound generation and/or processing operations.
- eine Eventgenerierung, die in der Lage ist, ein wählbares Eingangsevent zwangsmäßig auszulösen und dieses Eingangsevent damit zu emulieren, um die zu dem emulierten Eingangsevent verbundene Zuordnung zu Klangerzeugungs- und Verarbeitungsoperation in der vorbestimmten Priorisierungsliste abzuarbeiten. - An event generation that is able to trigger a selectable input event forcibly and to emulate this input event therewith in order to process the assignment to the emulated input event to sound generation and processing operations in the predetermined prioritization list.
Mit anderen Worten ausgedrückt, sind Verarbeitungsoperationen beispielsweise solche Operationen, die interne Zustände beeinflussen und Events generieren können. Es ist nicht zwangsmässig notwendig, dass die Verarbeitungsoperationen Signalwerte direkt in ein Akustiksignal und/oder Steuersignal wandeln, sondern das passiert eher in den von den Verarbeitungsoperationen verknüpften und somit ausgeführten Klangerzeugungsoperationen. In other words, processing operations are, for example, operations that can influence internal states and generate events. It is not absolutely necessary for the processing operations to convert signal values directly into an acoustic signal and/or control signal, rather this happens in the sound generation operations linked by the processing operations and thus executed.
Da die Konfiguration von den Verarbeitungsoperationen durch den Benutzer wählbar und in einem Konfigurationsdatei 7 ablegbar und wieder aufrufbar sind, lässt die Erfindung auch in diesem Fall eine besonders vorteilhafte dynamische Systemkonfiguration zu. Since the configuration of the processing operations can be selected by the user and can be stored in a configuration file 7 and called up again, the invention also allows a particularly advantageous dynamic system configuration in this case.
Die durch die Erfindung ermöglichte Aufteilung in interne Klangerzeugungsoperationen, externe Klangerzeugungsoperationen und in Verarbeitungsoperationen hat den Vorteil, dass der Benutzer eine besondere Klarheit bekommt welche Operationen verfügbar sind und auch eine besondere Übersicht in den damit verbundenen Konfigurationsmöglichkeiten hinsichtlich der wählbaren Operationen. The division into internal sound generation operations, external sound generation operations and processing operations made possible by the invention has the advantage that the user gets a particular clarity as to which operations are available and also a special overview of the associated configuration options with regard to the selectable operations.
Erfindungsgemäß wird vor schlagen, dass das Audiogerät 1 zumindest einen Tastsensoren für das Erfassen von manuellen an dem Audiogerät 1 durch Berührung/ Drücken des Tastsensors durchgeführten Benutzerinteraktionen 3 aufweist und das Audiogerät 1 zumindest einen Lagesensor für das Erfassen von an dem Audiogerät 1 durch Bewegung und/ oder Richtungsund/ oder Lageänderung des Lagesensors durchgeführten Benutzerinteraktionen 3 aufweist. According to the invention, it is proposed that the audio device 1 has at least one touch sensor for detecting manual user interactions 3 carried out on the audio device 1 by touching/pressing the touch sensor and the audio device 1 at least one position sensor for detecting on the audio device 1 through movement and/or or direction and/or change in position of the position sensor.
Erfindungsgemäß werden Benutzereingabesignale 2 aus den von den Sensoren erfassten Benutzerinteraktionen 3 bereitgestellt. Die Benutzereingabesignale 2 beziehungsweise deren Signalwerte können durch den Benutzer wählbar als Steuersignale 6 für die oben benanntnen Auflistung von sowohl internen und externen Klangerzeugungsoperationen als auch Verarbeitungsoperation 15 verwendet werden. Der Benutzer hat daher die Wahl und Möglichkeit die Benutzereingabesignale zu den Operationen durch Konfigurationsablage in dem Konfigurationsdatei 7 zu verknüpfen. Durch die abgelagerte Konfiguration erstellt der Benutzer eine Verknüpfung zwischen Benutzereingabesignalen 2 und den ausgewählten ausführenden Operationen dar. Diese durch den Benutzer wählbare Konfiguration bildet einen grossen Vorteil der Erfindung aus, da neue und vorher überhaupt nicht darstellbare Verknüpfungen zwischen Benutzerinteraktionen und Ausführungen nun möglich sind. Beispiele solcher, durch die Erfindung vorteilhafte Verknüpfungen der benutzererstellten Konfiguration werden nachfolgend gegeben: According to the invention, user input signals 2 are provided from the user interactions 3 detected by the sensors. The user input signals 2 or their signal values can be used by the user as control signals 6 for the above-mentioned listing of both internal and external sound generation operations as well as processing operations 15 . The user therefore has the choice and possibility of linking the user input signals to the operations by storing the configuration in the configuration file 7 . Through the stored configuration, the user creates a link between user input signals 2 and the selected executing operations. This configuration, which can be selected by the user, forms a major advantage of the invention, since new links between user interactions and executions that could not be represented before are now possible. Examples of such links of the user-created configuration that are advantageous due to the invention are given below:
- Die Fingerdruckkraft des Benutzers wird von einem Kraftsensor erfasst und mit dem Klangstärkeparameter eines Signalgenerators verknüpft. Die Verknüpfung wird so konfiguriert und das erfasste Druckkraftsignal so verarbeitet und gewandelt, dass die Klangstärke des aus dem Signalgenerator generierten Akustiksignal eine Funktion der Druckkraft ausbildet wobei eine steigende Fingerdruckkraft zu einer steigenden Klangstärke dargestellt wird. - The user's finger pressure force is recorded by a force sensor and linked to the sound strength parameter of a signal generator. The link is configured and the recorded pressure force signal is processed and converted in such a way that the sound strength of the acoustic signal generated by the signal generator forms a function of the pressure force, with an increasing finger pressure force being represented as an increasing sound strength.
- Die Vertikallage des Audiogerätes 1 wird von einem Lagesensor erfasst und mit der Tonhöheparameter eines Signalgenerators verknüpft. Die Verknüpfung wird so konfiguriert und das erfasste Vertikallagesignal so verarbeitet und gewandelt, dass die Tonhöhe des aus dem Signalgenerator generierten Akustiksignal eine Funktion der Ausrichtung in Bezug zur Vertikallage ausbildet. - The vertical position of the audio device 1 is detected by a position sensor and linked to the pitch parameters of a signal generator. The link is configured and the recorded vertical position signal is processed and converted in such a way that the pitch of the the acoustic signal generated by the signal generator forms a function of the orientation in relation to the vertical position.
Fig. 7 zeigt eine vorteilhafte Ausführungsform eines Kraftsensors für die Erfassung von der Fingerdruckkraft des Benutzers, wobei ein sogenannter Force Sensing Resistor (FSR) Druckkraftsensor verwendet wird, um die ausgeübte Fingerdruckkraft durch einen dazu korrelierenden elektrischen Wider standswert zu erfassen, wobei der erfassten Wider stands wert wiederum in ein Benutzereingabesignal (2) gewandelt wird. In Fig. 7 wird ein Querschnittsbild des Audiogeräts 1 gezeigt, wobei der Benutzer eine Fingerdruckkraft F7a auf einem Silikondruckknopf F7b ausübt. Der Silikonddruckknopf F7b ragt aus einer Aussparung der oberen Hälfte des Gehäuses 8 aus und verteilt die ausgeübte Fingerdruckkraft F7a auf dem darunterliegenden FSR-Druckkraftsensor F7d. Die ausgeübte Fingerdruckkraft F7a sowie die durch den Silikondurchknopf F7b auf dem FSR Druckkraftsensor F7d verteilte Fingerdruckkraft F7a ist in Fig. 7 durch Pfeile illustriert. Der FSR-Druckkraftsensor F7d ist auf einer darunterliegenden Leiterplatte F7e befestigt, die zwischen der oberen Gehäusehälfte F7c und der unteren Gehäusehälfte F7f platziert ist. Fig. 7 shows an advantageous embodiment of a force sensor for detecting the finger pressure force of the user, a so-called Force Sensing Resistor (FSR) pressure force sensor being used to detect the finger pressure force exerted by a correlating electrical resistance value, the detected resistance being value is in turn converted into a user input signal (2). In Fig. 7, a cross-sectional image of the audio device 1 is shown, with the user exerting a finger pressure force F7a on a silicone button F7b. The silicone push button F7b protrudes from a recess in the upper half of the housing 8 and distributes the exerted finger pressure force F7a on the underlying FSR pressure force sensor F7d. The applied finger pressure force F7a as well as the finger pressure force F7a distributed through the silicone button F7b on the FSR pressure force sensor F7d is illustrated in FIG. 7 by arrows. The FSR compression force sensor F7d is mounted on an underlying circuit board F7e, which is placed between the upper case half F7c and the lower case half F7f.
Fig. 8 zeigt einen in dem Audiogerät 1 befindlichen Lagesensor, wobei der Lagesensor in diesem Fall die hier benanntnen Winkel Fx, Fy und Fz um das für das Audiogerät 1 lokal aus gerichtete kartesisches Koordinatensystem erfasst. In anderen Worten aus gedrückt entsprechen Fx, Fy und Fz dem Roll-, Nick- und Gier-Winkel des Audiogerätes 1. Die aus diesen Winkeln gebildeten Benutzereingabesignale 2 können durch den Benutzer vorteilhaft wie oben geschildert als Steuersignale 6 für die oben benannten Auflistung von internen und externen Klangerzeugungsoperationen als auch Verarbeitungsoperation 15 konfigurierbar verwendet werden. 8 shows a position sensor located in the audio device 1, the position sensor in this case detecting the angles Fx, Fy and Fz mentioned here about the Cartesian coordinate system that is locally aligned for the audio device 1. In other words, Fx, Fy and Fz correspond to the roll, pitch and yaw angles of the audio device 1. The user input signals 2 formed from these angles can advantageously be used by the user as described above as control signals 6 for the above-mentioned listing of internal and external sound generation operations as well as processing operation 15 can be used configurably.
Vorteilhaftweise können auch andere als die oben auf gelistete Sensoren verwendet werden, und zwar solche Sensoren, die in der Lage sind, Benutzerinteraktionen 3 zu erfassen und in Benutzereingabesignale 2 zu wandeln, wobei die erfassten Benutzereingabesignale 2 in den internen und/oder externen Klangerzeugungsoperationen und/oder die Verarbeitungsoperationen 15 durch das Konfigurationsdatei 7 wählbar verknüpfbar und verwendbar sind. Ein Audiogerät 1 der Erfindung entsprechend kann auch folgende Sensorarten vorteilhaft verwenden: - Joysticksensor zur Erfassung von Joysticklage wobei die X/Y-Joystickausrichtungen als Benutzereingabesignale 2 verwendbar sind, Advantageously, sensors other than those listed above can also be used, namely sensors that are able to detect user interactions 3 and convert them into user input signals 2, the detected user input signals 2 being used in the internal and/or external sound generation operations and/or or the processing operations 15 can be selectively linked and used by the configuration file 7 . An audio device 1 according to the invention can also advantageously use the following types of sensors: - Joystick sensor for detecting joystick position, whereby the X/Y joystick orientations can be used as user input signals 2,
- Radarsensor zur Erfassung von Handbewegungen in der unmittelbaren nähe des Audiogerätes 1 wobei die erfassten Handposition als Benutzereingabesignal 2 verwendbar ist. - Radar sensor for detecting hand movements in the immediate vicinity of the audio device 1, where the detected hand position can be used as a user input signal 2.
Insbesondere weist das Audiogerät 1 zudem eine Datenübertragungsschnittstelle zur kabellosen Übertragung des Datenstromes an externe Geräte, insbesondere eine Bluetooth Schnittstelle auf. In particular, the audio device 1 also has a data transmission interface for wireless transmission of the data stream to external devices, in particular a Bluetooth interface.
Durch die Datenübertragungsschnittstelle kann der Benutzer anhand entsprechender Konfiguration in dem Konfigurationsdatei 7, erfassten Benutzereingabesignale 2 mit externen Instrumenten und Ausrüstung verknüpfen und Daten versenden. Dadurch kann das Audiogerät 1 als eine Art Fernsteuerung verwendet werden, wobei die Benutzereingabesignale 2 entsprechend gewandelt und dann übertragen werden um in den externen Instrumente und Ausrüstung in Klangsignale und/oder Steuersignale weiter umgewandelt werden. Through the data transmission interface, the user can link detected user input signals 2 to external instruments and equipment based on the appropriate configuration in the configuration file 7 and send data. Thereby the audio device 1 can be used as a kind of remote control, whereby the user input signals 2 are converted accordingly and then transmitted to be further converted into sound signals and/or control signals in the external instruments and equipment.
Fig. 9 zeigt eine vorteilhafte Ausführungsform von der besagten Datenübertragungsschnittstelle, wobei in diesem Fall eine bidirektionale Datenverbindung F9b zwischen dem Audiogerät 1 und einem externen Gerät F9a aufgesetzt wird, um Steuersignale zwischen den Geräten auszutauschen. 9 shows an advantageous embodiment of said data transmission interface, in which case a bidirectional data connection F9b is set up between the audio device 1 and an external device F9a in order to exchange control signals between the devices.
Das Audiogerät 1 weist vorteilhaft zumindest eine Ausgabeeinheit 23 auf, wobei die Ausgabeeinheit 23 in der Eage ist, zumindest eines der Signale, das von der Signalerzeugungsund Verarbeitungsfunktionen erzeugt wird, in ein optisches oder akustisches oder mechanisches Feedbacksignal zu wandeln und dieses Feedbacksignal als Feedbackfunktionen an den Benutzer zu übermitteln. The audio device 1 advantageously has at least one output unit 23, with the output unit 23 being able to convert at least one of the signals generated by the signal generation and processing functions into an optical or acoustic or mechanical feedback signal and to send this feedback signal as feedback functions to the submit user.
Insbesondere weist das Audiogerät 1 zumindest einen Eautsprecher und zumindest einen Eichtquelle auf, wobei zumindest eines der Feedbacksignale zu dem Eautsprecher geleitet wird und der Lautsprecher das an ihm geleitete Feedbacksignal als akustischen Wiedergabe einer Feedbackfunktion darstellt, wobei zumindest eines der Feedbacksignale zu der Lichtquelle geleitet wird und die Lichtquelle das an ihr geleitete Feedbacksignal als optische Wiedergabe einer Feedbackfunktion darstellt. In particular, the audio device 1 has at least one speaker and at least one calibration source, with at least one of the feedback signals being routed to the speaker and the speaker representing the feedback signal routed to it as an acoustic reproduction of a feedback function, with at least one of the feedback signals being routed to the Light source is passed and the light source represents the feedback signal passed to her as an optical representation of a feedback function.
Fig. 10 zeigt eine vorteilhafte Ausführungsform einer für die besagten Feedbackfunktion verwendbaren Lichtquelle, wobei es hier vorteilhaft vorgeschlagen wird, dass die Lichtquelle in dem Fingerdruckkraftsensor entsprechend Fig. 7 integriert ist. Ähnlich wie im Fig. 7 wird in Fig. 10 ein Queerschnittsbild des Audiogeräts 1 gezeigt, wobei einer semitransparente Silikonddruckknopf FlOa aus einer Aussparung der oberen Gehäusehälfte FlOb ragt. Unter dem Silikonddruckknopf FlOa befindet sich den Fingerdruckkraftsensor FlOd und in einer Aussparung in der Mitte von der Fingerdruckkraftsensor FlOd befindet sich die Lichtquelle FlOc. Die Lichtquelle FlOc sowie die Fingerdruckkraftsensor FlOd sind auf einer Leiterplatte FlOe befestigt, die zwischen der oberen Gehäusehälfte FlOb und unteren Gehäusehälfte FlOf platziert ist. Wenn die Lichtquelle FlOc aktiviert wird, strahlt diese Licht durch den semitransparente Silikonddruckknopf FlOa aus, wodurch die besagte Feedbackfunktion ausgebildet wird. Wenn das Audiogerät 1 von dem Benutzer so konfiguriert wird, dass die Leuchtstärke der Lichtquelle FlOc mit der auf dem Fingerdruckkraftsensor FlOd von dem Benutzer ausgeübten Fingerdruckkraft korreliert, bildet das eine besonders effektive und vorteilhafte Feedbackfunktion, die in der vorliegenden Erfindung verwendet werden kann. Besonders stark wird der Effekt der Feedbackfunktion 1, wenn die Lichtquelle in einer derartigen Ausführungsform in der Lage ist, unterschiedliche Farbtöne auszustrahlen. Beispielsweise kann die ausgestrahlte Farbtöne Grün-Orange-Rot sowie deren Mischfarben mit der Fingerdruckkraft korrelieren. FIG. 10 shows an advantageous embodiment of a light source that can be used for said feedback function, it being advantageously proposed here that the light source is integrated in the finger pressure force sensor according to FIG. Similar to FIG. 7, FIG. 10 shows a cross-sectional image of the audio device 1, with a semi-transparent silicone pushbutton F10a protruding from a recess in the upper housing half F10b. The finger pressure force sensor FlOd is located under the silicone button FlOa and the light source FlOc is located in a recess in the middle of the finger pressure force sensor FlOd. The light source FlOc and the finger pressure force sensor FlOd are attached to a printed circuit board FlOe, which is placed between the upper housing half FlOb and the lower housing half FlOf. When the light source FlOc is activated, it emits light through the semi-transparent silicone push button FlOa, as a result of which said feedback function is formed. If the audio device 1 is configured by the user in such a way that the luminosity of the light source FlOc correlates with the finger pressure force exerted by the user on the finger pressure force sensor FlOd, this forms a particularly effective and advantageous feedback function which can be used in the present invention. The effect of the feedback function 1 becomes particularly strong when the light source in such an embodiment is able to emit different color tones. For example, the green-orange-red color tones emitted and their mixed colors can correlate with the force of the finger pressure.
Fig. 11 zeigt eine Draufsicht des Audiogerätes 1, wobei die Lichtquelle unterhalb des semitransparenten Silikonddruckknopf s Fila sich befindet und beim Aktivieren strahlt die Lichtquelle durch die semitransparenten Silikonddruckknopfs Fila. Fig. 11 shows a top view of the audio device 1, the light source being located below the semi-transparent silicone button Fila and when activated, the light source radiates through the semi-transparent silicone button Fila.
Fig. 12 zeigt eine Draufsicht des Audiogerätes 1, wobei ein Lautsprecher in dem Gehäuse 8 integriert ist und durch Gehäuseaussparungen F12a akustische Signale ausstrahlt. FIG. 12 shows a top view of the audio device 1, a loudspeaker being integrated in the housing 8 and emitting acoustic signals through the housing recesses F12a.
Die Feedbackfunktion lässt den Benutzer die Möglichkeit ausgewählte Zustände und Funktionen des Audiogeräts 1 als Feedbackinformation zurückzuleiten. Diese Feedbackfunktion wird vorteilhaft auch durch die Konfigurationsdatei 7 verknüpft und entsprechend konfiguriert. Der Benutzer hat somit die Wahl, welche Feedbackfunktionen in einer Konfiguration aktiv sein sollen, und für welche Zustände beziehungsweise welche Benutzereingabesignale sie aktiviert werden sollen. The feedback function allows the user to return selected states and functions of the audio device 1 as feedback information. This feedback function is advantageously also linked by the configuration file 7 and configured accordingly. The user thus has the choice of which feedback functions in should be active in a configuration and for which states or which user input signals they should be activated.
Die Erfindung ist nicht auf die gezeigten Ausführungsformen beschränkt, sondern durch den gesamten Schutzumfang der Ansprüche definiert. Auch können einzelne Aspekte der Erfindung bzw. der Ausführungsformen aufgegriffen und miteinander kombiniert werden. Etwaige Bezugszeichen in den Ansprüchen sind beispielhaft und dienen nur der einfacheren Lesbarkeit der Ansprüche, ohne diese einzuschränken. The invention is not limited to the embodiments shown but is defined by the full scope of the claims. Individual aspects of the invention or the embodiments can also be taken up and combined with one another. Any reference signs in the claims are exemplary and only serve to make the claims easier to read, without limiting them.

Claims

25 PATENTANSPRÜCHE 25 CLAIMS
1. Tragbares digitales Audiogerät (1) zur Wandlung von als Benutzereingabesignal/ e (2) erfassbaren Benutzerinteraktionen (3) in einen digitalen Datenstrom (4) zur späteren Wandlung in ein Akustiksignal (5) und/oder ein Steuersignal (6) zur Steuerung eines Akustiksignals (5), wobei das Audiogerät (1) dazu eingerichtet ist, die Wandlung unter Berücksichtigung gemäß einer Konfigurationsdatei (7) konfigurierbaren Vorgaben durchzuführen, wobei das Audiogerät (1) Folgendes umfasst: 1. Portable digital audio device (1) for converting user interactions (3) that can be detected as user input signal(s) (2) into a digital data stream (4) for later conversion into an acoustic signal (5) and/or a control signal (6) for controlling a Acoustic signal (5), wherein the audio device (1) is set up to carry out the conversion taking into account specifications that can be configured in accordance with a configuration file (7), the audio device (1) comprising the following:
- ein Gehäuse (8), - a housing (8),
- eine Anzahl von in oder an dem Gehäuse (8) angeordneten Sensoren (9), wobei - A number of sensors (9) arranged in or on the housing (8), wherein
*zumindest ein Eingabesensor zur kontinuierlichen Erfassung einer Benutzerinteraktion (3) sowie zur Wandlung der erfassten Benutzerinteraktion (3) in ein Benutzereingabesignal (2) mit einer Auflösung von zumindest 7 Bit vorgesehen ist, * at least one input sensor is provided for continuously detecting a user interaction (3) and for converting the detected user interaction (3) into a user input signal (2) with a resolution of at least 7 bits,
- einen in dem Gehäuse (8) angeordneten ersten internen Datenspeicher (10), der eine Anzahl an vorgespeicherten Klangerzeugungs- und/oder Verarbeitungsoperationen (15) abgespeichert hat, die miteinander verknüpfbar sind, - a first internal data memory (10) arranged in the housing (8) which has stored a number of pre-stored sound generation and/or processing operations (15) which can be linked to one another,
- eine in oder an dem Gehäuse (8) angeordnete Verarbeitungseinheit (11) mit einem Rechenprozessor (12) und einen Verarbeitungsspeicher (13), wobei die Verarbeitungseinheit (11) Zugriff auf den internen Datenspeicher (10) hat, auf welchem eine Eingangseventliste (16) an potentiell möglichen Eingangsevents (17) abgespeichert ist, wobei zu jedem potentiell möglichen Eingangsevent (17) zumindest eine Verknüpfung zu zumindest einer Klangerzeugungs- und/oder Operation (15) durch den Benutzer des Audiogeräts (1) festlegbar ist, wobei jeder Verknüpfung entsprechend einer auf dem Audiogerät (1) abgespeicherten Konfigurationsdatei (7) ein Prioritätswert (19) zugeordnet ist, wobei die Verarbeitungseinheit (11) unter Verwendung des Rechenprozessors (12) dazu eingerichtet ist, einen auf dem Verarbeitungsspeicher (13) abgespeicherten Algorithmus auszuführen, gemäß welchem Algorithmus folgende Schritte ausgeführt werden: a) Abrufen eines vordefinierbaren Trigger generators (21) in Abhängigkeit von der aktuellen Konfigurationsdatei (7), wobei der Trigger generator (21) für jeden Sensor (9) Zuordnungskriterien (22) zur Zuordnung von Eingangsevents (17) zu durch die Sensoren (9) erfassbaren Benutzereingabesignalen (2) aufweist, wobei zur Reduktion des Energieverbrauchs und des Bandbreitenbedarfes des Audiogeräts (1) die Zuordnungskriterien (22) des Trigger generators (21) gemäß Schritt a) Grenzwerte für die durch die Sensoren (9) erfassten Benutzereingabesignale (2) umfassen, sodass nur für jene Signale (2) Eingangsevents (17) in einen aktiven Zustand geschaltet werden, die Grenzwerte überschreiten, b) Vergleich der Prioritätswerte der erfassten Eingangsevents (17), die aktiv sind und denen auch gleichzeitig eine Verknüpfung zu einer Klangerzeugungs- und/oder Verarbeitungsoperation (15) zugeordnet ist, und Festlegen der Reihenfolge, in der die verknüpfte und gleichzeitig aktive Eingangsevents (17) zugeordneten Klangerzeugungsund/ oder Verarbeitungsoperation abgearbeitet werden sollen entsprechend Höhe der Prioritätswerte, c) und Ausführen der den verknüpften und gleichzeitig aktiven Eingangsevents (17) zugeordneten Klangerzeugungs- und/ oder Verarbeitungsoperationen (15) in der gemäß dem vorhergehenden Schritt b) festgelegten Reihenfolge zur Erzeugung eines digitalen Datenstroms (4) zur späteren Wandlung in ein Akustiksignal (5) und/oder eines Steuersignals (6) zur Steuerung eines Akustiksignals (5), - a processing unit (11) arranged in or on the housing (8) with a processor (12) and a processing memory (13), wherein the processing unit (11) has access to the internal data memory (10), on which an input event list (16th ) of potentially possible input events (17) is stored, it being possible for the user of the audio device (1) to define at least one link to at least one sound generation and/or operation (15) for each potentially possible input event (17), with each link corresponding a configuration file (7) stored on the audio device (1) is assigned a priority value (19), the processing unit (11) being set up using the processor (12) to execute an algorithm stored on the processing memory (13), according to which Algorithm to perform the following steps: a) Calling up a predefinable trigger generator (21) depending on the current configuration file (7), the trigger generator (21) for each sensor (9) assignment criteria (22) for assigning input events (17) to the sensors (9 ) detectable user input signals (2), wherein to reduce the energy consumption and the bandwidth requirement of the audio device (1), the assignment criteria (22) of the trigger generator (21) according to step a) limit values for the sensors (9) detected user input signals (2) include, so that only for those signals (2) input events (17) are switched to an active state that exceed limit values, b) comparison of the priority values of the recorded input events (17) that are active and which are also linked to a sound generation and/or processing operation (15), and determining the order in which the linked and simultaneously active input events (17) assigned sound generation and/or processing operations are to be processed according to the priority values, c) and executing the linked and simultaneously active input events (17) associated sound generation and/or processing operations (15) in the order specified according to the previous step b) to generate a digital data stream (4) for later conversion into an acoustic signal (5) and/or a control signal (6) for control an acoustic signal (5),
- wobei das Audiogerät (1) ferner eine Energiequelle (14) zur elektrischen Versorgung der Anzahl von Sensoren (9), des internen Datenspeichers (10) sowie der Verarbeitungseinheit (11) umfasst. - Wherein the audio device (1) further comprises an energy source (14) for the electrical supply of the number of sensors (9), the internal data memory (10) and the processing unit (11).
2. Audiogerät (1) nach Anspruch 1, wobei die Prioritätswerte (19) mit der Latenzsensitivität der durch die Verknüpfung (18) zugeordneten Klangerzeugungs- oder Verarbeitungsoperation (15) korrelieren. 2. Audio device (1) according to claim 1, wherein the priority values (19) correlate with the latency sensitivity of the sound generation or processing operation (15) assigned by the link (18).
3. Audiogerät (1) nach Anspruch 2, wobei der Vergleich der Prioritätswerte (19) dergestalt erfolgt, dass jene Verknüpfungen (18), die verknüpften und gleichzeitig aktiven Eingangsevents (17) zugeordnet sind, in hinsichtlich ihrer Latenzsensitivität absteigender Reihenfolge abgearbeitet werden, sodass die Verknüpfung (18) mit der höchsten Latenzsensitivität zuerst abgearbeitet wird. 3. Audio device (1) according to claim 2, wherein the priority values (19) are compared in such a way that those links (18) which are linked and active at the same time Input events (17) are assigned, are processed in terms of their latency sensitivity in descending order, so that the link (18) with the highest latency sensitivity is processed first.
4. Audiogerät (1) nach einem der vorhergehenden Ansprüche, wobei jedem Prioritätswert (19) eine Zeitfunktion zugeordnet ist, die dazu eingerichtet ist, Prioritätswerte noch nicht ausgeführter Verknüpfungen (18) von aktiven Eingangsevents (17) zu erhöhen, indem ein zeitliches Integral gebildet aus dem ursprünglichen Prioritätswert über die Zeitdauer bis zur Abarbeitung seiner Verknüpfung gebildet wird, und der aus dieser Integralrechnung resultierende errechnete Wert als zeitlich dynamischer Prioritätswert bei der Berechnung bei der Reihung nach Schritt b) als Prioritätswert herangezogen wird. 4. Audio device (1) according to one of the preceding claims, wherein each priority value (19) is assigned a time function which is set up to increase priority values of links (18) of active input events (17) that have not yet been executed by forming a time integral is formed from the original priority value over the period of time until its linkage is processed, and the value calculated resulting from this integral calculation is used as a time-dynamic priority value in the calculation in the ranking according to step b) as a priority value.
5. Audiogerät (1) nach einem der vorhergehenden Ansprüche, wobei die Klangerzeugungsoperationen (15) interne Klangerzeugungsoperationen sind und zumindest eine Auswahl aus der folgenden Liste umfassen: 5. Audio device (1) according to one of the preceding claims, wherein the sound generation operations (15) are internal sound generation operations and comprise at least one selection from the following list:
- Generierung von einem Klangsignal, dessen Tonhöhe und Tonstärke parametrierbar und ansteuerbar sind, - Generation of a sound signal whose pitch and volume can be parameterized and controlled,
- Generierung von einem Klangsignal, dessen Spektrum parametrierbar und ansteuerbar ist, - Generation of a sound signal whose spectrum can be parameterized and controlled,
- Modulation von einem Klangsignal, wobei die Modulationsstärke und Modulations weite parametrierbar und ansteuerbar sind, - Modulation of a sound signal, whereby the modulation strength and modulation width can be parameterized and controlled,
- Filtrierung von einem Klangsignal, wobei Filterparameter wie Filterart, Filterfrequenzen, Filterverstärkung parametrierbar und ansteuerbar sind, - Filtering of a sound signal, with filter parameters such as filter type, filter frequencies, filter gain being parameterizable and controllable,
- Verzögerung von einem Klangsignal, wobei die Verzögerungsdauer parametrierbar und ansteuerbar ist. - Delay of a sound signal, whereby the duration of the delay can be parameterized and controlled.
6. Audiogerät (1) nach einem der vorhergehenden Ansprüche, wobei die Klangerzeugungsoperationen (15) extern zuführbare Klangerzeugungsoperationen umfassen, wobei diese externen zuführbaren Klangerzeugungsoperationen zumindest eine Auswahl aus der folgenden Liste umfassen: 28 6. Audio device (1) according to one of the preceding claims, wherein the sound generation operations (15) comprise externally suppliable sound generation operations, these externally suppliable sound generation operations comprising at least one selection from the following list: 28
-Wandlung von dem Signalwert, der durch die Sensoren (9) erfasste Benutzereingabesignalen, in einer Signalwert, der zur späteren Wandlung in ein Akustiksignal und/oder eines Steuersignals zur Steuerung eines Akustiksignals zulässigen Werteraumes und/ oder in einer für die weitere Datenübertragung erforderlichen Protokollformat, - Conversion of the signal value of the user input signals detected by the sensors (9) into a signal value that is permissible for later conversion into an acoustic signal and/or a control signal for controlling an acoustic signal and/or in a protocol format required for further data transmission,
- arithmetische und kombinatorische Verarbeitung von aktuellen und vorherigen Signale, die durch die Sensoren (9) erfasste Benutzereingabesignalen erfasst sind, die in der Lage ist ein abgewandeltes Signal zu erzeugen, das zur späteren Wandlung in ein Akustiksignal und/ oder eines Steuersignals zur Steuerung eines Akustiksignals verwendbar ist. - arithmetic and combinatorial processing of current and previous signals detected by the sensors (9) detected user input signals, capable of generating a modified signal suitable for subsequent conversion into an acoustic signal and/or a control signal for controlling an acoustic signal is usable.
7. Audiogerät (1) nach einem der vorhergehenden Ansprüche, wobei die Verarbeitungsoperationen (15) zumindest eine Auswahl aus folgender Liste umfassen: 7. Audio device (1) according to one of the preceding claims, wherein the processing operations (15) include at least one selection from the following list:
- eine Zustandsmaschine, die in der Lage ist anhand aktueller Signalwerte, die durch die Sensoren (9) erfasste Benutzereingabesignalen (2) erfasst sind, und/ oder der interne Zustand der Zustandsmaschine und/oder andere Werte von dem Verarbeitungsspeicher (13) den Zustand der Zustandsmaschine zu verändern, wobei jeder Zustand der Zustandsmaschine in der Lage ist wählbare Klangerzeugungs- und/ oder Verarbeitungsoperationen (15) auszuführen. - a state machine, which is capable of reading the state of the modifying the state machine, each state of the state machine being capable of performing selectable sound generation and/or processing operations (15).
- eine Eventgenerierung, die in der Lage ist ein wählbares Eingangsevent zwangsmäßig auszulösen und dieses Eingangsevent damit zu emulieren um die zu dem emulierten Eingangsevent verbundene Zuordnung zu Klangerzeugungs- und Verarbeitungsoperation in der vorbestimmten Priorisierungsliste abzuarbeiten. - An event generation that is able to trigger a selectable input event forcibly and to emulate this input event in order to process the assignment to the emulated input event associated with sound generation and processing operations in the predetermined prioritization list.
8. Audiogerät (1) nach einem der vorhergehenden Ansprüche, wobei das Audiogerät (1) zumindest einen Tastsensor für das Erfassen von manuellen an dem Audiogerät (1) durch Berührung/ Drücken des Tastsensors durchgeführten Benutzerinteraktionen (3) aufweist. 8. Audio device (1) according to one of the preceding claims, wherein the audio device (1) has at least one touch sensor for detecting manual user interactions (3) carried out on the audio device (1) by touching/pressing the touch sensor.
9. Audiogerät (1) nach einem der vorhergehenden Ansprüche, wobei das Audiogerät (1) zumindest einen Lagesensor für das Erfassen von an dem Audiogerät (1) durch Bewegung und/oder Richtungs- und/oder Lageänderung des Lagesensors durchgeführten Benutzerinteraktionen (3) aufweist. 29 9. Audio device (1) according to one of the preceding claims, wherein the audio device (1) has at least one position sensor for detecting user interactions (3) carried out on the audio device (1) by moving and/or changing the direction and/or position of the position sensor . 29
10. Audiogerät (1) nach einem der vorhergehenden Ansprüche, wobei das Audiogerät (1) zudem eine Datenübertragungsschnittstelle zur kabellosen Übertragung des Datenstromes an externe Geräte, insbesondere eine Bluetooth Schnittstelle aufweist. 10. Audio device (1) according to one of the preceding claims, wherein the audio device (1) also has a data transmission interface for wireless transmission of the data stream to external devices, in particular a Bluetooth interface.
11. Audiogerät (1) nach einem der vorhergehenden Ansprüche, wobei das Audiogerät (1) zumindest eine Ausgabeeinheit (23) aufweist, wobei die Ausgabeeinheit (23) in der Lage ist, zumindest eines der Signale, das von der Signalerzeugungs- und Verarbeitungsfunktionen erzeugt wird, in ein optisches oder akustisches oder mechanisches Feedbacksignal zu wandeln und dieses Feedbacksignal als Feedbackfunktionen an den Benutzer zu übermitteln. 11. Audio device (1) according to one of the preceding claims, wherein the audio device (1) has at least one output unit (23), the output unit (23) being able to generate at least one of the signals generated by the signal generation and processing functions is to be converted into an optical, acoustic or mechanical feedback signal and to transmit this feedback signal to the user as feedback functions.
12. Audiogerät (1) nach Anspruch 11, wobei das Audiogerät (1) zumindest einen Lautsprecher und zumindest eine Lichtquelle (FlOc) aufweist, 12. Audio device (1) according to claim 11, wherein the audio device (1) has at least one loudspeaker and at least one light source (FlOc),
- wobei zumindest eines der Feedbacksignale zu dem Lautsprecher geleitet wird und der Lautsprecher das an ihm geleitete Feedbacksignal als akustische Wiedergabe einer Feedbackfunktion darstellt, - wherein at least one of the feedback signals is routed to the loudspeaker and the loudspeaker represents the feedback signal routed to it as an acoustic reproduction of a feedback function,
- wobei zumindest eines der Feedbacksignale zu der Lichtquelle geleitet wird und die Lichtquelle das an ihr geleitete Feedbacksignal als optische Wiedergabe einer Feedbackfunktion darstellt. - wherein at least one of the feedback signals is routed to the light source and the light source represents the feedback signal routed to it as an optical representation of a feedback function.
PCT/AT2022/060372 2021-10-28 2022-10-27 Portable digital audio device for capturing user interactions WO2023070142A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ATA50853/2021A AT525698A1 (en) 2021-10-28 2021-10-28 Portable digital audio device for capturing user interactions
ATA50853/2021 2021-10-28

Publications (1)

Publication Number Publication Date
WO2023070142A1 true WO2023070142A1 (en) 2023-05-04

Family

ID=84364095

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/AT2022/060372 WO2023070142A1 (en) 2021-10-28 2022-10-27 Portable digital audio device for capturing user interactions

Country Status (2)

Country Link
AT (1) AT525698A1 (en)
WO (1) WO2023070142A1 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006133207A2 (en) 2005-06-06 2006-12-14 Source Audio Llc Method of and system for controlling audio effects
US20100022183A1 (en) 2008-07-24 2010-01-28 Line 6, Inc. System and Method for Real-Time Wireless Transmission of Digital Audio Signal and Control Data
WO2012170344A2 (en) 2011-06-07 2012-12-13 University Of Florida Research Foundation, Inc. Modular wireless sensor network for musical instruments and user interfaces for use therewith
US8686276B1 (en) 2009-11-04 2014-04-01 Smule, Inc. System and method for capture and rendering of performance on synthetic musical instrument
US20140214189A1 (en) 2013-01-30 2014-07-31 Inmusic Brands, Inc. Wireless dj controller with accelerometers
US9076419B2 (en) 2012-03-14 2015-07-07 Bebop Sensors, Inc. Multi-touch pad controller
US20160124559A1 (en) 2014-11-05 2016-05-05 Roger Linn Polyphonic Multi-Dimensional Controller with Sensor Having Force-Sensing Potentiometers
US20180137847A1 (en) 2015-02-20 2018-05-17 Christopher E. Borman Digital musical instrument and method for making the same
US20190251937A1 (en) 2018-02-11 2019-08-15 Eric Skyler Mulhern Fingerless Digital Musical Effects Controller Glove
US20200098343A1 (en) 2018-09-22 2020-03-26 BadVR, Inc. Wireless virtual display controller

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6610917B2 (en) * 1998-05-15 2003-08-26 Lester F. Ludwig Activity indication, external source, and processing loop provisions for driven vibrating-element environments
US9779710B2 (en) * 2015-04-17 2017-10-03 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US10339906B2 (en) * 2016-08-02 2019-07-02 Smule, Inc. Musical composition authoring environment integrated with synthetic musical instrument

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006133207A2 (en) 2005-06-06 2006-12-14 Source Audio Llc Method of and system for controlling audio effects
US20100022183A1 (en) 2008-07-24 2010-01-28 Line 6, Inc. System and Method for Real-Time Wireless Transmission of Digital Audio Signal and Control Data
US8686276B1 (en) 2009-11-04 2014-04-01 Smule, Inc. System and method for capture and rendering of performance on synthetic musical instrument
WO2012170344A2 (en) 2011-06-07 2012-12-13 University Of Florida Research Foundation, Inc. Modular wireless sensor network for musical instruments and user interfaces for use therewith
US9076419B2 (en) 2012-03-14 2015-07-07 Bebop Sensors, Inc. Multi-touch pad controller
US20140214189A1 (en) 2013-01-30 2014-07-31 Inmusic Brands, Inc. Wireless dj controller with accelerometers
US20160124559A1 (en) 2014-11-05 2016-05-05 Roger Linn Polyphonic Multi-Dimensional Controller with Sensor Having Force-Sensing Potentiometers
US20180137847A1 (en) 2015-02-20 2018-05-17 Christopher E. Borman Digital musical instrument and method for making the same
US20190251937A1 (en) 2018-02-11 2019-08-15 Eric Skyler Mulhern Fingerless Digital Musical Effects Controller Glove
US20200098343A1 (en) 2018-09-22 2020-03-26 BadVR, Inc. Wireless virtual display controller

Also Published As

Publication number Publication date
AT525698A1 (en) 2023-05-15

Similar Documents

Publication Publication Date Title
DE69709986T2 (en) Virtual notification arrangement for touch screens
EP1853990B1 (en) Input device, input method, corresponding computer program, and corresponding computer-readable storage medium
DE69523645T2 (en) Method and device for controlling non-immanent computer system devices using a graphical user interface
DE60215504T2 (en) Method and apparatus for analyzing gestures of a human, e.g. for controlling a machine by gestures
DE10004372A1 (en) Implementation method for force sensation design interface, includes interface tool which provides user with visual demonstration characterized force sensation associated with sound
US7672468B2 (en) Method for adjusting the transmission characteristic of a hearing aid
AU2005222499B2 (en) Method for adjusting the transmission characteristic of a hearing aid
US20090295739A1 (en) Haptic tactile precision selection
EP3303043B1 (en) Operating device with fast haptic feedback
DE3318667C1 (en) Electronic keyboard musical instrument and method for its operation
DE8590129U1 (en) Music synthesizers, especially a portable drum synthesizer
EP2297726A1 (en) Device and method for generating a note signal from a manual input
DE10225661A1 (en) Operating mode indicator for mouse, has red and green light-emitting diodes positioned at rear and front sides of mouse respectively, to indicate respective operating modes
EP2130109A2 (en) Mobile communication device and input device for the same
EP1513056A2 (en) Three-dimensional integrated touch screen input apparatus
DE102010023613A1 (en) Navigation device and method therefor
DE112018007984T5 (en) SOUND SIGNAL GENERATING DEVICE, KEY INSTRUMENT AND PROGRAM
DE60021142T2 (en) Device for detecting and processing signals to control a device or a process
WO1999007111B1 (en) Method for describing the human interface features and functionality of av/c-based devices
WO2023070142A1 (en) Portable digital audio device for capturing user interactions
EP3074277A1 (en) Vehicle comprising a device and a method for exposing an interior of said vehicle to sound
EP2787501B1 (en) Musical instrument, music system and method for the remote control of a process in the vicinity of a musical instrument
DE102007060007A1 (en) Control device for a domestic appliance, a domestic appliance with an operating device, and a method for operating a domestic appliance
DE102018126231A1 (en) Control module for a field device of automation technology and the same field device
EP1444566A2 (en) Input device, webcam and screen having a voice input function

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22813393

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE