EP4342189B1 - Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern - Google Patents

Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern

Info

Publication number
EP4342189B1
EP4342189B1 EP22729553.2A EP22729553A EP4342189B1 EP 4342189 B1 EP4342189 B1 EP 4342189B1 EP 22729553 A EP22729553 A EP 22729553A EP 4342189 B1 EP4342189 B1 EP 4342189B1
Authority
EP
European Patent Office
Prior art keywords
audio
user
parameters
processing
determination rule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
EP22729553.2A
Other languages
English (en)
French (fr)
Other versions
EP4342189C0 (de
EP4342189A2 (de
Inventor
Peggy Sylopp
Tobias Bruns
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV
Publication of EP4342189A2 publication Critical patent/EP4342189A2/de
Application granted granted Critical
Publication of EP4342189B1 publication Critical patent/EP4342189B1/de
Publication of EP4342189C0 publication Critical patent/EP4342189C0/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • H04R25/507Customised settings for obtaining desired overall acoustical characteristics using digital signal processing implemented by neural network or fuzzy logic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/43Signal processing in hearing aids to enhance the speech intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems

Definitions

  • Embodiments according to the present invention relate to an apparatus and a method for determining audio processing parameters in dependence on at least one audio input signal.
  • Embodiments according to the invention relate to a device and a method with artificial intelligence, for example in a sound reproduction device, which can analyze audio signals and assign or combine them with user-specific settings during user operation.
  • Embodiments further relate to concepts for determining audio processing parameters based on audio signals obtained during user operation.
  • Sound reproduction devices offer specific sound adjustments that are not applied automatically. Sound reproduction devices, such as portable hearing aids such as headphones, headsets, or hearing aids, often only offer volume control and an equalizer for sound adjustment. Sound adjustments, such as increasing the volume or adjusting the higher or lower frequencies, are performed once by the user. It has been recognized that to achieve consistently good audio quality, these settings must be repeated for each subsequent sound reproduction.
  • Hearing aid fittings are generally performed under laboratory conditions, usually with only two speakers and a very limited range of sounds, such as pure tones, noise, and speech.
  • Complex noise situations such as those at intersections, cannot be simulated in a hearing laboratory, thus leading to frustration for hearing aid wearers and unsatisfactory results in everyday use.
  • a system includes a mobile device that communicates with a hearing assistance device or a remote server.
  • the mobile device interprets an acoustic environment and sends information about the environment to a remote server.
  • the remote server determines information and sends it to the mobile device for use in a user interface.
  • the mobile device receives a user selection of hearing assistance parameter information to be sent to the hearing assistance device.
  • a core idea of embodiments of the present invention is to recognize that sound adjustments intuitively performed by users can be implemented in runtime and integrated into the learning system in real time.
  • An embodiment according to the present invention comprises a device for determining audio processing parameters, for example parameters for audio processing, as a function of at least one audio input signal, for example coming from an audio input, wherein the device is designed to determine at least one coefficient of a processing parameter determination rule user-specifically based on audio signals obtained during user operation, and wherein the device is designed to obtain the audio processing parameters using the processing parameter determination rule based on the audio input signal.
  • Coefficients of a processing parameter determination rule can For example, they can be coefficients of a neural network that receives the audio input signal, or input signal parameters extracted therefrom, as input variable and provides the audio processing parameters as output variable.
  • the inventive concept enables, for example, the provision of completely different audio processing parameters in the presence of speech in different acoustic environments where the user is located (e.g., a noisy open-plan office, a private office, a street intersection with numerous trucks, a street intersection with tram traffic, etc.).
  • the provided parameters are then typically oriented towards the settings desired by the user in the respective situations.
  • the invention concept provides, with reasonable effort, audio processing parameters that are adapted to the real life of an individual user and his or her specific preferences.
  • the device is designed to determine a database depending on user parameters set by the user, so that entries in the database describe the user parameters set by the user.
  • the database can be created in real time during user operation, and a prediction model can be determined.
  • the database can be used to determine the coefficients of the processing parameter determination rule by the database containing information about the user parameters.
  • the database can also contain personalized control settings that can be linked to the user parameters.
  • the user parameters set by the user can, for example, replace the audio processing parameters as an output variable, or change the audio processing parameters, so that the entries in the database represent, for example, the user parameters set by the user.
  • the database is accordingly at least partially integrated into reinforcement learning, which, for example, uses the user parameters set by the user.
  • the coefficients of the processing parameter determination rule can, for example, be successively improved or optimized.
  • the user parameters set by the user typically in different acoustic environments
  • determining a database that, for example, becomes increasingly larger with increasing duration of use by the user it can be achieved, for example, that over time an increasingly larger database is available for the (automatic) determination (or improvement) of the coefficients of the processing parameter determination rule, which enables increasing refinement or improvement of the aforementioned coefficients (e.g. based on an increasingly larger database of different listening environments in which the user has been).
  • the user experience can be continually improved by creating and continuously expanding the database.
  • the device is designed to determine a database as a function of the at least one audio input signal, such that entries in the database represent or describe the audio input signal.
  • the database can be used to determine the coefficients of the processing parameter determination rule.
  • personalized control settings such as the user parameters set by the user, are initially stored, which are then expanded with sound information from the auditory environment as an external framework. This makes it possible to create a database that, for example, uses reinforcement learning to provide coefficients for the processing parameter determination rule.
  • the device is designed to determine the database such that the database describes an association between various audio input signals and respective user parameters set by the user.
  • the device can, for example, associate the external framework conditions based on the audio input signal and the personal control settings, for example the user parameters set by the user, with each other.
  • the association can, for example, serve as a basis for the prediction model, which can be modified by further sound adjustments by the user, for example ad hoc, for example by integrating the respective user parameters set by the user with the database (and then, for example, redetermining or improving the coefficients of the processing parameter determination rule).
  • the auditory scene can be continuously recorded, analyzed, and/or evaluated via microphones via the audio input, for example, generating an analysis of the auditory scene based on its dynamics, frequency, and/or spectral properties.
  • the analysis result of the auditory scene can, for example, be integrated into the database as an environmental parameter and assigned to the user parameter to obtain a link between the user parameter and the audio input signal in the auditory environment for that particular time.
  • the device is designed to determine a database, for example for determining the coefficients of the processing parameter determination rule, as a function of an audio output signal, so that entries in the database describe or represent the audio output signal.
  • the processing parameter determination rule for example of reinforcement learning, can use the database to determine coefficients of the processing parameter determination rule, for example for a neural network.
  • the coefficients of the processing parameter processing rule can be obtained, for example, by jointly processing an audio input signal and an associated output signal or by comparing the audio output signal with the audio input signal.
  • the device is designed to determine the database such that the database describes an association between different audio output signals and respective user parameters set by the user.
  • the database describes an association between different audio input signals, between different audio output signals and respective user parameters set by the user, in order to be able to determine coefficients of the processing parameter determination rule.
  • sound processing can be integrated into the training of a self-reinforced learning algorithm.
  • the incoming audio signal or the audio input signal can contain the sound environment, for example, the auditory environment.
  • the coefficients of the processing parameter determination rule can be determined be selected so that the processing parameter determination rule at least approximately results in the desired relationship between the audio input signal and the audio output signal.
  • the device is designed to adapt the at least one coefficient of the processing parameter determination rule based on the database acquired by the device in order to adapt the processing parameter determination rule to the individual user in order to obtain user-specifically adapted audio processing parameters.
  • the reinforcement learning user model is adapted based on artificial intelligence in order to obtain user-specifically adapted audio processing parameters or a user-specifically adapted audio signal.
  • it is thus possible to inherently learn and adapt changes in the sound environment, for example the auditory environment, and the user settings, for example the user parameters, at runtime.
  • user-specifically adapted audio processing parameters can enable user-specifically adapted audio signals to be obtained during user operation when processing the audio input signal using the audio processing parameters.
  • a user-specific set of parameters for sound processing can be obtained or developed from the database.
  • This set automatically applies the same control parameters under the same external conditions, but also allows for further user adjustments in the situation itself, which are integrated into the device as a learning system.
  • the learning system and the application can adapt to the user's sound preferences in a continuous learning process.
  • the device is configured to provide and/or adapt the processing parameter determination rule based on the database.
  • the device can use the database, for example using reinforcement learning, to provide the processing parameter determination rule in order to obtain user-specifically adapted audio signals using the audio processing parameters, for example, during user operation.
  • the device is designed to determine the at least one coefficient of the processing parameter determination rule based on at least to determine and/or adapt an audio processing parameter corrected and/or modified by a user.
  • the device can be designed to take into account or adjust user adjustments of the user parameters during user operation and, for example, to allow further user adjustments of the user parameters at a later time and according to the same location or the same sound environment, so that the previous user parameters are adjusted and/or overwritten with newly adjusted user parameters.
  • coefficients of the processing parameter determination rule can be corrected by a user and/or, for example, modified audio processing parameters can be determined, for example depending on the sound environment in which the user is located at the respective time.
  • the device is configured to perform audio processing, for example, a parameterized audio processing rule, based on the audio input signal and based on the audio processing parameters in order to obtain the user-customized audio signals, for example, taking into account user modifications of the audio processing parameters.
  • the device can provide a user-customized audio signal for the audio output by means of optional audio processing of the audio input signal and the audio processing parameters.
  • the audio processing can be integrated into the device, thereby obtaining an efficient system.
  • the audio processing can optionally also be included in the determination of the audio processing parameters.
  • the device is designed to determine the coefficients of the processing parameter determination rule using a comparison of the audio input signal and an audio input signal supplied using the audio processing parameter, for example, taking into account user modifications of the audio processing parameters.
  • the determination of the coefficients of the processing parameter determination rule can be based on a comparison between the audio input signal and the direct audio output signal or the audio output signal supplied by the audio processing.
  • an audio analysis of the audio input signal or an audio analysis of the audio output signal can optionally be performed before or after using the comparison. to determine the coefficients of the comparison parameter determination rule based on an audio analysis result of the audio signals.
  • Determining the coefficients of the parameter determination rule using such a comparison yields particularly reliable and robust results, since the audio signal actually output to the user can be used as the criterion for determining the coefficients of the parameter determination rule.
  • the criterion that the audio output signal should correspond to what the user desires is more meaningful and robust than simply optimizing the audio processing parameters themselves.
  • the device is configured to provide the user parameters set by the user as an output variable instead of the audio processing parameters, wherein the user parameters set by the user include volume parameters and/or tone parameters and/or equalizer parameters.
  • user parameters can include, for example, filter parameters for sound shaping and/or for equalizing audio frequencies.
  • the device is designed to combine the user parameters with the audio processing parameters, for example, by addition, to thereby obtain combined audio processing parameters and provide them as an output variable.
  • Combined parameters can, for example, comprise user parameters and audio processing parameters that are provided in combination to the audio processing or are combined using the audio processing and provided as an output variable, for example, to reinforcement learning. Accordingly, rapid user intervention is possible, and the audio processing can thus be adapted to the user's preferences.
  • the device is designed to carry out an audio analysis of the audio input signal in order to obtain an audio input signal analysis result for determining the at least one coefficient of a processing parameter determination rule, for example, using the processing parameter determination rule.
  • the processing parameter determination rule can define a derivation rule for deriving the audio processing parameters from the audio input signal analysis result.
  • the audio analysis of the audio input signal can provide audio input signal analysis results, for example in the form of information about spectral properties and/or dynamics and/or frequency of the audio input signal, or also information about intensity values per band.
  • the audio input signal analysis results can, for example, be provided as input variables for determining one or more coefficients of the processing parameter determination rule, for example, using reinforcement learning.
  • the device is designed to perform an audio analysis of the audio output signal in order to provide an audio output signal analysis result, for example in the form of information about spectral properties of the audio input signal, for determining the at least one coefficient of the processing parameter determination rule, for example using the processing parameter determination rule.
  • the device is designed to perform an audio analysis before the processing parameter determination rule or after the processing parameter determination rule in order to provide either an audio input signal analysis result or an audio output signal analysis result or both for determining the coefficient of the processing parameter determination rule.
  • the audio output signal analysis result it is particularly easy to compare the audio input signal and the audio output signal, whereby, for example, values or parameters of the audio output signal analysis result can describe the characteristic properties of the audio output signal particularly efficiently (or in a particularly compact form).
  • a determination or optimization of the coefficients of the processing parameter determination rule is possible particularly efficiently, whereby the processing desired by the user can be achieved, for example, by evaluating the audio output signal analysis result in an efficient manner, or whereby a comparison between the audio input signal analysis result and the audio output signal analysis result can allow a conclusion to be drawn about the coefficients of the processing parameter determination rule.
  • the audio processing parameter(s) comprise(s) at least one multiband compression parameter R, and/or at least one hearing threshold adaptation parameter T, and/or at least one band-dependent gain parameter G, and/or at least one noise reduction parameter and/or at least one blind source separation parameter.
  • the audio processing parameters may comprise at least one sound direction parameter, and/or binaural parameters, and/or parameters relating to the number of different speakers, and/or parameters of adaptive filters in general, for example, reverberation suppression, feedback, echo cancellation, or active noise cancellation (ANC).
  • ANC active noise cancellation
  • the directivity of the sound source can be selected or adjusted using a sound direction parameter, so that sound is only processed from the desired direction, for example, the conversation partner in a conversation, for the combination of audio processing parameters. It was recognized that such audio processing parameters can influence audio signal processing in an efficient manner, whereby already with a small number of parameters that can be determined without great difficulty by a processing parameter determination rule, it is possible to influence the audio signal processing over a wide setting range.
  • the device may comprise a neural network which, for example, implements the processing parameter determination rule so that the at least one coefficient is defined, or preferably a plurality by coefficients designed to obtain the audio processing parameters using the processing parameter determination rule.
  • the neural network can be designed to obtain the audio processing parameters based on the audio input signal, either directly from the audio input or via the intermediate audio analysis as an analyzed audio input signal. It has been recognized that a neural network is well suited to determining the audio processing parameters and can be easily adapted to the personal perception of the individual user through the coefficients.
  • the neural network whose edge weights can be defined, for example, by the coefficients of the processing parameter determination rule, can be adapted to the user's needs by selecting the coefficients (which can be done, for example, using a training rule).
  • the coefficients can, for example, be successively improved when further user settings are available. This makes it possible to achieve results that offer a very good user experience.
  • the device is configured to provide and/or adapt the processing parameter determination rule based on a reinforcement learning method, and/or based on a reinforcement learning method, and/or based on an unsupervised learning method, and/or based on a multivariate prediction method, and/or based on a multidimensional parameter determined using multivariable regression, in order to determine the audio processing parameter.
  • the processing parameter determination rule can, for example, provide coefficients for the neural network that are based, for example, on the reinforcement learning method.
  • the multivariate prediction method can, for example, comprise a prediction of frequency bands and/or a prediction of input/output characteristics or input/output characteristics according to the user parameters.
  • the multivariable regression method can, for example, analyze all existing frequency bands to determine a multidimensional parameter space.
  • a multidimensional parameter space can be understood, for example, as a two-dimensional parameter setting that has a graphical interface in which the user parameters can be set and continuously adjusted by the user, for example, using a slider or a point on a coordinate system whose axes have or are assigned volume settings and tone settings.
  • the device can determine the audio processing parameter so that For example, a learning algorithm sets user-specific audio processing parameters, or so that the audio processing parameters provided by applying the processing parameter determination rule approach the audio processing parameters corrected by the user with increasing learning progress, or so that the processing parameter determination rule adapts in a continuous learning process, for example, depending on user adjustments to the audio processing parameters.
  • the methods' access to the database or data storage is unrestricted (so that, for example, as the database size increases, increasingly better coefficients can be determined using the aforementioned learning methods).
  • the device is designed to receive the user parameters set by the user, for example via or by means of an interface, for example from a user interface, an intuitive and/or ergonomic user control, such as a 2D space on a smartphone display.
  • the device can comprise an interface (for example an electrical interface or a human-machine interface) to be able to set the user parameters.
  • a visual user control can comprise a volume adjustment, for example by means of a slider for louder and quieter and/or a treble and bass control. In this way, the adjustment of the parameters can be made very easy for the user, wherein it has been recognized that this simple sound adjustment already results in a good auditory impression in many cases.
  • the device is designed to perform audio processing separately for at least four frequency bands of the audio input signal. This ensures that frequency selectivity is provided to enable analysis of each individual frequency, for example, if the audio input signal comprises a multi-channel audio signal. Taking into account the different intensities in different frequency bands makes it possible to efficiently accommodate different acoustic environments and also to efficiently consider the user's specific preferences regarding the frequency response.
  • the device is designed to determine the at least one coefficient of the processing parameter determination rule on a user-specific basis, for example, continuously, during user operation, for example, in real time, in order to obtain the audio processing parameters in real time, for example, at runtime during user operation, and/or to determine and/or adapt the changed audio processing parameters in real time.
  • the device is designed, for example, to determine and/or adapt the audio processing parameters in real time, so that the device, as a learning system, carries out this learning process in real time, for example, during user operation.
  • sound processing is controlled based on external conditions measured in real time.
  • an analysis of all available frequency bands also takes place in real time, so that the prediction model can be provided in real time based on a multidimensional optimization, i.e., for example, an optimization in which the audio processing parameters are determined based on the analyzed frequency bands and the user parameters stored in the data memory.
  • the present invention comprises a hearing aid, wherein the hearing aid has audio processing and wherein the hearing aid has a device for determining audio processing parameters, wherein the audio processing is designed to process an audio input signal depending on the audio processing parameters.
  • the hearing aid can implement or integrate the device to improve the user's individual perception of sound or tones in the form of audio signals. It has been shown that the device described herein is particularly well suited for use in a hearing aid, and that the auditory impression can be significantly improved by using the inventive concept.
  • An embodiment according to the present invention comprises a method for determining audio processing parameters as a function of at least one audio input signal, wherein the method comprises a user-specific determination of at least one coefficient of a processing parameter determination rule based on audio signals obtained during user operation, and obtaining audio processing parameters using the processing parameter determination rule based on the audio input signal.
  • the method is based on the same considerations as the device described above and can optionally be supplemented by all features, functionalities, and details that are also described herein with regard to the device according to the invention.
  • the method can be supplemented by the aforementioned features, functionalities, and details both individually and in combination.
  • a further embodiment according to the present invention comprises a computer program with a program code for carrying out the method when the program is running on the computer.
  • the coefficient determination rule 130 can be performed on a user-specific basis during user operation, so that the coefficients 132 of the coefficient determination rule 130 are provided to the processing parameter determination rule 140 to obtain the audio processing parameters 120 using the processing determination rule 140 based on the audio input signal 110.
  • the coefficients of the processing parameter determination rule can, for example, be set such that the processing parameter determination rule, based on the audio input signal and using the coefficients as output, provides audio processing parameters which, when used in audio processing, result in an audio output signal that meets user expectations.
  • Fig. 2 shows a schematic block diagram of a device 200 according to an embodiment.
  • the illustrated device 200 for determining audio processing parameters comprises, for example, an audio input 210, an audio processor 220, a user controller 230, an audio output 240, a processing determination rule (or processing parameter determination device) in the form of reinforcement learning 250, and a neural network 260.
  • the audio signal 212 can be provided for the neural network 260, the audio signal 214 for the reinforcement learning 250, and the audio signal 216 for the audio processing 220 (wherein the audio signals 212, 214, 216 can be the same or can differ, for example, in detail (e.g., in the sampling rate, the frequency resolution, the bandwidth, etc.).
  • the audio signal 212 can be the same as the audio signal 214 and/or the audio signal 216 (or at least describe the same audio content) and can have the same information about the number of frequency channels and frequency bands, so that the audio input signal from the audio input 210 is divided directly, for example, without further audio analysis, and can be provided, for example, via multiple outputs or data paths of the audio input 210.
  • the audio processing 220 can, for example, have one and/or more parameterized audio processing rules that process/process one or more audio signals 216, for example, such that, based on the incoming audio signal 216 (or the incoming audio signals), a user-customized audio signal 217 is provided (or several user-customized audio signals are provided) using the parameterized audio processing rule, which is parameterized, for example, by the combined parameters 272.
  • the audio processing 220 makes it possible to process the audio input signal 216, which is based on the audio input 210, using the combined parameters 272, for example, using the parameterized audio processing rule, to obtain the user-customized audio signal 217.
  • Optional details and embodiments of the combined parameters 272 will be explained in more detail later in this patent application. Further details and embodiments of the components of the device 200 will follow.
  • the audio output 240 can, for example, receive the audio signal 217 modified, reassigned, user-specifically adapted by the audio processing 220 and can be sent as a modified or processed audio signal 218 to a coefficient determiner 250 (which, for example, realized using reinforcement learning).
  • the audio output can, for example, provide the audio signal 217 modified, reassigned, and customized by the audio processing 220 as a modified or processed audio signal 219 for an interface, for example for headphones or loudspeakers, although this is not mandatory.
  • embodiments allow additional information of the audio signal 218 to be provided via the audio output 240 to the reinforcement learning 250 (or another device for determining coefficients or parameters of the processing parameter determination rule) in order, for example, to supply a data memory 252 (the content of which may be part of a database) with information about audio signals.
  • the audio output signal 218 can, for example, like the audio input signal 214, be provided to the reinforcement learning 250 for determining coefficients or parameters of the processing parameter determination rule 260, so that, for example, the information of the audio input signal 214 and the audio output signal 218 is stored in a data memory 252 as a corresponding database of the device 200.
  • reinforcement learning 250 can, for example, determine coefficients or parameters of processing parameter determination rule 260 using audio signals 218 and 214. Furthermore, reinforcement learning 250 can, for example, expand the database based on audio signals 214, 218 and/or store audio signals 214, 218 in data storage 252. Alternatively or additionally, reinforcement learning can determine at least one user-adapted coefficient 254 or store it in the database.
  • the processing parameter determination rule may be designed as a neural network 260, or may be integrated into a neural network to obtain audio processing parameters 262 using the coefficient 256 determined, for example, by the reinforcement learning 250.
  • the neural network 260 may, for example, be based on the audio signal 212 and the the coefficients 256 obtained from reinforcement learning 250 determine the audio processing parameters 262, so that as a result, for example, a learning algorithm sets user-specific audio processing parameters 262.
  • the at least one audio processing parameter 262 provided by the neural network 260 can be a single parameter or can comprise multiple parameters.
  • the neural network 260 can, for example, provide one or more of the following parameters as audio processing parameters 262: a user profile parameter N, and/or a multiband compression parameter R, and/or a hearing threshold adjustment parameter T, and/or smoothing (or one or more smoothing parameters) and/or compression settings (or one or more compression parameters).
  • one or more parameters can be used (or provided by the neural network as audio processing parameters 262) for sound adaptation (alternatively or additionally), such as a band-dependent gain G, a noise reduction (or one or more noise reduction parameters), and/or a blind source separation (or one or more parameters of a blind source separation).
  • the number of input parameters (for example, of reinforcement learning 250 and/or neural network 260) can be determined as a function of a number C of channels of a multi-channel audio signal, and also as a function of a number B of processing bands, or as a function of a number P of user parameters.
  • the number of user parameters P can be determined as the product of the number of frequency bands B and the number of audio signals or audio channels C.
  • the number of output parameters (for example the output parameters of the neural network 260 or the input parameters of the audio processing) in a learned user profile M can be composed of the number of audio channels (for example C), the hearing threshold adjustment T, the multiband compression with rate R, the band-dependent gain G and two further time constants, wherein the number of values of G, R, T corresponds, for example, to the number of bands B.
  • the value of the learned user profile M (or the values of the learned user profile M) form the user-adapted coefficient (or parameter) 254 (or a set of user-adapted coefficients or parameters).
  • a volume control or volume adjustment which can be performed by the user control 230, can, for example, provide parameters that amplify or attenuate the audio signal.
  • the user can, for example, adjust tone control parameters via the user control 230, which can, for example, be combined as part of the user parameters 232 with the audio processing parameters 262 (provided by the neural network 260) using a combination 270.
  • the user parameters 232 provided by the user control 230 can be combined with the audio processing parameters 262, for example, by addition, multiplication, division, or subtraction.
  • the user parameters 232 can also replace the parameters 262, for example, if the user desires a significantly different setting than that specified by the parameters 262.
  • the device 200 processes an audio input signal received via the audio input 210 in the audio processing 220 in order to adapt sound characteristics to the wishes or needs of a user.
  • a processing characteristic of the audio processing 220 is set by the parameters 272, wherein the parameters 272 are influenced by the neural network 260 on the one hand and can be modified by the user via the user control 230 on the other.
  • the reinforcement learning 250 generally fulfills the function of adapting one or more coefficients (e.g., edge weights) of the neural network such that the parameters provided by the neural network substantially correspond to the user's expectations. correspond, i.e., within acceptable tolerances, to the parameter values that the user sets via the user control 230 in the respective different acoustic environments.
  • Fig. 3 shows a schematic representation or a schematic block diagram of a device 300 for determining audio processing parameters as a function of an audio input signal and an audio output signal, which is output on the device 200 from the Fig. 2 based.
  • device 300 Function blocks that are also in the Fig. 2 shown, for example, may have similar or identical functionality to corresponding functional blocks in device 200 (but do not necessarily have to). It should further be noted that device 300 may optionally be supplemented with all of the features, functionalities, and details described herein, both individually and in combination.
  • the device 300 like the device 200, has an audio input 310 (which can correspond to the audio input 200), an audio processor 320 (which can correspond to the audio processor 220), a user control 330 (which can correspond to the user control 230), an audio output 340 (which can correspond to the audio output 240), a reinforcement learning 350 (which can, for example, correspond to the reinforcement learning 250 in terms of its basic function), a neural network 360 (which can, for example, correspond to the neural network 260 in terms of its basic function) and the combination 370 of the user-specifically set user parameters 332 and the audio processing parameters 362 (which can, for example, correspond to the combination 270).
  • an audio input 310 which can correspond to the audio input 200
  • an audio processor 320 which can correspond to the audio processor 220
  • a user control 330 which can correspond to the user control 230
  • an audio output 340 which can correspond to the audio output 240
  • a reinforcement learning 350 which can, for example, correspond to the reinforcement learning 250 in terms of its basic function
  • the device 300 contains or comprises the Fig. 3 additionally an audio analysis 380-1 between the audio input 310 and the neural network 360 and an audio analysis 380-2 between the audio output 340 and the reinforcement learning 350.
  • this arrangement enables the audio analysis 380-1, for example, to receive and analyze the audio input signal 311 emanating from the audio input 310 in order to provide an audio input signal analysis result, for example, information about spectral properties and/or dynamics and/or frequency of the audio input signal 311, in the form of the audio analysis signal 312 and/or 314.
  • the information of the audio analysis result of the audio analysis 380-1 can, for example, be provided to the neural network 360 and the reinforcement learning 350 (for example, simultaneously) via the analyzed audio signals 312, 314.
  • the processing parameter determination rule which may comprise, for example, a part of the neural network 360 (or a part of the reinforcement learning 350) or which is implemented by the neural network 360, may, for example, define a derivation rule for deriving the audio processing parameters 362 from the audio input analysis result.
  • additional (or compact) information about spectral properties for example, an intensity value per frequency band and channel, can be obtained in order to provide frequency selectivity, for example, in audio signals (for example, in multi-channel audio signals). Frequency selectivity is required in order to be able to analyze and display the perceptible sonic aspects of the signal.
  • an audio analysis 380-2 of the audio output signal 342 is performed to provide an audio output signal analysis result for determining the at least one coefficient of the processing parameter rule, for example at least one coefficient of the reinforcement learning 350.
  • a "joint" audio analysis of the audio input signal 311 and the audio output signal 342 is also possible (e.g., an audio analysis of both the audio input signal and the audio output signal), whereby separate audio signal analysis results can be provided.
  • Separate in this context means that the audio input signal analysis result can be provided to other components, for example, compared to the audio output signal analysis result.
  • the information from the audio analysis 380-1, 380-2 of the input or output signal can be different from each other or correspondingly identical.
  • Embodiments further provide that the audio output 340 provides a modified or processed audio signal 319 for an interface, for example, for headphones or speakers, although this is not mandatory. Furthermore, embodiments allow the audio analysis 380-2 to provide the audio signal 313 for the interface or for another interface. This allows the device 300 to provide the audio signal 319 and 313 to external components, for example, via at least one interface, although this is not mandatory.
  • device 300 it is not the input audio signal or the output audio signal itself that is fed to the neural network 360 or reinforcement learning 350, but rather one or more corresponding audio analysis results.
  • the complexity of the neural network and thus also the complexity of reinforcement learning can be kept low, which significantly reduces the implementation effort.
  • Fig. 4 shows a schematic block diagram of a device 400 for determining audio processing parameters in dependence on at least one input signal, which is partly based on the device 200 from the Fig. 2 based.
  • the device 400 comprises an audio input 410 (which may, for example, correspond to audio input 210), an audio processor 420 (which may, for example, correspond to audio processor 220), a user controller 430 (which may, for example, correspond to user controller 230), an audio output 440 (which may, for example, correspond to audio output 240), a reinforcement learning 450 (which may, for example, correspond to reinforcement learning 250 in terms of its basic function), a neural network 460 (which may, for example, correspond to neural network 260 in terms of its basic function), a combination 470 (which may, for example, correspond to combination 270), and an audio analysis 480 (which may, for example, correspond to audio analysis 380-1) between the audio input 410 and the neural network 460 and the reinforcement learning 450.
  • an audio input 410 which may, for example, correspond to audio input 210
  • an audio processor 420 which may, for example, correspond to audio processor 220
  • a user controller 430 which may, for example, correspond to user controller 230
  • device 400 does not include audio analysis of audio output 440, and compared to device 200, no audio output signal from audio output 440 is provided to reinforcement learning 450. In other words, reinforcement learning 450 does not receive any information about the audio output signal.
  • the reinforcement learning 450 can determine a database 452 depending on the user parameters set by the user or the combined parameters 472, 473, such that entries in the database 452 represent the user parameters 472, 473 set by the user.
  • the database 452 can be provided or used to determine the coefficients 456 of the processing parameter determination rule, or of the neural network 460. This allows a prediction model to be determined that is directly based on user parameters (or the audio signal processing parameters 472 adjusted by the user), which are directly assigned to the reinforcement learning 450.
  • the one or more combined parameters 472, 473 or user parameters can also be fed directly into the neural network 460 during operation by means of the combined parameter 474, so that, for example, the compressor settings and/or other parameters for the audio processing parameters 462 can be provided as output.
  • the device allows according to the Fig. 4 to learn and/or (e.g., continuously) improve the coefficients 456 of the neural network 460 in an efficient manner.
  • Fig. 5 shows a device 500 which has similar properties to the devices 200, 300 and 400. It should be noted that in the device 500 according to Fig. 5 Function blocks that are also included in the Fig. 2 , Fig. 3 and Fig. 4 shown, for example, may have similar or identical functionality to corresponding functional blocks in the device 200, the device 300 and the device 400 (but not necessarily have to have). It should further be noted that the device 500 can optionally be supplemented with all of the features, functionalities, and details described herein, both individually and in combination.
  • the schematic block diagram of the Fig. 5 shows the device 500, comprising an audio input 510 (which can correspond, for example, to the audio input 210), an audio processor 520 (which can correspond, for example, to the audio processor 220), a user control 530 (which can correspond, for example, to the user control 230), an audio output 540 (which can correspond, for example, to the audio output 240), a reinforcement learning 550 (which, for example, can correspond in terms of its basic function to the reinforcement learning 250), a neural network 560 (which, for example, can correspond in terms of its basic function to the neural network 260) and a combination 570 (which, for example, can correspond to the combination 270).
  • an audio input 510 which can correspond, for example, to the audio input 210
  • an audio processor 520 which can correspond, for example, to the audio processor 220
  • a user control 530 which can correspond, for example, to the user control 230
  • an audio output 540 which can correspond, for example, to the audio output 240
  • the device 500 does not include any audio analysis of the audio input signal or any audio analysis of the audio output signal, so that the audio signals 512 and 514 can be passed directly from the audio input 510 to the reinforcement learning 550 and the neural network 560, respectively.
  • the device 500 can also perform an audio analysis of the audio input signal.
  • an audio input signal 512 may be provided to the neural network 560 and an audio input signal 514 may be provided to the reinforcement learning 550.
  • the reinforcement learning 550 of the device 500 may be based on the audio input signal 514 and the one or more audio processing parameters 572 provided to the audio processing 520 (or actually used by the audio processing 520).
  • the device 500 allows a particularly efficient adjustment of the coefficients of the neural network, since the reinforcement learning 550 uses the audio signal processing 520 actually used parameters are taken into account and the coefficients of the neural network can thus be determined or optimized very precisely.
  • Fig. 6 shows a schematic flow diagram of a method 600 for operating a device, such as device 100, 200, 300, 400, or 500, or more generally for obtaining audio processing parameters.
  • a first step 610 comprises a user-specific determination of at least one coefficient of a processing parameter determination rule based on audio signals obtained during user operation.
  • a second step 620 comprises obtaining audio processing parameters using the processing parameter determination rule based on the audio input signal.
  • Method 600 is implemented, for example, such that audio processing parameters are determined as a function of at least one audio input signal.
  • Method 600 can be implemented such that sound processing or audio processing based on directly recorded ambient noise (where, for example, an audio input signal leads to an adjustment of audio processing parameters) leads to an improvement in the individual perception of sound.
  • the coefficients of the processing parameter determination rule are based on audio input signals obtained during user operation and are determined user-individually (for example, in real time), so that audio processing parameters are obtained using a neural network whose coefficients are determined by reinforcement learning or even continuously adjusted based on the audio input signal.
  • the method 600 may optionally be supplemented with any features, functionalities, and details described herein, even if described with respect to devices.
  • the method may be supplemented with these features, functionalities, and details both individually and in combination.
  • the incoming audio signal can contain the sound environment. This allows changes in the sound environment and user settings to be learned inherently, for example, at runtime.
  • the self-reinforcing learning algorithm can, for example, develop a user-specific set of parameters for sound processing from this data. This automatically applies the same control parameters under the same external conditions, but also allows for further user adjustments in the situation itself, which are integrated into the learning system (e.g., based on a reinforcement learning principle).
  • the machine learning system and the application can adapt to the user's sound preferences in a continuous learning process.
  • Algorithms such as those used in hearing aids can be integrated and controlled for sound adaptation. These can include, for example, multiband compression with rate R and hearing threshold adjustment T and band-dependent gain G, noise reduction, or blind source separation.
  • the incoming audio signal, the sound processing parameters, and/or the audio signal processed with the sound processing parameters can be stored in a cloud (e.g., a central data storage), for example, to train the user profile.
  • the sound processing parameters selected by the user, or user parameters can be applied to the incoming audio signal.
  • the number of input parameters for reinforcement learning e.g., a CNN (convolutional neural network)
  • a user wears a sound reproduction device (e.g. a hearable or an earphone with additional function) that is equipped with a system with integrated sound amplification and audio analysis, for example as in the Fig. 3 or the Fig. 4 shown.
  • the user can control the sound amplification parameters, for example, with an app (or application software), for example, using the user control described above.
  • the audio analysis can, for example, continuously record and analyze the auditory scene using microphony and evaluate its dynamics and/or frequency and/or spectral properties (for example, in the audio analysis).
  • AI artificial intelligence
  • the sound processing of the hearing aid is carried out, for example, on the basis of external conditions measured in real time, for example as in the Fig. 2 represented, controlled.
  • the above-mentioned criteria or requirements are integrated into a learning method or device that learns from user settings in real time and applies them automatically to improve the user's individual perception of sound or tones in the form of audio signals.
  • signal reproduction or audio reproduction optimized to user preferences can be realized.
  • embodiments according to the invention may take into account that sound perception differs from person to person.
  • a conversation with someone in a room full of people and with a loud background noise may be more difficult for one person than for another.
  • the same sound reproduction setting may be perceived differently depending on individual needs.
  • embodiments according to the invention may take into account that environmental parameters, such as the auditory environment, also significantly influence the control values for sound adaptation of a sound reproduction device.
  • embodiments according to the present invention provide a device and a method that perform sound processing based on ambient noise that is directly recorded or measured. Based on these recordings and the user parameters set by the user, a learning algorithm, for example, generates a predictive model that allows for further adjustments in the situation itself, which are integrated into the learning system to improve the user's individual perception of sound or tones in the form of audio signals.
  • aspects have been described in connection with a device, it is understood that these aspects also represent a description of the corresponding method, so that a block or component of a device can also be understood as a corresponding method step or as a feature of a method step. Similarly, aspects described in connection with or as a method step also represent a description of a corresponding block, detail, or feature of a corresponding device.
  • embodiments of the invention may be implemented in hardware or software.
  • the implementation may be performed using a digital storage medium, such as a floppy disk, a DVD, a Blu-ray Disc, a CD, a ROM, a PROM, an EPROM, an EEPROM, or a FLASH memory, a hard disk, or other magnetic or optical storage device storing electronically readable control signals that interact with a programmable computer system in such a way can or interact to perform the respective method. Therefore, the digital storage medium can be computer-readable.
  • Some embodiments according to the invention thus comprise a data carrier having electronically readable control signals that are capable of interacting with a programmable computer system such that one of the methods described herein is performed.
  • embodiments of the present invention can be implemented as a computer program product with a program code, wherein the program code is effective to perform one of the methods when the computer program product is run on a computer.
  • the program code can also be stored, for example, on a machine-readable medium.
  • inventions include the computer program for performing one of the methods described herein, wherein the computer program is stored on a machine-readable carrier.
  • one embodiment of the method according to the invention is thus a computer program comprising program code for performing one of the methods described herein when the computer program is run on a computer.
  • Another embodiment of the method according to the invention is thus a data carrier (or a digital storage medium or a computer-readable medium) on which the computer program for performing one of the methods described herein is recorded.
  • a further embodiment comprises a processing device, for example a computer or a programmable logic device, which is configured or adapted to carry out one of the methods described herein.
  • a processing device for example a computer or a programmable logic device, which is configured or adapted to carry out one of the methods described herein.
  • a programmable logic device e.g., a field-programmable gate array, an FPGA
  • a field-programmable gate array may interact with a microprocessor to perform any of the methods described herein.
  • the methods are performed by any hardware device. This may be general-purpose hardware such as a computer processor (CPU) or method-specific hardware such as an ASIC.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)
  • Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)
  • Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)

Description

    Technisches Gebiet
  • Ausführungsbeispiele gemäß der vorliegenden Erfindung beziehen sich auf eine Vorrichtung und ein Verfahren zum Bestimmen von Audio-Verarbeitungsparametern in Abhängigkeit von zumindest einem Audio-Eingangssignal.
  • Ausführungsbeispiele gemäß der Erfindung beziehen sich auf eine Vorrichtung und ein Verfahren mit einer künstlichen Intelligenz, beispielsweise in einem Klangwiedergabegerät, die Audiosignale analysieren und mit benutzer-individuellen Einstellungen während des Benutzerbetriebs zuordnen bzw. kombinieren kann.
  • Ausführungsbeispiele beziehen sich ferner auf Konzepte zum Bestimmen von Audio-Verarbeitungsparametern basierend auf beim Benutzerbetrieb erhaltenen Audiosignalen.
  • Hintergrund der Erfindung
  • Die individuelle Wahrnehmung von Klang und damit die individuellen Anforderungen für den Klang bzw. Wohlklang an deren Anpassung von Klangwiedergabegeräten unterscheiden sich unter anderem nach folgenden Kriterien:
    • Individualität
    • Situationsbedingte Bedürfnisse
    • Äußere Rahmenbedingungen
  • Die Klangwahrnehmung unterscheidet sich von Person zu Person. Beispielsweise ist ein Gespräch mit einer Person in einem Raum mit vielen Menschen für den Einen schwerer zu führen als für den Anderen. Ebenso wird je nach Bedürfnis dieselbe Einstellung einer Klangwiedergabe unterschiedlich wahrgenommen. Auch Umgebungsparameter, wie die auditorische Umgebung, beeinflussen die Steuerungswerte für eine Klanganpassung eines Klangwiedergabegeräts erheblich.
  • Aktuelle Klangwiedergabegeräte bieten spezifische Klanganpassungen, die nicht automatisiert angewandt werden. Bei Klangwiedergabegeräten, wie beispielsweise tragbaren Geräten zur Hörunterstützung, wie etwa Kopfhörer, Headsets oder Hörgeräte, stehen oft nur Lautstärkeregelung und Equalizer zur Klanganpassung zur Verfügung. Die Klanganpassung, wie beispielsweise die Verstärkung der Lautstärke oder die Anpassung der höheren oder tieferen Töne, wird einmalig von dem Benutzer durchgeführt. Es wurde erkannt, dass zur Erzielung einer durchgängig guten Audioqualität für jede weitere Klangwiedergabe diese Einstellungen erneut durchgeführt werden müssen.
  • Es wurde erkannt, dass bei herkömmlichen Konzepten nicht nur der Vorgang der Klanganpassung für unterschiedliche Klangwiedergaben wiederholt werden muss, sondern dass auch bei Klangwiedergabegeräten die Veränderungen der auditorischen Umgebung nicht adaptiv, beispielsweise an den Umgebungsgeräuschen angepasst, werden. Es wurde erkannt, dass es dabei vorkommen kann, dass selbst bei einer relativ geringfügigen Änderung von Nebengeräuschen die Höranstrengung für das Sprachverstehen steigt.
  • Ferner wurde erkannt, dass bei herkömmlichen Konzepten Klanganpassungen zudem auch nur basierend auf den von Herstellern vorgegebenen Klangvoreinstellungen durchgeführt werden können. Es wurde herausgefunden, dass diese nicht immer den individuellen Bedürfnissen der Menschen entsprechen. So gibt es beispielsweise Einstellungen, wie "Musik", wobei der präferierte Musikgeschmack und die persönliche Intention beim Musikhören dabei keine Berücksichtigung findet. So unterscheiden sich beispielsweise die Erwartung an das Klangerlebnis von Operngesang im Vergleich zu Techno grundsätzlich. Bei den Voreinstellungen im Hörprogramm "Musik" werden jedoch von dem Hersteller verallgemeinerte Annahmen zugrunde gelegt, die unter Umständen weder den Erwartungen an das Klangerlebnis von Operngesang noch an Techno genügen und somit dem Benutzer unzureichende Klangwiedergaben zur Verfügung stellen.
  • Aktuelle Klangwiedergabegeräte zur Hörunterstützung, wie beispielsweise Hörgeräte, können je nach Ausstattung unter anderem mehrere Tausend Euro kosten, so dass die Erwartungen an das Gerät entsprechend hoch ausfallen. Anpassungen von Hörgeräten werden generell unter Laborbedingungen vorgenommen, meist mit nur zwei Lautsprechern und nur einer sehr begrenzten Anzahl von Klängen, wie Sinustöne, Rauschen und Sprache. Komplexe Geräuschsituationen, wie beispielsweise auf Straßenkreuzungen, können im Hörlabor nicht simuliert werden und führen daher zur Frustration der Hörgerätträgern und zu wenig zufriedenstellenden Ergebnissen im Alltag.
  • Bei lernenden Anwendungen zur Klangwiedergabe, wie beispielsweise der Github-Veröffentlichung "liketohear-ai-pt", werden in einer Datei aufgezeichnete, von Benutzern (Usern) situationsbedingte Parameteränderungen eines Hörgerätealgorithmus und die der Situation zugehörige aufgezeichnete Frequenzspektrumanalyse mit einem selbstlernenden Algorithmus verarbeitet. Der Algorithmus erstellt die für die Entscheidung des Benutzers (Users) maßgebliche Relevanz eines bestimmten Frequenzspektrums und wählt automatisch die zugehörigen Parameter als Grundlage für ein Vorhersagemodell aus. Das Vorhersagemodell wird in einem zweiten Schritt auf die vorher aufgezeichnete Frequenzspektrumanalyse angewandt. Es wurde erkannt, dass mittels dieser lernenden Anwendung zur Klangwiedergabe die Komplexität des Frequenzspektrums nicht abgebildet werden kann, so dass immer wieder weitere Benutzeranpassungen notwendig sind.
  • Die US 2019/0149929 A1 beschreibt eine Benutzer-Einstellungs-Schnittstelle unter Ver wendung einer entfernten Berechnungs-Ressource. Ein System umfasst ein mobiles Gerät, das mit einem Hör-Unterstützungs-Gerät oder einem entfernten Server kommuniziert. Das mobile Gerät interpretiert eine akustische Umgebung und sendet Information über die Umgebung an einen entfernten Server. Der entfernte Server bestimmt Information und sendet diese zur Verwendung in einer Benutzerschnittstelle an das mobile Gerät. Das mobile Gerät empfängt eine Benutzerauswahl einer Hör-Unterstützungs-Parameter-Information, die an das Hör-Unterstützungs-Gerät geschickt werden soll.
  • In Anbetracht der obigen Ausführungen besteht ein Bedarf für ein Konzept zur Bestimmung von Audio-Verarbeitungsparametern zur Laufzeit, das einen verbesserten Kompromiss zwischen Benutzerfreundlichkeit, erzielbarer Audioqualität und Implementierungsaufwand mit sich bringt.
  • Zusammenfassung der Erfindung
  • Diese Aufgabe wird durch den Gegenstand der unabhängigen Patentansprüche gelöst. Ein Kerngedanke von Ausführungsbeispielen der vorliegenden Erfindung besteht darin, erkannt zu haben, von den Benutzern intuitiv durchgeführte Klanganpassungen in Laufzeit vorzunehmen und in Echtzeit in das lernende System zu integrieren.
  • Ein Ausführungsbeispiel gemäß der vorliegenden Erfindung umfasst eine Vorrichtung zum Bestimmen von Audio-Verarbeitungsparametern, beispielsweise Parameter für Audio-Verarbeitung, in Abhängigkeit von zumindest einem Audio-Eingangssignal, beispielsweise von einem Audio-Eingang kommend, wobei die Vorrichtung ausgebildet ist, um zumindest einen Koeffizienten einer Verarbeitungsparameter-Bestimmungsvorschrift benutzer-individuell basierend auf beim Benutzerbetrieb erhaltenen Audiosignalen zu bestimmen, und wobei die Vorrichtung ausgelegt ist, um die Audio-Verarbeitungsparameter unter Verwendung der Verarbeitungsparameter-Bestimmungsvorschrift basierend auf dem Audio-Eingangssignal zu erhalten. Koeffizienten einer Verarbeitungsparameter-Bestimmungsvorschrift können beispielsweise Koeffizienten eines neuronalen Netzes sein, das als Eingangsgröße das Audio-Eingangssignal, oder davon extrahierte Eingangssignalparameter, erhält, und das als Ausgangsgröße die Audio-Verarbeitungsparameter bereitstellt. In anderen Worten können die Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift beispielsweise benutzer-individuell basierend auf beim Benutzerbetrieb erhaltenen Eingangs-Audiosignalen, beispielsweise während des Benutzerbetriebs, bestimmt werden. Ferner kann die Vorrichtung ausgelegt sein, um die Audio-Verarbeitungsparameter, beispielsweise unter Verwendung der durch den zumindest einen Koeffizienten definierten Verarbeitungsparameter-Bestimmungsvorschrift basierend auf dem Audio-Eingangssignal zu erhalten.
  • Dieses Ausführungsbeispiel basiert auf dem Kerngedanken, dass es durch eine Benutzer-individuelle Einstellung eines oder mehrere Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift basierend auf beim Benutzerbetrieb erhaltenen Audiosignalen möglich wird, die Verarbeitungsparameter-Bestimmungsvorschrift an die individuellen Gewohnheiten und Wünsche des Benutzers anzupassen. Indem während des Benutzerbetriebs erhaltene Audiosignale für die benutzer-Individuelle Einstellung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift herangezogen werden, kann erreicht werden, dass die Koeffizienten gut an diejenigen (konkreten) Hörsituationen anpasst, in denen sich der Benutzer üblicherweise tastsächlich aufhält. Somit ist es beispielsweise nicht länger erforderlich, eine akustische Umgebung vorzuklassifizieren (zum Beispiel in eine allgemeine Kategorie "Musik" und eine allgemeine Kategorie "Sprache"), sondern die Koeffizienten können an die tatsächlichen Hörumgebungen, in der der Benutzer beispielsweise Musik oder Sprache hört, und auch an die individuellen Bedürfnisse des Benutzers angepasst werden. Beispielsweise kann durch geeignete Wahl der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift eine unmittelbare und Benutzer-individuelle Bestimmung von Audio-Verarbeitungsparametern erfolgen, wobei beispielswese die durch Koeffizienten angepasste Verarbeitungsparameter-Bestimmungsvorschrift eine unmittelbare Bestimmung der Audio Verarbeitungsparameter ohne Kategorisierung der akustischen Umgebung in eine von mehreren statisch vorgegebenen Kategorien erfordert. Vielmehr können Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift basierend auf den bei Benutzerbetrieb erhaltenen Audiosignalen angepasst werden, so dass die für den Benutzer relevanten Hörumgebungen, in denen der Benutzer unterschiedliche Audio-Verarbeitungsparameter wünscht, "hart" oder "weich" (beispielsweise mit fließendem Übergang) unterscheiden werden können.
  • Somit ermöglicht es das Erfindungskonzept durch die Berücksichtigung der beim Benutzerbetrieb erhaltenen Audiosignale (und durch entsprechende Einstellung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift) beispielsweise, dass bei Vorhandensein von Sprache in verschiedenen akustischen Umgebungen, an denen sich der Benutzer aufhält (zum Beispiel lautes Großraumbüro, Einzelbüro, Straßenkreuzung mit vielen LKWs, Straßenkreuzung mit Straßenbahnverkehr, usw.) ganz verschiedene Audio-Verarbeitungsparameter bereitgestellt werden. Die Bereitgestellten Parameter sind dann typischerweise an durch den Benutzer gewünschten Einstellungen in den jeweiligen Situationen orientiert.
  • Insofern liefert das Erfindungskonzept mit vertretbarem Aufwand Audio-Verarbeitungsparameter, die an die Lebenswirklichkeit eines individuellen Benutzers und dessen spezifischen Präferenzen angepasst sind.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, um eine Datenbasis in Abhängigkeit von durch den Benutzer eingestellten Nutzerparametern zu bestimmen, so dass Einträge der Datenbasis die durch den Benutzer eingestellten Nutzerparameter beschreiben. Beispielsweise kann die Datenbasis in Echtzeit während des Benutzerbetriebs erstellt und ein Vorhersagemodell bestimmt werden. Ferner kann die Datenbasis zur Bestimmung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift verwendet werden, indem die Datenbasis, die Informationen der Nutzerparameter enthält. Beispielsweise kann die Datenbasis auch personenbezogene Steuerungseinstellungen enthalten, die mit den Nutzerparametern verknüpft werden können. Die von dem Benutzer eingestellten Nutzerparameter können beispielsweise als Ausgangsgröße an die Stelle der Audio-Verarbeitungsparameter treten, oder die Audio-Verarbeitungsparameter verändern, so dass die Einträge der Datenbasis beispielsweise die durch den Benutzer eingestellten Nutzerparameter darstellen. Beispielsweise ist die Datenbasis entsprechend zumindest teilweise in ein Bestärkendes Lernen integriert, das beispielsweise die durch den Benutzer eingestellten Nutzerparameter verwendet.
  • Durch die Erstellung einer Datenbasis, deren Einträge die durch den Benutzer eingestellten Nutzerparameter beschreiben können die Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift beispielsweise sukzessive verbessert oder optimiert werden. Die durch den Benutzer (typsicherweise in verschiedenen akustischen Umgebungen) eingestellten Nutzerparameter, die die Datenbasis bilden und die beispielsweise in einer Datenbank oder einer anderweitigen Speicherstruktur abgelegt werden, können hierbei Sollwerte von Audio-Verarbeitungsparametern darstellen. Besteht beispielsweise eine Zuordnung von Nutzerparametern zu Audiosignalen (oder Audiosignaleigenschaften) der jeweiligen akustischen Umgebung, in der der Benutzer die Nutzerparameter gewählt hat, so kann diese Datenbasis zu Bestimmung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift verwendet werden. Durch Bestimmung einer Datenbasis, die beispielsweise mit zunehmender Dauer der Nutzung durch den Benutzer immer größer wird, kann beispielsweise erreicht werden, dass mit der Zeit eine immer größere Datenbasis zur (automatischen) Bestimmung (bzw. Verbesserung) der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift vorliegt, was eine zunehmende Verfeinerung bzw. Verbesserung der genannten Koeffizienten (z. B. basierend auf einer immer größeren Basis an unterschiedlichen Hörumgebungen, in denen der Benutzer sich aufgehalten hat) ermöglicht. Somit kann durch Erstellung und fortlaufende Erweiterung der Datenbasis das Benutzer-Erlebnis immer weiter verbessert werden.
  • Erfindungsgemäß ist die Vorrichtung ausgebildet, um eine Datenbasis in Abhängigkeit von dem zumindest einen Audio-Eingangssignal zu bestimmen, so dass Einträge der Datenbasis das Audio-Eingangssignal darstellen bzw. beschreiben Beispielsweise kann die Datenbasis zur Bestimmung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift hinzugezogen werden. In anderen Worten wurden beispielsweise zunächst personenbezogene Steuerungseinstellungen, beispielsweise die durch den Benutzer eingestellten Nutzerparameter gespeichert, die mit Klanginformationen der auditorischen Umgebung als äußere Rahmenbedingung erweitert wird. Dadurch kann eine Datengrundlage geschaffen werden, die beispielsweise unter Verwendung des Bestärkenden Lernens Koeffizienten für die Verarbeitungsparameter-Bestimmungsvorschrift bereitstellt.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die Datenbasis so zu bestimmen, dass die Datenbasis eine Zuordnung zwischen verschiedenen Audio-Eingangssignalen und jeweiligen durch den Benutzer eingestellten Nutzerparametern beschreibt. In anderen Worten kann die Vorrichtung beispielsweise die äußeren Rahmenbedingungen basierend auf dem Audio-Eingangssignal und die personenbezogenen Steuerungseinstellungen, beispielsweise die durch den Benutzer eingestellten Nutzerparameter, einander zuordnen. Hierunter wird verstanden, dass die Zuordnung beispielsweise als Basis für das Vorhersagemodell dienen kann, das durch weitere Klanganpassungen des Benutzers, beispielsweise ad hoc verändert werden kann, etwa indem die jeweiligen durch den Benutzer eingestellten Nutzerparameter mit der Datenbasis integriert werden (und dann beispielsweise eine Neubestimmung oder Verbesserung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift erfolgt). Beispielsweise kann im Hintergrund über den Audio-Eingang die auditorische Szene mittels Mikrofonen kontinuierlich aufgenommen, und/oder analysiert und/oder evaluiert werden, so dass beispielsweise eine Analyse der auditorischen Szene über die Dynamik, und/oder Frequenz und/oder spektrale Eigenschaft generiert wird. Das Analyseergebnis der auditorischen Szene kann beispielsweise als Umgebungsparameter in die Datenbasis integriert und dem Nutzerparameter zugeordnet werden, um eine Verknüpfung des Nutzerparameters und des Audio-Eingangssignals in der auditorischen Umgebung für diesen entsprechenden Zeitpunkt zu erhalten.
  • Erfindungsgemäß ist die Vorrichtung ausgebildet, eine Datenbasis, beispielsweise zur Bestimmung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift, in Abhängigkeit von einem Audio-Ausgangssignal zu bestimmen, so dass Einträge der Datenbasis das Audio-Ausgangssignal beschreiben beziehungsweise darstellen. Indem die Datenbasis in Abhängigkeit von zumindest einem Audio-Eingangssignal und von einem Audio-Ausgangssignal bestimmt wird, kann die Verarbeitungsparameter-Bestimmungsvorschrift, beispielsweise des Bestärkenden Lernens, die Datenbasis herziehen, um Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift, beispielsweise für ein neuronales Netz, bestimmen zu können. Die Koeffizienten der Verarbeitungsparameter-Bearbeitungsvorschrift können beispielsweise durch gemeinsame Verarbeitung eines Audio-Eingangssignals und eines zugehörigen Ausgangssignals oder durch Vergleich des Audio-Ausgangssignals mit dem Audio-Eingangssignal erhalten werden.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die Datenbasis so zu bestimmen, dass die Datenbasis eine Zuordnung zwischen verschiedenen Audio-Ausgangssignalen und jeweiligen durch den Benutzer eingestellten Nutzerparametern beschreibt. In anderen Worten beschreibt die Datenbasis eine Zuordnung zwischen verschiedenen Audio-Eingangssignalen, zwischen verschiedenen Audio-Ausgangssignalen und jeweiligen durch den Benutzer eingestellten Nutzerparametern, um Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift bestimmen zu können. Mittels der erstellten Datenbasis kann beispielsweise durch Analyse des eingehenden und ausgehenden Audiosignals eine Klangverarbeitung im Training eines selbstbestärkten Lernalgorithmus integriert werden. Beispielsweise kann das eingehende Audiosignal beziehungsweise das Audio-Eingangssignal die Klangumgebung, beispielsweise die auditive Umgebung, enthalten. In anderen Worten, mittels der erstellten Datenbasis kann beispielsweise durch Analyse des eingehenden und ausgehenden Audiosignals können beispielsweise die Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift so gewählt werden, dass sich durch die Verarbeitungsparameter-Bestimmungsvorschrift der gewünschte Zusammenhang zwischen Audio-Eingangssignal und Audio Ausgangssignal zumindest näherungsweise ergibt.
  • Erfindungsgemäß ist die Vorrichtung ausgebildet, den zumindest einen Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift basierend auf der von der Vorrichtung akquirierten Datenbasis anzupassen, um die Verarbeitungsparameter-Bestimmungsvorschrift benutzer-individuell anzupassen, um benutzer-individuell angepasste Audio-Verarbeitungsparameter zu erhalten. In anderen Worten wird beispielsweise das bestärkende Lernen Nutzermodell-basierend auf einer künstlichen Intelligenz angepasst, um benutzer-individuell angepasste Audio-Verarbeitungsparameter bzw. ein benutzer-individuell angepasstes Audiosignal zu erhalten. Beispielsweise ist es somit möglich, Änderungen der Klangumgebung, beispielsweise der auditiven Umgebung, und der Nutzereinstellungen, beispielsweise den Nutzerparametern, inhärent in Laufzeit zu lernen und anzupassen. Beispielsweise können benutzer-individuell angepasste Audio-Verarbeitungsparameter es ermöglichen, dass bei Verarbeitung des Audio-Eingangssignals unter Verwendung der Audio-Verarbeitungsparameter benutzer-individuell angepasste Audiosignale während des Benutzerbetriebs erhalten werden. Anders gesagt kann aus der Datenbasis ein nutzerspezifischer Parametersatz zur Klangverarbeitung erhalten beziehungsweise entwickelt werden, der einerseits automatisiert unter gleichen äußeren Rahmenbedingungen dieselben Steuerungsparameter anwendet, aber auch in der Situation selbst weitere Nutzer-Anpassungen zulässt, die in die Vorrichtung als lernendes System integriert werden. Beispielsweise kann sich so das Lernsystem und die Anwendung in einem fortwährenden Lernprozess den klanglichen Nutzerpräferenzen anpassen.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die Verarbeitungsparameter-Bestimmungsvorschrift basierend auf der Datenbasis bereitzustellen und/oder anzupassen. Beispielsweise kann die Vorrichtung die Datenbasis, beispielsweise unter Verwendung des bestärkenden Lernens, nutzen, um die Verarbeitungsparameter-Bestimmungsvorschrift bereitzustellen, um unter Verwendung der Audio-Verarbeitungsparameter benutzer-individuell angepasste Audiosignale, zum Beispiel während des Benutzerbetriebs, zu erhalten.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, den zumindest einen Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift basierend auf zumindest einem von einem Benutzer korrigierten und/oder veränderten Audio-Verarbeitungsparameter zu bestimmen und/oder anzupassen. Wie bereits erwähnt, kann die Vorrichtung ausgebildet sein, Benutzeranpassungen der Nutzerparameter während des Benutzerbetriebs zu berücksichtigen bzw. einzustellen, und beispielsweise zu einem späteren Zeitpunkt und entsprechend gleichen Ort bzw. entsprechend gleicher Klangumgebung weitere Benutzeranpassungen der Nutzerparametern zuzulassen, so dass die vorhergehenden Nutzerparameter mit neu eingestellten Nutzerparameter eingestellt und/oder überschrieben werden. In anderen Worten können Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift von einem Benutzer korrigiert werden und/oder es können beispielsweise veränderte Audio-Verarbeitungsparametern bestimmt werden, beispielsweise abhängig von der Klangumgebung zum jeweiligen Zeitpunkt, in der sich der Benutzer befindet.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, eine Audio-Verarbeitung, beispielsweise eine parametrisierte Audio-Verarbeitungsvorschrift, basierend auf dem Audio-Eingangssignal und basierend auf dem Audio-Verarbeitungsparameter auszuführen, um die benutzer-individuell angepassten Audiosignale, beispielsweise unter Berücksichtigung von Benutzermodifikationen der Audio-Verarbeitungsparameter, zu erhalten. Anders gesagt kann die Vorrichtung mittels einer optionalen Audio-Verarbeitung des Audio-Eingangssignals und der Audio-Verarbeitungsparameter ein benutzer-individuell angepasstes Audiosignal für den Audio-Ausgang bereitstellen. Es kann also beispielsweise die Audioverarbeitung in die Vorrichtung integriert werden, wodurch ein effizientes System erhalten wird. Die Audioverarbeitung kann optional auch bei der Bestimmung der Audio-Verarbeitungsparameter mit einbezogen werden.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift unter Verwendung eines Vergleichs des Audio-Eingangssignals und eines unter Verwendung des Audio-Verarbeitungsparameter-gelieferten Audio-Eingangssignals, beispielsweise unter Berücksichtigung von Benutzermodifikationen der Audio-Verarbeitungsparameter, zu bestimmen. Anders gesagt kann die Bestimmung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift auf einem Vergleich zwischen dem Audio-Eingangssignal und dem direkten Audio-Ausgangssignal oder dem durch die Audio-Verarbeitung gelieferten Audio-Ausgangssignal basieren. Beispielsweise kann optional vor oder nach Verwendung des Vergleichs eine Audio-Analyse des Audio-Eingangssignals oder eine Audio-Analyse des Audio-Ausgangssignals erfolgen, um die Koeffizienten der Vergleichsparameter-Bestimmungsvorschrift basierend auf einem Audio-Analyseergebnis der Audiosignale zu bestimmen. Eine Bestimmung der Koeffizienten der Parameter-Bestimmungsvorschrift unter Verwendung eines solchen Vergleich liefert besonders zuverlässige bzw. robuste Ergebnisse, da das tatsächlich an den Benutzer ausgegebene Audiosignal als Kriterium für die Bestimmung der Koeffizienten der Parameter-Bestimmungsvorschrift gemacht werden kann. Das Kriterium, dass das Audio-Ausgangssignal dem vom Benutzer gewünschten entsprechen soll, ist nämlich aussagekräftiger und robuster als die reine Optimierung der Audio-Verarbeitungsparameter an sich.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die von dem Benutzer eingestellten Nutzerparameter als Ausgangsgröße an Stelle der Audio-Verarbeitungsparameter bereitzustellen, wobei die von dem Benutzer eingestellten Nutzerparameter Lautstärkeparameter und/oder Klangparameter und/oder Equalizer-Parameter umfassen. Anders gesagt können Nutzerparameter beispielsweise Filterparameter zur Tongestaltung und/oder zur Entzerrung von Tonfrequenzen aufweisen. Indem die von dem Benutzer eingestellten Nutzerparameter als Ausgangsgröße bereitgestellt werden, wird beispielsweise ein kurzfristiger Benutzereingriff ermöglicht, was ein besonders gutes Nutzererlebnis zur Folge hat. Ein Nutzereingriff kann dann zusätzlich zur Verbesserung der Koeffizienten verwendet werden, um so zukünftige Nutzereingriffe nach Möglichkeit zu vermeiden (und stattdessen automatisch eine an den Nutzerwunsch angepasste Einstellung zu erreichen).
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgelegt, die Nutzerparameter mit den Audio-Verarbeitungsparametern zu kombinieren, beispielsweise durch Addition, um dadurch kombinierte Parameter der Audio-Verarbeitung zu erhalten und als Ausgangsgröße bereitzustellen. Kombinierte Parameter können beispielsweise Nutzerparameter und Audio-Verarbeitungsparameter aufweisen, die kombiniert der Audio-Verarbeitung bereitgestellt oder unter Verwendung der Audio-Verarbeitung kombiniert werden und als Ausgangsgröße beispielsweise dem bestärkenden Lernen bereitgestellt werden. Entsprechend ist ein schneller Nutzereingriff möglich, und es kann somit die Audioverarbeitung an die Benutzerwünsche angepasst werden.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, eine Audio-Analyse des Audio-Eingangssignals durchzuführen, um ein Audio-Eingangssignalanalyseergebnis für eine Bestimmung des zumindest einen Koeffizienten einer Verarbeitungsparameter-Bestimmungsvorschrift, beispielsweise unter Verwendung der Verarbeitungsparameter-Bestimmungsvorschrift, bereitzustellen. Beispielsweise kann die Verarbeitungsparameter-Bestimmungsvorschrift eine Ableitungsvorschrift zur Ableitung der Audio-Verarbeitungsparameter von dem Audio-Eingangssignalanalyseergebnis definieren. Die Audio-Analyse des Audio-Eingangssignals kann Audio-Eingangssignalanalyseergebnisse bereitstellen, beispielsweise in Form von Informationen über spektrale Eigenschaften und/oder Dynamik und/oder Frequenz des Audio-Eingangssignals, oder auch Informationen über Intensitätswerte pro Band. Die Audio-Eingangssignalanalyseergebnisse können beispielsweise als Eingangsgrößen für eine Bestimmung des einen oder der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift, zum Beispiel unter Verwendung des bestärkenden Lernens, bereitgestellt werden. Ausführungsbeispiele sehen dabei ferner vor, dass die Audio-Analyse das von dem Audio-Eingang kommende Audio-Eingangssignal im Vorhinein analysiert und evaluiert, um es der Verarbeitungsparameter-Bestimmungsvorschrift bereitzustellen, wobei das nicht zwingend erforderlich ist. So ist es beispielsweise möglich, zusätzlichen Informationen über spektrale Eigenschaften des Audio-Eingangssignals als Audio-Eingangssignalanalyseergebnis zu gewinnen. Weiterhin kann durch Verwendung eines Audio-Eingangssignalanalyseergebnisses die Verarbeitungsparameter-Bestimmungsvorschrift einfacher gestaltet werden als wenn beispielsweise das komplette Audio Eingangs-signal zur Bestimmung von Audio-Verarbeitungsparametern herangezogen würde. So können Parameter bzw. Werte des Audio-Eingangssignalanalyseergebnisses beispielsweise die wesentlichen Charakteristika des Audio-Eingangssignals in effizienter Weise beschreiben, so dass der Verarbeitungsparameter-Bestimmungsvorschrift eine vergleichsweise geringe Zahl an Eingangsvariablen (nämlich beispielsweise die) Parameter bzw. Werte des Audio-Eingangssignalanalyseergebnisses aufweist und daher vergleichsweise einfach implementierbar ist. Somit können gute Ergebnisse mit geringem Aufwand erzielt werden.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, eine Audio-Analyse des Audio-Ausgangssignals durchzuführen, um ein Audio-Ausgangssignalanalyseergebnis, beispielsweise in Form einer Information über spektrale Eigenschaften des Audio-Eingangssignals, für eine Bestimmung des zumindest einen Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift, zum Beispiel unter Verwendung der Verarbeitungsparameter-Bestimmungsvorschrift, bereitzustellen. In anderen Worten ist die Vorrichtung ausgebildet, eine Audio-Analyse vor der Verarbeitungsparameter-Bestimmungsvorschrift oder nach der Verarbeitungsparameter-Bestimmungsvorschrift durchzuführen, um entweder ein Audio-Eingangssignalanalyseergebnis oder ein Audio-Ausgangssignalanalyseergebnis oder beides für eine Bestimmung des Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift bereitzustellen. Beispielsweise ist es durch Bestimmung des Audio-Ausgangssignalanalyseergebnisses besonders einfach, das Audio Eingangssignal und das Audio-Ausgangssignal zu vergleichen, wobei beispielswiese Werte oder Parameter des Audio-Ausgangssignalanalyseergebnisses die charakteristischen Eigenschaften des Audio-Ausgangssignals besonders effizient (bzw. in besonders kompakter Form) beschreiben können. Somit ist eine Bestimmung bzw. Optimierung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift besonders effizient möglich, wobei die Erzielung einer von dem Benutzer gewünschten Verarbeitung beispielsweise durch Auswertung des Audio-Ausgangssignalanalyseergebnis in effizienter Weise erfolgen kann bzw. wobei ein Vergleich zwischen Audio-Eingangssignalanalyseergebnis und Audio-Ausgangssignalanalyseergebnis einen Rückschluss auf Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift erlauben kann.
  • Gemäß einem weiteren Ausführungsbeispiel umfasst der Audio-Verarbeitungsparameter beziehungsweise umfassen die Audio-Verarbeitungsparameter zumindest einen Multiband-kompressionsparameter R, und/oder zumindest einen Hörschwellenanpassungsparameter T, und/oder zumindest einen bandabhängigen Verstärkungsparameter G, und/oder zumindest einen Störgeräuschreduktionsparameter und/oder zumindest einen blinden Quelltrennungsparameter. Ferner können die Audio-Verarbeitungsparameter zumindest einen Schallrichtungsparameter, und/oder binaurale Parameter, und/oder Parameter über die Anzahl unterschiedlicher Sprecher, und/oder Parameter von adaptiven Filtern im Allgemeinen, zum Beispiel Hallunterdrückung, Feedback, Echo-Cancellation, Active-Noise-Cancellation (ANC), umfassen. Beispielsweise kann mittels einem Schallrichtungsparameter die Direktivität der Schallquelle ausgewählt beziehungsweise eingestellt werden, so dass der Schall nur aus der gewünschten Richtung, beispielsweise dem Gesprächspartner einer Konversation für die Kombination der Audio-Verarbeitungsparameter verarbeitet wird. Es wurde erkannt, dass derartige Audioverarbeitungsparameter eine Audiosignalverarbeitung in effizienter Weise beeinflussen können, wobei bereits mit einer geringen Zahl an Parametern, die ohne größere Schwierigkeiten durch eine Verarbeitungsparameter-Bestimmungsvorschrift bestimmte werden können, eine Beeinflussung der Audiosignalverarbeitung über einen weiten Einstellbereich hinweg möglich ist.
  • Gemäß einem weiteren Ausführungsbeispiel kann die Vorrichtung ein neuronales Netz umfassen, das zum Beispiel die Verarbeitungsparameter-Bestimmungsvorschrift implementiert, so dass der zumindest eine Koeffizient definiert wird, oder bevorzugt eine Mehrzahl von Koeffizienten definiert werden, die ausgelegt sind, um die Audio-Verarbeitungsparameter unter Verwendung der Verarbeitungsparameter-Bestimmungsvorschrift zu erhalten. Ferner kann das neuronale Netz ausgelegt sein, die Audio-Verarbeitungsparameter basierend auf dem Audio-Eingangssignal direkt von dem Audio-Eingang oder mittels der zwischengeschalteten Audio-Analyse als analysiertes Audio-Eingangssignal zu erhalten. Es wurde erkannt, dass ein neuronales Netz sich gut zur Bestimmung der Audio-Verarbeitungsparameter eignet und durch die Koeffizienten gut an die persönliche Wahrnehmung des einzelnen Nutzers anpassbar ist. Das neuronale Netz, dessen Kantengewichte beispielsweise durch die Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift definiert werden können, kann durch die Wahl der Koeffizienten (die beispielsweise durch eine Trainingsvorschrift erfolgen kann) an die Bedürfnisse des Benutzers anpassbar. Die Koeffizienten können beispielsweise sukzessive verbessert werden, wenn weitere Benutzereinstellungen vorliegen. Somit können Ergebnisse erzielt werden, die ein sehr gutes Benutzererlebnis bieten.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die Verarbeitungsparameter-Bestimmungsvorschrift basierend auf einer Methode des bestärkenden Lernens, und/oder basierend auf einer Methode des verstärkenden Lernens, und/oder basierend auf einer Methode des unbeaufsichtigten Lernens, und/oder basierend auf einer Methode der multivariaten Vorhersage, und/oder basierend auf einem mit multivariabler Regression festgelegten multidimensionalen Parameter bereitzustellen und/oder anzupassen, um den Audio-Verarbeitungsparameter zu bestimmen. Die Verarbeitungsparameter-Bestimmungsvorschrift kann beispielsweise Koeffizienten für das neuronale Netz bereitstellen, die beispielsweise auf der Methode des bestärkenden Lernens basieren. Die Methode der multivariaten Vorhersage kann beispielsweise eine Vorhersage von Frequenzbändern und/oder eine Vorhersage von Eingangs/Ausgangs-Kennlinien bzw. Input/Output-Kennlinien entsprechend der Nutzerparameter umfassen. Ferner kann die Methode mit multivariabler Regression beispielsweise alle vorhandenen Frequenzbänder analysieren, um einen multidimensionalen Parameterraum festzulegen. Als multidimensionaler Parameterraum kann beispielsweise eine zweidimensionale Parametereinstellung verstanden werden, die eine graphische Oberfläche aufweist, in der die Nutzerparameter zum Beispiel mittels Schieberegler oder einem Punkt auf einem Koordinatensystem, dessen Achsen Lautstärkeeinstellungen und Klangeinstellungen aufweisen bzw. zugeordnet sind, durch den Benutzer eingestellt und kontinuierlich angepasst werden können. Mittels der oben aufgeführten Methoden kann die Vorrichtung den Audio-Verarbeitungsparameter bestimmen, so dass zum Beispiel ein lernender Algorithmus benutzer-individuelle Audio-Verarbeitungsparameter einstellt, beziehungsweise, so dass sich durch Anwendung der Verarbeitungsparameter-Bestimmungsvorschrift gelieferte Audio-Verarbeitungsparameter mit zunehmendem Lernfortschritt an durch den Benutzer korrigierte Audio-Verarbeitungsparameter annähern, beziehungsweise, so dass sich die Verarbeitungsparameter-Bestimmungsvorschrift in einem fortwährenden Lernprozess anpasst, zum Beispiel in Abhängigkeit von Benutzer-Anpassungen der Audio-Verarbeitungsparameter. Erwartungsgemäß ist beispielsweise ein Zugriff der Methoden auf die Datenbasis bzw. den Datenspeicher uneingeschränkt (so dass beispielsweise mit zunehmender Größe der Datenbasis immer bessere Koeffizienten unter Verwendung der genannten Lernverfahren bestimmt werden können).
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die durch den Benutzer eingestellten Nutzerparameter, beispielsweise über oder mittels einer Schnittstelle, beispielsweise von einer Benutzerschnittstelle, einer intuitiven und/oder ergonomischen Benutzersteuerung, wie beispielsweise einem 2D-Raum auf einem Display eines Smartphones, zu erhalten. In anderen Worten kann die Vorrichtung eine Schnittstelle (beispielsweise eine elektrische Schnittstelle oder auch eine Mensch-Maschine-Schnittstelle) umfassen, um die Nutzerparameter einstellen zu können. Vorzugsweise kann eine visuelle Nutzersteuerung eine Lautstärkeeinstellung, beispielsweise mittels eines Schiebereglers für lauter und leiser und/oder eine Höhen- und Tiefenregelung, umfassen. Auf diese Weise kann die Einstellung des Parameter für den Menschen sehr einfach gemacht werden, wobei erkannt wurde, dass diese einfache Klangeinstellung in vielen Fällen bereits einen guten Höreindruck zur Folge hat.
  • Gemäß einem weiteren Ausführungsbeispiel umfasst das Audio-Eingangssignal ein Mehrkanal-Audiosignal, zum Beispiel mit mindestens vier Kanälen oder zumindest zwei Audio-Kanälen. Beispielsweise kann das Audio-Eingangssignal von dem Audio-Eingang, zum Beispiel von, über oder mittels einem Mikrofon, bereitgestellt werden. Ferner kann das Audio-Eingangssignal Informationen enthalten, wie beispielsweise die Anzahl der Kanäle und/oder die Anzahl der Frequenzbänder. Die Verwendung von Mehrkanalsignalen erlaubt beispielsweise eine Lokalisierung von gewünschten und/oder störenden Schallquellen sowie eine Berücksichtigung von Richtungen der gewünschten oder störenden Schalquellen bei der Bestimmung der Audio-Verarbeitungsparameter bzw. der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgelegt, eine Audio-Verarbeitung separat für zumindest vier Frequenzbänder des Audio-Eingangssignals durchzuführen. So kann sichergestellt werden, dass eine Frequenzselektivität bereitgestellt wird, um jede einzelne Frequenz analysieren zu können, beispielsweise falls das Audio-Eingangssignal ein Mehrkanal-Audiosignal umfasst. Die Berücksichtigung der unterschiedlichen Intensitäten in unterschiedlichen Frequenzbändern ermöglicht es, verschiedene akustische Umgebungen zu berücksichtigen und auch die spezifischen Wünsche des Benutzers im Hinblick auf den Frequenzgang in effizienter Weise zu berücksichtigen.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgelegt, den zumindest einen Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift benutzer-individuell, beispielsweise kontinuierlich, fortlaufend, während des Benutzerbetriebs, zum Beispiel in Echtzeit, zu bestimmen, um die Audio-Verarbeitungsparameter in Echtzeit, zum Beispiel in Laufzeit während des Benutzerbetriebs, zu erhalten und/oder die veränderten Audio-Verarbeitungsparameter in Echtzeit zu bestimmen und/oder anzupassen. In anderen Worten ist die Vorrichtung beispielsweise ausgelegt, die Audio-Verarbeitungsparameter in Echtzeit zu bestimmen und/oder anzupassen, so dass die Vorrichtung als lernendes System diesen Lernprozess in Echtzeit durchführt, beispielsweise während des Benutzerbetriebs. Anders gesagt wird bei der vorliegenden Erfindung beispielsweise die Klangverarbeitung auf Basis von in Echtzeit gemessenen äußeren Rahmenbedingungen gesteuert. Somit erfolgt auch eine Analyse aller vorhandenen Frequenzbänder in Echtzeit, so dass das Vorhersagemodell basierend auf einer multidimensionalen Optimierung in Echtzeit bereitgestellt werden kann, das bedeutet, beispielsweise eine Optimierung, in der anhand der analysierten Frequenzbänder und der Nutzerparameter im Datenspeicher gespeichert, die Audio-Verarbeitungsparameter bestimmt werden.
  • Gemäß einem weiteren Ausführungsbeispiel umfasst die vorliegende Erfindung ein Hörgerät, wobei das Hörgerät eine Audio-Verarbeitung aufweist und wobei das Hörgerät eine Vorrichtung zum Bestimmen von Audio-Verarbeitungsparametern aufweist, wobei die Audio-Verarbeitung ausgelegt ist, um ein Audio-Eingangssignal abhängig von den Audio-Verarbeitungsparametern zu verarbeiten. Beispielsweise kann das Hörgerät die Vorrichtung implementieren bzw. integrieren, um die individuelle Wahrnehmung von Klang bzw. Tönen in Form von Audiosignalen für den Benutzer zu verbessern. Es hat sich gezeigt, dass die hierin beschriebene Vorrichtung besonders gut für einen Einsatz in einem Hörgerät geeignet ist, und dass der Höreindruck durch den Einsatz des Erfindungskonzepts deutlich verbessert werden kann.
  • Ein Ausführungsbeispiel gemäß der vorliegenden Erfindung umfasst ein Verfahren zum Bestimmen von Audio-Verarbeitungsparametern in Abhängigkeit von zumindest einem Audio-Eingangssignal, wobei das Verfahren ein benutzer-individuelles Bestimmen von zumindest einem Koeffizienten einer Verarbeitungsparameter-Bestimmungsvorschrift, basierend auf beim Benutzerbetrieb erhaltenen Audiosignalen, und ein Erhalten von Audio-Verarbeitungsparametern unter Verwendung der Verarbeitungsparameter-Bestimmungsvorschrift, basierend auf dem Audio-Eingangssignal, aufweist. Das Verfahren basiert auf den selben Überlegungen wie die oben beschriebene Vorrichtung und kann optional um alle Merkmale, Funktionalitäten und Details ergänzt werden, die hierin auch im Hinblick auf die erfindungsgemäße Vorrichtung beschrieben sind. Das Verfahren kann um die genannten Merkmale, Funktionalitäten und Details sowohl einzeln auch in Kombination ergänzt werden.
  • Ein weiteres Ausführungsbeispiel gemäß der vorliegenden Erfindung umfasst ein Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens, wenn das Programm auf dem Computer läuft.
  • Kurzbeschreibung der Figuren
  • Ausführungsbeispiele werden nachfolgend bezugnehmend auf die beiliegenden Zeichnungen erläutert. Es zeigen:
  • Fig. 1
    ein schematisches Blockschaltbild einer Vorrichtung, die Audio-Verarbeitungsparameter in Abhängigkeit von zumindest einem Audio-Eingangssignal bestimmt;
    Fig. 2
    ein schematisches Blockschaltbild einer Vorrichtung gemäß einem Ausführungsbeispiel, die Audio-Verarbeitungsparameter in Abhängigkeit von zumindest einem Audio-Eingangssignal und mittels bestärkenden Lernens bestimmt, basierend auf einem Audio-Eingangssignal und einem Audio-Ausgangssignal;
    Fig. 3
    ein schematisches Blockschaltbild einer Vorrichtung gemäß einem Ausführungsbeispiel, die Audio-Verarbeitungsparameter in Abhängigkeit von zumindest einem Audio-Eingangssignal und mittels bestärkenden Lernens bestimmt, basierend auf einer Audio-Analyse des Audio-Eingangssignals und einer Audio-Analyse des Audio-Ausgangssignals;
    Fig. 4
    ein schematisches Blockschaltbild einer Vorrichtung, die Audio-Verarbeitungsparameter in Abhängigkeit von zumindest einem Audio-Eingangssignal und mittels bestärkenden Lernens bestimmt, basierend auf einer Audio-Analyse des Audio-Eingangssignals und auf durch den Benutzer eingestellte Nutzerparameter;
    Fig. 5
    ein schematisches Blockschaltbild einer Vorrichtung, die Audio-Verarbeitungsparameter in Abhängigkeit von zumindest einem Audio-Eingangssignal und mittels bestärkenden Lernens bestimmt, basierend auf einem Audio-Eingangssignal und auf durch den Benutzer eingestellte Nutzerparameter; und
    Fig. 6
    ein schematisches Ablaufdiagramm eines Verfahrens zum Bestimmen von Audio-Verarbeitungsparametern.
    Detaillierte Beschreibung von Ausführungsbeispielen der Erfindung
  • Bevor nachfolgend Ausführungsbeispiele der vorliegenden Erfindung im Detail anhand der Zeichnungen näher erläutert werden, wird darauf hingewiesen, dass identische, funktionsgleiche oder gleichwirkende Elemente, Objekte und/oder Strukturen in den unterschiedlichen Figuren mit den gleichen Bezugszeichen versehen sind, so dass die in unterschiedlichen Ausführungsbeispielen dargestellte Beschreibung dieser Elemente untereinander austauschbar ist bzw. aufeinander angewendet werden kann.
  • Nachfolgend beschriebene Ausführungsbeispiele werden im Zusammenhang mit einer Vielzahl von Details beschrieben. Ausführungsbeispiele können jedoch auch ohne diese detaillierten Merkmale implementiert werden. Des Weiteren werden Ausführungsbeispiele der Verständlichkeit wegen unter Verwendung von Blockschaltbildern als Ersatz einer Detaildarstellung beschrieben. Ferner können Details und/oder Merkmale einzelner Ausführungsbeispiele ohne Weiteres miteinander kombiniert werden, solange es nicht explizit gegenteilig beschrieben ist.
  • Fig. 1 zeigt ein schematisches Blockschaltbild einer Vorrichtung 100 zum Bestimmen von Audio-Verarbeitungsparametern 120, die ausgangsseitig der Vorrichtung 100 dargestellt sind, in Abhängigkeit von zumindest einem Audio-Eingangssignal 110, das eingangsseitig der Vorrichtung 100 dargestellt ist. Die beispielhafte schematische Darstellung der Vorrichtung 100 umfasst beispielsweise ein Bestimmen von Koeffizienten, das mit dem Block Koeffizienten-Bestimmung 130 dargestellt ist, so dass Koeffizienten 132 der Koeffizienten-Bestimmung 130 der Verarbeitungsparameter-Bestimmungsvorschrift 140 bereitgestellt werden können. Das Audio-Eingangssignal 110 kann beispielsweise direkt von der Verarbeitungsparameter-Bestimmungsvorschrift 140 verwendet werden, um die Koeffizienten 142 der Verarbeitungsparameter-Bestimmungsvorschrift 140 zu erhalten, und/oder als beim Benutzerbetrieb erhaltenes Audiosignal 112 von der Koeffizienten-Bestimmung 130 verwendet werden, um die Koeffizienten 132 der Koeffizienten-Bestimmung 130 bereitzustellen. Beispielsweise kann die Koeffizienten-Bestimmung 130 während des Benutzerbetriebs benutzer-individuell erfolgen, so dass die Koeffizienten 132 der Koeffizienten-Bestimmung 130 der Verarbeitungsparameter-Bestimmungsvorschrift 140 bereitgestellt werden, um die Audio-Verarbeitungsparameter 120 unter Verwendung der Verarbeitungs-Bestimmungsvorschrift 140 basierend auf dem Audio-Eingangssignal 110 zu erhalten.
  • Somit können die Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift beispielsweise so eingestellt werden, dass die Verarbeitungsparameter-Bestimmungsvorschrift basierend auf den Audio-Eingangssignal und unter Verwendung der Koeffizienten als Ausgabe Audio-Verarbeitungsparameter liefert, die bei Verwendung in einer Audio-Verarbeitung zu einem Audio-Ausgangssignal führen, das den Benutzer-Erwartungen entspricht.
  • Fig. 2 zeigt ein schematisches Blockschaltbild einer Vorrichtung 200 gemäß einem Ausführungsbeispiel. Die dargestellte Vorrichtung 200 zum Bestimmen von Audio-Verarbeitungsparametern umfasst beispielsweise einen Audio-Eingang 210, eine Audio-Verarbeitung 220, eine Nutzersteuerung 230, einen Audio-Ausgang 240, eine Verarbeitungsbestimmungs-Vorschrift (bzw. Verarbeitungsparameter-Bestimmungseinrichtung) in Form eines bestärkenden Lernens 250 und ein neuronales Netz 260.
  • Der Audio-Eingang 210 kann beispielsweise ein Mikrofon oder ein anderes Audioerfassungsgerät umfassen und beispielsweise Informationen über die Anzahl von Kanälen, zum Beispiel "C" und/oder Informationen über die Anzahl von Frequenzbändern, zum Beispiel "B", enthalten. Beispielsweise kann ein Ton, ein Klang oder eine Schallwelle, bzw. ganz allgemein ein Audiosignal, über den Audio-Eingang 210 empfangen und als Audio-Eingangssignal 212, 214 und 216 beispielsweise für die Audio-Verarbeitung 220, und/oder für das bestärkende Lernen 250, und/oder für das neuronale Netz 260 bereitgestellt werden. Beispielsweise kann das Audiosignal 212 für das neuronale Netz 260, das Audiosignal 214 für das bestärkende Lernen 250 und das Audiosignal 216 für die Audio-Verarbeitung 220 bereitgestellt werden (wobei die Audiosignale 212,214,216 gleich sein können, oder sich beispielsweise im Detail (zum Beispiel in der Abtastrate, der Frequenzauflösung, der Bandbreite, etc.) unterscheiden können. Dabei kann das Audiosignal 212 dem Audiosignal 214 und/oder dem Audiosignal 216 entsprechend gleichen (oder zumindest den gleichen Audioinhalt beschreiben) und die entsprechend gleichen Informationen über die Anzahl der Frequenzkanäle und Frequenzbänder aufweisen, so dass das Audio-Eingangssignal von dem Audio-Eingang 210 direkt, beispielsweise ohne weitere Audio-Analysen, aufgeteilt wird und, zum Beispiel über mehrere Ausgänge oder Datenpfade des Audio-Eingangs 210, bereitgestellt werden kann.
  • Die Audio-Verarbeitung 220 kann beispielsweise eine und/oder mehrere parametrisierte Audio-Verarbeitungsvorschriften aufweisen, die ein oder mehrere Audio-Signale 216 beispielsweise so verarbeitet/verarbeiten, dass auf Basis des eingehenden Audiosignals 216 (bzw. der eingehenden Audiosignale) unter Verwendung der parametrisierten Audio-Verarbeitungsvorschrift, die beispielsweise durch die kombinierten Parameter 272 parametrisiert wird, ein benutzer-individuell angepasstes Audiosignal 217 bereitgestellt wird (oder mehrere Benutzer-individuell angepasste Audiosignale bereitgestellt werden). Die Audio-Verarbeitung 220 ermöglicht es, das Audio-Eingangssignal 216, das auf dem Audio-Eingang 210 basiert, unter Verwendung der kombinierten Parameter 272 zu verarbeiten, beispielsweise unter Verwendung der parametrisierten Audio-Verarbeitungsvorschrift, um das benutzer-individuell angepasste Audiosignal 217 zu erhalten. Optionale Details und Ausführungsbeispiele zu den kombinierten Parametern 272 werden im weiteren Verlauf der vorliegenden Patentanmeldung näher erläutert. Zuvor folgen weitere Details und Ausführungsbeispiele zu den Komponenten der Vorrichtung 200.
  • Der Audio-Ausgang 240 kann beispielsweise das von der Audio-Verarbeitung 220 veränderte, neu zugeordnete, benutzer-individuell angepasste Audiosignal 217 empfangen und als ein verändertes beziehungsweise verarbeitetes Audiosignal 218 für eine Bestimmung von Parametern bzw. Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift (beispielsweise des neuronalen Netzes 260) einem Koeffizienten-Bestimmer 250 (der beispielsweise unter Verwendung eines bestärkenden Lernens realisiert ist) bereitstellen. Alternativ oder zusätzlich kann der Audio-Ausgang beispielsweise das von der Audio-Verarbeitung 220 veränderte, neu zugeordnete, benutzer-individuell angepasste Audiosignal 217 als ein verändertes beziehungsweise verarbeitetes Audiosignal 219 für eine Schnittstelle, beispielsweise für Kopfhörer oder Lautsprecher bereitstellen, wobei das nicht zwingend erforderlich ist.
  • Ferner ermöglichen es Ausführungsbeispiele, dass zusätzliche Informationen des Audiosignals 218 über den Audio-Ausgang 240 an das bestärkende Lernen 250 (oder eine andere Einrichtung zur Bestimmung von Koeffizienten oder Parametern der Verarbeitungsparameter-Bestimmungsvorschrift ) bereitgestellt werden, um beispielsweise einen Datenspeicher 252 (dessen Inhalt Teil einer Datenbasis sein kann) mit Informationen über Audiosignale zu versorgen.
  • Das Audio-Ausgangssignal 218 kann, beispielsweise wie das Audio-Eingangssignal 214, dem bestärkenden Lernen 250 zur Bestimmung von Koeffizienten oder Parametern der Verarbeitungsparameter-Bestimmungsvorschrift 260 bereitgestellt werden, so dass beispielsweise die Informationen des Audio-Eingangssignals 214 und des Audio-Ausgangssignals 218 in einem Datenspeicher 252 als eine entsprechende Datenbasis der Vorrichtung 200 gespeichert werden.
  • In anderen Worten kann beispielsweise mittels der Audiosignale 218 und 214 das bestärkende Lernen 250 Koeffizienten oder Parameter der Verarbeitungsparameter-Bestimmungsvorschrift 260 bestimmen. Ferner kann das bestärkende Lernen 250beispielsweise basierend auf den Audiosignalen 214,218 die Datenbasis vergrößern beziehungsweise und/oder die Audiosignale 214,218 in den Datenspeicher 252 aufnehmen. Alternativ oder zusätzlich kann das bestärkende Lernen zumindest einen nutzerangepassten Koeffizienten 254 bestimmen oder in die Datenbasis einspeichern.
  • Es sei allerdings darauf hingewiesen, dass die Nutzung des Ausgangs-Audiosignals 218 durch das bestärkende Lernen 250 (oder durch eine andere Vorrichtung zur Bestimmung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift, die an die Stelle des bestärkenden Lernens 250 treten kann) als optional anzusehen ist.
  • Die Datenbasis beziehungsweise der Datenspeicher 252 kann eine Vielzahl von Informationen umfassen, zum Beispiel Informationen über den Audio-Eingang 210 (bzw. über ein Audio-Eingangssignal) und/oder über eines oder mehrere der Audiosignale 212 und 214 von dem Audio-Eingang 210 kommend, und/oder Informationen über den Audio-Ausgang 240 und/oder über das Audiosignal 218 von dem Audio-Ausgang 240 kommend, und/oder Informationen über und für die Audio-Verarbeitung 220 und zum Beispiel auch zumindest einen nutzerangepassten Koeffizienten 254. Als nutzerangepasste Koeffizienten 254 können Koeffizienten verstanden werden, die beispielsweise für eine Verwendung durch die Verarbeitungsparameter-Bestimmungsvorschrift 250 basierend auf der Datenbasis 252 und/oder basierend auf einem eingestellten Nutzerparameter 232 bestimmt werden. Als nutzerangepasste Koeffizienten können aber auch durch den Benutzer eingestellte Parameter der Audio-Verarbeitung verstanden werden.
  • Die Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift, also beispielsweise Kantengewichte des Neuronalen Netzes, können unter anderem auf einer Methode des bestärkenden Lernens basieren, die in der Fig. 2 mit dem Bezugszeichen 250 als "Bestärkendes Lernen" gekennzeichnet ist.
  • Beispielsweise kann das bestärkende Lernen 250 (zum Beispiel als eine Teilfunktion) die Datenbasis beziehungsweise den Inhalt des Datenspeichers 252 so bestimmen, dass der Datenspeicher 252 eine Zuordnung zwischen verschiedenen Audio-Eingangssignalen 212, 214 und jeweiligen durch den Benutzer eingestellten Nutzerparametern 232, beispielsweise einen nutzerangepassten Koeffizienten 254, beschreibt.
  • Indem beispielsweise das bestärkende Lernen 250 die Datenbasis beziehungsweise den Inhalt des Datenspeichers 252 so bestimmt, dass der Datenspeicher 252 (beispielsweise zusätzlich) eine Zuordnung zwischen dem Audio-Ausgangssignal 218 und jeweiligen durch den Benutzer eingestellten Nutzerparametern, beispielsweise einen nutzerangepassten Koeffizienten 254, beschreibt, können Koeffizienten 256 des neuronalen Netzes durch das bestärkende Lernens 250 in Vorteilhafter Weise bereitgestellt werden.
  • Darüber hinaus kann die Verarbeitungsparameter-Bestimmungsvorschrift als ein neuronales Netz 260 ausgelegt sein, oder kann integriert in ein neuronales Netzt vorgesehen sein, um Audio-Verarbeitungsparameter 262 unter Verwendung des beispielsweise durch das bestärkende Lernen 250 bestimmten Koeffizienten 256 zu erhalten. Anders gesagt, es kann beispielsweise das neuronale Netz 260 basierend auf dem Audiosignal 212 und dem durch das bestärkende Lernen 250 erhaltenen Koeffizienten 256 die Audio-Verarbeitungsparameter 262 bestimmen, so dass im Ergebnis beispielsweise ein lernender Algorithmus benutzer-individuelle Audio-Verarbeitungsparameter 262 einstellt.
  • Der zumindest eine Audio-Verarbeitungsparameter 262, der von dem neuronalen Netz 260 geliefert wird, kann eine ein einziger Parameter sein, oder kann mehrere Parameter umfassen. Das Neuronale Netz 260 kann als Audio Verarbeitungsparameter 262 beispielsweise einen oder mehrere der folgenden Parameter liefern: einen Parameter des Nutzerprofils N, und/oder einen Multiband-Kompressionsparameter R, und/oder einen Hörschwellen-Anpassungsparameter T, und/oder Glättungen (bzw. einen oder mehrere Glättungsparameter) und/oder Kompressionseinstellungen (bzw. einen oder mehrere Kompressionsparameter). Ferner können zur Klanganpassung (alternativ oder zusätzlich) ein oder mehrere Parameter verwendet (bzw. durch das neuronale Netz als Audioverarbeitungsparameter 262 geliefert) werden, wie beispielsweise eine bandabhängige Verstärkung G, eine Störgeräuschreduktion (bzw. ein oder mehrere Störgeräuschreduktionsparameter) und/oder eine blinde Quellentrennung (bzw. ein oder mehrere Parameter einer blinden Quellentrennung).
  • Beispielsweise kann die Anzahl der Eingangsparameter (zum Beispiel des bestärkenden Lernens 250 und/oder des neuronalen Netzes 260) sich in Abhängigkeit von einer Anzahl C an Kanälen eines Mehrkanal-Audiosignals ergeben, und auch in Abhängigkeit von einer Anzahl B der Verarbeitungsbänder, bzw. in Abhängigkeit von einer Anzahl P der Nutzerparameter. Beispielsweise kann die Anzahl der Nutzerparameter P sich als das Produkt aus der Anzahl der Frequenzbänder B und der Anzahl der Audiosignale bzw. Audiokanäle C ergeben.
  • Alternativ oder zusätzlich können die Eingangsparameter (zum Beispiel des bestärkenden Lernens oder des neuronalen Netzes) Audiomerkmale ("Audio Features") N umfassen, beispielsweise F=2048 Fourierkoeffizienten pro Kanal für jeweils Eingang (z. B. das Audio-Eingangssignal) und Ausgang (z. B. das Audio-Ausgangssignal), beispielsweise alle 10ms.
  • Beispielsweise kann die Anzahl der Ausgangsparameter (beispielsweise der Ausgangsparameter des neuronalen Netzes 260 bzw. der Eingangsparameter der Audio-Verarbeitung) in einem erlernten Nutzerprofil M sich aus der Anzahl der Audiokanäle (zum Beispiel C), der Hörschwellenanpassung T, der Multibandkompression mit Rate R, der bandabhängigen Verstärkung G und zwei weiteren Zeitkonstanten zusammensetzen, wobei die Anzahl der Werte von G, R, T beispielsweise der Anzahl der Bänder B entspricht. Ferner kann der Wert des erlernten Nutzerprofils M (bzw. die Werte des erlernten Nutzerprofils M) den nutzerangepassten Koeffizienten (oder Parameter) 254 (bzw. einen Satz von Nutzerangepassten Koeffizienten bzw. Parametern) bilden.
  • Die Nutzersteuerung 230 stellt zumindest einen Nutzerparameter 232 bereit, der beispielsweise Parameter der Lautstärke, und/oder Parameter der Klangregelung umfassen kann. Die Nutzersteuerung kann beispielsweise eine Schnittstelle zur Visualisierung der ein oder mehreren Nutzerparameter umfassen kann.
  • Eine Lautstärkesteuerung bzw. eine Lautstärkeregelung, die durch die Nutzersteuerung 230 erfolgen kann, kann beispielsweise Parameter liefern, die eine Verstärkung oder Dämpfung des Audiosignals bewirken. Mittels einem Tiefenregler, einem Höhenregler und/oder einem Equalizer kann der Benutzer über die Nutzersteuerung 230 beispielsweise Parameter der Klangregelung einstellen, die beispielsweise als Teil der Nutzerparameter 232 mit den (durch das neuronale Netz 260 gelieferten) Audio-Verarbeitungsparametern 262 unter Verwendung einer Kombination 270 zusammengeführt werden können.
  • Anders gesagt, können die von der Nutzersteuerung 230 gelieferten Nutzerparameter 232 mit dem Audio-Verarbeitungsparameter 262 kombiniert werden, beispielsweise durch Addition, Multiplikation, Division oder Subtraktion. Durch die Kombination 270 der Nutzerparameter 232 mit den Audio-Verarbeitungsparametern 262 können zum Beispiel dadurch kombinierte Parameter 272, der Audio-Verarbeitung 220 bereitgestellt werden. Alternativ können die Benutzerparameter 232 die Parameter 262 auch ersetzen, beispielsweise wenn der Benutzer eine deutlich andere Einstellung wünscht als diese durch die Parameter 262 vorgegeben wird.
  • Zusammenfassend ist festzuhalten, dass die Vorrichtung 200 ein Audio-Eingangssignal, das über den Audio-Eingang 210 erhalten wird, in der Audio-Verarbeitung 220 verarbeitet, um Klangeigenschaften an die Wünsche bzw. Bedürfnisse eines Benutzers anzupassen. Eine Verarbeitungscharakteristik der Audio-Verarbeitung 220 wird durch die Parameter 272 eingestellt, wobei die Parameter 272 einerseits durch das neuronale Netz 260 beeinflusst werden und andererseits durch den Nutzer über die Nutzersteuerung 230 modifiziert werden können. Das bestärkende Lernen 250 erfüllt allgemein gesprochen die Funktion, einen oder mehrere Koeffizienten (z. B. Kantengewichte) des neuronalen Netzes so anzupassen, dass die durch das neuronale Netz gelieferten Parameter im Wesentlichen den Benutzererwartungen entsprechen, also im Rahmen von akzeptablen Toleranzen die Parameterwerte aufweisen, die die der Benutzer über die Nutzersteuerung 230 in jeweiligen verschiedenen akustischen Umgebungen einstellt.
  • Somit kann erreicht werden, dass die Vorrichtung nach einem ausreichenden Training in vielen verschiedenen akustischen Umgebungen eine für den Benutzer angenehme automatische Einstellung der Audio-Verarbeitung erreicht.
  • Fig. 3 zeigt eine schematische Darstellung beziehungsweise ein schematisches Blockschaltbild einer Vorrichtung 300 zum Bestimmen von Audio-Verarbeitungsparametern in Abhängigkeit von einem Audio-Eingangssignal und einen Audio-Ausgangssignal, das auf der Vorrichtung 200 aus der Fig. 2 basiert.
  • Es sei darauf hingewiesen, dass bei der Vorrichtung 300 gemäß Fig. 3 Funktionsblöcke, die auch in der Fig. 2 gezeigt sind, beispielsweise eine ähnliche oder gleiche Funktionalität aufweisen können wie entsprechende Funktionsblöcke in der Vorrichtung 200 (aber nicht notwendigerweise aufweisen müssen). Es sei ferner darauf hingewiesen, dass die Vorrichtung 300 optional um alle Merkmale, Funktionalitäten und Details ergänzt werden kann, die hierin beschrieben sind, und zwar sowohl einzeln als auch in Kombination.
  • Die Vorrichtung 300 verfügt, ebenso wie die Vorrichtung 200, über einen Audio-Eingang 310 (der dem Audio-Eingang 200 entsprechen kann), eine Audio-Verarbeitung 320 (die der Audio-Verarbeitung 220 entsprechen kann), eine Nutzersteuerung 330 (die der Nutzersteuerung 230 entsprechen kann), einen Audio-Ausgang 340 (der dem Audio-Ausgang 240 entsprechen kann), ein bestärkendes Lernen 350 (das beispielsweise von seiner Grundfunktion dem bestärkenden Lernen 250 entsprechen kann), ein neuronales Netz 360 (das beispielsweise von seiner Grundfunktion her dem neuronalen Netz 260 entsprechen kann) und die Kombination 370 der benutzer-individuell eingestellten Nutzerparameter 332 und der Audio-Verarbeitungsparameter 362 (die beispielsweise der Kombination 270 entsprechen kann).
  • Ausgehend von der Vorrichtung 200 aus der Fig. 2 beinhaltet beziehungsweise umfasst die Vorrichtung 300 der Fig. 3 zusätzlich eine Audio-Analyse 380-1 zwischen dem Audio-Eingang 310 und dem neuronalen Netz 360 sowie eine Audio-Analyse 380-2 zwischen dem Audio-Ausgang 340 und dem bestärkenden Lernen 350.
  • Insbesondere diese Anordnung ermöglicht es der Audio-Analyse 380-1 beispielsweise das von dem Audio-Eingang 310 ausgehende Audio-Eingangssignal 311 zu empfangen und zu analysieren, um ein Audio-Eingangssignalanalyseergebnis, beispielsweise eine Information über spektrale Eigenschaften und/oder Dynamik und/oder Frequenz des Audio-Eingangssignals 311, in Form des Audio-Analysesignals 312 und/oder 314 bereitzustellen. Die Information des Audio-Analyse-Ergebnisses der Audio-Analyse 380-1 kann beispielsweise dem neuronalen Netz 360 und dem bestärkenden Lernen 350 (beispielsweise zeitgleich) über die analysierten Audiosignale 312, 314 bereitgestellt werden.
  • Die Verarbeitungsparameter-Bestimmungsvorschrift, die beispielsweise ein Teil des neuronalen Netzes 360 (oder ein Teil des bestärkenden Lernens 350) umfassen kann, bzw. die durch das neuronale Netz 360 implementiert wird, kann beispielsweise eine Ableitungsvorschrift zur Ableitung der Audio-Verarbeitungsparameter 362 von dem Audio-Eingangsanalyseergebnis definieren. Mittels der Audio-Analyse 380-1 können zusätzliche (bzw. kompakte) Informationen über spektrale Eigenschaften, zum Beispiel ein Intensitätswert pro Frequenzband und Kanal, erhalten werden, um beispielsweise bei Audiosignalen (zum Beispiel bei Mehrkanal-Audiosignalen) eine Frequenzselektivität bereitzustellen. Die Frequenzselektivität ist erforderlich, um die wahrnehmbaren klanglichen Aspekte des Signals analysieren und darstellen zu können. Allgemein gesprochen kann durch die Audio-Analyse 380-1 eine Eingangs-Datenmenge des neuronalen Netzes deutlich verringert werden, beispielsweise im Vergleich zu einem Konzept, bei dem Zeitbereichs-Abtastwerte in das neuronale Netz eingegeben werden. Indem beispielsweise die analysierten Audiosignale 312, 314 Parameter enthalten, die Eigenschaften des Audio-Eingangssignals in kompakter Form beschreiben (wobei eine Anzahl von Parametern pro Zeitabschnitt beispielsweise um zumindest einen Faktor 10 oder um zumindest einen Faktor 20 oder um zumindest einen Faktor 50 geringer ist als eine Anzahl an Abtastwerten pro Zeiteinheit) kann die Komplexität des neuronalen Netzes 360 vergleichsweise gering gehalten werden. Dementsprechend kann die Anzahl an Koeffizienten des neuronalen Netzes vergleichsweise gering gehalten werden, was einen Lernvorgang (beispielsweise durch das bestärkende Lernen 350) erleichtert. Dies gilt umso mehr, je besser die Parameter der analysierten Audiosignale geeignet sind, um unterschiedliche akustische Umgebungen zu unterscheiden.
  • Zusätzlich wird eine Audio-Analyse 380-2 des Audio-Ausgangssignals 342 durchgeführt, um ein Audio-Ausgangssignalanalyseergebnis für eine Bestimmung des zumindest einen Koeffizienten der Verarbeitungs-Parametervorschrift, beispielsweise zumindest einen Koeffizienten des bestärkenden Lernens 350 bereitzustellen.
  • Möglich ist auch eine "gemeinsame" Audio-Analyse des Audio-Eingangssignals 311 und des Audio-Ausgangssignals 342 (also beispielswiese eine Audio-Analyse sowohl des Audio-Eingangssignals als auch des Audio-Ausgangssignals), wobei separate Audio-Signalanalyseergebnisse bereitgestellt werden können. Separat heißt in diesem Zusammenhang, dass das Audio-Eingangssignalanalyseergebnis beispielsweise anderen Komponenten bereitgestellt werden kann, verglichen mit dem Audio-Ausgangssignalanalyseergebnis. Beispielsweise können die Informationen der Audio-Analyse 380-1, 380-2 des Eingangsbeziehungsweise Ausgangssignals unterschiedlich zueinander oder entsprechend gleich sein.
  • Ausführungsbeispiele sehen dabei ferner vor, dass der Audio-Ausgang 340 ein verändertes beziehungsweise verarbeitetes Audiosignal 319 für eine Schnittstelle, beispielsweise für Kopfhörer oder Lautsprecher, bereitstellen, wobei das nicht zwingend erforderlich ist. Ferner ermöglichen es Ausführungsbeispiele, dass die Audio-Analyse 380-2 das Audio-Signal 313 für die Schnittstelle oder für eine weitere Schnittstelle bereitstellt. Hierdurch kann die Vorrichtung 300 das Audiosignal 319 und 313 beispielsweise über zumindest eine Schnittstelle externen Komponenten bereitstellen, wobei das nicht zwingend erforderlich ist.
  • Zusammenfassend ist somit festzuhalten, dass bei der Vorrichtung 300 nicht das Eingangs-Audiosignal oder das Ausgangs-Audiosignal selbst dem neuronalen Netz 360 oder dem bestärkenden Lernen 350 zugeführt werden, sondern ein oder mehrere entsprechende Audio-Analyseergebnisse. Somit kann durch geeignete Vorab-Analyse des Eingangs-Audiosignals und/oder des Ausgangs-Audiosignals eine Komplexität des neuronalen Netzes und damit auch eine Komplexität des bestärkenden Lernens niedrig gehalten werden, was den Implementierungsaufwand deutlich senkt.
  • Fig. 4 zeigt ein schematisches Blockschaltbild einer Vorrichtung 400 zum Bestimmen von Audio-Verarbeitungsparametern in Abhängigkeit von zumindest einem Eingangs-Signal, die teilweise auf der Vorrichtung 200 aus der Fig. 2 basiert.
  • Es sei darauf hingewiesen, dass bei der Vorrichtung 400 gemäß Fig. 4 Funktionsblöcke, die auch in der Fig. 2 gezeigt sind, beispielsweise eine ähnliche oder gleiche Funktionalität aufweisen können wie entsprechende Funktionsblöcke in der Vorrichtung 200 (aber nicht notwendigerweise aufweisen müssen). Es sei ferner darauf hingewiesen, dass die Vorrichtung 400 optional um alle Merkmale, Funktionalitäten und Details ergänzt werden kann, die hierin beschrieben sind, und zwar sowohl einzeln als auch in Kombination.
  • Die Vorrichtung 400 umfasst einen Audio-Eingang 410 (der beispielsweise dem Audio-Eingang 210 entsprechen kann), eine Audio-Verarbeitung 420 (die beispielsweise der Audio-Verarbeitung 220 entsprechen kann), eine Nutzer-Steuerung 430 (die beispielsweise der Nutzer-Steuerung 230 entsprechen kann), einen Audio-Ausgang 440 (der beispielswiese dem Audio-Ausgang 240 entsprechen kann), ein bestärkendes Lernen 450 (das beispielsweise von seiner grundsätzlichen Funktion her dem bestärkenden lernen 250 entsprechen kann), ein neuronales Netz 460 (das beispielsweise von seiner grundsätzlichen Funktion her dem neuronalen netz 260 entsprechen kann), eine Kombination 470 )die beispielsweise der Kombination 270 entsprechen kann) und eine Audio-Analyse 480 (die beispielsweise der Audio-Analyse 380-1 entsprechen kann) zwischen dem Audio-Eingang 410 und dem neuronalen Netz 460 und dem bestärkenden Lernen 450.
  • Verglichen mit der Vorrichtung 300 umfasst die Vorrichtung 400 keine Audio-Analyse des Audio-Ausgangs 440 und verglichen mit der Vorrichtung 200 wird kein Audio-Ausgangssignal von dem Audio-Ausgang 440 kommend dem bestärkenden Lernen 450 bereitgestellt. Anders gesagt, erhält das bestärkende Lernen 450 keine Informationen über das Audio-Ausgangssignal.
  • Stattdessen basiert das bestärkende Lernen 450 auf den kombinierten Parametern 472, 473 beziehungsweise auf einer Information 433, die Änderungen bzw. Anpassungen der durch das neuronale Netz 460 gelieferten Audioverarbeitungsparameter 462 durch den Benutzer beschreibt. Ferner verwendet das bestärkende Lernen das Audio-Eingangssignalanalyseergebnis 414.
  • In anderen Worten kann das bestärkende Lernen 450 eine Datenbasis 452 in Abhängigkeit von durch den Benutzer eingestellten Nutzerparametern beziehungsweise den kombinierten Parameter 472, 473 bestimmen, so dass Einträge der Datenbasis 452 die durch den Benutzer eingestellten Nutzerparameter 472, 473 darstellen. Die Datenbasis 452 kann zur Bestimmung der Koeffizienten 456 der Verarbeitungsparameter-Bestimmungsvorschrift, beziehungsweise des neuronalen Netzes 460, bereitgestellt bzw. verwendet werden. Dadurch kann ein Vorhersagemodell bestimmt werden, das direkt auf Nutzerparametern (bzw. den durch den Nutzer angepassten Audiosignal-Verarbeitungsparametern 472) basiert, die direkt in das bestärkende Lernen 450 zugeordnet werden.
  • Optional können die ein oder mehreren kombinierten Parameter 472, 473 beziehungsweise Nutzerparameter auch im Betrieb direkt, mittels dem kombinierten Parameter 474 in das neuronale Netz 460 eingehen, so dass als Ausgabe beispielsweise die Kompressoreinstellungen und/oder andere Parameter für die Audio-Verarbeitungsparameter 462 bereitgestellt werden können.
  • Alternativ oder optional können die jeweiligen durch den Benutzer eingestellten Nutzerparameter 432 direkt dem bestärkenden Lernen 450 bereitgestellt werden (wie bei Bezugszeichen 433 gezeigt), wobei das nicht zwingend erforderlich ist. Es kann also beispielsweise eine Information darüber, wie sehr der Benutzer die durch das neuronale Netz 460 gelieferten Parameter 462 verändert, für das bestärkende Lernen verwendet werden. Ändert der Benutzer die durch das neuronale Netz 460 gelieferten Parameter 462 gar nicht oder nur wenig, so kann davon ausgegangen werden, dass der Benutzer mit der aktuellen Funktionalität des neuronalen Netzes völlig oder zumindest in sehr hohem Maße zufrieden ist, so dass Koeffizienten des neuronalen Netzes gar nicht oder nur geringfügig geändert werden müssen. Nimmt der Benutzer hingegen deutliche Veränderungen der Parameter 462 vor, so kann durch das bestärkende lernen davon ausgegangen werden, dass eine deutliche Veränderung der Koeffizienten des neuronalen Netzes erforderlich ist, um zu erreichen, dass die durch das neuronale Netz gelieferten Parameter 462 den Benutzererwartungen entsprechen. Insofern kann beispielswiese die Information 433, die einen Benutzereingriff beschreibt, durch das bestärkende Lernen verwendet werden, um ein Lernen auszulösen und/oder einen Umfang der Veränderungen der Koeffizienten des neuronalen Netzes zu bestimmen.
  • Insgesamt ermöglicht es die Vorrichtung gemäß der Fig. 4, die Koeffizienten 456 des neuronalen Netzes 460 in effizienter Weise zu lernen und/oder (z. B. kontinuierlich) zu verbessern.
  • Fig. 5 zeigt eine Vorrichtung 500, die ähnliche Eigenschaften aufweist, wie die Vorrichtungen 200, 300 und 400. Es sei darauf hingewiesen, dass bei der Vorrichtung 500 gemäß Fig. 5 Funktionsblöcke, die auch in den Fig. 2, Fig. 3 und Fig. 4 gezeigt sind, beispielsweise eine ähnliche oder gleiche Funktionalität aufweisen können wie entsprechende Funktionsblöcke in der Vorrichtung 200, der Vorrichtung 300 und der Vorrichtung 400 (aber nicht notwendigerweise aufweisen müssen). Es sei ferner darauf hingewiesen, dass die Vorrichtung 500 optional um alle Merkmale, Funktionalitäten und Details ergänzt werden kann, die hierin beschrieben sind, und zwar sowohl einzeln als auch in Kombination.
  • Das schematische Blockschaltbild der Fig. 5 zeigt die Vorrichtung 500, umfassend einen Audio-Eingang 510 (der beispielsweise dem Audio-Eingang 210 entsprechen kann), eine Audio-Verarbeitung 520 (die beispielsweise der Audio-verarbeitung 220 entsprechen kann), eine Nutzersteuerung 530 (die beispielsweise der Nutzersteuerung 230 entsprechen kann), einen Audio-Ausgang 540 (der beispielsweise dem Audio-Ausgang 240 entsprechen kann), ein bestärkendes Lernen 550 (das beispielsweise von seiner grundsätzlichen Funktion her dem bestärkenden lernen 250 entsprechen kann), ein neuronales Netz 560 (das beispielsweise von seiner grundsätzlichen Funktion her dem neuronalen Netz 260 entsprechen kann) und eine Kombination 570 (die beispielsweise der Kombination 270 entsprechen kann).
  • Die Vorrichtung 500 umfasst beispielsweise keine Audio-Analyse des Audioeingangssignals und keine Audio-Analyse des Audio-Ausgangssignals, so dass die Audiosignale 512 und 514 direkt von dem Audio-Eingang 510 in das bestärkende Lernen 550 bzw. in das neuronale Netz 560 geleitet werden können. Optional kann bei der Vorrichtung 500 aber auch eine Audio-Analyse des Audio-Eingangssignals erfolgen.
  • Wie bereits in der Fig. 2 der Vorrichtung 200 erwähnt, kann ein Audio-Eingangssignal 512 für das neuronale Netz 560 und ein Audio-Eingangssignal 514 für das bestärkende Lernen 550 breitgestellt werden. Im Gegensatz zur Vorrichtung 400 kann das bestärkende Lernen 550 der Vorrichtung 500 auf dem Audio-Eingangssignal 514 und den der Audio-Verarbeitung 520 bereitgestellten (bzw. durch die Audioverarbeitung 520 tatsächlich verwendeten) einen oder mehreren Audioverarbeitungsparametern 572 basieren.
  • Optional kann der Nutzerparameter, beziehungsweise der kombinierte Parameter 572, dem neuronalen Netz 560 bereitgestellt werden, so dass als Eingangsgrößen des neuronalen Netzes 560 der Nutzerparameter 572 und der beziehungsweise die von dem bestärkenden Lernen 550 gelieferten Koeffizienten eingehen beziehungsweise bereitgestellt werden.
  • Die Vorrichtung 500 erlaub eine besonders effiziente Einstellung der Koeffizienten des neuronalen Netzes, da das bestärkende Lernen 550 die durch die Audiosignalverarbeitung 520 tatsächlich verwendeten Parameter berücksichtigt und somit die Koeffizienten des neuronalen Netzes sehr präzise ermitteln bzw. optimieren kann.
  • Fig. 6 zeigt ein schematisches Ablaufdiagramm eines Verfahrens 600 zum Betrieb einer Vorrichtung, etwa der Vorrichtung 100, 200, 300, 400 oder 500, bzw. ganz allgemein zum Erhalten von Audio-Verarbeitungsparametern. Ein erster Schritt 610 umfasst ein benutzer-individuelles Bestimmen von zumindest einem Koeffizienten einer Verarbeitungsparameter-Bestimmungsvorschrift basierend auf beim Benutzerbetrieb erhaltenen Audiosignalen. Ein zweiter Schritt 620 umfasst ein Erhalten von Audio-Verarbeitungsparametern unter Verwendung der Verarbeitungsparameter-Bestimmungsvorschrift basierend auf dem Audio-Eingangssignal.
  • Das Verfahren 600 wird dabei beispielsweise so ausgeführt, dass Audio-Verarbeitungsparameter in Abhängigkeit von zumindest einem Audio-Eingangssignal bestimmt werden. Das Verfahren 600 kann dabei so ausgeführt werden, dass eine Klangverarbeitung bzw. Audioverarbeitung auf Basis von unmittelbar aufgezeichneten Umgebungsgeräuschen (wobei beispielsweise ein Audio-Eingangssignal zu einer Anpassung von Audio-Verarbeitungsparametern führt) zu einer Verbesserung der individuellen Wahrnehmung von Klang führt. Beispielsweise kann erreich werden, dass die Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift auf beim Benutzerbetrieb erhaltenen Audio-Eingangssignale basieren und benutzer-individuell (beispielweise in Echtzeit) bestimmt werden, so dass Audio-Verarbeitungsparameter unter Verwendung eines neuronalen Netzes, dessen Koeffizienten durch ein bestärkendes Lernen bestimmt oder sogar kontinuierlich angepasst werden, basierend auf dem Audio-Eingangssignal erhalten werden.
  • Das Verfahren 600 kann optional um alle hierin beschriebenen Merkmale, Funktionalitäten und Details ergänzt werden, auch wenn diese im Hinblick auf Vorrichtungen beschrieben wurden. Das Verfahren kann um diese Merkmale, Funktionalitäten und Details sowohl einzeln als auch in Kombination ergänzt werden.
  • Weitere Ausführungsbeispiele
  • Im Folgenden werden einige Aspekte der vorliegenden Erfindung beschrieben, die einzeln oder in Kombination in Ausführungsbeispielen angewendet werden können.
  • Durch den Nutzer einstellbare situationsabhängige Steuerungsparameter, beziehungsweise durch den Benutzer eingestellte Nutzerparameter, kann beispielsweise durch Analyse des eingehenden und ausgehenden Audiosignals, so wie beispielsweise in der Fig. 3 dargestellt, der Klangverarbeitung im Training eines selbstbestärkenden Lernalgorithmus integriert werden.
  • Das eingehende Audiosignal kann die Klangumgebung enthalten. Dadurch können Änderungen der Klangumgebung und der Nutzereinstellungen inhärent beispielsweise in Laufzeit gelernt werden.
  • Der selbstbestärkende Lernalgorithmus kann aus diesen Daten beispielsweise einen nutzerspezifischen Parametersatz zur Klangverarbeitung entwickeln, der einerseits automatisiert unter gleichen äußeren Rahmenbedingungen dieselben Steuerungsparameter anwendet, aber auch in der Situation selbst weitere Nutzer-Anpassungen zulässt, die in das lernende System integriert werden (beispielsweise basierend auf einem Prinzip des bestärkenden Lernens). So kann sich beispielsweise das maschinelle Lernsystem und die Anwendung in einem fortwährenden Lernprozess den klanglichen Nutzerpräferenzen anpassen. Zur Klanganpassung können Algorithmen integriert und gesteuert werden, wie sie beispielsweise in Hörgeräten verwendet werden. Dazu können beispielsweise Multibandkompression mit Rate R und Hörschwellen-Anpassung T und bandabhängiger Verstärkung G, Störgeräuschreduktion oder Blinde Quellentrennung dazugehören.
  • Das eingehende Audiosignal, die Klangverarbeitungsparameter und/oder das mit dem Klangverarbeitungsparametern verarbeitete Audiosignal können beispielsweise zum Training des Nutzerprofils in einer Cloud (z. B. einem zentralen Datenspeicher) gespeichert werden. Gleichzeitig können die vom Nutzer gewählten Klangverarbeitungsparameter, beziehungsweise Nutzerparameter auf das eingehende Audiosignal angewandt werden. Die Anzahl der Eingangsparameter für das bestärkende Lernen z. B. eines CNNs (Convolutional Neural Network bzw. faltendes neuronales Netz) kann sich beispielsweise zusammensetzen aus Mehrkanal-Audioeingang (z. B. mit C=4 Kanäle) und Audioausgang (z. B. mit C=2 Kanäle). Die Anzahl der Ausgangsparameter im erlernten Parametersatz M kann sich z. B. aus M = C * (T + R + G) + 2 Zeitkonstanten zusammensetzen, wobei die Anzahl der Werte von G, R, T beispielsweise der Anzahl der Verarbeitungsbänder B (z. B. B = 8) entsprechen kann.
  • Im Folgenden werden einige Aspekte der vorliegenden Erfindung beschrieben, die einzeln oder in Kombination in Ausführungsbeispielen angewendet werden können.
  • Eine mögliche Umsetzung des Verfahrens, beziehungsweise der Vorrichtung, in dem Bereich Klangsteuerung ist beispielsweise, dass ein Anwender ein Klangwiedergabegerät (z. B. ein Hearable bzw. einen Ohrhörer mit Zusatzfunktion) trägt, das mit einem System mit integrierter Klangverstärkung und einer Audioanalyse, beispielsweise wie in der Fig. 3 oder der Fig. 4 aufgezeigt, ausgestattet ist. Die Parameter der Klangverstärkung kann der Anwender beispielsweise mit einer App (bzw. mit einer Applikationssoftware) steuern, beispielsweise unter Verwendung der oben beschriebenen Nutzersteuerung. Im Hintergrund kann die Audioanalyse beispielsweise die auditorische Szene mittels Mikrophonie ständig aufnehmen und analysieren und sie beispielsweise in Dynamik und/oder Frequenz und/oder spektralen Eigenschaften evaluieren (beispielsweise in der Audioanalyse). In einer bestimmten auditorischen Szene, z. B. beim Fahren im Auto auf der Autobahn, kann der Anwender mittels einer App eine Klanganpassung durchführen und ändert somit die Parameter der Klangverstärkung (Beispielsweise die Parameter 272). Das System (beispielsweise das bestärkende Lernen 250) kann einen algorithmischen Zusammenhang zwischen den Parameteränderungen durch den Anwender und der Analyse der auditorischen Szene erstellen und daraus ein Vorhersagemodell, das durch künstliche Intelligenz (KI) weitere Klanganpassungen des Users ad hoc integriert, entwickeln (und beispielsweise durch Koeffizienten 256 beschreiben). Hierunter wird verstanden, dass eine individualisierte KI-Steuerung (KI bedeutet hier zum Beispiel künstliche Intelligenz), beziehungsweise eine individualisierte Al-Steuerung (engl. Artificial Intelligence, AI, künstliche Intelligenz) ermöglicht bzw. durch die Vorrichtung bereitgestellt wird.
  • Befindet sich der Anwender beispielsweise zu einem anderen Zeitpunkt wieder in derselben auditorischen Szene, in diesem Fall im fahrenden Auto auf der Autobahn, wird das Vorhersagemodell angewandt und die Parameter der Klangverstärkung (Beispielsweise die Parameter 262) automatisiert vom System (z. B. von dem durch Koeffizienten 256 definierten neuronalen Netz 260) vorgenommen bzw. geliefert. Nimmt der Benutzer (User) gegebenenfalls wieder Klanganpassungen vor (Beispielsweise über die Schnittstelle 230), können diese beispielsweise ad hoc in das selbstlernende System integriert werden.
  • Im Folgenden werden einige Aspekte der vorliegenden Erfindung beschrieben, die einzeln oder in Kombination in Ausführungsbeispielen angewendet werden können, und die beispielswiese Unterschiede zur Github-Veröffentlichung "liketohear-ai-pt" darstellen.
    • Gemäß einem (optionalen) Aspekt der Erfindung basiert das Vorhersagemodell auf einer multidimensionalen Optimierung in Echtzeit, die alle vorhandenen Frequenzbänder analysiert.
    • Gemäß einem (optionalen) Aspekt der Erfindung werden beispielsweise Methoden des Bestärkenden Lernens und Methoden des Unbeaufsichtigten Lernens genutzt (beziehungsweise verwendet).
    • Gemäß einem (optionalen) Aspekt der Erfindung kann die Anpassung (beziehungsweise können die Anpassungen), beispielsweise der Verarbeitungsparameter-Bestimmungsvorschrift und/oder der Audio-Verarbeitungsparameter, kontinuierlich in Laufzeit stattfinden.
  • Im Folgenden werden einige Aspekte der vorliegenden Erfindung beschrieben, die einzeln oder in Kombination in Ausführungsbeispielen angewendet werden können, die beispielswiese Unterschiede zur Offenlegungsschrift US 2015 195641 A1 darstellen.
  • Ausführungsbeispiele gemäß der Erfindung beziehen sich beispielsweise primär auf eine intuitive und ergonomische Benutzersteuerung von Klängen in alltagsakustischen Umgebungen und präferieren daher generalisierende Einstellungsmöglichkeiten, aus folgenden Gründen:
    • Eine Aufteilung der Signale in einzelne "types of sounds" in Echtzeit ist in alltagsakustischen Situationen kaum zu realisieren. Daher wendet die vorliegende Erfindung dieses Verfahren nicht an, sondern deckt vielmehr mit einem 2-dimensionalen Parameterraum eine Vielzahl von klanglichen Möglichkeiten.
    • Benutzereinstellungen müssten bei einer Signaltrennung jeweils getrennt für jedes Objekt und jeder Kontextsituation getroffen werden. In alltagsakustischen Umgebungen mit schnell wechselnden Hörsituation wird die Benutzersteuerung bzw. Usersteuerung zu komplex und daher nicht ergonomisch anwendbar. Mit der vorliegenden Erfindung kann der Benutzer mit einer einfachen und intuitiv bedienbaren Schnittstelle wie beispielsweise eine 2d-Touchoberfläche eines Smartphones komplexe Klanganpassungen durchführen (beispielsweise in der Einrichtung 230).
    • Klangliche Eigenschaften von einzelnen Klängen, könnten sich im Zusammenklang unterschiedlich als in der Präferenz anhören. z. B. Klänge wie Musik als vordergründiges oder als hintergründiges Geräusch. Daher wird bei der vorliegenden Erfindung beispielsweise die Komplexität der auditorischen Szene an eine für den Benutzer optimierte Wahrnehmung aller vorhanden Klänge angepasst.
    • Einstellungen für einzelne Signale adaptieren sich nicht dynamisch an wechselnde Umgebungsbedingungen. So kann beispielsweise bei leise gesprochener Sprache oder nur leise abgespielter Musik schon eine leichte Lautstärkeerhöhung der Hintergrundgeräusche Sprache unverständlich bzw. Musik nicht mehr hörbar werden.
  • Im Folgenden werden einige Aspekte der vorliegenden Erfindung beschrieben, die einzeln oder in Kombination in Ausführungsbeispielen angewendet werden können, die beispielswiese Unterschiede zur Offenlegungsschrift US 2020 0066264 A1 darstellen.
  • Bei der Offenlegungsschrift US 2020 0066264 A1 steuert ein Prozessor die Klangverarbeitung des Hörgeräts aufgrund von "user preferences and interests" (Benutzerpräferenzen und Interessen) und "historical activity patterns" (früheren Aktivitätsmustern).
  • Bei Ausführungsbeispielen der vorliegenden Erfindung wird die Klangverarbeitung des Hörgeräts hingegen beispielswese auf Basis von in Echtzeit-gemessenen äußeren Rahmenbedingungen, beispielsweise so wie in der Fig. 2 dargestellt, gesteuert.
  • Zusammenfassend ist festzuhalten, dass gemäß einem Aspekt der Erfindung die oben genannten Kriterien bzw. Anforderungen in ein lernendes Verfahren beziehungsweise einer Vorrichtung integriert werden, das in Echtzeit aus Benutzereinstellungen lernt und diese automatisiert anwendet, um die individuelle Wahrnehmung von Klang bzw. Tönen in Form von Audiosignalen für den Benutzer zu verbessern. Mittels der vorliegenden Erfindung kann eine auf die Benutzerpräferenzen optimierte Signalwiedergabe bzw. Audiowiedergabe realisiert werden.
  • Somit kann gemäß einem Aspekt der vorliegenden Erfindung berücksichtigt werden, dass sich die individuelle Wahrnehmung von Klang und damit die individuellen Anforderungen für den Klang bzw. Wohlklang an deren Anpassung von Klangwiedergabegeräten unter anderem nach folgenden Kriterien unterscheiden:
    • Individualität
    • Situationsbedingte Bedürfnisse
    • Äußere Rahmenbedingungen
  • Gemäß einem Aspekt der Erfindung können Ausführungsbeispiele gemäß der Erfindung berücksichtigen, dass die Klangwahrnehmung sich von Person zu Person unterscheidet.
  • Beispielsweise ist ein Gespräch mit einer Person in einem Raum mit vielen Menschen mitunter einer lauten Klangkulisse für den Einen schwerer zu führen als für den Anderen. Ebenso wird je nach Bedürfnis dieselbe Einstellung einer Klangwiedergabe unterschiedlich wahrgenommen.
  • Gemäß einem Aspekt der Erfindung können Ausführungsbeispiele gemäß der Erfindung berücksichtigen, dass auch Umgebungsparameter, wie die auditorische Umgebung, die Steuerungswerte für eine Klanganpassung eines Klangwiedergabegeräts erheblich beeinflussen.
  • Zusammenfassend ist weiterhin zu sagen, dass Ausführungsbeispiele gemäß der vorliegenden Erfindung eine Vorrichtung und ein Verfahren schaffen, die eine Klangverarbeitung auf Basis von Umgebungsgeräuschen, die unmittelbar aufgezeichnet beziehungsweise gemessen werden, durchführen. Basierend auf diesen Aufzeichnungen und den durch den Benutzer eingestellten Nutzerparametern generiert beispielsweise ein lernender Algorithmus ein Vorhersagemodell, der in der Situation selbst weitere Anpassungen zulässt, die in das lernende System integriert werden, um die individuelle Wahrnehmung von Klang bzw. Tönen in Form von Audiosignalen für den Benutzer zu verbessern.
  • Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar.
  • Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein. Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
  • Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft. Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.
  • Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.
  • In anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft. Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
  • Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
  • Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.
  • Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
  • Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
  • Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.

Claims (15)

  1. Eine Vorrichtung (100;200;300;400;500) zum Bestimmen von Audio-Verarbeitungsparametern (120;262;362;462;562) in Abhängigkeit von zumindest einem Audio-Eingangssignal (110,112;212,214,216; 311,316;411,416;512,514,516);
    wobei die Vorrichtung (100;200;300;400;500) ausgebildet ist, um zumindest einen Koeffizienten (142;256;356;456;556) einer Verarbeitungsparameter-Bestimmungsvorschrift (140;250;350;450;550) benutzer-individuell basierend auf beim Benutzerbetrieb erhaltenen Audiosignalen (217,218,219;313,317,318,319,342;417;517) zu bestimmen;
    wobei die Vorrichtung (100;200;300;400;500) ausgelegt ist, um die Audio-Verarbeitungsparameter (120;262;362;462;562) unter Verwendung der Verarbeitungsparameter-Bestimmungsvorschrift (140;250;350;450; 550) basierend auf dem Audio-Eingangssignal (110,112;212,214,216;311,316; 411,416;512,514,516) zu erhalten;
    wobei die Vorrichtung ausgebildet ist, um eine Datenbasis (252;352;452;552) in Abhängigkeit von dem zumindest einen Audio-Eingangssignal (110,112;212,214,216; 311,316;411,416;512,514,516) zu bestimmen, so dass Einträge der Datenbasis (252;352;452;552) das Audio-Eingangssignal (110,112;212,214,216;311,316; 411,416;512,514,516) beschreiben;
    wobei die Vorrichtung ausgebildet ist, um die Datenbasis (252;352;452;552) in Abhängigkeit von einem Audio-Ausgangssignal (218,219,313,318,319,342), das abhängig von einem Nutzerparameter erhalten wird, zu bestimmen, so dass Einträge der Datenbasis (252;352;452;552) das Audio-Ausgangssignal (218,219,313,318,319,342) beschreiben;
    wobei die Vorrichtung ausgebildet ist, um den zumindest einen Koeffizienten (142;256;356;456;556) der Verarbeitungsparameter-Bestimmungsvorschrift (140; 250;350;450;550) basierend auf der von der Vorrichtung akquirierten Datenbasis (252;352;452;552) anzupassen, um die Verarbeitungsparameter-Bestimmungsvorschrift (140;250;350; 450;550) benutzer-individuell anzupassen, um benutzer-individuell angepasste Audio-Verarbeitungsparameter (120;262;362;462;562) zu erhalten.
  2. Vorrichtung (100;200;300;400;500) gemäß Anspruch 1, wobei die Vorrichtung ausgebildet ist, um die Datenbasis (252;352;452;552) in Abhängigkeit von durch den Benutzer eingestellten Nutzerparametern (232;332;432,433;532) zu bestimmen, so dass Einträge der Datenbasis (252;352;452;552) die durch den Benutzer eingestellten Nutzerparameter (232;332;432,433;532) beschreiben.
  3. Vorrichtung (100;200;300;400;500) gemäß Anspruch 1 oder Anspruch 2,
    wobei die Vorrichtung ausgebildet ist, die Datenbasis (252;352;452;552) so zu bestimmen, dass die Datenbasis (252;352;452;552) eine Zuordnung zwischen verschiedenen Audio-Eingangssignalen (110,112;212,214,216;311,316; 411,416;512,514,516) und jeweiligen durch den Benutzer eingestellten Nutzerparametern (232;332;432,433;532) beschreibt; und/oder
    wobei die Vorrichtung ausgebildet ist, die Datenbasis (252;352;452;552) so zu bestimmen, dass die Datenbasis (252;352;452;552) eine Zuordnung zwischen verschiedenen Audio-Ausgangssignalen (218,219,313,318,319,342) und jeweiligen durch den Benutzer eingestellten Nutzerparametern (232;332;432,433;532) beschreibt.
  4. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, den zumindest einen Koeffizienten (142;256;356;456;556) der Verarbeitungsparameter-Bestimmungsvorschrift (140; 250;350;450;550) basierend auf zumindest einem von einem Benutzer korrigierten und/oder veränderten Audio-Verarbeitungsparameter (120;262;362;462;562) zu bestimmen und/oder anzupassen.
  5. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, um eine Audio-Verarbeitung (220;320;420; 520) basierend auf dem Audio-Eingangssignal (110,112;212,214,216; 311,316;411,416;512,514,516) und basierend auf dem Audio-Verarbeitungsparameter (120;262;362;462;562) auszuführen, um die benutzer-individuell angepassten Audiosignale (217,218,219;313,317,318,319,342) zu erhalten.
  6. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, um die Koeffizienten (142;256;356;456;556) der Verarbeitungsparameter-Bestimmungsvorschrift (140;250;350;450;550) unter Verwendung eines Vergleichs des Audio-Eingangssignals (110,112;212,214,216; 311,316;411,416;512,514,516) und eines durch die Audio-Verarbeitung (220;320; 420;520) unter Verwendung der Audio-Verarbeitungsparameter (120;262;362;462; 562) gelieferten Audio-Ausgangssignals (218,219,313,318,319,342) zu bestimmen.
  7. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, um die von dem Benutzer eingestellten Nutzerparameter (232;332;432,433;532) als Ausgangsgröße an Stelle der Audio-Verarbeitungsparameter (120;262;362;462;562) bereitzustellen, und wobei die von dem Benutzer eingestellten Nutzerparameter (232;332;432,433;532) Lautstärkeparameter und/oder Klangparameter und/oder Equalizer-Parameter umfassen; oder
    wobei die Vorrichtung ausgelegt ist, um die Nutzerparameter (232;332;432,433;532) mit den Audio-Verarbeitungsparametern (120;262;362;462;562) zu kombinieren, um kombinierte Parameter (272;372;472,473,474;572,573) der Audio-Verarbeitung (220;320;420;520) zu erhalten und als Ausgangsgröße bereitzustellen.
  8. Vorrichtung (100;300;400) gemäß einem der vorhergehenden Ansprüche,
    wobei die Vorrichtung ausgebildet ist, eine Audio-Analyse des Audio-Eingangssignals (110,112;212,214,216;311,316;411,416;512,514,516) durchzuführen, um ein Audio-Eingangssignalanalyseergebnis für eine Bestimmung des zumindest einen Koeffizienten (142;256;356;456;556) einer Verarbeitungsparameter-Bestimmungsvorschrift (140;250;350;450;550) bereitzustellen; und/oder
    wobei die Vorrichtung ausgebildet ist, eine Audio-Analyse des Audio-Ausgangssignals (342) durchzuführen, um ein Audio-Ausgangssignalanalyseergebnis für eine Bestimmung des zumindest einen Koeffizienten (142;256;356;456;556) der Verarbeitungsparameter-Bestimmungsvorschrift (140;250;350;450;550) bereitzustellen.
  9. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Audio-Verarbeitungsparameter (120;262;362;462;562) zumindest einen Multibandkompressionsparameter R, und/oder zumindest einen Hörschwellenanpassungsparameter T, und/oder zumindest einen bandabhängigen Verstärkungsparameter G, und/oder zumindest einen Störgeräuschreduktionsparameter, und/oder zumindest einen blinden Quellentrennungsparameter, und/oder zumindest einen Schallrichtungsparameter, und/oder zumindest einen binauralen Parameter und/oder zumindest einen Parameter von adaptiven Filtern umfassen.
  10. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ein neuronales Netz (260;360;460;560) umfasst, das ausgelegt ist, um die Audio-Verarbeitungsparameter (120;262;362;462;562) unter Verwendung der Verarbeitungsparameter-Bestimmungsvorschrift (140;250;350;450;550) zu erhalten.
  11. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, um die Verarbeitungsparameter-Bestimmungsvorschrift (140;250;350;450;550) basierend auf einer Methode des bestärkenden Lernens und/oder basierend auf einer Methode des verstärkenden Lernens und/oder basierend auf einer Methode des unbeaufsichtigten Lernens und/oder basierend auf einer Methode der multivariaten Vorhersage und/oder basierend auf einem mit multivariabler Regression festgelegten multidimensionalen Parameterraum bereitzustellen und/oder anzupassen, um den Audio-Verarbeitungsparameter (120;262;362;462;562) zu bestimmen.
  12. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgelegt ist, um den zumindest einen Koeffizienten (142;256;356;456;556) der Verarbeitungsparameter-Bestimmungsvorschrift (140; 250;350;450;550) benutzer-individuell während des Benutzerbetriebs zu bestimmen, um die Audio-Verarbeitungsparameter (120;262;362;462;562) in Echtzeit zu erhalten und/oder die veränderten Audio-Verarbeitungsparameter (120;262;362;462;562) in Echtzeit zu bestimmen und/oder anzupassen.
  13. Hörgerät,
    wobei das Hörgerät eine Audioverarbeitung aufweist; und
    wobei das Hörgerät eine Vorrichtung zum Bestimmen von Audio-Verarbeitungsparametern gemäß einem der Ansprüche 1 bis 12 aufweist,
    wobei die Audioverarbeitung ausgelegt ist, um ein Audio-Eingangssignal abhängig von den Audio-Verarbeitungsparametern zu verarbeiten.
  14. Verfahren (600) zum Bestimmen von Audio-Verarbeitungsparametern in Abhängigkeit von zumindest einem Audio-Eingangssignal, wobei das Verfahren aufweist:
    benutzer-individuelles Bestimmen von zumindest einem Koeffizienten einer Verarbeitungsparameter-Bestimmungsvorschrift basierend auf beim Benutzerbetrieb erhaltenen Audiosignalen; und
    Erhalten von Audio-Verarbeitungsparametern unter Verwendung der Verarbeitungsparameter-Bestimmungsvorschrift basierend auf dem Audio-Eingangssignal;
    wobei eine Datenbasis (252;352;452;552) in Abhängigkeit von dem zumindest einen Audio-Eingangssignal (110,112;212,214,216; 311,316;411,416;512,514,516) bestimmt wird, so dass Einträge der Datenbasis (252;352;452;552) das Audio-Eingangssignal (110,112;212,214,216;311,316; 411,416;512,514,516) beschreiben;
    wobei die Datenbasis (252;352;452;552) in Abhängigkeit von einem Audio-Ausgangssignal (218,219,313,318,319,342), das abhängig von einem Nutzerparameter erhalten wird, bestimmt wird, so dass Einträge der Datenbasis (252;352;452;552) das Audio-Ausgangssignal (218,219,313,318,319,342) beschreiben;
    wobei der zumindest eine Koeffizienten (142;256;356;456;556) der Verarbeitungsparameter-Bestimmungsvorschrift (140; 250;350;450;550) basierend auf der von der Vorrichtung akquirierten Datenbasis (252;352;452;552) angepasst wird, um die Verarbeitungsparameter-Bestimmungsvorschrift (140;250;350; 450;550) benutzer-individuell anzupassen, um benutzer-individuell angepasste Audio-Verarbeitungsparameter (120;262;362;462;562) zu erhalten.
  15. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 14, wenn das Programm auf einem Computer läuft.
EP22729553.2A 2021-05-17 2022-05-16 Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern Active EP4342189B1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021204974.5A DE102021204974A1 (de) 2021-05-17 2021-05-17 Vorrichtung und Verfahren zum Bestimmen von Audio-Verarbeitungsparametern
PCT/EP2022/063211 WO2022243257A2 (de) 2021-05-17 2022-05-16 Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern

Publications (3)

Publication Number Publication Date
EP4342189A2 EP4342189A2 (de) 2024-03-27
EP4342189B1 true EP4342189B1 (de) 2025-08-27
EP4342189C0 EP4342189C0 (de) 2025-08-27

Family

ID=82019473

Family Applications (1)

Application Number Title Priority Date Filing Date
EP22729553.2A Active EP4342189B1 (de) 2021-05-17 2022-05-16 Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern

Country Status (6)

Country Link
US (1) US12526590B2 (de)
EP (1) EP4342189B1 (de)
JP (1) JP7721683B2 (de)
CN (1) CN117652160A (de)
DE (1) DE102021204974A1 (de)
WO (1) WO2022243257A2 (de)

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249303A (ja) * 1995-03-13 1996-09-27 Ricoh Co Ltd 信号処理装置
EP0814636A1 (de) * 1996-06-21 1997-12-29 Siemens Audiologische Technik GmbH Hörgerät
DE59609754D1 (de) * 1996-06-21 2002-11-07 Siemens Audiologische Technik Programmierbares Hörgerätesystem und Verfahren zum Ermitteln optimaler Parametersätze bei einem Hörhilfegerät
US7349549B2 (en) * 2003-03-25 2008-03-25 Phonak Ag Method to log data in a hearing device as well as a hearing device
DE10347211A1 (de) 2003-10-10 2005-05-25 Siemens Audiologische Technik Gmbh Verfahren zum Nachtrainieren und Betreiben eines Hörgeräts und entsprechendes Hörgerät
DE102005009530B3 (de) * 2005-03-02 2006-08-31 Siemens Audiologische Technik Gmbh Hörhilfevorrichtung mit automatischer Klangspeicherung und entsprechendes Verfahren
EP1708543B1 (de) * 2005-03-29 2015-08-26 Oticon A/S Hörgerät zum Speichern von Daten und zum Lernen von diesen Daten
EP2215857B1 (de) * 2007-11-29 2019-11-13 Widex A/S Hörgerät und verfahren zur verwaltung einer protokollierungseinrichtung
CN104038647B (zh) 2013-03-27 2018-12-04 杭州惠道科技有限公司 社交通信系统
CN105519138B (zh) * 2013-08-20 2019-07-09 唯听助听器公司 具有自适应分类器的助听器
JP6190351B2 (ja) * 2013-12-13 2017-08-30 ジーエヌ ヒアリング エー/エスGN Hearing A/S 学習型補聴器
US9716939B2 (en) 2014-01-06 2017-07-25 Harman International Industries, Inc. System and method for user controllable auditory environment customization
EP3082350B1 (de) * 2015-04-15 2019-02-13 Kelly Fitz Benutzerschnittstelle mit entfernt gelegenem server
DE102016216054A1 (de) * 2016-08-25 2018-03-01 Sivantos Pte. Ltd. Verfahren und Einrichtung zur Einstellung eines Hörhilfegeräts
CN110663173B (zh) * 2017-10-04 2023-09-19 谷歌有限责任公司 基于房间特性自动均衡音频输出的方法和系统
WO2019077443A1 (en) * 2017-10-17 2019-04-25 Cochlear Limited HIERARCHICAL ENVIRONMENTAL CLASSIFICATION IN A HEARING PROSTHESIS
CN109147804B (zh) * 2018-06-05 2024-08-20 安克创新科技股份有限公司 一种基于深度学习的音质特性处理方法及系统
US10916245B2 (en) 2018-08-21 2021-02-09 International Business Machines Corporation Intelligent hearing aid
DE102019200956A1 (de) 2019-01-25 2020-07-30 Sonova Ag Signalverarbeitungseinrichtung, System und Verfahren zur Verarbeitung von Audiosignalen
DE102019203786A1 (de) 2019-03-20 2020-02-13 Sivantos Pte. Ltd. Hörgerätesystem
DE102019216100A1 (de) 2019-10-18 2021-04-22 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät
DE102019218808B3 (de) * 2019-12-03 2021-03-11 Sivantos Pte. Ltd. Verfahren zum Trainieren eines Hörsituationen-Klassifikators für ein Hörgerät
US11601765B2 (en) * 2019-12-20 2023-03-07 Sivantos Pte. Ltd. Method for adapting a hearing instrument and hearing system therefor
EP4435781A1 (de) * 2023-03-23 2024-09-25 GN Audio A/S Audiovorrichtung mit unsicherheitsquantifizierung und zugehörige verfahren

Also Published As

Publication number Publication date
DE102021204974A1 (de) 2022-11-17
US12526590B2 (en) 2026-01-13
WO2022243257A3 (de) 2023-03-16
EP4342189C0 (de) 2025-08-27
WO2022243257A2 (de) 2022-11-24
JP7721683B2 (ja) 2025-08-12
EP4342189A2 (de) 2024-03-27
CN117652160A (zh) 2024-03-05
JP2024521246A (ja) 2024-05-29
US20240089672A1 (en) 2024-03-14

Similar Documents

Publication Publication Date Title
DE60222813T2 (de) Hörgerät und methode für das erhöhen von redeverständlichkeit
EP1912474B1 (de) Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe
EP3327931B1 (de) Tonwiedergabevorrichtung mit hörszenariosimulation
EP1523219B1 (de) Verfahren zum Nachtrainieren und Betreiben eines Hörgeräts und entsprechendes Hörgerät
EP3451705B1 (de) Verfahren und vorrichtung zum schnellen erkennen der eigenen stimme
WO2001020965A2 (de) Verfahren zur bestimmung einer momentanen akustischen umgebungssituation, anwendung des verfharens und ein hörgerät
EP3661797B1 (de) Verfahren, vorrichtung, mobiles anwendergerät, computerprogramm zur steuerung eines audiosystems eines fahrzeugs
EP1379102A2 (de) Richtungshören bei binauraler Hörgeräteversorgung
DE102010041740A1 (de) Verfahren zur Signalverarbeitung in einem Hörhilfegerät sowie Hörhilfegerät
DE102018216667B3 (de) Verfahren zur Verarbeitung von Mikrofonsignalen in einem Hörsystem sowie Hörsystem
EP2077059B1 (de) Verfahren zum betreiben einer hörhilfe, sowie hörhilfe
WO2001022790A2 (de) Verfahren zum betrieb eines hörgerätes und ein hörgerät
EP3167627A1 (de) Hörsystem mit anwenderspezifischer programmierung
EP2120484B1 (de) Verfahren zum Betreiben eines Hörgeräts und Hörgerät
EP1432282B1 (de) Verfahren zum Anpassen eines Hörgerätes an eine momentane akustische Umgebungssituation und Hörgerätesystem
EP4342189B1 (de) Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern
WO2019215200A1 (de) Verfahren zum betrieb eines hörsystems sowie hörsystem
DE102021201668A1 (de) Signaladaptives Neumischen von getrennten Audioquellen
EP1926087A1 (de) Anpassung einer Hörvorrichtung an ein Sprachsignal
DE102013205357A1 (de) Verfahren zum automatischen Einstellen eines Geräts und Klassifikator
DE102015212609A1 (de) Verfahren zum Betrieb eines Hörgerätesystems und Hörgerätesystem
DE102006015497B4 (de) Audiosystem und Verfahren sowie Computerprogramm und Datenträger der das Computerprogramm enthält zur Anpassung der Übertragungsfunktion eines Audiosystems mittels Sprachsteuerung
EP3698474B1 (de) Verfahren zur einstellung von parametern zur individuellen anpassung eines audiosignals
EP1348315B1 (de) Verfahren zum betrieb eines hörgeräts und hörgerät dafür
EP4027333B1 (de) Virtueller sprachassistent mit verbesserter erkennungsgenauigkeit

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20231115

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20241213

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE PATENT HAS BEEN GRANTED

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502022005217

Country of ref document: DE

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

U01 Request for unitary effect filed

Effective date: 20250924

U07 Unitary effect registered

Designated state(s): AT BE BG DE DK EE FI FR IT LT LU LV MT NL PT RO SE SI

Effective date: 20251002

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20251227

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20251127

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20250827

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20251128

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20250827

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20251127

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20250827