WO2022243257A2 - Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern - Google Patents

Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern Download PDF

Info

Publication number
WO2022243257A2
WO2022243257A2 PCT/EP2022/063211 EP2022063211W WO2022243257A2 WO 2022243257 A2 WO2022243257 A2 WO 2022243257A2 EP 2022063211 W EP2022063211 W EP 2022063211W WO 2022243257 A2 WO2022243257 A2 WO 2022243257A2
Authority
WO
WIPO (PCT)
Prior art keywords
audio
user
parameters
processing
input signal
Prior art date
Application number
PCT/EP2022/063211
Other languages
English (en)
French (fr)
Other versions
WO2022243257A3 (de
Inventor
Peggy Sylopp
Tobias Bruns
Original Assignee
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. filed Critical Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority to CN202280050454.2A priority Critical patent/CN117652160A/zh
Priority to EP22729553.2A priority patent/EP4342189A2/de
Publication of WO2022243257A2 publication Critical patent/WO2022243257A2/de
Publication of WO2022243257A3 publication Critical patent/WO2022243257A3/de
Priority to US18/513,012 priority patent/US20240089672A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • H04R25/507Customised settings for obtaining desired overall acoustical characteristics using digital signal processing implemented by neural network or fuzzy logic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/43Signal processing in hearing aids to enhance the speech intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems

Definitions

  • Embodiments according to the present invention relate to an apparatus and a method for determining audio processing parameters depending on at least one audio input signal.
  • Embodiments according to the invention relate to a device and a method with artificial intelligence, for example in a sound reproduction device, which can analyze audio signals and assign or combine them with user-specific settings during user operation.
  • Embodiments further relate to concepts for determining audio processing parameters based on audio signals obtained during user operation.
  • the sound perception differs from person to person. For example, a conversation with a person in a room with many people is more difficult for one than for the other. Likewise, the same setting of a sound reproduction is perceived differently depending on the needs. Ambient parameters, such as the auditory environment, also have a significant influence on the control values for adjusting the sound of a sound reproduction device.
  • Current sound reproduction devices offer specific sound adjustments that are not applied automatically. In the case of sound reproduction devices, such as, for example, portable devices for assisting hearing, such as headphones, headsets or hearing aids, only volume control and equalizer are often available for adjusting the sound.
  • the Klanganpas solution such as increasing the volume or adjusting the higher or lower tones is performed once by the user. It has been recognized that in order to achieve consistently good audio quality, these settings must be repeated for each additional sound reproduction.
  • the algorithm creates the relevance of a specific frequency spectrum that is decisive for the decision of the user (user) and automatically selects the associated parameters as the basis for a prediction model.
  • the prediction model is applied to the previously recorded frequency spectrum analysis. It was recognized that the complexity of the frequency spectrum cannot be mapped using this learning application for sound reproduction, so that further user adjustments are always necessary.
  • a core idea of the exemplary embodiments of the present invention consists in knowing how to make sound adjustments intuitively carried out by the users at runtime and to integrate them in the learning system in real time.
  • An embodiment according to the present invention comprises a device for determining audio processing parameters, for example parameters for audio processing, depending on at least one audio input signal, for example coming from an audio input, the device being designed to at least to determine a coefficient of a processing parameter determination rule user-specifically based on audio signals obtained during user operation, and wherein the device is designed to obtain the audio processing parameters using the processing parameter determination rule based on the audio input signal.
  • Coefficients of a processing parameter determination rule be, for example, coefficients of a neural network, which receives the audio input signal, or input signal parameters extracted therefrom, as an input variable, and which provides the audio processing parameters as an output variable.
  • the coefficients of the processing parameter determination rule can, for example, be determined user-specifically based on input audio signals obtained during user operation, for example during user operation.
  • the device can be designed to obtain the audio processing parameters, for example using the processing parameter determination rule defined by the at least one coefficient based on the audio input signal.
  • This embodiment is based on the core idea that a user-specific setting of one or more coefficients of the processing parameter determination rule based on audio signals obtained during user operation makes it possible to adapt the processing parameter determination rule to the individual habits and wishes of the user.
  • audio signals obtained during user operation for the user-specific setting of the coefficients of the processing parameter determination rule, it can be achieved that the coefficients are well adapted to those (specific) listening situations in which the user is usually actually located.
  • it is no longer necessary to pre-classify an acoustic environment e.g.
  • the coefficients can be adapted to the actual listening environments in which the user listens to, for example, music or Listens to speech, and can also be adapted to the individual needs of the user.
  • a direct and user-specific determination of audio processing parameters can take place, with the processing parameter determination rule adapted by coefficients, for example, allowing a direct determination of the audio processing parameters without categorizing the acoustic environment into one of requires several statically specified categories.
  • coefficients of the processing parameter determination rule can be adjusted based on the audio signals obtained during user operation, so that the listening environments relevant to the user, in which the user desires different audio processing parameters, are "hard” or “soft” (e.g. with a smooth transition) who can distinguish.
  • the inventive concept makes it possible, for example, that in the presence of speech in different acoustic environments in which the user is located (for example, noisy open-plan office , single office, street crossing with many trucks, street crossing with tram traffic, etc.) completely different audio processing parameters can be provided.
  • the parameters provided are then typically based on the settings desired by the user in the respective situations.
  • the inventive concept provides audio processing parameters that are adapted to the reality of life of an individual user and their specific preferences with justifiable effort.
  • the device is designed to determine a database as a function of user parameters set by the user, so that entries in the database describe the user parameters set by the user.
  • the database can be created in real time during user operation and a prediction model can be determined.
  • the database can be used to determine the coefficients of the processing parameter determination rule by the database containing the information of the user parameters.
  • the database can also contain personal control settings that can be linked to the user parameters.
  • the user parameters set by the user can, for example, take the place of the audio processing parameters as an initial variable, or change the audio processing parameters so that the entries in the database represent, for example, the user parameters set by the user.
  • the database is correspondingly at least partially integrated into reinforcement learning, which uses the user parameters set by the user, for example.
  • the coefficients of the processing parameter determination rule can be successively improved or optimized, for example.
  • the user parameters set by the user typically in different acoustic environments
  • this database can be used to determine the coefficients of the processing parameter determination rule.
  • Determination regulation By determining a database that grows, for example, with increasing duration of use by the user, it can be achieved, for example, that over time an ever larger database for (automatic) determination (or improvement) of the coefficients of the processing parameters Determination regulation is present, which allows an increasing refinement or improvement of the said coefficients (e.g. based on an ever-increasing base of un ferent listening environments in which the user has stayed).
  • the user experience can be continuously improved by creating and continuously expanding the database.
  • the device is designed to determine a database as a function of the at least one audio input signal, so that entries in the database represent the audio input signal.
  • the database can be used to determine the coefficients of the processing parameter determination rule.
  • personal control settings for example the user parameters set by the user, were initially stored, which are expanded with sound information from the auditory environment as an external framework.
  • a data basis can be created which, for example, provides coefficients for the processing parameter determination rule using reinforcement learning.
  • the device is designed to determine the database in such a way that the database describes an association between different audio input signals and the respective user parameters set by the user.
  • the device can, for example, assign the external framework conditions based on the audio input signal and the personal control settings, for example the user parameters set by the user, to one another.
  • the assignment can, for example, serve as a basis for the prediction model, which can be changed by further sound adjustments by the user, for example ad hoc, for example by integrating the respective user parameters set by the user with the database (and then, for example the coefficients of the processing parameter determination rule are redetermined or improved).
  • the auditory scene is continuously recorded by means of microphones, and/or analyzed and/or evaluated, so that, for example, an analysis of the auditory scene is generated via the dynamics and/or frequency and/or spectral property.
  • the analysis result of the auditory scene can, for example, be integrated into the database as an environment parameter and assigned to the user parameter in order to obtain a link between the user parameter and the audio input signal in the auditory environment for this corresponding point in time.
  • the device is designed to determine a database, for example for determining the coefficients of the processing parameter determination rule, as a function of an audio output signal, so that entries in the database describe or represent the audio output signal.
  • the processing parameter determination rule for example reinforcement learning, can use the database to determine coefficients of the processing parameter determination rule, for example for a neural network to be able to
  • the coefficients of the processing parameter processing specification can be obtained, for example, by jointly processing an audio input signal and an associated output signal or by comparing the audio output signal with the audio input signal.
  • the device is designed to determine the database in such a way that the database describes an association between different audio output signals and the respective user parameters set by the user.
  • the database describes an association between different audio input signals, between different audio output signals and respective user parameters set by the user in order to be able to determine coefficients of the processing parameter determination rule.
  • sound processing can be integrated into the training of a self-reinforcing learning algorithm, for example by analyzing the incoming and outgoing audio signal.
  • the incoming audio signal or the audio input signal can contain the sound environment, for example the auditory environment.
  • the coefficients of the processing parameter determination rule can be selected so that the desired relationship between audio input signal and audio output signal results at least approximately by the processing parameter determination rule.
  • the device is designed to adapt the at least one coefficient of the processing parameter determination rule based on the database acquired by the device in order to customize the processing parameter determination rule in order to obtain user-specific audio processing parameters.
  • the reinforcement learning is adapted to a user model based on an artificial intelligence in order to obtain user-specific audio processing parameters or a user-specific audio signal.
  • customized audio processing parameters may enable processing of the input audio signal using the audio processing parameters to obtain customized audio signals during user operation.
  • a user-specific parameter set for sound processing can be obtained or developed from the database, which on the one hand automatically applies the same control parameters under the same external conditions, but also allows further user adjustments to the situation itself, which are integrated into the device as a learning system .
  • the learning system and the application can adapt to the tonal user preferences in a continuous learning process.
  • the device is designed to provide and/or adapt the processing parameter determination rule based on the database.
  • the device can use the database, for example using reinforcement learning, to provide the processing parameter determination rule in order to obtain user-customized audio signals, for example during user operation, using the audio processing parameters.
  • the device is designed to calculate the at least one coefficient of the processing parameter determination rule based on to determine and/or adapt at least one audio processing parameter that has been corrected and/or changed by a user.
  • the device can be designed to take into account or set user adjustments to the user parameters during user operation and, for example, to allow further user adjustments to the user parameters at a later point in time and corresponding to the same place or corresponding to the same sound environment, so that the previous ones the user parameters can be set and/or overwritten with newly set user parameters.
  • coefficients of the processing parameter determination rule can be corrected by a user and/or changed audio processing parameters can be determined, for example depending on the sound environment at the time in which the user is located.
  • the device is designed to carry out audio processing, for example a parameterized audio processing specification, based on the audio input signal and based on the audio processing parameters in order to convert the user-customized audio signals, for example taking into account User modifications of the audio processing parameters.
  • the device can provide a user-customized audio signal for the audio output by means of an optional audio processing of the audio input signal and the audio processing parameters.
  • the audio processing can be integrated into the device, as a result of which an efficient system is obtained. Audio processing can optionally also be included in the determination of the audio processing parameters.
  • the device is designed to calculate the coefficients of the processing parameter determination rule using a comparison of the audio input signal and an audio input signal supplied using the audio processing parameters, for example taking into account user modifications of the audio processing parameters , to determine.
  • the determination of the coefficients of the processing parameter determination rule can be based on a comparison between the audio input signal and the direct audio output signal or the audio output signal provided by the audio processing.
  • an audio analysis of the audio input signal or an audio analysis of the audio output signal can optionally be carried out before or after using the comparison. nals done to determine the coefficients of the comparison parameter determination rule based on an audio analysis result of the audio signals.
  • Determining the coefficients of the parameter determination rule using such a comparison provides particularly reliable or robust results since the audio signal actually output to the user can be used as a criterion for determining the coefficients of the parameter determination rule.
  • the criterion that the audio output signal should correspond to what the user wants is more meaningful and robust than simply optimizing the audio processing parameters per se.
  • the device is designed to provide the user parameters set by the user as an output variable instead of the audio processing parameters, the user parameters set by the user comprising volume parameters and/or sound parameters and/or equalizer parameters.
  • user parameters can include, for example, filter parameters for tone shaping and/or for equalization of tone frequencies.
  • the device is designed to combine the user parameters with the audio processing parameters, for example by addition, in order thereby to obtain combined parameters of the audio processing and to provide them as an output variable.
  • Combined parameters may include, for example, user parameters and audio processing parameters that are combined provided to the audio processing or combined using the audio processing and provided as an output to, for example, reinforcement learning. Accordingly, quick user intervention is possible, and the audio processing can thus be adapted to the user's wishes.
  • the device is designed to carry out an audio analysis of the audio input signal in order to use an audio input signal analysis result to determine the at least one coefficient of a processing phase.
  • rameter determination rule for example using the processing parameter determination rule to provide.
  • the processing parameter determination rule can define a derivation rule for deriving the audio processing parameters from the audio input signal analysis result.
  • the audio analysis of the audio input signal can provide audio input signal analysis results, for example in the form of information about spectral properties and/or dynamics and/or frequency of the audio input signal, or also information about intensity values per band.
  • the audio input signal analysis results can be provided, for example, as input variables for determining one or the coefficients of the processing parameter determination rule, for example using reinforcement learning.
  • Exemplary embodiments also provide that the audio analysis analyzes and evaluates the audio input signal coming from the audio input in advance in order to make it available to the processing parameter determination specification, although this is not absolutely necessary. It is thus possible, for example, to obtain additional information about spectral properties of the audio input signal as an audio input signal analysis result.
  • the processing parameter determination rule can be made simpler than if, for example, the complete audio input signal were used to determine audio processing parameters.
  • parameters or values of the audio input signal analysis result can describe the essential characteristics of the audio input signal in an efficient manner, so that the processing parameter determination rule includes a comparatively small number of input variables (namely, for example, the) parameters or values of the audio Has input signal analysis result and is therefore comparatively easy to implement. Good results can thus be achieved with little effort.
  • the device is designed to carry out an audio analysis of the audio output signal in order to obtain an audio output signal analysis result, for example in the form of information about spectral properties of the audio input signal, for determining the at least one coefficient of processing processing parameter determination rule, for example using the processing parameter determination rule.
  • the device is designed to carry out an audio analysis before the processing parameter determination rule or after the processing parameter determination rule in order to obtain either an audio input signal analysis result or an audio output signal analysis. to provide the result of the test or both for a determination of the coefficient of the processing parameter determination rule.
  • the audio output signal analysis result it is particularly easy to compare the audio input signal and the audio output signal, with, for example, values or parameters of the audio output signal analysis result identifying the characteristic properties of the audio output signal particularly efficiently (or in particular compact form) can describe.
  • a determination or optimization of the coefficients of the processing parameter determination rule is possible particularly efficiently, whereby the processing desired by the user can be achieved in an efficient manner, for example by evaluating the audio output signal analysis result or with a comparison being made between the audio input signal analysis result and Audio output signal analysis result can allow conclusions to be drawn about coefficients of the processing parameter determination rule.
  • the audio processing parameter or the audio processing parameters comprise at least one multiband compression parameter R and/or at least one hearing threshold adjustment parameter T and/or at least one band-dependent gain parameter G and/or at least one noise reduction parameter and/or at least a blind source separation parameter.
  • the audio processing parameters can include at least one sound direction parameter, and/or binaural parameters, and/or parameters relating to the number of different speakers, and/or parameters of adaptive filters in general, for example reverberation suppression, feedback, echo cancellation, active noise -Cancellation (ANC), include.
  • the directivity of the sound source can be selected or set using a sound direction parameter, so that the sound is only processed from the desired direction, for example the conversation partner in a conversation, for the combination of the audio processing parameters.
  • audio processing parameters of this type can affect audio signal processing in an efficient manner, with audio signal processing being able to be influenced over a wide adjustment range even with a small number of parameters, which can be determined without major difficulties by a processing parameter determination rule is.
  • the device can include a neural network, which implements the processing parameter determination rule, for example, so that the at least one coefficient is defined, or preferably a plurality are defined by coefficients designed to obtain the audio processing parameters using the processing parameter determination rule.
  • the neural network can be designed to receive the audio processing parameters based on the audio input signal directly from the audio input or by means of the intermediate audio analysis as an analyzed audio input signal. It was recognized that a neural network is well suited for determining the audio processing parameters and can be easily adapted to the personal perception of the individual user by means of the coefficients.
  • the neural network whose edge weights can be defined, for example, by the coefficients of the processing parameter determination rule, can be adapted to the needs of the user through the choice of the coefficients (which can be done, for example, by a training rule). For example, the coefficients can be successively improved if further user settings are available. In this way, results can be achieved that offer a very good user experience.
  • the device is designed to determine the processing parameters based on a method of reinforcement learning, and/or based on a method of reinforcement learning, and/or based on a method of unsupervised learning, and/or based on a method of multivariate prediction, and/or based on a multidimensional parameter fixed with multivariable regression to provide and/or adjust to determine the audio processing parameter.
  • the processing parameter determination rule can, for example, provide coefficients for the neural network, which are based, for example, on the reinforcement learning method.
  • the multivariate prediction method can include, for example, a prediction of frequency bands and/or a prediction of input/output characteristics or input/output characteristics according to the user parameters.
  • the multivariable regression method can, for example, analyze all frequency bands present in order to define a multidimensional parameter space.
  • a multidimensional parameter space can be understood, for example, as a two-dimensional parameter setting that has a graphical interface in which the user parameters can be set and can be continually adjusted.
  • the device can determine the audio processing parameter so that For example, a learning algorithm sets user-specific audio processing parameters, or so that the audio processing parameters supplied by applying the processing parameter determination rule approach the audio processing parameters corrected by the user as learning progresses, or so that the Adapts processing parameter determination rule in a continuous learning process, for example depending on user adjustments of the audio processing parameters.
  • access of the methods to the database or the data memory is unrestricted (so that, for example, as the size of the database increases, better and better coefficients can be determined using the learning methods mentioned).
  • the device is designed to transmit the user parameters set by the user, for example via or by means of an interface, for example a user interface, an intuitive and/or ergonomic user control, such as a 2D space on a smartphone display. to obtain.
  • the device can comprise an interface (for example an electrical interface or also a human-machine interface part) in order to be able to set the user parameters.
  • a visual user control can preferably include a volume setting, for example by means of a slider for louder and quieter and/or a treble and bass control. In this way, the setting of the parameter can be made very easy for humans, it being recognized that this simple sound setting already results in a good hearing impression in many cases.
  • the audio input signal includes a multi-channel audio signal, for example with at least four channels or at least two audio channels.
  • the audio input signal can be provided by the audio input, for example by, via or by means of a microphone.
  • the audio input signal can contain information such as the number of channels and/or the number of frequency bands.
  • the use of multi-channel signals allows, for example, localization of desired and/or interfering sound sources and consideration of directions of the desired or interfering sound sources when determining the audio processing parameters or the coefficients of the processing parameter determination rule.
  • the device is designed to carry out audio processing separately for at least four frequency bands of the audio input signal.
  • the device is designed to determine the at least one coefficient of the processing parameter determination rule on a user-specific basis, for example continuously, continuously, during user operation, for example in real time, in order to determine the audio processing parameters in real time, for example in runtime during user operation, and/or to determine and/or adjust the changed audio processing parameters in real time.
  • the device is designed, for example, to determine and/or adapt the audio processing parameters in real time, so that the device, as a learning system, carries out this learning process in real time, for example during user operation.
  • the sound processing is controlled on the basis of external conditions measured in real time.
  • the present invention comprises a fluting device, the fluting device having audio processing and the fluting device having a device for determining audio processing parameters, the audio processing being designed to depend on an audio input signal of the audio processing parameters to process.
  • the flotation device can implement or integrate the device in order to improve the user's individual perception of sound or tones in the form of audio signals. It has been shown that the device described herein is particularly well suited for use in a tufting device, and that the tufting impression can be significantly improved through the use of the inventive concept.
  • An embodiment according to the present invention comprises a method for determining audio processing parameters as a function of at least one audio input signal, the method including a user-specific determination of at least one coefficient of a processing parameter determination protocol, based on audio signals obtained during user operation, and obtaining audio processing parameters using the processing parameter determination rule based on the audio input signal.
  • the method is based on the same considerations as the device described above and can optionally be supplemented by all the features, functionalities and details that are also described here with regard to the device according to the invention. The method can be supplemented by the features, functionalities and details mentioned both individually and in combination.
  • a further exemplary embodiment according to the present invention comprises a computer program with a program code for carrying out the method when the program runs on the computer.
  • FIG. 1 shows a schematic block diagram of a device according to an exemplary embodiment, which determines audio processing parameters as a function of at least one audio input signal
  • FIG. 2 shows a schematic block diagram of a device according to an embodiment, which determines audio processing parameters as a function of at least one audio input signal and by means of reinforcement learning, based on an audio input signal and an audio output signal;
  • FIG. 3 shows a schematic block diagram of a device according to an exemplary embodiment, which determines audio processing parameters as a function of at least one audio input signal and by means of reinforcement learning, based on an audio analysis of the audio input signal and an audio analysis of the audio output signal;
  • FIG. 4 shows a schematic block diagram of a device according to an exemplary embodiment, which determines audio processing parameters as a function of at least one audio input signal and by means of reinforcement learning, based on an audio analysis of the audio input signal and on user parameters set by the user ;
  • FIG. 5 shows a schematic block diagram of a device according to an exemplary embodiment, which determines audio processing parameters as a function of at least one audio input signal and by means of reinforcement learning, based on an audio input signal and on user parameters set by the user;
  • FIG. 6 shows a schematic flow chart of a method according to an embodiment for determining audio processing parameters.
  • FIG. 1 shows a schematic block diagram of a device 100 for determining audio processing parameters 120, which are shown on the output side of device 100, as a function of at least one audio input signal 110, which is shown on the input side of device 100.
  • the exemplary schematic representation of the device 100 includes, for example, a determination of coefficients, which is represented by the block coefficient determination 130, so that coefficients 132 of the coefficient determination 130 of the processing parameter determination rule 140 can be provided.
  • the audio input signal 110 can, for example, be used directly by the processing parameter determination rule 140 in order to obtain the coefficients 142 of the processing parameter determination rule 140, and/or be used as an audio signal 112 obtained during user operation by the coefficient determination 130, to provide the coefficients 132 to the coefficient determination 130 .
  • the coefficient determination 130 can be user-specific during user operation, so that the coefficients 132 of the coefficient determination 130 are provided to the processing parameter determination rule 140 in order to use the audio processing parameters 120 using the processing determination rule 140 based on the audio input signal 110.
  • the coefficients of the processing parameter determination rule can be set, for example, so that the processing parameter determination rule provides based on the audio input signal and using the coefficients as an output audio processing parameters that when used in an audio processing to a Lead audio output signal that corresponds to the user's expectations.
  • FIG. 2 shows a schematic block diagram of a device 200 according to an exemplary embodiment.
  • the device 200 shown for determining audio processing parameters includes, for example, an audio input 210, audio processing 220, user control 230, an audio output 240, a processing determination rule (or processing parameter determination device) in the form of reinforcement learning 250 and a neural network 260.
  • the audio input 210 can include, for example, a microphone or other audio capture device and contain, for example, information about the number of channels, for example “C” and/or information about the number of frequency bands, for example “B”.
  • audio signal 212 may be provided to neural network 260, audio signal 214 to reinforcement learning 250, and audio signal 216 to audio processing 220 (where audio signals 212,214,216 may be the same, or differ, for example, in detail (e.g., in Fig sampling rate, the frequency resolution, the bandwidth, etc.)
  • the audio signal 212 can be the same as the audio signal 214 and/or the audio signal 216 (or at least describe the same audio content) and the same information about the number of Having frequency channels and frequency bands, so that the audio input signal from the audio input 210 is divided directly, for example without further audio analysis, and can be made available, for example via a number of outputs or data paths of the audio input 210.
  • the audio processing 220 can have, for example, one and/or more parameterized audio processing specifications that process/process one or more audio signals 216, for example, in such a way that, based on the incoming audio signal 216 (or the incoming audio signals), using the parameterized audio processing rule, which is parameterized, for example, by the combined parameters 272, a user-customized audio signal 217 is provided (or several user-customized audio signals are provided).
  • the audio processing 220 enables the audio input signal 216, which is based on the audio input 210, to be processed using the combined parameters 272, for example using the parameterized audio processing rule, in order to customize the audio signal 217 to the user receive.
  • Optional details and exemplary embodiments for the combined parameters 272 are explained in more detail later in the present patent application. Before that, further details and exemplary embodiments of the components of the device 200 follow.
  • the audio output 240 can, for example, receive the audio signal 217 that has been changed, reassigned, and customized by the audio processing unit 220 and can be used as a changed or processed audio signal 218 for a determination of parameters or coefficients of the processing parameter determination rule (e.g. of the neural network 260) a coefficient determiner 250 (the two for example realized using reinforcement learning).
  • the audio output can provide, for example, the audio signal 217 that has been modified, reassigned, and customized by the audio processing unit 220 as a modified or processed audio signal 219 for an interface, for example for headphones or loudspeakers, with the it is not mandatory.
  • exemplary embodiments allow additional information of the audio signal 218 to be provided via the audio output 240 to the reinforcement learning 250 (or another device for determining coefficients or parameters of the processing parameter determination rule), for example a data memory 252 (the content of which may be part of a database) with information about audio signals.
  • the audio output signal 218 can, for example like the audio input signal 214, be provided to the reinforcement learning 250 for determining coefficients or parameters of the processing parameter determination rule 260, so that for example the information of the audio input signal 214 and the audio output signals 218 can be stored in a data memory 252 as a corresponding database of the device 200.
  • the reinforcement learning 250 can determine coefficients or parameters of the processing parameter determination rule 260 by means of the audio signals 218 and 214, for example. Furthermore, the reinforcement learning 250 can, for example, based on the audio signals 214, 218 enlarge the database and/or record the audio signals 214, 218 in the data memory 252. Alternatively or additionally, the reinforcement learning can determine at least one user-adapted coefficient 254 or store it in the database.
  • the database or the data memory 252 can include a variety of information, for example information about the audio input 210 (or about a Audio input signal) and/or coming from the audio input 210 via one or more of the audio signals 212 and 214, and/or information about the audio output 240 and/or about the audio signal 218 coming from the audio output 240 , and/or information about and for the audio processing 220 and, for example, at least one user-adapted coefficient 254.
  • User-adapted coefficients 254 can be understood to mean coefficients which, for example, are intended for use by the processing parameter determination rule 250 based on the database 252 and/or determined based on a set user parameter 232. However, user-adapted coefficients can also be understood as audio processing parameters set by the user.
  • the coefficients of the processing parameter determination rule for example edge weights of the neural network, can be based, among other things, on a method of reinforcement learning, which is identified in FIG. 2 with the reference number 250 as “reinforcement learning”.
  • the reinforcement learning 250 (for example as a sub-function) can determine the database or the content of the data memory 252 in such a way that the data memory 252 can assign different audio input signals 212, 214 and the respective user parameters 232 set by the user, for example a user-adapted one coefficients 254.
  • the reinforcement learning 250 determining the database or the content of the data memory 252 in such a way that the data memory 252 (for example additionally) describes an association between the audio output signal 218 and the respective user parameters set by the user, for example a user-adapted coefficient 254
  • Neural network coefficients 256 are advantageously provided by reinforcement learning 250 .
  • the processing parameter determination rule may be designed as a neural network 260, or may be integrated into a neural network to obtain audio processing parameters 262 using the coefficient 256 determined by reinforcement learning 250, for example.
  • it can, for example, use the neural network 260 based on the audio signal 212 and the through The coefficients 256 obtained from the reinforcement learning 250 determine the audio processing parameters 262, so that as a result, for example, a learning algorithm sets user-specific audio processing parameters 262.
  • the at least one audio processing parameter 262 provided by the neural network 260 may be a single parameter or may include multiple parameters.
  • the neural network 260 can supply one or more of the following parameters as the audio processing parameter 262, for example: a parameter of the user profile N, and/or a multiband compression parameter R, and/or a hearing threshold adjustment parameter T, and/or smoothing (or one or more smoothing parameters) and/or compression settings (or one or more compression parameters).
  • one or more parameters can be used (or supplied by the neural network as audio processing parameters 262), such as a band-dependent gain G, noise reduction (or one or more noise reduction parameters) and/or a blind source separation (or one or more parameters of a blind source separation).
  • the number of input parameters can result in dependence on a number C of channels of a multi-channel audio signal, and also in dependence on a number B of processing bands, or in Dependence on a number P of user parameters.
  • the number of user parameters P can result from the product of the number of frequency bands B and the number of audio signals or audio channels C.
  • the number of output parameters (e.g. the output parameters of the neural network 260 or the input parameters of the audio processing) in a learned user profile M can result from the number of audio channels (e.g. C), the hearing threshold adjustment T, the multiband compression with rate R , the band-dependent gain G and two other time constants, with the number of values of G, R, T corresponding to the number of bands B, for example.
  • the value of the learned user profile M (or the values of the learned user profile M) form the user-adapted coefficient (or parameter) 254 (or a set of user-adapted coefficients or parameters).
  • the user control 230 provides at least one user parameter 232, which can include, for example, volume parameters and/or tone control parameters.
  • the user control can include, for example, an interface for visualizing the one or more user parameters.
  • a volume control or a volume regulation which can be performed by the user controller 230, can provide parameters, for example, which cause an amplification or attenuation of the audio signal.
  • the user can use the user control 230 to set parameters of the tone control, for example, which can be used, for example, as part of the user parameters 232 with the audio processing parameters 262 (supplied by the neural network 260).
  • a combination 270 can be merged.
  • the user parameters 232 provided by the user control 230 may be combined with the audio processing parameter 262, such as by addition, multiplication, division, or subtraction.
  • the combination 270 of the user parameters 232 with the audio processing parameters 262 can, for example, provide combined parameters 272 to the audio processing 220 .
  • the user parameters 232 can also replace the parameters 262 , for example if the user desires a significantly different setting than that specified by the parameters 262 .
  • the device 200 processes an audio input signal, which is received via the audio input 210, in the audio processing 220 in order to adapt sound properties to the wishes or needs of a user.
  • a processing characteristic of the audio processing 220 is set by the parameters 272, the parameters 272 being influenced on the one hand by the neural network 260 and on the other hand being modified by the user via the user control 230.
  • reinforcement learning 250 performs the function of adjusting one or more coefficients (e.g., edge weights) of the neural network such that the parameters provided by the neural network essentially match the user's meet expectations, that is, within acceptable tolerances, the parameter values that the user sets via the user control 230 in the respective different acoustic environments.
  • the device after sufficient training in many different acoustic environments, achieves an automatic adjustment of the audio processing that is comfortable for the user.
  • FIG. 3 shows a schematic illustration or a schematic block diagram of a device 300 for determining audio processing parameters as a function of at least one audio input signal, which is based on the device 200 from FIG. 2 .
  • function blocks which are also shown in FIG. 2 can, for example, have a similar or the same functionality as corresponding function blocks in the device 200 (but do not necessarily have to have). It should also be noted that the device 300 can optionally be supplemented with all of the features, functionality and details described herein, both individually and in combination.
  • Device 300 like device 200, has audio input 310 (which may correspond to audio input 200), audio processing 320 (which may correspond to audio processing 220), user control 330 (which can correspond to the user control 230), an audio output 340 (which can correspond to the audio output 240), a reinforcement learning 350 (which can correspond to the reinforcement learning 250 in its basic function, for example), a neural network 360 (the for example, its basic function can correspond to the neural network 260) and the combination 370 of the user parameters 332 set individually by the user and the audio processing parameters 362 (which, for example, can correspond to the combination 270).
  • audio input 310 which may correspond to audio input 200
  • audio processing 320 which may correspond to audio processing 220
  • user control 330 which can correspond to the user control 230
  • an audio output 340 which can correspond to the audio output 240
  • a reinforcement learning 350 which can correspond to the reinforcement learning 250 in its basic function, for example
  • a neural network 360 the for example, its basic function can correspond to the neural network 260
  • the device 300 from FIG audio output 340 and reinforcement learning 350 Based on the device 200 from FIG. 2, the device 300 from FIG audio output 340 and reinforcement learning 350.
  • this arrangement enables the audio analysis 380-1 to receive and analyze the audio input signal 311 emanating from the audio input 310, for example, in order to obtain an audio input signal analysis result, for example information about spectral properties and/or dynamics and/or Frequency of the audio input signal 311 in the form of the audio analysis signal 312 and/or 314 to provide.
  • the information of the audio analysis result of the audio analysis 380-1 can be provided to the neural network 360 and the reinforcement learning 350 (for example at the same time) via the analyzed audio signals 312, 314, for example.
  • the processing parameter determination rule which can include, for example, a part of the neural network 360 (or a part of the reinforcement learning 350), or which is implemented by the neural network 360, can, for example, be a derivation rule for deriving the audio processing parameters 362 from the audio input analysis result.
  • Audio analysis 380-1 can be used to obtain additional (or compact) information about spectral properties, for example an intensity value per frequency band and channel, in order to provide frequency selectivity for audio signals (for example multi-channel audio signals). The frequency selectivity is required to be able to analyze and represent the perceptible sonic aspects of the signal.
  • an input data amount of the neural network can be significantly reduced by the audio analysis 380-1, for example compared to a concept in which time-domain samples are input to the neural network.
  • the analyzed audio signals 312, 314 containing parameters that describe the properties of the audio input signal in compact form where a number of parameters per time segment is, for example, at least a factor of 10 or at least a factor of 20 or at least a factor of 50 less as a number of samples per time unit
  • the complexity of the neural network 360 can be kept comparatively low.
  • the number of coefficients of the neural network can be kept comparatively small, which facilitates a learning process (for example through reinforcement learning 350). This applies all the more, the better the parameters of the analyzed audio signals are suitable for differentiating between different acoustic environments.
  • an audio analysis 380-2 of the audio output signal 342 can be performed in order to provide an audio output signal analysis result for a determination of the at least one coefficient of the processing parameter specification, for example at least one coefficient of reinforcement learning 350.
  • a “common” audio analysis of the audio input signal 311 and the audio output signal 342 is also possible (i.e., for example, an audio analysis of both the audio input signal and the audio output signal), with separate audio signal analysis results being provided can become.
  • separately means that the audio input signal analysis result can be made available to other components, for example, compared to the audio output signal analysis result.
  • the information of the audio analysis 380 - 1 , 380 - 2 of the input or output signal can be different from one another or correspondingly the same.
  • Exemplary embodiments also provide that the audio output 340 provides a modified or processed audio signal 319 for an interface, for example for headphones or loudspeakers, although this is not absolutely necessary. Furthermore, exemplary embodiments make it possible for the audio analysis 380-2 to provide the audio signal 313 for the interface or for another interface. In this way, the device 300 can provide the audio signal 319 and 313 to external components, for example via at least one interface, although this is not absolutely necessary.
  • the device 300 it is not the input audio signal or the output audio signal itself that is supplied to the neural network 360 or the reinforcement learning 350, but rather one or more corresponding audio analysis results.
  • a complexity of the neural network and thus also a complexity of the reinforcement learning can be kept low by suitable prior analysis of the input audio signal and/or the output audio signal, which significantly reduces the implementation effort.
  • FIG. 4 shows a schematic block diagram of a device 400 for determining audio processing parameters as a function of at least one input signal, which is partly based on the device 200 from FIG.
  • Device 400 includes an audio input 410 (which may correspond, for example, to audio input 210), audio processing 420 (which may correspond, for example, to audio processing 220), a user control 430 (which, for example, may correspond to the user controller 230), an audio output 440 (which, for example, can correspond to the audio output 240), a reinforcement learning 450 (which, for example, can correspond to the reinforcement learning 250 in terms of its basic function), a neural network 460 (which can, for example, correspond to the neural network 260 in terms of its basic function), a combination 470) which can, for example, correspond to the combination 270) and an audio analysis 480 (which can, for example, correspond to the audio analysis 380-1) between the audio input 410 and the neural network 460 and reinforcement learning 450.
  • an audio input 410 which may correspond, for example, to audio input 210
  • audio processing 420 which may correspond, for example, to audio processing 220
  • a user control 430 which, for example, may correspond to the user controller 230
  • device 400 does not include audio analysis of audio output 440 and compared to device 200, no audio output signal coming from audio output 440 is provided to reinforcement learning 450.
  • the reinforcement learning 450 receives no information about the audio output signal.
  • the reinforcement learning 450 is based on the combined parameters 472, 473 or on information 433 that describes changes or adjustments to the audio processing parameters 462 supplied by the neural network 460 by the user. Further, the reinforcement learning uses the audio input signal analysis result 414.
  • the reinforcement learning 450 can determine a database 452 depending on user parameters set by the user or the combined parameters 472, 473, so that entries in the database 452 represent the user parameters 472, 473 set by the user.
  • the database 452 can be provided or used to determine the coefficients 456 of the processing parameter determination rule or the neural network 460 . This allows a prediction model to be determined that is directly based on user parameters (or the audio signal processing parameters 472 customized by the user) that are mapped directly into the reinforcement learning 450 .
  • the one or more combined parameters 472, 473 or user parameters can also enter the neural network 460 directly during operation by means of the combined parameter 474, so that the compressor settings and/or other parameters for the audio processing parameters 462, for example, are provided as an output can become.
  • the particular user parameters 432 set by the user may be provided directly to the reinforcement learning 450 (as shown at reference numeral 433), although this is not mandatory.
  • the reinforcement learning 450 may be provided directly to the reinforcement learning 450 (as shown at reference numeral 433), although this is not mandatory.
  • information about how much the user changes the parameters 462 supplied by the neural network 460 can be used for the reinforcement learning. If the user does not change the parameters 462 supplied by the neural network 460 at all or only slightly, it can be assumed that the user is completely or at least to a very high degree satisfied with the current functionality of the neural network, so that coefficients of the neural network do not have to be changed at all or only slightly.
  • the reinforcement learning can be assumed through the reinforcement learning that a significant change in the coefficients of the neural network is necessary in order to ensure that the parameters 462 supplied by the neural network correspond to the user expectations.
  • the information 433 describing a user intervention can be used by the reinforcement learning to trigger learning and/or to determine an extent of the changes in the coefficients of the neural network.
  • the exemplary embodiment according to FIG. 4 makes it possible to learn and/or (e.g. continuously) improve the coefficients 456 of the neural network 460 in an efficient manner.
  • Fig. 5 shows a device 500, which has similar properties as the devices 200, 300 and 400. It should be noted that in the device 500 according to FIG. 5 function blocks, which are also shown in FIGS. 2, 3 4 and 4 may, for example, have similar or identical functionality to corresponding functional blocks in device 200, device 300, and device 400 (but not necessarily have to have). It should also be noted that the device 500 can optionally be supplemented with all of the features, functionality and details described herein, both individually and in combination.
  • the schematic block diagram of Fig. 5 shows the device 500, comprising an audio input 510 (which can correspond, for example, to the audio input 210), audio processing 520 (which can correspond, for example to the audio processing 220), a user control 530 (which may correspond, for example, to user control 230), an audio output 540 (which may correspond, for example, to audio output 240), reinforcement learning 550 (which, for example, may correspond to reinforcement learning 250 in terms of its basic function), a neural network 560 (which, for example, can correspond to the neural network 260 in terms of its basic function) and a combination 570 (which, for example, can correspond to the combination 270).
  • an audio input 510 which can correspond, for example, to the audio input 210
  • audio processing 520 which can correspond, for example to the audio processing 220
  • a user control 530 which may correspond, for example, to user control 230
  • an audio output 540 which may correspond, for example, to audio output 240
  • reinforcement learning 550 which, for example, may correspond to
  • device 500 includes no audio analysis of the audio input signal and no audio analysis of the audio output signal, so audio signals 512 and 514 are routed directly from audio input 510 to reinforcement learning 550 and neural network 560, respectively can become.
  • the device 500 can also carry out an audio analysis of the audio input signal.
  • an audio input signal 512 for the neural network 560 and an audio input signal 514 for the reinforcement learning NEN 550 can be provided.
  • reinforcement learning 550 of device 500 may be based on audio input signal 514 and audio processing parameter(s) 572 provided to audio processing 520 (or actually used by audio processing 520).
  • the user parameter or the combined parameter 572 can be provided to the neural network 560, so that the user parameter 572 and the coefficient(s) supplied by the reinforcement learning 550 are received or provided as input variables of the neural network 560.
  • the device 500 allows a particularly efficient adjustment of the coefficients of the neural network, since the reinforcement learning 550 through the audio signal processing 520 parameters actually used are taken into account and the coefficients of the neural network can therefore be determined and optimized very precisely.
  • FIG. 6 shows a schematic flow diagram of a method 600 for operating a device, such as device 100, 200, 300, 400 or 500, or more generally for obtaining audio processing parameters.
  • a first step 610 includes a user-specific determination of at least one coefficient of a processing parameter determination rule based on audio signals obtained during user operation.
  • a second step 620 includes obtaining audio processing parameters using the processing parameter determination rule based on the audio input signal.
  • the method 600 is carried out, for example, in such a way that audio processing parameters are determined as a function of at least one audio input signal.
  • the method 600 can be carried out in such a way that sound processing or audio processing based on directly recorded ambient noises (whereby, for example, an audio input signal leads to an adjustment of audio processing parameters) leads to an improvement in the individual perception of sound.
  • the coefficients of the processing parameter determination rule are based on audio input signals obtained during user operation and are determined individually for the user (e.g. in real time), so that audio processing parameters using a neural network whose coefficients are determined by reinforcement learning can be determined or even continuously adjusted based on the audio input signal obtained.
  • the method 600 can optionally be supplemented with all features, functionality and details described herein, even if they have been described in terms of devices. These features, functionalities and details can be added to the process both individually and in combination.
  • Situation-dependent control parameters that can be set by the user, or user parameters set by the user, can be integrated into the sound processing in the training of a self-reinforcing learning algorithm, for example by analyzing the incoming and outgoing audio signal, as shown in FIG.
  • the incoming audio signal may contain the sound environment. This allows changes in the sound environment and user settings to be inherently learned over time, for example.
  • the self-reinforcing learning algorithm can use this data, for example, to develop a user-specific parameter set for sound processing, which on the one hand automatically applies the same control parameters under the same external conditions, but also allows further user adjustments to the situation itself, which are integrated into the learning system (e.g. based on a principle of reinforcement learning).
  • the machine learning system and the application can adapt to the tonal user preferences in a continuous learning process.
  • Algorithms such as those used in hearing aids, can be integrated and controlled to adjust the sound. This can include, for example, multiband compression with rate R and hearing threshold adjustment T and band-dependent gain G, background noise reduction or blind source separation.
  • the incoming audio signal, the sound processing parameters and/or the audio signal processed with the sound processing parameters can be stored in a cloud (e.g. a central data store) for training the user profile, for example.
  • the sound processing parameters selected by the user, or user parameters can be applied to the incoming audio signal.
  • a possible implementation of the method or the device in the area of sound control is, for example, that a user wears a sound reproduction device (e.g. a hearable or an earphone with an additional function), which is equipped with a system with integrated sound amplification and an audio analysis, for example as shown in FIG. 3 or FIG. 4.
  • the user can control the parameters of the sound amplification, for example, with an app (or with application software), for example using the user control described above.
  • the audio analysis can, for example, constantly record and analyze the auditory scene by means of microphony and evaluate it, for example, in terms of dynamics and/or frequency and/or the spectral properties (for example in the audio analysis).
  • a given auditory scene e.g. B.
  • AI artificial intelligence
  • the prediction model is applied and the sound amplification parameters (e.g. parameter 262) are automated by the system (e.g. provided by the neural network 260 defined by coefficients 256. If the user (user) adjusts the sound again if necessary (for example via the interface 230), these can be integrated ad hoc into the self-learning system, for example.
  • the prediction model is based on real-time multidimensional optimization that analyzes all frequency bands present.
  • the adjustment can take place continuously during runtime, for example the processing parameter determination rule and/or the audio processing parameters.
  • Embodiments according to the invention relate, for example, primarily to an intuitive and ergonomic user control of sounds in everyday acoustic environments and therefore prefer generalized setting options, for the following reasons:
  • the user can perform complex sound adjustments (e.g., in device 230) with a simple and intuitive interface such as a 2D touch surface of a smartphone.
  • Tonal properties of individual sounds could sound different in combination than in preference, e.g. B. Sounds like music as a foreground or background noise. Therefore, in the case of the present invention, for example, the complexity of the auditory scene is adapted to a perception of all existing sounds that is optimized for the user. • Settings for individual signals do not dynamically adapt to changing environmental conditions. For example, when speech is spoken softly or music is only played softly, even a slight increase in the volume of the background noise can make speech incomprehensible or music no longer audible.
  • a processor controls the sound processing of the hearing device on the basis of "user preferences and interests” (user preferences and interests) and “historical activity patterns” (earlier activity patterns).
  • the sound processing of the hearing device is controlled, for example, on the basis of external framework conditions measured in real time, for example as shown in FIG.
  • the criteria or requirements mentioned above are integrated into a learning method or a device that learns in real time from user settings and automatically applies them to the individual perception of sound or tones in the form of audio signals for the user.
  • a signal reproduction or audio reproduction optimized to the user preferences can be realized by means of the present invention.
  • embodiments according to the invention may take into account that sound perception differs from person to person. For example, a conversation with a person in a room with many people with a loud soundscape is more difficult for one than for the other. Likewise, depending on the need, the same setting of a sound reproduction is perceived differently.
  • exemplary embodiments according to the invention can take into account that environmental parameters, such as the auditory environment, also significantly influence the control values for a sound adjustment of a sound reproduction device.
  • exemplary embodiments according to the present invention provide an apparatus and a method which perform sound processing on the basis of ambient noise which is recorded or measured directly. Based on these recordings and the user parameters set by the user, a learning algorithm, for example, generates a prediction model that allows further adjustments in the situation itself, which are integrated into the learning system to improve the individual perception of sound or tones in the form of audio signals to improve for the user.
  • embodiments of the invention may be implemented in hardware or in software. Implementation can be performed using a digital storage medium such as a floppy disk, DVD, Blu-ray Disc, CD, ROM, PROM, EPROM, EEPROM or FLASH memory, hard disk or other magnetic or optical memory, on which electronically readable control signals are stored, which interact with a programmable computer system in such a way ken or cooperation that the respective method is carried out. Therefore, the digital storage medium can be computer-readable.
  • Some exemplary embodiments according to the invention thus include a data carrier which has electronically readable control signals which are capable of interacting with a programmable computer system in such a way that one of the methods described herein is carried out.
  • exemplary embodiments of the present invention can be implemented as a computer program product with a program code, the program code being effective to carry out one of the methods when the computer program product runs on a computer.
  • the program code can also be stored on a machine-readable carrier, for example.
  • exemplary embodiments include the computer program for performing one of the methods described herein, the computer program being stored on a machine-readable medium.
  • an exemplary embodiment of the method according to the invention is therefore a computer program that has a program code for performing one of the methods described herein when the computer program runs on a computer.
  • a further exemplary embodiment of the method according to the invention is therefore a data carrier (or a digital storage medium or a computer-readable medium) on which the computer program for carrying out one of the methods described herein is recorded.
  • a further exemplary embodiment of the method according to the invention is therefore a data stream or a sequence of signals which represents the computer program for carrying out one of the methods described herein.
  • the data stream or sequence of signals may be configured to be transmitted over a data communications link, such as the Internet.
  • Another embodiment includes a processing device, such as a computer or programmable logic device, configured or adapted to perform any of the methods described herein.
  • a processing device such as a computer or programmable logic device, configured or adapted to perform any of the methods described herein.
  • Another embodiment includes a computer on which the computer program for performing one of the methods described herein is installed.
  • a programmable logic device eg, a field programmable gate array, an FPGA
  • a field programmable gate array may cooperate with a microprocessor to perform any of the methods described herein.
  • the methods are performed by any flardware device. This can be hardware that can be used universally, such as a computer processor (CPU), or hardware that is specific to the method, such as an ASIC, for example.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)
  • Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
  • Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)

Abstract

Die vorliegende Erfindung bezieht sich auf eine Vorrichtung und ein Verfahren zum Bestimmen von Audio-Verarbeitungsparametern in Abhängigkeit von zumindest einem Audio-Eingangssignal.

Description

Vorrichtung und Verfahren zum Bestimmen von Audio-Verarbeitungsparametern
Technisches Gebiet
Ausführungsbeispiele gemäß der vcrliegenden Erfindung beziehen sich auf eine Verrich tung und ein Verfahren zum Bestimmen vcn Audic-Verarbeitungsparametern in Abhängig keit vcn zumindest einem Audio-Eingangssignal.
Ausführungsbeispiele gemäß der Erfindung beziehen sich auf eine Vorrichtung und ein Ver fahren mit einer künstlichen Intelligenz, beispielsweise in einem Klangwiedergabegerät, die Audiosignale analysieren und mit benutzer-individuellen Einstellungen während des Benut zerbetriebs zuordnen bzw. kombinieren kann.
Ausführungsbeispiele beziehen sich ferner auf Konzepte zum Bestimmen von Audio-Ver- arbeitungsparametern basierend auf beim Benutzerbetrieb erhaltenen Audiosignalen.
Hintergrund der Erfindung
Die individuelle Wahrnehmung von Klang und damit die individuellen Anforderungen für den Klang bzw. Wohlklang an deren Anpassung von Klangwiedergabegeräten unterschei den sich unter anderem nach folgenden Kriterien:
• Individualität
• Situaticnsbedingte Bedürfnisse
• Äußere Rahmenbedingungen
Die Klangwahrnehmung unterscheidet sich vcn Perscn zu Perscn. Beispielsweise ist ein Gespräch mit einer Perscn in einem Raum mit vielen Menschen für den Einen schwerer zu führen als für den Anderen. Ebensc wird je nach Bedürfnis dieselbe Einstellung einer Klang wiedergabe unterschiedlich wahrgencmmen. Auch Umgebungsparameter, wie die audito- rische Umgebung, beeinflussen die Steuerungswerte für eine Klanganpassung eines Klangwiedergabegeräts erheblich. Aktuelle Klangwiedergabegeräte bieten spezifische Klanganpassungen, die nicht automa tisiert angewandt werden. Bei Klangwiedergabegeräten, wie beispielsweise tragbaren Ge räten zur Hörunterstützung, wie etwa Kopfhörer, Headsets oder Hörgeräte, stehen oft nur Lautstärkeregelung und Equalizer zur Klanganpassung zur Verfügung. Die Klanganpas sung, wie beispielsweise die Verstärkung der Lautstärke oder die Anpassung der höheren oder tieferen Töne, wird einmalig von dem Benutzer durchgeführt. Es wurde erkannt, dass zur Erzielung einer durchgängig guten Audioqualität für jede weitere Klangwiedergabe diese Einstellungen erneut durchgeführt werden müssen.
Es wurde erkannt, dass bei herkömmlichen Konzepten nicht nur der Vorgang der Klangan passung für unterschiedliche Klangwiedergaben wiederholt werden muss, sondern dass auch bei Klangwiedergabegeräten die Veränderungen der auditorischen Umgebung nicht adaptiv, beispielsweise an den Umgebungsgeräuschen angepasst, werden. Es wurde er kannt, dass es dabei Vorkommen kann, dass selbst bei einer relativ geringfügigen Änderung von Nebengeräuschen die Höranstrengung für das Sprachverstehen steigt.
Ferner wurde erkannt, dass bei herkömmlichen Konzepten Klanganpassungen zudem auch nur basierend auf den von Herstellern vorgegebenen Klangvoreinstellungen durchgeführt werden können. Es wurde herausgefunden, dass diese nicht immer den individuellen Be dürfnissen der Menschen entsprechen. So gibt es beispielsweise Einstellungen, wie „Mu sik“, wobei der präferierte Musikgeschmack und die persönliche Intention beim Musikhören dabei keine Berücksichtigung findet. So unterscheiden sich beispielsweise die Erwartung an das Klangerlebnis von Operngesang im Vergleich zu Techno grundsätzlich. Bei den Voreinstellungen im Hörprogramm „Musik“ werden jedoch von dem Hersteller verallgemei nerte Annahmen zugrunde gelegt, die unter Umständen weder den Erwartungen an das Klangerlebnis von Operngesang noch an Techno genügen und somit dem Benutzer unzu reichende Klangwiedergaben zur Verfügung stellen.
Aktuelle Klangwiedergabegeräte zur Hörunterstützung, wie beispielsweise Hörgeräte, kön nen je nach Ausstattung unter anderem mehrere Tausend Euro kosten, so dass die Erwar tungen an das Gerät entsprechend hoch ausfallen. Anpassungen von Hörgeräten werden generell unter Laborbedingungen vorgenommen, meist mit nur zwei Lautsprechern und nur einer sehr begrenzten Anzahl von Klängen, wie Sinustöne, Rauschen und Sprache. Kom plexe Geräuschsituationen, wie beispielsweise auf Straßenkreuzungen, können im Hörla bor nicht simuliert werden und führen daher zur Frustration der Hörgerätträgern und zu wenig zufriedenstellenden Ergebnissen im Alltag. Bei lernenden Anwendungen zur Klangwiedergabe, wie beispielsweise der Github-Veröf- fentlichung „liketehear-ai-pt“, werden in einer Datei aufgezeichnete, vcn Benutzern (Usern) situaticnsbedingte Parameteränderungen eines Hörgerätealgorithmus und die der Situaticn zugehörige aufgezeichnete Frequenzspektrumanalyse mit einem selbstlernenden Algorith mus verarbeitet. Der Algcrithmus erstellt die für die Entscheidung des Benutzers (Users) maßgebliche Relevanz eines bestimmten Frequenzspektrums und wählt autcmatisch die zugehörigen Parameter als Grundlage für ein Vcrhersagemcdell aus. Das Vorhersagemo- dell wird in einem zweiten Schritt auf die vcrher aufgezeichnete Frequenzspektrumanalyse angewandt. Es wurde erkannt, dass mittels dieser lernenden Anwendung zur Klangwieder gabe die Kcmplexität des Frequenzspektrums nicht abgebildet werden kann, sc dass immer wieder weitere Benutzeranpassungen netwendig sind.
In Anbetracht der ebigen Ausführungen besteht ein Bedarf für ein Kcnzept zur Bestimmung vcn Audic-Verarbeitungsparametern zur Laufzeit, das einen verbesserten Kcmprcmiss zwi schen Benutzerfreundlichkeit, erzielbarer Audicqualität und Implementierungsaufwand mit sich bringt.
Zusammenfassung der Erfindung
Diese Aufgabe wird durch den Gegenstand der unabhängigen Patentansprüche gelöst.
Ein Kerngedanke vcn Ausführungsbeispielen der vorliegenden Erfindung besteht darin, er kannt zu haben, von den Benutzern intuitiv durchgeführte Klanganpassungen in Laufzeit vorzunehmen und in Echtzeit in das lernende System zu integrieren.
Ein Ausführungsbeispiel gemäß der vorliegenden Erfindung umfasst eine Vorrichtung zum Bestimmen von Audio-Verarbeitungsparametern, beispielsweise Parameter für Audio-Ver- arbeitung, in Abhängigkeit von zumindest einem Audio-Eingangssignal, beispielsweise von einem Audio-Eingang kommend, wobei die Vorrichtung ausgebildet ist, um zumindest einen Koeffizienten einer Verarbeitungsparameter-Bestimmungsvorschrift benutzer-individuell basierend auf beim Benutzerbetrieb erhaltenen Audiosignalen zu bestimmen, und wobei die Vorrichtung ausgelegt ist, um die Audio-Verarbeitungsparameter unter Verwendung der Verarbeitungsparameter-Bestimmungsvorschrift basierend auf dem Audio-Eingangssignal zu erhalten. Koeffizienten einer Verarbeitungsparameter-Bestimmungsvorschrift können beispielsweise Koeffizienten eines neuronalen Netzes sein, das als Eingangsgröße das Au- dio-Eingangssignal, oder davon extrahierte Eingangssignalparameter, erhält, und das als Ausgangsgröße die Audio-Verarbeitungsparameter bereitstellt. In anderen Worten können die Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift beispielsweise be nutzer-individuell basierend auf beim Benutzerbetrieb erhaltenen Eingangs-Audiosignalen, beispielsweise während des Benutzerbetriebs, bestimmt werden. Ferner kann die Vorrich tung ausgelegt sein, um die Audio-Verarbeitungsparameter, beispielsweise unter Verwen dung der durch den zumindest einen Koeffizienten definierten Verarbeitungsparameter-Be stimmungsvorschrift basierend auf dem Audio-Eingangssignal zu erhalten.
Dieses Ausführungsbeispiel basiert auf dem Kerngedanken, dass es durch eine Benutzer individuelle Einstellung eines oder mehrere Koeffizienten der Verarbeitungsparameter-Be stimmungsvorschrift basierend auf beim Benutzerbetrieb erhaltenen Audiosignalen möglich wird, die Verarbeitungsparameter-Bestimmungsvorschrift an die individuellen Gewohnhei ten und Wünsche des Benutzers anzupassen. Indem während des Benutzerbetriebs erhal tene Audiosignale für die benutzer-individuelle Einstellung der Koeffizienten der Verarbei tungsparameter-Bestimmungsvorschrift herangezogen werden, kann erreicht werden, dass die Koeffizienten gut an diejenigen (konkreten) Hörsituationen anpasst, in denen sich der Benutzer üblicherweise tastsächlich aufhält. Somit ist es beispielsweise nicht länger erfor derlich, eine akustische Umgebung vorzuklassifizieren (zum Beispiel in eine allgemeine Ka tegorie „Musik“ und eine allgemeine Kategorie „Sprache“), sondern die Koeffizienten kön nen an die tatsächlichen Hörumgebungen, in der der Benutzer beispielsweise Musik oder Sprache hört, und auch an die individuellen Bedürfnisse des Benutzers angepasst werden. Beispielsweise kann durch geeignete Wahl der Koeffizienten der Verarbeitungsparameter- Bestimmungsvorschrift eine unmittelbare und Benutzer-individuelle Bestimmung von Au- dio-Verarbeitungsparametern erfolgen, wobei beispielswese die durch Koeffizienten ange passte Verarbeitungsparameter-Bestimmungsvorschrift eine unmittelbare Bestimmung der Audio Verarbeitungsparameter ohne Kategorisierung der akustischen Umgebung in eine von mehreren statisch vorgegebenen Kategorien erfordert. Vielmehr können Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift basierend auf den bei Benutzerbetrieb erhaltenen Audiosignalen angepasst werden, so dass die für den Benutzer relevanten Hö rumgebungen, in denen der Benutzer unterschiedliche Audio-Verarbeitungsparameter wünscht, „hart“ oder „weich“ (beispielsweise mit fließendem Übergang) unterscheiden wer den können. Somit ermöglicht es das Erfindungskonzept durch die Berücksichtigung der beim Benutzer betrieb erhaltenen Audiosignale (und durch entsprechende Einstellung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift) beispielsweise, dass bei Vorhanden sein von Sprache in verschiedenen akustischen Umgebungen, an denen sich der Benutzer aufhält (zum Beispiel lautes Großraumbüro, Einzelbüro, Straßenkreuzung mit vielen LKWs, Straßenkreuzung mit Straßenbahnverkehr, usw.) ganz verschiedene Audio-Verarbeitungs- parameter bereitgestellt werden. Die Bereitgestellten Parameter sind dann typischerweise an durch den Benutzer gewünschten Einstellungen in den jeweiligen Situationen orientiert.
Insofern liefert das Erfindungskonzept mit vertretbarem Aufwand Audio-Verarbeitungspa- rameter, die an die Lebenswirklichkeit eines individuellen Benutzers und dessen spezifi schen Präferenzen angepasst sind.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, um eine Da tenbasis in Abhängigkeit von durch den Benutzer eingestellten Nutzerparametern zu be stimmen, so dass Einträge der Datenbasis die durch den Benutzer eingestellten Nutzerpa rameter beschreiben. Beispielsweise kann die Datenbasis in Echtzeit während des Benut zerbetriebs erstellt und ein Vorhersagemodell bestimmt werden. Ferner kann die Datenba sis zur Bestimmung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift verwendet werden, indem die Datenbasis, die Informationen der Nutzerparameter enthält. Beispielsweise kann die Datenbasis auch personenbezogene Steuerungseinstellungen enthalten, die mit den Nutzerparametern verknüpft werden können. Die von dem Benutzer eingestellten Nutzerparameter können beispielsweise als Ausgangsgröße an die Stelle der Audio-Verarbeitungsparameter treten, oder die Audio-Verarbeitungsparameter verändern, so dass die Einträge der Datenbasis beispielsweise die durch den Benutzer eingestellten Nutzerparameter darstellen. Beispielsweise ist die Datenbasis entsprechend zumindest teil weise in ein Bestärkendes Lernen integriert, das beispielsweise die durch den Benutzer eingestellten Nutzerparameter verwendet.
Durch die Erstellung einer Datenbasis, deren Einträge die durch den Benutzer eingestellten Nutzerparameter beschreiben können die Koeffizienten der Verarbeitungsparameter-Be stimmungsvorschrift beispielsweise sukzessive verbessert oder optimiert werden. Die durch den Benutzer (typsicherweise in verschiedenen akustischen Umgebungen) einge stellten Nutzerparameter, die die Datenbasis bilden und die beispielsweise in einer Daten bank oder einer anderweitigen Speicherstruktur abgelegt werden, können hierbei Sollwerte von Audio-Verarbeitungsparametern darstellen. Besteht beispielsweise eine Zuordnung von Nutzerparametern zu Audiosignalen (oder Audiosignaleigenschaften) der jeweiligen akustischen Umgebung, in der der Benutzer die Nutzerparameter gewählt hat, so kann diese Datenbasis zu Bestimmung der Koeffizienten der Verarbeitungsparameter-Bestim mungsvorschrift verwendet werden. Durch Bestimmung einer Datenbasis, die beispiels weise mit zunehmender Dauer der Nutzung durch den Benutzer immer größer wird, kann beispielsweise erreicht werden, dass mit der Zeit eine immer größere Datenbasis zur (au tomatischen) Bestimmung (bzw. Verbesserung) der Koeffizienten der Verarbeitungspara meter-Bestimmungsvorschrift vorliegt, was eine zunehmende Verfeinerung bzw. Verbesse rung der genannten Koeffizienten (z. B. basierend auf einer immer größeren Basis an un terschiedlichen Hörumgebungen, in denen der Benutzer sich aufgehalten hat) ermöglicht. Somit kann durch Erstellung und fortlaufende Erweiterung der Datenbasis das Benutzer- Erlebnis immer weiter verbessert werden.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, um eine Da tenbasis in Abhängigkeit von dem zumindest einen Audio-Eingangssignal zu bestimmen, so dass Einträge der Datenbasis das Audio-Eingangssignal darstellen. Beispielsweise kann die Datenbasis zur Bestimmung der Koeffizienten der Verarbeitungsparameter-Bestim mungsvorschrift hinzugezogen werden. In anderen Worten wurden beispielsweise zu nächst personenbezogene Steuerungseinstellungen, beispielsweise die durch den Benut zer eingestellten Nutzerparameter gespeichert, die mit Klanginformationen der auditori- schen Umgebung als äußere Rahmenbedingung erweitert wird. Dadurch kann eine Daten grundlage geschaffen werden, die beispielsweise unter Verwendung des Bestärkenden Lernens Koeffizienten für die Verarbeitungsparameter-Bestimmungsvorschrift bereitstellt.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die Datenbasis so zu bestimmen, dass die Datenbasis eine Zuordnung zwischen verschiedenen Audio- Eingangssignalen und jeweiligen durch den Benutzer eingestellten Nutzerparametern be schreibt. In anderen Worten kann die Vorrichtung beispielsweise die äußeren Rahmenbe dingungen basierend auf dem Audio-Eingangssignal und die personenbezogenen Steue rungseinstellungen, beispielsweise die durch den Benutzer eingestellten Nutzerparameter, einander zuordnen. Hierunter wird verstanden, dass die Zuordnung beispielsweise als Ba sis für das Vorhersagemodell dienen kann, das durch weitere Klanganpassungen des Be nutzers, beispielsweise ad hoc verändert werden kann, etwa indem die jeweiligen durch den Benutzer eingestellten Nutzerparameter mit der Datenbasis integriert werden (und dann beispielsweise eine Neubestimmung oder Verbesserung der Koeffizienten der Verar beitungsparameter-Bestimmungsvorschrift erfolgt). Beispielsweise kann im Hintergrund über den Audio-Eingang die auditorische Szene mittels Mikrofonen kontinuierlich aufge nommen, und/oder analysiert und/oder evaluiert werden, so dass beispielsweise eine Ana lyse der auditorischen Szene über die Dynamik, und/oder Frequenz und/oder spektrale Ei genschaft generiert wird. Das Analyseergebnis der auditorischen Szene kann beispiels weise als Umgebungsparameter in die Datenbasis integriert und dem Nutzerparameter zu geordnet werden, um eine Verknüpfung des Nutzerparameters und des Audio-Eingangs- signals in der auditorischen Umgebung für diesen entsprechenden Zeitpunkt zu erhalten.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, eine Datenba sis, beispielsweise zur Bestimmung der Koeffizienten der Verarbeitungsparameter-Bestim mungsvorschrift, in Abhängigkeit von einem Audio-Ausgangssignal zu bestimmen, so dass Einträge der Datenbasis das Audio-Ausgangssignal beschreiben beziehungsweise darstel len. Indem die Datenbasis in Abhängigkeit von zumindest einem Audio-Eingangssignal und von einem Audio-Ausgangssignal bestimmt wird, kann die Verarbeitungsparameter-Bestim mungsvorschrift, beispielsweise des Bestärkenden Lernens, die Datenbasis herziehen, um Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift, beispielsweise für ein neuronales Netz, bestimmen zu können. Die Koeffizienten der Verarbeitungsparameter- Bearbeitungsvorschrift können beispielsweise durch gemeinsame Verarbeitung eines Au- dio-Eingangssignals und eines zugehörigen Ausgangssignals oder durch Vergleich des Au- dio-Ausgangssignals mit dem Audio-Eingangssignal erhalten werden.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die Datenbasis so zu bestimmen, dass die Datenbasis eine Zuordnung zwischen verschiedenen Audio- Ausgangssignalen und jeweiligen durch den Benutzer eingestellten Nutzerparametern be schreibt. In anderen Worten beschreibt die Datenbasis eine Zuordnung zwischen verschie denen Audio-Eingangssignalen, zwischen verschiedenen Audio-Ausgangssignalen und je weiligen durch den Benutzer eingestellten Nutzerparametern, um Koeffizienten der Verar beitungsparameter-Bestimmungsvorschrift bestimmen zu können. Mittels der erstellten Da tenbasis kann beispielsweise durch Analyse des eingehenden und ausgehenden Audiosig- nals eine Klangverarbeitung im Training eines selbstbestärkten Lernalgorithmus integriert werden. Beispielsweise kann das eingehende Audiosignal beziehungsweise das Audio-Ein gangssignal die Klangumgebung, beispielsweise die auditive Umgebung, enthalten. In an deren Worten, mittels der erstellten Datenbasis kann beispielsweise durch Analyse des ein gehenden und ausgehenden Audiosignals können beispielsweise die Koeffizienten der Ver- arbeitungsparameter-Bestimmungsvorschrift so gewählt werden, dass sich durch die Ver arbeitungsparameter-Bestimmungsvorschrift der gewünschte Zusammenhang zwischen Audio-Eingangssignal und Audio Ausgangssignal zumindest näherungsweise ergibt.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, den zumindest einen Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift basierend auf der von der Vorrichtung akquirierten Datenbasis anzupassen, um die Verarbeitungsparameter- Bestimmungsvorschrift benutzer-individuell anzupassen, um benutzer-individuell ange passte Audio-Verarbeitungsparameter zu erhalten. In anderen Worten wird beispielsweise das bestärkende Lernen Nutzermodell-basierend auf einer künstlichen Intelligenz ange passt, um benutzer-individuell angepasste Audio-Verarbeitungsparameter bzw. ein benut zer-individuell angepasstes Audiosignal zu erhalten. Beispielsweise ist es somit möglich, Änderungen der Klangumgebung, beispielsweise der auditiven Umgebung, und der Nutze reinstellungen, beispielsweise den Nutzerparametern, inhärent in Laufzeit zu lernen und anzupassen. Beispielsweise können benutzer-individuell angepasste Audio-Verarbeitungs parameter es ermöglichen, dass bei Verarbeitung des Audio-Eingangssignals unter Ver wendung der Audio-Verarbeitungsparameter benutzer-individuell angepasste Audiosignale während des Benutzerbetriebs erhalten werden. Anders gesagt kann aus der Datenbasis ein nutzerspezifischer Parametersatz zur Klangverarbeitung erhalten beziehungsweise ent wickelt werden, der einerseits automatisiert unter gleichen äußeren Rahmenbedingungen dieselben Steuerungsparameter anwendet, aber auch in der Situation selbst weitere Nut zer-Anpassungen zulässt, die in die Vorrichtung als lernendes System integriert werden. Beispielsweise kann sich so das Lernsystem und die Anwendung in einem fortwährenden Lernprozess den klanglichen Nutzerpräferenzen anpassen.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die Verarbei tungsparameter-Bestimmungsvorschrift basierend auf der Datenbasis bereitzustellen und/oder anzupassen. Beispielsweise kann die Vorrichtung die Datenbasis, beispielsweise unter Verwendung des bestärkenden Lernens, nutzen, um die Verarbeitungsparameter-Be stimmungsvorschrift bereitzustellen, um unter Verwendung der Audio-Verarbeitungspara meter benutzer-individuell angepasste Audiosignale, zum Beispiel während des Benutzer betriebs, zu erhalten.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, den zumindest einen Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift basierend auf zu- mindest einem von einem Benutzer korrigierten und/oder veränderten Audio-Verarbei- tungsparameter zu bestimmen und/oder anzupassen. Wie bereits erwähnt, kann die Vor richtung ausgebildet sein, Benutzeranpassungen der Nutzerparameter während des Benut zerbetriebs zu berücksichtigen bzw. einzustellen, und beispielsweise zu einem späteren Zeitpunkt und entsprechend gleichen Ort bzw. entsprechend gleicher Klangumgebung wei tere Benutzeranpassungen der Nutzerparametern zuzulassen, so dass die vorhergehen den Nutzerparameter mit neu eingestellten Nutzerparameter eingestellt und/oder über schrieben werden. In anderen Worten können Koeffizienten der Verarbeitungsparameter- Bestimmungsvorschrift von einem Benutzer korrigiert werden und/oder es können bei spielsweise veränderte Audio-Verarbeitungsparametern bestimmt werden, beispielsweise abhängig von der Klangumgebung zum jeweiligen Zeitpunkt, in der sich der Benutzer be findet.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, eine Audio- Verarbeitung, beispielsweise eine parametrisierte Audio-Verarbeitungsvorschrift, basierend auf dem Audio-Eingangssignal und basierend auf dem Audio-Verarbeitungsparameter aus zuführen, um die benutzer-individuell angepassten Audiosignale, beispielsweise unter Be rücksichtigung von Benutzermodifikationen der Audio-Verarbeitungsparameter, zu erhal ten. Anders gesagt kann die Vorrichtung mittels einer optionalen Audio-Verarbeitung des Audio-Eingangssignals und der Audio-Verarbeitungsparameter ein benutzer-individuell an gepasstes Audiosignal für den Audio-Ausgang bereitstellen. Es kann also beispielsweise die Audioverarbeitung in die Vorrichtung integriert werden, wodurch ein effizientes System erhalten wird. Die Audioverarbeitung kann optional auch bei der Bestimmung der Audio- Verarbeitungsparameter mit einbezogen werden.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die Koeffizien ten der Verarbeitungsparameter-Bestimmungsvorschrift unter Verwendung eines Ver gleichs des Audio-Eingangssignals und eines unter Verwendung des Audio-Verarbeitungs- parameter-gelieferten Audio-Eingangssignals, beispielsweise unter Berücksichtigung von Benutzermodifikationen der Audio-Verarbeitungsparameter, zu bestimmen. Anders gesagt kann die Bestimmung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvor schrift auf einem Vergleich zwischen dem Audio-Eingangssignal und dem direkten Audio- Ausgangssignal oder dem durch die Audio-Verarbeitung gelieferten Audio-Ausgangssignal basieren. Beispielsweise kann optional vor oder nach Verwendung des Vergleichs eine Au- dio-Analyse des Audio-Eingangssignals oder eine Audio-Analyse des Audio-Ausgangssig- nals erfolgen, um die Koeffizienten der Vergleichsparameter-Bestimmungsvorschrift basie rend auf einem Audio-Analyseergebnis der Audiosignale zu bestimmen. Eine Bestimmung der Koeffizienten der Parameter-Bestimmungsvorschrift unter Verwendung eines solchen Vergleich liefert besonders zuverlässige bzw. robuste Ergebnisse, da das tatsächlich an den Benutzer ausgegebene Audiosignal als Kriterium für die Bestimmung der Koeffizienten der Parameter-Bestimmungsvorschrift gemacht werden kann. Das Kriterium, dass das Au- dio-Ausgangssignal dem vom Benutzer gewünschten entsprechen soll, ist nämlich aussa gekräftiger und robuster als die reine Optimierung der Audio-Verarbeitungsparameter an sich.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die von dem Benutzer eingestellten Nutzerparameter als Ausgangsgröße an Stelle der Audio-Verarbei tungsparameter bereitzustellen, wobei die von dem Benutzer eingestellten Nutzerparame ter Lautstärkeparameter und/oder Klangparameter und/oder Equalizer-Parameter umfas sen. Anders gesagt können Nutzerparameter beispielsweise Filterparameter zur Tongestal tung und/oder zur Entzerrung von Tonfrequenzen aufweisen. Indem die von dem Benutzer eingestellten Nutzerparameter als Ausgangsgröße bereitgestellt werden, wird beispiels weise ein kurzfristiger Benutzereingriff ermöglicht, was ein besonders gutes Nutzererlebnis zur Folge hat. Ein Nutzereingriff kann dann zusätzlich zur Verbesserung der Koeffizienten verwendet werden, um so zukünftige Nutzereingriffe nach Möglichkeit zu vermeiden (und stattdessen automatisch eine an den Nutzerwunsch angepasste Einstellung zu erreichen).
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgelegt, die Nutzerpara meter mit den Audio-Verarbeitungsparametern zu kombinieren, beispielsweise durch Addi tion, um dadurch kombinierte Parameter der Audio-Verarbeitung zu erhalten und als Aus gangsgröße bereitzustellen. Kombinierte Parameter können beispielsweise Nutzerparame ter und Audio-Verarbeitungsparameter aufweisen, die kombiniert der Audio-Verarbeitung bereitgestellt oder unter Verwendung der Audio-Verarbeitung kombiniert werden und als Ausgangsgröße beispielsweise dem bestärkenden Lernen bereitgestellt werden. Entspre chend ist ein schneller Nutzereingriff möglich, und es kann somit die Audioverarbeitung an die Benutzerwünsche angepasst werden.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, eine Audio- Analyse des Audio-Eingangssignals durchzuführen, um ein Audio-Eingangssignalanaly- seergebnis für eine Bestimmung des zumindest einen Koeffizienten einer Verarbeitungspa- rameter-Bestimmungsvorschrift, beispielsweise unter Verwendung der Verarbeitungspara meter-Bestimmungsvorschrift, bereitzustellen. Beispielsweise kann die Verarbeitungspara meter-Bestimmungsvorschrift eine Ableitungsvorschrift zur Ableitung der Audio-Verarbei- tungsparameter von dem Audio-Eingangssignalanalyseergebnis definieren. Die Audio-Ana- lyse des Audio-Eingangssignals kann Audio-Eingangssignalanalyseergebnisse bereitstel len, beispielsweise in Form von Informationen über spektrale Eigenschaften und/oder Dy namik und/oder Frequenz des Audio-Eingangssignals, oder auch Informationen über Inten sitätswerte pro Band. Die Audio-Eingangssignalanalyseergebnisse können beispielsweise als Eingangsgrößen für eine Bestimmung des einen oder der Koeffizienten der Verarbei tungsparameter-Bestimmungsvorschrift, zum Beispiel unter Verwendung des bestärkenden Lernens, bereitgestellt werden. Ausführungsbeispiele sehen dabei ferner vor, dass die Au- dio-Analyse das von dem Audio-Eingang kommende Audio-Eingangssignal im Vorhinein analysiert und evaluiert, um es der Verarbeitungsparameter-Bestimmungsvorschrift bereit zustellen, wobei das nicht zwingend erforderlich ist. So ist es beispielsweise möglich, zu sätzlichen Informationen über spektrale Eigenschaften des Audio-Eingangssignals als Au- dio-Eingangssignalanalyseergebnis zu gewinnen. Weiterhin kann durch Verwendung eines Audio-Eingangssignalanalyseergebnisses die Verarbeitungsparameter-Bestimmungsvor schrift einfacher gestaltet werden als wenn beispielsweise das komplette Audio Eingangs signal zur Bestimmung von Audio-Verarbeitungsparametern herangezogen würde. So kön nen Parameter bzw. Werte des Audio-Eingangssignalanalyseergebnisses beispielsweise die wesentlichen Charakteristika des Audio-Eingangssignals in effizienter Weise beschrei ben, so dass der Verarbeitungsparameter-Bestimmungsvorschrift eine vergleichsweise ge ringe Zahl an Eingangsvariablen (nämlich beispielsweise die) Parameter bzw. Werte des Audio-Eingangssignalanalyseergebnisses aufweist und daher vergleichsweise einfach im plementierbar ist. Somit können gute Ergebnisse mit geringem Aufwand erzielt werden.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, eine Audio- Analyse des Audio-Ausgangssignals durchzuführen, um ein Audio-Ausgangssignalanaly- seergebnis, beispielsweise in Form einer Information über spektrale Eigenschaften des Au dio-Eingangssignals, für eine Bestimmung des zumindest einen Koeffizienten der Verarbei tungsparameter-Bestimmungsvorschrift, zum Beispiel unter Verwendung der Verarbei tungsparameter-Bestimmungsvorschrift, bereitzustellen. In anderen Worten ist die Vorrich tung ausgebildet, eine Audio-Analyse vor der Verarbeitungsparameter-Bestimmungsvor schrift oder nach der Verarbeitungsparameter-Bestimmungsvorschrift durchzuführen, um entweder ein Audio-Eingangssignalanalyseergebnis oder ein Audio-Ausgangssignalanaly- seergebnis oder beides für eine Bestimmung des Koeffizienten der Verarbeitungsparame ter-Bestimmungsvorschrift bereitzustellen. Beispielsweise ist es durch Bestimmung des Au- dio-Ausgangssignalanalyseergebnisses besonders einfach, das Audio Eingangssignal und das Audio-Ausgangssignal zu vergleichen, wobei beispielswiese Werte oder Parameter des Audio-Ausgangssignalanalyseergebnisses die charakteristischen Eigenschaften des Au- dio-Ausgangssignals besonders effizient (bzw. in besonders kompakter Form) beschreiben können. Somit ist eine Bestimmung bzw. Optimierung der Koeffizienten der Verarbeitungs parameter-Bestimmungsvorschrift besonders effizient möglich, wobei die Erzielung einer von dem Benutzer gewünschten Verarbeitung beispielsweise durch Auswertung des Audio- Ausgangssignalanalyseergebnis in effizienter Weise erfolgen kann bzw. wobei ein Ver gleich zwischen Audio-Eingangssignalanalyseergebnis und Audio-Ausgangssignalanaly- seergebnis einen Rückschluss auf Koeffizienten der Verarbeitungsparameter-Bestim mungsvorschrift erlauben kann.
Gemäß einem weiteren Ausführungsbeispiel umfasst der Audio-Verarbeitungsparameter beziehungsweise umfassen die Audio-Verarbeitungsparameter zumindest einen Multiband kompressionsparameter R, und/oder zumindest einen Hörschwellenanpassungsparame ter T, und/oder zumindest einen bandabhängigen Verstärkungsparameter G, und/oder zu mindest einen Störgeräuschreduktionsparameter und/oder zumindest einen blinden Quell trennungsparameter. Ferner können die Audio-Verarbeitungsparameter zumindest einen Schallrichtungsparameter, und/oder binaurale Parameter, und/oder Parameter über die An zahl unterschiedlicher Sprecher, und/oder Parameter von adaptiven Filtern im Allgemeinen, zum Beispiel Hallunterdrückung, Feedback, Echo-Cancellation, Active-Noise-Cancellation (ANC), umfassen. Beispielsweise kann mittels einem Schallrichtungsparameter die Direkti- vität der Schallquelle ausgewählt beziehungsweise eingestellt werden, so dass der Schall nur aus der gewünschten Richtung, beispielsweise dem Gesprächspartner einer Konver sation für die Kombination der Audio-Verarbeitungsparameter verarbeitet wird. Es wurde erkannt, dass derartige Audioverarbeitungsparameter eine Audiosignalverarbeitung in effi zienter Weise beeinflussen können, wobei bereits mit einer geringen Zahl an Parametern, die ohne größere Schwierigkeiten durch eine Verarbeitungsparameter-Bestimmungsvor schrift bestimmte werden können, eine Beeinflussung der Audiosignalverarbeitung über ei nen weiten Einstellbereich hinweg möglich ist.
Gemäß einem weiteren Ausführungsbeispiel kann die Vorrichtung ein neuronales Netz um fassen, das zum Beispiel die Verarbeitungsparameter-Bestimmungsvorschrift implemen tiert, so dass der zumindest eine Koeffizient definiert wird, oder bevorzugt eine Mehrzahl von Koeffizienten definiert werden, die ausgelegt sind, um die Audio-Verarbeitungsparame- ter unter Verwendung der Verarbeitungsparameter-Bestimmungsvorschrift zu erhalten. Ferner kann das neuronale Netz ausgelegt sein, die Audio-Verarbeitungsparameter basie rend auf dem Audio-Eingangssignal direkt von dem Audio-Eingang oder mittels der zwi schengeschalteten Audio-Analyse als analysiertes Audio-Eingangssignal zu erhalten. Es wurde erkannt, dass ein neuronales Netz sich gut zur Bestimmung der Audio-Verarbei tungsparameter eignet und durch die Koeffizienten gut an die persönliche Wahrnehmung des einzelnen Nutzers anpassbar ist. Das neuronale Netz, dessen Kantengewichte bei spielsweise durch die Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift definiert werden können, kann durch die Wahl der Koeffizienten (die beispielsweise durch eine Trainingsvorschrift erfolgen kann) an die Bedürfnisse des Benutzers anpassbar. Die Koeffizienten können beispielsweise sukzessive verbessert werden, wenn weitere Benut zereinstellungen vorliegen. Somit können Ergebnisse erzielt werden, die ein sehr gutes Be nutzererlebnis bieten.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die Verarbei tungsparameter-Bestimmungsvorschrift basierend auf einer Methode des bestärkenden Lernens, und/oder basierend auf einer Methode des verstärkenden Lernens, und/oder ba sierend auf einer Methode des unbeaufsichtigten Lernens, und/oder basierend auf einer Methode der multivariaten Vorhersage, und/oder basierend auf einem mit multivariabler Regression festgelegten multidimensionalen Parameter bereitzustellen und/oder anzupas sen, um den Audio-Verarbeitungsparameter zu bestimmen. Die Verarbeitungsparameter- Bestimmungsvorschrift kann beispielsweise Koeffizienten für das neuronale Netz bereitstel len, die beispielsweise auf der Methode des bestärkenden Lernens basieren. Die Methode der multivariaten Vorhersage kann beispielsweise eine Vorhersage von Frequenzbändern und/oder eine Vorhersage von Eingangs/Ausgangs-Kennlinien bzw. Input/Output-Kennli nien entsprechend der Nutzerparameter umfassen. Ferner kann die Methode mit multivari abler Regression beispielsweise alle vorhandenen Frequenzbänder analysieren, um einen multidimensionalen Parameterraum festzulegen. Als multidimensionaler Parameterraum kann beispielsweise eine zweidimensionale Parametereinstellung verstanden werden, die eine graphische Oberfläche aufweist, in der die Nutzerparameter zum Beispiel mittels Schieberegler oder einem Punkt auf einem Koordinatensystem, dessen Achsen Lautstär keeinstellungen und Klangeinstellungen aufweisen bzw. zugeordnet sind, durch den Benut zer eingestellt und kontinuierlich angepasst werden können. Mittels der oben aufgeführten Methoden kann die Vorrichtung den Audio-Verarbeitungsparameter bestimmen, so dass zum Beispiel ein lernender Algorithmus benutzer-individuelle Audio-Verarbeitungsparame- ter einstellt, beziehungsweise, so dass sich durch Anwendung der Verarbeitungsparame ter-Bestimmungsvorschrift gelieferte Audio-Verarbeitungsparameter mit zunehmendem Lernfortschritt an durch den Benutzer korrigierte Audio-Verarbeitungsparameter annähern, beziehungsweise, so dass sich die Verarbeitungsparameter-Bestimmungsvorschrift in ei nem fortwährenden Lernprozess anpasst, zum Beispiel in Abhängigkeit von Benutzer-An passungen der Audio-Verarbeitungsparameter. Erwartungsgemäß ist beispielsweise ein Zugriff der Methoden auf die Datenbasis bzw. den Datenspeicher uneingeschränkt (so dass beispielsweise mit zunehmender Größe der Datenbasis immer bessere Koeffizienten unter Verwendung der genannten Lernverfahren bestimmt werden können).
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, die durch den Benutzer eingestellten Nutzerparameter, beispielsweise über oder mittels einer Schnitt stelle, beispielsweise von einer Benutzerschnittstelle, einer intuitiven und/oder ergonomi schen Benutzersteuerung, wie beispielsweise einem 2D-Raum auf einem Display eines Smartphones, zu erhalten. In anderen Worten kann die Vorrichtung eine Schnittstelle (bei spielsweise eine elektrische Schnittstelle oder auch eine Mensch-Maschine-Schnittsteile) umfassen, um die Nutzerparameter einstellen zu können. Vorzugsweise kann eine visuelle Nutzersteuerung eine Lautstärkeeinstellung, beispielsweise mittels eines Schiebereglers für lauter und leiser und/oder eine Höhen- und Tiefenregelung, umfassen. Auf diese Weise kann die Einstellung des Parameter für den Menschen sehr einfach gemacht werden, wobei erkannt wurde, dass diese einfache Klangeinstellung in vielen Fällen bereits einen guten Höreindruck zur Folge hat.
Gemäß einem weiteren Ausführungsbeispiel umfasst das Audio-Eingangssignal ein Mehr- kanal-Audiosignal, zum Beispiel mit mindestens vier Kanälen oder zumindest zwei Audio- Kanälen. Beispielsweise kann das Audio-Eingangssignal von dem Audio-Eingang, zum Bei spiel von, über oder mittels einem Mikrofon, bereitgestellt werden. Ferner kann das Audio- Eingangssignal Informationen enthalten, wie beispielsweise die Anzahl der Kanäle und/o der die Anzahl der Frequenzbänder. Die Verwendung von Mehrkanalsignalen erlaubt bei spielsweise eine Lokalisierung von gewünschten und/oder störenden Schallquellen sowie eine Berücksichtigung von Richtungen der gewünschten oder störenden Schalquellen bei der Bestimmung der Audio-Verarbeitungsparameter bzw. der Koeffizienten der Verarbei tungsparameter-Bestimmungsvorschrift. Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgelegt, eine Audio-Ver- arbeitung separat für zumindest vier Frequenzbänder des Audio-Eingangssignals durchzu führen. So kann sichergestellt werden, dass eine Frequenzselektivität bereitgestellt wird, um jede einzelne Frequenz analysieren zu können, beispielsweise falls das Audio-Ein- gangssignal ein Mehrkanal-Audiosignal umfasst. Die Berücksichtigung der unterschiedli chen Intensitäten in unterschiedlichen Frequenzbändern ermöglicht es, verschiedene akus tische Umgebungen zu berücksichtigen und auch die spezifischen Wünsche des Benutzers im Hinblick auf den Frequenzgang in effizienter Weise zu berücksichtigen.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgelegt, den zumindest einen Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift benutzer-individu ell, beispielsweise kontinuierlich, fortlaufend, während des Benutzerbetriebs, zum Beispiel in Echtzeit, zu bestimmen, um die Audio-Verarbeitungsparameter in Echtzeit, zum Beispiel in Laufzeit während des Benutzerbetriebs, zu erhalten und/oder die veränderten Audio-Ver arbeitungsparameter in Echtzeit zu bestimmen und/oder anzupassen. In anderen Worten ist die Vorrichtung beispielsweise ausgelegt, die Audio-Verarbeitungsparameter in Echtzeit zu bestimmen und/oder anzupassen, so dass die Vorrichtung als lernendes System diesen Lernprozess in Echtzeit durchführt, beispielsweise während des Benutzerbetriebs. Anders gesagt wird bei der vorliegenden Erfindung beispielsweise die Klangverarbeitung auf Basis von in Echtzeit gemessenen äußeren Rahmenbedingungen gesteuert. Somit erfolgt auch eine Analyse aller vorhandenen Frequenzbänder in Echtzeit, so dass das Vorhersagemo dell basierend auf einer multidimensionalen Optimierung in Echtzeit bereitgestellt werden kann, das bedeutet, beispielsweise eine Optimierung, in der anhand der analysierten Fre quenzbänder und der Nutzerparameter im Datenspeicher gespeichert, die Audio-Verarbei tungsparameter bestimmt werden.
Gemäß einem weiteren Ausführungsbeispiel umfasst die vorliegende Erfindung ein Flörge- rät, wobei das Flörgerät eine Audio-Verarbeitung aufweist und wobei das Flörgerät eine Vorrichtung zum Bestimmen von Audio-Verarbeitungsparametern aufweist, wobei die Au dio-Verarbeitung ausgelegt ist, um ein Audio-Eingangssignal abhängig von den Audio-Ver arbeitungsparametern zu verarbeiten. Beispielsweise kann das Flörgerät die Vorrichtung implementieren bzw. integrieren, um die individuelle Wahrnehmung von Klang bzw. Tönen in Form von Audiosignalen für den Benutzer zu verbessern. Es hat sich gezeigt, dass die hierin beschriebene Vorrichtung besonders gut für einen Einsatz in einem Flörgerät geeig net ist, und dass der Flöreindruck durch den Einsatz des Erfindungskonzepts deutlich ver bessert werden kann. Ein Ausführungsbeispiel gemäß der verliegenden Erfindung umfasst ein Verfahren zum Be stimmen ven Audie-Verarbeitungsparametern in Abhängigkeit ven zumindest einem Audio- Eingangssignal, webei das Verfahren ein benutzer-individuelles Bestimmen ven zumindest einem Keeffizienten einer Verarbeitungsparameter-Bestimmungsverschrift, basierend auf beim Benutzerbetrieb erhaltenen Audiesignalen, und ein Erhalten ven Audie-Verarbei tungsparametern unter Verwendung der Verarbeitungsparameter-Bestimmungsvorschrift, basierend auf dem Audio-Eingangssignal, aufweist. Das Verfahren basiert auf den selben Überlegungen wie die oben beschriebene Vorrichtung und kann optional um alle Merkmale, Funktionalitäten und Details ergänzt werden, die hierin auch im Hinblick auf die erfindungs gemäße Vorrichtung beschrieben sind. Das Verfahren kann um die genannten Merkmale, Funktionalitäten und Details sowohl einzeln auch in Kombination ergänzt werden.
Ein weiteres Ausführungsbeispiel gemäß der vorliegenden Erfindung umfasst ein Compu terprogramm mit einem Programmcode zur Durchführung des Verfahrens, wenn das Pro gramm auf dem Computer läuft.
Kurzbeschreibuna der Figuren
Ausführungsbeispiele werden nachfolgend bezugnehmend auf die beiliegenden Zeichnun gen erläutert. Es zeigen:
Fig. 1 ein schematisches Blockschaltbild einer Vorrichtung gemäß einem Ausführungs beispiel, die Audio-Verarbeitungsparameter in Abhängigkeit von zumindest einem Audio-Eingangssignal bestimmt;
Fig. 2 ein schematisches Blockschaltbild einer Vorrichtung gemäß einem Ausführungs beispiel, die Audio-Verarbeitungsparameter in Abhängigkeit von zumindest einem Audio-Eingangssignal und mittels bestärkenden Lernens bestimmt, basierend auf einem Audio-Eingangssignal und einem Audio-Ausgangssignal;
Fig. 3 ein schematisches Blockschaltbild einer Vorrichtung gemäß einem Ausführungs beispiel, die Audio-Verarbeitungsparameter in Abhängigkeit von zumindest einem Audio-Eingangssignal und mittels bestärkenden Lernens bestimmt, basierend auf einer Audio-Analyse des Audio-Eingangssignals und einer Audio-Analyse des Au- dio-Ausgangssignals;
Fig. 4 ein schematisches Blockschaltbild einer Vorrichtung gemäß einem Ausführungs- beispiel, die Audio-Verarbeitungsparameter in Abhängigkeit von zumindest einem Audio-Eingangssignal und mittels bestärkenden Lernens bestimmt, basierend auf einer Audio-Analyse des Audio-Eingangssignals und auf durch den Benutzer ein gestellte Nutzerparameter;
Fig. 5 ein schematisches Blockschaltbild einer Vorrichtung gemäß einem Ausführungs- beispiel, die Audio-Verarbeitungsparameter in Abhängigkeit von zumindest einem Audio-Eingangssignal und mittels bestärkenden Lernens bestimmt, basierend auf einem Audio-Eingangssignal und auf durch den Benutzer eingestellte Nutzerpara meter; und
Fig. 6 ein schematisches Ablaufdiagramm eines Verfahrens gemäß einem Ausführungs- beispiel zum Bestimmen von Audio-Verarbeitungsparametern.
Detaillierte Beschreibunq von Ausführunqsbeispielen der Erfindunq
Bevor nachfolgend Ausführungsbeispiele der vorliegenden Erfindung im Detail anhand der Zeichnungen näher erläutert werden, wird darauf hingewiesen, dass identische, funktions gleiche oder gleichwirkende Elemente, Objekte und/oder Strukturen in den unterschiedli chen Figuren mit den gleichen Bezugszeichen versehen sind, so dass die in unterschiedli chen Ausführungsbeispielen dargestellte Beschreibung dieser Elemente untereinander austauschbar ist bzw. aufeinander angewendet werden kann.
Nachfolgend beschriebene Ausführungsbeispiele werden im Zusammenhang mit einer Vielzahl von Details beschrieben. Ausführungsbeispiele können jedoch auch ohne diese detaillierten Merkmale implementiert werden. Des Weiteren werden Ausführungsbeispiele der Verständlichkeit wegen unter Verwendung von Blockschaltbildern als Ersatz einer De taildarstellung beschrieben. Ferner können Details und/oder Merkmale einzelner Ausfüh rungsbeispiele ohne Weiteres miteinander kombiniert werden, solange es nicht explizit ge genteilig beschrieben ist. Fig. 1 zeigt ein schematisches Blockschaltbild einer Vorrichtung 100 zum Bestimmen von Audio-Verarbeitungsparametern 120, die ausgangsseitig der Vorrichtung 100 dargestellt sind, in Abhängigkeit von zumindest einem Audio-Eingangssignal 110, das eingangsseitig der Vorrichtung 100 dargestellt ist. Die beispielhafte schematische Darstellung der Vorrich tung 100 umfasst beispielsweise ein Bestimmen von Koeffizienten, das mit dem Block Ko- effizienten-Bestimmung 130 dargestellt ist, so dass Koeffizienten 132 der Koeffizienten-Be- stimmung 130 der Verarbeitungsparameter-Bestimmungsvorschrift 140 bereitgestellt wer den können. Das Audio-Eingangssignal 110 kann beispielsweise direkt von der Verarbei tungsparameter-Bestimmungsvorschrift 140 verwendet werden, um die Koeffizienten 142 der Verarbeitungsparameter-Bestimmungsvorschrift 140 zu erhalten, und/oder als beim Be nutzerbetrieb erhaltenes Audiosignal 112 von der Koeffizienten-Bestimmung 130 verwen det werden, um die Koeffizienten 132 der Koeffizienten-Bestimmung 130 bereitzustellen. Beispielsweise kann die Koeffizienten-Bestimmung 130 während des Benutzerbetriebs be nutzer-individuell erfolgen, so dass die Koeffizienten 132 der Koeffizienten-Bestim mung 130 der Verarbeitungsparameter-Bestimmungsvorschrift 140 bereitgestellt werden, um die Audio-Verarbeitungsparameter 120 unter Verwendung der Verarbeitungs-Bestim mungsvorschrift 140 basierend auf dem Audio-Eingangssignal 110 zu erhalten.
Somit können die Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift bei spielsweise so eingestellt werden, dass die Verarbeitungsparameter-Bestimmungsvor schrift basierend auf den Audio-Eingangssignal und unter Verwendung der Koeffizienten als Ausgabe Audio-Verarbeitungsparameter liefert, die bei Verwendung in einer Audio-Ver- arbeitung zu einem Audio-Ausgangssignal führen, das den Benutzer-Erwartungen ent spricht.
Fig. 2 zeigt ein schematisches Blockschaltbild einer Vorrichtung 200 gemäß einem Ausfüh rungsbeispiel. Die dargestellte Vorrichtung 200 zum Bestimmen von Audio-Verarbeitungs parametern umfasst beispielsweise einen Audio-Eingang 210, eine Audio-Verarbei- tung 220, eine Nutzersteuerung 230, einen Audio-Ausgang 240, eine Verarbeitungsbestim- mungs-Vorschrift (bzw. Verarbeitungsparameter-Bestimmungseinrichtung) in Form eines bestärkenden Lernens 250 und ein neuronales Netz 260.
Der Audio-Eingang 210 kann beispielsweise ein Mikrofon oder ein anderes Audioerfas- sungsgerät umfassen und beispielsweise Informationen über die Anzahl von Kanälen, zum Beispiel „C“ und/oder Informationen über die Anzahl von Frequenzbändern, zum Beispiel „B“, enthalten. Beispielsweise kann ein Ton, ein Klang oder eine Schallwelle, bzw. ganz allgemein ein Audiosignal, über den Audio-Eingang 210 empfangen und als Audio-Ein- gangssignal 212, 214 und 216 beispielsweise für die Audio-Verarbeitung 220, und/oder für das bestärkende Lernen 250, und/oder für das neuronale Netz 260 bereitgestellt werden. Beispielsweise kann das Audiosignal 212 für das neuronale Netz 260, das Audiosignal 214 für das bestärkende Lernen 250 und das Audiosignal 216 für die Audio-Verarbeitung 220 bereitgestellt werden (wobei die Audiosignale 212,214,216 gleich sein können, oder sich beispielsweise im Detail (zum Beispiel in der Abtastrate, der Frequenzauflösung, der Band breite, etc.) unterscheiden können. Dabei kann das Audiosignal 212 dem Audiosignal 214 und/oder dem Audiosignal 216 entsprechend gleichen (oder zumindest den gleichen Audi- oinhalt beschreiben) und die entsprechend gleichen Informationen über die Anzahl der Fre quenzkanäle und Frequenzbänder aufweisen, so dass das Audio-Eingangssignal von dem Audio-Eingang 210 direkt, beispielsweise ohne weitere Audio-Analysen, aufgeteilt wird und, zum Beispiel über mehrere Ausgänge oder Datenpfade des Audio-Eingangs 210, bereitge stellt werden kann.
Die Audio-Verarbeitung 220 kann beispielsweise eine und/oder mehrere parametrisierte Audio-Verarbeitungsvorschriften aufweisen, die ein oder mehrere Audio-Signale 216 bei spielsweise so verarbeitet/verarbeiten, dass auf Basis des eingehenden Audiosignals 216 (bzw. der eingehenden Audiosignale) unter Verwendung der parametrisierten Audio-Verar- beitungsvorschrift, die beispielsweise durch die kombinierten Parameter 272 parametrisiert wird, ein benutzer-individuell angepasstes Audiosignal 217 bereitgestellt wird (oder meh rere Benutzer-individuell angepasste Audiosignale bereitgestellt werden). Die Audio-Verar beitung 220 ermöglicht es, das Audio-Eingangssignal 216, das auf dem Audio-Eingang 210 basiert, unter Verwendung der kombinierten Parameter 272 zu verarbeiten, beispielsweise unter Verwendung der parametrisierten Audio-Verarbeitungsvorschrift, um das benutzer individuell angepasste Audiosignal 217 zu erhalten. Optionale Details und Ausführungsbei spiele zu den kombinierten Parametern 272 werden im weiteren Verlauf der vorliegenden Patentanmeldung näher erläutert. Zuvor folgen weitere Details und Ausführungsbeispiele zu den Komponenten der Vorrichtung 200.
Der Audio-Ausgang 240 kann beispielsweise das von der Audio-Verarbeitung 220 verän derte, neu zugeordnete, benutzer-individuell angepasste Audiosignal 217 empfangen und als ein verändertes beziehungsweise verarbeitetes Audiosignal 218 für eine Bestimmung von Parametern bzw. Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift (beispielsweise des neuronalen Netzes 260) einem Koeffizienten-Bestimmer 250 (der bei- spielsweise unter Verwendung eines bestärkenden Lernens realisiert ist) bereitstellen. Al ternativ oder zusätzlich kann der Audio-Ausgang beispielsweise das von der Audio-Verar- beitung 220 veränderte, neu zugeordnete, benutzer-individuell angepasste Audiosignal 217 als ein verändertes beziehungsweise verarbeitetes Audiosignal 219 für eine Schnittstelle, beispielsweise für Kopfhörer oder Lautsprecher bereitstellen, wobei das nicht zwingend er forderlich ist.
Ferner ermöglichen es Ausführungsbeispiele, dass zusätzliche Informationen des Audio- signals 218 über den Audio-Ausgang 240 an das bestärkende Lernen 250 (oder eine an dere Einrichtung zur Bestimmung von Koeffizienten oder Parametern der Verarbeitungspa rameter-Bestimmungsvorschrift ) bereitgestellt werden, um beispielsweise einen Daten speicher 252 (dessen Inhalt Teil einer Datenbasis sein kann) mit Informationen über Audi- osignale zu versorgen.
Das Audio-Ausgangssignal 218 kann, beispielsweise wie das Audio-Eingangssignal 214, dem bestärkenden Lernen 250 zur Bestimmung von Koeffizienten oder Parametern der Verarbeitungsparameter-Bestimmungsvorschrift 260 bereitgestellt werden, so dass bei spielsweise die Informationen des Audio-Eingangssignals 214 und des Audio-Ausgangs- signals 218 in einem Datenspeicher 252 als eine entsprechende Datenbasis der Vorrich tung 200 gespeichert werden.
In anderen Worten kann beispielsweise mittels der Audiosignale 218 und 214 das bestär kende Lernen 250 Koeffizienten oder Parameter der Verarbeitungsparameter-Bestim mungsvorschrift 260 bestimmen. Ferner kann das bestärkende Lernen 250beispielsweise basierend auf den Audiosignalen 214,218 die Datenbasis vergrößern beziehungsweise und/oder die Audiosignale 214,218 in den Datenspeicher 252 aufnehmen. Alternativ oder zusätzlich kann das bestärkende Lernen zumindest einen nutzerangepassten Koeffizien ten 254 bestimmen oder in die Datenbasis einspeichern.
Es sei allerdings darauf hingewiesen, dass die Nutzung des Ausgangs-Audiosignals 218 durch das bestärkende Lernen 250 (oder durch eine andere Vorrichtung zur Bestimmung der Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift, die an die Stelle des bestärkenden Lernens 250 treten kann) als optional anzusehen ist.
Die Datenbasis beziehungsweise der Datenspeicher 252 kann eine Vielzahl von Informati onen umfassen, zum Beispiel Informationen über den Audio-Eingang 210 (bzw. über ein Audio-Eingangssignal) und/oder über eines oder mehrere der Audiosignale 212 und 214 von dem Audio-Eingang 210 kommend, und/oder Informationen über den Audio-Aus- gang 240 und/oder über das Audiosignal 218 von dem Audio-Ausgang 240 kommend, und/oder Informationen über und für die Audio-Verarbeitung 220 und zum Beispiel auch zumindest einen nutzerangepassten Koeffizienten 254. Als nutzerangepasste Koeffizien ten 254 können Koeffizienten verstanden werden, die beispielsweise für eine Verwendung durch die Verarbeitungsparameter-Bestimmungsvorschrift 250 basierend auf der Datenba sis 252 und/oder basierend auf einem eingestellten Nutzerparameter 232 bestimmt werden. Als nutzerangepasste Koeffizienten können aber auch durch den Benutzer eingestellte Pa rameter der Audio-Verarbeitung verstanden werden.
Die Koeffizienten der Verarbeitungsparameter-Bestimmungsvorschrift, also beispielsweise Kantengewichte des Neuronalen Netzes, können unter anderem auf einer Methode des bestärkenden Lernens basieren, die in der Fig. 2 mit dem Bezugszeichen 250 als „Bestär kendes Lernen“ gekennzeichnet ist.
Beispielsweise kann das bestärkende Lernen 250 (zum Beispiel als eine Teilfunktion) die Datenbasis beziehungsweise den Inhalt des Datenspeichers 252 so bestimmen, dass der Datenspeicher 252 eine Zuordnung zwischen verschiedenen Audio-Eingangssignalen 212, 214 und jeweiligen durch den Benutzer eingestellten Nutzerparametern 232, beispielsweise einen nutzerangepassten Koeffizienten 254, beschreibt.
Indem beispielsweise das bestärkende Lernen 250 die Datenbasis beziehungsweise den Inhalt des Datenspeichers 252 so bestimmt, dass der Datenspeicher 252 (beispielsweise zusätzlich) eine Zuordnung zwischen dem Audio-Ausgangssignal 218 und jeweiligen durch den Benutzer eingestellten Nutzerparametern, beispielsweise einen nutzerangepassten Koeffizienten 254, beschreibt, können Koeffizienten 256 des neuronalen Netzes durch das bestärkende Lernens 250 in Vorteilhafter Weise bereitgestellt werden.
Darüber hinaus kann die Verarbeitungsparameter-Bestimmungsvorschrift als ein neurona les Netz 260 ausgelegt sein, oder kann integriert in ein neuronales Netzt vorgesehen sein, um Audio-Verarbeitungsparameter 262 unter Verwendung des beispielsweise durch das bestärkende Lernen 250 bestimmten Koeffizienten 256 zu erhalten. Anders gesagt, es kann beispielsweise das neuronale Netz 260 basierend auf dem Audiosignal 212 und dem durch das bestärkende Lernen 250 erhaltenen Koeffizienten 256 die Audio-Verarbeitungspara- meter 262 bestimmen, so dass im Ergebnis beispielsweise ein lernender Algorithmus be nutzer-individuelle Audio-Verarbeitungsparameter 262 einstellt.
Der zumindest eine Audio-Verarbeitungsparameter 262, der von dem neuronalen Netz 260 geliefert wird, kann eine ein einziger Parameter sein, oder kann mehrere Parameter umfas sen. Das Neuronale Netz 260 kann als Audio Verarbeitungsparameter 262 beispielsweise einen oder mehrere der folgenden Parameter liefern: einen Parameter des Nutzerprofils N, und/oder einen Multiband-Kompressionsparameter R, und/oder einen Hörschwellen-An- passungsparameter T, und/oder Glättungen (bzw. einen oder mehrere Glättungsparame ter) und/oder Kompressionseinstellungen (bzw. einen oder mehrere Kompressionsparame ter). Ferner können zur Klanganpassung (alternativ oder zusätzlich) ein oder mehrere Pa rameter verwendet (bzw. durch das neuronale Netz als Audioverarbeitungsparameter 262 geliefert) werden, wie beispielsweise eine bandabhängige Verstärkung G, eine Störge räuschreduktion (bzw. ein oder mehrere Störgeräuschreduktionsparameter) und/oder eine blinde Quellentrennung (bzw. ein oder mehrere Parameter einer blinden Quellentrennung).
Beispielsweise kann die Anzahl der Eingangsparameter (zum Beispiel des bestärkenden Lernens 250 und/oder des neuronalen Netzes 260) sich in Abhängigkeit von einer Anzahl C an Kanälen eines Mehrkanal-Audiosignals ergeben, und auch in Abhängigkeit von einer Anzahl B der Verarbeitungsbänder, bzw. in Abhängigkeit von einer Anzahl P der Nutzerpa rameter. Beispielsweise kann die Anzahl der Nutzerparameter P sich als das Produkt aus der Anzahl der Frequenzbänder B und der Anzahl der Audiosignale bzw. Audiokanäle C ergeben.
Alternativ oder zusätzlich können die Eingangsparameter (zum Beispiel des bestärkenden Lernens oder des neuronalen Netzes) Audiomerkmale („Audio Features“) N umfassen, bei spielsweise F=2048 Fourierkoeffizienten pro Kanal für jeweils Eingang (z. B. das Audio- Eingangssignal) und Ausgang (z. B. das Audio-Ausgangssignal), beispielsweise alle 10ms.
Beispielsweise kann die Anzahl der Ausgangsparameter (beispielsweise der Ausgangspa rameter des neuronalen Netzes 260 bzw. der Eingangsparameter der Audio-Verarbeitung) in einem erlernten Nutzerprofil M sich aus der Anzahl der Audiokanäle (zum Beispiel C), der Hörschwellenanpassung T, der Multibandkompression mit Rate R, der bandabhängigen Verstärkung G und zwei weiteren Zeitkonstanten zusammensetzen, wobei die Anzahl der Werte von G, R, T beispielsweise der Anzahl der Bänder B entspricht. Ferner kann der Wert des erlernten Nutzerprofils M (bzw. die Werte des erlernten Nutzerprofils M) den nutzeran gepassten Koeffizienten (oder Parameter) 254 (bzw. einen Satz von Nutzerangepassten Koeffizienten bzw. Parametern) bilden.
Die Nutzersteuerung 230 stellt zumindest einen Nutzerparameter 232 bereit, der beispiels weise Parameter der Lautstärke, und/oder Parameter der Klangregelung umfassen kann. Die Nutzersteuerung kann beispielsweise eine Schnittstelle zur Visualisierung der ein oder mehreren Nutzerparameter umfassen kann.
Eine Lautstärkesteuerung bzw. eine Lautstärkeregelung, die durch die Nutzersteue rung 230 erfolgen kann, kann beispielsweise Parameter liefern, die eine Verstärkung oder Dämpfung des Audiosignals bewirken. Mittels einem Tiefenregler, einem Höhenregler und/oder einem Equalizer kann der Benutzer über die Nutzersteuerung 230 beispielsweise Parameter der Klangregelung einstellen, die beispielsweise als Teil der Nutzerparame ter 232 mit den (durch das neuronale Netz 260 gelieferten) Audio-Verarbeitungsparame- tern 262 unter Verwendung einer Kombination 270 zusammengeführt werden können.
Anders gesagt, können die von der Nutzersteuerung 230 gelieferten Nutzerparameter 232 mit dem Audio-Verarbeitungsparameter 262 kombiniert werden, beispielsweise durch Ad dition, Multiplikation, Division oder Subtraktion. Durch die Kombination 270 der Nutzerpa rameter 232 mit den Audio-Verarbeitungsparametern 262 können zum Beispiel dadurch kombinierte Parameter 272, der Audio-Verarbeitung 220 bereitgestellt werden. Alternativ können die Benutzerparameter 232 die Parameter 262 auch ersetzen, beispielsweise wenn der Benutzer eine deutlich andere Einstellung wünscht als diese durch die Parameter 262 vorgegeben wird.
Zusammenfassend ist festzuhalten, dass die Vorrichtung 200 ein Audio-Eingangssignal, das über den Audio-Eingang 210 erhalten wird, in der Audio-Verarbeitung 220 verarbeitet, um Klangeigenschaften an die Wünsche bzw. Bedürfnisse eines Benutzers anzupassen. Eine Verarbeitungscharakteristik der Audio-Verarbeitung 220 wird durch die Parameter 272 eingestellt, wobei die Parameter 272 einerseits durch das neuronale Netz 260 beeinflusst werden und andererseits durch den Nutzer über die Nutzersteuerung 230 modifiziert wer den können. Das bestärkende Lernen 250 erfüllt allgemein gesprochen die Funktion, einen oder mehrere Koeffizienten (z. B. Kantengewichte) des neuronalen Netzes so anzupassen, dass die durch das neuronale Netz gelieferten Parameter im Wesentlichen den Benutzer- erwartungen entsprechen, also im Rahmen von akzeptablen Toleranzen die Parameter werte aufweisen, die die der Benutzer über die Nutzersteuerung 230 in jeweiligen verschie denen akustischen Umgebungen einstellt.
Somit kann erreicht werden, dass die Vorrichtung nach einem ausreichenden Training in vielen verschiedenen akustischen Umgebungen eine für den Benutzer angenehme auto matische Einstellung der Audio-Verarbeitung erreicht.
Fig. 3 zeigt eine schematische Darstellung beziehungsweise ein schematisches Block schaltbild einer Vorrichtung 300 zum Bestimmen von Audio-Verarbeitungsparametern in Abhängigkeit von zumindest einem Audio-Eingangssignal, das auf der Vorrichtung 200 aus der Fig. 2 basiert.
Es sei darauf hingewiesen, dass bei der Vorrichtung 300 gemäß Fig. 3 Funktionsblöcke, die auch in der Fig. 2 gezeigt sind, beispielsweise eine ähnliche oder gleiche Funktionalität aufweisen können wie entsprechende Funktionsblöcke in der Vorrichtung 200 (aber nicht notwendigerweise aufweisen müssen). Es sei ferner darauf hingewiesen, dass die Vorrich tung 300 optional um alle Merkmale, Funktionalitäten und Details ergänzt werden kann, die hierin beschrieben sind, und zwar sowohl einzeln als auch in Kombination.
Die Vorrichtung 300 verfügt, ebenso wie die Vorrichtung 200, über einen Audio-Ein- gang 310 (der dem Audio-Eingang 200 entsprechen kann), eine Audio-Verarbeitung 320 (die der Audio-Verarbeitung 220 entsprechen kann), eine Nutzersteuerung 330 (die der Nutzersteuerung 230 entsprechen kann), einen Audio-Ausgang 340 (der dem Audio-Aus- gang 240 entsprechen kann), ein bestärkendes Lernen 350 (das beispielsweise von seiner Grundfunktion dem bestärkenden Lernen 250 entsprechen kann), ein neuronales Netz 360 (das beispielsweise von seiner Grundfunktion her dem neuronalen Netz 260 entsprechen kann) und die Kombination 370 der benutzer-individuell eingestellten Nutzerparameter 332 und der Audio-Verarbeitungsparameter 362 (die beispielsweise der Kombination 270 ent sprechen kann).
Ausgehend von der Vorrichtung 200 aus der Fig. 2 beinhaltet beziehungsweise umfasst die Vorrichtung 300 der Fig. 3 zusätzlich eine Audio-Analyse 380-1 zwischen dem Audio-Ein gang 310 und dem neuronalen Netz 360 sowie eine Audio-Analyse 380-2 zwischen dem Audio-Ausgang 340 und dem bestärkenden Lernen 350. Insbesondere diese Anordnung ermöglicht es der Audio-Analyse 380-1 beispielsweise das von dem Audio-Eingang 310 ausgehende Audio-Eingangssignal 311 zu empfangen und zu analysieren, um ein Audio-Eingangssignalanalyseergebnis, beispielsweise eine Information über spektrale Eigenschaften und/oder Dynamik und/oder Frequenz des Audio-Eingangs- signals 311 , in Form des Audio-Analysesignals 312 und/oder 314 bereitzustellen. Die Infor mation des Audio-Analyse-Ergebnisses der Audio-Analyse 380-1 kann beispielsweise dem neuronalen Netz 360 und dem bestärkenden Lernen 350 (beispielsweise zeitgleich) über die analysierten Audiosignale 312, 314 bereitgestellt werden.
Die Verarbeitungsparameter-Bestimmungsvorschrift, die beispielsweise ein Teil des neuro nalen Netzes 360 (oder ein Teil des bestärkenden Lernens 350) umfassen kann, bzw. die durch das neuronale Netz 360 implementiert wird, kann beispielsweise eine Ableitungsvor schrift zur Ableitung der Audio-Verarbeitungsparameter 362 von dem Audio-Eingangsana- lyseergebnis definieren. Mittels der Audio-Analyse 380-1 können zusätzliche (bzw. kom pakte) Informationen über spektrale Eigenschaften, zum Beispiel ein Intensitätswert pro Frequenzband und Kanal, erhalten werden, um beispielsweise bei Audiosignalen (zum Bei spiel bei Mehrkanal-Audiosignalen) eine Frequenzselektivität bereitzustellen. Die Fre quenzselektivität ist erforderlich, um die wahrnehmbaren klanglichen Aspekte des Signals analysieren und darstellen zu können. Allgemein gesprochen kann durch die Audio-Analyse 380-1 eine Eingangs-Datenmenge des neuronalen Netzes deutlich verringert werden, bei spielsweise im Vergleich zu einem Konzept, bei dem Zeitbereichs-Abtastwerte in das neu ronale Netz eingegeben werden. Indem beispielsweise die analysierten Audiosignale 312, 314 Parameter enthalten, die Eigenschaften des Audio-Eingangssignals in kompakter Form beschreiben (wobei eine Anzahl von Parametern pro Zeitabschnitt beispielsweise um zu mindest einen Faktor 10 oder um zumindest einen Faktor 20 oder um zumindest einen Faktor 50 geringer ist als eine Anzahl an Abtastwerten pro Zeiteinheit) kann die Komplexität des neuronalen Netzes 360 vergleichsweise gering gehalten werden. Dementsprechend kann die Anzahl an Koeffizienten des neuronalen Netzes vergleichsweise gering gehalten werden, was einen Lernvorgang (beispielsweise durch das bestärkende Lernen 350) er leichtert. Dies gilt umso mehr, je besser die Parameter der analysierten Audiosignale ge eignet sind, um unterschiedliche akustische Umgebungen zu unterscheiden.
Zusätzlich und optional kann eine Audio-Analyse 380-2 des Audio-Ausgangssignals 342 durchgeführt werden, um ein Audio-Ausgangssignalanalyseergebnis für eine Bestimmung des zumindest einen Koeffizienten der Verarbeitungs-Parametervorschrift, beispielsweise zumindest einen Koeffizienten des bestärkenden Lernens 350 bereitzustellen. Möglich ist auch eine „gemeinsame“ Audio-Analyse des Audio-Eingangssignals 311 und des Audio-Ausgangssignals 342 (also beispielswiese eine Audio-Analyse sowohl des Au dio-Eingangssignals als auch des Audio-Ausgangssignals), wobei separate Audio-Sig- nalanalyseergebnisse bereitgestellt werden können. Separat heißt in diesem Zusammen hang, dass das Audio-Eingangssignalanalyseergebnis beispielsweise anderen Komponen ten bereitgestellt werden kann, verglichen mit dem Audio-Ausgangssignalanalyseergebnis. Beispielsweise können die Informationen der Audio-Analyse 380-1 , 380-2 des Eingangs beziehungsweise Ausgangssignals unterschiedlich zueinander oder entsprechend gleich sein.
Ausführungsbeispiele sehen dabei ferner vor, dass der Audio-Ausgang 340 ein verändertes beziehungsweise verarbeitetes Audiosignal 319 für eine Schnittstelle, beispielsweise für Kopfhörer oder Lautsprecher, bereitstellen, wobei das nicht zwingend erforderlich ist. Fer ner ermöglichen es Ausführungsbeispiele, dass die Audio-Analyse 380-2 das Audio-Sig- nal 313 für die Schnittstelle oder für eine weitere Schnittstelle bereitstellt. Hierdurch kann die Vorrichtung 300 das Audiosignal 319 und 313 beispielsweise über zumindest eine Schnittstelle externen Komponenten bereitstellen, wobei das nicht zwingend erforderlich ist.
Zusammenfassend ist somit festzuhalten, dass bei der Vorrichtung 300 nicht das Eingangs- Audiosignal oder das Ausgangs-Audiosignal selbst dem neuronalen Netz 360 oder dem bestärkenden Lernen 350 zugeführt werden, sondern ein oder mehrere entsprechende Au- dio-Analyseergebnisse. Somit kann durch geeignete Vorab-Analyse des Eingangs-Audio- signals und/oder des Ausgangs-Audiosignals eine Komplexität des neuronalen Netzes und damit auch eine Komplexität des bestärkenden Lernens niedrig gehalten werden, was den Implementierungsaufwand deutlich senkt.
Fig. 4 zeigt ein schematisches Blockschaltbild einer Vorrichtung 400 zum Bestimmen von Audio-Verarbeitungsparametern in Abhängigkeit von zumindest einem Eingangs-Signal, die teilweise auf der Vorrichtung 200 aus der Fig. 2 basiert.
Es sei darauf hingewiesen, dass bei der Vorrichtung 400 gemäß Fig. 4 Funktionsblöcke, die auch in der Fig. 2 gezeigt sind, beispielsweise eine ähnliche oder gleiche Funktionalität aufweisen können wie entsprechende Funktionsblöcke in der Vorrichtung 200 (aber nicht notwendigerweise aufweisen müssen). Es sei ferner darauf hingewiesen, dass die Vorrich tung 400 optional um alle Merkmale, Funktionalitäten und Details ergänzt werden kann, die hierin beschrieben sind, und zwar sowohl einzeln als auch in Kombination.
Die Vorrichtung 400 umfasst einen Audio-Eingang 410 (der beispielsweise dem Audio-Ein- gang 210 entsprechen kann), eine Audio-Verarbeitung 420 (die beispielsweise der Audio- Verarbeitung 220 entsprechen kann), eine Nutzer-Steuerung 430 (die beispielsweise der Nutzer-Steuerung 230 entsprechen kann), einen Audio-Ausgang 440 (der beispielswiese dem Audio-Ausgang 240 entsprechen kann), ein bestärkendes Lernen 450 (das beispiels weise von seiner grundsätzlichen Funktion her dem bestärkenden lernen 250 entsprechen kann), ein neuronales Netz 460 (das beispielsweise von seiner grundsätzlichen Funktion her dem neuronalen netz 260 entsprechen kann), eine Kombination 470 )die beispielsweise der Kombination 270 entsprechen kann) und eine Audio-Analyse 480 (die beispielsweise der Audio-Analyse 380-1 entsprechen kann) zwischen dem Audio-Eingang 410 und dem neuronalen Netz 460 und dem bestärkenden Lernen 450.
Verglichen mit der Vorrichtung 300 umfasst die Vorrichtung 400 keine Audio-Analyse des Audio-Ausgangs 440 und verglichen mit der Vorrichtung 200 wird kein Audio-Ausgangssig- nal von dem Audio-Ausgang 440 kommend dem bestärkenden Lernen 450 bereitgestellt. Anders gesagt, erhält das bestärkende Lernen 450 keine Informationen über das Audio- Ausgangssignal.
Stattdessen basiert das bestärkende Lernen 450 auf den kombinierten Parametern 472, 473 beziehungsweise auf einer Information 433, die Änderungen bzw. Anpassungen der durch das neuronale Netz 460 gelieferten Audioverarbeitungsparameter 462 durch den Be nutzer beschreibt. Ferner verwendet das bestärkende Lernen das Audio-Eingangssig- nalanalyseergebnis 414.
In anderen Worten kann das bestärkende Lernen 450 eine Datenbasis 452 in Abhängigkeit von durch den Benutzer eingestellten Nutzerparametern beziehungsweise den kombinier ten Parameter 472, 473 bestimmen, so dass Einträge der Datenbasis 452 die durch den Benutzer eingestellten Nutzerparameter 472, 473 darstellen. Die Datenbasis 452 kann zur Bestimmung der Koeffizienten 456 der Verarbeitungsparameter-Bestimmungsvorschrift, beziehungsweise des neuronalen Netzes 460, bereitgestellt bzw. verwendet werden. Dadurch kann ein Vorhersagemodell bestimmt werden, das direkt auf Nutzerparametern (bzw. den durch den Nutzer angepassten Audiosignal-Verarbeitungsparametern 472) ba siert, die direkt in das bestärkende Lernen 450 zugeordnet werden.
Optional können die ein oder mehreren kombinierten Parameter 472, 473 beziehungsweise Nutzerparameter auch im Betrieb direkt, mittels dem kombinierten Parameter 474 in das neuronale Netz 460 eingehen, so dass als Ausgabe beispielsweise die Kompressoreinstel lungen und/oder andere Parameter für die Audio-Verarbeitungsparameter 462 bereitgestellt werden können.
Alternativ oder optional können die jeweiligen durch den Benutzer eingestellten Nutzerpa rameter 432 direkt dem bestärkenden Lernen 450 bereitgestellt werden (wie bei Bezugs zeichen 433 gezeigt), wobei das nicht zwingend erforderlich ist. Es kann also beispielsweise eine Information darüber, wie sehr der Benutzer die durch das neuronale Netz 460 gelie ferten Parameter 462 verändert, für das bestärkende Lernen verwendet werden. Ändert der Benutzer die durch das neuronale Netz 460 gelieferten Parameter 462 gar nicht oder nur wenig, so kann davon ausgegangen werden, dass der Benutzer mit der aktuellen Funktio nalität des neuronalen Netzes völlig oder zumindest in sehr hohem Maße zufrieden ist, so dass Koeffizienten des neuronalen Netzes gar nicht oder nur geringfügig geändert werden müssen. Nimmt der Benutzer hingegen deutliche Veränderungen der Parameter 462 vor, so kann durch das bestärkende lernen davon ausgegangen werden, dass eine deutliche Veränderung der Koeffizienten des neuronalen Netzes erforderlich ist, um zu erreichen, dass die durch das neuronale Netz gelieferten Parameter 462 den Benutzererwartungen entsprechen. Insofern kann beispielswiese die Information 433, die einen Benutzereingriff beschreibt, durch das bestärkende Lernen verwendet werden, um ein Lernen auszulösen und/oder einen Umfang der Veränderungen der Koeffizienten des neuronalen Netzes zu bestimmen.
Insgesamt ermöglicht es das Ausführungsbeispiel gemäß der Fig. 4, die Koeffizienten 456 des neuronalen Netzes 460 in effizienter Weise zu lernen und/oder (z. B. kontinuierlich) zu verbessern.
Fig. 5 zeigt eine Vorrichtung 500, die ähnliche Eigenschaften aufweist, wie die Vorrichtun gen 200, 300 und 400. Es sei darauf hingewiesen, dass bei der Vorrichtung 500 gemäß Fig. 5 Funktionsblöcke, die auch in den Fig. 2, Fig. 3 und Fig. 4 gezeigt sind, beispielsweise eine ähnliche oder gleiche Funktionalität aufweisen können wie entsprechende Funktions blöcke in der Vorrichtung 200, der Vorrichtung 300 und der Vorrichtung 400 (aber nicht notwendigerweise aufweisen müssen). Es sei ferner darauf hingewiesen, dass die Vorrich tung 500 optional um alle Merkmale, Funktionalitäten und Details ergänzt werden kann, die hierin beschrieben sind, und zwar sowohl einzeln als auch in Kombination.
Das schematische Blockschaltbild der Fig. 5 zeigt die Vorrichtung 500, umfassend einen Audio-Eingang 510 (der beispielsweise dem Audio-Eingang 210 entsprechen kann), eine Audio-Verarbeitung 520 (die beispielsweise der Audio-verarbeitung 220 entsprechen kann), eine Nutzersteuerung 530 (die beispielsweise der Nutzersteuerung 230 entsprechen kann), einen Audio-Ausgang 540 (der beispielsweise dem Audio-Ausgang 240 entsprechen kann), ein bestärkendes Lernen 550 (das beispielsweise von seiner grundsätzlichen Funktion her dem bestärkenden lernen 250 entsprechen kann), ein neuronales Netz 560 (das beispiels weise von seiner grundsätzlichen Funktion her dem neuronalen Netz 260 entsprechen kann) und eine Kombination 570 (die beispielsweise der Kombination 270 entsprechen kann).
Die Vorrichtung 500 umfasst beispielsweise keine Audio-Analyse des Audioeingangssig- nals und keine Audio-Analyse des Audio-Ausgangssignals, so dass die Audiosignale 512 und 514 direkt von dem Audio-Eingang 510 in das bestärkende Lernen 550 bzw. in das neuronale Netz 560 geleitet werden können. Optional kann bei der Vorrichtung 500 aber auch eine Audio-Analyse des Audio-Eingangssignals erfolgen.
Wie bereits in der Fig. 2 der Vorrichtung 200 erwähnt, kann ein Audio-Eingangssignal 512 für das neuronale Netz 560 und ein Audio-Eingangssignal 514 für das bestärkende Ler nen 550 breitgestellt werden. Im Gegensatz zur Vorrichtung 400 kann das bestärkende Ler nen 550 der Vorrichtung 500 auf dem Audio-Eingangssignal 514 und den der Audio-Verar- beitung 520 bereitgestellten (bzw. durch die Audioverarbeitung 520 tatsächlich verwende ten) einen oder mehreren Audioverarbeitungsparametern 572 basieren.
Optional kann der Nutzerparameter, beziehungsweise der kombinierte Parameter 572, dem neuronalen Netz 560 bereitgestellt werden, so dass als Eingangsgrößen des neuronalen Netzes 560 der Nutzerparameter 572 und der beziehungsweise die von dem bestärkenden Lernen 550 gelieferten Koeffizienten eingehen beziehungsweise bereitgestellt werden.
Die Vorrichtung 500 erlaub eine besonders effiziente Einstellung der Koeffizienten des neu ronalen Netzes, da das bestärkende Lernen 550 die durch die Audiosignalverarbeitung 520 tatsächlich verwendeten Parameter berücksichtigt und somit die Koeffizienten des neuro nalen Netzes sehr präzise ermitteln bzw. optimieren kann.
Fig. 6 zeigt ein schematisches Ablaufdiagramm eines Verfahrens 600 zum Betrieb einer Vorrichtung, etwa der Vorrichtung 100, 200, 300, 400 oder 500, bzw. ganz allgemein zum Erhalten von Audio-Verarbeitungsparametern. Ein erster Schritt 610 umfasst ein benutzer individuelles Bestimmen von zumindest einem Koeffizienten einer Verarbeitungsparameter- Bestimmungsvorschrift basierend auf beim Benutzerbetrieb erhaltenen Audiosignalen. Ein zweiter Schritt 620 umfasst ein Erhalten von Audio-Verarbeitungsparametern unter Ver wendung der Verarbeitungsparameter-Bestimmungsvorschrift basierend auf dem Audio- Eingangssignal.
Das Verfahren 600 wird dabei beispielsweise so ausgeführt, dass Audio-Verarbeitungspa- rameter in Abhängigkeit von zumindest einem Audio-Eingangssignal bestimmt werden. Das Verfahren 600 kann dabei so ausgeführt werden, dass eine Klangverarbeitung bzw. Audi- overarbeitung auf Basis von unmittelbar aufgezeichneten Umgebungsgeräuschen (wobei beispielsweise ein Audio-Eingangssignal zu einer Anpassung von Audio-Verarbeitungspa rametern führt) zu einer Verbesserung der individuellen Wahrnehmung von Klang führt. Beispielsweise kann erreich werden, dass die Koeffizienten der Verarbeitungsparameter- Bestimmungsvorschrift auf beim Benutzerbetrieb erhaltenen Audio-Eingangssignale basie ren und benutzer-individuell (beispielweise in Echtzeit) bestimmt werden, so dass Audio- Verarbeitungsparameter unter Verwendung eines neuronalen Netzes, dessen Koeffizienten durch ein bestärkendes Lernen bestimmt oder sogar kontinuierlich angepasst werden, ba sierend auf dem Audio-Eingangssignal erhalten werden.
Das Verfahren 600 kann optional um alle hierin beschriebenen Merkmale, Funktionalitäten und Details ergänzt werden, auch wenn diese im Hinblick auf Vorrichtungen beschrieben wurden. Das Verfahren kann um diese Merkmale, Funktionalitäten und Details sowohl ein zeln als auch in Kombination ergänzt werden.
Weitere Ausführunqsbeispiele
Im Folgenden werden einige Aspekte der vorliegenden Erfindung beschrieben, die einzeln oder in Kombination in Ausführungsbeispielen angewendet werden können. Durch den Nutzer einstellbare situationsabhängige Steuerungsparameter, beziehungs weise durch den Benutzer eingestellte Nutzerparameter, kann beispielsweise durch Ana lyse des eingehenden und ausgehenden Audiosignals, so wie beispielsweise in der Fig. 3 dargestellt, der Klangverarbeitung im Training eines selbstbestärkenden Lernalgorithmus integriert werden.
Das eingehende Audiosignal kann die Klangumgebung enthalten. Dadurch können Ände rungen der Klangumgebung und der Nutzereinstellungen inhärent beispielsweise in Lauf zeit gelernt werden.
Der selbstbestärkende Lernalgorithmus kann aus diesen Daten beispielsweise einen nut zerspezifischen Parametersatz zur Klangverarbeitung entwickeln, der einerseits automati siert unter gleichen äußeren Rahmenbedingungen dieselben Steuerungsparameter anwen det, aber auch in der Situation selbst weitere Nutzer-Anpassungen zulässt, die in das ler nende System integriert werden (beispielsweise basierend auf einem Prinzip des bestär kenden Lernens). So kann sich beispielsweise das maschinelle Lernsystem und die An wendung in einem fortwährenden Lernprozess den klanglichen Nutzerpräferenzen anpas sen. Zur Klanganpassung können Algorithmen integriert und gesteuert werden, wie sie bei spielsweise in Hörgeräten verwendet werden. Dazu können beispielsweise Multibandkom pression mit Rate R und Hörschwellen-Anpassung T und bandabhängiger Verstärkung G, Störgeräuschreduktion oder Blinde Quellentrennung dazugehören.
Das eingehende Audiosignal, die Klangverarbeitungsparameter und/oder das mit dem Klangverarbeitungsparametern verarbeitete Audiosignal können beispielsweise zum Trai ning des Nutzerprofils in einer Cloud (z. B. einem zentralen Datenspeicher) gespeichert werden. Gleichzeitig können die vom Nutzer gewählten Klangverarbeitungsparameter, be ziehungsweise Nutzerparameter auf das eingehende Audiosignal angewandt werden. Die Anzahl der Eingangsparameter für das bestärkende Lernen z. B. eines CNNs (Convolutio- nal Neural Network bzw. faltendes neuronales Netz) kann sich beispielsweise zusammen setzen aus Mehrkanal-Audioeingang (z. B. mit C=4 Kanäle) und Audioausgang (z. B. mit C=2 Kanäle). Die Anzahl der Ausgangsparameter im erlernten Parametersatz M kann sich z. B. aus M = C * (T + R + G) + 2 Zeitkonstanten zusammensetzen, wobei die Anzahl der Werte von G, R, T beispielsweise der Anzahl der Verarbeitungsbänder B (z. B. B = 8) ent sprechen kann. Im Folgenden werden einige Aspekte der vorliegenden Erfindung beschrieben, die einzeln oder in Kombination in Ausführungsbeispielen angewendet werden können.
Eine mögliche Umsetzung des Verfahrens, beziehungsweise der Vorrichtung, in dem Be reich Klangsteuerung ist beispielsweise, dass ein Anwender ein Klangwiedergabegerät (z. B. ein Hearable bzw. einen Ohrhörer mit Zusatzfunktion) trägt, das mit einem System mit integrierter Klangverstärkung und einer Audioanalyse, beispielsweise wie in der Fig. 3 oder der Fig. 4 aufgezeigt, ausgestattet ist. Die Parameter der Klangverstärkung kann der Anwender beispielsweise mit einer App (bzw. mit einer Applikationssoftware) steuern, bei spielsweise unter Verwendung der oben beschriebenen Nutzersteuerung. Im Hintergrund kann die Audioanalyse beispielsweise die auditorische Szene mittels Mikrophonie ständig aufnehmen und analysieren und sie beispielsweise in Dynamik und/oder Frequenz und/o der spektralen Eigenschaften evaluieren (beispielsweise in der Audioanalyse). In einer be stimmten auditorischen Szene, z. B. beim Fahren im Auto auf der Autobahn, kann der An wender mittels einer App eine Klanganpassung durchführen und ändert somit die Parame ter der Klangverstärkung (Beispielsweise die Parameter 272). Das System (beispielsweise das bestärkende Lernen 250) kann einen algorithmischen Zusammenhang zwischen den Parameteränderungen durch den Anwender und der Analyse der auditorischen Szene er stellen und daraus ein Vorhersagemodell, das durch künstliche Intelligenz (Kl) weitere Klan ganpassungen des Users ad hoc integriert, entwickeln (und beispielsweise durch Koeffi zienten 256 beschreiben). Hierunter wird verstanden, dass eine individualisierte Kl- Steuerung (Kl bedeutet hier zum Beispiel künstliche Intelligenz), beziehungsweise eine in dividualisierte Al-Steuerung (engl. Artificial Intelligence, AI, künstliche Intelligenz) ermög licht bzw. durch die Vorrichtung bereitgestellt wird.
Befindet sich der Anwender beispielsweise zu einem anderen Zeitpunkt wieder in derselben auditorischen Szene, in diesem Fall im fahrenden Auto auf der Autobahn, wird das Vorher sagemodell angewandt und die Parameter der Klangverstärkung (Beispielsweise die Para meter 262) automatisiert vom System (z. B. von dem durch Koeffizienten 256 definierten neuronalen Netz 260) vorgenommen bzw. geliefert. Nimmt der Benutzer (User) gegebe nenfalls wieder Klanganpassungen vor (Beispielsweise über die Schnittstelle 230), können diese beispielsweise ad hoc in das selbstlernende System integriert werden.
Im Folgenden werden einige Aspekte der vorliegenden Erfindung beschrieben, die einzeln oder in Kombination in Ausführungsbeispielen angewendet werden können, und die bei spielswiese Unterschiede zur Github-Veröffentlichung „liketohear-ai-pt“ darstellen. • Gemäß einem (optionalen) Aspekt der Erfindung basiert das Vorhersagemodell auf einer multidimensionalen Optimierung in Echtzeit, die alle vorhandenen Frequenz bänder analysiert.
• Gemäß einem (optionalen) Aspekt der Erfindung werden beispielsweise Methoden des Bestärkenden Lernens und Methoden des Unbeaufsichtigten Lernens genutzt (beziehungsweise verwendet).
• Gemäß einem (optionalen) Aspekt der Erfindung kann die Anpassung (beziehungs weise können die Anpassungen), beispielsweise der Verarbeitungsparameter-Be stimmungsvorschrift und/oder der Audio-Verarbeitungsparameter, kontinuierlich in Laufzeit stattfinden.
Im Folgenden werden einige Aspekte der vorliegenden Erfindung beschrieben, die einzeln oder in Kombination in Ausführungsbeispielen angewendet werden können, die beispiels wiese Unterschiede zur Offenlegungsschrift US 2015 195641 A1 darstellen.
Ausführungsbeispiele gemäß der Erfindung beziehen sich beispielsweise primär auf eine intuitive und ergonomische Benutzersteuerung von Klängen in alltagsakustischen Umge bungen und präferieren daher generalisierende Einstellungsmöglichkeiten, aus folgenden Gründen:
• Eine Aufteilung der Signale in einzelne „types of sounds“ in Echtzeit ist in alltags akustischen Situationen kaum zu realisieren. Daher wendet die vorliegende Erfin dung dieses Verfahren nicht an, sondern deckt vielmehr mit einem 2-dimensionalen Parameterraum eine Vielzahl von klanglichen Möglichkeiten.
• Benutzereinstellungen müssten bei einer Signaltrennung jeweils getrennt für jedes Objekt und jeder Kontextsituation getroffen werden. In alltagsakustischen Umge bungen mit schnell wechselnden Hörsituation wird die Benutzersteuerung bzw. Usersteuerung zu komplex und daher nicht ergonomisch anwendbar. Mit der vorlie genden Erfindung kann der Benutzer mit einer einfachen und intuitiv bedienbaren Schnittstelle wie beispielsweise eine 2d-Touchoberfläche eines Smartphones kom plexe Klanganpassungen durchführen (beispielsweise in der Einrichtung 230).
• Klangliche Eigenschaften von einzelnen Klängen, könnten sich im Zusammenklang unterschiedlich als in der Präferenz anhören z. B. Klänge wie Musik als vordergrün diges oder als hintergründiges Geräusch. Daher wird bei der vorliegenden Erfindung beispielsweise die Komplexität der auditorischen Szene an eine für den Benutzer optimierte Wahrnehmung aller vorhanden Klänge angepasst. • Einstellungen für einzelne Signale adaptieren sich nicht dynamisch an wechselnde Umgebungsbedingungen. So kann beispielsweise bei leise gesprochener Sprache oder nur leise abgespielter Musik schon eine leichte Lautstärkeerhöhung der Hin tergrundgeräusche Sprache unverständlich bzw. Musik nicht mehr hörbar werden.
Im Folgenden werden einige Aspekte der vorliegenden Erfindung beschrieben, die einzeln oder in Kombination in Ausführungsbeispielen angewendet werden können, die beispiels wiese Unterschiede zur Offenlegungsschrift US 2020 0066264 A1 darstellen.
Bei der Offenlegungsschrift US 2020 0066264 A1 steuert ein Prozessor die Klangverarbei tung des Hörgeräts aufgrund von "user preferences and interests" (Benutzerpräferenzen und Interessen) und "historical activity patterns" (früheren Aktivitätsmustern).
Bei Ausführungsbeispielen der vorliegenden Erfindung wird die Klangverarbeitung des Hör geräts hingegen beispielswese auf Basis von in Echtzeit-gemessenen äußeren Rahmen bedingungen, beispielsweise so wie in der Fig. 2 dargestellt, gesteuert.
Zusammenfassend ist festzuhalten, dass gemäß einem Aspekt der Erfindung die oben ge nannten Kriterien bzw. Anforderungen in ein lernendes Verfahren beziehungsweise einer Vorrichtung integriert werden, das in Echtzeit aus Benutzereinstellungen lernt und diese automatisiert anwendet, um die individuelle Wahrnehmung von Klang bzw. Tönen in Form von Audiosignalen für den Benutzer zu verbessern. Mittels der vorliegenden Erfindung kann eine auf die Benutzerpräferenzen optimierte Signalwiedergabe bzw. Audiowiedergabe rea lisiert werden.
Somit kann gemäß einem Aspekt der vorliegenden Erfindung berücksichtigt werden, dass sich die individuelle Wahrnehmung von Klang und damit die individuellen Anforderungen für den Klang bzw. Wohlklang an deren Anpassung von Klangwiedergabegeräten unter an derem nach folgenden Kriterien unterscheiden:
• Individualität
• Situationsbedingte Bedürfnisse
• Äußere Rahmenbedingungen
Gemäß einem Aspekt der Erfindung können Ausführungsbeispiele gemäß der Erfindung berücksichtigen, dass die Klangwahrnehmung sich von Person zu Person unterscheidet. Beispielsweise ist ein Gespräch mit einer Person in einem Raum mit vielen Menschen mit unter einer lauten Klangkulisse für den Einen schwerer zu führen als für den Anderen. Ebenso wird je nach Bedürfnis dieselbe Einstellung einer Klangwiedergabe unterschiedlich wahrgenommen.
Gemäß einem Aspekt der Erfindung können Ausführungsbeispiele gemäß der Erfindung berücksichtigen, dass auch Umgebungsparameter, wie die auditorische Umgebung, die Steuerungswerte für eine Klanganpassung eines Klangwiedergabegeräts erheblich beein flussen.
Zusammenfassend ist weiterhin zu sagen, dass Ausführungsbeispiele gemäß der vorlie genden Erfindung eine Vorrichtung und ein Verfahren schaffen, die eine Klangverarbeitung auf Basis von Umgebungsgeräuschen, die unmittelbar aufgezeichnet beziehungsweise ge messen werden, durchführen. Basierend auf diesen Aufzeichnungen und den durch den Benutzer eingestellten Nutzerparametern generiert beispielsweise ein lernender Algorith mus ein Vorhersagemodell, der in der Situation selbst weitere Anpassungen zulässt, die in das lernende System integriert werden, um die individuelle Wahrnehmung von Klang bzw. Tönen in Form von Audiosignalen für den Benutzer zu verbessern.
Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfah rens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein ent sprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrens schritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar.
Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Er findung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwir- ken können oder Zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Des halb kann das digitale Speichermedium computerlesbar sein. Manche Ausführungsbei- spiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerpro grammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode da hin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogramm produkt auf einem Computer abläuft. Der Programmcode kann beispielsweise auch auf ei nem maschinenlesbaren Träger gespeichert sein.
Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinen lesbaren Träger gespeichert ist.
In anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin be schriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer ab läuft. Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Da tenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren auf gezeichnet ist.
Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Daten strom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durch führen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, trans feriert zu werden.
Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfigu riert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen. Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerpro gramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (bei- spielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor Zusammenwirken, um eines der hierin beschriebenen Verfahren durchzu führen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Flardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hard- ware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Vari ationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten ein leuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutz umfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsen- tiert wurden, beschränkt sei.

Claims

Patentansprüche
1. Eine Vorrichtung (100;200;300;400;500) zum Bestimmen von Audio-Verarbeitungs- parametern (120;262;362;462;562) in Abhängigkeit von zumindest einem Audio- Eingangssignal (110,112;212,214,216; 311 ,316;411 ,416;512,514,516); wobei die Vorrichtung (100;200;300;400;500) ausgebildet ist, um zumindest einen Koeffizienten (142;256;356;456;556) einer Verarbeitungsparameter-Bestimmungs vorschrift (140;250;350;450;550) benutzer-individuell basierend auf beim Benutzer betrieb erhaltenen Audiosignalen (217,218,219;313,317,318,319,342;417;517) zu bestimmen; wobei die Vorrichtung (100;200;300;400;500) ausgelegt ist, um die Audio-Verarbei- tungsparameter (120;262;362;462;562) unter Verwendung der Verarbeitungspara meter-Bestimmungsvorschrift (140;250;350;450; 550) basierend auf dem Audio- Eingangssignal (110,112;212,214,216;311 ,316; 411 ,416;512,514,516) zu erhalten.
2. Vorrichtung (100;200;300;400;500) gemäß Anspruch 1 , wobei die Vorrichtung aus gebildet ist, um eine Datenbasis (252;352;452;552) in Abhängigkeit von durch den Benutzer eingestellten Nutzerparametern (232;332;432,433;532) zu bestimmen, so dass Einträge der Datenbasis (252;352;452;552) die durch den Benutzer eingestell ten Nutzerparameter (232;332;432,433;532) beschreiben.
3. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, um eine Datenbasis (252;352;452;552) in Ab hängigkeit von dem zumindest einen Audio-Eingangssignal (110,112;212,214,216; 311 ,316;411 ,416;512,514,516) zu bestimmen, so dass Einträge der Datenbasis (252;352;452;552) das Audio-Eingangssignal (110,112;212,214,216;311 ,316; 411 ,416;512,514,516) beschreiben.
4. Vorrichtung (100;200;300;400;500) gemäß Anspruch 3, wobei die Vorrichtung aus gebildet ist, die Datenbasis (252;352;452;552) so zu bestimmen, dass die Datenba sis (252;352;452;552) eine Zuordnung zwischen verschiedenen Audio-Eingangssig- nalen (110,112;212,214,216;311 ,316; 411 ,416;512,514,516) und jeweiligen durch den Benutzer eingestellten Nutzerparametern (232;332;432,433;532) beschreibt.
5. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, um eine Datenbasis (252;352;452;552) in Ab hängigkeit von einem Audio-Ausgangssignal (218,219,313,318,319,342) zu bestim men, so dass Einträge der Datenbasis (252;352;452;552) das Audio-Ausgangssig nal (218,219,313,318,319,342) beschreiben.
6. Vorrichtung (100;200;300;400;500) gemäß Anspruch 5, wobei die Vorrichtung aus gebildet ist, die Datenbasis (252;352;452;552) so zu bestimmen, dass die Datenba sis (252;352;452;552) eine Zuordnung zwischen verschiedenen Audio-Ausgangs- signalen (218,219,313,318,319,342) und jeweiligen durch den Benutzer eingestell ten Nutzerparametern (232;332;432,433;532) beschreibt.
7. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, um den zumindest einen Koeffizienten (142;256;356;456;556) der Verarbeitungsparameter-Bestimmungsvorschrift (140; 250;350;450;550) basierend auf der von der Vorrichtung akquirierten Datenbasis (252;352;452;552) anzupassen, um die Verarbeitungsparameter-Bestimmungsvor schrift (140;250;350; 450;550) benutzer-individuell anzupassen, um benutzer-indi viduell angepasste Audio-Verarbeitungsparameter (120;262;362;462;562) zu erhal ten.
8. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, um die Verarbeitungsparameter-Bestim mungsvorschrift (140;250;350;450;550) basierend auf der Datenbasis (252;352;452;552) bereitzustellen oder anzupassen.
9. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, den zumindest einen Koeffizienten (142;256;356;456;556) der Verarbeitungsparameter-Bestimmungsvorschrift (140; 250;350;450;550) basierend auf zumindest einem von einem Benutzer korrigierten und/oder veränderten Audio-Verarbeitungsparameter (120;262;362;462;562) zu be stimmen und/oder anzupassen.
10. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, um eine Audio-Verarbeitung (220;320;420; 520) basierend auf dem Audio-Eingangssignal (110,112;212,214,216; 311 ,316;411 ,416;512,514,516) und basierend auf dem Audio-Verarbeitungspara- meter (120;262;362;462;562) auszuführen, um die benutzer-individuell angepass ten Audiosignale (217,218,219;313,317,318,319,342) zu erhalten.
11 . Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, um die Koeffizienten (142;256;356;456;556) der Verarbeitungsparameter-Bestimmungsvorschrift (140;250;350;450;550) unter Verwendung eines Vergleichs des Audio-Eingangssignals (110,112;212,214,216; 311 ,316;411 , 416;512,514, 516) und eines durch die Audio-Verarbeitung (220;320; 420;520) unter Verwendung der Audio-Verarbeitungsparameter (120;262;362;462; 562) gelieferten Audio-Ausgangssignals (218,219,313,318,319,342) zu bestimmen.
12. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, um die von dem Benutzer eingestellten Nut zerparameter (232;332;432,433;532) als Ausgangsgröße an Stelle der Audio-Ver arbeitungsparameter (120;262;362;462;562) bereitzustellen, und wobei die von dem Benutzer eingestellten Nutzerparameter (232;332;432,433;532) Lautstärkeparame ter und/oder Klangparameter und/oder Equalizer-Parameter umfassen.
13. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgelegt ist, um die Nutzerparameter (232;332;432,433;532) mit den Audio-Verarbeitungsparametern (120;262;362;462;562) zu kombinieren, um kombinierte Parameter (272;372;472,473,474;572,573) der Audio-Verarbeitung (220;320;420;520) zu erhalten und als Ausgangsgröße bereitzustellen.
14. Vorrichtung (100;300;400) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, eine Audio-Analyse des Audio-Eingangssignals (110, 112;212, 214, 216;311 , 316;411 , 416;512, 514, 516) durchzuführen, um ein Au- dio-Eingangssignalanalyseergebnis für eine Bestimmung des zumindest einen Ko effizienten (142;256;356;456;556) einer Verarbeitungsparameter-Bestimmungsvor schrift (140;250;350;450;550) bereitzustellen.
15. Vorrichtung (100;300) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, eine Audio-Analyse des Audio-Ausgangssignals (342) durchzuführen, um ein Audio-Ausgangssignalanalyseergebnis für eine Bestimmung des zumindest einen Koeffizienten (142;256;356;456;556) der Verarbeitungspara meter-Bestimmungsvorschrift (140;250;350;450;550) bereitzustellen.
16. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Audio-Verarbeitungsparameter (120;262;362;462;562) zumindest einen Multibandkompressionsparameter R, und/oder zumindest einen Hörschwellenan passungsparameter T, und/oder zumindest einen bandabhängigen Verstärkungs parameter G, und/oder zumindest einen Störgeräuschreduktionsparameter, und/o der zumindest einen blinden Quellentrennungsparameter, und/oder zumindest ei nen Schallrichtungsparameter, und/oder zumindest einen binauralen Parameter und/oder zumindest einen Parameter von adaptiven Filtern umfassen.
17. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ein neuronales Netz (260;360;460;560) umfasst, das ausge legt ist, um die Audio-Verarbeitungsparameter (120;262;362;462;562) unter Ver wendung der Verarbeitungsparameter-Bestimmungsvorschrift
(140;250;350;450;550) zu erhalten.
18. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, um die Verarbeitungsparameter-Bestim mungsvorschrift (140;250;350;450;550) basierend auf einer Methode des bestär kenden Lernens und/oder basierend auf einer Methode des verstärkenden Lernens und/oder basierend auf einer Methode des unbeaufsichtigten Lernens und/oder ba sierend auf einer Methode der multivariaten Vorhersage und/oder basierend auf ei nem mit multivariabler Regression festgelegten multidimensionalen Parameterraum bereitzustellen und/oder anzupassen, um den Audio-Verarbeitungsparameter (120;262;362;462;562) zu bestimmen.
19. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgebildet ist, um die durch den Benutzer eingestellten Nut zerparametern (232;332;432,433;532) von einer Schnittstelle zu erhalten.
20. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei das Audio-Eingangssignal (110,112;212,214,216;311 ,316;411 ,416; 512,514,516) ein Mehrkanal-Audiosignal oder zumindest zwei Audio-Kanäle um fasst.
21 . Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgelegt ist, um eine Audio-Verarbeitung (220;320;420;520) separat für zumindest vier Frequenzbänder des Audio-Eingangssignals (110,112;212,214, 216; 311 ,316;411 , 416;512,514,516) durchzuführen.
22. Vorrichtung (100;200;300;400;500) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung ausgelegt ist, um den zumindest einen Koeffizienten (142;256;356;456;556) der Verarbeitungsparameter-Bestimmungsvorschrift (140; 250;350;450;550) benutzer-individuell während des Benutzerbetriebs zu bestim men, um die Audio-Verarbeitungsparameter (120;262;362;462;562) in Echtzeit zu erhalten und/oder die veränderten Audio-Verarbeitungsparameter (120;262;362;462;562) in Echtzeit zu bestimmen und/oder anzupassen.
23. Hörgerät, wobei das Hörgerät eine Audioverarbeitung aufweist; und wobei das Hörgerät eine Vorrichtung zum Bestimmen von Audio-Verarbeitungspa- rametern gemäß einem der Ansprüche 1 bis 22 aufweist, wobei die Audioverarbeitung ausgelegt ist, um ein Audio-Eingangssignal abhängig von den Audio- Verarbeitungsparametern zu verarbeiten.
24. Verfahren (600) zum Bestimmen von Audio-Verarbeitungsparametern in Abhängig keit von zumindest einem Audio-Eingangssignal, wobei das Verfahren aufweist: benutzer-individuelles Bestimmen von zumindest einem Koeffizienten einer Verar beitungsparameter-Bestimmungsvorschrift basierend auf beim Benutzerbetrieb er haltenen Audiosignalen; und
Erhalten von Audio-Verarbeitungsparametern unter Verwendung der Verarbeitungs parameter-Bestimmungsvorschrift basierend auf dem Audio-Eingangssignal.
25. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 24, wenn das Programm auf einem Computer läuft.
26. Eine Vorrichtung (100;200;300;400;500) zum Bestimmen von Audio-Verarbeitungs- parametern (120;262;362;462;562) in Abhängigkeit von zumindest einem Audio- Eingangssignal (110;212,214,216; 311 ,316;411 ,416;512,514,516); wobei die Vorrichtung (100;200;300;400;500) ausgebildet ist, um zumindest einen Koeffizienten (142;256;356;456;556) einer Verarbeitungsparameter-Bestimmungs vorschrift (140;250;350;450;550) benutzer-individuell basierend auf beim Benutzer betrieb erhaltenen Audiosignalen (217,218,219;313,317,318,319,342;417;517) zu bestimmen; wobei die Vorrichtung (100;200;300;400;500) ausgelegt ist, um die Audio-Verarbei- tungsparameter (120;262;362;462;562) unter Verwendung der Verarbeitungspara meter-Bestimmungsvorschrift (140;250;350;450; 550) basierend auf dem Audio- Eingangssignal (110;212,214,216;311 ,316; 411 ,416;512,514,516) zu erhalten; wobei die Vorrichtung ein neuronales Netz (260;360;460;560) umfasst, das ausge legt ist, um die Audio-Verarbeitungsparameter (120;262;362;462;562) unter Ver wendung der durch Koeffizienten angepassten Verarbeitungsparameter-Bestim mungsvorschrift (140;250;350;450;550) unmittelbar ohne Kategorisierung der akus tischen Umgebung zu erhalten.
27. Verfahren (600) zum Bestimmen von Audio-Verarbeitungsparametern in Abhängig keit von zumindest einem Audio-Eingangssignal, wobei das Verfahren aufweist: benutzer-individuelles Bestimmen von zumindest einem Koeffizienten einer Verar beitungsparameter-Bestimmungsvorschrift basierend auf beim Benutzerbetrieb er haltenen Audiosignalen; und
Erhalten von Audio-Verarbeitungsparametern unter Verwendung der Verarbeitungs parameter-Bestimmungsvorschrift basierend auf dem Audio-Eingangssignal, wobei die Audio-Verarbeitungsparameter (120;262;362;462;562) unter Verwendung der durch Koeffizienten angepassten Verarbeitungsparameter-Bestimmungsvor schrift (140;250;350;450;550) unmittelbar ohne Kategorisierung der akustischen Umgebung bestimmt werden.
28. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 27, wenn das Programm auf einem Computer läuft.
PCT/EP2022/063211 2021-05-17 2022-05-16 Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern WO2022243257A2 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202280050454.2A CN117652160A (zh) 2021-05-17 2022-05-16 用于确定音频处理参数的装置和方法
EP22729553.2A EP4342189A2 (de) 2021-05-17 2022-05-16 Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern
US18/513,012 US20240089672A1 (en) 2021-05-17 2023-11-17 Apparatus and Method for Determining Audio Processing Parameters

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021204974.5A DE102021204974A1 (de) 2021-05-17 2021-05-17 Vorrichtung und Verfahren zum Bestimmen von Audio-Verarbeitungsparametern
DE102021204974.5 2021-05-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/513,012 Continuation US20240089672A1 (en) 2021-05-17 2023-11-17 Apparatus and Method for Determining Audio Processing Parameters

Publications (2)

Publication Number Publication Date
WO2022243257A2 true WO2022243257A2 (de) 2022-11-24
WO2022243257A3 WO2022243257A3 (de) 2023-03-16

Family

ID=82019473

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/063211 WO2022243257A2 (de) 2021-05-17 2022-05-16 Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern

Country Status (5)

Country Link
US (1) US20240089672A1 (de)
EP (1) EP4342189A2 (de)
CN (1) CN117652160A (de)
DE (1) DE102021204974A1 (de)
WO (1) WO2022243257A2 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150195641A1 (en) 2014-01-06 2015-07-09 Harman International Industries, Inc. System and method for user controllable auditory environment customization
US20200066264A1 (en) 2018-08-21 2020-02-27 International Business Machines Corporation Intelligent hearing aid

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249303A (ja) * 1995-03-13 1996-09-27 Ricoh Co Ltd 信号処理装置
EP0814636A1 (de) * 1996-06-21 1997-12-29 Siemens Audiologische Technik GmbH Hörgerät
DE10347211A1 (de) 2003-10-10 2005-05-25 Siemens Audiologische Technik Gmbh Verfahren zum Nachtrainieren und Betreiben eines Hörgeräts und entsprechendes Hörgerät
DK1708543T3 (en) * 2005-03-29 2015-11-09 Oticon As Hearing aid for recording data and learning from it
US10129664B2 (en) * 2015-04-15 2018-11-13 Starkey Laboratories, Inc. User adjustment interface using remote computing resource
EP3692634A1 (de) * 2017-10-04 2020-08-12 Google LLC Verfahren und systeme zur automatischen entzerrung von audioausgängen basierend auf raumeigenschaften
DE102019200956A1 (de) 2019-01-25 2020-07-30 Sonova Ag Signalverarbeitungseinrichtung, System und Verfahren zur Verarbeitung von Audiosignalen
DE102019203786A1 (de) 2019-03-20 2020-02-13 Sivantos Pte. Ltd. Hörgerätesystem
DE102019216100A1 (de) 2019-10-18 2021-04-22 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150195641A1 (en) 2014-01-06 2015-07-09 Harman International Industries, Inc. System and method for user controllable auditory environment customization
US20200066264A1 (en) 2018-08-21 2020-02-27 International Business Machines Corporation Intelligent hearing aid

Also Published As

Publication number Publication date
DE102021204974A1 (de) 2022-11-17
WO2022243257A3 (de) 2023-03-16
CN117652160A (zh) 2024-03-05
EP4342189A2 (de) 2024-03-27
US20240089672A1 (en) 2024-03-14

Similar Documents

Publication Publication Date Title
DE60222813T2 (de) Hörgerät und methode für das erhöhen von redeverständlichkeit
EP1912474B1 (de) Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe
DE60120949T2 (de) Eine hörprothese mit automatischer hörumgebungsklassifizierung
DE602004008455T2 (de) Verfahren, vorrichtung und computerprogramm zur berechung und einstellung der wahrgenommenen lautstärke eines audiosignals
DE10228632B3 (de) Richtungshören bei binauraler Hörgeräteversorgung
WO2001020965A2 (de) Verfahren zur bestimmung einer momentanen akustischen umgebungssituation, anwendung des verfharens und ein hörgerät
DE102018216667B3 (de) Verfahren zur Verarbeitung von Mikrofonsignalen in einem Hörsystem sowie Hörsystem
EP1489885A2 (de) Verfahren zum Betrieb eines Hörhilfegerätes sowie Hörhilfegerät mit einem Mikrofonsystem, bei dem unterschiedliche Richtcharakteristiken einstellbar sind
DE102010041740A1 (de) Verfahren zur Signalverarbeitung in einem Hörhilfegerät sowie Hörhilfegerät
EP1247425B1 (de) Verfahren zum betrieb eines hörgerätes und ein hörgerät
EP3167627A1 (de) Hörsystem mit anwenderspezifischer programmierung
EP2172062A1 (de) Verfahren zum anpassen eines hörgeräts mit hilfe eines perzeptiven modells
EP1489882A2 (de) Verfahren zum Betrieb eines Hörhilfegerätes, sowie Hörhilfegerät mit einem Mikrofonsystem, bei dem unterschiedliche Richtcharakteristiken einstellbar sind
EP1471770B1 (de) Verfahren zur Erzeugung einer angenäherten Teilübertragungsfunktion
EP1432282B1 (de) Verfahren zum Anpassen eines Hörgerätes an eine momentane akustische Umgebungssituation und Hörgerätesystem
DE102006015497B4 (de) Audiosystem und Verfahren sowie Computerprogramm und Datenträger der das Computerprogramm enthält zur Anpassung der Übertragungsfunktion eines Audiosystems mittels Sprachsteuerung
DE102012203349B4 (de) Verfahren zum Anpassen einer Hörvorrichtung anhand des Sensory Memory und Anpassvorrichtung
WO2022243257A2 (de) Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern
EP2120484B1 (de) Verfahren zum Betreiben eines Hörgeräts und Hörgerät
DE102009004185B3 (de) Verfahren zur Signalverarbeitung einer Hörvorrichtung und entsprechende Hörvorrichtung
DE102011085036A1 (de) Verfahren zum Ermitteln einer Kompressionskennlinie
DE102015212609A1 (de) Verfahren zum Betrieb eines Hörgerätesystems und Hörgerätesystem
EP3698474B1 (de) Verfahren zur einstellung von parametern zur individuellen anpassung eines audiosignals
DE3027953A1 (de) Elektro-akustisches hoergeraet mit adaptiver filterschaltung
DE102020216439A1 (de) Verfahren zum Betrieb eines Hörsystems mit einem Hörinstrument

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22729553

Country of ref document: EP

Kind code of ref document: A2

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2023571527

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2022729553

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022729553

Country of ref document: EP

Effective date: 20231218

WWE Wipo information: entry into national phase

Ref document number: 202280050454.2

Country of ref document: CN