EP3286933A1 - Verfahren und gerät zur verbesserung der klangqualität einer audiodatei - Google Patents

Verfahren und gerät zur verbesserung der klangqualität einer audiodatei

Info

Publication number
EP3286933A1
EP3286933A1 EP16738056.7A EP16738056A EP3286933A1 EP 3286933 A1 EP3286933 A1 EP 3286933A1 EP 16738056 A EP16738056 A EP 16738056A EP 3286933 A1 EP3286933 A1 EP 3286933A1
Authority
EP
European Patent Office
Prior art keywords
audio
file
metadata
effect device
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP16738056.7A
Other languages
English (en)
French (fr)
Inventor
Gunnar Kron
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kronoton GmbH
Original Assignee
Kronoton GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kronoton GmbH filed Critical Kronoton GmbH
Publication of EP3286933A1 publication Critical patent/EP3286933A1/de
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/68Systems specially adapted for using specific information, e.g. geographical or meteorological information
    • H04H60/73Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/61Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G5/00Tone control or bandwidth control in amplifiers
    • H03G5/005Tone control or bandwidth control in amplifiers of digital signals
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G7/00Volume compression or expansion in amplifiers
    • H03G7/007Volume compression or expansion in amplifiers of digital or coded signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/081Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Definitions

  • the invention relates to a method for improving the sound quality of an audio file in an audio device by changing an audio signal by means of at least one
  • the invention relates to a device for carrying out the method.
  • effect devices such as equalizers, compressors, limiters, as well as reverberation and echo devices are used.
  • a compressor / limiter for example, is a limiter that exceeds a
  • Peak level prevents to prevent oversteer. Also, they are important as volume / loudness regulators of instrument groups / vocals or speech. For this, values of the parameters Channel Fader, Threshold, Attack (if available), Release, and Output Level are set. Equalizers, for example, are used to correct, equalize or otherwise influence the sound pattern and consist of several filters with which the whole
  • Audio frequency range of the audio signal can be edited. This happens, for example, via the specific setting of frequencies and the filter quality.
  • Effect devices are thus always associated with specific settings to influence or improve the sound quality of audio signals, including an audio file.
  • the overall sound of the audio playing device is adjusted, i. the selected effect device settings should apply to any audio played back through the audio device.
  • the respective terminal device which can be set by the consumer or user, is positioned by the manufacturer of the audio device in the main audio channel path of the relevant device. It does not matter whether it is an audio-playing device with one, two or more channels. To the consumer or user of the audio device a broader
  • Compressor / Limiter for example, values of parameters such as channel fader, Threshold, Attack, Release, and Output Level are already set. Some of these presets are already preprogrammed, such as Music, Movie, or Game settings, so they're supposed to stand for a specific sound, while others are free to create and save, called user presets. If the consumer or user wishes to switch between the various settings, he must select the effect device and manually change the setting, either by activating a stored preset or manually creating a new setting.
  • the method according to the invention is characterized by the following steps: a) assignment of the audio file to metadata; b) comparison of metadata with files storing settings of the effects device; c) assignment of the metadata to a file from step b) and d) loading of the file from step c) and activation of the effect device, wherein the effect device with values from the file in step c) is set.
  • the core idea of the invention is, if possible for each audio file to achieve an individual sound adaptation by first capturing an audio file using metadata and
  • Metadata is descriptive data about media files, such as audio and video files. They are used to describe the contents of these files (e.g., composer, track, genre) or summaries of various
  • Metadata are either changeable and unchangeable components of a media file or even of
  • Media files detached descriptions which are managed for example in metadatabases. They are also linked to specific media files, but are external and not within the media file itself.
  • media-file internal for example ID3 tag
  • media-file-external freely selectable metadata catalogs
  • Settings of the effects device may also be stored in the storage medium, in the audio files are stored to which metafiles are assigned and / or can be assigned.
  • the method according to the invention solves the problem of the previously absent individual sound adaptation.
  • the advantage of the invention is that it is now possible for the first time to provide in each case individually played audio events with the optimal effect units set for them.
  • the consumer or user does not have to intervene on his own, but comes in the automatically optimized on the audio-playing device and / or his listening environment enjoyment of his audio events.
  • a distribution of automated and manually adjustable effect devices it is also possible to allow the consumer or user of an audio device to interfere with the sound, so he can further customize it as needed.
  • the method according to the invention becomes more and more precise, the more information, i. the more metadata about the audio files to be played is available and can be evaluated.
  • the inventive method the individual optimization of sound events of all epochs, genres and styles can be done.
  • audio events of different epochs, which are played in succession in the mix, sound homogeneous, since, for example, lower-quality sound qualities of older recordings can be adapted individually to the contemporary sound by the method according to the invention.
  • An advantageous development of the invention provides that the metadata be stored in the audio file.
  • a practicable variant of the invention provides that the metadata be stored in an external database.
  • the latter variant of the invention has the advantage that it can be used on large providers of metadata and their repertoire of musical pieces.
  • the files from step b) are stored in a database of the audio device or in a cloud.
  • the set effect units include.
  • the database can also be an external database, ie it can be located outside of the audio device. Large stocks of files in turn have the advantage that a further differentiation of set effect devices and thus the audio files is made,
  • Effect device changed audio signal is routed to audio outputs of the device.
  • An apparatus for carrying out the method is subject-matter of claim 7, wherein it comprises:
  • the device has audio outputs and / or audio inputs.
  • a computer program implemented in an apparatus according to any one of claims 7 to 10 is subject matter of claim 13, wherein the computer program includes an algorithm executed by a processor of the apparatus, the algorithm comprising the method according to one of claims 1 to 6 processed.
  • the computer program can also be in the form of a media player.
  • 1 is a block diagram with several effect units as a unit
  • FIG. 2 shows the method according to the invention shown in a block diagram
  • FIG. 3 shows in a block diagram the components of a container format according to FIG.
  • Fig. 4 is a flowchart additionally shown in a block diagram in a
  • FIG. 12 is a block diagram of the components of a computer program in FIG.
  • Shape of a media player according to the invention is a shape of a media player according to the invention.
  • Figure 1 shows in a block diagram a number of effect devices 1, 2, 3, 4, 5, 6, 7, which are interconnected and together via an audio input 8 and a
  • Audio output 9 feature are used to change the audio signal of an audio file not shown in FIG.
  • the effect units 1, 2, 3, 4, 5, 6, 7 are a "bypass” for activating / deactivating the entire unit, an “equalizer” for adjusting different frequency bands, a “speech enhancer” for highlighting voices, eg within movies, a “bass / treble boost” to raise or lower freely adjustable bass and treble frequencies, a “leveler” to automatically adjust the volume level over time, a “stereo spread” to expand the sound and "Limiter” to intercept peak levels at the end of the signal chain to prevent overmodulation.
  • FIG. 2 shows the method according to the invention, in which metadata stored in an audio file, not shown in FIG. 2, via at least one data line 12, 23 is supplied to the control module 10, which has a microcontroller.
  • audio signals of the audio file which is stored in a storage medium (not shown in FIG. 2), pass via a line 11 into an effects device 2, which is present in the form of an equalizer in the embodiment of the invention shown in FIG.
  • an effects device 2 which is present in the form of an equalizer in the embodiment of the invention shown in FIG.
  • a composite of effect devices, as shown in FIG. 1 can also be used.
  • the audio signal processed by the effect device 2 arrives at the audio output 9.
  • Both audio and metadata, ie data with accompanying information about the currently playing audio event are processed in the control module 10.
  • the control module 10 assigns specific settings of the effect device 2 via the control line 13 to certain metadata and activates them as soon as the audio event begins to play, since the metadata processed by the control module 10 is at the beginning of the audio file or not in FIG external metadata bank associated with the currently playing audio file.
  • Metadata is descriptive data about media files, such as audio and video files. They are used to describe the contents of these files (eg composer, length, genre) or to describe summaries of various file formats called container formats.
  • Figure 3 shows a container format AVI (Audio Video Interleave), which is provided with the reference numeral 14.
  • the metadata describes here as "header data" 15 the synchronized combination of a video 16 with an audio file 17.
  • the consumer or user activates only the higher-level AVI file, which carries image and sound together in its container and sound without complication to a jointly controlled file to combine.
  • the control module 10 assigns, as also illustrated in Figure 4, metadata certain predetermined settings of the effects device 2, which are stored under metadata identical names in a file 21 in a storage medium and can be retrieved.
  • the control module 10 converts metadata into control data for the effect device 2 from a freely configurable number and type of metadata, which enter the control module 10 via at least one data line 12, 22.
  • the control module 10 recognizes in the first function section 18 which combination of letters, numbers and characters is the currently read metadata. After recognizing the received metadata, these are compared with the data contained in the file 21 records and assigned in the function section 19.
  • the existing in a media or audio file audio data such as LPCM (Linear Pulse Code Modulation) in the audio format AIFF (Audio Interchange File Format) are fed directly to the effects device 2 and edited there.
  • LPCM Linear Pulse Code Modulation
  • AIFF Audio Interchange File Format
  • the effect device 2 may also have a freely configurable number and type of sound modules, all of which are preconfigurable via manual or automatic presets. These default and stored under individual combinations of letters, numbers and characters adjustments are then activated via the control module 10, so that the effect device 2 loads the activated preset and modulates the sound according to the activated preset.
  • the connected effect device as shown in FIG.
  • the 5 may also contain so-called master sound modules which adapt the entire sound system to all automatable sound modules.
  • This master parameter which is composed of the additional equalizer 2b and the intensity 2a, makes it possible to adapt the overall sound system to special events, such as listening via headphones as opposed to listening in the car.
  • the method according to the invention can be easily adapted and thereby used to a maximum of flexibility.
  • control module 10 does not have an undetermined number of effect devices 2, 2 a associated with an unspecified number of audio data sources fixed number of metadata sources, controls ( Figure 6).
  • an unidentified number of control modules 10, 10a controls an effects device 2 having an undefined number of audio data sources based on an undefined number of metadata sources (FIG. 7).
  • an undetermined number of control modules 10, 10a control effects devices 2, 2a with an unspecified number of audio data sources based on an undefined number of metadata sources. ( Figure 8).
  • the metadata source 24 of the control module 10 is a media file with integrated metadata (FIG. 9).
  • the metadata source of the control module 10 is a media-external file, ie separate from the media file 25 (audio file) (FIG. 10).
  • the metadata sources of the control module 10 are an external file 30 and the audio file 31.
  • the metadata from the audio file 31 is supplied via the line 26 to the control module 10 ( Figure 11).
  • Figure 12 shows a computer program 27.
  • the control module 10 recognizes the metadata of the media file activated in the playlist 28 and / or the metadata of external metadata banks associated with the media file 29. After recognition, the control module is the same 10 the metadata found with the records contained in the file 21.
  • control module 10 If the control module 10 is able to assign a control data record located in the file 21 and / or an external metadata bank 29 to the media file activated in the playlist 28, it sends the control command in the file to the effect device, which changes according to the control data contained in the control file , Finally, the audio outputs 9 of the effects device 2 are led out of the media player present as a present computer program 27, so that they can be connected to amplifiers / loudspeakers or further processed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und Gerät zur Verbesserung der Klangqualität einer Audiodatei in einem Audiogerät durch Veränderung eines Audiosignals mittels mindestens eines Effektgeräts (1, 2, 3, 4, 5, 6, 7). Hierzu schlägt die Erfindung folgende Verfahrensschritte vor: a) Zuordnung der Audiodatei zu Metadaten;. b) Vergleich der Metadaten mit Dateien, in denen Einstellungen des Effektgeräts (1 bis 7) gespeichert werden; c) Zuordnung der Metadaten zu einer Datei (21) aus Verfahrensschritt b) und d) Laden der Datei aus Verfahrensschritt c) und Aktivierung des Effektgeräts (1 bis 7), wobei das Effektgerät (1 bis 7) mit Werten aus der Datei in Verfahrensschritt c) eingestellt wird.

Description

Bezeichnung:
VERFAHREN UND GERÄT ZUR VERBESSERUNG DER KLANGQUALITÄT EINER AUDIODATEI
Die Erfindung betrifft ein Verfahren zur Verbesserung der Klangqualität einer Audiodatei in einem Audiogerät durch Veränderung eines Audiosignals mittels mindestens eines
Effektgeräts. Zudem betrifft die Erfindung ein Gerät zur Durchführung des Verfahrens.
Verfahren der eingangs genannten Art sind aus dem Stand der Technik bekannt und finden Verwendung, um den Klang eines Audio abspielenden Gerätes zu verbessern. Hierzu werden üblicherweise, einzeln oder als Einheit, Effektgeräte, wie Equalizer, Kompressoren, Limiter, sowie Hall- und Echogeräte eingesetzt. Ein Kompressor/Limiter beispielsweise ist ein Begrenzer, der das Überschreiten eines
Spitzenpegels verhindert, um Übersteuerungen vorzubeugen. Auch sind sie als Lautstärke- /Lautheitsregulierer von Instrumentengruppen/Gesang oder Sprache von Bedeutung. Hierzu werden Werte der Parameter Kanalfader, Threshold, Attack (falls vorhanden), Release, sowie Output Level (Ausgangspegel) eingestellt. Equalizer beispielsweise werden zur Korrektur, Entzerrung oder sonstigen Beeinflussung des Klangbildes verwendet und bestehen aus mehreren Filtern, mit denen der gesamte
Tonfrequenzbereich des Audiosignals bearbeitet werden kann. Dies geschieht beispielsweise über die spezifische Einstellung von Frequenzen und der Filtergüte.
Effektgeräte sind also immer mit spezifischen Einstellungen verbunden, um die Klangqualität von Audiosignalen, auch einer Audiodatei, zu beeinflussen bzw. zu verbessern.
Bei den herkömmlichen Verfahren wird dabei der Gesamtklang des Audio abspielenden Gerätes angepasst, d.h. die gewählten Einstellungen der Effektgeräte sollen für jegliches Audio gelten, das über das Audiogerät abgespielt wird. Hierzu ist das jeweilige Endgerät, welches durch den Konsumenten bzw. Benutzer einstellbar ist, von dem Hersteller des Audiogeräts in dem Hauptaudiokanalweg des betreffenden Gerätes positioniert. Hierbei ist es unerheblich, ob es sich um ein Audio abspielendes Gerät mit einem, zwei oder mehreren Kanälen handelt. Um den Konsumenten bzw. Benutzer des Audiogeräts einen breiteren
BESTÄTIGUNGSKOPIE Facettenreichtum von Klangeinstellungen anbieten zu können, verfügen herkömmliche Effektgeräte zumeist über Voreinstellungen, sogenannte Presets, d.h. bei einem
Kompressor/Limiter beispielsweise sind Werte der Parameter wie Kanalfader, Threshold, Attack , Release, sowie Output Level bereits eingestellt. Einige von diesen Voreinstellungen (Presets) sind schon vorprogrammiert, wie zum Beispiel Einstellungen mit Namen„Music", „Movie" oder„Game" und sollen somit für ein bestimmtes Klangbild stehen. Andere sind frei erstell- und speicherbar, sogenannte Benutzer-Voreinstellungen (User-Presets). Möchte der Konsument bzw. Benutzer zwischen den verschiedenen Einstellungen wechseln, muss er das Effektgerät anwählen und die Einstellung manuell verändern. Dies erfolgt entweder per Aktivierung einer gespeicherten Voreinstellung oder manueller Kreation einer neuen Einstellung.
Nach heutigem Stand der Technik ist es den Konsumenten bzw. Benutzern jedoch nicht möglich, eine individuelle und Audio-Ereignis abhängige, aber voll automatische
Klanganpassung zu realisieren und damit zu nutzen. Hierdurch ergibt sich der Nachteil, dass die für alle abzuspielenden Audio-Ereignisse gefundene Einstellungen innerhalb eines audioabspielenden Gerätes für einige Audio-Ereignisse probate Klänge erzeugen, für andere jedoch weniger oder gar keine. Beispielsweise passt eine verstärkte Bass-Frequenz auf einige Audio-Ereignisse hervorragend, auf andere aber, die mit von vornherein stark produziertem Bass, aber überhaupt nicht. Auch passt eine Sprachverstärkung in einem bestimmten
Kinotrailer hervorragend, in einem anderen gesanglichen Musikstück aber gar nicht, da der Sänger in diesem Fall verzerrt und überhöht klingt, da das Musikstück schon mit hohem Vokalpegel produziert wurde. Die Konsumenten bzw. Benutzer sehen sich also gezwungen, die Einstellungen bzw. Voreinstellungen des Effektgeräts häufiger manuell zu wechseln, um in den Genuss eines möglichst optimalen Hörerlebnisses zu kommen. Dies bedeutet für den Konsumenten bzw. Benutzer, dass bestimmte Audio-Ereignisse besser und andere schlechter klingen. Auch wirkt sich der Stand der Technik insofern negativ aus, als der Konsument bzw. Benutzer Einstellungen der in dem Audiogerät zur Verfügung gestellten Effektgeräte von vornherein nicht vornimmt. Es ist deshalb Aufgabe der vorliegenden Erfindung, diese Nachteile zu beseitigen.
Diese Aufgabe wird mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
Das erfindungsmäßige Verfahren ist durch folgende Schritte gekennzeichnet: a) Zuordnung der Audiodatei zu Metadaten; b) Vergleich der Metadaten mit Dateien, in denen Einstellungen des Effektgeräts gespeichert werden; c) Zuordnung der Metadaten zu einer Datei aus Verfahrensschritt b) und d) Laden der Datei aus Verfahrensschritt c) und Aktivierung des Effektgeräts, wobei das Effektgerät mit Werten aus der Datei in Verfahrensschritt c) eingestellt wird.
Kernidee der Erfindung ist es, möglichst für jede Audiodatei eine individuelle Klanganpassung zu erreichen, indem eine Audiodatei zunächst mithilfe von Metadaten erfasst und
aufgefunden wird, um dann die Audiosignale dieser Audiodatei mit probaten eingestellten Effektgeräten zu versehen. Metadaten sind inhaltsbeschreibende Daten zu Mediadateien, wie Audio- und Videodateien. Sie werden eingesetzt, um die Inhalte dieser Dateien zu beschreiben (z.B. Komponist, Länge, Genre) oder auch, um Zusammenfassungen verschiedener
Dateiformate zu sogenannten Containerformaten zu beschreiben. Metadaten sind entweder veränderbare und unveränderbare Bestandteile einer Mediadatei oder aber auch von
Mediadateien losgelöste Beschreibungen, die zum Beispiel in Metadatenbanken verwaltet werden. Sie sind auch dann mit spezifischen Mediadateien verknüpft, liegen aber extern und nicht innerhalb der Mediadatei selbst vor. Im Rahmen des erfindungsgemäßen Verfahrens können sowohl mediadateiinterne (zum Beispiel ID3 Tag) als auch mediadateiexterne (frei wählbare Metadatenkataloge) verwendet werden. Zudem können die Dateien, die
Einstellungen des Effektgeräts enthalten, auch in dem Speichermedium gespeichert sein, in dem die Audiodateien gespeichert sind, denen Metadateien zugeordnet und/oder zuordenbar sind.
Das erfindungsgemäße Verfahren löst das Problem der bisher nicht vorhandenen individuellen Klanganpassung. Der Vorteil der Erfindung ist es, dass es nun erstmals möglich ist, tatsächlich individuell abgespielte Audio-Ereignisse jeweils mit den für sie optimalen eingestellten Effektgeräten zu versehen. Der Konsument bzw. Benutzer muss also nicht mehr selbst eingreifen, sondern kommt in den automatisch auf das audioabspielende Gerät und/oder seine Abhörungsumgebung optimierten Genuss seiner Audio-Ereignisse. Durch eine Verteilung von automatisierten und manuell einstellbaren Effektgeräten ist es darüber hinaus möglich, dem Konsumenten bzw. Benutzer eines Audiogeräts Eingriffsmöglichkeiten in den Klang zu gestatten, damit er ihn bei Bedarf weiter individualisieren kann. Gleiches gilt für Fachleute, wie zum Beispiel Audio-Ingenieure, die das erfindungsgemäße Verfahren an bestimmte audioabspielende Geräte oder Umgebungen gezielt anpassen möchten. Dabei wird das erfindungsgemäße Verfahren immer präziser, je mehr Informationen, d.h. je mehr Metadaten über die abzuspielenden Audiodateien vorliegen und ausgewertet werden können.
Vorteilhafterweise kann durch das erfindungsgemäße Verfahren die individuelle Optimierung von Klangereignissen aller Epochen, Genres und Stilrichtungen erfolgen. Erstmals klingen auch Audio-Ereignisse unterschiedlicher Epochen, die hintereinander im Mix gespielt werden, homogen, da beispielsweise niederwertige Klangqualitäten älterer Aufnahmen durch das erfindungsgemäße Verfahren individuell an den zeitgemäßen Klang angepasst werden können.
Eine vorteilhafte Weiterbildung der Erfindung sieht vor, dass die Metadaten in der Audiodatei gespeichert werden. Eine praktikable Variante der Erfindung sieht vor, dass die Metadaten in einer externen Datenbank gespeichert werden. Die letztgenannte Variante der Erfindung hat den Vorteil, dass auf große Anbieter von Metadaten und deren Repertoire von musikalischen Stücken zurückgegriffen werden kann.
Zweckmäßigerweise werden die Dateien aus Verfahrensschritt b) in einer Datenbank des Audiogeräts oder in einer Cloud gespeichert. Hierdurch können vorteilhafterweise große Bestände von Dateien zentral gespeichert werden, die die eingestellten Effektgeräte beinhalten. Bei der Datenbank kann es sich auch um eine externe Datenbank handeln, d.h. sie kann sich außerhalb des Audiogeräts befinden. Große Bestände von Dateien haben wiederum den Vorteil, dass eine weitere Differenzierung von eingestellten Effektgeräten und somit auch der Audiodateien vorgenommen wird,
Eine weitere vorteilhafte Ausgestaltung der Erfindung sieht vor, dass das durch das
Effektgerät veränderte Audiosignal an Audioausgänge des Geräts weitergeleitet wird.
Hierdurch ist gewährleistet, dass das Audiogerät mit zusätzlichen Lautsprechern gekoppelt werden kann, wodurch das Klangerlebnis noch weiter gesteigert werden kann.
Ein Gerät zur Durchführung des Verfahrens ist Gegenstand von Anspruch 7, wobei es aufweist:
- ein Speichermedium, in dem die Audiodateien gespeichert sind, denen Metadateien zugeordnet und/oder zuordenbar sind;
- mindestens ein Effektgerät;
- ein weiteres Speichermedium, in dem Dateien gespeichert sind, die Einstellungen des Effektgeräts enthalten und
- ein Steuermodul, das dem Speichermedium, dem Effektgerät sowie dem weiteren
Speichermedium zugeordnet ist.
Vorzugsweise weist das Geräte Audioausgänge und/oder Audioeingänge auf. Auch kann es zusätzlich Videoeingänge und/oder Videoausgänge sowie weitere Steuerein- und ausgänge zur Steuerung externer Geräte, wie z.B. Lichtquellen, aufweisen.
Ein Computerprogramm, das in ein Gerät gemäß einem der Ansprüche 7 bis 10 implementiert ist, ist Gegenstand von Anspruch 13, wobei das Computerprogramm einen Algorithmus enthält, der von einem Prozessor des Geräts abgearbeitet wird, wobei der Algorithmus das Verfahren gemäß einem der Ansprüche 1 bis 6 abarbeitet. Das Computerprogramm kann dabei auch in Form eines Mediaplayers vorliegen. Im Folgenden wird die Erfindung anhand der Zeichnungen näher erläutert. Es zeigt in schematischer Darstellung:
Fig. 1 ein Blockdiagramm mit mehreren Effektgeräten als Einheit;,
Fig. 2 das in einem Blockdiagramm dargestellte erfindungsgemäße Verfahren;
Fig. 3 in einem Blockdiagramm die Komponenten eines Containerformats gemäß der
Erfindung;
Fig. 4 das in einem Blockdiagramm zusätzlich dargestellte Ablaufschema in einem
Steuermodul gemäß der Erfindung;
Fig. 5 in einem Blockdiagramm eine erweiterte Einheit von Effektgeräten;
Fig. 6 bis 11 weitere in einem Blockdiagramm dargestellte Ausführungsformen der
Erfindung und
Fig.12 in einem Blockdiagramm die Komponenten eines Computerprogramms in
Gestalt eines Mediaplayers gemäß der Erfindu ng.
Figur 1 zeigt in einem Blockdiagramm eine Anzahl von Effektgeräten 1, 2, 3, 4, 5, 6, 7, die miteinander verbunden sind und zusammen über einen Audioeingang 8 und einen
Audioausgang 9 verfügen. Diese Effektgeräte werden eingesetzt, um das Audiosignal einer in Figur 1 nicht gezeigten Audiodatei zu verändern.
Bei den Effektgeräten 1, 2, 3, 4, 5, 6, 7 handelt es um einen „Bypass" zum Aktivieren/Deaktivieren der gesamten Einheit, einen „Equalizer" zum Justieren unterschiedlicher Frequenzbänder, einen„Speech Enhancer" zum Hervorheben von Stimmen, z.B. innerhalb von Filmen, eine „Basss/Höhenanhebung" zum Anheben oder Absenken frei justierbarer Bass- und Höhenfrequenzen, einen „Leveller" zur automatischen Anpassung des Lautstärkepegels im Zeitverlauf, eine „Stereo Spread" zum Erweitern des Klangbildes und „Limiter", um Spitzenpegel am Ende der Signalkette abzufangen, damit keine Übersteuerungen auftreten können.
Figur 2 zeigt das erfindungsgemäßen Verfahren, bei dem über mindestens eine Datenleitung 12, 23 Metadaten, die in einer in Figur 2 nicht gezeigten Audiodatei gespeichert sind, dem Steuermodul 10, das einen Microcontroller aufweist, zugeführt werden. Zudem gelangen Audiosignale der Audiodatei, die in einem in Figur 2 nicht gezeigten Speichermedium gespeichert ist, über eine Leitung 11 in ein Effektgerät 2, das in der in Figur 2 gezeigten Ausführungsform der Erfindung in Form eines Equalizers vorliegt. Statt des einzelnen Effektgeräts 2 kann auch ein Verbund von Effektgeräten, wie in Figur 1 gezeigt, eingesetzt werden. Das durch das Effektgerät 2 bearbeitete Audiosignal gelangt zu dem Audioausgang 9. Sowohl Audio- als auch Metadaten, d.h. Daten mit begleitenden Informationen zu dem gerade aktiv spielenden Audio-Ereignisses, werden in dem Steuermodul 10 verarbeitet. Das Steuermodul 10 ordnet über die Steuerleitung 13 bestimmten Metadaten bestimmte Einstellungen des Effektgeräts 2 zu und aktiviert diese, sobald das Audio-Ereignis zu spielen beginnt, da sich die von dem Steuermodul 10 verarbeiteten Metadaten am Anfang der Audiodatei befinden oder von einer in Figur 2 nicht gezeigten externen Metadatenbank zugeladen werden, die mit der aktuell spielenden Audiodatei verknüpft ist. Metadaten sind inhaltsbeschreibende Daten zu Mediadateien, wie Audio- und Videodateien. Sie werden eingesetzt, um die Inhalte dieser Dateien zu beschreiben (z.B. Komponist, Länge, Genre) oder auch, um Zusammenfassungen verschiedener Dateiformate zu sogenannten Containerformaten zu beschreiben. Figur 3 zeigt ein Containerformat AVI (Audio Video Interleave), das mit dem Bezugszeichen 14 versehen ist. Die Metadaten beschreiben hier als „Kopfdaten" 15 die synchronisierte Kombination einer Video- 16 mit einer Audiodatei 17. Der Konsument bzw. Benutzer aktiviert nur die übergeordnete AVI-Datei, die in ihrem Container Bild und Ton gemeinsam trägt. Dadurch wird es möglich, Bild und Ton komplikationslos zu einer gemeinsam gesteuerten Datei zu kombinieren. Das Steuermodul 10 ordnet, wie auch Figur 4 verdeutlicht, Metadaten bestimmten vorher festgelegten Einstellungen des Effektgerätes 2 zu, die unter metadatenidentischen Bezeichnungen in einer Datei 21 in einem Speichermedium abgelegt sind und abgerufen werden können. Hierzu wandelt das Steuermodul 10 aus einer frei konfigurierbaren Anzahl und Art von Metadaten, die über mindestens eine Datenleitung 12, 22 in das Steuermodul 10 gelangen, Metadaten in Steuerdaten für das Effektgerät 2 um. Das Steuermodul 10 erkennt in dem ersten Funktionsabschnitt 18, um welche Kombination aus Buchstaben, Zahlen und Zeichen es sich bei den aktuell eingelesenen Metadaten handelt. Nach dem Erkennen der eingegangenen Metadaten, werden diese mit den in der Datei 21 befindlichen Datensätzen abgeglichen und in dem Funktionsabschnitt 19 zugeordnet. In der Datei 21 sind Buchstaben-, Zahlen-und Zeichenkombinationen hinterlegt, die direkt mit Voreinstellungen des Effektgeräts 2 verknüpft sind. Ist die Buchstaben-,Zahlen-, Zeichenkombination einer Metadatei identisch mit der Bezeichnung eines in der Datei 21 befindlichen Datensatz zur Steuerung des Effektgerätes 2, wird das Effektgerät 2 durch die Funktionsabschnitt 20 des Steuermoduls 10 aktiviert und ausgelesen. Das Steuermodul 10 sendet dem Effektgerät 2 einen Befehl zum Laden des zugeordneten Datensatzes. Nach diesem Ladevorgang hat das Effektgerät 2 seine Einstellungen, die unter der spezifisch erkannten und aktivierten Buchstaben-, Zahlen-, und Zeichenkombination abgespeichert worden war, aktiviert und entsprechend umgestellt. Je mehr Metadaten von dem Steuermodul 10 erkannt, ausgelesen und aktiviert werden können, desto größer wird das Repertoire der individuellen und automatisch ausgelösten Klanganpassungen bezogen auf konkrete Klangereignisse. Werden keine Metadaten einer Mediadatei erkannt, aktiviert das Steuermodul 10 automatisch eine festlegte Grundeinstellung, so dass es zu keinen Ausfällen der Steuerung kommen kann
Die in einer Media- oder Audiodatei vorhandenen Audiodaten, wie zum Beispiel LPCM (Linear Pulse Code Modulation) bei dem Audioformat AIFF (Audio Interchange File Format) werden dem Effektgerät 2 direkt zugeführt und dort bearbeitet. Am Audioausgang des Effektgerätes 2 liegt das klangmodulierte Audio an und wird der weiteren Bearbeitung zugeführt. Das Effektgerät 2 kann auch über eine frei konfigurierbare Anzahl und Art an Klangmodulen verfügen, die allesamt über manuelle oder automatische Voreinstellungen vorkonfigurierbar sind. Diese voreingestellten und unter individuellen Kombinationen aus Buchstaben, Zahlen und Zeichen abgespeicherten Justierungen werden dann über das Steuermodul 10 aktiviert, so dass das Effektgerät 2 die aktivierte Voreinstellung lädt und den Klang entsprechend der aktivierten Voreinstellung moduliert. Neben den automatisch aktivierbaren Parametern, kann das verbundene Effektgerät, wie aus Figur 5 hervorgeht, auch sogenannte Master-Klangmodule enthalten, die das gesamte Klangsystem über alle automatisierbaren Klangmodule hinweg, anpassen. Durch diesen Master-Parameter, der sich aus dem zusätzlichen Equalizer 2b und der Intensität 2a zusammensetzt, wird es möglich, das Gesamtklangsystem an besondere Begebenheiten, wie da Hören über Kopfhörer im Gegensatz zum Hören im Auto anzupassen. Durch diese Kombination aus automatisch und manuell justierbaren Parametern kann das erfindungsgemäße Verfahren leicht angepasst und dadurch maximal flexibel eingesetzt werden.
Wie aus den Ausführungsformen der Erfindung gemäß den Figuren 6 bis 11 hervorgeht, ist im Rahmen der Erfindung auch vorgesehen, dass das Steuermodul 10 eine nicht festgelegte Anzahl von Effektgeräten 2, 2a, die einer nicht festgelegten Anzahl von Audiodatenquellen zugeordnet sind, auf Basis einer nicht festgelegten Anzahl von Metadatenquellen, steuert (Figur 6). Zudem steuert in einer weiteren Ausführungsform der Erfindung eine nicht festgelegte Anzahl von Steuermodulen 10, 10a ein Effektgerät 2 mit einer nicht festgelegten Anzahl von Audiodatenquellen und zwar auf Basis einer nicht festgelegten Anzahl von Metadatenquellen (Figur 7). Wie die weiteren Ausführungsformen der Erfindung zeigen, steuert eine nicht festgelegte Anzahl von Steuermodulen 10, 10a Effektgeräte 2, 2a mit einer nicht festgelegten Anzahl von Audiodatenquellen auf Basis einer nicht festgelegten Anzahl von Metadatenquellen. (Figur 8). Alternativ ist die Metadatenquelle 24 des Steuermoduls 10 dabei eine Mediadatei mit integrierten Metadaten (Figur 9) Als weitere Variante ist die Metadatenquelle des Steuermoduls 10 eine mediaexterne Datei, d. h. getrennt von der Mediadatei 25 (Audiodatei) (Figur 10). Schließlich sind die Metadatenquellen des Steuermoduls 10 eine externe Datei 30 und die Audiodatei 31. Hierbei werden die Metadaten aus der Audiodatei 31 über die Leitung 26 dem Steuermodul 10 zugeführt (Figur 11).
Figur 12 zeigt ein Computerprogramm 27. Wird eine Audio- oder AudioVideodatei in der Playlist 28 aktiviert, erkennt das Steuerungsmodul 10 die Metadaten der in der Playlist 28 aktivierten Mediadatei oder/und die der Mediadatei zugehörigen Metadaten externer Metadatenbanken 29. Nach der Erkennung gleicht das Steuermodul 10 die gefundenen Metadaten mit den in der Datei 21 enthaltenen Datensätzen ab. Kann das Steuermodul 10 der in der Playlist 28 aktivierten Mediadatei einen in der Datei 21 oder/und einer externen Metadatenbank 29 befindlichen Steuerdatensatz zuordnen, schickt es den in der Datei befindlichen Steuerbefehl an das Effektgerät, der sich entsprechend den in der Steuerdatei befindlichen Steuerdaten, umstellt. Schließlich werden die Audioausgänge 9 des Effektgerätes 2 aus dem als vorliegenden Computerprogramm 27 vorliegenden Mediaplayer nach außen geführt, so dass sie mit Verstärkern/Lautsprechern verbunden oder weiter bearbeitet werden können.
015 Bezugszeichenliste
1 Effektgerät
2 Effektgerät
2a Equalizer
3 Effektgerät
4 Effektgerät
5 Effektgerät
6 Effektgerät
7 Effektgerät
8 Audioeingang
9 Audioausgang
10 Steuermodul
10a Steuermodul
11 Leitung
12 Datenleitung
13 Steuerleitung
14 Containerformat
15 Kopfdaten
16 Videodaten
17 Audiodatei
18 Funktionsabschnitt
19 Funktionsabschnitt
20 Funktionsabschnitt
21 Datei
22 Datenleitung
23 Datenleitung
24 Metadatenquelle
25 Mediadatei
26 Leitung
27 Computerprogramm
28 Playlist
29 29 Metadatenbank
30 externe Datei
31 Audiodatei

Claims

Patentansprüche:
Verfahren zur Verbesserung der Klangqualität einer Audiodatei in einem Audiogerät durch Veränderung eines Audiosignals mittels mindestens eines Effektgeräts (1, 2, 3, 4, 5, 6, 7) gekennzeichnet durch folgende Verfahrensschritte: a) Zuordnung der Audiodatei zu Metadaten; b) Vergleich der Metadaten mit Dateien, in denen Einstellungen des
Effektgeräts (1 bis 7) gespeichert werden; c) Zuordnung der Metadaten zu einer Datei (21) aus Verfahrensschritt b) und d) Laden der Datei (21) aus Verfahrensschritt c) und Aktivierung des Effektgeräts (1 bis 7), wobei das Effektgerät (1 bis 7) mit Werten aus der Datei (21) in Verfahrensschritt c) eingestellt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Metadaten in der
Audiodatei gespeichert werden.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Metadaten in einer externen Datenbank (24a, 30) gespeichert werden.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass ein
Steuermodul (10) des Geräts die Verfahrensschritte b) bis d) steuert.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Dateien aus Verfahrensschritt b) in einer Datenbank des Geräts oder in einer Cloud gespeichert werden.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das durch das Effektgerät (1 bis 7) veränderte Audiosignal an Audioausgänge (9) des Geräts weitergeleitet werden.
7. Gerät zur Durchführung des Verfahrens gemäß einem der Ansprüche 1 bis 6, aufweisend: - ein Speichermedium, in dem die Audiodateien gespeichert sind, denen Metadateien zugeordnet und/oder zuordenbar sind;
- mindestens ein Effektgerät ( 1 bis 7);
- ein weiteres Speichermedium, in dem Dateien (21) gespeichert sind, die Einstellungen des Effektgeräts ( 1 bis 7) enthalten und - ein Steuermodul (10) , das dem Speichermedium, dem Effektgerät ( 1 bis 7) sowie dem weiteren Speichermedium zugeordnet ist.
8. Gerät nach Anspruch 7, dadurch gekennzeichnet, dass es Audioausgänge aufweist.
9. Gerät nach einem der Ansprüche 7 oder 8, dadurch gekennzeichnet, dass.es
Audioeingänge aufweist.
10. Gerät nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass es Videoeingänge und/oder Videoausgänge aufweist.
11. Gerät nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, dass die Metadaten in der Audiodatei gespeichert sind.
12. Gerät nach einem der Ansprüche 7 bis 11, dadurch gekennzeichnet, dass die Metadaten in einer externen Datenbank (24a, 30) gespeichert sind.
13. Computerprogramm (27), das in ein Gerät gemäß einem der Ansprüche 7 bis 12
implementiert ist, dadurch gekennzeichnet, dass das Computerprogramm einen Algorithmus enthält, der von einem Prozessor des Geräts abgearbeitet wird, wobei der Algorithmus das Verfahren gemäß einem der Ansprüche 1 bis 6 abgearbeitet.
14. Computerprogramm nach Anspruch 13, dadurch gekennzeichnet, dass es in Form eines Mediaplayers vorliegt.
EP16738056.7A 2015-04-21 2016-04-18 Verfahren und gerät zur verbesserung der klangqualität einer audiodatei Ceased EP3286933A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015005007.9A DE102015005007B4 (de) 2015-04-21 2015-04-21 Verfahren zur Verbesserung der Klangqualität einer Audiodatei
PCT/DE2016/000156 WO2016169541A1 (de) 2015-04-21 2016-04-18 Verfahren und gerät zur verbesserung der klangqualität einer audiodatei

Publications (1)

Publication Number Publication Date
EP3286933A1 true EP3286933A1 (de) 2018-02-28

Family

ID=55913782

Family Applications (1)

Application Number Title Priority Date Filing Date
EP16738056.7A Ceased EP3286933A1 (de) 2015-04-21 2016-04-18 Verfahren und gerät zur verbesserung der klangqualität einer audiodatei

Country Status (5)

Country Link
US (1) US10998992B2 (de)
EP (1) EP3286933A1 (de)
JP (1) JP2018518097A (de)
DE (2) DE102015005007B4 (de)
WO (1) WO2016169541A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9380383B2 (en) 2013-09-06 2016-06-28 Gracenote, Inc. Modifying playback of content using pre-processed profile information
CN110610702B (zh) * 2018-06-15 2022-06-24 惠州迪芬尼声学科技股份有限公司 以自然语言声控均衡器的方法及计算器可读存储介质
DE102019201615A1 (de) * 2019-02-07 2020-08-13 Volkswagen Aktiengesellschaft Verfahren zur Anpassung der Klangcharakteristik bei der Wiedergabe aufeinander folgender Audiostücke
EP4115628A1 (de) * 2020-03-06 2023-01-11 algoriddim GmbH Wiedergabeübergang von der ersten zur zweiten tonspur mit übergangsfunktionen der zerlegten signale

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6704421B1 (en) * 1997-07-24 2004-03-09 Ati Technologies, Inc. Automatic multichannel equalization control system for a multimedia computer
US20020159607A1 (en) * 2001-04-26 2002-10-31 Ford Jeremy M. Method for using source content information to automatically optimize audio signal
BR0212418A (pt) * 2001-09-11 2004-08-03 Thomson Licensing Sa Método e aparelho para ativação de modo de equalização automática
ATE430447T1 (de) * 2003-06-20 2009-05-15 Harman Becker Automotive Sys Tonsignal-bearbeitungsvorrichtung und tonsignal- bearbeitungsverfahren mit automatischer klangspektrumauswahl
US20050251273A1 (en) * 2004-05-05 2005-11-10 Motorola, Inc. Dynamic audio control circuit and method
US20060046685A1 (en) * 2004-08-31 2006-03-02 Hjelmeland Robert W System and process for automatically adjusting the acoustic settings to best fit an audio system
US7774078B2 (en) * 2005-09-16 2010-08-10 Sony Corporation Method and apparatus for audio data analysis in an audio player
US20090047993A1 (en) * 2007-08-14 2009-02-19 Vasa Yojak H Method of using music metadata to save music listening preferences
US20150207481A1 (en) * 2007-11-16 2015-07-23 Adobe Systems Incorporated Genre dependent audio level control
KR100914418B1 (ko) * 2007-12-17 2009-08-31 한국전자통신연구원 실감형 멀티미디어 재생 시스템 및 방법
EP2083584B1 (de) 2008-01-23 2010-09-15 LG Electronics Inc. Verfahren und Vorrichtung zur Verarbeitung eines Audiosignals
US20090290725A1 (en) * 2008-05-22 2009-11-26 Apple Inc. Automatic equalizer adjustment setting for playback of media assets
US20130245798A1 (en) * 2010-04-15 2013-09-19 Sonos, Inc. Method and apparatus for signal processing based upon characteristics of music
CN102486920A (zh) 2010-12-06 2012-06-06 索尼公司 音频事件检测方法和装置
US8856272B2 (en) * 2012-01-08 2014-10-07 Harman International Industries, Incorporated Cloud hosted audio rendering based upon device and environment profiles
US20130178964A1 (en) * 2012-01-08 2013-07-11 Oliver Bergmann Audio system with adaptable audio output
EP2770498A1 (de) 2013-02-26 2014-08-27 Harman International Industries Ltd. Verfahren zum Abrufen von Verarbeitungseigenschaften und Audioverarbeitungssystem
WO2015038522A1 (en) * 2013-09-12 2015-03-19 Dolby Laboratories Licensing Corporation Loudness adjustment for downmixed audio content
CN104240738B (zh) 2014-08-28 2018-05-11 杰发科技(合肥)有限公司 一种音效设置方法及电子装置
US9965685B2 (en) 2015-06-12 2018-05-08 Google Llc Method and system for detecting an audio event for smart home devices

Also Published As

Publication number Publication date
DE102015005007A1 (de) 2016-10-27
US20180145779A1 (en) 2018-05-24
US10998992B2 (en) 2021-05-04
WO2016169541A1 (de) 2016-10-27
DE202016000083U1 (de) 2016-04-20
DE102015005007B4 (de) 2017-12-14
JP2018518097A (ja) 2018-07-05

Similar Documents

Publication Publication Date Title
DE3752034T2 (de) Stereoeffektverbesserungssystem
DE102015005007B4 (de) Verfahren zur Verbesserung der Klangqualität einer Audiodatei
DE112010005050T5 (de) Managementverfahren und Managementeinrichtung für Audioanwendungskollision
DE102019200956A1 (de) Signalverarbeitungseinrichtung, System und Verfahren zur Verarbeitung von Audiosignalen
EP1005252A2 (de) Wiedergabegerät für Audiosignalträger und Verfahren zur Beeinflussung einer Klangcharakteristik eines wiederzugebenden Audiosignals von einem Audiosignalträger
DE102017111443A1 (de) Autiosystem und Verfahren zum Auswählen einer Inhaltsauswahl und/oder zum Einstellen einer Soundeinstellung
EP0972340B1 (de) Verfahren zur automatischen lautstärkesteuerung in einer audiosignal-wiedergabevorrichtung und anordnung dazu
DE102013218291A1 (de) Verfahren zur automatischen Lautstärkeregelung für Lieblingssongs bei der Wiedergabe
Just MUSIKANALYSE ALS MEDIENDISPOSITIVANALYSE-PERSPEKTIVEN EINER NEUORIENTIERUNG FÜR DIE POPMUSIKFORSCHUNG.
DE112020005717T5 (de) Erkennung von live-sprache
DE102005060036B4 (de) Verfahren und Gerät zur Audiosignalverarbeitung
EP3118993B1 (de) Verfahren zur lautstärkeanpassung von audiosignalen unterschiedlicher lautstärke
DE973570C (de) Einrichtung zur plastischen Wiedergabe elektroakustischer Darbietungen
DE102017218483A1 (de) Verfahren zur einstellung von parametern zur individuellen anpassung eines audiosignals
DE102010003306A1 (de) Automatische Lautstärkeregelung unter Berücksichtigung verschiedener Audiosignale
EP3190700A1 (de) Verfahren und vorrichtung zur verarbeitung von audio-signalen
DE102014222917A1 (de) Lautstärkeregelung für individuelle Entertainmentwiedergabe
DE102012210360A1 (de) Verfahren und Schaltungsanordnung zum Steuern der Betriebsart eines Kraftfahrzeugs
WO2010142361A1 (de) Verfahren zum organisieren der wiedergabe von medienstücken
DE102022129541A1 (de) Verfahren zur dynamischen Anpassung einer Lautstärke in einem Online-Meeting
DE102007051402A1 (de) Lautsprechersystem und Verfahren zum Betreiben des Lautsprechersystems
EP1709640A1 (de) Verfahren und vorrichtung zur steuerung eines tonfolge gekoppelten bildfolgeablaufs sowie zugeh riges programm
EP1543520A1 (de) Verfahren und gerät zum aufzeichnen und/oder wiedergeben von daten
DE102013009569A1 (de) Verfahren zum Beschaffen einer Wiedergabeliste für eine Audiowiedergabe in einem Kraftfahrzeug
DE102019201615A1 (de) Verfahren zur Anpassung der Klangcharakteristik bei der Wiedergabe aufeinander folgender Audiostücke

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20171117

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

TPAC Observations by third parties

Free format text: ORIGINAL CODE: EPIDOSNTIPA

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20181112

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20201110