DE102016107799B3 - Verfahren zur Verarbeitung eines FM-Stereosignals - Google Patents

Verfahren zur Verarbeitung eines FM-Stereosignals Download PDF

Info

Publication number
DE102016107799B3
DE102016107799B3 DE102016107799.2A DE102016107799A DE102016107799B3 DE 102016107799 B3 DE102016107799 B3 DE 102016107799B3 DE 102016107799 A DE102016107799 A DE 102016107799A DE 102016107799 B3 DE102016107799 B3 DE 102016107799B3
Authority
DE
Germany
Prior art keywords
signal
sum
spectrum
difference signal
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016107799.2A
Other languages
English (en)
Inventor
Patentinhaber gleich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102016107799.2A priority Critical patent/DE102016107799B3/de
Priority to PCT/EP2017/059860 priority patent/WO2017186756A1/de
Priority to CA3021918A priority patent/CA3021918C/en
Priority to US15/499,174 priority patent/US10003422B2/en
Application granted granted Critical
Publication of DE102016107799B3 publication Critical patent/DE102016107799B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/44Arrangements characterised by circuits or components specially adapted for broadcast
    • H04H20/46Arrangements characterised by circuits or components specially adapted for broadcast specially adapted for broadcast systems covered by groups H04H20/53-H04H20/95
    • H04H20/47Arrangements characterised by circuits or components specially adapted for broadcast specially adapted for broadcast systems covered by groups H04H20/53-H04H20/95 specially adapted for stereophonic broadcast systems
    • H04H20/48Arrangements characterised by circuits or components specially adapted for broadcast specially adapted for broadcast systems covered by groups H04H20/53-H04H20/95 specially adapted for stereophonic broadcast systems for FM stereophonic broadcast systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/06Receivers
    • H04B1/16Circuits
    • H04B1/1646Circuits adapted for the reception of stereophonic signals
    • H04B1/1661Reduction of noise by manipulation of the baseband composite stereophonic signal or the decoded left and right channels
    • H04B1/1669Reduction of noise by manipulation of the baseband composite stereophonic signal or the decoded left and right channels of the demodulated composite stereo signal
    • H04B1/1676Reduction of noise by manipulation of the baseband composite stereophonic signal or the decoded left and right channels of the demodulated composite stereo signal of the sum or difference signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/86Arrangements characterised by the broadcast information itself
    • H04H20/88Stereophonic broadcast systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H40/00Arrangements specially adapted for receiving broadcast information
    • H04H40/18Arrangements characterised by circuits or components specially adapted for receiving
    • H04H40/27Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95
    • H04H40/36Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95 specially adapted for stereophonic broadcast receiving
    • H04H40/45Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95 specially adapted for stereophonic broadcast receiving for FM stereophonic broadcast systems receiving
    • H04H40/72Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95 specially adapted for stereophonic broadcast receiving for FM stereophonic broadcast systems receiving for noise suppression

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Stereo-Broadcasting Methods (AREA)
  • Stereophonic System (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Verarbeitung eines FM-Stereosignals. Das FM-Stereosignal wird digitalisiert und in sich überlappende Blöcke unterteilt, welche in den Frequenzbereich transformiert werden. Einzelne Spektrallinien des Differenzsignals werden abgesenkt, falls diese einen höheren Betrag haben als die jeweiligen Spektrallinien des Summensignals. Sodann werden Summen- und Differenzsignal rücktransformiert.

Description

  • Gebiet der Erfindung
  • Die Erfindung betrifft ein Verfahren zur Verarbeitung eines analogen FM-Stereosignals, welches einer digitalen Signalverarbeitung unterzogen wird.
  • Hintergrund der Erfindung
  • Das Dokument US 2002/0 054 683 A1 zeigt eine Vorrichtung und ein Verfahren zur Reduzierung von Rauschen in einem Stereosignal eines FM-Empfängers, bei welchem das Summen- und Differenzsignal charakterisiert wird und eine frequenzselektive Mischung von Stereo zu Mono durchgeführt wird.
  • Das Dokument US 2009/0 203 344 A1 zeigt ein Verfahren zur Abschwächung von Rauschen in einem Stereosignal, bei welchem ein Mischen von Stereo auf Mono durchgeführt wird, um Störungen im Ausgangssignal zu unterdrücken.
  • Das in ITU-R BS.450 beschriebene Pilotton-Verfahren wird zur Übertragung von Stereosignalen über UKW-Sender eingesetzt. Es sieht vor, die beiden Audiokanäle Links (L) und Rechts (R) zunächst einer Preemphase (Höhenanhebung) zu unterwerfen und anschließend zu matrizieren, so dass ein Summensignal (L + R)/2 und ein Differenzsignal (L – R)/2 erzeugt wird. Das Summensignal wird im Basisband bis 15 kHz übertragen. Das Differenzsignal wird in Doppelseitenbandmodulation trägerfrequent übertragen, wobei der Träger mit einer Frequenz von 38 kHz unterdrückt wird. Damit der Empfänger das modulierte Differenzsignal demodulieren kann, wird ein Pilottonsignal mit einer Frequenz von 19 kHz übertragen, das der halben Trägerfrequenz entspricht. Das Signalgemisch aus Summen-, Differenz- und Pilottonsignal wird als Multiplexsignal (MPX) bezeichnet. Das MPX-Signal und ggfs. Zusatzsignale, wie RDS, modulieren in einem UKW-Sender ein hochfrequentes Trägersignal in seiner Frequenz. Die hochfrequente Ausstrahlung erfolgt über eine Antenne.
  • Ein UKW-Empfänger nach dem Superheterodyne-Prinzip empfängt das hochfrequente Signal über eine Antenne. Das radiofrequente Signal (RF-Signal) der Antenne wird verstärkt, in der Frequenz vorselektiert und in einen Zwischenfrequenz(ZF)-Bereich verschoben. Ein Zwischenfrequenzfilter lässt den Großteil der Nutzbandbreite passieren und filtert Nachbarkanalstörungen weitgehend aus. Durch eine nachfolgende Amplitudenbegrenzung des Zwischenfrequenzsignals in einem Begrenzer (limiter) werden Amplitudenschwankungen beim Empfang des RF- bzw. ZF-Signals unterdrückt.
  • Anschließend findet eine Frequenzdemodulation statt, die das MPX-Signal liefert. Dieses wird einem Stereodecoder zugeführt
  • Ein Blockschaltbild eines MPX-Stereodecoders ist in 1 dargestellt.
  • Ein Mono-Empfänger wertet nur das Summensignal (L + R)/2 im Basisband aus, das sich bis 15 kHz erstreckt. In einem Stereo-Empfänger gewinnt ein Stereodecoder die Signale L und R aus dem MPX-Signal wieder.
  • Im Stereodecoder findet eine Frequenzverdopplung des Pilottonsignals und somit eine Rückgewinnung der Trägerfrequenz 38 kHz des Differenzsignals statt. Der Stereodecoder demoduliert das doppelseitenbandmodulierte Differenzsignal und gewinnt somit das Signal (L – R)/2 wieder. Das Summensignal (L + R)/2 wird direkt aus dem Basisband wiedergewonnen. Durch Dematrizierung, d. h. Addition bzw. Subtraktion dieser beiden Signale, gewinnt der Decoder die preemphasebehafteten Signale L und R wieder. Diese werden abschließend einer Deemphase unterworfen, die die sendeseitige Preemphase kompensiert. Somit stehen die ursprünglichen Signale L und R zur Verfügung.
  • Andere Decodiermethoden, wie z. B. der Schalter-Decoder unterscheiden sich von der oben abgebildeten Signalverarbeitung bezüglich Demodulation und Dematrizierung, lassen sich aber signaltheoretisch in das oben abgebildete Modell überführen.
  • Das Verhalten von Empfängern nach bisherigem Stand der Technik zeichnet sich wie folgt aus.
  • Zur Erläuterung wird das FM-Pilottonsystem bezüglich Rauschstörungen theoretisch betrachtet.
  • Die konstante spektrale Rauschleistungsdichte in der RF- bzw. ZF-Ebene wird durch den FM-Demodulationsprozess in eine Spannungs-Dichtefunktion mit frequenzproportionalem Verlauf umgewandelt.
  • Das MPX-Spektrum und die Rauschspannungsdichte sind in 2 dargestellt.
  • Aus 2 ist ersichtlich, dass die Rauschspannungsdichte und damit die Störungen im Bereich des Differenzsignals zwischen 23 und 53 kHz deutlich höher liegen als im Bereich des Summensignals, das nur bis 15 kHz reicht.
  • Der nach der FM-Demodulation vorherrschende monaurale Audiosignal-Rauschabstand SNRFM mit Bezug auf +/– 75 kHz Frequenzhub ohne Berücksichtigung einer Pre-/Deemphase kann näherungsweise durch folgende Formel beschrieben werden: SNRFM = 3β2(β + 1) CNR mit dem radiofrequenten Störabstand
  • CNR
    = A2/(2BTN0)
    β
    ist der Modulationsindex der FM
    A
    ist die Amplitude des Trägersignals
    N0/2
    ist die zweiseitige Rauschleistungsdichte bei weißem Rauschen.
    BT
    ist die radiofrequente Übertragungsbandbreite.
    Sie kann mit der Carson-Formel abgeschätzt werden mit BT = 2(β + 1)W
    W
    ist die Audiosignal-Bandbreite
  • Aus der Carson-Formel ergibt sich β + 1 = BT/2W Eingesetzt in die Formel für SNRFM ergibt für β >> 1 SNRFM = 3CNR(BT/2W)3
  • O. g. Formeln gelten oberhalb der sogenannten FM-Schwelle, unterhalb der die Signalqualität rapide abnimmt und mit Impuls-Rauschen zu rechnen ist, das sich nach der Demodulation in Klicks oder Prasseln äußert.
  • Die FM-Schwelle bei einer radiofrequenten Übertragungsbandbreite von 180 kHz beträgt ca. 11 dB CNR. Oberhalb dieser Schwelle ist SNRFM = 28 dB + CNR bei Mono-Empfang SNRFM = 5 dB + CNR bei Stereo-Empfang
  • Dazu kommen noch ca. 10 dB bei Berücksichtigung einer Pre-/Deemphase von 50 μs bzw. 13 dB bei 75 μs.
  • Mit der FM-Schwelle von ca. 11 dB korrespondiert ein mono-Audio-Störabstand von 39 dB + Deemphase-Gewinn. Bei einer Deemphase von 50 μs ist also mit mindestens 49 dB Mono-Audiostörabstand zu rechnen, bzw. 26 dB Stereo-Audio-Störabstand. Bezogen auf 40 kHz Frequenzhub ist mit einem Audio-Störabstand von 43.5 dB mono und 20.5 dB stereo zu rechnen. Der mono-Gewinn im Audio-Störabstand gegenüber stereo beträgt an der FM-Schwelle 23 dB. Im Empfänger verringert sich der mono-Gewinn [N(mono)-N(stereo)] mit steigendem Audiostörabstand, wie aus der Begrenzerkurve eines beispielhaften FM-Empfängers ersichtlich ist, die in 3 gezeigt ist.
  • Nach oben hin ist der Audio-Störabstand SNR begrenzt durch das Eigenrauschen der restlichen Übertragungskette. 3 zeigt die durchgezogene Kurve N(stereo) die Größe der Störung N beim stereo-Empfang. Die gestrichelte Linie N zeigt die Funktion „stereo-blend”, bei der unterhalb einer Schwelle (hier ca. 100 μV Antennenspannung) mit fallender Antenneneingangsspannung das Differenzsignal im Pegel reduziert wird. Die Störleistung N wird so auf einem reduzierten Niveau gehalten und steigt nicht weiter an. Die Folge davon ist eine zunehmende Verschlechterung der L-R-Kanaltrennung (stereo-blend) bis hin zu mono (L = R, d. h. keine Kanaltrennung).
  • Ab ca. 40 μV erreicht das Nutzsignal S seinen vollen Pegel. Der Abstand der Kurve N zur Kurve S + N ist der Audio-Störabstand.
  • Gemäß dem Stand der Technik wird eine Reduzierung des Differenzsignalpegels eingesetzt um den Audio-Störabstand zu Lasten der L-R-Kanaltrennung zu erhöhen. Die Reduzierung kann breitbandig oder in Frequenzbereichen, wie z. B. im Hochtonbereich, stattfinden und ist in ihrem Ausmaß von externen Signalen, externen Kriterien oder einer Schätzung des Störsignalanteils abhängig.
  • Weitere Maßnahmen im Empfänger, die die Hörbarkeit von Empfangsstörungen auf der Audiofrequenz-Ebene bzw. MPX-Ebene zu reduzieren, sind die Absenkung der höheren Audiofrequenzen (Hi-blend, Hi-cut) bei stärkerem Rauschen und die Lautstärke-Reduzierung bzw. die Stummschaltung (Muting, noise blanker) bei starken Störungen. Diese wirken sich auch auf das Summensignal (mono-Signal) aus.
  • Aufgabe der Erfindung
  • Vor diesem Hintergrund ist es Aufgabe der Erfindung, den hörbaren Stereo-Audiostörabstand zu verbessern, ohne die L-R-Kanaltrennung weiter einzuschränken. Der verbesserte Störabstand soll sich insbesondere der mono-Qualität annähern.
  • Weiterhin ist es Aufgabe der Erfindung die Schritte zur Verbesserung aus dem Signal selbst abzuleiten ohne die Hilfe externer Signale oder externe Kriterien (wie z. B. der Antennenspannung) in Anspruch zu nehmen.
  • Zusammenfassung der Erfindung
  • Die Aufgabe der Erfindung wird bereits durch ein Verfahren zur Verarbeitung eines FM-Stereosignals nach einem der unabhängigen Ansprüche gelöst.
  • Bevorzugte Ausführungsformen und Weiterbildungen der Erfindung sind dem Gegenstand der Unteransprüche, der Beschreibung sowie den Figuren zu entnehmen.
  • Die Erfindung betrifft ein Verfahren zur Verarbeitung eines analogen FM-Stereosignals. Die Erfindung betrifft also die Verarbeitung von analogen Radiosignalen, die im Stereo-Ton ausgestrahlt werden.
  • Das analoge Stereosignal kann dabei sowohl in der eingangs beschriebenen Form als Summen- und Differenzsignal als auch als Signal vorliegen, bei dem linker und rechter Kanal voneinander getrennt übertragen werden.
  • Das erfindungsgemäße Verfahren zur Verarbeitung eines FM-Stereosignals kann auch dadurch charakterisiert werden, dass ein FM-Stereosignal digitalisiert wird, das digitalisierte Signal einer Signalverarbeitung unterzogen wird und sodann in das analoge Signal zurücktransformiert wird.
  • Gemäß der Erfindung erfolgt die Signalverarbeitung digital, es wird also mittels eines Mikroprozessors die Verarbeitung des Signals in digitaler Form vorgenommen.
  • Hierzu wird das analoge FM-Stereosignal als Summen- und Differenzsignal digitalisiert. Dieses digitalisierte Signal wird in überlappende Blöcke aufgeteilt.
  • Die Blocklänge ist vorzugsweise größer als die Zeitverschiebung zwischen Summen- und Differenzsignal. Insbesondere kann die Blocklänge zwischen 10 und 1000 ms, vorzugsweise zwischen 50 und 150 ms liegen. Eine große Blocklänge führt zu einer hohen Frequenzauflösung, ermöglicht aber eine eher geringere Störreduktion, da sich das Nutzsignalspektrum dem Störsignalspektrum annähert.
  • Die überlappenden Blöcke ermöglichen eine fortlaufende Transformation in den Frequenzbereich und dort eine Signalverarbeitung. Nach Umwandlung liegt das Signal als Differenz- und Summenkanalspektrum vor, bei welchem das Signal blockweise jeweils in eine Vielzahl von Spektrallinien unterteilt ist, welche den Betrag und die Phase des Signals an der jeweiligen Frequenz wiedergeben.
  • Ein erster Aspekt der Erfindung bezieht sich mithin auf eine digitale Signalverarbeitung, bei welcher das analoge Signal digitalisiert wird und zumindest teilweise im Frequenzbereich verarbeitet wird. Hierzu werden die Spektrallinien des Differenzsignalspektrums mit den jeweils korrespondierenden Spektrallinien des Summensignalspektrums verglichen. Es versteht sich, dass unter „Signalspektrum” jeweils das Signalbetragsspektrum verstanden wird und sich somit der Vergleich auf die jeweiligen Beträge bezieht. Für die weiteren Erläuterungen werden diese logarithmiert betrachtet.
  • Gemäß der Erfindung werden Spektrallinien des Differenzsignalspektrums dann abgesenkt, wenn diese einen höheren Betrag als die jeweiligen Spektrallinien des Summensignalspektrums haben.
  • Vorzugweise erfolgt die Absenkung auf den Betrag des Summensignalspektrums. Es kann aber auch eine Differenz zum Betrag des Summensignalspektrums übrigbleiben, insbesondere eine Differenz von maximal +/–6 dB, vorzugsweise +/–3 dB.
  • Diesem Aspekt der Erfindung liegt die Annahme zugrunde, dass das Stereosignal nur Signalanteile aufweist, die innerhalb der Stereobasis lokalisiert werden können. Hieraus folgt, dass eine Spektrallinie des Differenzsignalspektrums keinen höheren Betrag haben kann als die entsprechende Spektrallinie des Summensignalspektrums. Die Folgerung gilt für Intensitätsstereophonie (zeitgleiches Summen- und Differenzsignal). Sie gilt für Laufzeitstereophonie, wenn die Laufzeitdifferenz beider Signale oder deren Signalanteile zu keiner Änderung der Betragsspektren führen. Letzteres trifft zu, wenn die Blocklänge die Laufzeitdifferenz deutlich überschreitet.
  • Durch die Umwandlung in den Frequenzbereich ist eine Verarbeitung der Signalanteile in digitalisierter Form auf einfache Weise möglich. Insbesondere kann diese rein softwarebasiert beispielsweise auf einem Smartphone oder Unterhaltungselektronikgerät erfolgen. Vorzugsweise erfolgt die gesamte Signalverarbeitung, und zwar auch im Zeitbereich, rein softwarebasiert.
  • Nach dieser digitalen Signalverarbeitung werden Summen- und Differenzsignal rücktransformiert und die überlappenden Blöcke zusammengeführt.
  • Das Signal kann nunmehr dematriziert und in ein analoges Signal zur Ansteuerung eines Lautsprechers umgewandelt werden.
  • Gemäß den weiteren, im Konkreten ebenfalls beschriebenen Regeln können insbesondere interferenzbedingte Einbrüche des Summensignals sowie interferenzbedingte Erhöhungen der Spektren erkannt werden und Ausnahmeregeln definiert werden, um das (ungestörte) Signal nicht zu verfälschen und ggfs. Störungen zu reduzieren.
  • Bei einer Weiterbildung der Erfindung werden, falls die Breite eines relativen Minimums des Summensignalspektrums unter einem Schwellenwert liegt und die Tiefe einen Schwellenwert übersteigt und damit eine Auslöschung vorliegt, die frequenzentsprechenden Spektrallinien des Differenzsignalspektrums gar nicht oder weniger abgesenkt.
  • Diese Betrachtung zur Absenkung des Differenzsignals basiert auf der Betrachtung von Laufzeitunterschieden der Signale, die zu Interferenzeffekten führen
  • Interferenzen führen zu Pegeleinbrüchen (Auslöschungen) und/oder Pegelüberhöhungen an bestimmten Stellen des Frequenzspektrums.
  • Derartige Einbrüche haben aber eine schmale Bandbreite. Würde man nunmehr interferenzbedingte Einbrüche des Summensignals heranziehen, um an diesen Stellen den Pegel des Differenzsignals herabzusetzen, wo würde man hierdurch das FM-Stereosignal verfälschen.
  • Bei einer Weiterbildung der Erfindung wird im Bereich eines lokalen Maximums des Differenzsignalspektrums dieses mit dem Summensignalspektrum verglichen und das Differenzsignalspektrum wird in diesem Bereich nicht abgesenkt oder weniger abgesenkt, falls ein Maximum des Summenkanalspektrums innerhalb der Frequenzbandbreite des Maximums des Differenzsignalspektrums liegt.
  • Diese Weiterbildung der Erfindung betrifft die Behandlung lokaler Maxima, die wie lokale Minima, eine laufzeitbedingte Ursache haben können.
  • Die Weiterbildung der Erfindung gemäß Anspruch 2 und 3 sieht daher eine Ausnahme von der in Anspruch 1 definierten Regel vor.
  • Auslöschungen und lokale Maxima eines Frequenzspektrums können über deren Frequenzbandbreite und deren Abstand zum spektralen Ersatzwert als solche identifiziert werden. Über eine Medianfilterung der Spektren wird eine Referenzkurve erzeugt. Übersteigt der Abstand des Spektrums zur Referenzkurve einen Schwellenwert, ist eine Auslöschung bzw. ein lokales Maximum identifiziert. Deren Frequenzbandbreite entspricht der Anzahl an aufeinanderfolgenden Spektrallinien, die den Schwellenwert überschreiten.
  • Der Medianwert berechnet sich aus den Spektralwerten des Spektrums innerhalb eines Fensters um eine Frequenz herum. Er dient hier als Ersatzwert im Spektrum und überbrückt Pegelausreißer.
  • Für Auslöschungen, lokale Maxima des Summenspektrums, lokale Maxima des Differenzsignalspektrums sind jeweils verschiedene Schwellenwerte in dB vorgesehen, die ein Abstand überschreiten muss, um eine Identifizierung zu bestätigen.
  • Ist also eine derartige Auslöschung bestätigt, so wird die Absenkung der entsprechenden Spektrallinien des Differenzsignalspektrums gemäß der zuvor definierten Regel nicht vorgenommen, also eine Ausnahme von der zuvor definierten Regel gemacht.
  • Eine Weiterbildung der Erfindung sieht vor, dass Unterschiede in der Laufzeit zwischen Summen- und Differenzsignal über eine Ähnlichkeitsanalyse oder eine Korrelation der Signale im Zeitbereich bestimmt werden.
  • Im Speziellen kann über eine Kreuzkorrelation und/oder die Betrachtung der Auslöschung im Frequenzbereich, insbesondere über einen Vergleich der jeweiligen Frequenzen und der jeweiligen Bandbreiten der Auslöschungen im Summen- und Differenzsignalspektrum, bestimmt werden, ob laufzeitstereophone Anteile in den Signalen vorhanden sind Dies trifft zu, wenn Auslöschungen im Summen- und Differenzsignal bei unterschiedlichen Frequenzen auftreten.
  • Bei einer Weiterbildung der Erfindung wird bei der blockweisen Ähnlichkeitsanalyse das Analyseergebnis des vorherigen Blocks übernommen, falls im aktuell verarbeiteten Block ein unter einem Schwellenwert liegendes Signal-Störungs-Verhältnis (SNR) vorliegt. Sinkt nämlich in einem Block das Signal-Störungsverhältnis unter einen Schwellenwert, wird die IS/LS-Analyse unzuverlässig. Daher wird gemäß dieser Ausführungsform die Entscheidung des letzten Blocks mit hohem Signal-Störungs-Verhältnis übernommen.
  • Falls sich bei der Berechnung herausstellt, dass laufzeitstereophone Signalanteile vorliegen, greift wiederum gemäß dieser Ausführungsform der Erfindung die in Anspruch 2 und/oder 3 definierte Regel. Hierdurch wird sichergestellt, dass nur bei laufzeitbedingter Stereophonie von der Ausnahmeregel gemäß Anspruch 2 und/oder 3 Gebrauch gemacht wird.
  • Die Weiterbildungen der Erfindung, wie sie in den Ansprüchen 2 bis 4 definiert sind, dienen mithin einer Vermeidung von Klangverfälschungen, insbesondere um zu verhindern, dass ein fehlerfreies Signal hörbar verfälscht wird.
  • Bei einer Weiterbildung der Erfindung wird bei einer Auslöschung einer Spektrallinie im Summensignalspektrum die Spektrallinie des Differenzsignals nur auf einen Spektralersatzwert, insbesondere auf einen Medianwert, des Summensignalspektrums abgesenkt wird.
  • Es handelt sich hierbei um eine Differenzierung der Auslöschungsregel.
  • Falls der Betrag des Differenzsignalspektrums bei einer Frequenz größer ist als der entsprechende Wert des Summensignalspektrums, wird das Differenzsignalspektrum r im Falle einer Auslöschung auf den für diese Frequenz ermittelten Median des Summensignalspektrums abgesenkt. Die Absenkung auf den Spektralersatzwert des Summensignalspektrums reduziert störungsbedingte Erhöhungen des Differenzsignalspektrums und vermeidet eine Klangverfälschung durch eine sonst tiefere Absenkung der Spektrallinie.
  • Bei einer Weiterbildung der Erfindung wird das Differenzsignal im Zeitbereich auf die Hüllkurve des Summensignals beschränkt, deren Maxima für einen Zeitraum nach und vor der Eintrittszeit des Maximums gehalten werden (peak hold) und die so veränderte Hüllkurve oder das Summensignal mit einem Faktor größer 1, insbesondere einem Faktor zwischen 1 und 2 multipliziert wird.
  • Diesem Aspekt der Erfindung liegt die Annahme zugrunde, dass das Stereosignal außerhalb der Stereobasis keine Orte abbildet. Hieraus folgt, dass das Differenzsignal jeweils keinen höheren Betrag haben kann als das Summensignal, multipliziert mit einem Faktor, der einer statistischen Signalerhöhung Rechnung trägt, wie sie bei bestimmten Signalkonstellationen von Summen- und Differenzsignal auftreten kann.
  • Vorzugsweise wird die Beschränkung des Differenzsignals im Zeitbereich auf die Hüllkurve des Summensignals nur vorgenommen, wenn ein transienter Charakter des Signals über eine Auswertung des Signals oder der Hüllkurve des Summensignals detektiert ist.
  • Dies wird vorzugsweise vor der Absenkung einzelner Spektrallinien des Differenzsignals, also vor der Verarbeitung im Frequenzbereich, vorgenommen.
  • Die Hüllkurve kann mit einem Faktor multipliziert werden, insbesondere einem empirischen Faktor, der zwischen 1,1 und 2,0 liegt, vorzugsweise zwischen 1,3 und 1,6.
  • Die Erfindung betrifft des Weiteren ein Computerprogramm, welches eine Vielzahl von Anweisungen enthält, die auf einem Computer, insbesondere auf einem Smartphone oder Unterhaltungselektronikgerät, speicherbar sind, wobei die Anweisungen, wenn sie von einem Mikroprozessor oder Mikrocontroller verarbeitet werden, ein vorstehend beschriebenes Verfahren ausführen.
  • Die Erfindung bezieht sich insbesondere auf eine rein softwarebasierte Verarbeitung eines analogen FM-Stereosignals in einem Gerät wie beispielsweise einem Smartphone, aber auch einem Radio mit digitaler Signalverarbeitung, insbesondere einem Autoradio.
  • Es versteht sich, dass bei bekannten Geräten, bei denen bereits eine digitale Signalverarbeitung vorhanden ist, alle ggf. weiteren notwendigen Verfahrensschritte in diese digitale Verarbeitung eingebunden werden können.
  • Insbesondere bei Smartphones und Unterhaltungselektronikgeräten, die einen Mikroprozessor umfassen, sind die zur Ausführung des erfindungsgemäßen Verfahrens erforderlichen Hardwarekomponenten vorhanden, wenn dieses Gerät mit einem Empfänger zum Empfang analoger FM-Stereosignale versehen ist.
  • Das erfindungsgemäße Verfahren kann insbesondere rein softwarebasiert über ein Programm (App) realisiert werden. Dabei sind die Anweisungen zur Durchführung des erfindungsgemäßen Verfahrens auf einem Datenspeicher hinterlegt.
  • Bei einer weiteren Ausführungsform der Erfindung erfolgt die Signalverarbeitung in einem anwendungsspezifischen integrierten Schaltkreis (ASIC), der die Signalverarbeitung gemäß dem erfindungsgemäßen Verfahren ausführt.
  • Beschreibung eines Ausführungsbeispiels
  • Das erfindungsgemäße Verfahren soll im Folgenden anhand eines Ausführungsbeispiels und unter Bezugnahme auf die weiteren Zeichnungen im Detail erläutert werden.
  • 1. Übersicht über das Verfahren
  • Es wird theoretisch abgeleitet, in welcher Form (Zeit-, Frequenzbereich) und in welchem Ausmaß das Differenzsignal vom Summensignal abweichen darf, ohne die Stereobasis einzuschränken. Die daraus abgeleiteten Regeln zur Signalverarbeitung erlauben es, das störbehaftete Differenzsignal ohne explizite Kenntnis des Störsignals bzw. ohne externe Informationen darüber hörbar dem ungestörten Differenzsignal anzunähern und eine Störreduzierung zu erreichen. Das Störsignal muss nicht geschätzt werden.
  • Die Regeln werden ausschließlich aus den Signalen L und R bzw. (L + R) und (L – R) gewonnen. Es ist deshalb möglich, auch aufgezeichnete Stereosignale eines FM-Stereo-Empfängers nachträglich zu bearbeiten.
  • Die Signalbearbeitung des Differenzsignals nach den abgeleiteten Regeln führt zu einer Approximation des ungestörten Differenzsignals.
  • Die dabei erreichte Störreduzierung ist nicht abhängig von einer Signal-Schwelle. Sie arbeitet in allen Pegelbereichen des Signals.
  • Das Verfahren überlässt die Wirkung einzelner Frequenzanteile innerhalb der kritischen Bandbreite dem Gehör ebenso wie den Verdeckungseffekt.
  • Die modulare Struktur des Verfahrens ermöglicht verschiedene Qualitätsstufen mit unterschiedlichem Realisierungsaufwand der Signalbearbeitung.
  • Das erfindungsgemäße Verfahren zur Signalverarbeitung eines FM-Stereosignals verarbeitet Audiosignale des linken und rechten Kanals nach einer Stereodecodierung im Empfänger in digitalisierter Form. Alternativ können das Summen- und Differenzsignal verarbeitet werden.
  • Es wird vorausgesetzt, dass Funktionen wie stereo-blend, hi-blend ausgeschaltet sind und der muting-level und die Lautstärkeabsenkung bei starken Störungen an das Verfahren angepasst sind um die Vorteile des Verfahrens voll auszunutzen.
  • Das Verfahren passt die Signalverarbeitung an die Gegebenheiten des Signals an.
  • Dazu werden verschiedene Signalanalysen durchgeführt. Es wird angestrebt, dass ungestörte Signale praktisch hörbar unverändert bleiben, während gestörte Signale sehr effektiv von den Störungen befreit werden unter Beibehaltung der L-R-Kanaltrennung.
  • 2. Blockstruktur und overlap-add
  • Die Signalverarbeitung findet blockweise statt, d. h. es werden die Audiodaten beider Kanäle für eine gewisse Zeit gesammelt und dann bearbeitet. Die Signalverarbeitung ist nichtlinear und findet im Zeit- und Frequenzbereich statt. Der Begriff ”Frequenzbereich” steht im Folgenden für den Bereich des transformierten Signals. Die Transformation kann z. B. eine Fourier-Transformation oder eine Wavelet-Transformation o. a. sein.
  • Die Signalverarbeitungsschritte zur Störungsreduktion sind eingebettet in eine weighted-overlap-add-Struktur (WOLA). Über die WOLA ist es möglich, eine fortlaufende Transformation in den Frequenzbereich durchzuführen. Die hier verwendete WOLA-Struktur besteht aus folgenden Teilen:
    • • Erzeugung einer überlappenden Blockstruktur.
    • • Multiplikation des Blocks mit einer Analysefensterfunktion (hier: root-Hanning). Diese ermöglicht die Anwendung einer Transformation in den Frequenzbereich ohne sog. Leckeffekte.
    • • zero-padding des Blocks mit Abtastwerten bis zur gewünschten Blocklänge für die Transformation in den Frequenzbereich.
    • • Transformation in den Frequenzbereich, nichtlineares processing, Rücktransformation in den Zeitbereich
    • • Multiplikation des Blocks mit einer Synthesefensterfunktion (hier: root-Hanning) zur Reduzierung von Artefakten, die durch das nichtlineare processing entstehen. Die Synthesefensterfunktion blendet diese Fehler an den Blockgrenzen aus und vermeidet hörbare Diskontinuitäten.
    • • Addition der überlappenden Blöcke (overlap-add)
  • Die WOLA ist in sich signaltransparent, d. h. solange keine Veränderungen am Signal vorgenommen werden, entspricht das Ausgangssignal dem Eingangssignal. Die Synthesefensterfunktion und die Blocküberlappung reduzieren unerwünschte Signalveränderungen, besonders an den Blockgrenzen.
  • Eine detaillierte Beschreibung findet sich in folgendem Punkt 9. Signalverarbeitung.
  • 3. Intensitätsstereophonie (IS)
  • Bei der reinen Intensitätsstereophonie wird ein Musikinstrument oder eine Stimme innerhalb der Stereobasis an einem virtuellen Ort abgebildet indem das Signal zeitgleich in einem bestimmten Pegelverhältnis auf den linken Kanal (L) und den rechten Kanal (R) aufgeteilt wird. Der Ort wird durch das Pegelverhältnis vom linken Kanal (L) zum rechten Kanal (R) definiert. Die Signale in L und R sind zueinander zeit-/phasengleich.
  • Bei der Wiedergabe kann das menschliche Gehör die Hörereignisrichtung und damit den Schallort innerhalb der Stereobasis anhand von Pegeldifferenzen zwischen dem linken und rechten Ohr bestimmen.
  • 4 zeigt das Schema einer Signalaufteilung in die Kanäle L und R bei reiner IS.
  • Die Stereobasis erstreckt sich von ganz links (R = 0) über die Mitte (L = R) bis ganz rechts (L = 0).
  • Für die UKW-Übertragung werden die Audiosignale L(t) und R(t) matriziert.
  • Es entsteht ein Summensignal σ(t) und ein Differenzsignal δ(t). Im Folgenden wird für L, R, σ und δ der Vereinfachung halber die Zeitabhängigkeit vorausgesetzt und in der Darstellung weggelassen.
  • Die Matrizierungsvorschrift lautet: σ = (L + R)/2 und δ = (L – R)/2
  • Auf der Empfängerseite findet eine Dematrizierung statt: L = σ + δ und R = σ – δ
  • Es soll zunächst ein einziges Sinussignal betrachtet werden.
  • Setzt man voraus, dass sendeseitig keine überbreite der Stereobasis vorliegt, also R = 0 und L = 0 die extremen Orte der Stereobasis darstellen, dann ergibt sich für
    R = 0: σ = δ
    und für L = 0: σ = –δ
    und daraus abgeleitet: |δ| = |σ|
  • Für jeden innerhalb der Stereobasis abgebildeten Ort gilt dann für dieses Sinus-Signal die für das erfindungsgemäße Verfahren maßgebliche Regel 1: Regel 1 |δ| ≤ |σ| wobei die Gleichheit gilt für die Fälle R = 0 und L = 0.
  • Die Betragsfunktion |σ| kann als Hüllkurve aufgefasst werden, die gestützt wird durch relative Maxima/Minima des Summensignals.
  • 5 zeigt ein beispielhaftes Summen- und Differenzsignal sowie die sich ergebende Hüllkurve (eines komplexen Signals und nicht eines einfachen Sinussignals).
  • Regel 1 lässt sich im Zeitbereich und im Frequenzbereich der Audiosignale definieren:
    • a. Zeitbereich: Zu jedem Zeitpunkt ist der Betrag des Differenzsignals kleiner als der des Summensignals oder höchstens gleich groß – das Differenzsignal liegt innerhalb der Hüllkurve des Summensignals.
    • b. Frequenzbereich: Bei jeder Frequenz ist die Leistung des Differenzsignals kleiner als die Leistung des Summensignals oder höchstens gleich groß.
  • Regel 1 führt erfindungsgemäß zu folgender Signalverarbeitung:
    Ist das Differenzsignal mit Störungen überlagert und wird dadurch im Zeit- oder Frequenzbereich o. g. Regel verletzt, kann zu dem entsprechenden Zeitpunkt bzw. an der entsprechenden Frequenz das Differenzsignal betragsmäßig reduziert werden auf den Wert des Summensignals. Das Frequenzspektrum definiert sich, infinitesimal aufgelöst, als Summe von Spektrallinien. Jede Spektrallinie kann als Vektor mit einem Amplitudenwert (Betrag) und einem zugehörigem Phasenwert aufgefasst werden. Eine Störung kann den Amplitudenwert erhöhen oder vermindern und den Phasenwert verändern und führt über die Dematrizierung zu einer verfälschten Kanaltrennung.
  • Der Amplitudenwert wird nun gemäß Regel 1b auf den Wert des Summensignalspektrums reduziert (entspricht dem Fall R = 0 bzw. L = 0). Dabei ist es wegen der infinitesimal kleinen Bandbreite unerheblich, ob die Leistung vom Nutz- oder Störsignal oder beiden herrührt. Der Phasenwert wird unverändert übernommen.
  • Die Signalverarbeitung soll an drei Beispielen gemäß 6 bis 8 bildlich erläutert werden:
    Gemäß der Darstellung in 6 wird das Summensignal derart vom Differenzsignal überlagert, dass das Summensignal in dieser Darstellung streckenweise nicht zu erkennen ist. Das Differenzsignal liegt teilweise außerhalb der Hüllkurve. Ein Abschneiden der Störsignalanteile, und damit eine Reduzierung der Störung im Zeitbereich, ist daher möglich.
  • Gemäß der Darstellung in 7 ist eine Reduzierung der Störung im Zeitbereich dagegen nicht möglich. Da das gestörte Differenzsignal noch innerhalb der Hüllkurve des Summensignals liegt, kann keine Pegelabsenkung im Zeitbereich erfolgen.
  • Im Frequenzbereich ist eine Reduzierung der Störung möglich, wie dies in 8 dargestellt ist. Die Leistung einer Frequenz f im gestörten Differenzsignal kann auf die Leistung der entsprechenden Frequenz im Summensignal reduziert werden. Das Ausmaß der Reduzierung ist hier mit delta angegeben.
  • Die Anwendung der Regel 1 im Frequenzbereich stellt den größten Anteil der Störreduzierung dar. Oft liegen viele Spektrallinien des Differenzsignals unter denen des Summensignals, wie z. B. bei einem ungestörten Signal, bei dem der Stereoeffekt nicht extrem ausgeprägt ist (z. B. bei R = L/2).
  • Eine Reduzierung von Amplitudenwerten des Differenzsignalspektrums wird nur dann vorgenommen, wenn die Störung den Amplitudenwert über den Wert des Summensignalspektrums anhebt. Dies kann besonders bei leisen Passagen vorkommen, bei denen die Störung das Nutzsignal dominiert.
  • Mit steigender Frequenzauflösung (entspricht steigender Blocklänge) eröffnen sich mehr Details der Spektren, auch in Form von Lücken und Senken des Summensignalspektrums. Das Verfahren nutzt diesen Sachverhalt aus und senkt insbesondere an diesen Stellen Störsignale im Differenzsignalspektrum ab.
  • Für das menschliche Gehör ist es relevant, wie gut diese Störbefreiung innerhalb der Frequenzgruppen funktioniert. In einer Frequenzgruppe oder kritischen Bandbreite wertet das menschliche Gehör die Frequenzen bzw. Spektrallinien gemeinsam aus. Es gibt 24 Frequenzgruppen von 0 bis 20000 Hz.
  • 9 zeigt das kritische Band Nr 9 von 920 Hz bis 1080 Hz mit 30 Spektrallinien, von denen drei nicht abgesenkt werden.
  • Die o. g. Störreduzierung bei hoher Frequenzauflösung bewirkt innerhalb der im Gehör gebildeten Frequenzgruppen eine Erhöhung des SNR.
  • Das Summensignalspektrum und das störreduzierte Differenzsignalspektrum bilden sich über die Dematrizierung auf die Kanäle L und R ab. Dort findet im Frequenzbereich eine Verdeckung eventueller Restfehler des Entstörungsprozesses statt. Die Verdeckung hängt von den statistischen Eigenschaften und der spektralen Verteilung der Nutzsignale im linken und rechten Kanal ab.
  • 10 zeigt die Verdeckungskurven eines 1 kHz Sinustones für unterschiedliche Pegel. Hat der 1 kHz Ton beispielsweise einen Pegel von 100 dB, kann im gleichen Kanal ein 2 kHz Ton mit 70 dB nicht wahrgenommen werden.
  • Es versteht sich, dass auch derartige Verdeckungseffekte im Frequenzbereich für die Wahrnehmung des verarbeiteten Signals, insbesondere im Hinblick auf Restfehler, eine Rolle spielen, auch wenn diese Verdeckungseffekte nicht in die Verarbeitung des Signals eingehen.
  • Die Frequenzgruppen sind annähernd logarithmisch aufgeteilt. Im Sinne der Erfindung ist z. B. auch eine logarithmische Skalierung bei der Transformation in den Frequenzbereich denkbar. Im dem hier dargestellten Ausführungsbeispiel wird aber eine lineare Skalierung vorgenommen.
  • Gemäß des erfindungsgemäßen Verfahren werden vorzugsweise keine Spektrallinien des Audiosignals zu Frequenzgruppen zusammengefasst. Vielmehr wird die Bewertung von Frequenzgruppen dem menschlichen Gehör überlassen, wobei die oben gennannten Verdeckungseffekte in die Wahrnehmung des menschlichen Gehörs eingehen.
  • Betrachtet man statt eines einzigen Sinussignals ein Signalgemisch, stellt sich die Situation etwas anders dar.
  • 11a und 11b zeigen ein Beispiel:
    L = Sinussignal 900 Hz, R = Sinussignal 300 Hz
  • 12 zeigt Summensignal und Differenzsignal (gepunktet)
  • Anhand dieses Beispiels kann man erkennen, dass das Differenzsignal eine höhere Amplitude als das Summensignal haben kann. Mit einem Faktor von etwa 1.4 werden aber die meisten Fälle bei komplexeren Signalkonstellationen erfasst. Es ist auch ersichtlich, dass die Maxima des Summen- und Differenzsignals nicht unbedingt zeitgleich sein müssen. Die Hüllkurve des Summensignals muss um den Faktor kIS erweitert werden und relative Maxima/Minima des Summensignals müssen für eine gewisse Zeit gehalten werden, damit die Maxima/Minima des Differenzsignals eingeschlossen werden können. Da ein Maximum in jedem der beiden Signale zuerst auftreten kann, muss die Haltezeit auch für Zeiten vor dem Betrachtungszeitpunkt gelten.
  • Die Zeitdifferenz zwischen den Extremwerten des Summen- und Differenzsignal entspricht einer halben Periode des höherfrequenten Signals, wenn das Frequenzverhältnis 3:1 beträgt. Eine Zeitverschiebung von +/–3 ms entspricht 83/166 Hz. Frequenzen in diesem Bereich sind i. d. R. mono, d. h. ihr Anteil im Differenzsignal ist gering. Ein Bereich von +/3 ms deckt also praktisch alle solche Effekte ab.
  • Bei intensitätsstereophonen Signalgemischen gilt dann für jeden innerhalb der Stereobasis abgebildeten Ort die modifizierte Regel 1: |δ| ≤ KIS|σ| innerhalb eines Zeitfensters von τIS mit kIS = Amplitudenfaktor bei Signalgemischen, z. B. 1.4
    mit kIS = Amplitudenfaktor bei Einzeltönen, z. B. 1.1*
    mit τIS = peak hold Zeit, z. B. +/–3 ms
  • Die modifizierte Regel 1 stellt sich im Zeitbereich und im Frequenzbereich folgendermaßen dar:
    • a. Zeitbereich: Das Differenzsignals liegt innerhalb einer Hüllkurve. Die Hüllkurve wird gestützt durch relative Maxima/Minima des Summensignals, multipliziert mit einem Faktor kIS. Jeder neu ermittelte und mit kIS multiplizierte Extremwert wird innerhalb eines Zeitfensters von τIS gehalten. (peak hold).
    • b. Frequenzbereich: Bei jeder Frequenz ist die Leistung des Differenzsignals kleiner als die Leistung des Summensignals oder höchstens gleich groß.
    • * Dieser Wert (in dem Beispiel 1.1) schließt eine Pegelungleichheit des Empfängers von 1 dB zwischen dem linken und rechten Kanal ein. Bei einem Faktor k = 1.0 und einer Pegeldifferenz zwischen dem linken und rechten Audio-Ausgang würde sonst das Differenzsignal unnötig beschnitten.
  • Daraus ergibt sich folgende Signalverarbeitung:
  • Zeitbereich:
  • Für jeden Block wird das gestörte Differenzsignal auf die Hüllkurve des Summensignals reduziert, wobei die Hüllkurve Signalverschiebungen und Amplitudenerhöhungen berücksichtigt. Zur Berechnung der Hüllkurve werden relative Maxima (momentane Spitzenwerte) des Betrags des Summensignals für den Bereich der Zeitverschiebung τIS (z. B. –3/+3 ms) gehalten (peak hold) und das resultierende Signal um den Faktor kIS (z. B. 1.4) erhöht. Es ist erforderlich, dass die Blocklänge (hier ca. 100 ms) die Zeitverschiebung der Extremwerte zwischen Summen- und Differenzsignal abdeckt.
  • Frequenzbereich:
  • Der Amplitudenwert jeder Spektrallinie des gestörten Differenzsignals wird auf den Wert des Summensignals reduziert. Das Phasenspektrum des Differenzsignals wird unverändert weiterverarbeitet.
  • 4. Laufzeitstereophonie und Intensitätsstereophonie mit laufzeitstereophonen Anteilen (LS)
  • Bei der reinen Laufzeitstereophonie wird eine Schallquelle über ortsversetzte Mikrofone aufgenommen. Der Schall legt, je nach Einfallsrichtung, unterschiedlich lange Wege zu den Mikrofonen zurück. In den Mikrofonsignalen L und R entstehen Signale, die einen richtungsabhängigen Laufzeitunterschied haben. Bei der Wiedergabe kann das menschliche Gehör die Hörereignisrichtung und damit den Schallort anhand von Laufzeitunterschieden zwischen dem linken und rechten Ohr bestimmen.
  • 13 zeigt ein Bespiel einer derartigen AB-Mikrofon-Aufstellung.
  • Für die Wegedifferenz gilt Δl = a·sinΘ, für die Laufzeitdifferenz Δt = Δl/c mit c = 343 m/s und dem Mikrofonabstand a.
  • In der Praxis liegt oft keine reine Laufzeitstereophonie vor, sondern eine Intensitätsstereophonie mit laufzeitstereophonen Anteilen. Dies äußert sich in abweichenden Phasenwerten in den Spektren des Summen- und Differenzkanals, aber auch in nicht zeitgleichen Amplitudenspitzen im Zeitbereich beider Signale.
  • Aufnahmen mit laufzeitstereophonen Anteilen werden beispielsweise in AB-Technik vorgenommen. Gerne wird auch der sog. Decca-Tree verwendet, um komplexe Klangkörper, wie z. B. Orchester abzubilden. Dabei werden teilweise auch zusätzliche seitlich angeordnete Stütz-Mikrofone eingesetzt.
  • Der Schall einer Quelle trifft zeitlich versetzt auf verschiedene Mikrofone auf. Je nach Schall-Einfallsrichtung und Anordnung der Mikrofone ergeben sich für jedes Mikrofon individuelle Pegel und Laufzeiten. Die einzelnen Mikrofonsignale werden nach bestimmten Gesichtspunkten zu einem linken und rechten Audiosignal verarbeitet.
  • Je nach Schall-Einfallsrichtung und Anordnung der Mikrofone ergeben sich nach der Matrizierung folgende Effekte:
    • • Ein Hörereignis, das sich im Differenzsignal abbildet, ist, je nach Einfallsrichtung der Schallwelle, nicht ganz zeitgleich zum Summensignal.
    • • Einzelne Mikrofonsignale überlagern sich mit ihren unterschiedlichen Laufzeiten und erzeugen im Differenzsignal eine statistische Änderung der Amplitude gegenüber dem Summensignal. Dies trifft vor allem auf Frequenzen oberhalb des Bass-Bereichs zu, bei denen die individuellen Laufzeiten zu Mehrdeutigkeiten der Phase führen (1 m = 3 ms = 360 Grad bei 332 Hz!)
  • Bei der Aufnahme wird allerdings darauf geachtet, dass eine mono-Kompatibilität besteht.
  • Das heißt, es wird vermieden, dass Laufzeitunterschiede zwischen den Mikrofonsignalen zu hörbar störenden Auslöschungseffekten im Summensignal (mono-Kanal) führen. Der intensitätssterophone Anteil am Signal überwiegt deshalb und die statistische Amplitudenverfälschung des Differenzsignals ist begrenzt.
  • Dies führt zu Regel 2 des erfindungsgemäßen Verfahrens: Regel 2: |δ| ≤ KLS|σ| innerhalb eines Zeitfensters von τLS mit kLS = Amplitudenfaktor, z. B. 1.4
    mit τLS = peak hold Zeit, z. B. +/–3 ms
  • Regel 2 stellt sich im Zeitbereich und im Frequenzbereich folgendermaßen dar:
    • a. Zeitbereich: Das Differenzsignals liegt innerhalb einer Hüllkurve. Die Hüllkurve wird gestützt durch relative Maxima/Minima des Summensignals, multipliziert mit einem Faktor kLS. Jeder neu ermittelte und mit kLS multiplizierte Extremwert wird innerhalb eines Zeitfensters von τLS gehalten. (peak hold).
    • b. Frequenzbereich: Bei jeder Frequenz ist die Leistung des Differenzsignals kleiner als die Leistung des Summensignals oder höchstens gleich groß.
  • Regel 2 führt zu folgender Signalverarbeitung bei laufzeitstereophonen Anteilen:
    Frequenzbereich: Da zeitversetzte Signale die gleichen Betragsspektren aufweisen, kann auch bei der LS der Amplitudenwert (Betrag) der gestörten Spektrallinie des Differenzsignals auf den entsprechenden Wert des Summensignalspektrums reduziert werden. Es ist allerdings erforderlich, dass die Blocklänge bzw. das in den Frequenzbereich zu transformierende Zeitintervall (hier ca. 100 ms) die wesentlichen Laufzeitunterschiede abdeckt, d. h. zeitversetzte Signalanteile noch im gleichen Block auftreten.
  • Das Phasenspektrum wird unverändert weiterverarbeitet.
  • Zeitbereich: Für jeden Block wird das gestörte Differenzsignal auf die Hüllkurve des Summensignals reduziert, wobei die Hüllkurve laufzeitbedingte Signalverschiebungen und Amplitudenerhöhungen (besonders bei Transienten) berücksichtigt. Zur Berechnung der Hüllkurve werden relative Maxima (momentane Spitzenwerte) des Betrags des Summensignals für den Bereich der Zeitverschiebung τLS (z. B. –3/+3 ms) gehalten (peak hold) und das resultierende Signal um den Faktor kLS (z. B. 1.4) erhöht.
  • Regeln 1 und 2 können im Frequenzbereich auch auf Frequenzgruppen abgewandt werden. Dabei werden die Leistungen der einzelnen Spektrallinien zusammengefasst betrachtet.
  • Regel 1 ist die Betrachtung für Intensitätsstereophonie. Regel 1b oder Regel 2b wird für die Durchführung des Verfahrens immer angewandt.
  • 5. Besondere Signal-Konstellationen bei LS
  • Das erfindungsgemäße Verfahren bezieht bei der Signalverarbeitung ferner typische Signal-Konstellationen bei der Laufzeitstereophonie ein:
  • – Auslöschungen:
  • Bei Aufnahmen mit laufzeitstereophonen Anteilen kann es vorkommen, dass frequenzselektive Auslöschungen (AL) im Summen- und auch im Differenzsignalspektrum auftreten. Wegen der unterschiedlichen Laufzeiten zu den ortsversetzten Mikrofonen L und R kommt es z. B. im Summensignal σ = (L + R)/2 zu einer Auslöschung, wenn eine Frequenz am Mikrofon R eine laufzeitbedingte Phasendrehung um 180 Grad gegenüber Mikrofon L erfährt. Im Differenzsignal δ = (L – R)/2 kommt es zu einer Auslöschung, wenn eine Frequenz zum Mikrofon R eine laufzeitbedingte Phasendrehung um 0 Grad erfährt. Eine Auslöschung bzw. eine destruktive Überlagerung von Schallwellen in beiden Signalen bei der gleichen Frequenz kann nur dann auftreten, wenn diese Frequenz aus verschiedenen Schall-Entstehungsorten/-richtungen stammt und an beiden Mikrofonen mit gleicher Amplitude ankommt. Das ist statistisch unwahrscheinlich. In der Regel treten Auslöschungen in beiden Signalen bei unterschiedlichen Frequenzen auf.
  • In 14 zeigt ein ungestörtes Differenzsignalspektrum bei LS. Es sind frequenzselektive Auslöschungen im Summensignalspektrum bei 2.09 kHz und 2.83 kHz zu sehen.
  • Auslöschungen treten in beiden Spektren bei unterschiedlichen Frequenzen auf.
  • Eine Auslöschung im Summensignal würde gemäß Regel 2b das Differenzsignalspektrum bei dieser Frequenz stark absenken und ggf. den Klang des ungestörten Audiosignals beeinträchtigen. Ist eine schmale Auslöschung identifiziert, kann eine Pegelabsenkung vermieden werden.
  • Bei Auslöschungen im Summensignalspektrum wird allerdings nicht der unveränderte Wert des Differenzsignalspektrums übernommen, da dieser ein reines Störsignal beliebiger Höhe sein könnte. Stattdessen wird der Wert des Differenzsignalspektrums auf den Medianwert des Summensignalspektrums reduziert, wie dies in 15 dargestellt ist, welche ein gestörtes Differenzsignalspektrum bei LS zeigt. Damit bleibt die Störreduzierung wirksam, ohne das Nutzsignal zu verfälschen.
  • – Lokale Pegelmaxima
  • Bei Aufnahmen mit laufzeitstereophonen Anteilen kann durch konstruktive Überlagerung von Schallwellen ein lokales/frequenzselektives Maximum (LM) im Differenzsignalspektrum entstehen, während das Summensignal dieses Maximum nicht erreicht. In diesem Fall würde es zu einer unerwünschten Pegelabsenkung gemäß Regel 2b kommen. Um eine Absenkung zu vermeiden, wird deshalb geprüft, ob das frequenzselektive Pegelmaximum einhergeht mit einem höheren frequenzselektiven SNR. Falls ja, bleibt der Pegel unverändert und wird nicht abgesenkt. Dabei wird angenommen, dass die Störung ein weißes Spektrum im größeren Umfeld des Pegelmaximums aufweist und das frequenzselektive Pegelmaximum dieses überragt. Diese Strategie versagt aber bei Störungen mit frequenzselektivem Spektrum. Als zusätzliches Kriterium wird deshalb das Summensignalspektrum herangezogen. Sowohl das Summensignalspektrum als auch das Differenzsignalspektrum müssen mit ihrem frequenzselektiven Pegelmaximum aus dem spektralen Umfeld des Differenzsignalspektrums herausragen. Dann kann man davon ausgehen, dass die frequenzselektive Pegelerhöhung vom Nutzsignal herrührt und nicht von einem Störsignal.
  • Wie in 14 zu sehen ist, liegen im Summensignalspektrum und ungestörten Differenzsignalspektrum jeweils zwei Maxima bei 2.12 kHz und 2.17 kHz vor, die sich über die Werte der näheren Umgebung (ca. 59 dB) erheben. Es kann deshalb davon ausgegangen werden, dass beide Maxima vom Nutzsignal herrühren und dass das lokale SNR hoch ist. Diese Maxima des Differenzsignals können für die weitere Signalverarbeitung unverändert bleiben.
  • 16 zeigt ein frequenzselektives Störspektrum. Das Differenzsignalspektrum weist dagegen mehrere Spektrallinien mit erhöhtem Pegel aus, der von den Spektrallinien des Summensignals nicht mitgetragen wird. Es kann deshalb abgeleitet werden, dass die hochpegeligen Spektrallinien des Differenzsignals von einem Störsignal stammen. Eine Absenkung auf das Niveau des Summensignalspektrums kann erfolgen.
  • Lokale Maxima werden für das Summensignal- und das Differenzsignalspektrum getrennt identifiziert. In 17a ist das mediangefilterte Differenzsignalspektrum zu sehen. Ein Maximum in einem der Spektren liegt vor, wenn das Spektrum seinen Medianwert um einen jeweils vorgegebenen Wert in dB überschreitet.
  • In 17a und 17b kennzeichnen LMSumme und LMDifferenz (Markierungen im unteren Bildbereich) die Maxima des Summensignalspektrums bzw. Differenzsignalspektrums. Liegt LMSumme innerhalb der Bandbreite von LMDifferenz, wird ein übergeordnetes lokales Maximum LM ausgewiesen, das veranlasst, eine Pegelabsenkung des Differenzsignalspektrums in der entsprechenden Frequenzbandbreite zu blockieren. Für das Beispiel in 17b ist dies nur für einen schmalen Frequenzbereich bei 5,75 kHz der Fall.
  • Sowohl Auslöschungen im Summensignalspektrum als auch lokale Maxima im Differenzsignalspektrum werden mithilfe einer median-Filterung identifiziert. Beide Fälle fließen in die spektrale Korrekturfunktion als nichtlineare Signalverarbeitung ein. LM und AL tragen zur Restaurierung des ungestörten Differenzsignalspektrums bei.
  • 6. Identifizierung von IS bzw. LS
  • Die Identifizierung von LS findet über eine Kreuzkorrelation (Ähnlichkeitsanalyse) des Summen- und Differenzsignals statt. Die Grundidee dahinter besteht darin, dass durch die Kreuzkorrelation beider Signale deren Zeitverschiebung ermittelt wird. Ist diese gleich Null, liegt IS vor, ansonsten LS.
  • Ergänzend oder alternativ kann eine Identifizierung im Frequenzbereich erfolgen, wenn Auslöschungen im Summen- und Differenzsignal bei unterschiedlichen Frequenzen auftreten.
  • Die Kreuzkorrelationsfunktion (KKF) wird aus je einem Block des Summen- und Differenzsignals berechnet. Bei fast allen Aufnahmen, also auch solchen mit laufzeitstereophonem Charakter, sind die tiefen Töne monaural. Sie erzeugen geringe Phasenunterschiede an den verschiedenen Mikrofonen und dominieren im Pegel i. d. R. höhere Frequenzen. Zeitliche Verschiebungen bei höheren Frequenzen werden verdeckt und durch die KKF nicht erkannt. Um dies zu vermeiden, werden die Signale des Summen- und Differenzsignals zunächst zeitlich differenziert und erst dann wird die KKF berechnet. Die Differentiation im Zeitbereich entspricht im Frequenzbereich einer Anhebung des Pegels zu höheren Frequenzen hin.
  • Die KKF wird pegelunabhängig berechnet durch Ermittlung der Kovarianzfunktion (KOV) (Formeln siehe Anhang). Durch anschließende Betragsbildung können Maxima unabhängig von der Signalpolarität dargestellt werden. Maxima werden bei solchen Zeitverschiebungen ausgewiesen, bei denen das differenzierte Summen- und Differenzsignal Ähnlichkeiten zeigt. Bei reiner IS liegt das Maximum bei der Zeitverschiebung Null. Weitere Maxima der KOV können entstehen, wenn beide Signale innere Ähnlichkeiten aufweisen – das Differenzsignal ist oft eine abgeschwächte Kopie des Summensignals. Um diese Maxima auszublenden, wird die Autokovarianz (AKOV) des Summensignals berechnet und von der auf Eins normierten Kovarianz KOV subtrahiert. Wenn die Differenz (deltaKOV) einen bestimmten Schwellenwert übersteigt, liegt LS vor, ansonsten liegt IS vor.
  • 18a und 18b zeigen typische deltaKOV bei LS (18a) und IS (18b).
  • Die o. g. Methode liefert bei überlagerten Störungen nicht in jedem Block eine sichere Erkennung von laufzeitstereophonie-bedingten Zeitverschiebungen zwischen Summen- und Differenzsignal. Störungen verändern den zeitlichen Verlauf des Differenzsignals, führen zur Unähnlichkeit von Summen- und Differenzsignal und reduzieren folglich den Pegel von delta. Um zu vermeiden, dass auf diese Weise störungsbedingte IS/LS-Fehlentscheidungen getroffen werden, wird das Signal-Störungs-Verhältnis (SNR) blockweise betrachtet. Als SNR ist hier das Verhältnis aus den Leistungen des Summen- und Differenzsignals definiert. Sinkt in einem Block das SNR unter einen Schwellenwert – wird also die IS/LS-Entscheidung unzuverlässig – wird die Entscheidung des letzten Blocks mit hohem SNR übernommen. Als Startwert wird LS vorgegeben.
  • 7. Signal-Klassifizierung und temporales processing
  • Audiosignale können einen transienten oder stationären Charakter haben. Transiente Signale lassen sich durch einen Anstieg der Leistung innerhalb kürzester Zeit beschreiben, oft verbunden mit vorgelagerten Signalpausen bzw. leisen Passagen. Stationäre Signale haben einen eher kontinuierlichen zeitlichen Verlauf der Leistung.
  • Störsignale können besonders effektiv im Frequenzbereich reduziert werden, wenn sich die Betragsspektren des Nutzsignals und des Störsignals deutlich unterscheiden.
  • Leider trifft das auf transiente Nutzsignale (wie z. B. Guiro, Kastagnetten) nicht zu. denn sie haben ein fast weißes Spektrum und es gibt wenig Unterschiede zum Rauschen als Störsignal. Eine Absenkung selektiver Frequenzanteile kann kaum stattfinden. Dementsprechend hoch ist in solchen Fällen das Restgeräusch. Ein weiterer Anteil an Störungen kommt hinzu: Durch die Signalverarbeitung einer Störung im Frequenzbereich entsteht nach der Rücktransformation in den Zeitbereich ein Alias, der sich über den Block erstreckt. Bei stationären Nutzsignalen wird er meistens verdeckt. Innerhalb der Zeit, in der das transiente Nutzsignal vorhanden ist, werden Restgeräusche simultan verdeckt. Restgeräusche, die zeitlich nach einer Transiente auftreten, werden besser verdeckt, da natürliche transiente Signale langsamer ausschwingen und das Gehör eine zeitliche Nachverdeckung aufweist. Die Verdeckung von Restgeräuschen, die zeitlich vor einer Transiente auftreten, ist geringer. In Signalpausen vor einer Transiente kann das Geräusch als sog. Pre-Echo hörbar werden.
  • 19 zeigt die Verdeckung im Zeitbereich („temporal masking”).
  • Hat das Nutzsignal Transienten-/Impulscharakter und ist im Differenzsignal Rauschen überlagert, dann kann das Restgeräusch (u. a. das Pre-Echo) verringert werden durch eine zusätzliche Signalverarbeitung im Zeitbereich (temporales processing). Hierbei wird das Differenzsignal auf die Einhüllende des Summensignals begrenzt (Clipping).
  • In den folgenden Bildern ist am Beispiel eines transienten Signals zu sehen, wie ein temporales processing Pre-Echos reduziert.
  • 20 zeigt ein ungestörtes Guiro, ohne Signalverarbeitung, also das originale Signal.
  • 21 zeigt ein verrauschtes Guiro nach Signalverarbeitung im Frequenzbereich. Ein Pre-Echo ist vorhanden.
  • 22 zeigt das verrauschte Guiro nach Signalverarbeitung im Zeit- und Frequenzbereich. Das Pre-Echo ist deutlich reduziert.
  • Ist das Nutzsignal transient und/oder liegen innerhalb des Blocks kurze Signalpausen vor, hilft das Clipping auch dabei, Störungen mit transientem Charakter zeitlich auszublenden bzw. zu verringern.
  • Die Begrenzung auf die Hüllkurve reduziert bei stärkeren Störungen die Störenergie. In diesen Fällen liegt das Betragsspektrum des Differenzsignals nach dem Clipping unterhalb des unbehandelten Betragsspektrums. Die Auswirkungen der ursprünglichen Störung auf Betrag und Phase von Spektrallinien wird verringert.
  • Andererseits erzeugt das Clipping selbst Störsignale mit weißem Spektrum, die sich als Störanteil in Betrag und Phase des Differenzsignalspektrums manifestieren. Dieser Effekt nimmt zu, je mehr Signalanteile abgeschnitten werden. Sofern es in diesem Zusammenhang zu einer Pegelerhöhung bei Spektrallinien kommt, kann diese durch die Signalverarbeitung im Frequenzbereich korrigiert werden. Pegelabsenkungen können nicht korrigiert werden. Das verfälschte Phasenspektrum wird unverändert übernommen.
  • Es ist deshalb von Block zu Block zu entscheiden, ob die Begrenzung auf die Hüllkurve eingesetzt werden soll.
  • 8. Kriterium für den Einsatz des temporalen processings
  • Ist das Summensignal (Nutzsignal) stationär, bzw hat es eine zeitlich durchgängige Signalform, bietet dessen Frequenzspektrum meistens ausreichend Lücken für eine wirksame selektive Störreduzierung im Frequenzbereich des Differenzsignals. Bei stationären Signalen verschlechtert das temporale processing (Begrenzung auf die Hüllkurve) das Restgeräusch und damit auch die Kanaltrennung. Deshalb ist es besser, in diesem Fall das temporale processing abzuschalten.
  • Wenn dagegen im Nutzsignal Transienten dominieren oder Pausen innerhalb des Signals vorliegen, ist es günstig, zusätzlich das temporale processing einzusetzen. In diesen Fällen reduziert das temporale processing insbesondere Pre-Echos. Pre-Echos entstehen als eine Form von Alias nach der IFFT und sind in den Signalpausen vor einer Transiente erkennbar und ohne temporales processing u. U. hörbar. Bei stationären Signalen wird der Alias nach der IFFT in der Regel durch die durchgängige Signalform verdeckt.
  • Hieraus folgt Regel 3:
    Regel 3: Das temporale processing (Begrenzung auf die Hüllkurve) wird eingeschaltet, wenn im Summensignal (Nutzsignal) Transienten dominieren oder Pausen innerhalb des Signals vorliegen.
  • Da eine Begrenzung auf die Hüllkurve vor der Signalverarbeitung im Frequenzbereich liegt, ist es sinnvoll die Bedingung bereits im Zeitbereich zu überprüfen.
  • Zur Identifizierung von Transienten wird die Hüllkurve des Summensignals σ untersucht. Steigt die Hüllkurve innerhalb eines Zeitabschnittes Δt um mehr als x Prozent, gilt eine Transiente als identifiziert. Die prozentuale Ermittlung macht die Identifizierung pegelunabhängig.
  • 9. Signalverarbeitung
    • 9.1. Signalverarbeitung im Zeitbereich, Teil 1 (Die Reihenfolge der Schritte 1 und 2 kann vertauscht werden).
    • 1. Blockbildung der Audioabtastwerte für den rechten und linken Kanal. Es wird eine überlappende Blockstruktur erzeugt. Die Überlappung ist z. B. 50%. Die Blocklänge ist z. B. 4096. Die folgenden Verarbeitungsschritte gelten pro Block.
    • 2. Matrizierung der Kanäle L und R in σ = (L + R)/2 und δ = (L – R)/2 (alternativ direkte Verarbeitung des Summensignals σ und des Differenzsignals δ)
    • 3. Signalanalyse und Begrenzung auf die Hüllkurve
    • 3.1 Identifizierung von LS bzw. IS auf der Basis von σ und δ
    • 3.1.1 zeitliche Ableitung von σ und δ Es entstehen die Blöcke dσ und dδ.
    • 3.1.2 Berechnung des auf 1 normierten Betrags der Kovarianz zwischen dσ und dδ: absKOVnorm
    • 3.1.3 Berechnung des Betrags der Autokovarianz von dσ: absAKOV
    • 3.1.4 Berechnung der Differenz deltaKOV = absKOVnorm – absAKOV
    • 3.1.5 zeitliche Limitierung von deltaKOV auf eine Obergrenze (hier: 3 ms): Es entsteht deltaKOVlim
    • 3.1.6 Berechnung des Maximalwertes von deltaKOVlim
    • 3.1.7 Identifizierung von LS bzw. IS: Überprüfung des SNR: wenn rootSNR < rootSNRthresh (bzw. wenn SNR < SNRthresh (z. B. = 0,3)): Übernahme der LS/IS-Entscheidung des vorigen Blocks sonst: wenn max(deltaKOV) < kovlevel: IS (z. B. kovlevel = 0,1) sonst: LS
    • 3.1.8 Berechnung der Hüllkurve von σ mit Übernahme der Werte für die Zeitverschiebung τ und den Amplitudenfaktor Ampf LS: τLS = +/–3.0 ms kLS = 1.4 IS: τIS = +/–3.0 ms kIS = 1.4
    • 3.1.9 Identifizierung von Transienten und Begrenzung von δ: Berechnung des prozentualen Anstiegs PA der Hüllkurve von σ innerhalb eines Zeitabschnittes von n Abtastwerten. wenn PA < x %; stationäres Signal sonst Transiente detektiert, Begrenzung des Signals δ auf die Hüllkurve von σ
    • 3.2 Gewichtung jedes Blockes mit einer Analysefensterfunktion, hier: root-Hanning: Es entstehen die gewichteten Blöcke wσ und wδ
    • 9.2 Signalverarbeitung im Frequenzbereich
    • 4. zero-padding** der gewichteten Blöcke wσ und wδ
    • 5. Transformation in den Frequenzbereich. Es entstehen die Spektren WΣ(f) und WΔ(f)
    • 6. Trennung in Betrags- und Phasenspektren
    • 7. Berechnung der spektralen Korrekturfunktion K(f) (siehe Anhang)
    • 8. Multiplikation des Betragsspektrums von WΔ(f) mit der Korrekturfunktion K(f)in linearer Betrachtung
    • 9. Berechnung des korrigierten komplexen Spektrums von WΔ(f)
    • 10. Rücktransformation in den Zeitbereich und Kürzen des Blocks. Es entsteht ein korrigiertes Differenzsignal δ(t) ** Auffüllen des Blocks mit Nullen bis zur gewünschten Länge (2er-Potenz für FFT)
    • 9.3 Signalverarbeitung im Zeitbereich, Teil 2
    • 11. Gewichtung jedes Blockes mit einer Synthesefensterfunktion, hier: root-Hanning
    • 12. Overlap add der Blöcke
    • 13. Dematrizierung von σ und dem korrigierten δ in die Kanäle L und R
  • Anhang/Formeln;
  • Hanning-Fenster (Analyse- und Synthesefensterfunktion)
    • H(n, N) = 0.5 – 0.5cos{(2Πn/(N – 1)} mit N = Anzahl der Abtastwerte pro Block root-Hanning = √H(n, N)
  • Störabstand SNR innerhalb eines Blocks:
    • SNR = P/P mit P = Leistung rootSNR = √SNR
  • Kovarianz KOV und Autokovarianz AKOV:
  • Mittelwert:
    Figure DE102016107799B3_0002
  • Varianz:
    Figure DE102016107799B3_0003
  • Standardabweichung:
    • stdev(x) := √jvar(x)
  • Kovarianz:
    Figure DE102016107799B3_0004
  • normierte Kovarianz:
    Figure DE102016107799B3_0005
  • Autokovarianz:
    • AKOV(x)i := KOV(x, x)i
  • spektrale Korrekturfunktion K(f) unter Betrachtung der Spektren im linearen Maßstab:
  • lokale Pegelmaxima im Differenzsignalspektrum:
    • bei LS: Berechnung des mediangefilterten Summensignalspektrums WΣ(f)median und des Differenzsignalspektrums WΔ(f)median Ermittlung der Frequenzen fLM Diff mit lokalen Pegel-Maxima (> LMDiff dB) in WΔ(f) Ermittlung der Frequenzen fLM Summe mit lokalen Pegel-Maxima (> LMSumme dB) in WΣ(f) wenn in einen zusammenhängenden Bereich von fLM Diff eine Frequenz fLM Summe fällt, dann ist K(f) = 1 sonst: wenn |WΔ(f)| > |WΣ(f)|: K(f) = |WΣ(f)|/|WΔ(f)| wenn |WΔ(f)| ≤ |WΣ(f)|: K(f) = 1
    • bei IS: wenn |WΔ(f)| > |WΣ(f)|: K(f) = |WΣ(f)|/|WΔ(f)| wenn |WΔ(f)| ≤ |WΣ(f)|: K(f) = 1
  • Auslöschungen im Summenkanalspektrum:
    • bei LS: Berechnung des mediangefilterten Summensignalspektrums WΣ(f)median Identifizierung der Frequenzen fAL, bei denen laufzeitbedingte Auslöschungen (schmale Einbrüche) in WΣ(f) stattfinden. wenn f = fAL: K(f) = WΣ(f)median f sonst: wenn |WΔ(f)| > |WΣ(f)|: K(f) = |WΣ(f)|/|WΔ(f)| wenn |WΔ(f)| ≤ |WΣ(f)|: K(f) = 1
    • bei IS: wenn |WΔ(f)| > |WΣ(f)|: K(f) = |WΣ(f)|/|WΔ(f)| wenn |WΔ(f)| ≤ |WΣ(f)|: K(f) = 1
  • Das erfindungsgemäße Verfahren verringert Rauschen und Störungen anderer Art, die im Differenzsignal auftreten und die Störungen im Summensignal übersteigen. Dazu gehören Störungen, die auf der Übertragungskette nach der Matrizierung im Stereocoder entstehen bis hin zum FM-Demodulator im Empfänger, z. B. Eigenrauschen des FM-Senders, Funk-Übertragungsstörungen, Rauschen durch zu geringe Leistung der Empfangsantenne, Eigenrauschen im RF-Teil des Empfängers, RF-Nachbarkanal- und Gleichkanalstörungen, Quantisierungsrauschen von ADCs im ZF-Bereich des Empfängers, Störungen durch Signale von rein digitalen oder auch hybriden Übertragunssystemen wie z. B. IBOC, HD-Radio, FMeXtra, sowie Störungen und Übersprechen innerhalb hybrider Systeme, die sich auf das Differenzsignal des analogen Übertragungssystems auswirken.
  • Störungen, die im Summenkanal, also auch bei reinem mono-Empfang auftreten, kann das Verfahren dagegen nicht beseitigen. Dazu gehören solche Nachbarkanalstörungen, die besonders bei mobilem Empfang kurzzeitig zu starken Störungen führen.
  • Die genannten Verfahrensschritte beziehen sich auch auf das in USA angewandte FM-Variante SSBSC. Das erfindungsgemäße Verfahren ist voll kompatibel mit SSBSC.
  • Das Verfahren wurde in diesem Ausführungsbeispiel mit einem Mathematik-Programm auf einem PC simuliert und nachgebildet.
  • Bezugnehmend auf die Blockschaltbilder gemäß 23a bis 25 soll ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens erläutert werden.
  • Wie in 23a dargestellt ist, wird zunächst das analoge FM-Stereosignal digitalisiert und matriziert. Bei einem Empfänger mit digitaler Signalverarbeitung kann das bereits digitalisierte Signal genutzt werden.
  • Das Signal wird in ein Summensignal und ein Differenzsignal im Zeitbereich aufgeteilt und es werden gewichtete, überlappende Blöcke erzeugt. Die Gewichtung kann beispielsweise anhand der Hanning-Funktion (Fensterfunktion) erfolgen.
  • Das Summensignal wird sowohl für die Berechnung der Hüllkurve als auch für die Identifizierung von Laufzeit-(LS) und Intensitätsstereophonie (IS) verwendet.
  • Die Identifizierung von LS und IS erfolgt vorzugsweise, wie zuvor dargestellt, anhand einer Korrelationsanalyse.
  • Das Differenzsignal kann auf die Hüllkurve des Summensignalpegels abgesenkt werden.
  • Hierfür ist gemäß einer bevorzugten Ausführungsform der Erfindung eine Transientendetektion vorgesehen, die entscheidet, ob es sich um ein um transientes oder stationäres Signal handelt. Bei einem stationären Signal wird die Hüllkurvenbegrenzung nicht vorgenommen und unmittelbar das unveränderte Differenzsignal verwendet.
  • Das transiente Signal wird dagegen der Begrenzung auf die Hüllkurve des Summensignals unterzogen.
  • Sodann wird sowohl Summensignal als auch Differenzsignal aus dem Zeitbereich in den Frequenzbereich transformiert.
  • Der Frequenzbereich bzw. der Teil des Verfahrens, in welchem die Verarbeitung im Frequenzbereich erfolgt, ist in diesem Blockschaltbild in den gepunkteten Rahmen, der mit Frequenzbereich gekennzeichnet ist, eingezeichnet.
  • Es liegt nunmehr ein Summensignalspektrum vor, welches einen Betrag aufweist, sowie ein Frequenzsignalspektrum, welches ebenfalls einen Betrag aufweist.
  • Die Phase des Differenzsignalspektrums wird unverändert weiterverarbeitet.
  • Wie sodann in 23b dargestellt, werden über das Summensignalspektrum Auslöschungen bei bestimmten Frequenzen identifiziert.
  • Über eine Identifizierung und den Vergleich der Maxima des Summensignal- und des Differenzsignalspektrums können die betroffenen Frequenzen bzw. Spektrallinien festgelegt werden.
  • Bei Auslöschungen erfolgt eine Absenkung des Differenzsignalspektrums auf den Medianwert des Summensignalspektrums.
  • Die Identifizierung von Auslöschungen wird im Folgenden Bezug nehmend auf 24 erläutert.
  • Identifizierung und Vergleich der Maxima wird im Folgenden Bezug nehmend auf 25 erläutert.
  • Wenn es sich um Intensitätsstereophonie handelt, wird das Differenzsignalspektrum direkt weiterverarbeitet, ohne dass Auslöschungen und lokale Maxima identifiziert werden müssen, bzw. in diesem Ausführungsbeispiel die Identifizierung verwendet werden muss.
  • Für alle die Frequenzen, die nicht identifiziert sind, wird Regel 1 im Frequenzbereich ausgeführt und das Differenzsignalspektrum auf das Summensignalspektrum abgesenkt.
  • Es entsteht ein korrigiertes Differenzsignalspektrum. Dieses wird in den Zeitbereich unter Verwendung des Phasenspektrums rücktransformiert.
  • Nach Gewichtung und Zusammenführung der überlappenden Blöcke im Zeitbereich entsteht ein korrigiertes Differenzsignal.
  • Summensignal und korrigiertes Differenzsignal werden dematriziert und es entsteht ein korrigiertes Stereosignal.
  • 24 zeigt ein Ausführungsbeispiel der in 23b als Block dargestellten Identifizierung von Auslöschungen.
  • Das logarithmierte Summensignalspektrum wird mit seiner Mediankurve verglichen. Liegt die Differenz über einem Schwellenwert, so wird das Differenzsignalspektrum auf den jeweiligen Medianwert abgesenkt. Falls nicht, gilt Regel 1 und das Differenzsignalspektrum wird entsprechend 23b auf das Summensignalspektrum abgesenkt.
  • 25 zeigt die in 23b vorgenommene Identifizierung der Maxima.
  • Sowohl das logarithmierte Summensignalspektrum als auch das logarithmierte Differenzsignalspektrum werden einer Medianfilterung unterzogen.
  • Liegt die Differenz jeweils über einem Schwellenwert, kann ein Maximum identifiziert werden.
  • Liegt ein Maximum des Summensignalspektrums innerhalb der Frequenzbandbreite des Maximums des Differenzsignalspektrums, dann wird für diese Frequenzbandbreite das Differenzsignalspektrum nicht abgesenkt.
  • Durch die Erfindung kann eine Reduktion von Störungen eines Stereosignals erfolgen, so dass dieses annähernd die Qualität des Monosignals erreicht.

Claims (10)

  1. Verfahren zur Verarbeitung eines FM-Stereosignals mit folgenden Schritten: – Digitalisieren des analogen FM-Stereosignals als Summen- und Differenzsignal; – Aufteilen des digitalisierten Signals in überlappende Blöcke; – Transformieren der überlappenden Blöcke in den Frequenzbereich; – Vergleichen der Spektrallinien des Differenzsignalspektrums mit den Spektrallinien des Summensignalspektrums; – Absenkung zumindest von Spektrallinien des Differenzsignalspektrums, falls diese einen höheren Betrag als die jeweilige Spektrallinie des Summensignalspektrums haben, insbesondere auf den Betrag der jeweiligen Spektrallinie des Summensignalspektrums; – Rücktransformieren des Summen- und Differenzsignalspektrums und Zusammenführen der überlappenden Blöcke.
  2. Verfahren zur Verarbeitung eines FM-Stereosignals nach dem vorstehenden Anspruch, dadurch gekennzeichnet, dass, falls die Breite eines relativen Minimums des Spektrums des Summensignals unter einem Schwellenwert liegt und die Tiefe einen Schwellenwert übersteigt und damit eine Auslöschung vorliegt, die Spektrallinien des Differenzsignals nicht oder weniger abgesenkt werden, insbesondere auf einen spektralen Ersatzwert des Summensignalspektrums.
  3. Verfahren zur Verarbeitung eines FM-Stereosignals nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass im Bereich eines lokalen Maximums des Differenzsignalspektrums dieses mit dem Summensignalspektrum verglichen wird und das Differenzsignalspektrum in diesem Bereich nicht abgesenkt wird, falls ein Maximum des Summenkanalspektrums innerhalb der Frequenzbandbreite des Maximums des Differenzsignalspektrums liegt.
  4. Verfahren zur Verarbeitung eines FM-Stereosignals nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass Unterschiede in der Laufzeit zwischen Summen- und Differenzsignal oder zwischen Teilen beider Signale über eine Ähnlichkeitsanalyse oder über eine Korrelation im Zeitbereich und/oder Frequenzbereich bestimmt werden und dass die Schritte gemäß Anspruch 2 und/oder 3 bei Laufzeitunterschieden ausgeführt werden.
  5. Verfahren zur Verarbeitung eines FM-Stereosignals nach Anspruch 2 bis 4, dadurch gekennzeichnet, dass bei einer Auslöschung einer Spektrallinie im Summensignalspektrum die Spektrallinie des Differenzsignals nur auf einen Spektralersatzwert, insbesondere auf einen Medianwert, des Summensignalspektrums abgesenkt wird.
  6. Verfahren zur Verarbeitung eines FM-Stereosignals nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass das Differenzsignal im Zeitbereich auf die Hüllkurve des Summensignals beschränkt wird, deren Maxima für einen Zeitraum nach und vor der Eintrittszeit des Maximums gehalten werden (peak hold) und die so veränderte Hüllkurve oder das Summensignal mit einem Faktor größer 1, insbesondere einem Faktor zwischen 1 und 2 multipliziert wird.
  7. Verfahren zur Verarbeitung eines FM-Stereosignals nach dem vorstehenden Anspruch, dadurch gekennzeichnet, dass die Beschränkung des Differenzsignals im Zeitbereich auf die Hüllkurve des Summensignals nur vorgenommen wird, wenn ein transienter Charakter des Signals über eine Auswertung des Signals oder der Hüllkurve des Summensignals detektiert ist.
  8. Verfahren zur Verarbeitung eines FM-Stereosignals, nach einem der vorstehenden Ansprüche, wobei die digitale Signalverarbeitung derart erfolgt, dass das FM-Stereosignal derart betrachtet wird, dass dessen Signalanteile nur innerhalb der Stereobasis lokalisiert werden können.
  9. Computerprogramm enthaltend eine Vielzahl von Anweisungen, die auf einem Computer, insbesondere einem Smartphone oder Unterhaltungselektronikgerät, speicherbar sind, wobei die Anweisungen, wenn sie von einem Mikroprozessor oder Mikrocontroller verarbeitet werden, ein Verfahren nach einem der vorstehenden Ansprüche ausführen.
  10. Unterhaltungselektronikgerät oder Smartphone, umfassend Mittel zur Durchführung eines Verfahrens nach einem der vorstehenden Ansprüche, insbesondere wobei die Mittel zur Durchführung des Verfahrens einen anwendungsspezifischen integrierten Schaltkreis (ASIC) oder eine gemäß einem der vorstehenden Ansprüche des Verfahrens programmierte logische Schaltung umfassen, oder einen Datenspeicher, enthaltend eine Vielzahl von Anweisungen, wobei die Anweisungen, wenn sie von einem Mikroprozessor oder Mikrocontroller verarbeitet werden, ein Verfahren nach einem der vorstehenden Ansprüche ausführen.
DE102016107799.2A 2016-04-27 2016-04-27 Verfahren zur Verarbeitung eines FM-Stereosignals Active DE102016107799B3 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102016107799.2A DE102016107799B3 (de) 2016-04-27 2016-04-27 Verfahren zur Verarbeitung eines FM-Stereosignals
PCT/EP2017/059860 WO2017186756A1 (de) 2016-04-27 2017-04-26 Verfahren zur verarbeitung eines fm-stereosignals
CA3021918A CA3021918C (en) 2016-04-27 2017-04-26 Method for processing an fm stereo signal
US15/499,174 US10003422B2 (en) 2016-04-27 2017-04-27 Method for processing an FM stereo signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016107799.2A DE102016107799B3 (de) 2016-04-27 2016-04-27 Verfahren zur Verarbeitung eines FM-Stereosignals

Publications (1)

Publication Number Publication Date
DE102016107799B3 true DE102016107799B3 (de) 2017-05-18

Family

ID=58639851

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016107799.2A Active DE102016107799B3 (de) 2016-04-27 2016-04-27 Verfahren zur Verarbeitung eines FM-Stereosignals

Country Status (4)

Country Link
US (1) US10003422B2 (de)
CA (1) CA3021918C (de)
DE (1) DE102016107799B3 (de)
WO (1) WO2017186756A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8805312B2 (en) 2011-04-06 2014-08-12 Texas Instruments Incorporated Methods, circuits, systems and apparatus providing audio sensitivity enhancement in a wireless receiver, power management and other performances

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020054683A1 (en) * 2000-11-08 2002-05-09 Jens Wildhagen Noise reduction in a stereo receiver
US20090203344A1 (en) * 2008-02-13 2009-08-13 Hanawalt Steve W Methods and systems for stereo noise mitigation

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5027402A (en) * 1989-12-22 1991-06-25 Allegro Microsystems, Inc. Blend-on-noise stereo decoder
EP1289155B1 (de) * 2001-08-24 2009-04-08 Sony Deutschland GmbH Rauschverminderung in einem FM-Stereo-Empfänger
WO2007109338A1 (en) * 2006-03-21 2007-09-27 Dolby Laboratories Licensing Corporation Low bit rate audio encoding and decoding
US8417206B2 (en) * 2010-05-06 2013-04-09 Silicon Laboratories Inc. Methods and systems for blending between stereo and mono in a FM receiver
US9312972B2 (en) * 2013-05-31 2016-04-12 Silicon Laboratories Inc. Methods and systems for blending between analog and digital broadcast signals

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020054683A1 (en) * 2000-11-08 2002-05-09 Jens Wildhagen Noise reduction in a stereo receiver
US20090203344A1 (en) * 2008-02-13 2009-08-13 Hanawalt Steve W Methods and systems for stereo noise mitigation

Also Published As

Publication number Publication date
CA3021918C (en) 2021-11-23
CA3021918A1 (en) 2017-11-02
WO2017186756A1 (de) 2017-11-02
US20170317772A1 (en) 2017-11-02
US10003422B2 (en) 2018-06-19

Similar Documents

Publication Publication Date Title
DE3686421T2 (de) Ukw-empfaenger mit rauschunterdrueckung beim empfang von signalen mit &#34;raleigh&#34;-ueberblendung.
DE69428119T2 (de) Verringerung des hintergrundrauschens zur sprachverbesserung
DE4209544C2 (de)
DE102006020832B4 (de) Verfahren zum Unterdrücken von Rückkopplungen bei Hörvorrichtungen
EP1143416B1 (de) Geräuschunterdrückung im Zeitbereich
EP2005421B1 (de) Vorrichtung und verfahren zum erzeugen eines umgebungssignals
DE69122648T2 (de) Digitale Teilbandkodierungsvorrichtung
DE69316054T2 (de) Gerät zur Rauschunterdrückung
DE69330935T2 (de) System zur Verarbeitung von Audiosignalen
DE69920498T2 (de) Verfahren und vorrichtung zur fm interferenzreduktion für fm in-band digitalen audiorundfunk
DE2526034B2 (de) Hoerhilfeverfahren und vorrichtung zur durchfuehrung des verfahrens
DE69903334T2 (de) Vorrichtung zur signal-rauschverhältnismessung in einem sprachsignal
EP2158588A1 (de) Spektralglättungsverfahren von verrauschten signalen
EP1808853A1 (de) Beschallungsanlage, Verfahren zur Verbesserung der Sprachqualität und/oder Verständlichkeit von Sprachdurchsagen sowie Computerprogramm
DE102015204253B4 (de) Verfahren zur frequenzabhängigen Rauschunterdrückung eines Eingangssignals sowie Hörgerät
DE102016107799B3 (de) Verfahren zur Verarbeitung eines FM-Stereosignals
EP3373599A1 (de) Verfahren zur frequenzverzerrung eines audiosignals und nach diesem verfahren arbeitende hörvorrichtung
DE102013114198B4 (de) Verfahren und System zum Mindern des amplitudenmodulierten (AM) Rauschsignals in AM-Rundfunksignalen
DE102010041644B4 (de) Verfahren zur Frequenzkompression mit harmonischer Korrektur und Vorrichtung
DE2338482A1 (de) Schaltungsanordnung zur rauschreduzierung einer nach dem fcc-system ausgestrahlten stereosendung auf der empfaengerseite, kombiniert mit einer mono-stereo-anzeige
EP1869765B1 (de) Kompandersystem
DE3224078A1 (de) Automatischer lautstaerkeregler fuer tonwiedergabegeraete in kraftfahrzeugen
EP1024679A2 (de) Verfahren zum Dekodieren gestörter Funksignale von Mehrkanal-Audiosendungen
DE102023107308B3 (de) Psychoakustische Kalibrierung eines Audiowiedergabesystems
DE60225089T2 (de) Verfahren und Vorrichtung zur Vor- und Nachbearbeitung eines Audiosignals zur Übertragung über einen sehr gestörten Kanal

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative

Representative=s name: AUGSPURGER - TESCH - FRIDERICHS PATENT- UND RE, DE