DE69926967T2 - Mischen von audio-strömen - Google Patents

Mischen von audio-strömen Download PDF

Info

Publication number
DE69926967T2
DE69926967T2 DE69926967T DE69926967T DE69926967T2 DE 69926967 T2 DE69926967 T2 DE 69926967T2 DE 69926967 T DE69926967 T DE 69926967T DE 69926967 T DE69926967 T DE 69926967T DE 69926967 T2 DE69926967 T2 DE 69926967T2
Authority
DE
Germany
Prior art keywords
frames
occurring
selector
streams
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69926967T
Other languages
English (en)
Other versions
DE69926967D1 (de
Inventor
Paulo Castello Da Costa
Nermeen Ismail
Ross Morley
Atul Sinha
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IPG Electronics 503 Ltd
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of DE69926967D1 publication Critical patent/DE69926967D1/de
Application granted granted Critical
Publication of DE69926967T2 publication Critical patent/DE69926967T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/568Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4385Multiplex stream processing, e.g. multiplex stream decrypting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Description

  • BEREICH DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren und ein System zum Verarbeiten von Audio, wobei das Mischen mehrerer gleichzeitig auftretender Audiodatenströme angewandt wird. Die vorliegende Erfindung bezieht sich insbesondere, aber nicht ausschließlich, auf das Mischen mehrerer gleichzeitig auftretender Sprachdaten.
  • STAND DER TECHNIK
  • Künstliche Verarbeitung von Sprache benutzt typischerweise eine digitale Darstellung der Daten, und zwar wegen der Beständigkeit gegen Verzerrung. Digitale Verarbeitung ermöglicht weiterhin Daten Streaming. Streaming ermöglicht es, dass Audiodaten, wie Sprachdaten, "im Flug" komprimiert werden, so dass Echtzeitkommunikation ermöglicht wird, statt der Notwendigkeit, zu warten, bis eine Datei oder ein Teil davon heruntergeladen ist, bevor Zugriff darauf beantragt wird. Für eine Einleitung zu Sprachverarbeitung, siehe beispielsweise "Speech Coding and Synthesis", von W.B. Kleijn und K.K. Paliwal, Elsevier, 1995, insbesondere Seiten 1–47.
  • Das Mischen von Sprachströmen ist bei einem Empfänger erforderlich, wenn mehrere Sprachströme aufbereitet und über eine einzige Audioanordnung wiedergegeben werden müssen. Das Mischen von Sprachströmen ist ebenfalls erwünscht an einer Zwischenstelle in der Übertragungsstrecke (beispielsweise bei einem Server in einer Kunde-Server-Architektur), wenn mehrere Sprachströme verfügbar sind, die zu einem einzigen Strom kombiniert werden sollen oder zu einer reduzierten Anzahl Ströme zur Neuübertragung zu einem bestimmten Empfänger oder zu einer Gruppe von Empfängern.
  • Das Mischen mehrerer Ströme beim Empfänger erfordert, dass die decodierten Ströme aufbereitet werden zum Erzeugen der Signale, die über die Lautsprecher wiedergegeben werden sollen. Die Aufbereitungsfunktion für jeden Strom wird durch die Applikation bestimmt und kann von einer einfachen Verdopplung für Mono-Wiedergabe über einen Satz von Lautsprechern, bis zu einer komplizierten Funktion zum Schaffen von Lautsprecherkompensation und zur räumlichen Lokalisierung jeder Schallquelle reichen. US-A-5646931 beschreibt ein Verfahren zum Selektieren, Mischen und Liefern von Schallströmen.
  • AUFGABE DER ERFINDUNG
  • Es ist nun u. a. eine Aufgabe der vorliegenden Erfindung, Prozeduren zum Mischen mehrerer Ströme zu schaffen, welche die erforderliche Verarbeitungsleistung gegenüber bestehenden Systemen reduzieren. Es ist eine weitere Aufgabe der vorliegenden Erfindung Mischprozeduren zu schaffen, welche die erforderliche Bandbreite gegenüber den bestehenden Schemen reduzieren. Noch eine andere Aufgabe der vorliegenden Erfindung ist es, Architekturen zu schaffen, die gegenüber der Bandbreite und/oder der Verarbeitungsleistung skalierbar sind.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Dazu schafft die vorliegende Erfindung ein Verfahren zur Audioverarbeitung, wie in Anspruch 1 definiert, ein System, wie in Anspruch 5 definiert, einen Empfänger, wie in Anspruch 10 definiert, einen Controller, wie in Anspruch 14 definiert, ein Computerprogramm, wie in Anspruch 18 definiert und ein vom Computer auslesbares Medium, wie in Anspruch 19 definiert. Das Verfahren umfasst das Mischen mehrerer gleichzeitig auftretender Audioströme. Jeder betreffende Strom der Ströme umfasst eine betreffende Sequenz von Frames. Ein Subsatz bestimmter Frames wird aus den gleichzeitig auftretenden Frames selektiert. Beim Selektieren werden die bestimmten Frames des Subsatzes decodiert und zur Wiedergabe bestimmter Frames aufbereitet. Die bestimmten Signale werden danach gemischt. Das Selektionskriterium betrifft eine Menge, die inhärent an jedem der gleichzeitig auftretenden Frames ist. In parametrischen Codierungsschemen umfasst beispielsweise ein bestimmtes Frame einen Parameter, der den Energieinhalt des Frames darstellt, oder einen Parameter, der angibt, ob das Frame sich ggf. auf stimmhafte oder stimmlose Sprache bezieht. Auf alternative Weise oder auf zusätzliche Weise gibt ein Parameter eine Tonhöhe an. Auf alternative Weise oder auf zusätzliche Weise können die Amplituden ermittelt und addiert werden zum Schaffen eines anderen Maßes. Auf Basis dieser Quantitäten, werden, möglicherweise nach zusätzlicher Gewichtung die gleichzeitig auftretenden Frames entsprechend der Wichtigkeit geordnet und die vorliegende Erfindung selektiert diejenigen Frames zur Decodierung, die am wichtigsten sind. Um ein genaueres Beispiel zu geben kann das Selektionskriterium eine mathematische Beziehung zwischen dem Energieinhalt und der Aufbereitungsverstärkung. Die Aufbereitungsverstärkung wird wie folgt erläutert. Die decodierten Ströme sollen aufbereitet werden zum Erzeugen der Signale, wie diese von den Lautsprechern wiedergegeben werden. Die Aufbereitungsverstärkung ist eine Quantität, die den Effekt der Aufbereitung an der wahrnehmbaren Intensität der Signalquelle darstellt. Die Aufbereitungsverstärkung kann auf alles was der Entwickler der Applikation wünscht, gesetzt werden. So wird beispielsweise die Aufbereitungsverstärkung auf die Summe der Energieverstärkungen von dem decodierten Signal auf jedes der Lautsprechersignale gesetzt, wenn mit weißem Rauschen aufbereitet wird, d.h. die Summe der Energie der Impulsantwort des Aufbereiters.
  • Die Selektion kann betreffende Prioritäten betreffen, die von dem Benutzer oder von dem Entwickler der Applikation einem bestimmten Strom der Ströme zugeordnet ist. Die Prioritäten sind unabhängig von wahrnehmbaren Erwägungen. Der Selektionsschritt schafft dann einen Subsatz auf Basis der Kombinationen aufbereiteter Energie und Priorität.
  • Eine Skala von Möglichkeiten kann angewandt werden zum Definieren der Gleichzeitigkeit. So kann beispielsweise Gleichzeitigkeit der Frames ermittelt werden, bei beispielsweise Zeitmarkierung. Ein anderes Beispiel ist, dass die gleichzeitig auftretenden Frames diejenigen Frames sind, die an dem Eingang des Selektionsschrittes zu dem Zeitpunkt anwesend sind, wo die Selektion gestartet wird. Pufferung kann angewandt werden, als Hilfe in der letzteren Betriebsart, eine Zeitausrichtung zu erhalten.
  • Vorzugsweise wird Decodierung erreicht durch die Verwendung einer sinusförmigen Decoderschaltung, deren Wirkungsweise auf Überlappungssynthese basiert um hörbare Artefakte zu begrenzen. Für sinusförmige Codierer siehe beispielsweise US Patent 4.771.465 und 4.797.926. Für Überlappungssynthese, auch in Kombination mit sinusförmigen Decodern, siehe US Patent 5.327.518. Typischerweise lässt sich der Energieinhalt eines Frames einfacher erhalten als das Decodieren des ganzen Frames. So erfordern eine Skala von Codierungsschemen, beispielsweise Linearprädiktionscodierung und vorhergesagte sinusförmige Codierung, die Übertragung eines Parameters, der für die Signalleistung oder die Energie je Frame repräsentativ ist, zusammen mit den Inhaltsdaten, siehe von Kleijn und Paliwal, oben genannt, Kapitel 1, insbesondere die Seiten 36 und 37 und das oben genannte US Patent 4.771.465. Auf entsprechende Art und Weise ist der Energieinhalt eines Frames leicht verfügbar um die Selektion der betreffenden Frames durchzuführen, ohne die Notwendigkeit zusätzlicher Verarbeitungsenergie.
  • KURZE BESCHREIBUNG DER ZEICHNUNG
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
  • 1 ein Blockschaltbild eines ersten Systems zur Verarbeitung von Sprache nach der vorliegenden Erfindung,
  • 2 ein Flussdiagramm zur Erläuterung der Wirkungsweise des Systems nach 1,
  • 3 ein Blockschaltbild eines zweiten Systems nach der vorliegenden Erfindung, und
  • 4 ein Blockschaltbild eines dritten Systems nach der vorliegenden Erfindung.
  • In den Figuren bezeichnen dieselben Bezugszeichen entsprechende Elemente.
  • BEVORZUGTE AUSFÜHRUNGSFORMEN
  • Erstes System
  • 1 ist ein Blockschaltbild eines ersten Systems 100 nach der vorliegenden Erfindung zum Mischen eines ersten und eines zweiten Sprachstroms A und B. Das Mischen von N = 2 Strömen ist als Beispiel gegeben. Das Wesen der vorliegenden Erfindung gilt auch für N = 3, 4, ... usw. Das System 100 umfasst Codierer 102 und 104 zum Codieren eines ersten und eines zweiten Stroms A bzw. B. Ausgänge der Codierer 102 und 104 sind mit Eingängen eines Selektors 106 gekoppelt, hier mit einem N-zu-M-Multiplexer. Ein Ausgang des Multiplexers 106 ist mit einem Eingang eines Decoders 108 gekoppelt. Die Wirkungsweise der Codierer 102104 und des Decoders 108 basiert beispielsweise auf einer sinusförmigen Codierungsstrategie. Ein Ausgang des Decoders 108 ist mit einem Eingang eines Routers 110 gekoppelt, hier mit einem Demultiplexer. Ausgänge des Demultiplexers 110 sind mit einer ersten und einer zweiten Aufbereitungsschaltung 112 und 114 gekoppelt. Ausgänge der Schaltungsanordnungen 112 und 114 sind mit der Mischstufe 116, beispielsweise einem Addierer, gekoppelt. Der Ausgang der Mischstufe 116 ist mit einer Audioausgangsanordnung 118, beispielsweise einem Lautsprecher, gekoppelt. Das Aufbereiten erzeugt die Signale, die von der Audioausgangsanordnung 118 wiedergegeben wer den sollen. Das System 100 umfasst weiterhin einen Controller 120 zur Steuerung des Multiplexers 108 auf Basis des Energieinhalts je Frame, der Aufbereitungsverstärkung je Strom und der Priorität, die je Strom zugeordnet wird, was nachstehend noch näher erläutert wird. Der Controller 120 steuert ebenfalls den Demultiplexer 110 auf Basis der Identität des Stroms, der das von dem Decoder 108 decodierte Frame schafft. Die Elemente 106–120 sind Teil eines Empfängers 122.
  • Die Rolle der Aufbereitungsverstärkung ist wie folgt. Das Mischen vieler Ströme A und B im Empfänger 122 erfordert, dass die decodierten Ströme aufbereitet werden zum Erzeugen der Signale, die von Lautsprechern 118 wiedergegeben werden sollen. Eine Aufbereitungsfunktion für einen Strom könnte je Applikation oder Betriebsart bestimmt werden. Eine derartige Funktion könnte von einer einfachen Duplikation, für Mono-Wiedergabe über einen Satz von zwei Lautsprechern, bis zu einer komplizierten Übertragungsfunktion zum Schaffen von Lautsprecherkompensation und zur räumlichen Lokalisierung jeder Schallquelle reichen. Eine derartige Aufbereitungsfunktion kann angewandt werden zum Einstellen des wahrnehmbaren Effektes der Aufbereitungsschaltungen auf jeden Strom, beispielsweise Strom A, gegenüber den anderen Strömen, beispielsweise dem Strom B. Aber eine Aufbereitungsfunktion ist typischerweise signalabhängig und möglicherweise frequenzabhängig. Die Anwendung dieser Funktion könnte die Aufbereitung unpraktisch und kompliziert machen. Die vorliegende Erfindung bevorzugt deswegen die Anwendung einer einzigen Funktion, der Aufbereitungsverstärkung, je Strom. Die Verstärkung wird je Applikation und je Strom bestimmt und könnte gewünschtenfalls dynamisch geändert werden. Die Verstärkung nähert dem Effekt einer aufwändigeren Aufbereitungsfunktion auf die wahrgenommene Intensität der Sprachquelle an, die mit dem betreffenden Strom assoziiert ist. Der Energieinhalt je Frame eines Stromes wird mit der für diesen Strom eingestellten Aufbereitungsverstärkung multipliziert zum Erzeugen einer Quantität, die als aufbereitete Energie bezeichnet wird.
  • Die Rolle der Priorität ist die Folgende. Die relative Bedeutung von Strömen A und B am Eingang des Decoders 108 kann eine Komponente haben, die unabhängig ist von den wahrnehmbaren Erwägungen. So kann beispielsweise die Fokussierung der Aufmerksamkeit des Zuhörers oder das Stummschalten einer oder mehrerer Quellen dadurch gesteuert werden, dass die Prioritäten gesetzt werden. Auf entsprechende Art und Weise kann der Entwerfer der Applikation die relative Gewichtung je Strom durch Zuordnung von Prioritäten einstellen.
  • Der Controller 120 ordnet jedem der N gleichzeitig auftretenden Frames mit Hilfe einer mathematischen Beziehung eine Rangordnung zu, wobei es sich um aufbereitete Energie und Priorität handelt. So wird beispielsweise jedes der gleichzeitig auftretenden Frames in ablaufender Reihenfolge der Priorität eingeteilt und wenn es eine Verbindung gibt, in ablaufender Reihenfolge aufbereiteter Energie. Der Controller 120 steuert danach den Multiplexer 106 derart, dass die M = 1 Frames der höchsten Ordnung decodiert und aufbereitet werden, wobei eine feste Anzahl von M Decodern 108 und eine feste Anzahl Aufbereitungsschaltungen verwendet wird.
  • Die Aufbereitungsschaltungen 1112 und 114 erzeugen aufbereitete Ströme entsprechend der Identität (A oder B) der Ströme. Der Controller 120 kann dazu den Demultiplexer 110 auf Basis der Identität des mit dem decodierten Frame assoziierten Stromes steuern. Auf alternative Art und Weise kann der Multiplexer das Steuersignal zum Betreiben des Demultiplexers 110 auf Basis der Identität des Stromes steuern.
  • Das System 100 schafft auf diese Art und Weise eine Mischstrategie zum Decodieren und möglicherweise zum Aufbereiten, die gegenüber der Verarbeitungsleitung skalierbar ist, während akzeptierbare Ergebnisse an dem Audioausgang geschaffen werden.
  • Flussdiagramm
  • 2 ist ein Flussdiagramm 200, das die Wirkungsweise des Systems 100 illustriert. Das Verfahren wird auf eine Anzahl von N gleichzeitig auftretenden Sprachströmen von codierten Frames angewandt, die unter Verwendung einer Anzahl von M Decodern verarbeitet werden, wobei M kleiner ist als N. In dem Beispiel nach 1 ist N = 2 und M = 1.
  • In dem Schritt 202 werden eine Anzahl von N gleichzeitig auftretenden Frames überprüft und für jedes betreffende Frame wird ein betreffender Energieinhalt ermittelt. Geeignete Codierungsschemen, wie sinusförmige Codierung oder eine auf Linearprädiktion basierte Codierung übertragen ein Maß für die Energie jedes Frames, zusammen mit den Inhaltsdaten des Frames. Auf entsprechende Art und Weise kann die Ermittlung des Energieinhalts je Frame ohne Decodierung der Frames oder mit weniger Verarbeitungsleistung als zum Decodieren eines kompletten Frames erforderlich ist.
  • In dem Schritt 204 wird jedem betreffenden Frame der N in dem Schritt 202 verarbeiteten Frames ein aufbereitetes Energiemaß zugeordnet, und zwar durch Multiplikation des betreffenden Energieinhalts mit einem betreffenden Faktor, der als Aufbereitungsverstärkung bezeichnet wird, spezifisch für den betreffenden Strom.
  • In dem Schritt 206 wird für jeden der N Frames die Priorität gegenüber den anderen Frames ermittelt, und zwar auf Basis der Priorität des entsprechenden Stromes, wobei die relative Bedeutung des Frames angegeben wird.
  • In dem Schritt 208 werden die N Frames entsprechend der Priorität des zugeordneten Stroms gegliedert, beispielsweise in ablaufender Reihenfolge. Wenn es eine Verbindung gibt, werden die betreffenden Frames entsprechend deren betreffenden aufbereiteten, in dem Schritt 204 ermittelten Energiemaßes gegliedert, beispielsweise in ablaufender Reihenfolge.
  • In dem Schritt 210 werden die M Frames der höchsten Rangordnung decodiert und aufbereitet, und zwar unter Verwendung einer Anzahl von M Decodern.
  • In dem Schritt 212 werden m decodierte und aufbereitete Ströme durch Überlappungsaddierung jedes der M decodierten und aufbereiteten Frames mit vorhergehenden Frames entsprechend demselben Strom erzeugt.
  • In dem Schritt 214 werden die M decodierten und aufbereiteten Ströme dadurch gemischt, dass sie alle zusammengezählt werden.
  • Zweites System
  • 3 ist ein Blockschaltbild eines zweiten Systems 300 nach der vorliegenden Erfindung. Das System 300 illustriert, wie die Anzahl von N eintreffender Ströme, nier N = 2 mit den Strömen A und B, an einer Zwischenstelle in einen einzigen Strom umgewandelt werden, und zwar zur Übertragung zu einem selektierten Empfänger einer Anzahl Empfänger. 3 zeigt der Deutlichkeit halber nur einen einzigen Empfänger 302. Selektion der Frames erfolgt nun durch den N-zu-M-Multiplexer 304 an einer Zwischenstelle in der Übertragungsstrecke zwischen den Codierern 102104 und dem Decoder 108. Nur die M = 1 Frames, die entsprechend beispielsweise den oben beschriebenen Kriterien selektiert worden sind, werden dem Empfänger 302 zugeführt, und zwar zusammen mit einem Strom-Iidentifizierer, wie oben in einer der alternativen Ausführungsformen für das System 100 erwähnt. Der Controller 120 kann, braucht aber nicht, ein Teil des Empfängers 302 sein.
  • Es sei bemerkt, dass der gemultiplexte Strom von der Zwischenstelle zu jedem der Empfänger nicht einen Codierer braucht, der allgemeine Audioströme unterstützt. Die Bandbreite für jeden Empfänger ist auf diejenige begrenzt, die für M eintreffende Ströme (hier M = 1) plus etwas mehr zur Übertragung der Stromidentität je Frame erforderlich ist. Diese Annäherung gewährleistet eine Bandbreitenskalierbarkeit. Der Stromidentifizierer je Frame wird in diesem Beispiel über den Multiplexer 304 dem Demultiplexer 110 zugeführt. Die Verarbeitungsleistung an der Zwischenstelle ist auf die Berechnung aufbereiteter Energien und die Rangordnung von Strömen begrenzt. Decodierung, Aufbereitung und Mischung an der Seite des Empfängers 302 entspricht der Verarbeitung von M Strömen, wobei die Skalierbarkeit der Verarbeitungsleistung gewährleistet wird.
  • Drittes System
  • 4 ist ein Blockschaltbild eines dritten Systems 400 nach der vorliegenden Erfindung und schafft eine Alternative zu den Systemen 100 und 300. Die Verarbeitungsstrategien, die der Wirkungsweise der Systeme 100 und 300 entsprechen, erfordern, dass die Decoder 108 von dem einen Strom auf einen anderen geschaltet werden, wenn die betreffenden Frames eines einzigen Subsatzes von Strömen herrühren, die von den betreffenden Frames von einem nächsten Subsatz abweichen. Die Systeme 100 und 300 verlassen sich auf die Kontinuität der Phase und auf die Überlappungsaddierungsrekonstruktion (siehe das Bezugsmaterial am Ende der Beschreibung) bei den Empfängern 122 und 302 um die Übertragung zwischen Subsätzen verschiedener Ströme entsprechend aufeinander folgenden Subsätzen bestimmter Frames zu glätten.
  • Das System 400 verarbeitet N = 2 Ströme A und B. Der N-zu-M-Multiplexer 304 wird gesteuert zum Selektieren des Subsatzes von M bestimmten Frames aus N gleichzeitig auftretenden Frames entsprechend einem der oben beschriebenen Selektionskriterien. Die M Frames werden dem Empfänger 402 zugeführt, wobei der M-zu-N-Demultiplexer 110 ein bestimmtes Frame der M selektierten Frames des aktuellen Subsatzes einem der N Decoder 404 und 406 zuordnet, und zwar entsprechend dem relevanten Strom der N Ströme. An der Decoderseite werden die N-M-Frames in dem Selektionsprozess als ein Frame-Verlust verworfen. Das heißt, die Decoder 404 und 406 werden diskret oder kontinuierlich zu Zeitdehnung gesteuert, oder werden dazu gebracht, das vorher empfangene Frame zu wiederholen, um den Frame-Verlust wiederherzustellen. Wiederholung wird beispielsweise über Wiederholungseinheiten 408 und 410 erreicht. Diskrete Zeitdehnung hat Vorteile gegenüber eine einfache Wiederholung, wenn eine sinusförmige Codierung angewandt wird. Die Vorteile beziehen sich auf eine Reduktion in der Komplexität der erforderlichen Berechnungen. Dies wird wie folgt erläutert. Eine sinusförmige Codierung ist parametrisch (siehe: Kleijn und Paliwal, wie oben genannt). Decodierung erfordert zwei Schritte: die Rekonstruktion der Parametereinstellungen aus dem codierten Frame, und das Laufen der Oszillatoren während einer Zeitperiode, wie durch die Parameter angegeben. Doppelte Decodierung desselben Frames erfordert, dass die beiden Schritte durchgeführt werden. Einfache Decodierung mit Zeitdehnung erfordert, dass der erste Schritt nur einmal durchgeführt wird. Die N Ströme der decodierten Frames an den Ausgängen der Decodier 404 und 406 werden danach in den Aufbereitern 412 und 414 aufbereitet und in einer Mischstufe 416 addiert.
  • Die Wirkungsweise des Systems 400 vermeidet ein Schalten zwischen Strömen bei dem Decoder. Aber es erfordert, dass N Decoder und Aufbereiter in dem Empfänger betrieben werden. Das System 400 ist gegenüber der Bandbreite skalierbar.
  • Es sei bemerkt, dass die vorliegende Erfindung sich auf Audioverarbeitung bezieht, und insbesondere, aber nicht ausschließlich auf die Verarbeitung von Sprache.
  • Es sei ebenfalls bemerkt, dass die Wirkungsweise des Controllers 120, der Decoder 108, 404 und 406 und der Aufbereiter 112, 114, 412, 414 in Software dargestellt werden können, beispielsweise als Computerprogramm auf einem handfesten Medium, wie einer Diskette zur Verwendung mit einem PC. Weiterhin könnte die vorliegende Erfindung auch dadurch implementiert werden, dass ein Benutzer das Verfahren nach der vorliegenden Erfindung beispielsweise durch Herunterladung der Software von dem Web durchführt. Bei Videokonferenzen, Karaoke oder beim Abspielen von Musik mit mehreren Parteien an verschiedenen Stellen könnte die vorliegende Erfindung mit Vorteil angewandt werden.

Claims (19)

  1. Verfahren zur Audioverarbeitung, wobei dieses Verfahren die nachfolgenden Verfahrensschritte umfasst: das Mischen mehrerer gleichzeitig auftretender Audioströme, wobei jeder betreffende Strom eine betreffende Sequenz von Frames aufweist, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Selektieren eines Subsatzes bestimmter Frames aus gleichzeitig auftretenden Frames, und zwar auf Basis eines Selektionskriteriums, wobei es sich um eine Menge handelt, die inhärent ist an jedem der gleichzeitig auftretenden Frames, – das Decodieren der bestimmten Frames des selektierten Subsatzes, – das Aufbereiten der decodierten bestimmten Frames zum Erzeugen bestimmter Signale, und – das Mischen der bestimmten Signale, dadurch gekennzeichnet, dass das Selektieren aus den gleichzeitig auftretenden Frames das Aufstellen der betreffenden Frames der gleichzeitig auftretenden Frames entsprechend betreffenden numerischen Werten der Menge für die betreffenden gleichzeitig auftretenden Frames und das Bilden des Subsatzes eines oder mehrerer höher stehender Frames der gleichzeitig auftretenden Frames.
  2. Verfahren nach Anspruch 1, wobei das Selektionskriterium weiterhin eine betreffende Priorität betrifft, zugeordnet zu einem betreffenden Strom der Ströme.
  3. Verfahren nach Anspruch 1, wobei die Menge einen betreffenden Energieinhalt des betreffenden Frames der gleichzeitig auftretenden Frames aufweist.
  4. Verfahren nach Anspruch 3, wobei die menge weiterhin einen betreffenden Aufbereitungsverstärkungsfaktor aufweist, zugeordnet zu dem betreffenden Strom der Ströme.
  5. Informationsverarbeitungssystem (100) zum Verarbeiten von Audio, wobei das System die nachfolgenden Elemente umfasst: – einen Eingang zum Empfangen mehrerer gleichzeitig auftretender Audioströme, wobei jeder betreffende Strom der Ströme eine betreffende Sequenz von Frames aufweist, – einen selektor (106), der mit dem Eingang gekoppelt ist zum Selektieren eines Subsatzes bestimmter Frames aus gleichzeitig auftretenden Frames auf Basis eines Selektionskriteriums in Bezug auf eine Menge, die mit jedem Frame der gleichzeitig auftretenden Frames inhärent ist und das Weiterleiten der betreffenden Frames zu einem Selektorausgang, – eine Decodieranordnung (108), die zum Decodieren der bestimmten Frames mit dem Selektorausgang gekoppelt ist, – eine Aufbereitungsanordnung (112, 114) zum Aufbereiten der decodierten bestimmten Frames zum Erzeugen bestimmter Signale, und – eine Mischanordnung (116) zum Mischen der bestimmten Signale, dadurch gekennzeichnet, dass das System wirksam ist zum Gliedern betreffender Frames der gleichzeitig auftretenden Frames entsprechend den betreffenden numerischen Werten der Menge für die betreffenden gleichzeitig auftretenden Frames und dass der Selektor (106) wirksam ist zum Bilden des Subsatzes eines oder mehrerer höher stehender Frames der gleichzeitig auftretenden Frames.
  6. System nach Anspruch 5, mit einem Controller zur Steuerung des Selektors auf Basis des Selektionskriteriums.
  7. System nach Anspruch 5 oder 6, wobei das Selektionskriterium weiterhin eine betreffende Priorität betrifft, die einem bestimmten Strom der Ströme zugeordnet worden ist.
  8. System nach Anspruch 5 oder 6, wobei die Menge einen betreffenden Energieinhalt des betreffenden einen Frames der gleichzeitig auftretenden Frames hat.
  9. System nach Anspruch 8, wobei die Menge weiterhin einen betreffenden Aufbereitungsverstärkungsfaktor hat, zugeordnet zu dem betreffenden Strom der Ströme.
  10. Empfänger (302), der die nachfolgenden Elemente umfasst: – eine Decoderanordnung (108), die mit einem Selektorausgang gekoppelt werden muss zum Decodieren bestimmter Frames, herrührend von einem Selektor (304), wobei dieser Selektor (304) mit einem Eingang gekoppelt ist zum Empfangen mehrerer gleichzeitig auftretender Audioströme, wobei jeder betreffende Strom der Ströme eine betreffende Sequenz mit Frames aufweist, zum Selektieren eines Subsatzes bestimmter Frames aus gleichzeitig auftretenden Frames der Frames an dem Eingang und zum Weiterleiten der bestimmten Frames zu dem Selektorausgang; – eine Aufbereitungsanordnung (112, 114) zum Aufbereiten der decodierten bestimmten Frames zum Erzeugen bestimmter Signale, – eine Mischanordnung (116) zum Mischen der bestimmten Signale, und – einen Controller (120) zur Steuerung des Selektors (304) auf Basis eines Selektionskriteriums in Bezug auf eine Menge, die inhärent ist an jedem der gleichzeitig auftretenden Frames, dadurch gekennzeichnet, dass der Controller (120) wirksam ist zum Aufstellen der bestimmten Frames der gleichzeitig auftretenden Frames entsprechend den betreffenden numerischen Werten der Menge für die bestimmten gleichzeitig auftretenden Frames und zum Steuern des Selektors (304) zum Bilden des Subsatzes einer oder mehrerer höher gestellter Frames der gleichzeitig auftretenden Frames.
  11. Empfänger nach Anspruch 10, wobei das Selektionskriterium weiterhin eine bestimmte Priorität betrifft, die einem bestimmten Strom der Ströme zugeordnet ist.
  12. Empfänger nach Anspruch 10, wobei die menge einen bestimmten Energieinhalt des bestimmten Frames der gleichzeitig auftretenden Frames aufweist.
  13. Empfänger nach Anspruch 12, wobei die Menge weiterhin einen bestimmten Aufbereitungsverstärkungsfaktor aufweist, der dem bestimmten Strom der Ströme zugeordnet ist.
  14. Controller (120) zur Steuerung eines Selektors (304), wobei der Selektor (304) einen Eingang hat zum Empfangen mehrerer gleichzeitig auftretender Audioströme, wobei jeder betreffende Strom der Ströme eine bestimmte Sequenz von Frames aufweist, wobei der Selektor (304) wirksam ist zum Selektieren eines Subsatzes bestimmter Frames aus gleichzeitig auftretenden Frames an dem Eingang und zum Weiterleiten der bestimmten Frames zu einem Selektorausgang, wobei dieser Selektorausgang mit der Anordnung (108, 112, 114, 116) gekoppelt werden soll, und zwar zum Decodieren der bestimmten Frames, zum Aufbereiten der decodierten bestimmten Frames zum Erzeugen bestimmter Signale und zum Mischen der bestimmten Signale, wobei der Controller (120) wirksam ist zum Steuern des Selektors (304) auf Basis eines Selektionskriteriums in Bezug auf eine Menge, die zu jedem Frame der gleichzeitig auftretenden Frames inhärent ist, dadurch gekennzeichnet, dass der Controller (120) wirksam ist zum Aufstellen betreffender Frames der gleichzeitig auftretenden Frames entsprechend bestimmten numerischen Werten der Menge für die bestimmten gleichzeitig auftretenden Frames und zum Steuern des Selektors (304) zum Bilden des Subsatzes eines oder mehrerer höher stehender Frames der gleichzeitig auftretenden Frames.
  15. Controller nach Anspruch 14, wobei das Selektionskriterium weiterhin eine bestimmte Priorität hat, die einem bestimmten Strom der Ströme zugeordnet ist.
  16. Controller nach Anspruch 14, wobei die Menge einen bestimmten Energieinhalt des bestimmten Frames der gleichzeitig auftretenden Frames aufweist.
  17. Controller nach Anspruch 16, wobei die Menge weiterhin einen bestimmten Aufbereitungsverstärkungsfaktor hat, der dem bestimmten Strom der Ströme zugeordnet ist.
  18. Computerprogramm mit Computerprogrammcodemitteln, die wirksam sind zum Durchführen aller Verfahrensschritte des Verfahrens nach Anspruch 1, wenn das genannte Programm in einem Computer läuft.
  19. Mit einem Computer auslesbares Medium, auf dem das Computerprogramm nach Anspruch 18 gespeichert ist.
DE69926967T 1998-05-18 1999-02-11 Mischen von audio-strömen Expired - Lifetime DE69926967T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/025,375 US6230130B1 (en) 1998-05-18 1998-05-18 Scalable mixing for speech streaming
US25375 1998-05-18
PCT/IB1999/000241 WO1999060815A2 (en) 1998-05-18 1999-02-11 Scalable mixing for speech streaming

Publications (2)

Publication Number Publication Date
DE69926967D1 DE69926967D1 (de) 2005-10-06
DE69926967T2 true DE69926967T2 (de) 2006-06-22

Family

ID=21825663

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69926967T Expired - Lifetime DE69926967T2 (de) 1998-05-18 1999-02-11 Mischen von audio-strömen

Country Status (7)

Country Link
US (1) US6230130B1 (de)
EP (1) EP0995191B1 (de)
JP (1) JP2002516421A (de)
KR (1) KR100639899B1 (de)
CN (1) CN1143264C (de)
DE (1) DE69926967T2 (de)
WO (1) WO1999060815A2 (de)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7039581B1 (en) * 1999-09-22 2006-05-02 Texas Instruments Incorporated Hybrid speed coding and system
FR2802329B1 (fr) * 1999-12-08 2003-03-28 France Telecom Procede de traitement d'au moins un flux binaire audio code organise sous la forme de trames
US6810379B1 (en) * 2000-04-24 2004-10-26 Sensory, Inc. Client/server architecture for text-to-speech synthesis
US6697358B2 (en) * 2001-07-18 2004-02-24 2Wire, Inc. Emulation of phone extensions in a packet telephony distribution system
US7301940B1 (en) 2001-07-18 2007-11-27 2Wire, Inc. Dual-use packet/analog phone or phone-adapter in a packet telephony distribution system
JP3469567B2 (ja) * 2001-09-03 2003-11-25 三菱電機株式会社 音響符号化装置、音響復号化装置、音響符号化方法及び音響復号化方法
US20040078104A1 (en) * 2002-10-22 2004-04-22 Hitachi, Ltd. Method and apparatus for an in-vehicle audio system
US7313528B1 (en) * 2003-07-31 2007-12-25 Sprint Communications Company L.P. Distributed network based message processing system for text-to-speech streaming data
US20060023900A1 (en) * 2004-07-28 2006-02-02 Erhart George W Method and apparatus for priority based audio mixing
US8019087B2 (en) * 2004-08-31 2011-09-13 Panasonic Corporation Stereo signal generating apparatus and stereo signal generating method
US7362941B2 (en) * 2005-01-21 2008-04-22 Cooper Technologies, Inc. Cable management system
CN1719513B (zh) * 2005-08-08 2011-04-27 北京中星微电子有限公司 音频序列器及声音文件处理方法
US7974422B1 (en) 2005-08-25 2011-07-05 Tp Lab, Inc. System and method of adjusting the sound of multiple audio objects directed toward an audio output device
JP4966981B2 (ja) 2006-02-03 2012-07-04 韓國電子通信研究院 空間キューを用いたマルチオブジェクト又はマルチチャネルオーディオ信号のレンダリング制御方法及びその装置
US8340256B2 (en) * 2006-03-03 2012-12-25 Motorola Solutions, Inc. Method for minimizing message collision in a device
EP1855455B1 (de) * 2006-05-11 2011-10-05 Global IP Solutions (GIPS) AB Tonmischung
US8391501B2 (en) 2006-12-13 2013-03-05 Motorola Mobility Llc Method and apparatus for mixing priority and non-priority audio signals
US8606923B2 (en) * 2010-09-15 2013-12-10 Core Mobile Networks, Inc. System and method for real time delivery of context based content from the cloud to mobile devices
US10511609B2 (en) 2010-09-15 2019-12-17 Core Mobile Networks, Inc. Context-based analytics and intelligence
UA105590C2 (uk) 2010-09-22 2014-05-26 Долбі Лабораторіс Лайсензін Корпорейшн Мікшування аудіопотоку з нормалізацією діалогового рівня
US8838722B2 (en) 2011-02-16 2014-09-16 Masque Publishing, Inc. Communications adaptable to mobile devices
US9270784B2 (en) 2011-02-16 2016-02-23 Masque Publishing, Inc. Peer-to-peer communications
CN103050124B (zh) * 2011-10-13 2016-03-30 华为终端有限公司 混音方法、装置及系统
US9628630B2 (en) 2012-09-27 2017-04-18 Dolby Laboratories Licensing Corporation Method for improving perceptual continuity in a spatial teleconferencing system
JP6553052B2 (ja) * 2014-01-03 2019-07-31 ハーマン インターナショナル インダストリーズ インコーポレイテッド ジェスチャ相互作用式の装着可能な空間オーディオシステム
JP6863359B2 (ja) * 2014-03-24 2021-04-21 ソニーグループ株式会社 復号装置および方法、並びにプログラム
JP6439296B2 (ja) * 2014-03-24 2018-12-19 ソニー株式会社 復号装置および方法、並びにプログラム
CN105120204B (zh) * 2015-08-06 2018-08-28 苏州科达科技股份有限公司 兼容多协议的会议中分享双流音频的方法、装置及系统
US10325610B2 (en) 2016-03-30 2019-06-18 Microsoft Technology Licensing, Llc Adaptive audio rendering
US10885921B2 (en) * 2017-07-07 2021-01-05 Qualcomm Incorporated Multi-stream audio coding
US11304013B2 (en) 2019-02-08 2022-04-12 Starkey Laboratories, Inc. Assistive listening device systems, devices and methods for providing audio streams within sound fields
JP2022527111A (ja) 2019-04-03 2022-05-30 ドルビー ラボラトリーズ ライセンシング コーポレイション スケーラブル音声シーンメディアサーバ
WO2021127226A1 (en) 2019-12-17 2021-06-24 Starkey Laboratories, Inc. Audio system with ear-worn device and remote audio stream management
US11812213B2 (en) 2020-09-30 2023-11-07 Starkey Laboratories, Inc. Ear-wearable devices for control of other devices and related methods

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4771465A (en) 1986-09-11 1988-09-13 American Telephone And Telegraph Company, At&T Bell Laboratories Digital speech sinusoidal vocoder with transmission of only subset of harmonics
US4797926A (en) 1986-09-11 1989-01-10 American Telephone And Telegraph Company, At&T Bell Laboratories Digital speech vocoder
US5327518A (en) 1991-08-22 1994-07-05 Georgia Tech Research Corporation Audio analysis/synthesis system
JPH0698317A (ja) 1991-10-29 1994-04-08 Nec Eng Ltd テレビ会議方式
GB2284968A (en) * 1993-12-18 1995-06-21 Ibm Audio conferencing system
JPH07264144A (ja) 1994-03-16 1995-10-13 Toshiba Corp 信号圧縮符号化装置および圧縮信号復号装置
JPH07264570A (ja) 1994-03-17 1995-10-13 Oki Electric Ind Co Ltd マルチポイントコミュニケーションシステム
JP3485958B2 (ja) 1994-04-08 2004-01-13 株式会社東芝 記録媒体再生装置及び記録媒体再生方法
JPH0832950A (ja) 1994-07-21 1996-02-02 Matsushita Electric Ind Co Ltd 多地点会議システム
JPH08263094A (ja) 1995-03-10 1996-10-11 Winbond Electron Corp メロディを混合した音声を発生する合成器
US5703794A (en) * 1995-06-20 1997-12-30 Microsoft Corporation Method and system for mixing audio streams in a computing system
US5844600A (en) 1995-09-15 1998-12-01 General Datacomm, Inc. Methods, apparatus, and systems for transporting multimedia conference data streams through a transport network
JPH1075310A (ja) * 1996-08-29 1998-03-17 Nec Corp 多地点テレビ会議システム
US5890017A (en) * 1996-11-20 1999-03-30 International Business Machines Corporation Application-independent audio stream mixer
US5963153A (en) * 1997-10-31 1999-10-05 Ati Technologies, Inc. Multi-stream audio sampling rate conversion system and method using variable converter rate control data
US5986589A (en) * 1997-10-31 1999-11-16 Ati Technologies, Inc. Multi-stream audio sampling rate conversion circuit and method

Also Published As

Publication number Publication date
KR100639899B1 (ko) 2006-10-31
WO1999060815A8 (en) 2000-04-13
DE69926967D1 (de) 2005-10-06
WO1999060815A3 (en) 2000-02-17
US6230130B1 (en) 2001-05-08
JP2002516421A (ja) 2002-06-04
CN1143264C (zh) 2004-03-24
WO1999060815A2 (en) 1999-11-25
CN1272938A (zh) 2000-11-08
KR20010021963A (ko) 2001-03-15
EP0995191A2 (de) 2000-04-26
EP0995191B1 (de) 2005-08-31

Similar Documents

Publication Publication Date Title
DE69926967T2 (de) Mischen von audio-strömen
EP2047669B1 (de) Verfahren zum durchführen einer audiokonferenz, audiokonferenzeinrichtung und umschalteverfahren zwischen kodierern
DE602004008613T2 (de) Treueoptimierte kodierung mit variabler rahmenlänge
DE60206390T2 (de) Effiziente und skalierbare parametrische stereocodierung für anwendungen mit niedriger bitrate
DE602004010188T2 (de) Synthese eines mono-audiosignals aus einem mehrkanal-audiosignal
DE602005006424T2 (de) Stereokompatible mehrkanal-audiokodierung
DE60130665T2 (de) Audiodatenverarbeitung
EP1016319B1 (de) Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals
DE69827775T2 (de) Tonkanalsmischung
DE69934454T2 (de) Digitalaudiosignaldekodierungsvorrichtung und -verfahren und Aufzeichnungsträger zum Speichern der Dekodierungsstufen
DE3322413A1 (de) Videouebertragung mit verringerter bandbreite
DE102005014477A1 (de) Vorrichtung und Verfahren zum Erzeugen eines Datenstroms und zum Erzeugen einer Multikanal-Darstellung
EP1023777B1 (de) Verfahren und vorrichtung zur erzeugung eines bitratenskalierbaren audio-datenstroms
EP2457390A1 (de) Vorrichtung und verfahren zur optimierung stereophoner oder pseudostereophoner audiosignale
EP1430750B1 (de) Verfahren und vorrichtung zur auswahl eines klangalgorithmus
WO2008011901A1 (de) Verfahren zum durchführen einer sprachkonferenz und sprachkonferenzsystem
DE60035453T2 (de) Auswahl des Synthesefilters für eine CELP Kodierung von breitbandigen Audiosignalen
EP0712264A2 (de) Verfahren und Vorrichtung zur mehrkanaligen Tonwiedergabe
EP1340352B1 (de) Verfahren und vorrichtung zum steuern der übertragung und wiedergabe von digitalen signalen
DE112020001090T5 (de) Signalverarbeitungsvorrichtung, -verfahren und -programm
DE102018121309A1 (de) Verfahren und Vorrichtung zur Audiosignalverarbeitung
WO2006056529A1 (de) Codierverfahren und decodierverfahren, sowie codiervorrichtung und decodiervorrichtung
DE602004006401T2 (de) Aktualisieren eines verborgenen datenkanals
DE112021005027T5 (de) Nahtloses skalierbares decodieren von kanälen, objekten und hoa-audioinhalt
DE60026719T2 (de) Digitale schallsignalverarbeitungs-vorrichtung mit einer verzögerungsleitung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: IPG ELECTRONICS 503 LTD., ST. PETER PORT, GUER, GB

8328 Change in the person/name/address of the agent

Representative=s name: PATENTANWAELTE BRESSEL UND PARTNER, 12489 BERLIN

R082 Change of representative

Ref document number: 995191

Country of ref document: EP

Representative=s name: PATENTANWAELTE BRESSEL UND PARTNER, DE