DE69926967T2 - Mischen von audio-strömen - Google Patents
Mischen von audio-strömen Download PDFInfo
- Publication number
- DE69926967T2 DE69926967T2 DE69926967T DE69926967T DE69926967T2 DE 69926967 T2 DE69926967 T2 DE 69926967T2 DE 69926967 T DE69926967 T DE 69926967T DE 69926967 T DE69926967 T DE 69926967T DE 69926967 T2 DE69926967 T2 DE 69926967T2
- Authority
- DE
- Germany
- Prior art keywords
- frames
- occurring
- selector
- streams
- stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000002156 mixing Methods 0.000 title claims description 24
- 238000012545 processing Methods 0.000 claims description 28
- 238000000034 method Methods 0.000 claims description 19
- 230000003750 conditioning effect Effects 0.000 claims description 11
- 238000009877 rendering Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 5
- 230000010365 information processing Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 9
- 230000001143 conditioned effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000012925 reference material Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4341—Demultiplexing of audio and video streams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/56—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
- H04M3/568—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/438—Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
- H04N21/4385—Multiplex stream processing, e.g. multiplex stream decrypting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Description
- BEREICH DER ERFINDUNG
- Die vorliegende Erfindung bezieht sich auf ein Verfahren und ein System zum Verarbeiten von Audio, wobei das Mischen mehrerer gleichzeitig auftretender Audiodatenströme angewandt wird. Die vorliegende Erfindung bezieht sich insbesondere, aber nicht ausschließlich, auf das Mischen mehrerer gleichzeitig auftretender Sprachdaten.
- STAND DER TECHNIK
- Künstliche Verarbeitung von Sprache benutzt typischerweise eine digitale Darstellung der Daten, und zwar wegen der Beständigkeit gegen Verzerrung. Digitale Verarbeitung ermöglicht weiterhin Daten Streaming. Streaming ermöglicht es, dass Audiodaten, wie Sprachdaten, "im Flug" komprimiert werden, so dass Echtzeitkommunikation ermöglicht wird, statt der Notwendigkeit, zu warten, bis eine Datei oder ein Teil davon heruntergeladen ist, bevor Zugriff darauf beantragt wird. Für eine Einleitung zu Sprachverarbeitung, siehe beispielsweise "Speech Coding and Synthesis", von W.B. Kleijn und K.K. Paliwal, Elsevier, 1995, insbesondere Seiten 1–47.
- Das Mischen von Sprachströmen ist bei einem Empfänger erforderlich, wenn mehrere Sprachströme aufbereitet und über eine einzige Audioanordnung wiedergegeben werden müssen. Das Mischen von Sprachströmen ist ebenfalls erwünscht an einer Zwischenstelle in der Übertragungsstrecke (beispielsweise bei einem Server in einer Kunde-Server-Architektur), wenn mehrere Sprachströme verfügbar sind, die zu einem einzigen Strom kombiniert werden sollen oder zu einer reduzierten Anzahl Ströme zur Neuübertragung zu einem bestimmten Empfänger oder zu einer Gruppe von Empfängern.
- Das Mischen mehrerer Ströme beim Empfänger erfordert, dass die decodierten Ströme aufbereitet werden zum Erzeugen der Signale, die über die Lautsprecher wiedergegeben werden sollen. Die Aufbereitungsfunktion für jeden Strom wird durch die Applikation bestimmt und kann von einer einfachen Verdopplung für Mono-Wiedergabe über einen Satz von Lautsprechern, bis zu einer komplizierten Funktion zum Schaffen von Lautsprecherkompensation und zur räumlichen Lokalisierung jeder Schallquelle reichen. US-A-5646931 beschreibt ein Verfahren zum Selektieren, Mischen und Liefern von Schallströmen.
- AUFGABE DER ERFINDUNG
- Es ist nun u. a. eine Aufgabe der vorliegenden Erfindung, Prozeduren zum Mischen mehrerer Ströme zu schaffen, welche die erforderliche Verarbeitungsleistung gegenüber bestehenden Systemen reduzieren. Es ist eine weitere Aufgabe der vorliegenden Erfindung Mischprozeduren zu schaffen, welche die erforderliche Bandbreite gegenüber den bestehenden Schemen reduzieren. Noch eine andere Aufgabe der vorliegenden Erfindung ist es, Architekturen zu schaffen, die gegenüber der Bandbreite und/oder der Verarbeitungsleistung skalierbar sind.
- ZUSAMMENFASSUNG DER ERFINDUNG
- Dazu schafft die vorliegende Erfindung ein Verfahren zur Audioverarbeitung, wie in Anspruch 1 definiert, ein System, wie in Anspruch 5 definiert, einen Empfänger, wie in Anspruch 10 definiert, einen Controller, wie in Anspruch 14 definiert, ein Computerprogramm, wie in Anspruch 18 definiert und ein vom Computer auslesbares Medium, wie in Anspruch 19 definiert. Das Verfahren umfasst das Mischen mehrerer gleichzeitig auftretender Audioströme. Jeder betreffende Strom der Ströme umfasst eine betreffende Sequenz von Frames. Ein Subsatz bestimmter Frames wird aus den gleichzeitig auftretenden Frames selektiert. Beim Selektieren werden die bestimmten Frames des Subsatzes decodiert und zur Wiedergabe bestimmter Frames aufbereitet. Die bestimmten Signale werden danach gemischt. Das Selektionskriterium betrifft eine Menge, die inhärent an jedem der gleichzeitig auftretenden Frames ist. In parametrischen Codierungsschemen umfasst beispielsweise ein bestimmtes Frame einen Parameter, der den Energieinhalt des Frames darstellt, oder einen Parameter, der angibt, ob das Frame sich ggf. auf stimmhafte oder stimmlose Sprache bezieht. Auf alternative Weise oder auf zusätzliche Weise gibt ein Parameter eine Tonhöhe an. Auf alternative Weise oder auf zusätzliche Weise können die Amplituden ermittelt und addiert werden zum Schaffen eines anderen Maßes. Auf Basis dieser Quantitäten, werden, möglicherweise nach zusätzlicher Gewichtung die gleichzeitig auftretenden Frames entsprechend der Wichtigkeit geordnet und die vorliegende Erfindung selektiert diejenigen Frames zur Decodierung, die am wichtigsten sind. Um ein genaueres Beispiel zu geben kann das Selektionskriterium eine mathematische Beziehung zwischen dem Energieinhalt und der Aufbereitungsverstärkung. Die Aufbereitungsverstärkung wird wie folgt erläutert. Die decodierten Ströme sollen aufbereitet werden zum Erzeugen der Signale, wie diese von den Lautsprechern wiedergegeben werden. Die Aufbereitungsverstärkung ist eine Quantität, die den Effekt der Aufbereitung an der wahrnehmbaren Intensität der Signalquelle darstellt. Die Aufbereitungsverstärkung kann auf alles was der Entwickler der Applikation wünscht, gesetzt werden. So wird beispielsweise die Aufbereitungsverstärkung auf die Summe der Energieverstärkungen von dem decodierten Signal auf jedes der Lautsprechersignale gesetzt, wenn mit weißem Rauschen aufbereitet wird, d.h. die Summe der Energie der Impulsantwort des Aufbereiters.
- Die Selektion kann betreffende Prioritäten betreffen, die von dem Benutzer oder von dem Entwickler der Applikation einem bestimmten Strom der Ströme zugeordnet ist. Die Prioritäten sind unabhängig von wahrnehmbaren Erwägungen. Der Selektionsschritt schafft dann einen Subsatz auf Basis der Kombinationen aufbereiteter Energie und Priorität.
- Eine Skala von Möglichkeiten kann angewandt werden zum Definieren der Gleichzeitigkeit. So kann beispielsweise Gleichzeitigkeit der Frames ermittelt werden, bei beispielsweise Zeitmarkierung. Ein anderes Beispiel ist, dass die gleichzeitig auftretenden Frames diejenigen Frames sind, die an dem Eingang des Selektionsschrittes zu dem Zeitpunkt anwesend sind, wo die Selektion gestartet wird. Pufferung kann angewandt werden, als Hilfe in der letzteren Betriebsart, eine Zeitausrichtung zu erhalten.
- Vorzugsweise wird Decodierung erreicht durch die Verwendung einer sinusförmigen Decoderschaltung, deren Wirkungsweise auf Überlappungssynthese basiert um hörbare Artefakte zu begrenzen. Für sinusförmige Codierer siehe beispielsweise US Patent 4.771.465 und 4.797.926. Für Überlappungssynthese, auch in Kombination mit sinusförmigen Decodern, siehe US Patent 5.327.518. Typischerweise lässt sich der Energieinhalt eines Frames einfacher erhalten als das Decodieren des ganzen Frames. So erfordern eine Skala von Codierungsschemen, beispielsweise Linearprädiktionscodierung und vorhergesagte sinusförmige Codierung, die Übertragung eines Parameters, der für die Signalleistung oder die Energie je Frame repräsentativ ist, zusammen mit den Inhaltsdaten, siehe von Kleijn und Paliwal, oben genannt, Kapitel 1, insbesondere die Seiten 36 und 37 und das oben genannte US Patent 4.771.465. Auf entsprechende Art und Weise ist der Energieinhalt eines Frames leicht verfügbar um die Selektion der betreffenden Frames durchzuführen, ohne die Notwendigkeit zusätzlicher Verarbeitungsenergie.
- KURZE BESCHREIBUNG DER ZEICHNUNG
- Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
-
1 ein Blockschaltbild eines ersten Systems zur Verarbeitung von Sprache nach der vorliegenden Erfindung, -
2 ein Flussdiagramm zur Erläuterung der Wirkungsweise des Systems nach1 , -
3 ein Blockschaltbild eines zweiten Systems nach der vorliegenden Erfindung, und -
4 ein Blockschaltbild eines dritten Systems nach der vorliegenden Erfindung. - In den Figuren bezeichnen dieselben Bezugszeichen entsprechende Elemente.
- BEVORZUGTE AUSFÜHRUNGSFORMEN
- Erstes System
-
1 ist ein Blockschaltbild eines ersten Systems100 nach der vorliegenden Erfindung zum Mischen eines ersten und eines zweiten Sprachstroms A und B. Das Mischen von N = 2 Strömen ist als Beispiel gegeben. Das Wesen der vorliegenden Erfindung gilt auch für N = 3, 4, ... usw. Das System100 umfasst Codierer102 und104 zum Codieren eines ersten und eines zweiten Stroms A bzw. B. Ausgänge der Codierer102 und104 sind mit Eingängen eines Selektors106 gekoppelt, hier mit einem N-zu-M-Multiplexer. Ein Ausgang des Multiplexers106 ist mit einem Eingang eines Decoders108 gekoppelt. Die Wirkungsweise der Codierer102 –104 und des Decoders108 basiert beispielsweise auf einer sinusförmigen Codierungsstrategie. Ein Ausgang des Decoders108 ist mit einem Eingang eines Routers110 gekoppelt, hier mit einem Demultiplexer. Ausgänge des Demultiplexers110 sind mit einer ersten und einer zweiten Aufbereitungsschaltung112 und114 gekoppelt. Ausgänge der Schaltungsanordnungen112 und114 sind mit der Mischstufe116 , beispielsweise einem Addierer, gekoppelt. Der Ausgang der Mischstufe116 ist mit einer Audioausgangsanordnung118 , beispielsweise einem Lautsprecher, gekoppelt. Das Aufbereiten erzeugt die Signale, die von der Audioausgangsanordnung118 wiedergegeben wer den sollen. Das System100 umfasst weiterhin einen Controller120 zur Steuerung des Multiplexers108 auf Basis des Energieinhalts je Frame, der Aufbereitungsverstärkung je Strom und der Priorität, die je Strom zugeordnet wird, was nachstehend noch näher erläutert wird. Der Controller120 steuert ebenfalls den Demultiplexer110 auf Basis der Identität des Stroms, der das von dem Decoder108 decodierte Frame schafft. Die Elemente 106–120 sind Teil eines Empfängers122 . - Die Rolle der Aufbereitungsverstärkung ist wie folgt. Das Mischen vieler Ströme A und B im Empfänger
122 erfordert, dass die decodierten Ströme aufbereitet werden zum Erzeugen der Signale, die von Lautsprechern118 wiedergegeben werden sollen. Eine Aufbereitungsfunktion für einen Strom könnte je Applikation oder Betriebsart bestimmt werden. Eine derartige Funktion könnte von einer einfachen Duplikation, für Mono-Wiedergabe über einen Satz von zwei Lautsprechern, bis zu einer komplizierten Übertragungsfunktion zum Schaffen von Lautsprecherkompensation und zur räumlichen Lokalisierung jeder Schallquelle reichen. Eine derartige Aufbereitungsfunktion kann angewandt werden zum Einstellen des wahrnehmbaren Effektes der Aufbereitungsschaltungen auf jeden Strom, beispielsweise Strom A, gegenüber den anderen Strömen, beispielsweise dem Strom B. Aber eine Aufbereitungsfunktion ist typischerweise signalabhängig und möglicherweise frequenzabhängig. Die Anwendung dieser Funktion könnte die Aufbereitung unpraktisch und kompliziert machen. Die vorliegende Erfindung bevorzugt deswegen die Anwendung einer einzigen Funktion, der Aufbereitungsverstärkung, je Strom. Die Verstärkung wird je Applikation und je Strom bestimmt und könnte gewünschtenfalls dynamisch geändert werden. Die Verstärkung nähert dem Effekt einer aufwändigeren Aufbereitungsfunktion auf die wahrgenommene Intensität der Sprachquelle an, die mit dem betreffenden Strom assoziiert ist. Der Energieinhalt je Frame eines Stromes wird mit der für diesen Strom eingestellten Aufbereitungsverstärkung multipliziert zum Erzeugen einer Quantität, die als aufbereitete Energie bezeichnet wird. - Die Rolle der Priorität ist die Folgende. Die relative Bedeutung von Strömen A und B am Eingang des Decoders
108 kann eine Komponente haben, die unabhängig ist von den wahrnehmbaren Erwägungen. So kann beispielsweise die Fokussierung der Aufmerksamkeit des Zuhörers oder das Stummschalten einer oder mehrerer Quellen dadurch gesteuert werden, dass die Prioritäten gesetzt werden. Auf entsprechende Art und Weise kann der Entwerfer der Applikation die relative Gewichtung je Strom durch Zuordnung von Prioritäten einstellen. - Der Controller
120 ordnet jedem der N gleichzeitig auftretenden Frames mit Hilfe einer mathematischen Beziehung eine Rangordnung zu, wobei es sich um aufbereitete Energie und Priorität handelt. So wird beispielsweise jedes der gleichzeitig auftretenden Frames in ablaufender Reihenfolge der Priorität eingeteilt und wenn es eine Verbindung gibt, in ablaufender Reihenfolge aufbereiteter Energie. Der Controller120 steuert danach den Multiplexer106 derart, dass die M = 1 Frames der höchsten Ordnung decodiert und aufbereitet werden, wobei eine feste Anzahl von M Decodern108 und eine feste Anzahl Aufbereitungsschaltungen verwendet wird. - Die Aufbereitungsschaltungen
1112 und114 erzeugen aufbereitete Ströme entsprechend der Identität (A oder B) der Ströme. Der Controller120 kann dazu den Demultiplexer110 auf Basis der Identität des mit dem decodierten Frame assoziierten Stromes steuern. Auf alternative Art und Weise kann der Multiplexer das Steuersignal zum Betreiben des Demultiplexers110 auf Basis der Identität des Stromes steuern. - Das System
100 schafft auf diese Art und Weise eine Mischstrategie zum Decodieren und möglicherweise zum Aufbereiten, die gegenüber der Verarbeitungsleitung skalierbar ist, während akzeptierbare Ergebnisse an dem Audioausgang geschaffen werden. - Flussdiagramm
-
2 ist ein Flussdiagramm200 , das die Wirkungsweise des Systems100 illustriert. Das Verfahren wird auf eine Anzahl von N gleichzeitig auftretenden Sprachströmen von codierten Frames angewandt, die unter Verwendung einer Anzahl von M Decodern verarbeitet werden, wobei M kleiner ist als N. In dem Beispiel nach1 ist N = 2 und M = 1. - In dem Schritt
202 werden eine Anzahl von N gleichzeitig auftretenden Frames überprüft und für jedes betreffende Frame wird ein betreffender Energieinhalt ermittelt. Geeignete Codierungsschemen, wie sinusförmige Codierung oder eine auf Linearprädiktion basierte Codierung übertragen ein Maß für die Energie jedes Frames, zusammen mit den Inhaltsdaten des Frames. Auf entsprechende Art und Weise kann die Ermittlung des Energieinhalts je Frame ohne Decodierung der Frames oder mit weniger Verarbeitungsleistung als zum Decodieren eines kompletten Frames erforderlich ist. - In dem Schritt
204 wird jedem betreffenden Frame der N in dem Schritt202 verarbeiteten Frames ein aufbereitetes Energiemaß zugeordnet, und zwar durch Multiplikation des betreffenden Energieinhalts mit einem betreffenden Faktor, der als Aufbereitungsverstärkung bezeichnet wird, spezifisch für den betreffenden Strom. - In dem Schritt
206 wird für jeden der N Frames die Priorität gegenüber den anderen Frames ermittelt, und zwar auf Basis der Priorität des entsprechenden Stromes, wobei die relative Bedeutung des Frames angegeben wird. - In dem Schritt
208 werden die N Frames entsprechend der Priorität des zugeordneten Stroms gegliedert, beispielsweise in ablaufender Reihenfolge. Wenn es eine Verbindung gibt, werden die betreffenden Frames entsprechend deren betreffenden aufbereiteten, in dem Schritt204 ermittelten Energiemaßes gegliedert, beispielsweise in ablaufender Reihenfolge. - In dem Schritt
210 werden die M Frames der höchsten Rangordnung decodiert und aufbereitet, und zwar unter Verwendung einer Anzahl von M Decodern. - In dem Schritt
212 werden m decodierte und aufbereitete Ströme durch Überlappungsaddierung jedes der M decodierten und aufbereiteten Frames mit vorhergehenden Frames entsprechend demselben Strom erzeugt. - In dem Schritt
214 werden die M decodierten und aufbereiteten Ströme dadurch gemischt, dass sie alle zusammengezählt werden. - Zweites System
-
3 ist ein Blockschaltbild eines zweiten Systems300 nach der vorliegenden Erfindung. Das System300 illustriert, wie die Anzahl von N eintreffender Ströme, nier N = 2 mit den Strömen A und B, an einer Zwischenstelle in einen einzigen Strom umgewandelt werden, und zwar zur Übertragung zu einem selektierten Empfänger einer Anzahl Empfänger.3 zeigt der Deutlichkeit halber nur einen einzigen Empfänger302 . Selektion der Frames erfolgt nun durch den N-zu-M-Multiplexer304 an einer Zwischenstelle in der Übertragungsstrecke zwischen den Codierern102 –104 und dem Decoder108 . Nur die M = 1 Frames, die entsprechend beispielsweise den oben beschriebenen Kriterien selektiert worden sind, werden dem Empfänger302 zugeführt, und zwar zusammen mit einem Strom-Iidentifizierer, wie oben in einer der alternativen Ausführungsformen für das System100 erwähnt. Der Controller120 kann, braucht aber nicht, ein Teil des Empfängers302 sein. - Es sei bemerkt, dass der gemultiplexte Strom von der Zwischenstelle zu jedem der Empfänger nicht einen Codierer braucht, der allgemeine Audioströme unterstützt. Die Bandbreite für jeden Empfänger ist auf diejenige begrenzt, die für M eintreffende Ströme (hier M = 1) plus etwas mehr zur Übertragung der Stromidentität je Frame erforderlich ist. Diese Annäherung gewährleistet eine Bandbreitenskalierbarkeit. Der Stromidentifizierer je Frame wird in diesem Beispiel über den Multiplexer 304 dem Demultiplexer
110 zugeführt. Die Verarbeitungsleistung an der Zwischenstelle ist auf die Berechnung aufbereiteter Energien und die Rangordnung von Strömen begrenzt. Decodierung, Aufbereitung und Mischung an der Seite des Empfängers302 entspricht der Verarbeitung von M Strömen, wobei die Skalierbarkeit der Verarbeitungsleistung gewährleistet wird. - Drittes System
-
4 ist ein Blockschaltbild eines dritten Systems400 nach der vorliegenden Erfindung und schafft eine Alternative zu den Systemen100 und300 . Die Verarbeitungsstrategien, die der Wirkungsweise der Systeme100 und300 entsprechen, erfordern, dass die Decoder108 von dem einen Strom auf einen anderen geschaltet werden, wenn die betreffenden Frames eines einzigen Subsatzes von Strömen herrühren, die von den betreffenden Frames von einem nächsten Subsatz abweichen. Die Systeme100 und300 verlassen sich auf die Kontinuität der Phase und auf die Überlappungsaddierungsrekonstruktion (siehe das Bezugsmaterial am Ende der Beschreibung) bei den Empfängern122 und302 um die Übertragung zwischen Subsätzen verschiedener Ströme entsprechend aufeinander folgenden Subsätzen bestimmter Frames zu glätten. - Das System
400 verarbeitet N = 2 Ströme A und B. Der N-zu-M-Multiplexer304 wird gesteuert zum Selektieren des Subsatzes von M bestimmten Frames aus N gleichzeitig auftretenden Frames entsprechend einem der oben beschriebenen Selektionskriterien. Die M Frames werden dem Empfänger402 zugeführt, wobei der M-zu-N-Demultiplexer110 ein bestimmtes Frame der M selektierten Frames des aktuellen Subsatzes einem der N Decoder404 und406 zuordnet, und zwar entsprechend dem relevanten Strom der N Ströme. An der Decoderseite werden die N-M-Frames in dem Selektionsprozess als ein Frame-Verlust verworfen. Das heißt, die Decoder404 und406 werden diskret oder kontinuierlich zu Zeitdehnung gesteuert, oder werden dazu gebracht, das vorher empfangene Frame zu wiederholen, um den Frame-Verlust wiederherzustellen. Wiederholung wird beispielsweise über Wiederholungseinheiten408 und410 erreicht. Diskrete Zeitdehnung hat Vorteile gegenüber eine einfache Wiederholung, wenn eine sinusförmige Codierung angewandt wird. Die Vorteile beziehen sich auf eine Reduktion in der Komplexität der erforderlichen Berechnungen. Dies wird wie folgt erläutert. Eine sinusförmige Codierung ist parametrisch (siehe: Kleijn und Paliwal, wie oben genannt). Decodierung erfordert zwei Schritte: die Rekonstruktion der Parametereinstellungen aus dem codierten Frame, und das Laufen der Oszillatoren während einer Zeitperiode, wie durch die Parameter angegeben. Doppelte Decodierung desselben Frames erfordert, dass die beiden Schritte durchgeführt werden. Einfache Decodierung mit Zeitdehnung erfordert, dass der erste Schritt nur einmal durchgeführt wird. Die N Ströme der decodierten Frames an den Ausgängen der Decodier404 und406 werden danach in den Aufbereitern412 und414 aufbereitet und in einer Mischstufe416 addiert. - Die Wirkungsweise des Systems
400 vermeidet ein Schalten zwischen Strömen bei dem Decoder. Aber es erfordert, dass N Decoder und Aufbereiter in dem Empfänger betrieben werden. Das System400 ist gegenüber der Bandbreite skalierbar. - Es sei bemerkt, dass die vorliegende Erfindung sich auf Audioverarbeitung bezieht, und insbesondere, aber nicht ausschließlich auf die Verarbeitung von Sprache.
- Es sei ebenfalls bemerkt, dass die Wirkungsweise des Controllers
120 , der Decoder108 ,404 und406 und der Aufbereiter112 ,114 ,412 ,414 in Software dargestellt werden können, beispielsweise als Computerprogramm auf einem handfesten Medium, wie einer Diskette zur Verwendung mit einem PC. Weiterhin könnte die vorliegende Erfindung auch dadurch implementiert werden, dass ein Benutzer das Verfahren nach der vorliegenden Erfindung beispielsweise durch Herunterladung der Software von dem Web durchführt. Bei Videokonferenzen, Karaoke oder beim Abspielen von Musik mit mehreren Parteien an verschiedenen Stellen könnte die vorliegende Erfindung mit Vorteil angewandt werden.
Claims (19)
- Verfahren zur Audioverarbeitung, wobei dieses Verfahren die nachfolgenden Verfahrensschritte umfasst: das Mischen mehrerer gleichzeitig auftretender Audioströme, wobei jeder betreffende Strom eine betreffende Sequenz von Frames aufweist, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Selektieren eines Subsatzes bestimmter Frames aus gleichzeitig auftretenden Frames, und zwar auf Basis eines Selektionskriteriums, wobei es sich um eine Menge handelt, die inhärent ist an jedem der gleichzeitig auftretenden Frames, – das Decodieren der bestimmten Frames des selektierten Subsatzes, – das Aufbereiten der decodierten bestimmten Frames zum Erzeugen bestimmter Signale, und – das Mischen der bestimmten Signale, dadurch gekennzeichnet, dass das Selektieren aus den gleichzeitig auftretenden Frames das Aufstellen der betreffenden Frames der gleichzeitig auftretenden Frames entsprechend betreffenden numerischen Werten der Menge für die betreffenden gleichzeitig auftretenden Frames und das Bilden des Subsatzes eines oder mehrerer höher stehender Frames der gleichzeitig auftretenden Frames.
- Verfahren nach Anspruch 1, wobei das Selektionskriterium weiterhin eine betreffende Priorität betrifft, zugeordnet zu einem betreffenden Strom der Ströme.
- Verfahren nach Anspruch 1, wobei die Menge einen betreffenden Energieinhalt des betreffenden Frames der gleichzeitig auftretenden Frames aufweist.
- Verfahren nach Anspruch 3, wobei die menge weiterhin einen betreffenden Aufbereitungsverstärkungsfaktor aufweist, zugeordnet zu dem betreffenden Strom der Ströme.
- Informationsverarbeitungssystem (
100 ) zum Verarbeiten von Audio, wobei das System die nachfolgenden Elemente umfasst: – einen Eingang zum Empfangen mehrerer gleichzeitig auftretender Audioströme, wobei jeder betreffende Strom der Ströme eine betreffende Sequenz von Frames aufweist, – einen selektor (106 ), der mit dem Eingang gekoppelt ist zum Selektieren eines Subsatzes bestimmter Frames aus gleichzeitig auftretenden Frames auf Basis eines Selektionskriteriums in Bezug auf eine Menge, die mit jedem Frame der gleichzeitig auftretenden Frames inhärent ist und das Weiterleiten der betreffenden Frames zu einem Selektorausgang, – eine Decodieranordnung (108 ), die zum Decodieren der bestimmten Frames mit dem Selektorausgang gekoppelt ist, – eine Aufbereitungsanordnung (112 ,114 ) zum Aufbereiten der decodierten bestimmten Frames zum Erzeugen bestimmter Signale, und – eine Mischanordnung (116 ) zum Mischen der bestimmten Signale, dadurch gekennzeichnet, dass das System wirksam ist zum Gliedern betreffender Frames der gleichzeitig auftretenden Frames entsprechend den betreffenden numerischen Werten der Menge für die betreffenden gleichzeitig auftretenden Frames und dass der Selektor (106 ) wirksam ist zum Bilden des Subsatzes eines oder mehrerer höher stehender Frames der gleichzeitig auftretenden Frames. - System nach Anspruch 5, mit einem Controller zur Steuerung des Selektors auf Basis des Selektionskriteriums.
- System nach Anspruch 5 oder 6, wobei das Selektionskriterium weiterhin eine betreffende Priorität betrifft, die einem bestimmten Strom der Ströme zugeordnet worden ist.
- System nach Anspruch 5 oder 6, wobei die Menge einen betreffenden Energieinhalt des betreffenden einen Frames der gleichzeitig auftretenden Frames hat.
- System nach Anspruch 8, wobei die Menge weiterhin einen betreffenden Aufbereitungsverstärkungsfaktor hat, zugeordnet zu dem betreffenden Strom der Ströme.
- Empfänger (
302 ), der die nachfolgenden Elemente umfasst: – eine Decoderanordnung (108 ), die mit einem Selektorausgang gekoppelt werden muss zum Decodieren bestimmter Frames, herrührend von einem Selektor (304 ), wobei dieser Selektor (304 ) mit einem Eingang gekoppelt ist zum Empfangen mehrerer gleichzeitig auftretender Audioströme, wobei jeder betreffende Strom der Ströme eine betreffende Sequenz mit Frames aufweist, zum Selektieren eines Subsatzes bestimmter Frames aus gleichzeitig auftretenden Frames der Frames an dem Eingang und zum Weiterleiten der bestimmten Frames zu dem Selektorausgang; – eine Aufbereitungsanordnung (112 ,114 ) zum Aufbereiten der decodierten bestimmten Frames zum Erzeugen bestimmter Signale, – eine Mischanordnung (116 ) zum Mischen der bestimmten Signale, und – einen Controller (120 ) zur Steuerung des Selektors (304 ) auf Basis eines Selektionskriteriums in Bezug auf eine Menge, die inhärent ist an jedem der gleichzeitig auftretenden Frames, dadurch gekennzeichnet, dass der Controller (120 ) wirksam ist zum Aufstellen der bestimmten Frames der gleichzeitig auftretenden Frames entsprechend den betreffenden numerischen Werten der Menge für die bestimmten gleichzeitig auftretenden Frames und zum Steuern des Selektors (304 ) zum Bilden des Subsatzes einer oder mehrerer höher gestellter Frames der gleichzeitig auftretenden Frames. - Empfänger nach Anspruch 10, wobei das Selektionskriterium weiterhin eine bestimmte Priorität betrifft, die einem bestimmten Strom der Ströme zugeordnet ist.
- Empfänger nach Anspruch 10, wobei die menge einen bestimmten Energieinhalt des bestimmten Frames der gleichzeitig auftretenden Frames aufweist.
- Empfänger nach Anspruch 12, wobei die Menge weiterhin einen bestimmten Aufbereitungsverstärkungsfaktor aufweist, der dem bestimmten Strom der Ströme zugeordnet ist.
- Controller (
120 ) zur Steuerung eines Selektors (304 ), wobei der Selektor (304 ) einen Eingang hat zum Empfangen mehrerer gleichzeitig auftretender Audioströme, wobei jeder betreffende Strom der Ströme eine bestimmte Sequenz von Frames aufweist, wobei der Selektor (304 ) wirksam ist zum Selektieren eines Subsatzes bestimmter Frames aus gleichzeitig auftretenden Frames an dem Eingang und zum Weiterleiten der bestimmten Frames zu einem Selektorausgang, wobei dieser Selektorausgang mit der Anordnung (108 ,112 ,114 ,116 ) gekoppelt werden soll, und zwar zum Decodieren der bestimmten Frames, zum Aufbereiten der decodierten bestimmten Frames zum Erzeugen bestimmter Signale und zum Mischen der bestimmten Signale, wobei der Controller (120 ) wirksam ist zum Steuern des Selektors (304 ) auf Basis eines Selektionskriteriums in Bezug auf eine Menge, die zu jedem Frame der gleichzeitig auftretenden Frames inhärent ist, dadurch gekennzeichnet, dass der Controller (120 ) wirksam ist zum Aufstellen betreffender Frames der gleichzeitig auftretenden Frames entsprechend bestimmten numerischen Werten der Menge für die bestimmten gleichzeitig auftretenden Frames und zum Steuern des Selektors (304 ) zum Bilden des Subsatzes eines oder mehrerer höher stehender Frames der gleichzeitig auftretenden Frames. - Controller nach Anspruch 14, wobei das Selektionskriterium weiterhin eine bestimmte Priorität hat, die einem bestimmten Strom der Ströme zugeordnet ist.
- Controller nach Anspruch 14, wobei die Menge einen bestimmten Energieinhalt des bestimmten Frames der gleichzeitig auftretenden Frames aufweist.
- Controller nach Anspruch 16, wobei die Menge weiterhin einen bestimmten Aufbereitungsverstärkungsfaktor hat, der dem bestimmten Strom der Ströme zugeordnet ist.
- Computerprogramm mit Computerprogrammcodemitteln, die wirksam sind zum Durchführen aller Verfahrensschritte des Verfahrens nach Anspruch 1, wenn das genannte Programm in einem Computer läuft.
- Mit einem Computer auslesbares Medium, auf dem das Computerprogramm nach Anspruch 18 gespeichert ist.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/025,375 US6230130B1 (en) | 1998-05-18 | 1998-05-18 | Scalable mixing for speech streaming |
US25375 | 1998-05-18 | ||
PCT/IB1999/000241 WO1999060815A2 (en) | 1998-05-18 | 1999-02-11 | Scalable mixing for speech streaming |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69926967D1 DE69926967D1 (de) | 2005-10-06 |
DE69926967T2 true DE69926967T2 (de) | 2006-06-22 |
Family
ID=21825663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69926967T Expired - Lifetime DE69926967T2 (de) | 1998-05-18 | 1999-02-11 | Mischen von audio-strömen |
Country Status (7)
Country | Link |
---|---|
US (1) | US6230130B1 (de) |
EP (1) | EP0995191B1 (de) |
JP (1) | JP2002516421A (de) |
KR (1) | KR100639899B1 (de) |
CN (1) | CN1143264C (de) |
DE (1) | DE69926967T2 (de) |
WO (1) | WO1999060815A2 (de) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7039581B1 (en) * | 1999-09-22 | 2006-05-02 | Texas Instruments Incorporated | Hybrid speed coding and system |
FR2802329B1 (fr) * | 1999-12-08 | 2003-03-28 | France Telecom | Procede de traitement d'au moins un flux binaire audio code organise sous la forme de trames |
US6810379B1 (en) * | 2000-04-24 | 2004-10-26 | Sensory, Inc. | Client/server architecture for text-to-speech synthesis |
US6697358B2 (en) * | 2001-07-18 | 2004-02-24 | 2Wire, Inc. | Emulation of phone extensions in a packet telephony distribution system |
US7301940B1 (en) | 2001-07-18 | 2007-11-27 | 2Wire, Inc. | Dual-use packet/analog phone or phone-adapter in a packet telephony distribution system |
JP3469567B2 (ja) * | 2001-09-03 | 2003-11-25 | 三菱電機株式会社 | 音響符号化装置、音響復号化装置、音響符号化方法及び音響復号化方法 |
US20040078104A1 (en) * | 2002-10-22 | 2004-04-22 | Hitachi, Ltd. | Method and apparatus for an in-vehicle audio system |
US7313528B1 (en) * | 2003-07-31 | 2007-12-25 | Sprint Communications Company L.P. | Distributed network based message processing system for text-to-speech streaming data |
US20060023900A1 (en) * | 2004-07-28 | 2006-02-02 | Erhart George W | Method and apparatus for priority based audio mixing |
US8019087B2 (en) * | 2004-08-31 | 2011-09-13 | Panasonic Corporation | Stereo signal generating apparatus and stereo signal generating method |
US7362941B2 (en) * | 2005-01-21 | 2008-04-22 | Cooper Technologies, Inc. | Cable management system |
CN1719513B (zh) * | 2005-08-08 | 2011-04-27 | 北京中星微电子有限公司 | 音频序列器及声音文件处理方法 |
US7974422B1 (en) | 2005-08-25 | 2011-07-05 | Tp Lab, Inc. | System and method of adjusting the sound of multiple audio objects directed toward an audio output device |
JP4966981B2 (ja) | 2006-02-03 | 2012-07-04 | 韓國電子通信研究院 | 空間キューを用いたマルチオブジェクト又はマルチチャネルオーディオ信号のレンダリング制御方法及びその装置 |
US8340256B2 (en) * | 2006-03-03 | 2012-12-25 | Motorola Solutions, Inc. | Method for minimizing message collision in a device |
EP1855455B1 (de) * | 2006-05-11 | 2011-10-05 | Global IP Solutions (GIPS) AB | Tonmischung |
US8391501B2 (en) | 2006-12-13 | 2013-03-05 | Motorola Mobility Llc | Method and apparatus for mixing priority and non-priority audio signals |
US8606923B2 (en) * | 2010-09-15 | 2013-12-10 | Core Mobile Networks, Inc. | System and method for real time delivery of context based content from the cloud to mobile devices |
US10511609B2 (en) | 2010-09-15 | 2019-12-17 | Core Mobile Networks, Inc. | Context-based analytics and intelligence |
UA105590C2 (uk) | 2010-09-22 | 2014-05-26 | Долбі Лабораторіс Лайсензін Корпорейшн | Мікшування аудіопотоку з нормалізацією діалогового рівня |
US8838722B2 (en) | 2011-02-16 | 2014-09-16 | Masque Publishing, Inc. | Communications adaptable to mobile devices |
US9270784B2 (en) | 2011-02-16 | 2016-02-23 | Masque Publishing, Inc. | Peer-to-peer communications |
CN103050124B (zh) * | 2011-10-13 | 2016-03-30 | 华为终端有限公司 | 混音方法、装置及系统 |
US9628630B2 (en) | 2012-09-27 | 2017-04-18 | Dolby Laboratories Licensing Corporation | Method for improving perceptual continuity in a spatial teleconferencing system |
JP6553052B2 (ja) * | 2014-01-03 | 2019-07-31 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | ジェスチャ相互作用式の装着可能な空間オーディオシステム |
JP6863359B2 (ja) * | 2014-03-24 | 2021-04-21 | ソニーグループ株式会社 | 復号装置および方法、並びにプログラム |
JP6439296B2 (ja) * | 2014-03-24 | 2018-12-19 | ソニー株式会社 | 復号装置および方法、並びにプログラム |
CN105120204B (zh) * | 2015-08-06 | 2018-08-28 | 苏州科达科技股份有限公司 | 兼容多协议的会议中分享双流音频的方法、装置及系统 |
US10325610B2 (en) | 2016-03-30 | 2019-06-18 | Microsoft Technology Licensing, Llc | Adaptive audio rendering |
US10885921B2 (en) * | 2017-07-07 | 2021-01-05 | Qualcomm Incorporated | Multi-stream audio coding |
US11304013B2 (en) | 2019-02-08 | 2022-04-12 | Starkey Laboratories, Inc. | Assistive listening device systems, devices and methods for providing audio streams within sound fields |
JP2022527111A (ja) | 2019-04-03 | 2022-05-30 | ドルビー ラボラトリーズ ライセンシング コーポレイション | スケーラブル音声シーンメディアサーバ |
WO2021127226A1 (en) | 2019-12-17 | 2021-06-24 | Starkey Laboratories, Inc. | Audio system with ear-worn device and remote audio stream management |
US11812213B2 (en) | 2020-09-30 | 2023-11-07 | Starkey Laboratories, Inc. | Ear-wearable devices for control of other devices and related methods |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4771465A (en) | 1986-09-11 | 1988-09-13 | American Telephone And Telegraph Company, At&T Bell Laboratories | Digital speech sinusoidal vocoder with transmission of only subset of harmonics |
US4797926A (en) | 1986-09-11 | 1989-01-10 | American Telephone And Telegraph Company, At&T Bell Laboratories | Digital speech vocoder |
US5327518A (en) | 1991-08-22 | 1994-07-05 | Georgia Tech Research Corporation | Audio analysis/synthesis system |
JPH0698317A (ja) | 1991-10-29 | 1994-04-08 | Nec Eng Ltd | テレビ会議方式 |
GB2284968A (en) * | 1993-12-18 | 1995-06-21 | Ibm | Audio conferencing system |
JPH07264144A (ja) | 1994-03-16 | 1995-10-13 | Toshiba Corp | 信号圧縮符号化装置および圧縮信号復号装置 |
JPH07264570A (ja) | 1994-03-17 | 1995-10-13 | Oki Electric Ind Co Ltd | マルチポイントコミュニケーションシステム |
JP3485958B2 (ja) | 1994-04-08 | 2004-01-13 | 株式会社東芝 | 記録媒体再生装置及び記録媒体再生方法 |
JPH0832950A (ja) | 1994-07-21 | 1996-02-02 | Matsushita Electric Ind Co Ltd | 多地点会議システム |
JPH08263094A (ja) | 1995-03-10 | 1996-10-11 | Winbond Electron Corp | メロディを混合した音声を発生する合成器 |
US5703794A (en) * | 1995-06-20 | 1997-12-30 | Microsoft Corporation | Method and system for mixing audio streams in a computing system |
US5844600A (en) | 1995-09-15 | 1998-12-01 | General Datacomm, Inc. | Methods, apparatus, and systems for transporting multimedia conference data streams through a transport network |
JPH1075310A (ja) * | 1996-08-29 | 1998-03-17 | Nec Corp | 多地点テレビ会議システム |
US5890017A (en) * | 1996-11-20 | 1999-03-30 | International Business Machines Corporation | Application-independent audio stream mixer |
US5963153A (en) * | 1997-10-31 | 1999-10-05 | Ati Technologies, Inc. | Multi-stream audio sampling rate conversion system and method using variable converter rate control data |
US5986589A (en) * | 1997-10-31 | 1999-11-16 | Ati Technologies, Inc. | Multi-stream audio sampling rate conversion circuit and method |
-
1998
- 1998-05-18 US US09/025,375 patent/US6230130B1/en not_active Expired - Lifetime
-
1999
- 1999-02-11 EP EP99901833A patent/EP0995191B1/de not_active Expired - Lifetime
- 1999-02-11 JP JP2000550299A patent/JP2002516421A/ja active Pending
- 1999-02-11 DE DE69926967T patent/DE69926967T2/de not_active Expired - Lifetime
- 1999-02-11 KR KR1020007000528A patent/KR100639899B1/ko not_active IP Right Cessation
- 1999-02-11 CN CNB99800765XA patent/CN1143264C/zh not_active Expired - Fee Related
- 1999-02-11 WO PCT/IB1999/000241 patent/WO1999060815A2/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR100639899B1 (ko) | 2006-10-31 |
WO1999060815A8 (en) | 2000-04-13 |
DE69926967D1 (de) | 2005-10-06 |
WO1999060815A3 (en) | 2000-02-17 |
US6230130B1 (en) | 2001-05-08 |
JP2002516421A (ja) | 2002-06-04 |
CN1143264C (zh) | 2004-03-24 |
WO1999060815A2 (en) | 1999-11-25 |
CN1272938A (zh) | 2000-11-08 |
KR20010021963A (ko) | 2001-03-15 |
EP0995191A2 (de) | 2000-04-26 |
EP0995191B1 (de) | 2005-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69926967T2 (de) | Mischen von audio-strömen | |
EP2047669B1 (de) | Verfahren zum durchführen einer audiokonferenz, audiokonferenzeinrichtung und umschalteverfahren zwischen kodierern | |
DE602004008613T2 (de) | Treueoptimierte kodierung mit variabler rahmenlänge | |
DE60206390T2 (de) | Effiziente und skalierbare parametrische stereocodierung für anwendungen mit niedriger bitrate | |
DE602004010188T2 (de) | Synthese eines mono-audiosignals aus einem mehrkanal-audiosignal | |
DE602005006424T2 (de) | Stereokompatible mehrkanal-audiokodierung | |
DE60130665T2 (de) | Audiodatenverarbeitung | |
EP1016319B1 (de) | Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals | |
DE69827775T2 (de) | Tonkanalsmischung | |
DE69934454T2 (de) | Digitalaudiosignaldekodierungsvorrichtung und -verfahren und Aufzeichnungsträger zum Speichern der Dekodierungsstufen | |
DE3322413A1 (de) | Videouebertragung mit verringerter bandbreite | |
DE102005014477A1 (de) | Vorrichtung und Verfahren zum Erzeugen eines Datenstroms und zum Erzeugen einer Multikanal-Darstellung | |
EP1023777B1 (de) | Verfahren und vorrichtung zur erzeugung eines bitratenskalierbaren audio-datenstroms | |
EP2457390A1 (de) | Vorrichtung und verfahren zur optimierung stereophoner oder pseudostereophoner audiosignale | |
EP1430750B1 (de) | Verfahren und vorrichtung zur auswahl eines klangalgorithmus | |
WO2008011901A1 (de) | Verfahren zum durchführen einer sprachkonferenz und sprachkonferenzsystem | |
DE60035453T2 (de) | Auswahl des Synthesefilters für eine CELP Kodierung von breitbandigen Audiosignalen | |
EP0712264A2 (de) | Verfahren und Vorrichtung zur mehrkanaligen Tonwiedergabe | |
EP1340352B1 (de) | Verfahren und vorrichtung zum steuern der übertragung und wiedergabe von digitalen signalen | |
DE112020001090T5 (de) | Signalverarbeitungsvorrichtung, -verfahren und -programm | |
DE102018121309A1 (de) | Verfahren und Vorrichtung zur Audiosignalverarbeitung | |
WO2006056529A1 (de) | Codierverfahren und decodierverfahren, sowie codiervorrichtung und decodiervorrichtung | |
DE602004006401T2 (de) | Aktualisieren eines verborgenen datenkanals | |
DE112021005027T5 (de) | Nahtloses skalierbares decodieren von kanälen, objekten und hoa-audioinhalt | |
DE60026719T2 (de) | Digitale schallsignalverarbeitungs-vorrichtung mit einer verzögerungsleitung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: IPG ELECTRONICS 503 LTD., ST. PETER PORT, GUER, GB |
|
8328 | Change in the person/name/address of the agent |
Representative=s name: PATENTANWAELTE BRESSEL UND PARTNER, 12489 BERLIN |
|
R082 | Change of representative |
Ref document number: 995191 Country of ref document: EP Representative=s name: PATENTANWAELTE BRESSEL UND PARTNER, DE |