DE10197182B4 - Verfahren zum Codieren und Decodieren von Digital-Audiodaten - Google Patents

Verfahren zum Codieren und Decodieren von Digital-Audiodaten Download PDF

Info

Publication number
DE10197182B4
DE10197182B4 DE10197182T DE10197182T DE10197182B4 DE 10197182 B4 DE10197182 B4 DE 10197182B4 DE 10197182 T DE10197182 T DE 10197182T DE 10197182 T DE10197182 T DE 10197182T DE 10197182 B4 DE10197182 B4 DE 10197182B4
Authority
DE
Germany
Prior art keywords
audio data
amplitude information
digital audio
sine
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10197182T
Other languages
English (en)
Other versions
DE10197182T5 (de
Inventor
Hiroshi Sekiguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
KANARS DATA CORP
Original Assignee
Pentax Corp
KANARS DATA CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pentax Corp, KANARS DATA CORP filed Critical Pentax Corp
Publication of DE10197182T5 publication Critical patent/DE10197182T5/de
Application granted granted Critical
Publication of DE10197182B4 publication Critical patent/DE10197182B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/043Time compression or expansion by changing speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

Codierverfahren von Digital-Audiodaten, die Schritte umfassend:
Festlegen diskreter Frequenzen, beabstandet um vorbestimmte Intervalle in einem Frequenzbereich von bei einer ersten Periode abgetasteten Digital-Audiodaten;
unter Verwendung einer jeden der derart festgelegten Frequenzen entsprechenden Sinus-Komponente und einer hiermit gepaarten Kosinus-Komponente, wobei die Komponenten digitalisiert sind, Extrahieren von Amplitudeninformationselementen des Paares von Sinus-Komponenten und Kosinus-Komponenten bei jeder zweiten Periode von den Digital-Audiodaten; und
sukzessives Erzeugen von Rahmendaten, die Paare von Amplitudeninformationselementen der den jeweiligen diskreten Frequenzen entsprechenden Sinus- und Kosinus-Komponenten enthalten, als Teil von codierten Audiodaten.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft Verfahren des Codierens und Decodierens von in einem vorbestimmten Zeitraum abgetasteten Digital-Audiodaten.
  • TECHNISCHER HINTERGRUND
  • Es sind einige konventionelle Verfahren bekannt wie zeitbasierte Interpolation und Expansionsverfahren von Wellenformen zum Ändern der Wiedergabegeschwindigkeit während des Beibehaltens der Tonlagenperiode und Artikulation von Sprache. Diese Techniken sind auch anwendbar auf Sprachcodierung. Sprachdaten werden nämlich bevor sie codiert werden einmal einer Zeitskalenkompression unterzogen und die Zeitskala der Sprachdaten wird gedehnt nachdem sie codiert worden sind, hierdurch Informationskompression erreichend.
  • Im Grunde wird die Informationskompression durch Ausdünnen einer Wellenform bei einer Tonlagenperiode implementiert und die komprimierte Information wird basierend auf Wellenforminterpolation gedehnt zum Einfügen neuer Wavelets in Zwischenräume zwischen Wavelets. Techniken für diesen Prozess schließen Zeitdomänen Harmonischen Skalierung (TDHS vom englischsprachigen Ausdruck "Time Domain Harmonic Scaling") und Zeigerintervallsteuerungsüberlappung und Ergänzung (PICOLA vom englischsprachigen Ausdruck "Pointer Interval Control Overlap and ADD") ein, welches Verfahren zum Ausdünnen und Interpolieren eines Dreiecksfensters sind während des Beibehaltens der Periodizität von Sprachtonlage in dem Zeitbereich und Verfahren des Ausdünnens und Interpolierens im Frequenzbereich durch schnelle Fourier-Transformation. Diese Verfahren haben das Problem des Behandelns von nicht periodischen und Übergangs-Abschnitten und Verzerrung tritt leicht auf in dem Prozess des Ausdehnens quantisierter Sprachdaten auf der Decodierseite.
  • Das Verfahren des Interpolierens von Wavelets während des Beibehaltens der Periodizität von Sprachtonhöhe im vorangegangenen und nachfolgenden Rahmen ist auch effizient anwendbar auf den Fall, wenn ein Wavelet oder eine Information eines Rahmens vollständig bei der Paketübertragung verloren gegangen ist.
  • Die als Verbesserungen in der obigen Wellenforminterpolation vorgeschlagenen Techniken in Bezug auf Informationskompression schließen Codierverfahren basierend auf Zeitfrequenzinterpolation (TFI vom englischsprachigen Ausdruck "Time Frequency Interpolation") ein, Prototypenwellenforminterpolation (PWI vom englischsprachigen Ausdruck "Prototype Waveform Interpolation") oder allgemeiner Wellenforminterpolation (WI vom englischsprachigen Ausdruck "Waveform Interpolation").
  • Die EP 0 751 493 A2 offenbart ein Verfahren und eine Vorrichtung zur Widergabe von Sprachsignalen, wobei eine Kodiereinheit Sprachsignale rahmenmäßig in Einheiten aufteilt und die aufgeteilten Signale auf dieser Basis kodiert werden zum Ausgeben von Kodierparametern. Eine Berechnungseinheit interpoliert die Kodierparameter zum Berechnen von modifizierten Kodierparametern, die auf gewünschte Zeitpunkte bezogen sind. Eine Dekodiereinheit synthetisiert Sinuswellen und hierauf beruhende Rauschsignale und gibt die synthetisierten Sprachsignale an ein Ausgabeterminal aus.
  • Die EP 0 698 876 A2 offenbart ein Verfahren zum Dekodieren von kodierten Sprachsignalen welche durch Sinuswellensynthese dekodiert werden auf der Grundlage von Informationen über jeweilige harmonische Wellen, die hiervon intervallmäßig getrennt sind. Die harmonischen Wellen werden erhalten durch Transformation von Sprachsignalen in entsprechende Informationen auf einer Frequenzachse. Das Dekodierverfahren umfasst einen Schritt zum Anhängen von Null-Daten an ein Datenfeld, welches die Amplitude der harmonischen Wellen darstellt, um ein erstes Feld zu erzeugen mit einer vorbestimmten Anzahl von Elementen. Ferner ist ein Schritt vorgesehen zum Anhängen von Null-Daten an ein Datenfeld, das die Phase der harmonischen Wellen repräsentiert, um ein zweites Feld mit einer vorbestimmten Anzahl von Elementen zu erzeugen. Die ersten und zweiten Felder werden in die Informationen auf einer Zeitachse transformiert. Die ursprünglichen zeitlichen Wellenformsignale der ursprünglichen Pitchdauer werden wieder hergestellt auf der Grundlage des zeitlichen Wellenformsignals.
  • Die EP 0 285 275 A2 offenbart ein sinusoidales Sprachdarstellungssystem in Anwendung auf das Problem der Sprachdispersion. Dieses System entfernt die natürliche Phasendispersion in den Frequenzkomponenten des Sprachsignals. Eine künstliche Dispersion auf der Grundlage einer Pulskompressionstechnik wird dann eingeführt bei lediglich geringer Änderung der Sprachqualität. Die Zuteilung einer neuen Phasendispersion dient zur Vorbehandlung der Wellenform vor einer dynamischen Bereichskompression und ermöglicht erheblich tiefere Schwellwerte im Vergleich zu denen, welche in der ursprünglichen Wellenform toleriert werden müssen.
  • BESCHREIBUNG DER ERFINDUNG
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren anzugeben, mit welchem digitale Informationen, welche außer oder anstelle von Sprachinformation auch digitale Information in Form von anderen Arten von Schallwellen wie z. B. Musik, Geräusche, Telefonübertragungen, sonstige Audiodaten, etc. enthalten können, kodiert und dekodiert werden können, vorzugsweise bei Erhöhung der Datenkompression und/oder Änderung der Wiedergabegeschwindigkeit, etc. unter Beibehaltung der Artikulation von Audio.
  • Erfindungsgemäß wird diese Aufgabe nach einem Verfahren gemäß einem der nebengeordneten Patentansprüche gelöst.
  • Weiterbildungen der Erfindung ergeben sich aus den diesen Ansprüchen jeweils nachgeordneten Unteransprüchen.
  • Das Codierverfahren digitaler Audiodaten gemäß der vorliegenden Erfindung ermöglicht eine zufriedenstellende Datenkompression ohne Verschlechterung der Artikulation von Audio. Das Decodierverfahren von Digitaldaten gemäß der vorliegenden Erfindung ermöglicht ein leichtes und freies Ändern der Wiedergabegeschwindigkeit ohne Änderung im Intervall unter Verwendung der codierten Audiodaten, die durch das Codierverfahren von Digital-Audiodaten gemäß der vorliegenden Erfindung codiert worden sind.
  • Das Codierverfahren von Digital-Audiodaten gemäß der vorliegenden Erfindung umfasst die Schritte: Vorläufiges Einstellen diskreter, in vorbestimmten Intervallen beabstandeter Frequenzen, basierend auf einer Sinus-Komponente und einer damit gepaarten Kosinus-Komponente, wobei die Komponenten jeder der diskreten Frequenzen entsprechen und jede Komponente digitalisiert ist, extrahieren von Amplitudeninformationselementen des Paares der Sinus-Komponente und Kosinus-Komponente bei jeder zweiten Periode von Digital-Audiodaten, die bei einer ersten Periode abgetastet worden sind; und sukzessives Generieren von Rahmendaten, die Paare von Amplitudeninformationselementen der Sinus- und Kosinus-Komponenten enthalten, welche bei den jeweiligen diskreten Frequenzen extrahiert worden sind, als Teil codierter Audiodaten.
  • Speziell sind in dem Codierverfahren von Digital-Audiodaten die zu vorbestimmten Intervallen beabstandeten diskreten Frequenzen im Frequenzbereich der abgetasteten Digital-Audiodaten festgelegt und ein Paar aus digitalisierter Sinus-Komponente und Kosinus-Komponente wird bei jeder dieser diskreten Frequenzen generiert. Beispielsweise offenbart die japanische Patentanmeldungsoffenlegungsschriftnummer 2000-81897 eine solche Technik, dass die Codierseite konfiguriert ist zum Aufteilen des gesamten Frequenzbereichs in mehrere Bänder und extrahieren der Amplitudeninformation in jedem dieser Aufgeteilten Bänder und dass die Decodierseite konfiguriert ist zum Generieren von Sinuswellen bis zur extrahierten Amplitudeninformation und Kombinieren der Sinuswellen, die in den jeweiligen Bändern generiert worden sind zum Erhalten der Originalaudiodaten. Die Aufteilung in die Bänder wird normalerweise mit Hilfe von Digitalfiltern implementiert. In diesem Fall, da die Trenngenauigkeit verbessert worden ist, wird der Verarbeitungsumfang extrem groß; daher war es schwierig, die Codiergeschwindigkeit zu erhöhen. Im Gegensatz hierzu, da das Codierverfahren von Digital-Audiodaten gemäß der vorliegenden Erfindung konfiguriert ist zum Generieren des Paares von Sinus- und Kosinus-Komponenten zu den jeweiligen diskreten Frequenzen unter allen Frequenzen und Extrahieren der Amplitudeninformationselemente der jeweiligen Sinus- und Kosinus-Komponenten, ermöglicht es das Verfahren, die Geschwindigkeit des Codierprozesses zu Erhöhen.
  • In dem Codierverfahren von Digital-Audiodaten werden insbesondere die Digital-Audiodaten mit jeder von einer miteinander gepaarten Sinus-Komponente und Kosinus-Komponente multipliziert zu jeder zweiten Periode relativ zu der ersten Periode der Abtastperiode, hierdurch jede Amplitudeninformation als Gleichstromkomponente in dem Ergebnis der Multiplikation extrahierend. Wenn die Amplitudeninformation der zueinander gepaarten Sinus- und Kosinus-Komponenten der diskreten Frequenzen auf diese Weise verwendet wird, führt dies dazu, dass die resultierenden codierten Audiodaten auch Phaseninformation enthalten. Die obige zweite Periode braucht nicht gleich der ersten Periode zu sein, die die Abtastperiode der Digital-Audiodaten ist und diese zweite Periode ist die Referenzperiode der Wiedergabeperiode der Decodierseite.
  • In der vorliegenden Erfindung ist, wie oben beschrieben, die Codierseite konfiguriert zum Extrahieren sowohl der Amplitudeninformation der Sinus-Komponente als auch der Amplitudeninformation der Kosinus-Komponente bei einer Frequenz und die Decodierseite ist konfiguriert zum Generieren der Digital-Audiodaten unter Verwendung dieser Amplitudeninformationselemente; demnach ist es auch durchführbar, die Phaseninformation bei der Frequenz zu übertragen und die Qualität des Geräuschs mit besserer Artikulation zu erzielen. Die Codierseite braucht nämlich nicht den Prozess des Ausschneidens einer Wellenform von Digital-Audiodaten auszuführen, wie zuvor erforderlich, so dass die Kontinuität des Geräuschs beibehalten wird und die Decodierseite ist konfiguriert ohne die Verarbeitung in ausgeschnittenen Einheiten der Wellenform, um die Wellenformkontinuität sowohl, selbstverständlich, in dem Fall der nicht geänderten Wiedergabegeschwindigkeit sicherzustellen als auch in dem Fall mit geänderter Wiedergabegeschwindigkeit, hierbei exzellente Artikulation und Geräuschqualität erreichend. Da jedoch das menschliche Hörempfinden kaum in der Lage ist, Phasen im höheren Frequenzbereich zu unterscheiden ist es weniger erforderlich, auch die Phaseninformation im höheren Frequenzbereich zu übertragen und die zufriedenstellende Artikulation von wiedergegebenem Ton kann alleine durch die Amplitudeninformation sichergestellt werden.
  • Daher kann das Codierverfahren von Digital-Audiodaten gemäß der vorliegenden Erfindung derart konfiguriert werden, dass bezüglich einer oder mehrerer aus den diskreten Frequenzen ausgewählter Frequenzen, speziell bezüglich hoher Frequenzen, die weniger die Phaseninformation benötigen, eine Quadratwurzel einer als eine Summe von Quadraten von jeweiligen Amplitudeninformationselementen einer zueinander gepaarten Sinus-Komponente und Kosinus-Komponente gegebenen Summenkomponente bei jeder ausgewählten Frequenz berechnet wird und derart, dass die Quadratwurzel der aus dem Paar von diesen Amplitudeninformationselementen erhaltenen Summenkomponente das der ausgewählten Frequenz entsprechende Amplitudeninformationspaar ersetzt. Diese Konfiguration realisiert die Datenkompressionsrate des Grads, vergleichbar zu dem in diesen Jahren häufig verwendeten MPEG-Audio.
  • Das Codierverfahren von Digital-Audiodaten gemäß der vorliegenden Erfindung kann auch eingerichtet sein zum Ausdünnen nicht signifikanter Amplitudeninformation unter Berücksichtigung der Eigenschaften des menschlichen Hörempfindens, hierdurch die Datenkompressionsrate anhebend. Ein Beispiel ist ein Verfahren des absichtlichen Ausdünnens von Daten, die kaum von Menschen wahrgenommen werden, d. h., Frequenzmaskierung oder Zeitmaskierung; beispielsweise ist eine Potentialkonfiguration derart, dass in dem Fall, in dem eine gesamte Amplitudeninformationszeichenkette in Rahmendaten aus Paaren von Amplitudeninformationselementen von jeweiligen diskreten Frequenzen entsprechenden Sinus- und Kosinus-Komponenten besteht, ein Vergleich vorgenommen wird zwischen oder unter Quadratwurzeln von Summenkomponenten (von denen jede eine Summe von Quadraten von einem Amplitudeninformationselement einer Sinus-Komponente und einem Amplitudeninformationselement einer Kosinus-Komponente ist) von zwei oder mehr zueinander benachbarten Amplitudeninformationspaaren und die Amplitudeninformationspaare oder von den Amplitudeninformationspaaren abweichende Paare mit der maximalen Quadratwurzel der Summenkomponenten aus den derart verglichenen Amplitudeninformationspaaren eliminiert werden von den Rahmendaten. Im Fall, in dem ein Teil der Amplitudeninformationszeichenkette in den Rahmendaten aus der Amplitudeninformation besteht, die keine Phaseninformation enthält (welche aus den Quadratwurzeln der Summenkomponenten besteht und welche nachstehend als Quadratwurzelinformation bezeichnet wird), ist es auch möglich, eine Konfiguration zu verwenden, in der der Vergleich vorgenommen wird zwischen oder unter zwei oder mehr Quadratwurzelinformationsstücken, die zueinander benachbart sind und wobei die Quadratwurzelinformationsstücke oder von der maximalen Quadratwurzelinformation abweichende Stücke aus diesen verglichenen Quadratwurzelinformationsstücken eliminiert werden von den Rahmendaten gerade wie im obigen Fall der benachbarten Amplitudeninformationspaare (die alle die Phaseninformation enthalten). In beiden der obigen Konfigurationen kann die Datenkompressionsrate spürbar erhöht werden.
  • Das neuere Fortschreiten der Audioliefersysteme unter Verwendung des Internets und anderer erhöhten die Gelegenheit von einmaligem Speichern gelieferter Audiodaten (Digitalinformation, die hauptsächlich menschliche Sprache enthält, wie zum Beispiel Nachrichtenprogramme, Diskussionstreffen, Lieder, Radiodramen, Sprachprogramme, usw.) auf Aufzeichnungsmedien wie zum Beispiel Festplatten und Halbleiterspeicher und darauffolgendes Wiedergeben der gelieferten Audiodaten daraus. Speziell Altersschwerhörigkeit bezieht einen Menschentyp ein mit Schwierigkeiten beim Hören mit hohen Sprechraten. Es gibt auch ein starkes Bedürfnis für eine Verlangsamung von Sprechgeschwindigkeit bei einer Sprache als Lernziel im Lernprozess von Fremdsprachen.
  • Unter den oben beschriebenen sozialen Umständen werden Benutzer, wenn das Liefern von Digitalinhalten, auf die das Codierverfahren und Decodierverfahren von Digital-Audiodaten gemäß der vorliegenden Erfindung angewendet worden ist, realisiert wird, in die Lage versetzt, beliebig die Wiedergabegeschwindigkeit anzupassen ohne die Intervalle von Wiedergegebenem Audio zu ändern (zum Erhöhen oder Verringern der Wiedergabegeschwindigkeit). In diesem Fall können Benutzer die Wiedergabegeschwindigkeit in Abschnitten, die sie nicht im Detail zu hören brauchen, erhöhen (die Benutzer können adäquat den Inhalt verstehen, selbst bei näherungsweise der doppelten der normalen Wiedergabegeschwindigkeit, weil das Intervall nicht geändert ist) und können sofort zurückkehren zur Originalwiedergabegeschwindigkeit oder zu einer langsameren Wiedergabegeschwindigkeit als dieser in Abschnitten, die sie detailliert hören müssen.
  • Speziell ist das Decodierverfahren von Digital-Audiodaten gemäß der vorliegenden Erfindung derart konfiguriert, dass in dem Fall, in dem eine gesamte Amplitudeninformationszeichenkette von Rahmendaten, die wie oben beschrieben decodiert sind (welche einen Teil von codierten Audiodaten bilden) aus Paaren von Amplitudeninformationselementen zusammengesetzt aus jeweiligen diskreten Frequenzen entsprechenden Sinus- und Kosinus-Komponenten, wobei das Verfahren die Schritte umfasst: zuerst, sukzessives Generieren einer Sinus-Komponenten und einer hierzu gepaarten Kosinus-Komponente, die bei einer dritten Periode digitalisiert sind bei jeder der diskreten Frequenzen und dann sukzessives Generieren von Digital-Audiodaten basierend auf Amplitudeninformationspaaren und Paaren von den jeweiligen diskreten Frequenzen entsprechenden generierten Sinus- und Kosinus-Komponenten in den in einer vierten Periode einer Wiedergabeperiode erlangten Rahmendaten (die festgelegt ist auf der Basis der zweiten Periode).
  • Andererseits, in dem Fall, in dem ein Teil der Amplitudeninformationszeichenkette von Rahmendaten Amplitudeninformation umfasst, die keine Phaseninformation enthält (Quadratwurzeln von Summenkomponenten, gegeben durch Summen von Quadraten von Amplitudeninformationselementen von gepaarten Sinus- und Kosinus-Komponenten), umfasst dass Decodierverfahren von Digital-Audiodaten gemäß der vorliegenden Erfindung den Schritt des sukzessiven Generierens von Digital-Audiodaten basierend auf den bei den jeweiligen diskreten Frequenzen digitalisierten Sinus- oder Kosinus-Komponenten und auf Quadratwurzeln von hierzu entsprechenden Summenkomponenten.
  • Die obigen Decodierverfahren können beide Konfiguriert sein zum sukzessiven Generieren eines oder mehrerer Amplitudeninterpolationsinformationsstücke bei einer fünften Periode, die kürzer ist als die vierte Periode, um lineare Interpolation oder Kurvenfunktionsinterpolation von Amplitudeninformation zwischen Rahmendaten zu bewirken, die bei der vierten Periode erlangt worden sind.
  • Jede der Ausführungsformen gemäß der vorliegenden Erfindung kann vollständig verstanden werden beim Betrachten der detaillierten Beschreibung und den zugeordneten Zeichnungen, die folgen werden. Es ist zu verstehen, dass diese Ausführungsformen einfach zum Zwecke der Darlegung vorgelegt werden aber nicht zum Zwecke der Begrenzung der Erfindung.
  • Der Umfang fernerer Anwendung der vorliegenden Erfindung wird aus der detaillierten Beschreibung unten ersichtlich werden.
  • Es wird jedoch darauf hingewiesen, dass die detaillierte Beschreibung und spezifische Beispiele die bevorzugten Ausführungsformen der Erfindung darlegen und nur vorgetragen werden zum Zwecke der Erläuterung, und es ist offenbar, dass verschiedene Modifikationen und Verbesserungen innerhalb des Geistes und Umfangs der vorliegenden Erfindung Fachleuten mit Blick auf die detaillierte Beschreibung offensichtlich werden.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigt:
  • 1A und 1B Illustrationen zum konzeptionellen Erläutern jeder Ausführungsform gemäß der vorliegenden Erfindung (Nr. 1).
  • 2 ein Flussdiagramm zum Erläutern des Codierverfahrens von Digital-Audiodaten gemäß der vorliegenden Erfindung;
  • 3 eine Darstellung zum Erläutern von bei einer Periode Δt abgetasteten Digital-Audiodaten;
  • 4 ein Konzeptdiagramm zum Erläutern des Prozesses des Extrahierens jeder Amplitudeninformation von Paaren von jeweiligen diskreten Frequenzen entsprechenden Sinus- und Kosinus-Komponenten;
  • 5 eine Darstellung eines ersten Konfigurationsbeispiels von einen Teil codierter Audiodaten bildenden Rahmendaten;
  • 6 eine Darstellung einer Konfiguration codierter Audiodaten;
  • 7 ein Konzeptdiagramm zum Erläutern von Verschlüsselung;
  • 8A und 8B Konzeptdiagramme zum Erläutern einer ersten Ausführungsform von an Rahmendaten bewirkter Datenkompression;
  • 9 eine Darstellung eines zweiten Konfigurationsbeispiels von einen Teil codierter Audiodaten bildenden Rahmendaten;
  • 10A und 10B Konzeptdiagramme zum Erläutern einer zweiten Ausführungsform von an Rahmendaten bewirkter Datenkompression und insbesondere 10B eine Darstellung eines dritten Konfigurationsbeispiels von einen Teil codierter Audiodaten bildenden Rahmendaten;
  • 11 ein Flussdiagramm zum Erläutern des Decodierprozesses digitaler Audiodaten gemäß der vorliegenden Erfindung;
  • 12A, 12B und 13 Konzeptdiagramme zum Erläutern von Dateninterpolation von zu decodierenden Digital-Audiodaten; und
  • 14 eine Darstellung zur konzeptionellen Erläuterung jeder Ausführungsform gemäß der vorliegenden Erfindung (Nr. 2).
  • BESTE ART DIE ERFINDUNG AUSZUFÜHREN
  • Jede der Ausführungsformen von Datenstrukturen und andere von Audiodaten gemäß der vorliegenden Erfindung werden nachstehend beschrieben unter Bezugnahme auf 1A bis 1B, 2 bis 7, 8A bis 8B, 9, 10A bis 10B, 11, 12A bis 12B und 13 bis 14. Die selben Abschnitte werden durch die selben Bezugszeichen quer durch die Beschreibung der Zeichnungen gekennzeichnet ohne redundante Beschreibung.
  • Die durch das Codierverfahren von Digital-Audiodaten gemäß der vorliegenden Erfindung codierten Audiodaten versetzten den Benutzer in die Lage, Decodierung neuer Audiodaten zu implementieren zur Reproduktion bzw. Widergabe bei einer Wiedergabegeschwindigkeit, die frei von dem Benutzer festgelegt ist, ohne Verschlechterung der Artikulation (der leichten Verständlichkeit) während der Wiedergabe. Verschiedene Anwendungsformen solcher Audiodaten können basierend auf der jüngsten Entwicklung von Digitaltechnologie und Verbesserung in Datenkommunikationsumgebungen überlegt werden.
  • Wie in 1A gezeigt, werden die Digital-Audiodaten als ein durch das Codierverfahren von Digital-Audiodaten gemäß der vorliegenden Erfindung zu codierendes Objekt von einer Informationsquelle 10 zugeführt. Die Informationsquelle 10 ist vorzugsweise eine, die aufgezeichnete Digital-Audiodaten zuführt, beispielsweise ein Speichermodul MO, eine CD (einschließlich eine DVD), eine H/D bzw. Festplatte oder Ähnliches und die Daten können auch beispielsweise Audiodaten sein, die von kommerziell verfügbaren Lehrmaterialien, Fernsehstationen, Radiostationen und Ähnlichem bereitgestellt werden. Andere anwendbare Daten sind solche, die direkt über ein Mikrofon aufgenommen worden sind, oder solche, die durch Digitalisierung von Analog-Audiodaten erhalten wurde, die einmal vor dem Codierprozess auf einem Magnetband oder Ähnlichem aufgezeichnet worden sind. Ein Editor 100 codiert die Digital-Audiodaten zum Generieren codierter Audiodaten durch den Benutzer der Quelle 10 in einem Codierer 200, der Informationsverarbeitungsausrüstung wie zum Beispiel einen Personalcomputer einschließt. Bei dieser Gelegenheit werden im Hinblick auf die derzeitigen Datenbereitstellungsverfahren die derart codierten Audiodaten häufig dem Benutzer in einem Zustand bereitgestellt, in dem die Daten einst aufgezeichnet worden sind in einem Aufzeichnungsmedium 20 wie zum Beispiel einer CD (einschließlich einer DVD), einer H/D oder Ähnlichem. Es kann auch möglicherweise überlegt werden, dass jene CD und H/D eine Aufzeichnung von zugeordneten Bilddaten enthalten gemeinsam mit den codierten Audiodaten.
  • Insbesondere die CDs und DVDs als Aufzeichnungsmedien 20 werden dem Benutzer allgemein als Ergänzung zu Zeitschriften zur Verfügung gestellt oder in Läden verkauft wie Computersoftwareanwendungen, Musik-CDs und so weiter (am Markt verteilt). Es ist auch möglich, dass die generierten codierten Audiodaten vom Server 300 durch eine Informationskommunikationsvorrichtung, z.B. ein Netz 150 wie das Internet, Zellulartelefonnetze und Ähnliches, egal ob leitungsgebunden oder drahtlos, und Satelliten 160 zu den Benutzern geliefert werden.
  • Zur Lieferung von Daten werden die von dem Codierer 200 generierten codierten Audiodaten einmal gemeinsam mit Bilddaten oder Ähnlichem in einer Speichereinrichtung 310 (z.B. einer Festplatte) in dem Server 300 gespeichert. Dann werden die einmal auf der Festplatte 310 gespeicherten codierten Audiodaten (die verschlüsselt sein können) durch einen Sender 320 (I/O in der Figur) zu dem Benutzerendgerät 400 übertragen. Auf der Seite des Benutzerendgeräts 400 werden die über den Sender 450 empfangenen codierten Audiodaten einmal gespeichert in einer H/D bzw. Festplatte (die in einer externen Speichereinrichtung 30 enthalten ist). Andererseits ist in dem Fall des Bereitstellens von Daten unter Verwendung von CD, DVD oder Ähnlichem, die von dem Benutzer gekaufte CD in einem CD-Laufwerk oder in einem DVD-Laufwerk der Endgeräteeinrichtung 400 montiert um als externe Aufzeichnungseinrichtung 30 der Endgeräteeinrichtung verwendet zu werden.
  • Normalerweise ist die benutzerseitige Endgeräteeinrichtung 400 mit einer Eingabeeinrichtung 460 ausgerüstet, einer Anzeige 470 wie zum Beispiel einem Kathodenstrahlröhrenanzeige CRT, einer Flüssigkristallanzeige oder Ähnlichem und Lautsprechern 480, und die gemeinsam mit den Bilddaten oder Ähnlichem in der externen Speichereinrichtung 30 aufgezeichneten codierten Audiodaten werden einmal decodiert in Audiodaten einer persönlich durch den Benutzer bestimmten Wiedergabegeschwindigkeit durch den Decoder 410 der Endgeräteeinrichtung 400 (der auch durch Software implementiert sein kann) und daraufhin werden sie von dem Lautsprecher 480 ausgegeben. Andererseits werden die in dem externen Speicher 30 gespeicherten Bilddaten einmal dekomprimiert in einem VRAM 432 und daraufhin Rahmen für Rahmen auf der Anzeige 470 (Bitmapanzeige) angezeigt. Wenn einige Arten von Digital-Audiodaten zum Wiedergeben bei unterschiedlichen Wiedergabegeschwindigkeiten in dem externen Speicher 30 durch sukzessives Speichern der zur Wiedergabe von dem Decoder 410 decodierten Digital-Audiodaten in dem externen Speicher 30 vorbereitet sind, wird es dem Benutzer ermöglicht sein, die Wiedergabe zwischen den vielen Arten von Digital-Audiodaten unterschiedlicher Wiedergabegeschwindigkeiten umzuschalten durch Ausnützung der Technologie, wie sie in dem Japanischen Patent Nr. 2581700 beschrieben ist.
  • Der Benutzer kann das von den Lautsprechern 480 ausgegebene Audio hören während des Anzeigens des zugehörigen Bildes 471 auf der Anzeige 470, wie in 1B gezeigt. Wenn zu dieser Gelegenheit eine Änderung nur in der Wiedergabegeschwindigkeit des Audio vorgenommen werden sollte, könnte die Anzeigezeitabstimmung bzw. das Timing des Bildes abweichen. Daher kann, um es dem Decoder 410 zu erlauben, das Anzeigetiming der Bilddaten zu steuern, den in dem Codierer 200 generierten codierten Audiodaten Information zum Angeben des Bildanzeigetimings vorher hinzugefügt werden.
  • 2 ist ein Flussdiagramm zum Erläutern des Codierverfahrens von Digital-Audiodaten gemäß der vorliegenden Erfindung und das Codierverfahren wird in der Informationsverarbeitungsausrüstung im Codierer 200 ausgeführt zum Ermöglichen schneller und zufriedenstellender Datenkompression ohne Verschlechterung der Artikulation von Audio.
  • In dem Codierverfahren der Digital-Audiodaten gemäß der vorliegenden Erfindung ist der erste Schritt zu der Periode Δt, abgetastete Digital-Audiodaten zu spezifizieren (Schritt ST1) und der nächste Schritt ist, eine von diskreten Frequenzen (Kanälen CH) festzulegen, bei der die Amplitudeninformation extrahiert werden sollte (Schritt ST2).
  • Es ist allgemein bekannt, dass Audiodaten einen riesigen Bereich von Frequenzkomponenten in einem Frequenzspektrum davon enthalten. Es ist auch bekannt, dass Phasen von Audiospektralkomponenten bei jeweiligen Frequenzen nicht konstant sind und es demnach zwei Komponenten von einer Sinus-Komponente und einer Kosinus-Komponente als eine Audiospektralkomponente bei einer Frequenz gibt.
  • 3 ist eine Darstellung zum Zeigen von Audiospektralkomponenten, die bei der Periode Δt abgetastet worden sind mit ablaufender Zeit. Angenommen, jede Audiospektralkomponente wird ausgedrückt durch Signalkomponenten bei einer endlichen Zahl von Kanälen CHi (diskrete Frequenzen Fi: i = 1, 2, ..., N) in dem gesamten Frequenzbereich, wird die m-te abgetastete Audiospektralkomponente S(m) (eine Audiospektralkomponente an einem Punkt, wenn die Zeit (Δt·m) abgelaufen ist seit dem Start des Abtastens) folgendermaßen ausgedrückt.
  • Figure 00160001
  • Obige Gleichung (1) gibt an, dass die Audiospektralkomponente S(m) aus N-Frequenzkomponenten besteht, der ersten bis N-ten Komponente. Tatsächliche Audioinformation enthält tausend oder mehr Frequenzkomponenten.
  • Das Codierverfahren von Digital-Audiodaten gemäß der vorliegenden Erfindung ist erbracht worden basierend auf dem Herausfinden der Tatsache, dass von der Eigenschaft der Charakteristika des menschlichen Hörempfindens die Artikulation von Audio und die Geräuschqualität praktisch unbeeinträchtigt blieben selbst wenn die codierten Audiodaten durch eine begrenzte Anzahl diskreter Frequenzkomponenten repräsentiert wurden.
  • In dem nachfolgenden Schritt extrahiert der Prozessor bezüglich der m-ten abgetasteten Digital-Audiodaten (mit der Audiospektralkomponente S(m)), die im Schritt ST1 spezifiziert worden ist, eine Sinus-Komponente, sin(2πFi(Δt·m)) und eine Kosinus-Komponente, cos(2πFi(Δt·m)), digitalisiert bei der Frequenz Fi (Kanal CHi), die im Schritt ST2 festgelegt worden ist (Schritt ST3); und der Prozessor extrahiert ferner Amplitudeninformationselemente Ai, Bi der jeweiligen Sinus-Komponente und Kosinus-Komponente (Schritt ST4). Die Schritte ST3 – ST4 werden für alle N-Kanäle ausgeführt (Schritt ST5).
  • 4 ist eine Darstellung die konzeptionell den Prozess des Extrahierens von Paaren von Amplitudeninformationselementen Ai und Bi bei den jeweiligen Frequenzen (Kanäle CH) zeigt. Da die Audiospektralkomponente S(m), wie oben beschrieben, ausgedrückt ist als eine synthetische Welle von Sinus- und Kosinus-Komponenten bei der Frequenz Fi, resultiert die Multiplikation von Audiospektralkomponenten S(m), beispielsweise durch die Sinus-Komponente von sin(2πFi(Δt·m)) als einen Prozess für den Kanal CHi im Erhalten des quadratischen Ausdrucks von sin(2πFi(Δt·m)) mit dem Koeffizienten von Ai und der anderen Wellenkomponente (Wechselstromkomponente). Der quadratische Term kann aufgeteilt werden in eine Gleichstromkomponente und eine Wechselstromkomponente wie in der allgemeinen Gleichung (2) unten. sin2θ = 1/2 – cos2θ/2 (2)
  • Daher kann unter Verwendung eines Tiefpassfilters LPF die Gleichstromkomponente, d.h. die Amplitudeninformation Ai/2 extrahiert werden aus dem Ergebnis der Multiplikation der Audiospektralkomponente S(m) durch die Sinus-Komponente von sin(2πFi(Δt·m)).
  • Die Amplitudeninformation der Kosinus-Komponente kann auch auf ähnliche Weis erhalten werden, sodass die Gleichstromkomponente, d.h. die Amplitudeninformation Bi/2 aus dem Ergebnis der Multiplikation der Audiospektralkomponente S(m) durch die Kosinus-Komponente von cos(2πFi(Δt·m)) unter Verwendung eines Tiefpassfilters LPF extrahiert wird.
  • Diese Amplitudeninformationselemente werden bei einer Periode Tv(= Δt·v: v ist ein beliebiger Wert) kleiner als die vorangegangene Abtastperiode, d.h. bei 50-100 Abtastwerten/s abgetastet zum Generieren von Rahmendaten 800a, beispielsweise von der Struktur, wie in 5 gezeigt. 5 ist ein Diagramm zum Zeigen eines ersten Konfigurationsbeispiels der Rahmendaten, in welchem die Rahmendaten aus Paaren von Amplitudeninformationselementen Ai von Sinus-Komponenten und Amplitudeninformationselementen Bi von Kosinus-Komponenten zusammengesetzt sind entsprechend den jeweiligen Frequenzen Fi, die vorläufig eingestellt worden sind und Steuerinformation wie zum Beispiel der Abtastrate von Amplitudeninformation, die als Referenzfrequenz für Wiedergabeperioden verwendet wird. Beispielsweise angenommen, das Audioband ist definiert durch sechs Oktaven von 110 Hz bis 7000 Hz und die Kanäle CH sind festgelegt als 12 Frequenzen pro Oktav, um mit dem Temperament von Musik übereinzustimmen, werden insgesamt zweiundsiebzig (=N) Frequenzkanäle CH in dem Audioband festgelegt. Angenommen, ein Byte ist jedem der Amplitudeninformationselemente bei jedem Frequenzkanal CH zugeordnet und achts Bytes der Steuerinformation CD, sind die resultierenden Rahmendaten 800a 152 (=2N + 8) Bytes.
  • Bei dem Codierverfahren der Digital-Audiodaten gemäß der vorliegenden Erfindung werden die oben erwähnten Schritte ST1 bis ST6 für alle abgetasteten Digital-Audiodaten ausgeführt zum Generieren der Rahmendaten 800a der Struktur, wie oben beschrieben und schließlich zum Generieren der codierten Audiodaten 900, wie in 6 gezeigt (Schritt ST7).
  • Da das Codierverfahren von Digital-Audiodaten konfiguriert ist zum Generieren des Paares von Sinus-Komponente und Kosinus-Komponente bei jeder der diskreten Frequenzen aus allen Frequenzen und zum Extrahieren der Amplitudeninformationselemente der Sinus-Komponente und Kosinus-Komponente, wie oben beschrieben, ermöglicht es die Anhebung der Geschwindigkeit des Codierprozesses. Da die Rahmendaten 800a, die einen Teil der codierten Audiodaten 900 bilden, sich aus den Amplitudeninformationselementen Ai, Bi der jeweiligen bei den jeweiligen diskreten Frequenzen Fi gepaarten Sinus- und Kosinus-Komponenten zusammensetzen, enthalten die erhaltenen codierten Audiodaten 900 die Phaseninformation. Darüber hinaus wird kein Prozess der Fensterbildung benötigt zum Ausschneiden von Frequenzkomponenten der ursprünglichen Audiodaten, sodass die Kontinuität von Audiodaten beibehalten werden kann.
  • Die erhaltenen codierten Audiodaten 900 können den Benutzer über das Netz oder ähnliches bereitgestellt werden, wie in 1A gezeigt; in diesem Fall, wie in 7 gezeigt, ist es auch möglich, alle Rahmendaten 800a zu verschlüsseln und codierte Audiodaten zu liefern, die aus verschlüsselten Daten 850a bestehen. Während 7 das Verschlüsseln in Rahmendateneinheiten zeigt, ist es jedoch auch möglich, einen Verschlüsslungsprozess des Verschlüsselns der gesamten codierten Audiodaten zusammen zu verwenden oder einen Verschlüsselungsprozess des Verschlüsselns nur eines oder mehrerer Abschnitte der codierten Audiodaten.
  • In der vorliegenden Erfindung ist die Codierseite konfiguriert zum Extrahieren sowohl der Amplitudeninformation der Sinus-Komponente als auch der Amplitudeninformation der Kosinus-Komponente bei einer Frequenz und die Decodierseite ist konfiguriert zum Generieren der Digital-Audiodaten durch das Verwenden dieser Informationsteile; daher kann die Phaseninformation bei der Frequenz auch übermittelt werden, um die Qualität des Geräuschs mit besserer Artikulation zu erzielen. Jedoch ist das menschliche Hörempfinden kaum in der Lage, Phasen im hohen Frequenzbereich zu unterscheiden; es ist demnach weniger notwendig, auch die Phaseninformation in dem hohen Frequenzbereich zu übertragen und die ausreichende Artikulation wiedergegebenen Audios kann alleine durch die Amplitudeninformation sichergestellt werden.
  • Demnach kann das Codierverfahren Digital-Audiodaten gemäß der vorliegenden Erfindung auch konfiguriert werden, um bezüglich einer oder mehrerer aus den diskreten Frequenzen ausgewählter Frequenzen insbesondere bezüglich hoher Frequenzen, die die Phaseninformation weniger benötigen, eine Quadratwurzel einer Summenkomponente zu berechnen, die gegeben ist als eine Summe von Quadraten von jeweiligen Amplitudeninformationselementen der zueinander gepaarten Sinus- und Kosinuselemente bei jeder ausgewählten Frequenz und ein der jeweiligen Frequenz entsprechendes Amplitudeninformationspaar in den Rahmendaten durch die Quadratwurzel der Summenkomponente zu ersetzen, die aus dem Amplitudeninformationspaar erhalten worden ist.
  • Betrachten wir die gepaarten Amplitudeninformationselemente Ai, Bi repräsentierende zueinander orthogonale Vektoren, wie in 8A gezeigt, dann wird nämlich die Quadratwurzel Ci der Summenkomponente, die gegeben ist durch die Summe der Quadrate der jeweiligen Amplitudeninformationselemente Ai, Bi, erhalten durch eine arithmetische Schaltung, wie in 8B gezeigt. Komprimierte Rahmendaten werden durch Ersetzen eines zu jeder höheren Frequenz korrespondierenden Amplitudeninformationspaars durch die wie oben beschrieben erhaltene Quadratwurzelinformation Ci erhalten. 9 ist eine Darstellung zum Zeigen eines zweiten Konfigurationsbeispiels der Rahmendaten, die sich aus dem Weglassen der Phaseninformation ergeben, wie oben beschrieben.
  • Beispielsweise angenommen, das Amplitudeninformationspaar wird ersetzt durch die Quadratwurzelinformation Ci bei jeder der vierundzwanzig Frequenzen auf der Hochfrequenzseite aus den Paaren von Amplitudeninformationselementen von Sinus- und Kosinus-Komponenten bei zweiundsiebzig Frequenzen, wobei den Amplitudeninformationen und Quadratwurzelinformationen ein Byte zugeordnet ist und der Steuerinformation CD acht Bytes, bestehen die Rahmendaten 800b aus 128 (= 2 × 48 + 24 + 8) Bytes. Demnach wird, verglichen mit den in 5 gezeigten Rahmendaten 800b die Datenkompressionsrate des Grads erreicht, der vergleichbar ist mit dem MPEG-Audio, welches in den letzten Jahren regelmäßig verwendet wird.
  • In 9 ist ein Bereich 810 in den Rahmendaten 800b ein Bereich, in dem die Quadratwurzelinformation Ci die Amplitudeninformationspaare ersetzt. Diese Rahmendaten 800b können auch verschlüsselt werden, um in der Lage zu sein, als Inhalte geliefert zu werden, wie in 7 gezeigt.
  • Zudem kann das Codierverfahren von Digital-Audiodaten gemäß der vorliegenden Erfindung auch konfiguriert sein, um einige der Amplitudeninformationspaare, die eine Rahmendateneinheit bilden, auszudünnen, wodurch die Datenkompressionsrate stärker angehoben werden kann. 10A und 10B sind Darstellungen zum Erläutern eines Beispiels des Datenkompressionsverfahrens, das das Ausdünnen von Amplitudeninformation verwendet. Insbesondere ist 10B eine Darstellung zum Zeigen eines dritten Konfigurationsbeispiels von Rahmendaten, die durch das Datenkompressionsverfahren erhalten werden. Dieses Datenkompressionsverfahren kann angewendet werden auf sowohl die Rahmendaten 800a, die in 5 gezeigt sind, als auch die Rahmendaten 800b, die in 9 gezeigt sind und das Folgende ist eine Beschreibung der Kompression der Rahmendaten 800b, die in 9 gezeigt sind.
  • Zuerst werden bezüglich der aus Paaren von Amplitudeninformationselementen von Sinus- und Kosinus-Komponenten in der Amplitudeninformationszeichenkette in den Rahmendaten 800b bestehenden Abschnitte Quadratwurzelinformationselemente C1, C2 ..., Ci-1 jeweiliger Paare in jedem Satz von zueinander benachbarten Amplitudeninformationspaaren berechnet, z.B. in dem Satz von (A1, B1) und (A2, B2), dem Satz von (A3, B3) und (A4, B4), ..., dem Satz von (Ai-2, Bi-2) und (Ai-1, Bi-1), und statt des Vergleichs zwischen den benachbarten Amplitudeninformationspaaren wird ein Vergleich getroffen zwischen den resultierenden Quadratwurzelinformationselementen C1, und C2, C3 und C4, ..., Ci-2 und Ci-1. In jedem der obigen Sätze wird das Paar mit dem größeren Quadratwurzelinformationswert weggelassen. Der obige Vergleich kann auch unter jedem Satz von drei oder mehr zueinander benachbarten Amplitudeninformationspaaren vorgenommen werden.
  • In diesem Fall, wie in 10B gezeigt, wird eine Ausscheidungs-Bit-Zeichenkette (Ausscheidungsinformation) in den Rahmendaten 800c vorbereitet, in welcher 0 als ein Ausscheidungs-Bit eingestellt wird, wenn das weggelassene Amplitudeninformationspaar ein Amplitudeninformationspaar auf der unteren Frequenzseite ist und in dem eine 1 eingestellt wird als Ausscheidungs-Bit, wenn das weggelassene Amplitudeninformationspaar ein Amplitudeninformationspaar auf der Seite höherer Frequenz ist.
  • Andererseits, in dem Fall, wenn die Amplitudeninformationspaare zuvor ersetzt worden sind durch die Quadratwurzelinformationselemente, wie in der Zone 810 (vgl. 9) wird ein Vergleich getroffen zwischen Ci und Ci+1, ..., zwischen CN-1 und CN und das größere wird weggelassen. In diesem Fall wird auch 0 eingestellt als ein Ausscheidungs-Bit, wenn die Quadratwurzelinformation auf der Seite niedrigerer Frequenz weggelassen worden ist, während auch eine 1 eingestellt wird als Ausscheidungs-Bit, wenn die Quadratwurzelinformation auf der höherfrequenten Seite weggelassen worden ist. Der obige Vergleich kann auch vorgenommen werden unter jedem Satz von drei oder mehr zueinander benachbarten Quadratwurzelinformationselementen.
  • Beispielsweise in dem Fall, in dem die in 9 gezeigten Rahmendaten 800b aus 48 Amplitudeninformationspaaren (ein Byte für jedes Amplitudeninformationselement) bestehen und vierundzwanzig Quadratwurzelinformationselementen (ein Byte für jedes Element), wie oben beschrieben, wird die Amplitudeninformationszeichenkette reduziert auf 48 Bytes (= 2 × 24) und die Quadratwurzelinformationszeichenkette auf 12 Bytes; jedoch sind andererseits 36 Bit (4,5 Bytes) erforderlich für Ausscheidungs-Bits. Demgemäss bestehen in dem Fall, in dem die Amplitudeninformationselemente der jeweiligen Sinus- und Kosinus-Komponenten aus zweiundsiebzig Frequenzen extrahiert worden sind, die Rahmendaten 800c der Amplitudeninformationszeichenkette aus 60 (= 2 × 24 + 1 × 12) Bytes, die Ausscheidungsinformation aus näherungsweise 5 (≈ 4,5) Bytes und die Steuerinformation aus 8 Bytes (73 Bytes insgesamt). Unter denselben Bedingungen bestehen die Rahmendaten 800b, die in 9 gezeigt sind aus 128 Bytes und demnach können die Daten um etwa 43% gekürzt werden.
  • Diese Rahmendaten 800c können auch verschlüsselt werden, wie in 7 gezeigt.
  • Die neuere Ausbreitung von Audioliefersystemen unter Verwendung des Internets und Anderer erhöhen die Gelegenheiten des einmaligen Speicherns gelieferter Audiodaten (Digitalinformation, die hauptsächlich menschliche Sprache enthält, wie zum Beispiel Nachrichtenprogramme, Diskussionsmeetings, Lieder, Radiodramen, Sprachprogramme, usw.) in Aufzeichnungsmedien wie zum Beispiel Festplatten und anderen und darauffolgendes Wiedergeben der gelieferten Audiodaten daraus. Speziell schließt die Altersschwerhörigkeit, einen Typ von Menschen ein, die Schwierigkeiten beim Hören mit hoher Sprechrate haben. Es gibt auch einen starken Bedarf bezüglich der Verlangsamung von Sprechgeschwindigkeit in einer Sprache als Lernziel in dem Lernprozess von Fremdsprachen.
  • Unter den oben beschriebenen sozialen Umständen wird der Benutzer, wenn die Lieferung von digitalen Inhalten, auf die das Codierverfahren und Decodierverfahren digitaler Audiodaten gemäß der vorliegenden Erfindung angewendet werden, realisiert wird, in die Lage versetzt, wahlweise die Wiedergabegeschwindigkeit ohne Änderung des Intervalls vom wiedergegebenen Audio anzupassen (die Wiedergabegeschwindigkeit zu erhöhen oder zu verringern). In diesem Fall können Benutzer in Abschnitten die Wiedergabegeschwindigkeit erhöhen, in denen sie nicht detailliert zuhören müssen (die Benutzer können den Inhalt angemessen verstehen, selbst bei näherungsweise dem doppelten der normalen Wiedergabegeschwindigkeit, weil das Intervall nicht geändert ist) und können unmittelbar zurückkehren zur Ursprungswiedergabegeschwindigkeit oder zu einer langsameren Wiedergabegeschwindigkeit als dieser in Abschnitten, die sie detailliert hören müssen.
  • 11 ist ein Flussdiagramm zum Erläutern des Decodierverfahrens von Digital-Audiodaten gemäß der vorliegenden Erfindung, welches ein leichtes und freies Ändern von Sprachgeschwindigkeit ohne Änderungen im Intervall ermöglicht durch Verwendung der codierten Audiodaten 900, die wie oben beschrieben codiert worden sind.
  • In dem Decodierverfahren der Digital-Audiodaten gemäß der vorliegenden Erfindung ist der erste Schritt, die Wiedergabeperiode Tw, d.h. die Periode, bei der die Rahmendaten aufeinander folgend von den in dem Aufzeichnungsmedium wie zum Beispiel der Festplatte gespeicherten codierten Daten geholt werden, festzulegen (Schritt ST10) und der nächste Schritt ist es, die n-ten zu decodierenden Rahmendaten zu spezifizieren (Schritt ST11). Diese Wiedergabeperiode Tw ist gegeben durch das Verhältnis (Tv/R) der Abtastperiode Tv (= Δt·v: v ist ein beliebiger Wert) der Amplitudeninformation in dem oben erwähnten Codierprozess zu einem von dem Benutzer bestimmten Wiedergabegeschwindigkeitsverhältnis (auf der Basis von 1, R = 0,5 eine halben Geschwindigkeit und R = 2 eine doppelten Geschwindigkeit).
  • Darauffolgend wird ein Kanal CH der Frequenz Fi (i = 1-N) festgelegt (Schritt ST12) und die Sinus-Komponente von sin(2πFi(Δτ·n)) und die Kosinus-Komponente von cos(2πFi(Δτ·n)) werden nacheinander bei jeder Frequenz Fi generiert (Schritte ST13 und ST14).
  • Dann werden die Digital-Audiodaten an den Punkt, wenn die Zeit (Δτ·n) abgelaufen ist seit dem Beginn der Wiedergabe, generiert basierend auf den Sinus- und Kosinus-Komponenten bei den jeweiligen, im Schritt ST13 generierten Frequenzen Fi und den Amplitudeninformationselementen Ai, Bi in dem n-ten in Schritt ST11 spezifizierten Datenrahmen (Schritt ST15).
  • Die obigen Schritte ST11 bis ST15 werden für alle Rahmendaten ausgeführt, die in den codierten Audiodaten 900 enthalten sind (vgl. 6) (Schritt ST16).
  • In dem Fall, in dem die in dem Schritt ST11 spezifizierten Rahmendaten die Quadratwurzelinformation Ci enthalten, wie in den Rahmendaten 800b, die in 9 gezeigt sind, kann der Prozess ausgeführt werden unter Verwendung der Information Ci als Koeffizient für sowohl die Sinus-Komponente als auch die Kosinus-Komponente. Der Grund ist, dass der Frequenzbereich, der das Ersetzen durch die Information Ci verwendet, eine Frequenzregion ist, in der Menschen kaum in der Lage sind, sie zu unterscheiden und es demnach weniger erforderlich ist, die Sinus- und Kosinus-Komponenten voneinander zu unterscheiden. Wenn ein Teil der Amplitudeninformation in den Rahmendaten, die im Schritt ST11 spezifiziert worden sind, vermisst wird, gerade wie in den in 10B gezeigten Rahmendaten 800c, wird eine Verminderung der Wiedergabegeschwindigkeit dazu führen, dass die Diskontinuität des wiedergegebenen Audio eminent wird, wie in 12A und 12B gezeigt. Aus diesem Grund, wie in 13 gezeigt, wird vorgezogen, das Intervall der Wiedergabeperiode Tw in (Tw/Δτ) Zonen aufzuteilen und lineare Interpolation oder Kurvenfunktionsinterpolation zwischen vorangehenden und nachfolgenden Audiodatenstücken zu bewirken. In diesem Fall werden (Tw/Δτ)-mal die Originalaudiodatenelemente generiert.
  • Wenn ein für das Decodierverfahren von Digital-Audiodaten gemäß der vorliegenden Erfindung, wie oben beschrieben, gedachter Ein-Chip-Prozessor in ein tragbares Endgerät wie zum Beispiel ein Mobiltelefon, eingearbeitet ist, wird dem Benutzer ermöglicht, die Inhalte wiederzugeben oder einen Ruf auszuführen bei einer gewünschten Geschwindigkeit, während er sich bewegt.
  • 14 ist eine Darstellung zum Zeigen einer Anwendung in einem weltweiten Datenkommunikationssystem zum Liefern von Daten zu einer die Lieferung anfordernden Endgeräteeinrichtung, die konfiguriert ist zum Liefern der Inhaltsdaten, die von der Endgeräteeinrichtung bestimmt werden von einem spezifischen Liefersystem wie zum Beispiel einem Server über eine leitungsgebundene oder drahtlose Kommunikationsstrecke zu der Endgeräteeinrichtung, und die es hauptsächlich ermöglicht, spezifische Inhalte, wie zum Beispiel Musik, Bilder, etc., die den Benutzern über die von dem Internetübertragungsschaltungsnetz typifizierten Kommunikationsstrecken wie zum Beispiel Kabelfernsehennetze und öffentliche Telefonnetze, die Funkschaltungsnetze wie zum Beispiel Zellulartelefone, die Satellitenkommunikationsstrecken usw. bereitgestellt werden. Diese Anwendung des Inhalteliefersystems kann in einer Vielzahl von denkbaren Arten ausgeführt werden dank der neueren Entwicklung von Digitaltechnologie und der Verbesserung in den Datenkommunikationsumgebungen.
  • In dem in 14 gezeigten Inhalteliefersystem ist der Server 300 als ein Liefersystem mit einer Speichereinrichtung 310 ausgestattet zum temporären Speichern der Inhaltedaten (z.B. codierte Audiodaten) zum Liefern gemäß der Anforderung eines Benutzers; und ein Datensender 320 (I/O) zum Liefern der Inhaltedaten an die benutzerseitige Endgeräteeinrichtung wie zum Beispiel ein PC 500 oder ein Zellulartelefon 600 über ein leitungsgebundenes Netz 150 oder über eine einen Kommunikationssatelliten 160 verwendete Funkverbindung.
  • Als Endgeräteeinrichtung (client) ist der PC 500 mit einem Empfänger 510 (I/O) versehen zum Empfangen der von dem Server 300 über das Netz 150 oder den Kommunikationssatelliten 160 gelieferten Inhaltedaten. Der PC 500 ist auch mit einer Festplatte 520 (H/D) versehen als einer externen Speichereinrichtung, und ein Controller 530 zeichnet temporär die durch I/O 510 empfangenen Inhaltedaten in der H/D 520 auf. Zudem ist der PC 500 mit einer Eingabeeinrichtung 540 (z.B. einer Tastatur und einer Maus) versehen zum Annehmen von Operationseingaben von dem Benutzer, einer Anzeigeeinrichtung 550 (z.B. eine CRT- oder eine Flüssigkristallanzeige) zum Anzeigen von Bilddaten und einem Lautsprecher 560 von Ausgeben von Audiodaten oder Musikdaten.
  • Die jüngste bemerkenswerte Entwicklung von Mobilinformationsverarbeitungsausrüstung hat die Inhaltelieferdienste unter Verwendung von Zellulartelefonen als Endgeräteausrüstung und Speichermedien 700 für dedizierte Wiedergabeapparate ohne Kommunikationsfunktion (z.B. Speicherkarten mit der Speicherkapazität von etwa 64 MB) zur praktischen Anwendung gebracht. Speziell, um das Aufzeichnungsmedium 700, das in einer Nur-Wiedergabeeinrichtung ohne Kommunikationsfunktion verwendet wird, bereitzustellen, kann der PC 500 auch mit einer I/O 570 als Datenrekorder bzw. Datenaufzeichner ausgerüstet sein.
  • Die Endgeräteeinrichtung kann eine tragbare Informationsverarbeitungseinrichtung 600 mit der Kommunikationsfunktion per sè sein, wie in 14 gezeigt.
  • GEWERBLICHE ANWENDBARKEIT
  • Wie oben beschrieben hat die vorliegende Erfindung die spürbare Erhöhung der Verarbeitungsgeschwindigkeit zugelassen verglichen mit den konventionellen Bandtrenntechniken unter Verwendung von Bandpassfiltern dank der folgenden Konfiguration: die Amplitudeninformationselemente der Sinus- und Kosinus-Komponenten wurden extrahiert unter Verwendung des Paares der Sinus-Komponente und Kosinus-Komponente, die jeder der diskreten Frequenzen von den abgetasteten Digital-Audiodaten entspricht. Da die generierten codierten Audiodaten die Paare von Amplitudeninformationselementen von Sinus- und Kosinus-Komponenten enthalten, die den jeweiligen voreingestellten diskreten Frequenzen entsprechen, wird die Phaseninformation bei jeder diskreten Frequenz zwischen der Codierseite und der Decodierseite bewahrt. Demgemäss ist die Decodierseite auch in der Lage, das Audio bei einer wahlweise ausgewählten Wiedergabegeschwindigkeit wiederzugeben ohne Verschlechterung der Artikulation von Audio.

Claims (9)

  1. Codierverfahren von Digital-Audiodaten, die Schritte umfassend: Festlegen diskreter Frequenzen, beabstandet um vorbestimmte Intervalle in einem Frequenzbereich von bei einer ersten Periode abgetasteten Digital-Audiodaten; unter Verwendung einer jeden der derart festgelegten Frequenzen entsprechenden Sinus-Komponente und einer hiermit gepaarten Kosinus-Komponente, wobei die Komponenten digitalisiert sind, Extrahieren von Amplitudeninformationselementen des Paares von Sinus-Komponenten und Kosinus-Komponenten bei jeder zweiten Periode von den Digital-Audiodaten; und sukzessives Erzeugen von Rahmendaten, die Paare von Amplitudeninformationselementen der den jeweiligen diskreten Frequenzen entsprechenden Sinus- und Kosinus-Komponenten enthalten, als Teil von codierten Audiodaten.
  2. Codierverfahren von Digital-Audiodaten nach Anspruch 1, wobei jedes der Amplitudeninformationselemente der jeder der diskreten Frequenzen entsprechenden Sinus-Komponente und Kosinus-Komponente extrahiert wird durch Multiplizieren der Digital-Audiodaten mit einer von der Sinus-Komponente und der Kosinus-Komponente.
  3. Codierverfahren von Digitalaudioinformation nach Anspruch 1, ferner die Schritte umfassend: für eine oder mehrere von den diskreten Frequenzen ausgewählten Frequenzen, Berechnen einer Quadratwurzel einer Sinus-Komponente, die gegeben ist als eine Summe von Quadraten der jeweiligen Sinus- und Kosinus-Komponenten-Amplitudeninformationselemente der zueinander gepaarten Sinus- und Kosinus-Komponenten bei jeder ausgewählten Frequenz; und Ersetzen eines Amplitudeninformationspaares entsprechend jeder ausgewählten Frequenz, das in den Rahmendaten enthalten ist, durch die Quadratwurzel der von dem Amplitudeninformationspaar erhaltenen Summenkomponente.
  4. Codierverfahren von Digital-Audiodaten, außerdem den Schritt umfassend: Ausdünnen einer oder mehrerer Amplitudeninformationen aus der in den Rahmendaten enthaltenen Amplitudeninformation.
  5. Codierverfahren von Digital-Audiodaten nach Anspruch 1, außerdem die Schritte umfassend: zwischen oder unter Amplitudeninformationspaaren entsprechend zwei oder mehr zu einander benachbarten diskreten Frequenzen, die in den Rahmendaten enthalten sind, Vergleichen der Quadratwurzeln von Summenkomponenten, die als Summen von Quadraten jeweiliger Amplitudeninformationselemente von den zueinander gepaarten Sinus- und Kosinus-Komponenten erhalten werden; und Löschen der Amplitudeninformationspaare, die von dem Amplitudeninformationspaar mit der maximalen Quadratwurzel der Summenkomponenten aus den beiden oder mehreren derart verglichenen Amplitudeninformationspaaren abweichen aus den Rahmendaten, die in den codierten Audiodaten enthalten sind.
  6. Codierverfahren von Digital-Audiodaten nach Anspruch 3, außerdem die Schritte umfassend: zwischen oder unter Amplitudeninformationspaaren, welche den zwei oder mehr diskreten zu einander benachbarten Frequenzen entsprechen, die in den Rahmendaten enthalten sind, Vergleichen der Quadratwurzeln von Summenkomponenten; und Löschen der Amplitudeninformationspaare, die von den Amplitudeninformationspaaren mit der maximalen Quadratwurzel der Summenkomponenten aus den beiden oder mehreren derart verglichenen Amplitudeninformationspaaren verschieden sind aus den Rahmendaten, die in den codierten Audiodaten enthalten sind.
  7. Decodierverfahren von Digital-Audiodaten zum Decodieren von durch ein Codierverfahren von Digital-Audiodaten nach Anspruch 1 codierten Audiodaten, wobei das Decodierverfahren die Schritte umfasst: sukzessives Erzeugen einer Sinus-Komponente und einer hierzu gepaarten Kosinus-Komponente, digitalisiert bei einer dritten Periode, zu jeder der diskreten Frequenzen; und bezüglich jeweiliger sukzessive bei einer vierten Periode einer Wiedergabeperiode geholter Rahmendaten von codierten Audiodaten, sukzessives Generieren von Digital-Audiodaten unter Verwendung von Amplitudeninformationspaaren entsprechend den jeweiligen diskreten Frequenzen, eingeschlossen in den erlangten Rahmendaten und Paaren von Sinus- und Kosinus-Komponenten.
  8. Decodierverfahren von Digital-Audiodaten nach Anspruch 7, wobei die Rahmendaten bezüglich aller von einer oder mehreren aus den diskreten Frequenzen ausgewählten Frequenzen derart eingerichtet sind, dass ein Paar von Amplitudeninformationselementen der zueinander gepaarten Sinus- und Kosinus-Komponenten ersetzt wird durch eine Quadratwurzel einer als eine Summe von Quadraten der Amplitudeninformationselemente gegebenen Summenkomponente, und wobei ein Teil der durch das Codierverfahren erhaltenen Digital-Audiodaten unter Verwendung der Quadratwurzel der Summenkomponente in den Rahmendaten und einer von der Sinus- und Kosinus-Komponente entsprechend der Frequenz, zu der die Quadratwurzel der Summenkomponente gehört, erzeugt wurde.
  9. Decodierverfahren von Digital-Audiodaten nach Anspruch 7 oder 8, wobei eine oder mehrere Amplitudeninterpolationsinformationen sukzessive erzeugt werden bei einer fünften Periode, die kürzer ist als die vierte Periode, um Linearinterpolation oder Kurvenfunktionsinterpolation von Amplitudeninformation zwischen sukzessive bei einer vierten Periode erlangten Rahmendaten zu bewirken.
DE10197182T 2001-01-22 2001-01-22 Verfahren zum Codieren und Decodieren von Digital-Audiodaten Expired - Fee Related DE10197182B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2001/000383 WO2002058053A1 (en) 2001-01-22 2001-01-22 Encoding method and decoding method for digital voice data

Publications (2)

Publication Number Publication Date
DE10197182T5 DE10197182T5 (de) 2004-08-26
DE10197182B4 true DE10197182B4 (de) 2005-11-03

Family

ID=11736937

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10197182T Expired - Fee Related DE10197182B4 (de) 2001-01-22 2001-01-22 Verfahren zum Codieren und Decodieren von Digital-Audiodaten

Country Status (6)

Country Link
US (1) US20040054525A1 (de)
JP (1) JPWO2002058053A1 (de)
KR (1) KR100601748B1 (de)
CN (1) CN1212605C (de)
DE (1) DE10197182B4 (de)
WO (1) WO2002058053A1 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7044741B2 (en) * 2000-05-20 2006-05-16 Young-Hie Leem On demand contents providing method and system
US7460684B2 (en) 2003-06-13 2008-12-02 Nielsen Media Research, Inc. Method and apparatus for embedding watermarks
CN102592638A (zh) * 2004-07-02 2012-07-18 尼尔逊媒介研究股份有限公司 用于进行压缩数字位流的混合的方法及装置
SE532117C2 (sv) * 2004-12-17 2009-10-27 Ericsson Telefon Ab L M Auktorisering i cellulära kommunikationssystem
EP2958106B1 (de) 2006-10-11 2018-07-18 The Nielsen Company (US), LLC Verfahren und vorrichtung zur einbettung von codes in komprimierte audiodatenströme
CN103258552B (zh) * 2012-02-20 2015-12-16 扬智科技股份有限公司 调整播放速度的方法
EP2830065A1 (de) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Decodierung eines codierten Audiosignals unter Verwendung eines Überschneidungsfilters um eine Übergangsfrequenz
US9672833B2 (en) * 2014-02-28 2017-06-06 Google Inc. Sinusoidal interpolation across missing data
DE102017100076A1 (de) * 2017-01-04 2018-07-05 Sennheiser Electronic Gmbh & Co. Kg Verfahren zur latenzarmen Audioübertragung in einem LTE-Netzwerk
CN115881131B (zh) * 2022-11-17 2023-10-13 广东保伦电子股份有限公司 一种多语音下的语音转写方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0285275A2 (de) * 1987-04-02 1988-10-05 Massachusetts Institute Of Technology Verfahren und Einrichtung zur Vorverarbeitung eines akustischen Signals
EP0698876A2 (de) * 1994-08-23 1996-02-28 Sony Corporation Verfahren zur Dekodierung kodierter Sprachsignale
EP0751493A2 (de) * 1995-06-20 1997-01-02 Sony Corporation Verfahren und Einrichtung zur Wiedergabe von Sprachsignalen und Verfahren zu seiner Übertragung
JP2000081897A (ja) * 1998-09-03 2000-03-21 Kanaasu Data Kk 音声情報の記録方法、音声情報記録媒体、並びに音声情報の再生方法及び再生装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1986005617A1 (en) * 1985-03-18 1986-09-25 Massachusetts Institute Of Technology Processing of acoustic waveforms
US5668923A (en) * 1995-02-28 1997-09-16 Motorola, Inc. Voice messaging system and method making efficient use of orthogonal modulation components
JPH1168576A (ja) * 1997-08-22 1999-03-09 Hitachi Ltd データ伸張装置
EP0976125B1 (de) * 1997-12-19 2004-03-24 Koninklijke Philips Electronics N.V. Beseitigung der periodizität in einem gestreckten audio-signal
US6195633B1 (en) * 1998-09-09 2001-02-27 Sony Corporation System and method for efficiently implementing a masking function in a psycho-acoustic modeler
US6266644B1 (en) * 1998-09-26 2001-07-24 Liquid Audio, Inc. Audio encoding apparatus and methods
US6691084B2 (en) * 1998-12-21 2004-02-10 Qualcomm Incorporated Multiple mode variable rate speech coding
US6266643B1 (en) * 1999-03-03 2001-07-24 Kenneth Canfield Speeding up audio without changing pitch by comparing dominant frequencies
US6604070B1 (en) * 1999-09-22 2003-08-05 Conexant Systems, Inc. System of encoding and decoding speech signals
US6772126B1 (en) * 1999-09-30 2004-08-03 Motorola, Inc. Method and apparatus for transferring low bit rate digital voice messages using incremental messages
US6754618B1 (en) * 2000-06-07 2004-06-22 Cirrus Logic, Inc. Fast implementation of MPEG audio coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0285275A2 (de) * 1987-04-02 1988-10-05 Massachusetts Institute Of Technology Verfahren und Einrichtung zur Vorverarbeitung eines akustischen Signals
EP0698876A2 (de) * 1994-08-23 1996-02-28 Sony Corporation Verfahren zur Dekodierung kodierter Sprachsignale
EP0751493A2 (de) * 1995-06-20 1997-01-02 Sony Corporation Verfahren und Einrichtung zur Wiedergabe von Sprachsignalen und Verfahren zu seiner Übertragung
JP2000081897A (ja) * 1998-09-03 2000-03-21 Kanaasu Data Kk 音声情報の記録方法、音声情報記録媒体、並びに音声情報の再生方法及び再生装置

Also Published As

Publication number Publication date
KR20030085521A (ko) 2003-11-05
CN1212605C (zh) 2005-07-27
JPWO2002058053A1 (ja) 2004-05-27
WO2002058053A1 (en) 2002-07-25
DE10197182T5 (de) 2004-08-26
US20040054525A1 (en) 2004-03-18
CN1493072A (zh) 2004-04-28
KR100601748B1 (ko) 2006-07-19

Similar Documents

Publication Publication Date Title
DE60002483T2 (de) Skalierbares kodierungsverfahren für hochqualitätsaudio
DE4227826C2 (de) Digitales Verarbeitungsgerät für akustische Signale
DE69214523T3 (de) Dekodierer für variable anzahl von kanaldarstellungen mehrdimensionaler schallfelder
DE60208426T2 (de) Vorrichtung zur signalkodierung, signaldekodierung und system zum verteilen von audiodaten
EP1864279B1 (de) Vorrichtung und verfahren zum erzeugen eines datenstroms und zum erzeugen einer multikanal-darstellung
DE69533872T2 (de) Verfahren und gerät zur zeit-mulitplex-codierung von digitaler audioinformation auf ein digitales speichermedium
DE69933659T2 (de) Verfahren und system zur räumlichen kodierung mit niedriger bitrate
EP1794564B1 (de) Vorrichtung und verfahren zum synchronisieren von zusatzdaten und basisdaten
Brandenburg MP3 and AAC explained
DE69838401T2 (de) Verfahren und vorrichtung zur kodierung von tonsignalen, in dem am tonsignal eine unhörbare kode hinzugefügt wird, für verwendung in programmidentifikationssystemen
DE69935811T2 (de) Frequenzbereichsaudiodekodierung mit Entropie-code Moduswechsel
DE69034231T2 (de) Digitales Übertragungssystem zur Übertragung von Skalenfaktoren
DE60306512T2 (de) Parametrische beschreibung von mehrkanal-audio
DE10393776T5 (de) Kodierung von mehreren Nachrichten in Audiodaten und Detektierung derselben
DE102009059167B4 (de) Mischpultsystem und Verfahren zur Erzeugung einer Vielzahl von Mischsummensignalen
DE10197182B4 (de) Verfahren zum Codieren und Decodieren von Digital-Audiodaten
DE60020663T2 (de) Verfahren zur Formatierung eines Audiodatenstroms
DE69734543T2 (de) Mit 2-kanal- und 1-kanal-übertragung kompatible n-kanalübertragung
DE69822085T2 (de) Änderung der Sprachabspielgeschwindigkeit mittels Wavelet-Kodierung
DE60024729T2 (de) System und verfahren zum effizienten antialiasing im zeitbereich (tdac)
DE602004009926T2 (de) Vorrichtung und verfahren zum einbetten eines wasserzeichens unter verwendung von subbandfilterung
DE69728330T2 (de) Mit einer 5-kanalübertragung und einer 2-kanalübertragung kompatible 7-kanalübertragung
DE602004000884T2 (de) Digitales Audiowasserzeichen
DE69834792T2 (de) Datenverteilungssystem, Verteilungseinrichtung, Terminaleinrichtung und Datenverteilungsverfahren
US6463405B1 (en) Audiophile encoding of digital audio data using 2-bit polarity/magnitude indicator and 8-bit scale factor for each subband

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law

Ref document number: 10197182

Country of ref document: DE

Date of ref document: 20040826

Kind code of ref document: P

8363 Opposition against the patent
8369 Partition in:

Ref document number: 10164989

Country of ref document: DE

Kind code of ref document: P

Q171 Divided out to:

Ref document number: 10164989

Country of ref document: DE

Kind code of ref document: P

8339 Ceased/non-payment of the annual fee