DE4203436A1 - Datenreduzierte sprachkommunikation - Google Patents
Datenreduzierte sprachkommunikationInfo
- Publication number
- DE4203436A1 DE4203436A1 DE19924203436 DE4203436A DE4203436A1 DE 4203436 A1 DE4203436 A1 DE 4203436A1 DE 19924203436 DE19924203436 DE 19924203436 DE 4203436 A DE4203436 A DE 4203436A DE 4203436 A1 DE4203436 A1 DE 4203436A1
- Authority
- DE
- Germany
- Prior art keywords
- digital
- data
- speech
- bit
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000004891 communication Methods 0.000 title claims abstract description 13
- 239000000470 constituent Substances 0.000 title description 2
- 230000005540 biological transmission Effects 0.000 claims abstract description 47
- 238000001228 spectrum Methods 0.000 claims abstract description 43
- 230000003595 spectral effect Effects 0.000 claims abstract description 38
- 238000012545 processing Methods 0.000 claims abstract description 26
- 230000008054 signal transmission Effects 0.000 claims abstract description 24
- 238000001914 filtration Methods 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 106
- 230000013707 sensory perception of sound Effects 0.000 claims description 21
- 230000009467 reduction Effects 0.000 claims description 19
- 238000005070 sampling Methods 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 230000001419 dependent effect Effects 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 15
- 238000012937 correction Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 8
- 230000036962 time dependent Effects 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 5
- 230000002123 temporal effect Effects 0.000 claims description 5
- 238000012546 transfer Methods 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 4
- 239000013589 supplement Substances 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims description 3
- 230000001934 delay Effects 0.000 claims description 2
- 230000004069 differentiation Effects 0.000 claims description 2
- 230000036961 partial effect Effects 0.000 claims description 2
- 230000008030 elimination Effects 0.000 claims 3
- 238000003379 elimination reaction Methods 0.000 claims 3
- 230000001960 triggered effect Effects 0.000 claims 3
- 238000011835 investigation Methods 0.000 claims 2
- 238000007792 addition Methods 0.000 claims 1
- 230000002146 bilateral effect Effects 0.000 claims 1
- 238000003780 insertion Methods 0.000 claims 1
- 230000037431 insertion Effects 0.000 claims 1
- 230000010363 phase shift Effects 0.000 claims 1
- 238000002360 preparation method Methods 0.000 claims 1
- 230000002441 reversible effect Effects 0.000 claims 1
- 238000004088 simulation Methods 0.000 claims 1
- 238000012360 testing method Methods 0.000 claims 1
- 238000004458 analytical method Methods 0.000 abstract description 4
- 230000008901 benefit Effects 0.000 abstract description 3
- 230000004075 alteration Effects 0.000 abstract 1
- 230000009466 transformation Effects 0.000 abstract 1
- 230000008569 process Effects 0.000 description 8
- 230000000875 corresponding effect Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 238000013386 optimize process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000011295 pitch Substances 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- XOFYZVNMUHMLCC-ZPOLXVRWSA-N prednisone Chemical compound O=C1C=C[C@]2(C)[C@H]3C(=O)C[C@](C)([C@@](CC4)(O)C(=O)CO)[C@@H]4[C@@H]3CCC2=C1 XOFYZVNMUHMLCC-ZPOLXVRWSA-N 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000010453 quartz Substances 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000001020 rhythmical effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000021317 sensory perception Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N silicon dioxide Inorganic materials O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/66—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission
- H04B1/667—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission using a division in frequency subbands
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K1/00—Secret communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/64—Automatic arrangements for answering calls; Automatic arrangements for recording messages for absent subscribers; Arrangements for recording conversations
- H04M1/65—Recording arrangements for recording a message from the calling party
- H04M1/6505—Recording arrangements for recording a message from the calling party storing speech in digital form
- H04M1/651—Recording arrangements for recording a message from the calling party storing speech in digital form with speech synthesis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
Die Erfindung betrifft ein Verfahren zur
datenreduzierten Sprachkommunikation.
Es ist bekannt, daß zur Aufnahme und Wiedergabe
von gesprochenen Texten bei der telefonischen
Kommunikation, im Frequenzbereich von 300 Hz
bis 3,4 kHz, ein analoges Aufzeichnungsverfahren
via magnetischer Tonträger vielfach angewendet
wird. Hierbei kommt eine Minikassette mit einer
Aufsprechzeit (oder Bespieldauer) von 15 Minuten
zum Einsatz. Nebendem werden mehrfach Verfahren
und zugehörige Vorrichtungen beschrieben,
die das genannte mechanische Aufzeichnungsmedium
Kassette durch einen digitalen Datenspeicher
ersetzen sollen (wesentliche Patentschrift-Nr.
DE 28 54 401, DE 28 54 431, DE 28 54 516, DE 31 04 564,
DE 31 19 226, DE 32 14 260, DE 32 14 249, DE 32 32 398).
Bevor hier jedoch der Ansagetext digital
abgespeichert wird, findet eine Analog-Digital-
Wandlung statt. Zur Reduzierung der Datenraten
(mindestens einige Kilobytes pro Sekunde) des
nötigen Speicherplatzes wird bespielsweise nur
getaktete Textpausen-Auswertung bzw. -ausnutzung
betrieben. Außerdem wird das Sprachsignal auch
amplituden-begrenzt, um eine Übersteuerung
während einer Delta- und/oder Puls-Code-
Modulation (PCM) zu vermeiden. T.A. werden diese
Vorrichtungen rechnergestützt über ein externes
Bedienungsfeld zu betreiben.
Ähnliche Problemstellungen sind üblicherweise auch
bei Diktiergeräten anzutreffen.
Auf einem bezüglich der Klangqualitätsanforderungen
vollständig differenten Gebiet, nämlich der
Realisierung des terrestrischen, digitalen,
stereophonen Hörrundfunks, bestreitet man einen
Weg, welcher die dafür gebrauchten hohen
Datenraten vermindert (Bericht der 15. Tonmeister
tagung 1988, Seiten 132 bis 147). Dies beruht
auf einer effektiven Quellcodierung unter
Ausnutzung der Eigenschaften der menschlichen
Sinneswahrnehmung Hören nach ZWICKER-FELDTKELLER
(Das Ohr als Nachrichtenempfänger, S. Hirzel
Verlag Stuttgart 1967), wie sie sich anhand
von Mithörschwellenmustern, Vor- oder
Nachverdeckungseffekten ergeben. Das hiermit zu
verbindende MASCAM-Verfahren (Maskin-pattern
Adapted Subband Coding And Multiplexing)
ist eine speziell für die stereophone Ton
signalwiedergabe, in Anlehnung an die Qualität
von Compact-Disc-Playern, optimierte Lösungs
variante (Patentschrift-Nr. DE 35 06 912, DE 36 21 513,
DE 36 39 753, DE 37 03 143, DE 38 17 864, DE 39 02 948).
Diese spart mittels frequenz- und
Zeitabhängiger Zuweisung der Quantisierung
(Teilbandcodierung via digitaler Filter)
ca. zwei Drittel der sonst üblichen Daten,
im Vergleich zu herkömmlich kompandierter
Quantisierung (z. B. PCM), ein.
Auf ähnlichen Wegen befindet man sich mit
einem Verfahren zur Datenreduktion von
Audiosignalen, welches ASPEC (Advanced Spectral
Entropy Coding) genannt wird (u. a. GRUNDIG-
Pressegespräch DAB 30.11.1990; Mitteilung vom
Frauenhofer-Institut für integrierte Schaltungen,
11.12.1990).
Ferner wird vielfach versucht, die bei einer
(Sprach-) Signalübertragung auftretenden hohen
Datenraten, welche mit einer großen nötigen
Übertragungsbandbreite korrelieren, zu reduzieren.
Diverse Signal-Codierverfahren mit u. a. einer
Daten-Redundanzverminderung, tragen diesbezüglich
bei (Patentschriften-Nr. DE 30 20 061, DE 31 18 676,
DE 35 09 269, DE 35 23 809, DE 35 25 898, DE 35 33 708,
DE 37 10 664, DE 37 33 739, DE 37 36 193).
Der Erfindung liegt die Aufgabe zugrunde, ein
Verfahren der in Rede stehenden Art zu schaffen,
das anhand einer maximalen Ausnutzung der
menschlichen Höreigenschaften, wie die Empfindung
von Signalverzögerungen (Echo), Vor- und Nach
verdeckung, unter Bezug des Anwendungsbereiches
"Sprach-Kommunikation", eine datenreduzierte,
digitale Abspeicherung (Aufnahme) und/oder
Wiedergabe von Ansage- bzw. Aufsprechtexten
sowie Sprachsignal-Übertragung mit ausreichend
guter Sprachverständlichkeit ermöglicht.
In diesem Zusammenhang werden die vereinfachenden
Kriterien bei ausschließlich sprachlicher
Verständigung, gegenüber dem gehörbezogenen
Wahrnehmen von Tonsignalen, wie sie sich u. a. in
Form von Musiksignalen ergeben (originalgetreue
Aufnahme, Wiedergabe und Übertragung, exakt nach
Betrag/Amplitude und in Phase), ausgenützt.
Gelöst wird diese Aufgabe durch die kennzeichnenden
Merkmale des Anspruchs 1.
Vorteilhafte Ausbildungen der Erfindung sind in
den Unteransprüchen aufgeführt.
Dabei wird in Anspruch 2 erstens eine vom
Arbeitsbereich von der einer Analog-Digital
und Digital-Analog-Wandlung abhängige,
aufnahmeseitige Dynamikreduzierung, d. h.
Sprachsignal-Kompression, geschaffen,
welche eine Spitzenwertbegrenzung sowie
Niederpegelanhebung beinhaltet. Zweitens wird
nach der wiedergabeseitigen Digital-Analog-
Wandlung, in Anlehnung an die ursprüngliche
Dynamik des Sprachsignales vor der Analog-
Digital-Wandlung, eine Dynamik-Expansion
realisiert ("Kompandierung" fußt auf eine
Verbindung der Begriffe "Kompression" und
"Expandierung").
In den Unteransprüchen 3 bis 7 wird das zugehörige
Teilverfahren der Sprachsignal-Wandlung
beschrieben.
In den Unteransprüchen 8 bis 25 wird die
Weiterverarbeitung des digital-gewandelten
Sprachsignales hinsichtlich einer
auf digitale Filter beruhenden Codierung
vorgenommen, welche das eigentliche,
breitbandige, zeitvariante Sprachsignal
in mehrere Frequenzbänder und somit in
zeitvariante Spektralkomponenten gehörbezogen
zerlegt.
Die Unteransprüche 26 bis 28 legen ein
Verfahren zur Abspeicherung des das Sprachsignal
beinhaltenden Datenstromes zugrunde.
In den Unteransprüchen 29 bis 36 wird ein
verfahrensmäßiges Vorgehen zur Realisierung
eines dem Original-Spektrum des Sprachsignales,
vor der Analog-Digital-Wandlung, Datenverarbeitung,
und Digital-Analog-Wandlung, hinsichtlich der
Sprachverständlichkeit, ausreichend entsprechendes
Wiedergabe-Spektrum (-Signal) erörtert. Eine
entsprechende Sprachverständlichkeit ist ebenso
auch beim "Flüstern" gegeben, was auf die
wesentlichen, zeitabhängig variierenden sowie
rauschsignal-beinhaltenden Zischlaute
zurückzuführen ist.
Die Unteransprüche 37 bis 70 beinhalten ergänzende
Ausführungen zum Verfahren, wobei diese überwiegend
entweder zur Aufwertung der Sprachverständlichkeit
mittels Spektralbereichsergänzung und/oder Sprach-
Referenzmustervergleich oder, umgekehrt optimiert,
zur Infra-(körper-)schallübertragung führen.
Die mit Hilfe der Erfindung erzielbaren Vorteile
gegenüber dem Stand der Technik bestehen darin,
daß
- a) keine mechanisch zu beanspruchenden Teile zur Abspeicherung und Wiedergabe von Sprachsignalen benötigt werden (vgl. heutige Diktiergeräte),
- b) eine Verminderung von Datenraten bei ausreichend guter Sprachverständlichkeit durch die Ausnut zung des zeitlichen und frequenzabhängigen Auflösungsvermögens des menschlichen Gehörs um Faktoren geschaffen wird (z. B. mehrere parallel laufende Sprachkommunikationen in einem Telefonfrequenzband realisierbar),
- c) Bandbreiten, die sonst nur den Baßbereich (oder Infraschallbereich) von Tonsignalen abdecken würden, zur Sprachsignal-Vermittlung ausreichen,
- d) das Verschlüsseln der das Sprachsignal beinhal tenden (digitalen) Spektralbereichsinformation sehr einfach durch eine Datenmanipulation bzw. Datennachverarbeitung gegeben ist,
- e) aufgrund c) und d) beispielsweise eine Anwendung bei geheim zu haltender Informations vermittlung, wie sie vom Marine-Unterwasser Morsen bekannt ist, durch eine Sprachsignal Übertragung ersetzt werden kann und
- f) das eine Übertragungsfehlervermeidung mittels u. a. Sicherungscode, Spektrumsergänzung sowie Referenzsprachmustervergleich offeriert wird.
Nachfolgend soll die Erfindung anhand von fünf
Ausführungsbeispielen, einer Tabelle und zwei
Zeichnungen näher erläutert werden. In diesen
zeigen:
Fig. 1 eine Tabelle mit viertel-terz gestuften
Meßfrequenz- bzw. Bandpaß-Eckfrequenzwerten
nach DIN 45 401,
Fig. 2 die Signalverarbeitungsschritte einer
digitalen, eingangsseitigen,
datenreduzierten Sprachsignal
Synthetisierung, d. h. die Erzeugung
einer bit-datenminimierten
Spektralbereichsinformation, welche zur
Abspeicherung oder Übertragung von
Sprachsignalen dient, und
Fig. 3 die aus der Spektralbereichsinformation des
digitalen Sprachsignals wiedergabeseits
nötigen, Signal-Rekonstruktionsschritte zu
einem verständlichen Sprachsignal.
Die Übertragung von Fernsprechsignalen findet
üblicherweise in einem Frequenzbereich BF von
300 Hz bis 3,4 kHz statt. Somit haben eingesetzte
Anrufbeantworter bei der Aufnahme und Wiedergabe
von Gesprächen tontechnische, effektiv ein über
diesen Frequenzbereich BF verteiltes Spektrum
zu verarbeitet. Außerdem bietet das heutige
Fernsprechen unter besten Betriebsbedingungen
einen Fremdspannungsabstand von 40 dB
(Meßbandbreite BF).
Unter Anwendung des erfindungsgemäßen Verfahrens
kommen Anrufbeantworter nunmehr ohne mechanisch
bewegte Tonaufzeichnungsmedien (Minikassetten)
aus. Diese werden nun durch elektrische, digitale,
löschbare Speicher ersetzt. In einem Überblick
sind dabei folgende seriell vorzunehmende
Schritte a) bis g) relevant:
- a) Kompression des dynamischen, analogen Sprach oder Fernsprechsignales,
- b) Analog-Digital-Wandlung des dynamikreduzierten Sprachsignales,
- c) Bandpaßunterteilung nach DIN 45 401 des in digitaler Code-Form verschlüsselten Sprachsignales mittels digitaler Filtersynthese,
- d) Reduzierung der Datenrate anhand gehörbezogener sowie code-redundanzmindernder Parameter,
- e) Zu d) parallele Erzeugung eines bit-Fehler korrektur-, Redundanz- und Zeit-Codes, welcher mit dem in d) realisierten (Aufsprech-) Code verknüpft wird,
- f) Erstellung von gesprächsspezifischen Markierungen (Anfang, Ende etc.; Sortierung mehrerer Gespräche),
- g) Zeitabhängige Abspeicherung des bis f) entstandenen digitalen Codes,
- h) Aufsuche von z. B. dem Aufsprech-Code-Anfang,
- i) Auslesen des Codes unter Berücksichtigung des mit abgespeicherten bit-Fehlerkorrektur-, Redundanz- und Zeit-Codes, was u. a. eine bit-Wiederholung (Sample-Hold) nach Anweisung des Zeit-Codes betrifft,
- j) Schaffung von kontinuierlichen Pegelübergängen, um Knackgeräusche bei Veränderung eines dem bit entsprechenden Abtastbereiches zu minimieren,
- k) Aussteuerung von mit den Bandpässen (gemäß c)) korrelierenden Spektralbereichen, welche pegelabhängigen (digitalen) Signalgeneratoren entsprechen,
- l) Verknüpfung der einzelnen in digitaler Code form bestehenden Bandpaßspektren zu einem Gesamtspektrum (Resynthese des analogen Sprach bzw. Fernsprechsignales),
- m) Digital-Analog-Wandlung des Gesamtspektrums und
- n) Dynamikexpansion des erzeugten analogen Fernsprechsignales.
Die Vorgänge a) bis g) entsprechen der Aufnahme
und h) bis n) der Wiedergabe von Fernsprechsignalen
(zum Abhören von aufgesprochenen Textpartien).
Auf ein intensives Eingehen hinsichtlich der
Elemente des Bedienungskomforts wird nachstehend
verzichtet, da dies keinen Einfluß auf die
erfindungsgemäße Idee einer spektralbezogenen
Reduktion der Datenrate hat. Hierzu noch einige
Ausführungen:
zu a): Die Kompression des dynamischen
Fernsprechsignales wird in Abhängigkeit vom
Arbeitsbereiches des darauf folgenden Schrittes
einer Analog-Digital-Wandlung (bzw. deren Wandler
bausteine) durchgeführt. In dem zugrundeliegenden
Konzept ist eine Dynamikreduzierung des Sprach
signales auf 24 dB vorgesehen (ausführlicher, siehe
darunter, Ergänzung "zu b)").
zu b): Die Wandlung des analogen Sprachsignales
in digitale Daten (Code) wird per
Deltamodulation vorgenommen. Es findet ein 4 bit
Analog-Digital-Wandlerbaustein Anwendung,
welcher mit einer Abtastfrequenz von ca.
2 * BF = 7 kHz betrieben wird. Eine weitergehende
Optimierung in Anlehnung an die Compact-Disc
Player-Technik mit deren 1 bit-Deltamodulation
sowie 256-fachem Oversampling (vgl. Abtastfrequenz
von 44,1 kHz ohne Oversampling), ist vorgesehen.
Jene in "zu b)" vorgegebene Dynamikreduzierung
des Fernsprechwechselsignal auf den Wert
von 24 dB, ergibt sich aus der Beziehung, "je ein
bit mehr Auflösung bringt 6 dB mehr Dynamik",
also 4 * 6 dB = 24 dB. Zur Vereinfachung des
zu betreibenden Gesamt-Hard/Software-Aufwandes,
steht der Analog-Digital-Wandler mit einem
mikroprozessor-gesteuerten Rechner in Verbindung.
zu c): Daraufhin wird das digitalgewandelte
Wechselsignal einer rechnergestützten
Daten-Manipulation unterzogen. Im wesentlichen
fußt diese auf die Methodik mittels "digitaler
Filter" zur Bandpaß-Unterteilung (gemäß DIN 45 401,
logarithmische Wertestaffelung, relativ gehörnah)
des Fernsprechsignales zu gelangen. Es wird
eine in Halb-Terzschritten gestufte Filterung
realisiert. Für den im vorliegenden Beispiel
"Telefonanrufbeantworter" relevanten
Übertragungsbereich von 300 Hz bis 3,4 kHz wird
die Tabelle 1 in Fig. 1 benützt: Von links
nach rechts sind die errechneten Bandmitten
Frequenzen bei Oktav-, Terz- (1/3-Oktav-),
1/2-Terz- und 1/4-Terz-Bandpaß-Unterteilung
aufgelistet. Hierbei entspricht nun je die
in der gleichen Zeile der 1/2-Terzfrequenz
stehende 1/4-Terz-Frequenz der unteren
Bandpaß-Eckfrequenz sowie die in der darauf
folgenden Zeile stehende 1/4-Terzfrequenz
der oberen Bandpaß-Eckfrequenz. Deshalb
bildet sich der erste Bandpaß bei 310 Hz
(Mittenfrequenz) aus den 1/4-Terzfrequenzwerten
300 Hz (aufgerundet aus 297 Hz) und 334 Hz.
Folglich ergeben sich für den Bandpaß bei 350 Hz
die Frequenzwerte 334 Hz (untere Bandpaßeck
frequenz) sowie 376 Hz (obere Bandpaßeckfrequenz).
Der oberste Bandpaß bei 3100 Hz wird durch die
Eckfrequenzen 2970 Hz und 3400 Hz (aufgerundet
aus 3340 Hz) eingegrenzt. Zusammengerechnet
werden somit 21 Bandpasse via "digitaler Filter"
erzeugt, welche simultan, je Abtastzeitintervall,
vorliegen (sollen). Das Fernsprechsignal liegt
demzufolge, nach einer üblichen Rechnerzeit
verzögerung (einige Millisekunden), zu einem
bestimmten Zeitpunkt t in seine Spektralanteile
zerlegt vor. Dieser Signalbearbeitungsschritt
ist ebenso durch vor den Analog-Digital-Wandler
geschaltete, analoge parallel arbeitende
21 Filterstufen ersetzbar, da, als Grundlage
für die später vorgenommene spektralabhängige
Sprachsignal-Synthese, die einzelnen
Bandpaßpegel von Interesse sind. Hier sind
diese in einem Code-Wort Xt für die
jeweiligen Bandpässe verschlüsselt.
zu d), e): Es werden aus einer bestimmten Anzahl
der 7000 Abtasterwerte je Sekunde (siehe 7 kHz
Abtastfrequenz), hinsichtlich einem zur Verfügung
stehenden Abtastzeit-Intervall "delta t",
welches zehn Millisekunden beträgt (ungefährer
Wert der überhaupt noch möglichen, menschlichen
Wahrnehmung von zeitverzögerten Signalen), die
in digitaler Code-Form zur Verfügung stehenden
Bandpaß-Pegelwerte gemittelt übernommen. Zehn
Millisekunden korrespondieren hier mit einer
Frequenz von 100 Hz (Zeitpunkt t), woraufhin,
z. B. für den untersten Bandpaß bei 310 Hz,
drei zeitlich aufeinander folgende Abtastwerte
entstehen. Solche Abtastwerte werden mit dem
gemittelten Abtastwert bei dem Zeitpunkt
(t - "delta t") verglichen. Wenn ein relativer
Spitzwert vorliegt (z. B. um drei Abtasteinheiten
größer), dann wird dieser unbearbeitet übernommen.
Absolute Spitzenwerte oder leichte Veränderung
werden hingegen zusammen mit den anderen Werten
einer Mittelwertsbildung unterzogen. Die gleiche
Prozedur gilt auch für (digitale) Pegelrückgänge.
Die hier erörterte bit-Überprüfungsroutine findet
für alle Bandpässe Anwendung.
Ferner werden hierzu gehörbezogene Parameter
dahingehend berücksichtigt, daß bei markanten
(digitalen) Bandpaßpegel-Unterschieden,
wie sie bei schmalbandigen Geräuschen auftreten,
die Effekte der lautheitsbezogenen Vor- und
Nachverdeckung endgültig über den Durchlaß bzw.
Weiterleitung einer codierten Bandpaßpegel-
Information entscheiden oder diese in zugehörige
Verdeckungspegel-Niveaus zum Liegen
bringen.
Eine Optimierung des Verfahrens hinsichtlich
seiner Übertragungsqualität ist mittels
alternierend verschiedener (verschobener)
Abtastung gegeben: Aus den 21 Bandpässen
multipliziert mit dem reziproken Wert der
Abtastzeit-Intervalldauer (zehn Millisekunden)
von 100 Hz errechnen sich 2100 Hz oder sinnvoller
2100 Bandpaß-Abstastwerte. Im Vergleich zur
eigentlichen Abtastfrequenz 7 kHz besteht deshalb
ein ungefähres Verhältnis von 1 : 3, welches in
eine Drittelzeit-Intervall-Routine investiert
werden kann. Ähnliches wird durch Oversampling
erreicht.
Zur weiteren Verminderung der Code-Redundanz
werden bei bandpaßspezifischer und/oder über den
gesamten Übertragungsbereich zeitabhängig
gleich bleibende Bandpaßabtastwerte (u. a. bei
Sprechpausen von einigen 100 Millisekunden)
als solche mittels vorheriger Rechner
unterstützung erfaßt und nicht, gegenüber
wechselndem Datenfluß, zur danach folgenden
Datenweiterverarbeitung (z. B. Abspeicherung oder
Übertragung) weitergeleitet.
Ferner wird parallel zu diesem Datenfluß ein
bit-Fehlerkorrektur-, Redundanz- und Zeit-Code
(FRZ-Code) erstellt, welcher eventuell bei
der späteren Datenverarbeitung auftretende
Fehler und die zusätzliche zeitliche
Datenreduktion des Sprachsignales zu
erkennen gibt.
Ohne Berücksichtigung eines erstellten FRZ-Codes
ist damit eine Datenrate von 8400 bit′s pro
Sekunde, also 1,05 kbytes/sec, zu erzielen,
welche sich aus 100 (HZ) * 4 bit * 21 (Bp) =
Datenfluß-Frequenz * Auflösung * Bandpässe
errechnet. Die Datenfluß-Frequenz ergibt sich
aus 1/10 Millisekunden = 100 Hz, wobei der
Wert 100 Hz auch der Übertragungsbandbreite
entspricht. Übliche Abtastverfahren (8 bit
Auflösung und Puls-Code-Modulation) brauchen
zur Fernsprechsignal-Übertragung mit einer
Abtastfrequenz von 7 kHz (auch gleichzeitig die
Übertragungsbandbreite) eine Datenrate von
224 000 bits pro Sekunde, also 28 kbytes/sec.
Durch eine zusätzliche Aufwandsreduzierung der
Deltamodulation in Anlehnung an die Compact-
Disc-Player-Technik sowie anhand des Vergleichs
2100 Hz Bandpaß-Abtastwerte mit 7 kHz
Abtastfrequenz (Verhältnis 1 : 3), ist bei
Anwendung des erfindungsgemäßen Verfahrens eine
2 bit-Abtastung des Fernsprechsignales erlaubt.
Folglich vermindert sich die Datenrate auf ca.
500 bytes pro Sekunde.
zu f): Die Erstellung von Markierungen bei
mehreren getrennten Gesprächsaufzeichnungen
geschieht im Zusammenhang mit dem FRZ-Code
(siehe "zu e)"), wobei hierfür spezielle bit′s
zugeteilt werden, um bestimmte Interrupt-
Vorgänge auszulösen. Jedoch beinhaltet der
die Markierungen darstellende Zusatz-Code
einen Ordner bzw. ein Inhaltsverzeichnis und ist,
vor dem eigentlichen Zugriff auf das codierte
Fernsprechsignal (siehe folgende Erläuterungen ab
"zu h)"), somit von der mikroprozessorgesteuerter
Rechnereinheit direkt abrufbar. Ferner werden zu
den Markierungen Daten über Fernsprechpartner,
Uhrzeit des Anrufes, Telefonnummer usw.
aufgezeichnet.
zu g): Der bis zu Punkt f) erzeugte und zur
zur Datenverarbeitung freigegebene bzw. dann
weitergeleitete Code wird zeitkontinuierlich
Speicherbausteinen, i.A. EAPROM′s (Electrically
Alterable ROM), EEProm′s (Electric Erasable
Programmable Read Only Memory) oder
RAM′s (Random Access Memory), zugeführt.
Angesichts der erheblichen Reduktion von
Datenmengen kommt man mit weniger elektrischen
Speicherbausteinen aus. Hierzu ein Vergleich,
welcher einen effektiv nutzbaren Speicherplatz
von 700 kbytes zugrunde legt: Mit üblichen
Fernsprechsignal-Codierverfahren (z. B. mittels
Puls-Code-Modulation), einer Abtastfrequenz
von 7 kHz und spezieller 4 bit Auflösung
(Datenrate ist gleich 3,5 kbytes pro Sekunde),
kann eine Abspeicherzeit von 200 Sekunden zur
Verfügung gestellt werden. Dagegen wird in Punkt
"zu d), e)" von einer Datenrate 1,05 kbytes
ausgegangen, gemäß obiger 200 Sekunden bei
üblichen Codierverfahren errechnet sich die
3,5-fache Abspeicherzeit, nämlich 700 Sekunden
(ist gleich 11 Minuten und 40 Sekunden).
Angesichts der gängigen Bespielkapazität
von Minikassetten (15 Minuten) wird der
Abtastvorgang auf eine 2 bit Delta-Modulation
begrenzt (Stichwort: 1 bit-Wandler bei
Compact-Disc-Playern). Dies ermöglicht 23 Minuten
und 20 Sekunden abspeichern von Fernsprechsignalen
ohne Einbeziehung der insbesondere in d)
vorgenommenen Datenfluß-Redundanz (beispielsweise
auch Sprechpausen-Verkürzung). Ferner ist
keine gehörbezogene Bandbreiten-Optimierung
berücksichtigt (Hinweis: baßgefilterte Signal
übertragung von 700 Hz bis 3,4 kHz mit 80%
korrekter Spracherkennung), welche u. a. zur
Verminderung der 21 Bandpässe führt. Nebendem
werden mindestens zwei Speicherplätze getrennt
organisiert (über Ordner und Markierungen)
aufgebaut, womit ein Aufsprech- und mindestens
ein (den Anrufer informierenden) Abspielspeicher
existiert. Der eventuelle zweite Abspielspeicher
dient für den Fall verwendet, wenn der Aufsprech
speicherplatz gefüllt ist (anderer Text als bei
Abspielspeicher eins). Dies bedarf eine
automatische sowie programmgesteuerte Benutzer
ebene.
Zu h): Im Rahmen der gängigen Betriebsbedingungen
von Anrufbeantwortern ergibt sich das Abhören
von aufgesprochenen Textpartien, welche durch
die in f) erstellten Markierungen gefunden werden.
Hierbei werden tonbandähnliche Funktionen (gemäß
einem professionellen Auto-Lokator) berücksichtigt,
womit der Anfang, das Ende oder beliebige
Gesprächszeitpunkte beliebig oft angefahren werden.
Zu i): Nach entsprechender Aufsuche einer
Aufsprechtextstelle findet erstens das Lesen von
digitalen Daten (codiertes Fernsprechsignal
plus FRZ-Code) statt. Zweitens werden unter
Nutzung des FRZ-Codes diese digitalen Daten
zur Real-Time-Wiedergabe ergänzt, was mittels
einer Sample-Hold-Schaltung (u. a. zur bit-
Wiederholung; Redundanz-Wiederherstellung,
Stichwort "Sprechpausen-Erzeugung") geschieht.
Außerdem werden eventuelle bit-Fehler korrigiert.
Zu j): Kontinuierliche Pegelübergänge werden
durch eine Interpolation der Wiedergabeseitigen
Auflösungsbereiche (vgl. Abtastung) vorgenommen,
mittels vorausberechneter bit-Bereichsunterteilung
realisiert wird.
Zu k): Das in einzelne Spektralbereiche oder
Bandpässe digital gegliederte Fernsprechsignal
wird zu aufnahmeseitig korrelierenden, digitalen,
aussteuerbaren, bandbegrenzten Rauschgeneratoren
und/oder (Sinus-) Tongeneratoren geführt.
Das Bandpaß-Rauschsignal wird via rechner
gestützter, randomisierter Pseudo-bit-
Zufallsfolgen erzeugt, was statistisch zeitlich
hoch verdichtetes Rauschen liefert. Hierbei
werden bereits die für die nachfolgende
Sprachsignal-Resynthese wesentlichen Frequenz/
Tonlagen der 21 Bandpässe, berücksichtigt.
D.h., daß bei einer eventuellen Überprüfung
von einzelnen Bandpässen (Voraussetzung ist eine
Digital-Analog-Wandlung), ein zeitabhängig in
seiner Lautstärke schwankendes Signal auftritt.
Zu l): Zur Erzeugung des für eine analoge
Sprachsignal-Wiedergabe relevanten Gesamtspektrums
werden die 21 Bandpaß-Codes (zeitlich variablen
Datenflüsse) miteinander rechnergestützt
entsprechend verknüpft. Dies entspricht einer
digitalen Resynthese eines in digitaler
Code-Form bestehenden, mit dem Ausgangssignal
von Punkt a) annähernd übereinstimmenden,
Fernsprechsignales.
Zu m): Eine zugehörige, die digitale
Signalverarbeitung abschließende Digital-
Analog-Wandlung wird in größer-gleich 4 bit-
Auflösung realisiert, was von der Qualität
der in k) erstellten digitalen Spektren
abhängig ist. Es finden Delta- oder Puls-Code-
Modulation Anwendung.
Zu n): Zur Herstellung des aufnahmeseitigen
Dynamikzustandes kann eine Expansion des
Pegelvariablen (synthetischen) Sprachsignales
statt finden, was jedoch hinsichtlich allgemeiner
Sprachverständlichkeitskriterien nicht
notwendig ist. Dabei wird die Analogsignal-Dynamik
von 24 dB auf ca. 40 dB erweitert.
Diktiergeräte verfügen, im Vergleich zu Anruf
beantwortern, grundsätzlich über ein ähnliches
funktionelles Prinzip, weshalb die im
Beispiel A) erwähnten Grundlagen der Punkte a)
bis n) übernommen werden. Der Aufnahme- und
Wiedergabe-Übertragungsbereich liegt z. B. zwischen
200 Hz und 8 kHz. Es ergeben sich hieraus 33
1/2-Terzbandpässe und mit einer 4 bit-Abtastung
eine Datenrate von 13 200 bit′s oder 1,65 kbytes
pro Sekunde. Unter Verwendung eines 700 kbyte-
Speicherplatzes errechnet sich eine Aufnahme
bzw. Sprachsignal-Abspeicherzeit von 7 Minuten
und 4 Sekunden.
Im weiteren erhalten software-unterstützte sowie
vom Benutzer eines solchen Diktiergerätes
angewählbare Bereiche des gestellten
Bedienungskomforts eine Basisfunktion:
Aufnahme, Wiedergabe, Pause, Stop, markieren
von beliebigen Textstellen bei der Aufnahme
oder ergänzend im nachhinein, Schnellsuchlauf
(vorwärts, zurück), Schnellanlauf zu einer
markierten Textstelle, löschen/einfügen/
verbinden von unterschiedlich zeitlich
aufgenommenen (digital abgespeicherten)
Textpartien usw.
Ferner ist eine Zwitterlösung von Anrufbeantworter
und Diktiergerät dahingehend vorzuziehen,
daß mittels heute üblicher Fernabfrage bzw.
Fernbedienung, jedoch ergänzt, ein Anrufbeant
worter auch als Diktiergerät benutzt wird.
Zum Anwendungsbereich der Übertragung von
Sprachsignalen gelten u. a. die Grundlagen von A),
wie u. a. die Schritte der spektral-digitalen
Signal-/Datenverarbeitung, und B) mit dem
Übertragungsbereich von 200 Hz bis 8 kHz (4 bit-
Abtastung) wobei hierzu folgende vervollständigende
Korrekturen nötig sind: Es wird anstatt der
Signalverarbeitungsschritte einer digitalen,
zeitkontinuierlichen Datenabspeicherung
(Aufnahme) sowie -auslesung (Wiedergabe)
eine Sprachsignalübertragung vorgenommen.
Die dafür nötige Übertragungsbandbreite
beträgt nicht 8 kHz sondern 3,3 kHz, welche sich
aus der Multiplikation des reziproken Abtast-
Zeitintervalls von 10 Millisekunden
(entspricht 100 Hz) mit der Anzahl der 33 nötigen
1/2-Terzbandpässe errechnet. Demnach besteht
die Möglichkeit bisherig existente Fernsprech-
Übertragungskanäle (Bandbreite 300 Hz bis 3,4 kHz)
unter obigem erfindungsgemaßen Verfahren
klangqualitativ (Bezug: menschliche Sprache)
auf einen Hörspektralbereich von mindestens
200 Hz bis 8 kHz zu erweitern! Diesbezüglich
bleiben gehörbezogene Effekte, wie sie in Form
der Vor- und Nachverdeckung auftreten,
welche zusätzliche Einsparungen des
systemtheoretischen Datenaufwandes erbringen,
unberücksichtigt.
Angesichts von Signalverarbeitungsschritten
zur Reduzierung von informationsunbehafteten
Daten (z. B. im Moment von Sprechpausen, siehe A))
für eine zeitabhängige Dateneinsparung im digital
codierten Signalfluß und deren zur Codierung
relevanten, rechnergestützten Datenmanipulationen
(z. B. Zeitaufwand der Software bzw. Verknüpfungs
routinen), sind, hinsichtlich einer Tele
kommunikation, Zeitveränderungen zwischen Bild und
Ton zu erwarten. Ein entsprechend aufnahmeseits
(vor der Übertragung) erstellter u. a. Zeit-Code
bildet die Grundlage für eine wiedergabeseitige
Synchronisation von Hör- sowie Sehereignis.
Die Übertragung des zeitabhängig veränderlichen,
den Spektralgehalt der menschlichen Stimme/Sprache
beschreibenden Codes geschieht mittels üblicher
Modulationsverfahren (Amplituden-, Frequenz-,
Phasen-, Puls-Code-Modulation, etc.).
Unter Ausnutzung einer minimalen, hinsichtlich
der Sprachverständlichkeit noch erlaubten,
Übertragungsbandbreite, spezieller Modulations
verfahren, optimierter Verfahrensschritte,
gemäß der Punkte A) bis C) (u. a. die frequenz
abhängige Bandbreitenwahl), sowie Sprechtechnik,
ist beispielsweise eine terrestrische und/oder
körperschall- und/oder unterwasser-behaftete
(Einsatz bei Unter-See-Booten bei der Marine)
Sprachkommunikation im Infraschallbereich
erzielbar. In diesem Zusammenhang wird erstens
die Tatsache ausgenützt, daß eine angehobene
untere Fernsprech-Übertragungsgrenzfrequenz,
von 300 Hz auf 700 Hz angehoben, zu einer
Verschlechterung der allgemeinen Sprach
verständlichkeit um 20%, bezogen auf 100%
Sprachverständlichkeit bei 300 Hz, führt.
Die obere Grenzfrequenz verbleibt vorerst bei
3,4 kHz. Zweitens wird durch eine Kombination
von unterschiedlichen Modulationsverfahren,
wie sie aus Abschnitt C) zu entnehmen sind, ein
MultiplexDatenvermittlungs/Übertragungsbetrieb
möglich. Ausgangspunkt hierbei ist das in einem
Rhythmus von 10 Millisekunden oder mit einer
Frequenz von 100 Hz (oder einer Datenrate von
100 bit′s pro Sekunde) wechselnde Signal,
je Bandpaß, welches nunmehr alle 40 Millisekunden
oder mit 25 Hz (oder 25 bit′s pro Sekunde)
eine neue Spektralbereichsinformation übertragen
soll. Aus der reduzierten Übertragungsbandbreite
von 700 Hz bis 3,4 kHz ergeben sich 14 parallel
zu verarbeitende 1/2-Terzbänder. Anhand heute
bekannter Verfahren, z. B. Phase-Shitt-Keying
oder Quadratur-Amplituden-Modulation (QAM),
welche mittels 4, 8, 16 usw. verschiedenen
Phasenlagen von Amplituden arbeiten, ist eine,
den Spektralbereich der Sprache darstellende (bei
einer zugrunde gelegten Übertragungsbandbreite
von 25 Hz), parallele Übertragung der 14 getrennten
digitalen Datenflüsse geschaffen (siehe QAM mit
16 Phasenlagen). Die zwei ungenutzten Phasenlagen
sind frei verfügbar zur Synchronisierung (siehe C))
oder Übertragung eines Fehlerkorrektur-/Redundanz-/
Zeit-Codes. Drittens ist eine Datenflußreduktion
unter Ausnutzung gehörbezogener Parameter (siehe
Punkte A) bis C)) erzielbar. Viertens wird mittels
einer Ausbildung von Personen, welche Texte
erstellen und sprechen, eine verbesserte Sprach
verständlichkeit erreicht (Stichwort: Logotome).
Insbesondere für den Anwendungsfall A) ist eine
Präsenzbereichsanhebung um 2 dB vorzunehmen,
welche speziell von Flüsterlauten abweichende
Sprachsignale besser verständlich macht.
Dies wird durch eine Spektrumsergänzung im Baß- und
Höhenbereich optimiert: Hierbei findet eine
vorrausberechnete Aussteuerung von zusätzlich
erstellten, digitalen, wiedergabeseitigen Bandpaß
bereichen statt (siehe Beispiel A), Punkt i) ff.),
womit, frequenzabhängig betrachtet, das Sprach
signalspektrum "künstlich" zu tiefen und hohen
Frequenzen hin, mit jeweils zwei terzbandpaß
begrenzten Rauschsignalpartien ergänzt
wird. Solche vom zeitlichen Verhalten des
ursprünglichen Sprachsignalspektrums abhängigen
Rauschsignalpartien beinhalten eine zur oberen
sowie unteren Übertragungsbereichs-Grenzfrequenz
hin ausgelegten variablen Flankenabfall des
"künstlichen" Spektrums. Beispielsweise wird
ein scharfer kurzzeitiger Zischlaut eines
ausgesprochenen "s" mit einer geringfügigeren
Abfallflanke des neu sowie "künstlich"
geschaffenen Höhenspektrums versehen als bei
einem ausgesprochenen "f" (hier u. a. keine
"s"-typische, markante 8 kHz-Resonanz).
Hingegen im Baßbereich wird eine weniger
aufwändige, rechnergestützte Signalunterscheidungs
routine benötigt, um den tieffrequenten
Spektralbereich zu ergänzen. Im wesentlichen
wird hierbei eine Pegelreduzierung des
zeitvarianten Signals um ca. 3 dB pro Terz gewählt.
Schließlich ist eine beliebige Verschlüsselung des
digitalen das Sprachsignal enthaltenden Codes,
unabhängig vom Anwendungsfall A) bis D) gegeben.
Diese Verschlüsselung ist z. B. vor der Signal-
Übertragung via festgelegter, programmgesteuerter
Verrechnungs- und/oder Verknüpfungs-Prozeduren
von bit′s im Datenfluß (auch unter Nutzung des
Faktors Zeit), je digitalen Bandpaß, aufgebaut.
Die Revision der Verschlüsselung wird
wiedergabeseits mittels Verwendung umkehrender
oder invertierender Prozeduren aufgehoben.
Im folgenden wird, basierend auf den technischen
Grundlagen, insbesondere der vorherigen Beispiele
A) und B), eine Darstellung der seriell und
parallel für die Erfindung wesentlichen
abzuarbeitenden Signalverarbeitungsschritte
vorgenommen. Die nun beschriebenen, überwiegenden
Datenmanipulationen sind zudem bezüglich des
Fernsprechsignal-Übertragungsbereiches von 300 Hz
bis 3,4 kHz nicht fixiert.
In Fig. 2 wird das bandbegrenzte Eingangssignal
(Einspeisungspunkt "IN") zu einem Analog-Digital-
Wandler (1) geleitet, welcher bei digitaler
Signalübertragung wegfällt. Das eingangsseitige
Original-Fernsprechsignal liegt demzufolge,
spektrumsbezüglich, in einer mit der Abtast
frequenz fr abgetasteten, kompletten, nicht
bandpaß-unterteilten Version in Betrag und Phase
unverfälscht vor, was mit Element (2) aufgezeigt
wird: In (2) ist vereinfacht (wie auch in den
nachfolgenden Erörterungen) der eigentlich
digital vorliegende Zusammenhang, hier das
"Eingangssignalspektrum" LE als Funktion
von der "Frequenz" f in einem Übertragungsbereich
von fU = 300 Hz bis f0 = 3,4 kHz (untere, obere
Grenzfrequenz) zum Zeitpunkt t′ entnommen,
"analog" dargestellt. Das im Signalflußplan von
Fig. 2 anschließende Element (3) beschreibt die
Signalanalyse (z. B. Fast-Fourier-Transformation,
Filterung etc.) oder jene daraus zu erkennenden
Veränderung in der Darstellung des Spektrums L
als Funktion von der Frequenz f′ wobei hier das
anliegende digitale Signal zum Zeitpunkt tx,
mit seinem Spektrum in 21 Bandpässe B unterteilt
wird. Diese ergeben sich u. a. aus Fig. 1 und
Tabelle 1. Die dabei entstehende spektrale
(Pegel-) Verteilung LS als Funktion von den
Bandbässen Bm liegt zwischen der oberen und
unteren Übertragungsgrenzfrequenz f0 und f1.
Konsequenterweise wird somit gemäß Element (2)
21-mal eine Spektralbereichsstichprobe Bn um die
Bandpaß-Mittenfrequenz fn digital-meßtechnisch
(analytisch-rechnergestützt) entnommen und einem
digitalen Bandpaßpegelwert im Zeitmoment t2
zugeordnet. Da es sich hierbei um die Abtastung
und Darstellung eines Wechselsignales handelt,
muß zu einem geeigneten späteren Zeitpunkt tX+T
die nächste Analyse über das gesamte BÜ statt
finden. In der obigen Beschreibung geschieht dies
nach einer Zeitdauer/Zeitintervall "delta t" =
10 Millisekunden (hier T genannt). Die rhythmische
(digitale Werte-/Pegel-) Bandpaß-Integrationszeit
von 10 Millisekunden, welche von einem Taktgenera
tor (7) vorgegeben wird (bei einem EDV-System
sinnvollerweise via Quarz und Software mit anderen
Datenmanipulationen/-verrechnungsprozeduren
gemeinsam digitaler Ebene vorgenommen), erstreckt
sich über den jeweils relevanten Sprachsignal-
Übertragungszeitraum.
Die nun vorliegende, zeitvariante, digitale
Spektralbereichspegelverteilung wird nach ZWICKER
in einen Datensatz "spezifische Lautheit" N′′
als Funktion von der Tonheit (Frequenzgruppe) z
gemäß (4) umgerechnet. Diesbezüglich werden in
der Umrechnung zum Zeitpunkt tx u. a. Vor- und
Nachverdeckungseffekt berücksichtigt. Die
Fernsprechsignal-Übertragung findet in einem
adäquat zugeordneten Frequenzgruppenbereich von
zu bis z0 statt. Die Bandpaßbereichsstichprobe
BN in den Elementen (2) und (3) liegt adäquat bei
"N" n′′, wobei zusätzlich gehörnahe Vor- und
und Nachverdeckungsflanken die Werte der
"spezifischen Lautheiten" (Einheit: sone/Bark)
beeinflussen.
Die zum Zeitpunkt tx vom Element (4) durchge
lassenen, bearbeiteten, parallelen, zeitvarianten,
gehörbezogen-datenreduzierten, digitalen
Informationen über das Fernsprechsignal werden
daraufhin einer Code-Redundanz-Überprüfung (5)
unterzogen: Es werden zeitparallel und -seriell
die 21 Frequenzgruppen hinsichtlich ihres
spezifischen Lautheitswertes untersucht und z. B.
bei bit-Identität (vgl. von bit N′n bei tx und
tx+1 und/oder N′n und N′n+1) eine Daten-bit-
Übertragungseinsparung vorgenommen, welche jedoch
mit einem zugeordneten Synchronisations-bit für
ein gesamtes, mehrere bit′s großes, 21 Bandpässe
abdeckendes Fernsprechsignal-Code-Wort, basierend
auf den von einem Taktgenerator (7) erzeugten
Time-Code, verknüpft/verknüpfbar ist.
Sämtliche erfolgten Schritte der Datenreduktionen
werden von (7) überwacht bzw. gesteuert sowie
die aus (5) hervorgehenden, redundanzfreien
Fernsprechsignal-Daten mit dem Zeit- bzw. Time-
Synchronisations-Code über das Element (6)
verknüpft (digitales Ausgangssignal bei "ÜOUT"
oder ab hier eine Datenübertragung möglich).
Demzufolge handelt es sich bei den Verbindungen
zwischen den Elementen (3), (5) und (6) um einen
bidirektionalen Datenbus oder um eine gegenseitig
interrupt-gesteuerte Software.
Am Ausgang von (6) ist beispielsweise eine
Übertragung oder Abspeicherung des erzeugten
Fernsprech-Codes möglich. Auf anwendungsbezogene
u. a. Start/Stop-bits oder Ähnliches, wird an
dieser Stelle verzichtet.
In Fig. 3 wird nachfolgend die Resynthese
des synthetisierten Fernsprechsignals aus dem
zeitvarianten Code am digitalen Signaleingangs
punkt "D,x" erläutert, wobei ÜIN gleich ÜOUT
(oder gemäß Fig. 2, Empfang von übertragenen
Daten< ist: Zunächst werden in (8) aus dem
empfangenen/erhaltenen Code das datenreduzierte
Fernsprechsignal von dem (Time- bzw. auch)
Synchronisations-Code getrennt. Dies geschieht
in Abhängigkeit von der zugrundeliegenden
Basis-Taktfrequenz von (9), welche ab/zu einem
bestimmten Zeitpunkt tx eine Echtzeitverrechnung
der Fernsprechsignal-Daten vornimmt. D.h., daß
die redundanzbefreiten, zeitdynamischen Daten
u. a. mittels vom Time-Code abhängiger bit-
Wiederholung zu einem zeitkontinuierlichen oder
zeitstatischen Datensatz umgerechnet werden.
Solche hierzu wesentlichen logischen Verknüpfungen
sowie auch die Resynthese (bit-Datenergänzung oder
-Wiederholung) aus der Prozedur der lautheits
bezogenen Datenreduktion (Vgl. Fig. 2) erfolgen
außerdem in (8). Der in Fig. 3 als Element (10)
folgende Signalverarbeitungsschritt einer digi
talen, zeitvarianten Filterung von einem (digital
vorliegendem) Rauschen (11) fußt auf den genannten
Daten des Fernsprechsignals (von (8)) und des
Time-Codes (Synchronisierung; von/zu (9)).
Hieraus ist offensichtlich, wenn beispielsweise
einige bit′s (wegen Redundanz-Vermeidung und
Lautheitsbewertung des Sprachsignals) bei der
Erzeugung eines gefilterten Rauschsignal-Spektrums
für das Element (10) fehlen, daß eine organisierte
Datenweitergabe (Warteschleife in (8), da Datensatz
X für die Taktperiode TX schon vermittelt wurde,
aber die Zeit der Taktperiode TX noch nicht
abgelaufen ist) über einen bidirektionalen
Datenbus oder entsprechende rechnergestützte
Verknüpfungsprozeduren ablaufen muß.
Liegt also eine Fernsprechsignal-Spektrums
information (Datensatz von (8)) vollständig vor,
woraufhin für z. B. eine Periodendauer von 10
Millisekunden eine digitale Übertragungsfunktion
HT (f) mit ihren 21 Bandpässen gestellt wird,
so ist ein gehörbezogen nicht wahrnehmbares,
eigentlich "zerhacktes" und schließlich über die
Faltung von HT (f) (10) mit dem (digitalen)
Rauschsignal (11) erreichtes Fernsprechsignal-
Spektrum aufgebaut. Es eignet sich als
Basisprinzip für die Gewinnung (11) des
Rauschsignal-Spektrums eine digitale Zahlen
zufallsfolge, welche gleichsam digital zu
hochintegriertem Rauschen optimiert
wird.
Die Resynthese z. B. des Wortes "bis" benötigt
ungefähr 1 bis 2 Sekunden Aussprechzeit.
Zum Aufbau eines Echtzeit-Spektrums müssen aus
der übertragenen oder abgespeicherten Spektral
bereichsinformation für diesen Zeitraum 2100 bis
4800 Werte regeneriert werden, wobei in der
Spektralbereichsinformation weniger Werte
vorkommen! Aus dem Wort "bis" sind vereinfacht
die markante Baßpassage des ersten, die Pegel
überhöhung im Mittenfrequenzbereich des zweiten
und die Höhenresonanz (Zischlaut) des dritten
Buchstabens herauszuheben. Nachdem sämtliche
ausgesprochenen Wörter auch geflüstert verstanden
werden, ist die beschriebene Sprachsignal-
Synthese mit der Benützung eines gefilterten
Rauschsignales ebenso nicht tonal-harmonisch,
wie die wesentlichen, zum gehörbezogenen
Verständnis der Sprache beitragenden, "typisch
menschlichen, natürlichen und zeitvarianten
Spektren".
Hierunter fällt u. a. auch der beim Sprechen in der
Frequenzlage und Lautheit variable Grundton,
welcher nicht einem "klirrfaktorfreien" Sinus mit
Frequenz- sowie Intensitätsschwankungen entspricht.
Zur Verbesserung der Sprachverständlichkeit wird
deshalb eine Kombination von geeigneten Signal
bestandteilen, wie Sägezahn als Grundton und
Rauschspektren als Überwellensimulator
(siehe verstehbares "Flüstersprechen") vorgesehen.
U.a. die zeitliche Flankensteilheit oder Rampe des
Sägezahnes, welche das Spektrum beeinflußt, sind
fallabhängig.
Unabhängig, um welche datenreduzierte Sprachsignal
übertragung etc. es sich handelt, kann zur Erhöhung
der generellen Wort-/Satzverständlichkeit die
vorliegende Redundanzminimierung im Gegenzug, wenn
bei einer Übertragung freie, unbenutzte bit′s übrig
bleiben, abgeschwächt werden. D.h., daß bereits
aufnahmeseits- und/oder wiedergabeseits eine aktive
Wort-/Spracherkennungsroutine den zu bearbeitenden
und/oder datenreduzierten Sprachcode auf dessen
Inhalt überprüft. Hierbei ist z. B. eine
automatische Sprechtextkorrektur-, Sprechspektrums
aufwertungs-, Nachfrageschleife usw. inbegriffen.
Dies bezieht sich auf bestimmte, auswählbarer,
im Sprachübertragungssystem festgehaltener Bezugs
sprecher. So ist z. B. vor einer Infraschall
sprachübertragung die aktuelle Sprecherstimme
mit dem Sortiment an Vergleichsstimmen im
rechnergestützten Sprachübertragungssystem zu
vergleichen (eine Rechnerprozedur übernimmt den
Spektrumsvergleich vorzugsweise bei Logotomen).
Im vorliegenden letzten Kapitel oder Beispiel
wurde u. a. auf die Beschreibung der Sprechpausen
auswertung verzichtet. Es ist jedoch schnell
erkennbar, daß die zugehörigen Datenverarbeitungen,
gemäß Fig. 2 in (5) und gemäß Fig. 3, in (8)
vorgenommen werden können. Generell betrachtet
handelt es sich insgesamt um eine erheblich
schematisch vereinfachte Darstellung. Der direkte
Datenzugriff mit seinen bit-Verarbeitungsschritten
ist wesentlich umfangreicher, jedoch nicht
erfindungsrelevant, also reine Software-Ausführung.
Claims (70)
1. Verfahren zur datenreduzierten Sprachkommunikation,
dadurch gekennzeichnet,
daß das Sprachsignal senderseitig spektral abgetastet wird, indem es in Frequenzbänder vorgegebener Breite unterteilt wird, wobei die hieraus entstehenden Spektralbereichs information einer gehörbezogenen Datenreduktion unterworfen sind,
daß zur Simulation der sendeseitig artikulierten Sprachfolgen wiedergabeseitig ein überwiegend aus Rauschen bestehendes synthetisches Signal einer zeitabhängigen Spektrumsveränderung, als Funktion von der Spektralbereichsinformation in der vorgegebenen Breite der Frequenzbänder, unterworfen ist, wobei hier die Sprachverständlich keit durch einen sendeseitig von der Sprachsignal- Code-Redundanz zugelassenen bit-Fehlerkorrektur- Code und/oder Vergleiche mit vorab gespeicherten Referenzsprachmustern und/oder Spektralbereichs ergängungen in Echtzeit optimiert wird.
daß das Sprachsignal senderseitig spektral abgetastet wird, indem es in Frequenzbänder vorgegebener Breite unterteilt wird, wobei die hieraus entstehenden Spektralbereichs information einer gehörbezogenen Datenreduktion unterworfen sind,
daß zur Simulation der sendeseitig artikulierten Sprachfolgen wiedergabeseitig ein überwiegend aus Rauschen bestehendes synthetisches Signal einer zeitabhängigen Spektrumsveränderung, als Funktion von der Spektralbereichsinformation in der vorgegebenen Breite der Frequenzbänder, unterworfen ist, wobei hier die Sprachverständlich keit durch einen sendeseitig von der Sprachsignal- Code-Redundanz zugelassenen bit-Fehlerkorrektur- Code und/oder Vergleiche mit vorab gespeicherten Referenzsprachmustern und/oder Spektralbereichs ergängungen in Echtzeit optimiert wird.
2. Verfahren nach Anspruch 1, d.g., daß eine
Kompandierung des dynamischen Sprachsignales
in Abhängigkeit vom Auflösungsvermögen der
Analog-Digital-/Digital-Analogwandlung
vorgenommen wird.
3. Verfahren nach einem der Ansprüche 1 oder 2, d.g.,
daß die Analog-Digital-/Digital-Analog-Wandlung
vorzugsweise mittels Delta- oder Puls-Code-
Modulation oder Phase-Shift-Keying realisiert
wird.
4. Verfahren nach einem der Ansprüche 1 bis 3,
d.g., daß die Delta- oder Puls-Code-Modulation
vorzugsweise in einer 4 bit-Auflösung
stattfindet.
5. Verfahren nach einem der Ansprüche 1 bis 4, d.g.,
daß das analoge Sprachsignal mindestens durch
einen Analog-Digital-Wandler abgetastet und/oder
in einen Code gewandelt wird.
6. Verfahren nach Anspruch 5, d.g., daß bei
Verwendung zweier Analog-Digital-Wandler
einer dieser Wandler zur Steuerung des zweiten
dient.
7. Verfahren nach Anspruch 6, d.g., daß der gesteuerte
Analog-Digital-Wander vorzugsweise zeitlich
verzögert die digitalen Code-Daten zur
Weiterverarbeitung des Sprachsignals vornimmt.
8. Verfahren nach einem der Ansprüche 1 bis 7,
d.g., daß das analog-Digital-gewandelte
Sprachsignal vorzugsweise mittels digitalen
Filtern in selektive Bandpässe unterteilt wird.
9. Verfahren nach Anspruch 8, d.g., daß die
selektiven Bandpässe bezüglich ihrer Bandbreite
vorzugsweise hinsichtlich der statistischen
Verteilung des Sprachsignals und/oder gehörbezogen
ausgewählt werden.
10. Verfahren nach einem der Ansprüche 1, 8 oder 9,
d.g., daß eine Bandpaßunterteilung
vorzugsweise in Anlehnung an die
DIN 45 401, über eine Folge von Bandpaß-
Mittenfrequenz kleiner-gleich terzbreit,
oder in einem speziellen Frequenzbereich,
welcher den üblichen spracheigenen Grundton
mit seinen ersten typischen Harmonischen
abdeckt, kontinuierlich breitbandig
sowie für den darüberliegenden Frequenzbereich,
vorzugsweise in Anlehnung an die DIN 45 401,
über eine Folge von Bandpaß-Mittelfrequenzen,
kleiner-gleich terzbreit, vorgenommen wird.
11. Verfahren nach Anspruch 1 und 10, d.g.,
daß zur Erstellung einer Spektralbereichs
information die bei den digital realisierten
kleiner-gleich terzbreiten Bandpässen
entstehenden Daten hinsichtlich der analogen,
abgetasteten, zeitvarianten Pegelniveaus
des jeweiligen Spektralbereichs vorzugsweise
nach jeweils einer gehörbezogenen Periodendauer
von vorzugsweise 10 Millisekunden zu darauf
folgenden Datenverarbeitungseinheiten
weitergeleitet bzw. durchgelassen werden.
12. Verfahren nach Anspruch 11, gekennzeichnet durch
eine bit-Unterscheidungsroutine, welche innerhalb
der gehörbezogenen Periodendauer zwischen einem
in dem bit-Datenstrom enthaltenen, zeitlich
abhängigen, relativen Spitzenpegel der jeweiligen
Spektralbereiche und einem mittleren Pegel des
Sprachsignales wählt.
13. Verfahren nach einem der Ansprüche 11 oder 12,
d.g., daß ein Spitzenwert dann weitergeleitet
wird, wenn in der vorherlaufenden und/oder
nachfolgenden Periode des bit-Datenstromes kein
um vorzugsweise drei bit größerer Wert entstanden
ist.
14. Verfahren nach einem der Ansprüche 11 bis 13,
d.g., daß der Pegelmittelwert aus den in der
gehörbezogenen Periodendauer, in Abhängigkeit
von der Abtastfrequenz, entstandenen
digitalen Daten und/oder Code ermittelt sowie
gegebenenfalls um den mittleren Wert des
jeweiligen bit′s auf- oder abgerundet wird.
15. Verfahren nach einem der Ansprüche 12 bis 14,
gekennzeichnet durch eine adequate
Unterscheidungsroutine für den bit-Datenstrom
zur Differenzierung für relative Minimalpegel
und mittlere Pegel.
16. Verfahren nach einem der Ansprüche 1 bis 15, d.g.,
daß ein relevanter Tieffrequenzbereich des
Sprachsignales, welcher den üblichen
spracheigenen Grundton mit seinen typischen
Harmonischen darstellt, in der herkömmlichen,
digitalen Weise abgetastet und/oder in seinen
tonhöhenabhängigen Spektralschwankungen
analysiert wird.
17. Verfahren nach Anspruch 16, d.g., daß zur
Anhebung der Datenverarbeitungsgeschwindigkeit
ein weiterer, steuernder Analog-Digital-Wandler
den eigentlichen für die Sprachsignalverarbeitung
vorgesehenen Analog-Digital-Wandler vorzugsweise
hinsichtlich der Abtastfrequenz in Abhängigkeit
vom Grundton und/oder der Intensität der
zugehörigen Harmonischen des Sprachsignales
ausgeregelt.
18. Verfahren nach einem der Ansprüche 1 bis 17, d.g.,
daß die Weiterverarbeitung von Code-Daten
beziehungsweise der Spektralbereichsinformation des
Sprachsignals eine Reduzierung und/oder Beseitigung
der bit-Daten-Redundanz beinhaltet.
19. Verfahren nach einem der Ansprüche 1 bis 18,
d.g., daß die Beseitigung der bit-Daten-Redundanz
hinsichtlich der zeitlichen und/oder spektralen
Datenflußänderung ausgeführt wird.
20. Verfahren nach einem der Ansprüche 1 bis 19,
d.g., daß die Beseitigung der bit-Daten-Redundanz
vorzugsweise durch die Berücksichtigung einer
Gehör-Vor- und/oder Nachverdeckungs-Redundanz
vervollständigt wird.
21. Verfahren nach einem der Ansprüche 1 bis 20,
d.g., daß vorzugsweise ein bit-Fehlerkorrektur
und/oder Redundanz- und/oder Zeit-Code erstellt
wird.
22. Verfahren nach Anspruch 21, d.g., daß der
bit-Fehlerkorrektur- und/oder Redundanz
und/oder Zeitcode hinsichtlich auftretender
Sprechpausen bis zu einer maximalen Pausendauer
von vorzugsweise 500 Millisekunden im Zeitcode
zuläßt.
23. Verfahren nach einem der Ansprüche 21 oder 22,
gekennzeichnet durch eine Konkatenation von
code-bezogenen Markierungen und/oder des bit-
Fehlerkorrektur-/Redundanz-/Zeit-Code mit der
datenreduzierten Spektralbereichs-information,
welche eine Echtzeit-Sprachsignal-Resynthese
zuläßt.
24. Verfahren nach Anspruch 23, d.g., daß
vorzugsweise der Anfang und/oder das Ende von
Sprachkommunikationsabschnitten und/oder
Aufsprecheinheiten markiert werden.
25. Verfahren nach einem der Ansprüche 1 bis 24, d.g.,
daß Untersuchungen zur Optimierung sämtlicher
zusammenwirkender frequenz- und/oder zeit
und/oder bit-datenstrom-abhängiger Parameter,
bezüglich einer maximalen Sprachverständlichkeit
gegenüber einer minimal entstehenden digitalen
Datenrate, vorgenommen werden.
26. Verfahren nach einem der Ansprüche 1 bis 25,
d.g., daß der redundanz-befreite sowie
mit einem Zeit-Code ergänzte bit-Datenstrom
auf löschbare, elektrische Speicherbausteine
festgehalten beziehungsweise abgespeichert
und/oder moduliert zu einem Empfänger übertragen
wird.
27. Verfahren nach Anspruch 26, d.g., daß die
Speicherbausteine vorzugsweise auswechselbar
sind.
28. Verfahren nach Anspruch 27, d.g., daß die
auswechselbaren Speicherbausteine vorzugsweise
den Bedienungskomfort von ein- sowie
aussteckbaren EEPROM- und/oder RAM-Card′s
beinhalten.
29. Verfahren nach einem der Ansprüche 1 bis 28,
d.g., daß zur Sprachsignal-Wiedergabe die
abgespeicherten und/oder übertragenen
bit-Daten mit der sendeseitig entstandenen
Spektralbereichsinformation gelesen und
in Echtzeit, unter zur Hilfenahme des
bit-Fehlerkorrektur- und/oder Redundanz-
und/oder Zeit-Code, digital-analog-gewandelt
werden.
30. Verfahren nach Anspruch 29, gekennzeichnet durch
eine Sample-Hold-Schaltung, welche die bei
einer bit-Verlängerung um eine oder mehrere
gehörbezogene Perioden die zurückgewonnen,
jeweiligen Spektralbereichspegel zeitlich,
in Abhängigkeit vom steuernden Zeit-Code in
Echtzeit verlängert.
31. Verfahren nach einem der Ansprüche 29 oder 30,
d.g., daß bei bit-Änderung und/oder, daraus
entstehend, einer Spektralbereichspegeländerung
vorzugsweise ein annähernd kontinuierlicher
Pegelübergang mittels einer weiteren
Unterteilung der einzelnen bit-Darstellungs-
und/oder -Auflösungsbereiche geschaffen wird.
32. Verfahren nach einem der Ansprüche 1, 10, 29
bis 31, d.g., daß ein synthetisches Wiedergabe-
Sprachsignalsprektrum, welches aus den sendeseitig
erstellten Daten der Spektralbereichsinformation
gewonnen wird, via pegelsteuerbarem,
bandbegrenztem Rauschen im gesamten
wiederzugebenden Sprachsignal-Frequenzbereich
und/oder,
auf den Sprachtieffrequenzbereich bezogen, via Grundton-Signalen mit der Frequenz der jeweiligen Bandpässe beziehungsweise des Spektralbereiches
und/oder via tonhöhenabhängig pegelsteuerbaren, für die Sprache typisch-darstellenden, harmonischen Grundton-Signalen in den Frequenzbereichen, und/oder,
breitbandig betrachtet, direkt digital-analog gewandelten Grundton-Signalen sowie pegel steuerbarem, bandbegrenztem Rauschen additiv zusammengesetzt wird.
auf den Sprachtieffrequenzbereich bezogen, via Grundton-Signalen mit der Frequenz der jeweiligen Bandpässe beziehungsweise des Spektralbereiches
und/oder via tonhöhenabhängig pegelsteuerbaren, für die Sprache typisch-darstellenden, harmonischen Grundton-Signalen in den Frequenzbereichen, und/oder,
breitbandig betrachtet, direkt digital-analog gewandelten Grundton-Signalen sowie pegel steuerbarem, bandbegrenztem Rauschen additiv zusammengesetzt wird.
33. Verfahren nach einem der Ansprüche 1, 29 bis 32,
d.g., daß mittels der zeitlich veränderlichen
Digital-Analog-Wandlung der Echtzeit-bit-Daten
aus der sendeseitigen Spektralbereichsinformation
des jeweiligen Bandpasses beziehungsweise
Spektralbereiches der Pegel des bandbegrenzten
Rauschens und/oder Grundton-Signalen, je Bandpaß,
in seiner Intensität gesteuert und/oder bestimmt
wird.
34. Verfahren nach einem der Ansprüche 29 bis 33,
d.g., daß die Ergebnisse einer gehörbezogenen
Untersuchung festlegen, welche Art von
bandbegrenztem Rauschen und/oder
welche Art von bandbegrenztem Rauschen mit
welchen Grundton-Signalen wiedergabeseits
zur Realisierung des zeitlich veränderlichen
Sprachspektrums beitragen.
35. Verfahren nach einem der Ansprüche 32 bis 34,
d.g., daß das bandbegrenzte Rauschen vorzugsweise
mittels randomisierter und/oder, hinsichtlich
der statistischen Verteilung von Signalanteilen
im Spektrum, hochintegrierter, digitaler
Datenverknüpfung realisiert wird.
36. Verfahren nach einem der Ansprüche 32 bis 35,
d.g., daß die Grundtonsignale aus variabel
gestaltbar obertonbehafteten Basissignalen,
vorzugsweise dreieck-, sägezahn- oder sinusförmig,
bestehen.
37. Verfahren nach einem der Ansprüche 1 bis 21, 23 bis
35, d.g., daß bei einer Sprachsignalübertragung
das Element Speicherbaustein in der Signal
verarbeitungskette vorzugsweise durch eine
Übertragungsstrecke ersetzt wird.
38. Verfahren nach einem der Ansprüche 1 bis 37, d.g.,
daß sämtliche Analog-Digital- und/oder Digital-
Analog-Wandler und/oder die Weiterverarbeitung
des bit-Datenstromes rechnergestützt vorgenommen
werden.
39. Verfahren nach einem der Ansprüche 1 bis 38,
d.g., daß zur Anhebung der wiedergabeseitigen
Sprachverständlichkeit eine Entzerrung des
Spektrums, in Form einer bandpaßabhängigen,
digitalen Pegelkorrektur, vorgenommen wird.
40. Verfahren nach Anspruch 39, d.g., daß, neben der
Entzerrung, zur Anhebung der Klangqualität
vorzugsweise eine Spektrumsergänzung im Baß-
und/oder Höhenbereich vorgenommen wird.
41. Verfahren nach Anspruch 40, d.g., daß die
Spektrumsergänzung mindestens einen zusätzlichen,
neuen, vorausberechneten, digitalen Bandpaßpegel
enthält.
42. Verfahren nach einem der Ansprüche 40 und 41,
d.g., daß die spektrumsergänzenden, digitalen
Bandpaßpegel hinsichtlich einer zu tiefen
und/oder hohen Frequenzen hin flanken-variabel
abfallenden Übertragungsfunktion des
Sprachsignales ausgewählt wird.
43. Verfahren nach einem der Ansprüche 1 bis 42, d.g.,
daß die in Bandpässe unterteilte digitale
Abtastung des Sprachsignal-Spektrums sowie die
nachfolgende Resynthese der digitalen Daten wieder
zum Sprachsignal vorzugsweise nicht, je Bandpaß,
zeitparallel in einer gehörbezogenen Periodendauer
stattfindet, sondern alternierend gestuft,
von Bandpaß zu Bandpaß variierend.
44. Verfahren nach einem der Ansprüche 1 bis 43,
d.g., daß die Bearbeitungsvorgänge des
Sprachsignales, in Anhängigkeit vom
Anwendungsbereich, vorzugsweise Diktiergerät,
Anrufbeantworter sowie sende- und empfangsseitig
steuerbare Telekommunikation, eine
rechnergestützte Bedienungsergänzung erhalten.
45. Verfahren nach Anspruch 44, gekennzeichnet
durch eine Kopiermöglichkeit der Daten.
46. Verfahren nach einem der Ansprüche 44 und 45,
d.g., daß bezüglich der Anwendungsbereiche
wesentliche Funktionen solcher Geräte
berücksichtigt werden, welche vorzugsweise
eine einseitige Benutzung bezüglich des
Anwendungsgebietes ausschließen.
47. Verfahren nach einem der Ansprüche 44 bis 46,
d.g., daß vorzugsweise ein Daten-Vorwärts- und
Rückwärtslauf, gemäß eines Tonbandbetriebes,
ermöglicht wird.
48. Verfahren nach einem der Ansprüche 44 bis 47,
d.g., daß vorzugsweise das Löschen von Wörtern
ermöglicht wird.
49. Verfahren nach einem der Ansprüche 44 bis 48,
d.g., daß vorzugsweise das Einfügen von
Sprachpassagen in bereits aufgenommene,
gesprochene Texte ermöglicht wird.
50. Verfahren nach einem der Ansprüche 44 bis 49,
d.g., daß vorzugsweise eine Markierung von
ausgewählten, aufzusuchenden und/oder
zu verändernden Textstellen ermöglicht wird.
51. Verfahren nach einem der Ansprüche 1 bis 50,
d.g., daß mehrere Speicherplätze zur Verfügung
gestellt werden, welche zur Wiedergabe von
informativen Texten, neben den üblicherweise
danach folgenden Aufsprechtexten, dienen.
52. Verfahren nach einem der Ansprüche 1 bis 51,
d.g., daß vorzugsweise mindestens ein separater
Speicherbereich zur Verfügung gestellt wird,
welcher die Aufnahme von harmonischen
Signalen, phasenlage- und/oder amplituden
zusammengehörig, datenraten-reduziert, erlaubt.
53. Verfahren nach einem der Ansprüche 1 bis 52,
d.g., daß bei bestimmten angewählten und/oder
ausgelösten Betriebszuständen vorprogrammierte
Speicherbereiche und/oder Funktionen angewählt
werden.
54. Verfahren nach einem der Ansprüche 1 bis 53,
d.g., daß zur Erhöhung der wiedergabeseitigen
Sprachverständlichkeit ein wort- und/oder
satzbezogener Spektrumsvergleich mit Referenz
sprachmustern vorgenommen wird.
55. Verfahren nach Anspruch 54, d.g. daß die
Referenzsprachmuster, vorzugsweise Logotome
und/oder überwiegend in der Praxis im Gebrauch
stehende Wörter und/oder Satzpartien von
Sprachsystembenützern abgespeichert werden.
56. Verfahren nach einem der Ansprüche 54 und 55,
d.g., daß die Referenzsprachmuster vorzugsweise
bei einer bilateralen Sprachsignalübertragung
sende- und empfangsseits existent und/oder
synchron übermittelt anwählbar sind.
57. Verfahren nach einem der Ansprüche 54 bis 56,
d.g., daß die Referenzsprachmuster zur Nutzung
als solches gegenseitig übertragen werden.
58. Verfahren nach einem der Ansprüche 54 bis 57,
d. g., daß die Referenzsprachmuster zur Spektrums
ergänzung und/oder zur Korrektur der bei der
Übertragung auftretenden bit-Fehler und/oder
zu einem steuerbaren Sprachsignalübertragungs
stop bei Sprachunverständnis des
empfangsseitigen Kommunikationspartners
Verwendung finden.
59. Verfahren nach einem der Ansprüche 54 bis 58,
d.g., daß der steuerbare Sprachsignalübertragungs
stop bilateral von den Systembenützern und/oder
vom System bei Übertragungsproblemen ausgelöst und
beendet wird.
60. Verfahren nach einem der Ansprüche 54 bis 59,
d.g., daß der steuerbare Sprachsignalübertragungs
stop zur Zwischenspeicherung von
Sprachsignaldaten vor sowie nach der
unverstandenen Wort- und/oder Textpartie führt.
61. Verfahren nach einem der Ansprüche 54 bis 60,
d.g., daß, nach empfangsseitiger Beendigung des
Sprachsignalübertragungsstops, sendeseits
für den Fortgang der Kommunikation ein Delay,
entsprechend den zwischengespeicherten, anwählbar
markierten, unverstandenen Daten, in Echtzeit in
Kraft tritt.
62. Verfahren nach einem der Ansprüche 54 bis 61,
d. g., das der Sprachsignalübertragungs
stop mit weiteren bilateral
anwählbaren und/oder vom System ausgelösten
Benutzerinformationssignalen, vorzugsweise
Start, wiederholen, Pause, ergänzt wird.
63. Verfahren nach einem der Ansprüche 54 bis 62,
d.g., daß die kommunizierenden Sprachsystembenützer
wahlweise eine Dauersprachsignal-Übertragungs
prüfung und/oder einen -vergleich des
empfangenen, sendeseits gesprochenen Echtzeit
textes mit Referenzsprachmustern zuschaltet,
welche eine eventuell auftretende Partie des
Echtzeittextes permanent analysiert und/oder
korrigiert und/oder einen Sprachsignal
übertragungsstop aus löst.
64. Verfahren nach einem der Ansprüche 54 bis 63,
d.g., daß bei ausgeschalteter Dauersprachsignal-
Übertragungsprüfung bei partiell aufgetretenem
Sprachunverständnis sowie aktiviertem
Sprachsignalübertragungsstop dem Benützer,
neben der sendeseitigen Wiederholungsaufforderung,
eine nachträgliche Sprachsystembearbeitung mittels
Referenzsprachmuster-Vergleich zum Echtzeittext
gestellt wird.
65. Verfahren nach einem der Ansprüche 54 bis 64,
d.g., daß zur weiteren Datenreduktion, Erhöhung der
Sprachsignalverständlichkeit und zur Störgeräusch
minderung ein Vergleich von Referenzsprachmustern
mit dem in Echtzeit gesprochenen Text jene
unwesentlichen, nicht sprachinhaltsbezogenen,
relevanten Echtzeit-Sprach-Spektralanteile
minimiert werden.
66. Verfahren nach einem der Ansprüche 1 bis 65,
d.g., daß zur Verschlüsselung des zeitvariablen
Sprachspektrums eine rechnergestützte Aufbereitung
und/oder Verknüpfung von bit-Daten vorgenommen
wird.
67. Verfahren nach Anspruch 66, vorzugsweise
gekennzeichnet durch eine randomisierte
Pseudo-Zufallsfolge bei den zur Verschlüsselung
des Sprachspektrums vorgesehenen Daten
verarbeitungsprozeduren.
68. Verfahren nach einem der Ansprüche 1 bis 67,
gekennzeichnet durch bei der Codierung sowie
Decodierung des analogen Sprachsignales
sich gegenseitig eliminierende und/oder
aufhebende Ver- und Entschlüsselungsprozeduren.
69. Verfahren nach einem der Ansprüche 1 bis 68, d.g.,
daß zur übertragungsbandbreiten-minimierten
Infraschall- und/oder Infrakörperschall-
Sprachübertragung vorzugsweise die bit-Auflösung
nochmals reduziert, die gehörbezogene Perioden
dauer mindestens auf 50 Millisekunden angehoben
und/oder eine in Echtzeit für diese sprachver
ständlichkeitsmindernde Übertragung vorgesehen
artikulierte Aussprache und/oder Sprechweise
vorgesehen wird.
70. Verfahren nach einem der Ansprüche 1 bis 69,
d.g., daß wahlweise zuschaltbar, sende- und/oder
empfangsseitig, permanent, zeitbegrenzt sich
organisierend, von allen vorkommenden Daten
aktivitäten vorzugsweise ein Up-Date gespeichert
wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19924203436 DE4203436A1 (de) | 1991-02-06 | 1992-02-06 | Datenreduzierte sprachkommunikation |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4103568 | 1991-02-06 | ||
DE19924203436 DE4203436A1 (de) | 1991-02-06 | 1992-02-06 | Datenreduzierte sprachkommunikation |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4203436A1 true DE4203436A1 (de) | 1992-08-13 |
Family
ID=25900804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19924203436 Withdrawn DE4203436A1 (de) | 1991-02-06 | 1992-02-06 | Datenreduzierte sprachkommunikation |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4203436A1 (de) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1994025958A2 (en) * | 1993-04-22 | 1994-11-10 | Frank Uldall Leonhard | Method and system for detecting and generating transient conditions in auditory signals |
DE19535612A1 (de) * | 1994-09-27 | 1996-03-28 | Dendorfer Claus | Hand-Mobiltelefon |
DE4446520A1 (de) * | 1994-12-24 | 1996-06-27 | Sel Alcatel Ag | Verfahren für ein Ausgeben einer Ansage in einer von mehreren Sprachen und Vorrichtung dafür |
DE19538852A1 (de) * | 1995-06-30 | 1997-01-02 | Deutsche Telekom Ag | Verfahren und Anordnung zur Klassifizierung von Sprachsignalen |
US5781881A (en) * | 1995-10-19 | 1998-07-14 | Deutsche Telekom Ag | Variable-subframe-length speech-coding classes derived from wavelet-transform parameters |
DE19827134A1 (de) * | 1998-05-06 | 1999-11-11 | Volkswagen Ag | Verfahren und Einrichtung zum Betrieb von sprachunterstützten Systemen in Kraftfahrzeugen |
US7010129B1 (en) | 1998-05-06 | 2006-03-07 | Volkswagen Ag | Method and device for operating voice-controlled systems in motor vehicles |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3205886A1 (de) * | 1982-02-18 | 1983-09-01 | Siemens AG, 1000 Berlin und 8000 München | Verfahren fuer eine fernsprechstation mit aussendbarem meldetext |
DE3232398C1 (de) * | 1982-08-31 | 1983-12-15 | Siemens AG, 1000 Berlin und 8000 München | Telefonanrufbeantwortersystem |
EP0166202A2 (de) * | 1984-06-23 | 1986-01-02 | GRUNDIG E.M.V. Elektro-Mechanische Versuchsanstalt Max Grundig holländ. Stiftung & Co. KG. | Verfahren zur Fernsteuerung eines Telefonanrufbeantworters |
DE3540301C2 (de) * | 1985-11-13 | 1987-09-10 | Telemaster Gmbh, 7701 Aach, De | |
DE3541898C2 (de) * | 1985-11-27 | 1988-01-07 | Grundig E.M.V. Elektro-Mechanische Versuchsanstalt Max Grundig Hollaend. Stiftung & Co Kg, 8510 Fuerth, De | |
DE3639753C2 (de) * | 1986-11-21 | 1988-09-15 | Institut Fuer Rundfunktechnik Gmbh, 8000 Muenchen, De | |
DE3710664C2 (de) * | 1986-04-04 | 1988-09-15 | Kokusai Denshin Denwa K.K., Tokio/Tokyo, Jp | |
US4896362A (en) * | 1987-04-27 | 1990-01-23 | U.S. Philips Corporation | System for subband coding of a digital audio signal |
DE3214249C1 (de) * | 1982-04-17 | 1990-10-04 | Neumann Elektronik GmbH, 4330 Mülheim | Elektronischer Textgeber zur Abgabe und/oder Aufnahme von Texten ueber eine Fernsprechleitung |
-
1992
- 1992-02-06 DE DE19924203436 patent/DE4203436A1/de not_active Withdrawn
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3205886A1 (de) * | 1982-02-18 | 1983-09-01 | Siemens AG, 1000 Berlin und 8000 München | Verfahren fuer eine fernsprechstation mit aussendbarem meldetext |
DE3214249C1 (de) * | 1982-04-17 | 1990-10-04 | Neumann Elektronik GmbH, 4330 Mülheim | Elektronischer Textgeber zur Abgabe und/oder Aufnahme von Texten ueber eine Fernsprechleitung |
DE3232398C1 (de) * | 1982-08-31 | 1983-12-15 | Siemens AG, 1000 Berlin und 8000 München | Telefonanrufbeantwortersystem |
EP0166202A2 (de) * | 1984-06-23 | 1986-01-02 | GRUNDIG E.M.V. Elektro-Mechanische Versuchsanstalt Max Grundig holländ. Stiftung & Co. KG. | Verfahren zur Fernsteuerung eines Telefonanrufbeantworters |
DE3540301C2 (de) * | 1985-11-13 | 1987-09-10 | Telemaster Gmbh, 7701 Aach, De | |
DE3541898C2 (de) * | 1985-11-27 | 1988-01-07 | Grundig E.M.V. Elektro-Mechanische Versuchsanstalt Max Grundig Hollaend. Stiftung & Co Kg, 8510 Fuerth, De | |
DE3710664C2 (de) * | 1986-04-04 | 1988-09-15 | Kokusai Denshin Denwa K.K., Tokio/Tokyo, Jp | |
DE3639753C2 (de) * | 1986-11-21 | 1988-09-15 | Institut Fuer Rundfunktechnik Gmbh, 8000 Muenchen, De | |
US4896362A (en) * | 1987-04-27 | 1990-01-23 | U.S. Philips Corporation | System for subband coding of a digital audio signal |
Non-Patent Citations (1)
Title |
---|
DE-Z: Funkschau, 4/1990, S.63-67 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1994025958A2 (en) * | 1993-04-22 | 1994-11-10 | Frank Uldall Leonhard | Method and system for detecting and generating transient conditions in auditory signals |
WO1994025958A3 (en) * | 1993-04-22 | 1995-02-02 | Frank Uldall Leonhard | Method and system for detecting and generating transient conditions in auditory signals |
US5884260A (en) * | 1993-04-22 | 1999-03-16 | Leonhard; Frank Uldall | Method and system for detecting and generating transient conditions in auditory signals |
DE19535612A1 (de) * | 1994-09-27 | 1996-03-28 | Dendorfer Claus | Hand-Mobiltelefon |
DE4446520A1 (de) * | 1994-12-24 | 1996-06-27 | Sel Alcatel Ag | Verfahren für ein Ausgeben einer Ansage in einer von mehreren Sprachen und Vorrichtung dafür |
DE19538852A1 (de) * | 1995-06-30 | 1997-01-02 | Deutsche Telekom Ag | Verfahren und Anordnung zur Klassifizierung von Sprachsignalen |
US5781881A (en) * | 1995-10-19 | 1998-07-14 | Deutsche Telekom Ag | Variable-subframe-length speech-coding classes derived from wavelet-transform parameters |
DE19827134A1 (de) * | 1998-05-06 | 1999-11-11 | Volkswagen Ag | Verfahren und Einrichtung zum Betrieb von sprachunterstützten Systemen in Kraftfahrzeugen |
US7010129B1 (en) | 1998-05-06 | 2006-03-07 | Volkswagen Ag | Method and device for operating voice-controlled systems in motor vehicles |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69524512T2 (de) | Verfahren zur Aufnahme und Wiedergabe digitaler Audiosignale und Apparat dafür | |
EP0290581B1 (de) | Verfahren zum übertragen digitalisierter tonsignale | |
DE4227826C2 (de) | Digitales Verarbeitungsgerät für akustische Signale | |
DE69430872T2 (de) | System und verfahren zur sprachkompression | |
DE69014422T2 (de) | Digitales Übertragungssystem, Sender und Empfänger zur Verwendung im Übertragungssystem und Aufzeichnungsträger, der aus dem Sender in Form einer Aufzeichnungseinrichtung erhalten wird. | |
DE69816221T2 (de) | Sprachschnellheitsveränderungsverfahren und vorrichtung | |
DE69533500T2 (de) | Verfahren und vorrichtung zum kodieren und dekodieren von nachrichten | |
DE3534064A1 (de) | Empfangsgeraet | |
EP0205200A1 (de) | Verfahren zur Übertragung von Audio-Information und Zusatzinformation in digitaler Form | |
DE4225434A1 (de) | Vorrichtung zur aufzeichnung und wiedergabe von komprimierten digitalen daten auf bzw. von einem aufzeichnungstraeger und dabei anwendbares verfahren zur bitentfernung | |
DE9006717U1 (de) | Anrufbeantworter für die digitale Aufzeichnung und Wiedergabe von Sprachsignalen | |
DE69822085T2 (de) | Änderung der Sprachabspielgeschwindigkeit mittels Wavelet-Kodierung | |
DE68926423T2 (de) | Aufzeichnungs- und Wiedergabegerät für PCM-Tonsignale | |
DE4203436A1 (de) | Datenreduzierte sprachkommunikation | |
DE4211945C1 (de) | ||
DE69233622T2 (de) | Vorrichtung zur Erzeugung von Ansagen | |
DE4343366C2 (de) | Verfahren und Schaltungsanordnung zur Vergrößerung der Bandbreite von schmalbandigen Sprachsignalen | |
DE69714640T2 (de) | Signalquantisierer für die Sprachkodierung | |
EP0027233B1 (de) | Verfahren zur Codierung von Analogsignalen | |
DE2854601A1 (de) | Ton-synthesizer und verfahren zur ton-aufbereitung | |
EP0095178B1 (de) | Verfahren zum Protokollieren der in einer elektroakustischen Diskussionsanlage Übertragenen Sprechbeiträge | |
DE2051589A1 (de) | Anordnung zur Synthese eines Signals | |
DE2238136C2 (de) | Gesteuerter Signalprozessor für die Verarbeitung von elektrischen Signalen | |
DE4222150C2 (de) | Verfahren zur Übertragung und/oder Speicherung digitaler Audiosignale nach dem ISO-MPEG-Audio-Standard mit erweiterten Abtastfrequenzen und Bitraten | |
DE69820903T2 (de) | Sprach-kodierungs-verfahren und endgeräte zum implementieren besagten verfahrens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OR8 | Request for search as to paragraph 43 lit. 1 sentence 1 patent law | ||
8122 | Nonbinding interest in granting licenses declared | ||
8105 | Search report available | ||
8139 | Disposal/non-payment of the annual fee |