DE3936693C2 - Vorrichtung zum Erzeugen digitaler Audiosignale - Google Patents

Vorrichtung zum Erzeugen digitaler Audiosignale

Info

Publication number
DE3936693C2
DE3936693C2 DE3936693A DE3936693A DE3936693C2 DE 3936693 C2 DE3936693 C2 DE 3936693C2 DE 3936693 A DE3936693 A DE 3936693A DE 3936693 A DE3936693 A DE 3936693A DE 3936693 C2 DE3936693 C2 DE 3936693C2
Authority
DE
Germany
Prior art keywords
signal
signal processing
digital audio
data
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE3936693A
Other languages
English (en)
Other versions
DE3936693A1 (de
Inventor
Ken Kutaragi
Makoto Furuhashi
Toshiya Ishibashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP63278721A external-priority patent/JPH02125297A/ja
Priority claimed from JP63284246A external-priority patent/JP2754613B2/ja
Priority claimed from JP63289831A external-priority patent/JPH02135564A/ja
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Publication of DE3936693A1 publication Critical patent/DE3936693A1/de
Application granted granted Critical
Publication of DE3936693C2 publication Critical patent/DE3936693C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/195Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response, playback speed
    • G10H2210/201Vibrato, i.e. rapid, repetitive and smooth variation of amplitude, pitch or timbre within a note or chord
    • G10H2210/205Amplitude vibrato, i.e. repetitive smooth loudness variation without pitch change or rapid repetition of the same note, bisbigliando, amplitude tremolo, tremulants
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/281Reverberation or echo
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/471General musical sound synthesis principles, i.e. sound category-independent synthesis methods
    • G10H2250/475FM synthesis, i.e. altering the timbre of simple waveforms by frequency modulating them with frequencies also in the audio range, resulting in different-sounding tones exhibiting more complex waveforms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

Die Erfindung betrifft eine Vorrichtung zum Erzeugen digita­ ler Audiosignale. Eine solche Vorrichtung kann z. B. in elektronischen Musikinstrumenten oder als Toneffektgenerator in Unterhaltungseinrichtungen verwendet werden.
Als Tonquelle für derartige Anwendungen ist die folgende be­ kannt. Z. B. ein Rechtecksignal wird mehreren Frequenztei­ lern mit jeweils unterschiedlichem Frequenzteilungsverhält­ nis und unterschiedlichen Tastverhältnissen zugeführt. Quelltonsignale (sogenannte Stimmen) von den verschiedenen Frequenzteilern werden in geeignetem Pegel synthesisiert. In diesem Fall kann die ursprüngliche Signalform auch dreieckig oder sinusförmig oder von anderer Form sein.
Bei manchen Musikinstrumenten wie z. B. Klavier oder Trommel wird die gesamte Tonerzeugungsperiode in vier Intervalle un­ terteilt, nämlich eine Anschlagperiode, eine Verzögerungs­ periode, eine Aufrechterhaltungsperiode und eine Abfallpe­ riode. Die Amplitude (der Pegel) für das Signal in jedem Intervall stellt eine besondere geänderte Bedingung dar. Dementsprechend wird eine sogenannte ADSR (Attack = Anschlag, Decay = Abklingen, Sustain = Aufrechterhalten, Release = Freigeben) Steuerung durchgeführt, damit sich die Signalpegel für alle Stimmen entsprechend ändern.
Im Stand der Technik ist auch eine Tonquelle für Musikin­ strumente, nämlich eine sogenannte FM-Tonquelle bekannt, bei der ein Sinussignal durch ein anderes Sinussignal geringer Frequenz frequenzenmoduliert wird. Bei dieser FM-Tonquelle wird ein zeitabhängiger Modulationsfaktor benutzt. Verschie­ dene Arten von Tonsignalen (im folgenden Tonsignaleinrich­ tungen für Audiosignale) können durch weniger Tonquellen er­ zeugt werden. Die Toneffekttonquelle kann eine Rauschkompo­ nente sein (d. h. mit einer weißen Rauschkomponente und der­ gleichen).
Um mit der vorgenannten sogenannten elektronischen Tonquelle tatsächliche Töne für verschiedene Musikinstrumente erzeugen zu können, ist eine sehr komplexe Signalverarbeitung erfor­ derlich, wodurch die Schaltung für die Vorrichtung zum Er­ zeugen von Audiosignalen groß wird.
Um das ebengenannte Problem zu lösen, wurde kürzlich eine sogenannte Abtasttonquelle vorgeschlagen, durch die tatsäch­ liche Töne verschiedener Musikinstrumente digital aufge­ zeichnet und in einen Speicher (ROM) eingeschrieben werden. Für ein vorgegebenes Musikinstrument wird ein jeweiliges Signal aus diesem Speicher gelesen.
Bei dieser Abtasttonquelle wird das digitale Audiosignal zum Sparen von Speicherkapazität datenkomprimiert und erst dann abgespeichert. Ausgelesene komprimierte Signale werden ex­ pandiert und in die ursprünglichen digitalen Tonsignale rückgewandelt. In diesem Fall wird nur das Signal für einen Ton vorgegebener Lautstärke (Teilung) in den Speicher für jedes Musikinstrument eingeschrieben. Das aus dem Speicher ausgelesene Signal wird in der Teilung konvergiert, um ein fundamentales Frequenzsignal eines Tones gewünschter Laut­ stärke zu erzeugen.
Darüber hinaus wird eine Signalform, wie sie im Anfangssta­ dium der Tonerzeugung vorliegt und wie sie für jedes Musik­ instrument eigentümlich ist, direkt in den Speicher einge­ schrieben und später wieder aus diesem ausgelesen. Diese Signalform kann als Formante bezeichnet werden. Die Formante bedeutet z. B. angewandt auf einen Klavierton, einen Betäti­ gungston, wie er erzeugt wird, wenn der Klavierspieler eine Taste betätigt, damit ein Hammer auf eine Saite schlägt. In diesem Fall wird ein Fundamentalzyklus einer sich in der Form wiederholenden Welle in den Speicher eingeschrieben und dann wiederholt aus diesem ausgelesen.
Beim Wiedergeben wird, wie dies durch Fig. 1 veranschaulicht wird, auf eine Formante a kurzer Zeitspanne hin eine Funda­ mentalfrequenzsignalkomponente b erhalten, die aus wieder­ holten Wellenzügen p zusammengesetzt ist. Dadurch wird der Ton für ein gewünschtes Musikinstrument erzeugt. Der natür­ liche Ton eines Musikinstruments, z. B. eines Klaviers, kann dadurch erzeugt werden, daß der Pegel des Signalzuges p nach einer vorgegebenen Regel zeitlich allmählich erniedrigt wird.
Wenn bei den oben erwähnten Musikinstrumenten ein Nachhall­ ton oder dergleichen zum wiedergegebenen Musikinstrumentton hinzugefügt wird, wird es möglich, Töne unterschiedlicher Toneindrücke zu erzeugen. Insbesondere wenn eine Vorrichtung zum Erzeugen digitaler Audiosignale als Toneffekterzeuger in Unterhaltungseinrichtungen verwendet wird, ist es häufig er­ forderlich, einen Nachhallton zum wiedergegebenen Ton hin­ zuzufügen, um den räumlichen Klangeindruck natürlicher zu gestalten.
Wenn der Nachhallton dem digitalen Audiosignal hinzugefügt wird, wird dieses in einem Speicher, z. B. einem RAM zwi­ schengespeichert und dadurch verzögert, wodurch der Nach­ halleffekt erzielt wird. Dies erfordert einen Speicher gro­ ßer Speicherkapazität zum Speichern der digitalen Audiosig­ nale, was zu einer kompliziert aufgebauten Vorrichtung führt.
Darüber hinaus besteht bei der vorgeschlagenen Vorrichtung mit Nachhalleffekt das Problem, daß dann, wenn die Steuer­ daten von einer CPU noch nicht definiert sind, da die Span­ nungsversorgung gerade eben erst eingeschaltet wurde, ein Speicherbereich für Verzögerungsdaten im Tondatenspeicherbe­ reich des Speichers eingerichtet wird, was dazu führt, daß die Vorrichtung fehlerhaft arbeitet.
Wenn die FM-Funktion ausgeführt wird, um verschiedene Töne mit der Abtasttonquelle zu gewinnen, ist eine Signalquelle für Frequenzmodulation erforderlich, was zu kompliziertem Schaltungsaufbau führt.
Wenn Amplitudenmodulation ausgeführt wird, um die Funktion der Vorrichtung zu verbessern, besteht ein ähnliches Problem.
Darüber hinaus ist es erforderlich, daß der Speicher zum Zwischenspeichern der Quelltondaten und des Steuerprogramms, das zum Verarbeiten der Quelltondaten erforderlich ist, eine relativ große Speicherkapazität aufweisen muß, was unvermeidlich zu einem komplizierten Schaltungsaufbau führt.
Aus der DE 33 18 667 C1 ist ein elektronisches Tasteninstrument bekannt, das zur Erzeugung einer jeweiligen Stimme ein jeweiliges Untersystem mit einem Speicher aufweist. Zum Datenaustausch kann das die verschiedenen Untersy­ steme steuernde Hauptsystem ebenfalls auf den Speicher des Untersystems zu­ greifen. Zur Erzeugung von Toneffekten sind Nachbehandlungskanäle vorgese­ hen, auf die die Stimmen geschaltet werden können, wodurch eine vom jeweili­ gen Untersystem unabhängige Effekterzeugung in verschiedenen unabhängigen Effektbaugruppen erfolgen kann. Das Hauptsystem, die jeweiligen Untersysteme und die Effektbaugruppen sind zum Datenaustausch über zwei Systembusse miteinander verbunden.
Der Erfindung liegt die Aufgabe zugrunde, eine Vorrichtung der eingangs ge­ nannten Art anzugeben, die bei einfachem Aufbau weitgehende Tonmanipulation zuläßt.
Die Aufgabe ist durch die Lehre des Patentanspruchs 1 gelöst. Weitere vorteil­ hafte Ausgestaltungen der erfindungsgemäßen Vorrichtung sind in den Unteran­ sprüchen definiert.
Die Lehre von Anspruch 1 ermöglicht es, Halltöne zu vielen Stimmen hinzufügen zu können, ohne daß ein besonderer Speicher erforderlich ist.
Vorteilhafterweise wird ein besonderes effektives Nutzen eines einzigen Spei­ chers ermöglicht. Dabei ist es sogar möglich, einen Speicher mit sehr hoher Zu­ griffszeit, also einen sehr billigen Speicher, zu verwenden.
Die Erfindung wird im folgenden anhand eines durch Figuren veranschaulichten Ausführungsbeispiels näher erläutert. Es zeigen:
Fig. 1 ein schematisches Diagramm zum Erläutern, wie der zeitliche Tonverlauf von einem Musikinstrument wiedergegeben wird;
Fig. 2A, 2B und 3 Blockdiagramme zum Veranschaulichen der Funktion eines Haupt­ teils einer Vorrichtung zum Erzeugen digitaler Audiosignale;
Fig. 4 ein schematisches Blockdiagramm zum Erläutern der Gesamtfunktion einer Vorrichtung zum Erzeugen di­ gitaler Audiosignale;
Fig. 5 ein schematisches Diagramm zum Erläutern des In­ halts eines RAM;
Fig. 6A-6C Spektraldiagramme mit Frequenzen zum Erläu­ tern der Funktion einer Vorrichtung zum Erzeugen digitaler Audiosignale;
Fig. 7 ein Blockdiagramm zum Erläutern der Funktion eines Berechnungsbereichs, der dazu dient, einen Nach­ hallton zu einem digitalen Audiosignal zu addieren;
Fig. 8 ein Blockdiagramm zum Erläutern der Funktion eines Hauptteils eines Berechnungsbereichs zum Erzeugen von Frequenzmodulation;
Fig. 9A-9C schematische Darstellungen von Signalzügen zum Erläutern der Funktion der Anordnung gemäß Fig. 8;
Fig. 10 ein Blockdiagramm zum Erläutern der Funktion einer Synchronisierschaltung;
Fig. 11A-11D zeitkorrelierte Pulsdiagramme zum Erläutern der Funktion der Synchronisierschaltung gemäß Fig. 10; und
Fig. 12A-12G zeitkorrelierte Pulsdiagramme zum Erläutern, wie im Zeitmultiplex auf einen RAM zugegriffen wird.
Anhand der Fig. 2-5, zunächst Fig. 4, wird nun die Gesamt­ anordnung eines Ausführungsbeispiels der Erfindung näher er­ läutert.
Die Anordnung gemäß Fig. 4 weist ein Tondaten-ROM auf, das z. B. als ROM-Cartridgeeinheit ausgebildet ist und außerhalb des Gerätes gemäß Fig. 4 angeordnet ist. In diesem Tondaten- ROM 1 sind Tondaten von z. B. ursprünglich 16 Bit, die aus den Tönen verschiedener Musikinstrumente abgeleitet und digital aufgezeichnet sind, wie oben beschrieben. Sie werden mit verkürzter Bitlänge, z. B. mit 4 Bits (d. h. BRR-co­ diert) in einem Block gespeichert. Beim Ausführungsbeispiel sind Musikinstrumenttöne, wie z. B. diejenigen eines Kla­ viers, getrennt in der Form von Nichtintervallkomponenten, genannt Formantkomponenten, im Anfangsstadium der Tonerzeu­ gung und als Intervallkomponente aufgezeichnet, wobei letz­ tere ein fundamentales Frequenzsignal für einen Tonzyklus besonderer Lautstärke darstellen.
Der in Fig. 4 mit dem Bezugszeichen 10 bezeichnete Block stellt eine Signalverarbeitungseinrichtung dar, die als elektronisches Musikinstrument wirkt. Diese digitale Signal­ verarbeitungseinrichtung 10 beinhaltet einen Signalverarbei­ tungsteil 11 und einen Register-RAM 12. Von den im Tondaten- ROM 1 gespeicherten Tondaten für verschiedene Arten von Ton­ quellen werden gewünschte Tondaten über den Signalverarbei­ tungsbereich 11 an einen externen RAM 14 unter Steuerung durch eine CPU 13 ausgegeben. Der externe RAM 14 weist eine Speicherkapazität von z. B. 64 kByte auf und speichert, zu­ sätzlich zu den Tondaten, das Programm für die CPU 13 und Verzögerungsdaten, die zum Hinzufügen von Halbtönen in einem Zeitmultiplexverfahren benutzt werden. Ähnlich kann das Register-RAM 12, das z. B. verschiedene Steuerdaten steuert, sowohl durch den Signalverarbeitungsbereich 11 wie auch durch die CPU 13 im Zeitmultiplex angesprochen werden.
Die aus dem externen RAM 14 gelesenen Tondaten werden durch BRR-Decodieren in die ursprünglichen Tondaten rückgewandelt, welcher Decodierprozeß umgekehrt zum oben genannten BRR- Codierprozeß ist. Falls erforderlich, werden die decodierten Originaltondaten verschiedenen Datenverarbeitungen unterwor­ fen, wie z. B. der oben genannten ADSR-Verarbeitung oder Pegelkonversion. Das so bearbeitete digitale Audiosignal wird einem D/A-Wandler 2 zugeführt, dessen analoges Aus­ gangssignal als Audiosignal einem Lautsprecher 3 zugeführt wird.
Die Anordnung der Hauptfunktionsgruppen einer Ausführungs­ form wird nun anhand der Fig. 2 und 3 erläutert.
Beim Ausführungsbeispiel werden acht Stimmen *A, *B, . . ., *H durch Mischen synthetisiert und als digitale Audiosignale für einen linken und einen rechten Kanal ausgegeben. Die di­ gitalen Audiosignale für die jeweiligen Stimmen und die je­ weiligen Kanäle werden im Zeitmultiplex berechnet. Zum Ver­ anschaulichen der Funktion des Ausführungsbeispiels stellen die Fig. 2 und 3 für jede Stimme und jeden Kanal jeweils gleich aufgebaute Hardware dar.
In Fig. 2 (die zum Ermöglichen der Darstellung mit großem Maßstab in einen linken Teil 2A und einen rechten Teil 2B aufgeteilt ist) sind Signalverarbeitungsbereiche 20A, 20B, . . . 20H zum Verarbeiten der Stimmen *A, *B, . . . bzw. *H vor­ handen. Jeder dieser Signalverarbeitungsbereiche wird mit gewünschten Quelltondaten versorgt, die aus einem Quellton­ datenspeicherbereich 14V auf Quellton-Wählsignale SRCa-­ SRCh ausgewählt werden, die einem Anschluß 15 des externen RAM 14 zugeführt werden. Bei diesem Ausführungsbeispiel ent­ spricht der Quelltondatenspeicherbereich 14V einem Bereich des externen RAM 14, in den die Quelltondaten und die Pro­ grammdaten für die CPU 13 eingeschrieben sind.
Wenn bei diesem Ausführungsbeispiel Musikinstrumenttöne, die im Quelltondaten-ROM 1 in der Form von Nichtintervall­ komponenten und Intervallkomponenten gespeichert sind, wie­ dergegeben werden, werden die Daten der Nichtintervallkom­ ponenten dem Signalverarbeitungsbereich 20A für die Stimme *A zugeführt, während die Intervallkomponenten den Signal­ verarbeitungsbereichen 20B-20H für die anderen Stimmen un­ ter Steuerung durch Steuerdaten zugeführt werden, was weiter unten erläutert wird.
Die dem Signalverarbeitungsbereich 20A zugeführten Quellton­ daten werden über einen Schalter S1a einem BRR-Decoder 21 zugeführt, der die Daten wie oben erläutert expandiert und sie dann über einen Puffer-RAM 22 an einen Teilungskonverter 23 gibt. Der Schalter S1a wird auf Steuerdaten KON (Taste Ein) bzw. KOF (Taste Aus) hin geöffnet bzw. geschlossen, welche Steuerdaten vom Register-RAM 12 (siehe Fig. 4) über Anschlüsse 31a und 32a geliefert werden. Der Teilungskon­ verter 23 erhält Teilungssteuerdaten P(H) und P(L) vom Regi­ ster-RAM 12 über eine Steuerschaltung 24 zum Berechnen von Parametern und dergleichen über einen Anschluß 33a. Die Steuerschaltung 24 erhält auch ein Signal, z. B. für die Stimme *H über einen Anschluß 34a und einen Schalter S2a. Dieser Schalter wird durch ein Steuersignal FMON (FM Ein) vom Register-RAM 12 über einen Anschluß 35a geschlossen.
Das Ausgangssignal vom Teilungskonverter 23 wird einem Mul­ tiplizierer 26 zugeführt, wo es mit einem von zwei Steuerda­ ten multipliziert wird. Der eine Steuerdatenwert ist ein Signal ENV (Hüllkurvensteuerung) und der andere ist ein Sig­ nal ADSR (ADSR-Steuerung), welche Signale jeweils vom Regi­ ster 12 über Anschlüsse 36a bzw. 37a, über Steuerschaltungen 27 bzw. 28 und einen Wechselschalter S3a zugeführt werden. Letzterer wird abhängig vom höchstsignifikanten Bit (MSB) des Steuersignales ADSR geschaltet.
Wenn ein Rauschsignal als Effekttonquelle verwendet wird, wird statt des Signals vom Teilungskonverter 23 das Signal von z. B. einem nicht dargestellten M-Reihenrauschgenerator an den Multiplizierer 26 gegeben.
Das Ausgangssignal vom Multiplizierer 26 wird gemeinsam einem zweiten Multiplizierer 29l und einem dritten Multi­ plizierer 29r zugeführt, die außerdem Steuerdaten LVL (Laut­ stärke links) bzw. RVL (Lautstärke rechts) vom Register-RAM 12 über Anschlüsse 38a bzw. 39a erhalten.
Ein Augenblickswert OUTX des Ausgangssignals vom Multipli­ zierer 26 wird auch dem Register-RAM 12 über einen Anschluß 41a und einem Anschluß 34b des Signalverarbeitungsbereichs 20b zugeführt. Ein Spitzenwertsignal ENVX des Ausgangssig­ nals vom Schalter S3a wird dem Register-RAM 12 über einen Anschluß 42a zugeführt. Das Ausgangssignal am Anschluß 41a des Signalverarbeitungsbereichs 20a kann auch noch einem Eingangsanschluß 36b des Signalverarbeitungsbereichs 20B zu­ geführt werden, was durch eine gestrichelte Linie in Fig. 2 angedeutet ist.
Die folgenden Tabellen 1 und 2 listen Steuerdaten des Regi­ ster-RAM 12 auf.
Die Steuerdaten gemäß Tabelle 1 werden für jede Stimme be­ reitgestellt und die Steuerdaten von Tabelle 2 werden ge­ meinsam für alle acht Stimmen geliefert. Steuerdaten unter­ halb der Adresse OD sind einem Blockdiagramm zugeordnet, wie es durch Fig. 3 veranschaulicht wird und im folgenden erläu­ tert wird. Jedes der Register der Tabellen 1 und 2 ist ein 8-Bit-Register.
Tabelle 1
Tabelle 2
In Fig. 3 liegen ein Signalverarbeitungsbereich 50L für einen linken Kanal und ein Signalverarbeitungsbereich 50R für einen rechten Kanal vor. Das Ausgangssignal vom zweiten Multiplizierer 29l des Signalverarbeitungsbereichs 20A von Fig. 2 wird direkt einem Hauptaddierer 51ml des Signalver­ arbeitungsbereichs 50L für den linken Kanal über einen An­ schluß TLa zugeführt, und wird außerdem über einen Schalter S4a wahlweise einem Unteraddierer 51el zugeführt. Das Aus­ gangssignal vom dritten Multiplizierer 29r gelangt direkt an einen Hauptaddierer 51mr im Signalverarbeitungsbereich 50R für den rechten Kanal über einen Anschluß TRa, und es wird außerdem wahlweise über einen Schalter S5a einem Unteraddie­ rer 51er zugeführt. Entsprechend gelangen die jeweiligen Ausgangssignale der Signalverarbeitungsbereiche 20B-20H für die Stimmen *B-*H an die Addierer 51ml und 51el sowie 51mr und 51er in den Signalverarbeitungsbereichen 50L bzw. 50R für den linken bzw. den rechten Kanal.
Schalter S4a, S5a, S4b, S5b, . . . S4h, S5h, die jeweils der­ selben Stimme in beiden Signalverarbeitungsbereichen 50L und 50R für die beiden Kanäle entsprechen, werden gemeinsam ge­ öffnet und geschlossen, und zwar auf Steuersignale EONa (Echo Ein), EONb . . . EONh, die vom Register-RAM 12 über An­ schlüsse 61a, 61b, . . . 61h zugeführt werden.
Wenn bei dieser Ausgestaltung die Nichtintervallkomponenten für die Stimme *A durch den Signalverarbeitungsbereich 20a verarbeitet werden, werden die Schalter S4a und S5a so ange­ steuert, daß sie offen bleiben, wodurch verhindert wird, daß ein Hallton (Echo) für Nichtintervallkomponente addiert wird.
Das Ausgangssignal vom Hauptaddierer 51ml wird einem Multi­ plizierer 52 zugeführt, den auch ein Steuersignal MVL (Haupt­ lautstärke) vom Register-RAM 12 über einen Anschluß 62 erhält. Das Ausgangssignal vom Multiplizierer 52 wird auf einen Addierer 53 gegeben.
Das Ausgangssignal vom Unteraddierer 51el gelangt über einen Addierer 54, einen Echosteuerbereich 14El des externen RAM 14 und ein Puffer-RAM 55 an ein digitales Tiefpaßfilter 56, das z. B. als FIR(Finite Impulse Response)-Filter ausgebil­ det ist. Der Echosteuerbereich 14El für den linken Kanal wird vom Register-RAM 12 über Anschlüsse 63 und 64 mit einem Steuersignal ESA (Echostartadresse) bzw. EDL (Echoverzöge­ rung) versorgt.
Bei dieser Ausführungsform sind, falls erforderlich, im ex­ ternen RAM 14 ein Echosteuerbereich 14El und 14Er für den linken bzw. den rechten Kanal ausgebildet. Wie durch Fig. 5 veranschaulicht, ändert sich die Speicherkapazität des Quelltondatenspeicherbereichs 14V des externen RAM 14 mit der verwendeten Tonquelle. Abhängig von der jeweiligen Art der Benutzung existiert ein freier Bereich 14Z, in dem keine Quelltondaten und Steuerdaten gespeichert sind. In diesem Fall werden die Echosteuerbereiche 14El und 14Er für den linken bzw. den rechten Kanal innerhalb dem freien Bereich 14Z ausgebildet. Die Startadressen für die Echosteuerberei­ che 14El und 14Er werden durch das Steuersignal ESA bestimmt, während die Anzahl von Adressen nach der Startadresse für die genannten Echosteuerbereiche durch das Steuersignal EDL bestimmt ist. Wenn die Adreßmenge ausreichend groß ist, wird die Verzögerung und damit die Nachhallzeit erhöht.
Wieder bezugnehmend auf Fig. 3 wird darauf hingewiesen, daß das Tiefpaßfilter 56 vom Register-RAM 12 über einen Anschluß 66 mit Koeffizientendaten C0-C7 versorgt wird. Das Aus­ gangssignal vom Tiefpaßfilter 56 wird über einen Multipli­ zierer 57 auf den Addierer 54 rückgeführt, und es wird auch einem Multiplizierer 58 zugeführt. Die Multiplizierer 57 und 58 erhalten ein Steuersignal EFB (Echorückkopplung) bzw. ein Signal EVL (Echolautstärke) über Anschlüsse 67 bzw. 68 vom Register-RAM 12. Das Ausgangssignal vom Multiplizierer 58 wird an den Addierer 53 gegeben, in dem es mit dem Ausgangs­ signal vom Hauptaddierer 51ml nach Verarbeitung desselben durch den Multiplizierer 52 addiert wird. Das gemischte Aus­ gangssignal wird an ein Filter 59 (Gegenüberabtasteffekte) an einen Ausgangsanschluß Lout gegeben.
Die externen RAMs 14El und 14Er von Fig. 3 bilden einen Teil des externen RAM 14 von Fig. 4 entsprechend wie das externe RAM 14V von Fig. 2, was dazu führt, daß die Signalein- und -ausgabe für jede Stimme und jeden Kanal im Zeitmultiplex erfolgt. Außerdem werden der Puffer-RAM 22 von Fig. 2 und der Puffer-RAM 55 von Fig. 3 im Zeitmultiplex betrieben, entsprechend wie oben beschrieben.
Die Funktion des Ausführungsbeispiels wird nun erläutert.
Der Quelltondatenspeicherbereich 14V speichert Quelltondaten für verschiedene Musikinstrumente, wie z. B. für Klavier, Saxophon oder Schlagzeug. Den Quelltondaten werden Ziffern zwischen 0 und 255 zugeteilt. Dabei werden die Daten für Nichtintervallkomponenten und Intervallkomponenten unter un­ terschiedlichen Ziffern gespeichert. Acht Quelltondaten, die durch die Quelltonwählsignale SRCa-SRCh ausgewählt werden, werden durch die Signalverarbeitungsbereiche 20A-20H für die jeweilige Stimme im Zeitmultiplex verarbeitet.
Beim Ausführungsbeispiel wird eine Abtastfrequenz fs von 44,1 kHz verwendet, und das berechnende Bearbeiten erfolgt für 128 Zyklen für acht Stimmen und zwei Kanäle innerhalb einem Abtastzyklus (1/fs). Ein Rechenzyklus beträgt im Bei­ spielsfall 170 Nanosekunden.
Anders als bei der üblichen Funktion werden beim Ausfüh­ rungsbeispiel die Schalter S1a-S1h, die den Tonstart (Taste Ein) und den Tonstopp (Taste Aus) für die jeweiligen Stimmen angeben, mit Hilfe verschiedener Flaggen gesteuert. Die Steuerdaten KON (Taste Ein) und KOF (Taste Aus) werden also jeweilig bereitgestellt. Beide Steuerdaten sind 8-Bit- Daten, und sie werden in getrennte Register eingeschrieben. Bits D0-D7 für jeden Steuerwert legen das Signal Taste Ein bzw. Taste Aus für jede der Stimmen *A-*H fest.
Daher kann der Benutzer (Musiksoftwarehersteller) eine Flag­ ge nur in derjenigen Stimme auf "1" setzen, für die er zwi­ schen Taste Ein und Taste Aus schalten möchte, so daß der Benutzer der mühseligen Arbeit entledigt ist, ein Programm zu erstellen, in dem Bits, die nicht mit jeder individuellen Musiknote geändert werden, in einem Pufferregister zwischen­ gespeichert werden.
Wenn bei der vorliegenden Ausführungsform die Quelltondaten, aufteilt in Nichtintervallkomponenten und Intervallkomponen­ ten, wiedergeben werden, werden die Nichtintervallkomponen­ tendaten aus dem RAM 14V ausgelesen, und der Schalter S1a des Signalverarbeitungsbereichs 20A für die Stimme *A wird so eingestellt, daß die Nichtintervallkomponente a in der Stimme *A verarbeitet wird, wie durch Fig. 6A veranschau­ licht. Wenn die Daten für die Nichtintervallkomponente a ganz aus dem RAM 14V ausgelesen sind, werden die Daten für einen Zyklus für die folgende Intervallkomponente wiederholt ausgelesen und jeweils einer der Schalter S1b-S1h für einen der freien Signalverarbeitungsbereiche 20B-20H für die Stimmen *B-*H wird so eingestellt, daß die Intervall­ komponenten für jede der Stimmen *B-*H verarbeitet werden. Es sei angenommen, daß der Signalverarbeitungsbereich 20B für die Stimme *B frei ist. In diesem Fall wird die auf die Nichtintervallkomponente a folgende Intervallkomponente b durch den Signalverarbeitungsbereich 20B verarbeitet, wie in Fig. 6B veranschaulicht. In diesem Fall wird die Intervall­ komponente b in Daten mit vorgegebener Teilung durch den Teilungskonverter 23 umgewandelt.
Wenn Töne unterschiedlicher Lautstärken vom selben Musikin­ strument als überlappter Ton wiedergegeben werden, der aus der Nichtintervallkomponente a und der Intervallkomponente b gebildet ist, wird, wie in Fig. 6A dargestellt, eine Nicht­ intervallkomponente a', die der Nichtintervallkomponente A ähnlich ist, aus dem RAM 14V gelesen, und sie wird durch den Signalverarbeitungsbereich 20A für die Stimme *A verarbei­ tet. In diesem Fall wird die Intervallkomponente b durch den Signalverarbeitungsbereich 20B für die Stimme *B verarbeitet und eine Intervallkomponente b', die auf die Nichtintervall­ komponente a' folgt, wird durch einen Signalverarbeitungs­ bereich für eine andere freie Stimme verarbeitet, z. B. durch den Signalverarbeitungsbereich 20C für die Stimme *C. Die Intervallkomponente b' ist in Fig. 6C veranschaulicht. Sie wird durch den Teilungskonverter 23 in eine Intervall­ komponente umgewandelt, die sich von der Intervallkomponen­ te b unterscheidet. Jeweilige Töne werden dann durch die Hauptaddierer 51ml und 51mr oder die Unteraddierer 51el und 51er der Signalverarbeitungsbereiche 50L und 50R für den linken und den rechten Kanal verarbeitet, und sie werden als Doppelton ausgegeben.
Beim Ausführungsbeispiel werden acht Stimmen *A-*H im Zeitmultiplex verarbeitet, so daß der Teilungskonverter 23 eine Interpolation, d. h. ein übergeordnetes Abtasten, auf der Basis von Eingangsdaten für vorhergehende und folgende vier Abtastungen ausführt, wodurch die Teilungskonvertierung mit derselben Abtastfrequenz fs erfolgt, wie sie für die Eingangsdaten eingesetzt wird. Die gewünschte Teilung wird durch die Steuersignale P(H) und P(L) vorgegeben.
Wenn das untere signifikante Bit des Steuersignales P(L) "0" ist, ist es möglich zu vermeiden, daß die Interpolations­ daten irregulär ausgewählt und entfernt werden. Dadurch ist es möglich, einen wiedergegebenen Ton hoher Qualität zu er­ zielen, der frei von sehr kleinen Pegelschwingungen ist.
Wenn der Schalter S2a durch das Kontrollsignal FMON ge­ schlossen wird, wie er über den Anschluß 35a zugeführt wird, werden Audiosignaldaten für z. B. die Stimme *H, die dem An­ schluß 34a zugeführt werden, zu den Pegelsteuerdaten P(H) und P(L) addiert, wodurch das Audiosignal für die Stimme *A frequenzmoduliert (FM) wird.
Wenn also das Modulationssignal sehr niedrige Frequenz von z. B. einigen Hz aufweist, wird das modulierte Signalvibrato wiedergegeben. Wenn das Modulationssignal eine hörbare oder niedere Frequenz aufweist, ändert sich die Tonqualität des wiedergegebenen Tons des modulierten Signals. Eine FM-Ton­ quelle wird also durch das Abtastsystem gebildet, ohne daß eine Tonquelle ausschließlich für die Modulation bereitge­ stellt werden muß. Die Steuersignal FMON sind als 8-Bit- Daten im Register eingeschrieben, entsprechend den oben ge­ nannten Signalen KON, und die Bits D0-D7 entsprechen den Stimmen *A-*H.
Im Multiplizierer 26 wird die Teilung des Ausgangssignals vom Teilungskonverter 23 zeitabhängig auf Basis der Steuersig­ nale ENV oder ADSR gesteuert. Wenn das höchstsignifikante Bit MSB des Steuersignals ADSR "1" ist, ist der Schalter S3a geschaltet, wie in Fig. 2 dargestellt, wodurch ADSR-Steue­ rung ausgeführt wird. Wenn dagegen das höchstsignifikante Bit MSB des Steuersignals ADSR "0" ist, ist der Schalter S3a in der Lage, die der in Fig. 2 dargestellten gegenüberliegt und Hüllkurvensteuerung, wie z. B. Schwundsteuerung, wird ausgeführt.
Für die Hüllkurvensteuerung können über die oberen drei Bits des Steuersignals ENV fünf verschiedene Betriebsarten ge­ wählt werden, wie Direktbestimmung, geradlinige oder poly­ gonale Schwund-Ein-Steuerung oder geradlinige oder exponen­ tielle Schwund-Aus-Steuerung. In diesem Fall wird der vor­ liegende Spitzenwert als Ausgangssignal in jeder Betriebs­ art verwendet.
Bei der ADSR-Steuerung wird der Signalpegel nur in der An­ schlagperiode geradlinig erhöht, während er in den drei an­ deren Perioden, nämlich der Abklingperiode, der Auf­ rechterhaltungsperiode und der Freigabeperiode exponentiell erniedrigt wird.
Die Dauern der Schwund-Ein-Periode und der Schwund-Aus-Pe­ riode werden für jede Betriebsart genau abhängig von Para­ meterwerten bestimmt, die durch die unteren fünf Bits des Steuersignals ENV bestimmt sind.
Ähnlich werden die Dauern der Anschlagperiode und der Auf­ rechterhaltungsperiode abhängig von Parameterwerten bestimmt, die durch die oberen und unteren vier Bits des Steuersignals ADSR(2) gegeben sind. Darüber hinaus sind der Aufrechterhal­ tungspegel und die Dauern der Abklingperiode und der Freigabeperiode durch Parameterwerte bestimmt, die durch je­ weils zwei Bits des Steuersignals ADSR(1) gegeben sind.
Um die Zahl von Berechnungen zu erniedrigen, wird beim Aus­ führungsbeispiel der Signalpegel geradlinig in der Anschlag­ periode der ADSR-Betriebsart erhöht. Wenn als ADSR-Betriebs­ art die Hüllkurvenbetriebsart eingeschaltet wird, wird dafür gesorgt, daß die Schwund-Ein-Betriebsart mit polygonaler Linie der Anschlagperiode und die Schwund-Aus-Betriebsart mit exponentieller Linie der Abklingperiode, der Auf­ rechterhaltungsperiode und der Freigabeperiode entspricht, wodurch die ADSR-Steuerung von Hand naturgetreuer ausgeführt werden kann.
Wenn das Ausgangssignal vom Multiplizierer 26 und das Ein­ gangssignal zur Hüllkurvensteuerung über die Anschlüsse 41a und 42a dem Register-RAM 12 zugeführt werden und mit jeder Abtastperiode neu eingeschrieben werden und dann eine Mehr­ zahl von Audiosignalen mit jeweils sehr unterschiedlichen Teilungen aus den Quelltondaten von z. B. demselben Musik­ instrument gebildet werden, wird es möglich, ein Audiosignal mit gewünschter Hüllkurvencharakteristik zu erhalten, die vom vorgegebenen ADSR-Muster unterschiedlich ist.
In den Signalverarbeitungsbereichen 50L und 50R für den lin­ ken und rechten Kanal (Fig. 3), werden die Schalter S4a, S5a-S4h und S5h jeweils durch das Steuersignal EON (EONa-­ EONh) von den Anschlüssen 61a-61h geschlossen, wodurch die Stimmen für einen Halleffekt ausgewählt werden. Die Steuer­ daten EON sind in 8-Bit-Register eingeschrieben, wie in der obigen Liste 2 angegeben.
Die Echoverzögerungszeiten, die vom Subaddierer 51el an eine jeweilige Stimme gegeben werden, sind so festgelegt, daß sie für den linken und den rechten Kanal in einem Bereich von z. B. 0-250 msec gleich sind, was durch das Steuersignal EDL festgelegt ist, das dem Echosteuerbereich 14El vom Anschluß 64 aus zugeführt wird. Darüber hinaus wird durch das Steuer­ signal EFB mit codierten acht Bits, wie es dem Multiplizie­ rer 57 vom Anschluß 67 zugeführt wird, festgelegt, daß das Amplitudenverhältnis für das vorhergehende und das folgende Echo phasenmäßig für den linken und den rechten Kanal je­ weils dasselbe ist.
Das Steuersignal ESA vom Anschluß 63 liefert die oberen acht Bits der Startadresse für denjenigen Bereich im externen RAM 14, der zum Steuern des Echos (des Halls) dient.
Das FIR-Filter 56 erhält die Koeffizienten C0-C7 mit co­ dierten acht Bits vom Anschluß 66. Hierdurch wird die Band­ paßcharakteristik des FIR-Filters 56 so bestimmt, daß in bezug auf den Höreindruck ein natürlicher Echoton geliefert wird.
Das so erhaltene Echosignal wird dem Multiplizierer 58 zuge­ führt, in dem des mit dem Steuersignal EVL vom Anschluß 68 multipliziert wird. Das multiplizierte Echosignal gelangt an den Addierer 53, in dem es zum Hauptaudiosignal addiert wird, das im Multiplizierer 52 mit dem Steuersignal MVL multipli­ ziert wurde. Die Steuersignale MVL und EVL sind 8-Bit-Daten ohne Codes, und sie sind unabhängig voneinander. Sie sind auch unabhängig in bezug auf den linken und den rechten Kanal.
Daher können das Hauptaudiosignal und das Echosignal unab­ hängig voneinander pegelgesteuert werden, wodurch das wie­ dergegebene Tonfeld so erzeugt wird, als würden sich die Hörer im ursprünglichen akustischen Raum befinden.
Beim elektronischen Musikinstrument gemäß dem Ausführungs­ beispiel wird die Nichtintervallkomponente als Formantkompo­ nente durch den Signalverarbeitungsbereich für die Stimme *A verarbeitet und die Intervallkomponente wird durch irgend­ einen der Signalverarbeitungsbereiche 20B-20H für die Stimmen *B-*H verarbeitet, wodurch der Ton von Musikin­ strumenten durch die Abtasttonquelle ausgezeichnet nachge­ ahmt werden kann, die die Nichtintervallkomponenten von sieben überlappenden Tönen in maximal acht Stimmen beinhal­ tet. Dementsprechend kann, verglichen zu dem Fall, wo zwei Stimmen der Nichtintervallkomponente und der Intervallkom­ ponente jedem Ton zugeordnet werden, ein komplexerer Ton unter Zuhilfenahme von weniger Stimmen wiedergegeben werden.
Wenn beim Ausführungsbeispiel das Verarbeiten zum Hinzufügen eines Halltones durch die Signalverarbeitungseinrichtungen 50L und 50R für den linken und rechten Kanal ausgeführt wird, wird das digitale Audiosignal mit Hilfe des freien Bereichs des externen RAM 14 verzögert, das dazu benutzt wird, Quell­ tondaten zu speichern. Daher wird der externe RAM 14 effek­ tiver genutzt, und ein RAM, der ausschließlich zum Verzögern von Audiosignalen verwendet wird, kann entfallen. Daher kann eine Audiosignalerzeugungseinrichtung gemäß dem Ausführungs­ beispiel mit weniger Speichern ausgebildet werden als ver­ gleichbare bekannte Einrichtungen und die Schaltung verein­ facht sich.
Es wird darauf hingewiesen, daß der Speicherplatz, der von den Verzögerungen bearbeitenden Echosteuerbereichen 14El und 14Er belegbare Speicherplatz erniedrigt wird, wenn sich der vom Quelltondatenspeicherbereich 14V beanspruchte Speicher­ platz erhöht. Dieser Nachteil kann dadurch beseitigt werden, daß berücksichtigt wird, daß die gesamte Speicherkapazität des Quelltondatenspeicherbereichs 14V und der Echosteue­ rungsbereiche 14el und 14er die gesamte Speicherkapazität des externen RAM 14 nicht übersteigen kann, wenn Musiksoft­ ware hergestellt wird, die im Quelltondaten-ROM 1 zu spei­ chern ist.
Fig. 7 zeigt als Blockschaltbild die Berechnung, die in Zu­ sammenhang mit dem Addierprozeß für das Echo ausgeführt wird. Blöcke, die anhand der Fig. 3 und 4 bereits erläutert wur­ den, tragen jeweils dasselbe Bezugszeichen wie dort und wer­ den hier nicht mehr näher erläutert.
Bei der Anordnung gemäß Fig. 7 wird ein Multiplizierer 71 mit Ausgangssignalen vom Puffer-RAM 55 und einem Y0-Register 85 über eine Busleitung 72 versorgt. Dieser Multiplizierer 71 erhält auch ein Ausgangssignal vom Register-RAM 12 über eine Busleitung 73. Das Ausgangssignal vom Multiplizierer 71 wird einem C-Register 82 zugeführt, dessen Ausgangssignal über einen Überlaufbegrenzer 83 und einen Pegelschieber 84 ebenfalls an das Y0-Register 85 sowie ein Y1-Register 86 und ein Y2-Register 87 gelangt. Das Ausgangssignal vom Y0-Re­ gister 85 wird, wie bereits angegeben, über die Busleitung 72 an den Multiplizierer 71 gegeben. Das Ausgangssignal vom Y1-Register 86 wird nach außen geführt. Das Ausgangssignal vom Y2-Register 87 wird dem Puffer-RAM 55 und über ein Z4- Register 88 dem Register-RAM 12 und dem externen RAM 14 zu­ geführt.
Die Funktion des Hauptbereichs von Fig. 7 wird nun erläu­ tert.
Wenn die Tonlautstärke für den linken Kanal, z. B. für die Stimme *A, eingestellt wird, werden ein Lautstärkekoeffi­ zient LVL für den linken Kanal vom Register-RAM 12 und Sig­ naldaten xe vom Y0-Register 85 miteinander im Multiplizierer 71 multipliziert. Wenn dagegen die Tonlautstärke für den rechten Kanal eingestellt wird, werden ein Lautstärkekoeffi­ zient RVL für den rechten Kanal vom Register-RAM 12 und ein Signaldatenwert xe vom Y0-Register 85 durch den Multipli­ zierer 71 miteinander multipliziert.
Die Berechnungsfolgen werden durch die folgenden Gleichungen (3) und (4) beschrieben:
xe.LVL + xLi-1 → xLI (3)
xe.RVL + xRi-1 → xRI (4)
Für die anderen Stimmen *B-*H werden die Lautstärken für den linken und den rechten Kanal ähnlich wie vorstehend be­ schrieben eingestellt.
Beim Ausführungsbeispiel wird darüber hinaus die folgende Berechnung angestellt, um den Hallton zum digitalen Audio­ signal zu addieren.
Wenn die Hauptlautstärken für den linken und den rechten Kanal eingestellt werden, werden durch den Multiplizierer 71 der Hauptlautstärkekoeffizient MVL vom Register-RAM 12 und die Signaldatenwerte xL und xR, wie durch die Gleichung (3) bzw. (4) gegeben, wie sie vom Y0-Register 85 geliefert wer­ den, miteinander multipliziert. Das Multiplikationsergebnis wird im C-Register 82 zwischengespeichert.
Wenn andererseits die Untertonlautstärken für den linken und den rechten Kanal eingestellt werden, werden die Audiodaten xLE und xRE für die selektiv mit Echos zu addierenden Stim­ men durch das Tiefpaßfilter verarbeitet, wie vorstehend be­ schrieben. Dann werden die so bearbeiteten Audiodaten yLF und yRF jeweils mit einem Echorückkopplungskoeffizienten EFB multipliziert, die ausgewählten Audiodaten xLE bzw. xRE wer­ den addiert, und dann werden die Ergebnisse an die externen Speicher 14El bzw. 14Er geliefert.
Die so durch das Tiefpaßfilter verarbeiteten Audiodaten yLF und yRF werden mit dem Echoton-Lautstärkekoeffizienten EVL multipliziert und dann zum vorstehend genannten Hauptton­ lautstärkedatenwert addiert. Die Berechnungen werden durch die folgenden Gleichungen (5) bis (8) beschrieben:
yLF.EFB + xLE → yLE (5)
xL.MVL → C; yLF.EVL + C → z7L (6)
yRF.EFB + xRE → yRE (7)
xR.MVL → C; yRF.EVL + C → z7R (8)
Die mit Hilfe der Gleichungen (6) und (8) berechneten Ergeb­ nisse werden über das Y2-Register 87 an den Puffer-RAM 55 geliefert und in diesem gespeichert.
Statt auf Abtasttondaten, wie für das Ausführungsbeispiel beschrieben, können die Berechnungen auch auf beliebige an­ dere Tondaten angewandt werden.
Wie vorstehend im Detail beschrieben, wird ein Echosignal­ verzögerungsbereich im freien Bereich desjenigen Speichers eingerichtet, in dem die Quelltondaten gespeichert werden. Dabei wird dafür gesorgt, daß das Einrichten eines Verzöge­ rungsbereichs verhindert werden kann, um zu verhindern, daß der Verzögerungsbereich versehentlich in einem Speicherbe­ reich eingerichtet wird, in dem Tondaten gespeichert sind. Dadurch wird ein nur für Echosignale erforderlicher Speicher überflüssig, und es läßt sich eine Einrichtung zum Erzeugen digitaler Audiosignale schaffen, die in stabiler und positi­ ver Weise den Halleffekt beeinflußt.
Das schematische Blockdiagramm von Fig. 8 zeigt eine Anord­ nung zum Berechnen von Frequenzmodulationsdaten (FM). Funk­ tionsblöcke, die bereits anhand von Fig. 7 beschrieben wur­ den, tragen dasselbe Bezugszeichen wie dort und werden nun nicht mehr näher erläutert.
Der Multiplizierer 71 erhält die Ausgangssignale vom Regi­ ster-RAM 12 und vom Puffer-RAM 22 über die Busleitung 72. Er erhält auch die Ausgangssignale von ROMs 74 und 75 über die Busleitung 73. Das Ausgangssignal von einem weiteren ROM 76 wird über eine Busleitung 77 einem Addierer 81 zugeführt, wo es zum Ausgangssignal vom Multiplizierer 71 addiert wird. Das Ausgangssignal gelangt an das C-Register 82. Dessen Aus­ gangssignal wiederum wird über die Busleitung 77 an den Addierer 81 rückgeführt, und es gelangt außerdem über den Überlaufbegrenzer 83 und den Pegelschieber 84 an das Y0-Register 85, das Y1-Register 86 und das Y2-Register 87. Die Aus­ gangssignale vom Y0-Register 85 und vom Y2-Register 87 wer­ den über die Busleitungen 72 und 73 an den Multiplizierer 71 rückgeführt, während das Ausgangssignal vom Y1-Register 86 nach außen geführt ist. Die Funktion des Hauptbereichs gemäß Fig. 8 wird nun erläutert.
Bei Frequenzmodulation berechnet sich diese nach der folgen­ den Gleichung (9), unter der Annahme, daß y0 der Momentan­ wert OUTX des Audiosignals der vorhergehenden Stimme, z. B. der Stimme *H ist, P der Teilungswert ist, der durch die Werte der P(H)- und P(L)-Register angegeben ist, und Pm der Teilungswert ist, wie er nach Frequenzmodulation vorliegt:
Pm = P(1 + y0) (9)
Wenn weiterhin angenommen wird, daß SL der Teilungswert (Spaltwert) von RAM 22 ist, ergibt sich der Teilungswert (Spaltwert) für die nächste Abtastperiode durch die folgende Gleichung (10):
SLm = SL + Pm (10)
Das Ergebnis SLm dient zum Erzeugen von Adreßwerten für den RAM 22 und den ROM 76 zum Berechnen von Teilungskonversion, wodurch die Eingangsdaten für den Teilungskonverter 23 und die Teilungskonverterfilterkoffizienten erzeugt werden.
In einem praktischen Ausführungsbeispiel sind die Berech­ nungssequenzen die folgenden.
Was das Signal FMON anbetrifft, wird ein Koeffizient 1/2 vom ROM 74 erzeugt und dieser Koeffizient wird mit dem Momentan­ wert y0 des Signals für die Stimme *H vom Y0-Register 85 durch den Multiplizierer 71 multipliziert. Das Multiplikationsergebnis und die Konstante 1/2 vom ROM 76 werden durch den Addierer 81 zueinander addiert, wodurch ein Zwischenwert erzeugt wird, der durch die folgende Gleichung (11) gegeben ist, und der über das C-Register 82 in das Y2-Register 87 eingeschrieben wird:
y0 × 1/2 + 1/2 → (1 + y0)/2 (11)
Dieser Zwischenwert und der Teilungswert P vom Register-RAM 12 werden durch den Multiplizierer 71 miteinander multipli­ ziert. Das Multiplikationsergebnis und die Konstante 0 vom ROM 76 werden durch den Addierer 81 zueinander addiert, und der durch die folgende Gleichung (12) gegebene berechnete Wert wird in das C-Register 82 eingeschrieben:
P × (1 + y0)/2 + 0 → Pm/2 (12)
Weiterhin werden der Spaltwert SL vom RAM 22 und der Koeffi­ zient 1/2 vom ROM 74 durch den Multiplizierer 71 miteinander multipliziert. Das Multiplikationsergebnis und der durch Gleichung (12) berechnete Wert, wie er über die Busleitung 77 vom C-Register 82 geliefert wird, werden im Addierer 81 addiert, und das Ergebnis gelangt über das C-Register 82 und den Überlaufbegrenzer 83 an den Pegelschieber 84. Dieser Pegelschieber 84 erzeugt ein Pegelverschieben von × 2, wo­ durch ein Ausgangssignal erzeugt wird, das durch die folgen­ de Gleichung (13) beschrieben wird, das über das Y2-Register 87 an den RAM 22 gegeben wird:
(SL × 1/2 + Pm/2) × 2 → SLm (13)
Wenn der Momentanwert des Modulationssignals größer als 0 ist, wie in Fig. 9B dargestellt, wird die Momentanfrequenz erhöht, wie durch Fig. 9A veranschaulicht. Ist dagegen der Momentanwert y0 kleiner 0, wird die Momentanfrequenz ernied­ rigt, wie durch Fig. 9C veranschaulicht.
Wie oben beschrieben, wird ein Ausgangssignal von den mehre­ ren Teilungskonvertern oder Amplitudensteuerungen anderen Teilungskonvertern oder Amplitudensteuerungen als Steuersig­ nal zugeführt, um so ein frequenzmoduliertes oder amplitu­ denmoduliertes Audiosignal zu erhalten. Dadurch wird eine ausschließlich für Modulationszwecke erforderliche Signal­ quelle überflüssig, wodurch die digitale Audiosignalerzeu­ gungseinrichtung gemäß dem Ausführungsbeispiel einfachen Aufbau erhält.
Fig. 10 zeigt in Funktionsblockdarstellung ein Beispiel für eine Synchronisierschaltung, durch die die digitale Signal­ verarbeitungseinrichtung 10 und die CPU 13 Daten in den ex­ ternen RAM 14 im Zeitmultiplex einschreiben oder aus diesem auslesen können.
Beim Ausführungsbeispiel gemäß Fig. 10 sind Busleitungen der digitalen Signalverarbeitungseinrichtung 10 und der CPU 13 über Halteschaltungen 10a und 13a sowie Schalter 97, 98 und 99 mit dem externen RAM 14 verbunden. Dabei sind eine Adreß­ busleitung, eine Datenbusleitung und eine Steuerbusleitung der digitalen Signalverarbeitungseinrichtung 10 über die Halteschaltung 10a mit ersten festen Kontakten 97a, 98a bzw. 99a der Busleitungswechselschalter 97, 98 bzw. 99 verbunden. Die Adreßbusleitung, die Datenbusleitung und die Steuerbus­ leitung der CPU 13 sind über die Halteschaltung 13a mit zweiten feststehenden Kontakten 97b, 98b bzw. 99b der Wech­ selschalter 97, 98 bzw. 99 verbunden. Bewegliche Kontakte 97m, 98m und 99m dieser Schalter 97, 98 und 99 sind mit der Adreßbusleitung, der Datenbusleitung bzw. der Steuerbuslei­ tung des externen RAM 14 verbunden.
Einem ersten und einem zweiten Frequenzteiler 92 bzw. 93 wird ein Frequenzsignal von einem Oszillator 91 zugeführt, der über einen Quarzoszillator 91a verfügt. Das frequenzgeteilte Signal vom ersten Frequenzteiler 92 wird der digita­ len Signalverarbeitungseinrichtung 10 und einer Multiplex­ steuerung 94 als Taktsignal zugeführt. Die Schalter 97, 98 und 99 schalten auf ein Umschaltsignal von der Multiplex­ steuerung 94 hin um.
Ein Multiplexsignal von der Multiplexsteuerung 94 wird einem Eingang eines Komparators 94 zugeführt, der außerdem ein Maschinentaktsignal von der CPU 13 erhält. Der Komparator 95 ermittelt die Phasendifferenz zwischen dem Schaltzeitpunkt der Schalter 97-99 und dem Maschinentakt von der CPU 13 und er liefert ein Koinzidenzsignal an einen Eingang eines UND-Gliedes 96. Dem anderen Anschluß dieses UND-Gliedes 96 wird das frequenzgeteilte Signal vom zweiten Frequenzteiler 93 zugeführt. Das Ausgangssignal vom UND-Glied 96 wird auf die CPU 13 als Taktsignal geführt.
Die Funktion der Synchronisierschaltung 10 wird nun anhand der zeitkorrelierten Taktfolgen gemäß den Fig. 11A-11D er­ läutert.
Das Taktsignal gemäß Fig. 11A, das durch Frequenzteilung des Signals vom Oszillator 91 durch den ersten Frequenzteiler 92 gewonnen wurde, wird der digitalen Signalverarbeitungsein­ richtung 10 zugeführt. Das Ausgangssignal vom zweiten Fre­ quenzteiler 92 gelangt zur Multiplexsteuerung 94, die eine solche Multiplexsteuerung vornimmt, daß acht Perioden des Asugangssignals vom ersten Frequenzteiler 92 als eine Perio­ de gesetzt werden. Dementsprechend erzeugt die Multiplex­ steuerung 94 als Multiplexsignal ein solches, wie es in Fig. 11B veranschaulicht ist, das nach jeweils vier Perioden des Taktsignals für die digitale Signalverarbeitungseinrichtung 10 auf hohen bzw. tiefen Pegel wechselt.
Das Frequenzteilverhältnis des zweiten Frequenzteilers 93 ist das Vierfache des Verhältnisses vom ersten Frequenztei­ ler 92, wodurch der zweite Frequenzteiler 93 ein Signal er­ zeugt, dessen Frequenz 1/4 derjenigen des Taktsignals für die digitale Signalverarbeitungseinrichtung 10 ist. Dieses Frequenzsignal, wie es in Fig. 11C dargestellt ist, wird der CPU 13 als Taktsignal zugeführt. Der Maschinenzyklus der CPU 13 ist demgemäß ein Signal (Fig. 11D), das sich synchron mit dem Zeitmultiplexsignal ändert. Wenn der Hauptschalter der digitalen Audiosignalerzeugungseinrichtung eingeschaltet wird und der Komparator 95 feststellt, daß das Zeitmulti­ plexsignal und das Maschinenzyklussignal in der Phase inver­ tiert sind, wird das Koinzidenzermittlungssignal nicht an das UND-Glied 96 geliefert, so daß der CPU 13 kein Taktsig­ nal vom UND-Glied 96 zugeführt wird. Das Taktsignal (Fig. 11C) für die CPU 13 verliert dadurch einen Takt, was durch die gestrichelte Linie in Fig. 11C dargestellt ist. Der Ma­ schinenzyklus wird daher vorübergehend halbiert und wird da­ durch gleichphasig mit dem Multiplexsignal.
Anhand der zeitkorrelierten Taktsignale von Fig. 12A-12G wird nun erläutert, wie Daten von der digitalen Signalverar­ beitungseinrichtung 10 und der CPU 13 im Zeitmultiplex aus dem RAM 14 gelesen und in diesen eingeschrieben werden.
Beim Ausführungsbeispiel ist die Zugriffszeit für den exter­ nen RAM 14 etwa 330 Nanosekunden und die Zugriffszeit für die digitale Signalverarbeitungseinrichtung 10 ist etwa 240 Nanosekunden. Ein Maschinenzyklus der CPU 13 ist etwa 1 Mikrosekunde, von denen etwa 375 Nanosekunden als Spei­ cherzugriffszeit genutzt werden.
Es sei angenommen, daß die anhand von Fig. 10 beschriebene Synchronisierschaltung Taktsignale für die digitale Signal­ verarbeitungseinrichtung, die CPU 13 und ein Zeitmultiplexsignal erzeugt, wie sie für den Normalzustand durch die Fig. 12A, 12B bzw. 12C veranschaulicht sind. Die Speicherzu­ griffsperiode Mc der CPU 13 liegt dann in der zweiten Hälfte eines Maschinenzyklus S, wie durch Fig. 12D veranschaulicht. In der ersten Hälfte eines Maschinenzyklus S liegen dann zwei Speicherzugriffsperioden MD1 und MD2 durch die digitale Signalverarbeitungseinrichtung 10, wie in Fig. 12E gezeigt.
Da andererseits die Zugriffszeit des externen RAM 14 etwa 330 Nanosekunden beträgt, liegen drei Zugriffsperioden MD1', MD2' und MC' mit jeweils gleicher Länge in einem Maschinen­ zyklus S, was Fig. 12G zeigt.
Beim Ausführungsbeispiel fallen die Zugriffsperioden für die digitale Signalverarbeitungseinrichtung 10, die CPU 13 und den externen RAM 14 nicht zusammen, jedoch können die Ver­ schiebungen in den Zugriffsperioden mit Hilfe der Schalter 97-99 durch die Zeitmultiplexsteuerung 94 und die Halte­ funktion der Halteschaltungen 10a und 13a eingestellt wer­ den. Genauer gesagt erzeugt die Multiplexsteuerung 94 ein Schaltsignal, wie es in Fig. 12F dargestellt ist, auf Grund­ lage des Zeitmultiplexsignals von Fig. 12C, wodurch die be­ weglichen Kontakte 97m, 98m und 99m der Schalter 97, 98 bzw. 99 mit den ersten festen Kontakten 97a, 98a bzw. 99a in der ersten Zugriffsperiode MD1' und der zweiten Zugriffsperiode MD2' des externen RAM 14 verbunden werden, dagegen die ge­ nannten beweglichen Kontakte in der dritten Zugriffsperiode MC' mit den zweiten festen Kontakten 97b, 98b bzw. 99b ver­ bunden werden. Das Halteglied 10a, das mit der digitalen Signalverarbeitungseinrichtung 10 verbunden ist, ist so aus­ gebildet, daß es die über die Busleitungen zugeführten Sig­ nale während der ersten Zugriffsperiode MD1 der digitalen Signalverarbeitungseinrichtung hält, und zwar so lange, bis die erste Zugriffsperiode MD1' des externen RAM 14 beendet ist. Weiterhin hält es die über die Busleitungen während der zweiten Zugriffsperiode MD2 der digitalen Signalverarbei­ tungseinrichtung 10 zugeführten Signale so lange, bis die zweite Zugriffsperiode MD2' des externen RAM 14 beendet ist. Entsprechend ist die mit der CPU 13 verbundene Halteschal­ tung 13a so ausgebildet, daß sie über die Busleitungen wäh­ rend der Zugriffsperiode MC der CPU 13 zugeführten Signale hält, bis die dritte Zugriffsperiode MC' des externen RAM 14 beendet ist. Die Haltefunktionen der Halteglieder 10a und 13a werden z. B. durch die CPU 13 gesteuert.
Wie oben beschrieben, können die digitale Signalverarbei­ tungseinrichtung 10 und die CPU 13 im Zeitmultiplex auf den einzigen externen RAM 14 zugreifen, wodurch dieser besonders effektiv genutzt wird. Dadurch kann der externe RAM 14 zum Verarbeiten der Daten der digitalen Signalverarbeitungsein­ richtung 10 und der CPU 13 mit weniger Speicherkapazität ausgebildet sein. Darüber hinaus können die verschiedenen Zugriffsperioden der digitalen Signalverarbeitungseinrich­ tung und der CPU 13 gleichgemacht werden, wodurch ein Zu­ griff innerhalb von jeweils etwa 330 Nanosekunden erfolgen kann. Für den externen RAM 14 kann damit ein Speicher mit verhältnismäßig geringer Zugriffsgeschwindigkeit, also ein verhältnismäßig billiger Speicher verwendet werden.
Beim Ausführungsbeispiel weist die digitale Signalverarbei­ tungseinrichtung 10 eine relativ hohe Zugriffsgeschwindig­ keit und die CPU 13 eine relativ niedrige Zugriffsgeschwin­ digkeit auf. Die Zugriffsperioden können jedoch in beliebi­ ger Weise an die Zugriffsgeschwindigkeiten der verschiedenen Datenverarbeitungseinrichtungen und des Speichers angepaßt werden.
Da nur ein externer Speicher durch zwei Datenverarbeitungs­ einrichtungen genutzt wird, kann er effektiver genutzt wer­ den und Speicherkapazität kann eingespart werden.

Claims (5)

1. Vorrichtung zum Erzeugen digitaler Audiosignale, mit
  • a) einem Speicher (1) zum Speichern digitaler Audiosignale,
  • b) einer ersten Signalverarbeitungseinrichtung (13) zum Lesen der digitalen Audiosignale aus dem Speicher,
  • c) einer zweiten Signalverarbeitungseinrichtung (10) zur Tonsynthese auf­ grund der gelesenen digitalen Audiosignale,
  • d) einen Zwischenspeicher (14), der bei der Tonsynthese durch die beiden Si­ gnalverarbeitungseinrichtungen (10, 13) genutzt wird,
gekennzeichnet durch
  • a) eine Einrichtung zum Nutzen eines Verzögerungsbereichs in einem freien Bereich des Zwischenspeichers (14), um eine Verzögerungsverarbeitung auszu­ führen, wenn dem durch die Tonsynthese in der zweiten Signalverarbeitungsein­ richtung (10) bearbeiteten digitalen Audiosignal ein Nachhallton hinzugefügt wird.
2. Vorrichtung nach Anspruch 1, gekennzeichnet durch eine Einrichtung zum Verhindern, daß im Zwischenspeicher (14) der Verzögerungsbereich an Stel­ len eingerichtet wird, die nicht überschrieben werden dürfen.
3. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß
  • - die erste Signalverarbeitungseinrichtung (13) mit einem ersten Arbeits­ takt die Daten in den gemeinsamen Speicher (14) schreibt und aus diesem liest,
  • - die zweite Signalverarbeitungseinrichtung (10) mit einem zweiten Arbeits­ takt, der sich vom ersten Arbeitstakt unterscheidet, die Daten aus dem gemein­ samen Speicher (14) liest und in diesen einschreibt, und daß die Vorrichtung weiter enthält:
  • - eine Auswahleinrichtung (97-99) zum wahlweisen Verbinden einer der bei­ den Signalverarbeitungseinrichtungen (10, 13) mit dem gemeinsamen Speicher (14),
  • - eine Steuereinrichtung (94) zum Steuern der Auswahleinrichtung (97-99) in solcher Weise, daß immer nur eine der beiden Signalverarbeitungseinrichtun­ gen (10,13) auf den Speicher (14) innerhalb einer jeweiligen Zugriffszeitspanne zugreifen kann, und
  • - Halteeinrichtungen (10a, 13a) zwischen den Signalverarbeitungseinrich­ tungen (10, 13) und dem gemeinsamen Speicher (14) zum Halten von Daten einer Signalverarbeitungseinrichtung in Zeitspannen, in denen gerade die andere Signalverarbeitungseinrichtung auf den Speicher (14) zugreift.
4. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß in der zwei­ ten Signalverarbeitungseinrichtung (10) mehrere digitale Audiosignale jeweils durch einen von mehreren Teilungskonvertern (23) bearbeitet werden, wobei die Ausgangssignale von jeweils einem Teilungskonverter (23) jeweils anderen Tei­ lungskonvertern (23) als Steuersignale zugeführt werden, wodurch ein frequenz­ moduliertes digitales Audiosignal von den anderen Teilungskonvertern (23) er­ zeugt wird.
5. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß in der zwei­ ten Signalverarbeitungseinrichtung (10) mehrere digitale Audiosignale durch Amplitudensteuerungen (27, 28) bearbeitet werden, mit Einrichtungen zum Sen­ den von Ausgangssignalen einer Amplitudensteuerung (27, 28) an andere Ampli­ tudensteuerungen (27, 28) als Steuersignal, wodurch ein amplitudenmoduliertes digitales Audiosignal von einer jeweiligen anderen Amplitudensteuerung (27, 28) erzeugt wird.
DE3936693A 1988-11-04 1989-11-03 Vorrichtung zum Erzeugen digitaler Audiosignale Expired - Lifetime DE3936693C2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP63278721A JPH02125297A (ja) 1988-11-04 1988-11-04 デジタル音声信号発生装置
JP63284246A JP2754613B2 (ja) 1988-11-10 1988-11-10 デジタル音声信号発生装置
JP63289831A JPH02135564A (ja) 1988-11-16 1988-11-16 データ処理装置

Publications (2)

Publication Number Publication Date
DE3936693A1 DE3936693A1 (de) 1990-05-17
DE3936693C2 true DE3936693C2 (de) 2002-11-14

Family

ID=27336585

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3936693A Expired - Lifetime DE3936693C2 (de) 1988-11-04 1989-11-03 Vorrichtung zum Erzeugen digitaler Audiosignale

Country Status (6)

Country Link
US (1) US5111530A (de)
KR (1) KR0160493B1 (de)
DE (1) DE3936693C2 (de)
FR (1) FR2638883B1 (de)
GB (4) GB2226683B (de)
HK (2) HK121795A (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03139700A (ja) * 1989-10-25 1991-06-13 Sony Corp オーディオ信号再生装置
US6695477B1 (en) * 1989-10-25 2004-02-24 Sony Corporation Audio signal reproducing apparatus
EP0442041A3 (en) * 1990-01-18 1991-09-04 National Semiconductor Corporation Integrated digital signal processor/general purpose cpu with shared internal memory
US5255323A (en) * 1990-04-02 1993-10-19 Pioneer Electronic Corporation Digital signal processing device and audio apparatus using the same
US6005949A (en) * 1990-07-17 1999-12-21 Matsushita Electric Industrial Co., Ltd. Surround sound effect control device
US5283387A (en) * 1990-11-20 1994-02-01 Casio Computer Co., Ltd. Musical sound generator with single signal processing means
EP0545581B1 (de) * 1991-12-06 1999-04-21 National Semiconductor Corporation Integriertes Datenverarbeitungssystem mit CPU-Kern und unabhängigem parallelen, digitalen Signalprozessormodul
JPH07121182A (ja) * 1993-10-27 1995-05-12 Sony Corp 割り込み情報発生装置及び音声情報処理装置
US6047073A (en) * 1994-11-02 2000-04-04 Advanced Micro Devices, Inc. Digital wavetable audio synthesizer with delay-based effects processing
US6272465B1 (en) * 1994-11-02 2001-08-07 Legerity, Inc. Monolithic PC audio circuit
US6246774B1 (en) 1994-11-02 2001-06-12 Advanced Micro Devices, Inc. Wavetable audio synthesizer with multiple volume components and two modes of stereo positioning
JP3625880B2 (ja) * 1994-12-02 2005-03-02 株式会社ソニー・コンピュータエンタテインメント 音源装置
EP0730260B1 (de) * 1995-03-03 2001-09-19 Yamaha Corporation Musikrechner mit Klang-Emulation
US6205249B1 (en) 1998-04-02 2001-03-20 Scott A. Moskowitz Multiple transform utilization and applications for secure digital watermarking
US7664263B2 (en) 1998-03-24 2010-02-16 Moskowitz Scott A Method for combining transfer functions with predetermined key creation
US7457962B2 (en) 1996-07-02 2008-11-25 Wistaria Trading, Inc Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data
US7159116B2 (en) 1999-12-07 2007-01-02 Blue Spike, Inc. Systems, methods and devices for trusted transactions
US7346472B1 (en) * 2000-09-07 2008-03-18 Blue Spike, Inc. Method and device for monitoring and analyzing signals
US7177429B2 (en) 2000-12-07 2007-02-13 Blue Spike, Inc. System and methods for permitting open access to data objects and for securing data within the data objects
US6130624A (en) * 1997-06-10 2000-10-10 Winsor Entertainment Corporation Talking remote control
US7664264B2 (en) 1999-03-24 2010-02-16 Blue Spike, Inc. Utilizing data reduction in steganographic and cryptographic systems
US7475246B1 (en) 1999-08-04 2009-01-06 Blue Spike, Inc. Secure personal content server
US6130605A (en) * 1999-08-13 2000-10-10 Flick; Kenneth E. Vehicle security system with multi-sound pattern alarm and associated methods
US7127615B2 (en) 2000-09-20 2006-10-24 Blue Spike, Inc. Security based on subliminal and supraliminal channels for data objects
US7287275B2 (en) 2002-04-17 2007-10-23 Moskowitz Scott A Methods, systems and devices for packet watermarking and efficient provisioning of bandwidth
US20040102975A1 (en) * 2002-11-26 2004-05-27 International Business Machines Corporation Method and apparatus for masking unnatural phenomena in synthetic speech using a simulated environmental effect
JP4354268B2 (ja) * 2003-12-22 2009-10-28 株式会社河合楽器製作所 信号処理装置
CN103093746A (zh) * 2012-11-23 2013-05-08 广州市天艺电子有限公司 一种吉他效果器分享方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4389915A (en) * 1980-12-18 1983-06-28 Marmon Company Musical instrument including electronic sound reverberation
DE3318667C1 (de) * 1983-05-21 1984-10-11 WERSI-electronic GmbH & Co KG, 5401 Halsenbach Elektronisches Tastenmusikinstrument und Verfahren zu dessen Betrieb

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3699530A (en) * 1970-12-30 1972-10-17 Ibm Input/output system with dedicated channel buffering
US3866505A (en) * 1972-07-20 1975-02-18 Nippon Musical Instruments Mfg Ensemble effect imparting device using a bucket brigade device for an electric musical instrument
CA1051121A (en) * 1974-09-25 1979-03-20 Data General Corporation Overlapping access to memory modules
US4212057A (en) * 1976-04-22 1980-07-08 General Electric Company Shared memory multi-microprocessor computer system
WO1980001421A1 (en) * 1979-01-09 1980-07-10 Sullivan Computer Shared memory computer method and apparatus
US4350072A (en) * 1981-04-24 1982-09-21 Kawai Musical Instrument Mfg. Co., Ltd. Reentrant reverberation generator for an electronic musical instrument
US4586417A (en) * 1981-07-28 1986-05-06 Nippon Gakki Seizo Kabushiki Kaisha Electronic musical instruments provided with reverberation tone generating apparatus
US4731835A (en) * 1984-11-19 1988-03-15 Nippon Gakki Seizo Kabushiki Kaisha Reverberation tone generating apparatus
DE3502721A1 (de) * 1985-01-28 1986-07-31 Robert Bosch Gmbh, 7000 Stuttgart Multiprozessorsystem

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4389915A (en) * 1980-12-18 1983-06-28 Marmon Company Musical instrument including electronic sound reverberation
DE3318667C1 (de) * 1983-05-21 1984-10-11 WERSI-electronic GmbH & Co KG, 5401 Halsenbach Elektronisches Tastenmusikinstrument und Verfahren zu dessen Betrieb

Also Published As

Publication number Publication date
FR2638883B1 (fr) 1994-04-15
GB2263357B (en) 1993-10-06
GB2226683B (en) 1993-10-06
GB2263356A (en) 1993-07-21
GB2263350A (en) 1993-07-21
US5111530A (en) 1992-05-05
DE3936693A1 (de) 1990-05-17
GB9304330D0 (en) 1993-04-21
GB9304331D0 (en) 1993-04-21
GB2226683A (en) 1990-07-04
HK121795A (en) 1995-08-04
FR2638883A1 (fr) 1990-05-11
GB2263356B (en) 1993-10-06
KR0160493B1 (ko) 1999-03-20
KR900008436A (ko) 1990-06-04
GB8924630D0 (en) 1989-12-20
GB2263357A (en) 1993-07-21
GB9304329D0 (en) 1993-04-21
HK121395A (en) 1995-08-04

Similar Documents

Publication Publication Date Title
DE3936693C2 (de) Vorrichtung zum Erzeugen digitaler Audiosignale
DE3528719C2 (de)
DE2500839C3 (de) Elektronisches Musikinstrument mit Sinustabellenspeicher
DE2926090A1 (de) Tonerzeugungsverfahren
DE2711511C2 (de) Polyphones elektronisches Musikinstrument
EP0042555B1 (de) Verfahren zur digitalen Hüllkurvensteuerung eines polyphonen Musiksyntheseinstruments und Schaltungsanordnung zur Durchführung des Verfahrens
DE2937256C2 (de) Elektronisches Musikinstrument
DE2920298A1 (de) Binaere interpolatorschaltung fuer ein elektronisches musikinstrument
DE2526457C3 (de) Elektronisches Musikinstrument
DE2828919C2 (de) Schaltungsanordnung für ein polyphones elektronisches Musikinstrument
DE2524063C3 (de) Elektronisches Musikinstrument mit digitaler Musiktonerzeugung
DE2513127C2 (de) Verfahren zum künstlichen Erzeugen eines musikalischen Klangs
DE2853209C2 (de) Digitaltechnik verwendendes elektronisches Musikinstrument
DE3237404A1 (de) Elektronisches musikinstrument
DE3047801A1 (de) Elektronisches musikinstrument mit tastenfeld
DE69732797T2 (de) Verfahren und vorrichtung zur speicherung von tonfolgen in cyclischen schleifen
DE3604686C2 (de)
DE2523880C3 (de) Elektronisches Musikinstrument mit digitaler Tonerzeugung
DE2808283A1 (de) Digitales elektronisches musikinstrument
DE3226600A1 (de) Mit einem nachhalltonerzeugungsapparat ausgestattetes elektronisches musikinstrument
DE3943797B4 (de) Vorrichtung zum Verarbeiten von Quelltondaten
DE3517588C2 (de)
DE3249738C2 (de)
DE3938311C2 (de) Vorrichtung zum Erzeugen von Quelltondaten
DE3234091A1 (de) Automatische begleiteinrichtung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8128 New person/name/address of the agent

Representative=s name: PATENTANWAELTE MUELLER & HOFFMANN, 81667 MUENCHEN

8127 New person/name/address of the applicant

Owner name: SONY COMPUTER ENTERTAINMENT INC., TOKIO/TOKYO, JP

D2 Grant after examination