DE112013005807T5 - Vorrichtung und Verfahren zur Erzeugung einer Echtzeitmusikbegleitung - Google Patents

Vorrichtung und Verfahren zur Erzeugung einer Echtzeitmusikbegleitung Download PDF

Info

Publication number
DE112013005807T5
DE112013005807T5 DE112013005807.3T DE112013005807T DE112013005807T5 DE 112013005807 T5 DE112013005807 T5 DE 112013005807T5 DE 112013005807 T DE112013005807 T DE 112013005807T DE 112013005807 T5 DE112013005807 T5 DE 112013005807T5
Authority
DE
Germany
Prior art keywords
music
chord
played
pieces
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112013005807.3T
Other languages
English (en)
Inventor
Francois Pachet
Pierre Roy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE112013005807T5 publication Critical patent/DE112013005807T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • G10H1/383Chord detection and/or recognition, e.g. for correction, or automatic bass generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/056Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/391Automatic tempo adjustment, correction or control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

Eine Vorrichtung zur Erzeugung einer Echtzeitmusikbegleitung umfasst eine Musikeingangsschnittstelle, einen Musikmodenklassifizierer, der an der Musikeingangsschnittstelle empfangene Musikstücke klassifiziert in einen von unterschiedlichen Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode, einen Musikspeicher und eine Musikausgangsschnittstelle. Ein Musikauswähler wählt eines oder mehrere aufgezeichnete Musikstücke als Echtzeitmusikbegleitung für ein tatsächlich gespieltes, an der Musikeingangsschnittstelle empfangenes Musikstück aus, wobei das eine oder die mehreren ausgewählten Musikstücke ausgewählt werden in einem unterschiedlichen Musikmode zu sein als das tatsächlich gespielte Musikstück. Eine Musikausgangsschnittstelle gibt die ausgewählten Musikstücke aus.

Description

  • HINTERGRUND
  • Gebiet der Offenbarung
  • Die vorliegende Offenbarung betrifft eine Vorrichtung und ein entsprechendes Verfahren zur Erzeugung einer Echtzeitmusikbegleitung, insbesondere zum Abspielen von Mehrmodenmusik (”multi-modal music”), d. h., zum Ermöglichen des Abspielens von Musik in mehreren Moden. Ferner betrifft die vorliegende Offenbarung eine Vorrichtung und ein entsprechendes Verfahren zum Aufzeichnen von Musikstücken zur Benutzung bei der Erzeugung einer Echtzeitmusikbegleitung. Weiterhin betrifft die vorliegende Offenbarung eine Vorrichtung und ein entsprechendes Verfahren zur Erzeugung einer Echtzeitmusikbegleitung unter Benutzung einer Transformation von Akkorden.
  • Beschreibung ähnlicher Technik
  • Bekannte Vorrichtungen und Verfahren zur Erzeugung einer Echtzeitmusikbegleitung machen bspw. Gebrauch von sog. ”Schleifenpedalen” (”loop pedals”, auch ”looping pedals” genannt). Schleifenpedale sind Echtzeitmuster, die Audio wiedergeben, das zuvor von einem Musiker gespielt wurde. Solche Pedale werden routinemäßig zur Musikausübung oder draußen zum Straßenmusikmachen (”Straßenmusik”) verwendet, d. h. allgemein zur Erzeugung einer Echtzeitmusikbegleitung. Die bekannten Schleifenpedale geben jedoch immer das gleiche Material wieder, was Darbietungen monoton und langweilig sowohl für den Musiker als auch die Zuhörer machen kann, wodurch ihre Aufnahme in professionelle Konzerte verhindert wird.
  • Ferner zwingen Standard-Schleifenpedale den Musiker oft, die gesamte Schleife einmal während einer ”Fütterungsphase” zu spielen, bevor er anfängt, darüber zu improvieren, d. h. während die Schleife wiederholt wird. Dies kann wiederholend sein, wenn das Akkordraster (”chord grid”) in einer stilistisch konsistenten Art gespielt werden muss (was die meiste Zeit der Fall ist). Ferner kann dies ein Problem sein, wenn die Schleife über einer gegebenen Akkordsequenz (oder Akkordraster) gespielt wird, da der Musiker nicht anfangen kann zu improvisieren, bis das gesamte Raster gespielt wurde. Ein anderes Vorgehen ist, Schleifen voraufzuzeichnen. Dies schafft ein anderes Problem, da die Zuhörer nicht wissen werden, was voraufgezeichnet ist und was tatsächlich von dem Musiker dargeboten wird. Dies ist ein grundsätzlicher Nachteil von computer-unterstützter Musikdarbietung.
  • Die ”Hintergrund”-Beschreibung, die hier bereitgestellt wurde, ist für den Zweck da, allgemein den Kontext der Offenbarung darzustellen. Arbeiten des (der) vorliegend genannten Erfinder(s), soweit sie in dem vorliegende Hintergrundabschnitt beschrieben werden, sowie Aspekte der Beschreibung, die sich ansonsten nicht als Stand der Technik zum Anmeldetag qualifizieren, werden weder ausdrücklich noch implizit als Stand der Technik gegen die vorliegende Offenbarung zugestanden.
  • ZUSAMMENFASSUNG
  • Es ist eine Aufgabe, eine Vorrichtung und ein entsprechendes Verfahren zur Erzeugung einer verbesserten Echtzeitmusikbegleitung zu schaffen. Es ist eine weitere Aufgabe, eine Vorrichtung an ein entsprechendes Verfahren zum Aufzeichnen von Musikstücken zur Benutzung bei der Erzeugung einer Echtzeitmusikbegleitung zu schaffen. Es ist noch eine weitere Aufgabe, ein entsprechendes Computerprogramm zum Implementieren der Verfahren und ein nicht-flüchtiges computer-lesbares Aufzeichnungsmedium zu schaffen.
  • Gemäß einem Aspekt wird eine Vorrichtung zur Erzeugung einer Echtzeitmusikbegleitung geschaffen, wobei die Vorrichtung aufweist
    • – eine Musikeingangsschnittstelle, die von einem Musiker gespielte Musikstücke empfängt,
    • – einen Musikmodenklassifizierer, der an der Musikeingangsschnittstelle empfangene Musikstücke klassifiziert in eines von verschiedenen Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode,
    • – einen Musikauswähler, der eines oder mehrere aufgezeichnete Musikstücke auswählt als Echtzeitmusikbegleitung für ein tatsächlich gespieltes Musikstück, das an der Musikeingangsschnittstelle empfangen wird, wobei das eine oder die mehreren ausgewählten Musikstücke ausgewählt werden, in einem unterschiedlichen Musikmode zu sein als das tatsächlich gespielte Musikstück, und
    • – eine Musikausgangsschnittstelle, die die ausgewählten Musikstücke ausgibt.
  • Gemäß einem weiteren Aspekt wird ein entsprechendes Verfahren zur Erzeugung einer Echtzeitmusikbegleitung geschaffen, wobei das Verfahren aufweist
    • – Empfangen von von einem Musiker gespielten Musikstücken,
    • – Klassifizieren von empfangenen Musikstücken in eines von mehreren Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode,
    • – Auswählen eines oder mehrerer aufgezeichneter Musikstücke als Echtzeitmusikbegleitung für ein tatsächlich gespieltes Musikstück, wobei das eine oder die mehreren ausgewählten Musikstücke ausgewählt werden, in einem unterschiedlichen Musikmode zu sein als das tatsächlich gespielte Musikstück,
    • – Ausgeben der ausgewählten Musikstücke.
  • Gemäß einem weiteren Aspekt wird eine Vorrichtung zum Aufzeichnen von Musikstücken zur Benutzung bei der Erzeugung einer Echtzeitmusikbegleitung geschaffen, wobei die Vorrichtung aufweist
    • – eine Musikeingangsschnittstelle, die von einem Musiker gespielte Musikstücke empfängt,
    • – einen Musikmodenklassifizierer, der an der Musikeingangsschnittstelle empfangene Musikstücke klassifiziert in eines von mehreren Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode,
    • – einen Aufzeichner, der an der Musikeingangsschnittstelle empfangene Musikstücke aufzeichnet zusammen mit dem klassifizierten Musikmode.
  • Gemäß einem weiteren Aspekt wird ein entsprechendes Verfahren zum Aufzeichnen von Musikstücken zur Benutzung bei der Erzeugung einer Echtzeitmusikbegleitung geschaffen, wobei das Verfahren aufweist
    • – Empfangen von von einem Musiker gespielten Musikstücken,
    • – Klassifizieren von empfangenen Musikstücken in eines von mehreren Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode,
    • – Aufzeichnen von empfangenen Musikstücken zusammen mit dem klassifizierten Musikmode.
  • Gemäß noch einem weiteren Aspekt wird eine Vorrichtung zur Erzeugung einer Echtzeitmusikbegleitung geschaffen, wobei die Vorrichtung aufweist
    • – eine Akkordschnittstelle, die ausgestaltet ist, ein Akkordraster mit einer Vielzahl von Akkorden zu empfangen,
    • – eine Musikschnittstelle, die ausgestaltet ist, wenigstens einen Akkord eines Akkordrasters, das an der Akkordschnittstelle empfangen wurde, zu empfangen, und
    • – einen Musikgenerator, der automatisch eine Echtzeitmusikbegleitung erzeugt basierend auf dem an der Akkordschnittstelle empfangenen Akkordraster und dem wenigstens einem gespielten Akkord des Akkordrasters durch Transformieren eines oder mehrerer des wenigstens einen gespielten Akkords in die verbleibenden Akkorde des Akkordrasters.
  • Gemäß einem weiteren Aspekt wird ein entsprechendes Verfahren zur Erzeugung einer Echtzeitmusikbegleitung geschaffen, wobei das Verfahren aufweist
    • – Empfangen eines Akkordrasters mit einer Vielzahl von Akkorden,
    • – Empfangen wenigstens eines Akkordes eines Akkordrasters, das an der Akkordschnittstelle empfangen wurde, und
    • – automatisches Erzeugen einer Echtzeitmusikbegleitung basierend auf dem an der Akkordschnittstelle empfangenen Akkordraster und dem wenigstens einen gespielten Akkord des Akkordrasters durch Transformieren eines oder mehrerer des wenigstens einen gespielten Akkords in die verbleibenden Akkorde des Akkordrasters.
  • Gemäß noch weiteren Aspekten werden geschaffen ein Computerprogramm mit Programmmitteln zur Veranlassung eines Computers, die Schritte des hierin offenbarten Verfahrens auszuführen, wenn das Computerprogramm auf einem Computer ausgeführt wird, sowie eines nicht-flüchtigen computer-lesbaren Aufzeichnungsmediums, das darin ein Computerprogrammprodukt speichert, welches, wenn es durch einen Prozessor ausgeführt wird, veranlasst, dass das hierin offenbarte Verfahren ausgeführt wird.
  • Bevorzugte Ausgestaltungen sind in den abhängigen Ansprüchen definiert. Es soll verstanden werden, dass das beanspruchte Verfahren, das beanspruchte Computerprogramm und das beanspruchte computer-lesbare Aufzeichnungsmedium ähnliche und/oder identische bevorzugte Ausgestaltungen aufweisen wie die beanspruchte Vorrichtung und wie in den abhängigen Ansprüchen definiert ist.
  • Einer der Aspekte der Offenbarung ist es, eine neue Vorgehensweise anzuwenden, bspw. auf Schleifenpedale, die auf einer analytischen Multimodenwiedergabe des Musik-(Audio-)Eingangs basiert. Statt einfach voraufgezeichnetes Audio wiederzugeben, ermöglichen die vorgeschlagene Vorrichtung und das vorgeschlagene Verfahren eine Echtzeiterzeugung einer Audiobegleitung, die auf das reagiert, was von dem Musiker vorgeführt wird. Durch automatisches Kombinieren zweier oder mehrerer Musikmoden können Solomusiker Duette oder Trios mit sich selbst darbieten, ohne vorgespeicherte Musikeffekte zu erzeugen. Entsprechend werden eine überwachte Klassifizierung eingegebener Musik und, vorzugsweise, eine verknüpfende Synthese vorgeführt. Diese Vorgehensweise öffnet neue Wege für die Konzertdarbietung.
  • Ein weiterer Aspekt der Offenbarung ist es, Musikern zu ermöglichen, schnell eine Schleife zu füttern, ohne sie vollständig aufführen zu müssen. Dies wird dadurch erreicht, dass das Akkordraster bereitgestellt und ein Mechanismus implementiert werden, der schon gespielte Takte oder Akkorde darbietet unter Benutzung bspw. von Tonhöhenskalierungstechniken, d. h., eine Transformation (insbesondere eine Transposition und/oder Substitution) der Audiosignale zu machen, und/oder von Akkordsubstitutionsregeln. Die Schleife (oder allgemeiner die Echtzeitmusikbegleitung) wird also aus einem begrenzten Umfang an Musikmaterial, typischerweise einem Takt oder wenigen Takten, erzeugt. Vorzugsweise werden die ”Kosten” der Transformation minimiert, um die größte Qualität des gespielten Signals sicherzustellen.
  • Ferner erzeugen die offenbarte Vorrichtung und das offenbarte Verfahren eine verbesserte Echtzeitmusikbegleitung, die Darbietungen unter Benutzung solch einer Vorrichtung oder solch eines Verfahrens weniger monoton und langweilig sowohl für den Musiker als auch die Zuhörer machen und die die Darbietungen durch die Zuhörer vollständig verständlich machen, da im Allgemeinen nichts voraufgezeichnet ist.
  • In diesem Zusammenhang soll verstanden werden, dass ein Musikstück nicht notwendigerweise ein komplettes Lied oder Musikstück bedeutet, sondern allgemein ein oder mehrere Akkorde oder Beats meint. Vorrichtung und das Verfahren zur Erzeugung einer Echtzeitmusikbegleitung sind allgemein gerichtet auf die Erzeugung der Begleitung während einer Wiedergabephase (oder eines Wiedergabezustands), d. h., wenn ein Musiker begleitet werden will, während er spielt. Vorrichtung und das Verfahren zur Aufzeichnung von Musikstücken zur Benutzung bei der Erzeugung einer Echtzeitmusikbegleitung sind allgemein gerichtet auf die Aufnahme von Musik während einer Aufnahmephase (oder eines Aufnahmezustands), die später in einer Wiedergabephase benutzt werden kann.
  • Ferner soll angemerkt werden, dass ein Akkord im Allgemeinen verbunden ist mit jeder ”zeitlichen Position” in dem Raster, bspw. einem Takt oder einem Beat. Eine Darbietung ist ein Gang durch die Abfolge an Akkorden. Wenn der Musiker etwas während einer Darbietung spielt, ist es systematisch verbunden mit dem entsprechenden Akkord. Akkorde können also allgemein drei unterschiedliche Dinge sein, nämlich eine Position in dem Raster, eine Information über die Harmonie und ein physikalischer, von einem Musikinstrument gespielter Akkord.
  • Es soll verstanden werden, dass sowohl die vorherige allgemeine Beschreibung und die nachfolgende detaillierte Beschreibung beispielhaft, aber nicht für die Offenbarung einschränkend sind.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Ein vollständigeres Verständnis der Offenbarung und viele der dazugehörigen Vorteile davon werden leicht erhalten, wenn diese besser verstanden wird durch Bezugnahme auf die folgende detaillierte Beschreibung, wenn sie in Verbindung mit den beigefügten Zeichnungen betrachtet wird, wobei:
  • 1 ein Diagramm zeigt, das eine typische Schleifenpedalinteraktion darstellt,
  • 2 ein schematisches Blockschaltbild einer ersten Ausführungsform einer Vorrichtung zur Erzeugung einer Echtzeitmusikbegleitung gemäß der vorliegenden Offenbarung zeigt,
  • 3 ein schematisches Blockschaltbild einer zweiten Ausführungsform einer Vorrichtung zur Erzeugung einer Echtzeitmusikbegleitung gemäß der vorliegenden Offenbarung zeigt,
  • 4 ein Diagramm zeigt, das die Modenklassifikation der eingegebenen Musik darstellt,
  • 5 ein Diagramm zeigt, das die Erzeugung einer Musikstückbeschreibung darstellt,
  • 6 ein Zeitdiagramm zeigt, das eine Darbietung darstellt enthaltend tatsächlich gespielte Musik und Wiedergabe gespeicherter Musik in zwei unterschiedlichen Musikmoden,
  • 7 ein Flussdiagramm zeigt, das eine Vorrichtung zur Erzeugung einer Echtzeitmusikbegleitung gemäß der vorliegenden Offenbarung darstellt,
  • 8 ein schematisches Blockschaltbild einer dritten Ausführungsform einer Vorrichtung zur Erzeugung einer Echtzeitmusikbegleitung gemäß der vorliegenden Offenbarung zeigt, und
  • 9 ein schematisches Blockschaltbild einer Ausgestaltung einer Vorrichtung zur Erzeugung von Musikstücken zur Benutzung bei der Erzeugung einer Echtzeitmusikbegleitung gemäß der vorliegenden Offenbarung zeigt.
  • 10 zeigt ein schematisches Blockschaltbild einer Ausgestaltung einer Vorrichtung zur Erzeugung einer Echtzeitmusikbegleitung gemäß der vorliegenden Offenbarung,
  • 11 zeigt ein Flussdiagramm, das eine Ausgestaltung eines Verfahrens zur Erzeugung einer Echtzeitmusikbegleitung gemäß der vorliegenden Offenbarung darstellt,
  • 12 zeigt eine Tabelle mit einem Satz an Substitutionsregeln, und
  • 13 zeigt eine Regel mit jedem möglichen Grundton für den Originalakkord.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Improvisierte Solodarbietung ist wohl die herausfordernste Situation für einen Musiker, insbesondere für Jazz. Der Hauptgrund ist, dass, um einen interessanten musikalischen Diskurs zu erzeugen, viele Dimensionen von Musik gleichzeitig ausgeführt werden sollten, wie etwa Beat, Harmonie, Bass und Melodie. Ein Solomusiker sollte die Rollen eines gesamten Rhythmusabschnitts wie in einer Standard-Jazz-Combo, wie etwa Piano, Bass und Trommeln, verkörpern. Zusätzlich sollten sie ein Solo improvisieren, während sie den Rhythmusabschnitt beibehalten. Technisch ist dies nur für wenige Instrumente wie das Piano möglich, aber sogar in diesem Fall erfordert es große Virtuosität. Für Gitarren ist eine Solodarbietung noch herausfordernder, da die Konfiguration des Instruments mehrere gleichzeitige Musikströme nicht erlaubt. In den 80ern erstaunte der virtuose Gitarrist Stanley Jordan die musikalische Welt, indem er gleichzeitig Bass, Akkorde und Melodien spielte unter Benutzung einer Technik genannt ”tapping” (”Klopfen”). Solche Techniken sind jedoch schwer zu meistern, und die resultierende Musik ist, obwohl sie aufregend ist, wohl stereotypisch.
  • Unterschiedliche Technologien sind bekannt, um die Beschränkungen von Solodarstellern zu bewältigen, indem sie darauf zielen, ihre Ausdrucksfähigkeit zu erweitern. Eine der populärsten ist das Schleifenpedal (”loop pedal”), wie in Boss, RC-3 Loop Station Owner's Manual, (2011) beschrieben. Schleifenpedale sind digitale Abtaster, die einen Musikeingang aufzeichnen während eines bestimmten Zeitabschnitts, der durch Antippen des Pedals bestimmt ist. 1 zeigt eine typische Nutzung eines Schleifenpedals zur Darbietung. Ein erstes Antippen 10 aktiviert das Aufzeichnen des Eingangs 11. Ein nachfolgendes Antippen 12 bestimmt die Länge der Schleife und startet die Wiedergabe der aufgezeichneten Schleife 13, während parallel der Musiker eine Improvisierung 14 starten kann.
  • Mit solchen Schleifenpedalen zeichnet der Musiker typischerweise zuerst eine Abfolge von Akkorden (oder eine Basslinie) auf und improvisiert dann darauf. Dieses Schema kann ausgedehnt werden, um mehrere Schichten übereinander zu legen (z. B. Akkorde, dann Bass) unter Benutzung anderer interaktiver Widgets (z. B. doppeltes Antippen auf dem Pedal). Schleifenpedale ermöglichen Musikern, zwei (oder mehr) Spuren von Musik in Echtzeit wörtlich zu spielen. Sie erzeugen jedoch unveränderlich einen konservierten Musikeffekt aufgrund der systematischen Wiederholung der aufgezeichneten Schleife ohne irgendeine Variation, wovon auch immer.
  • Ein anderes populäres und inspirierendes Gerät zum Ermöglichen einer Solodarbietung ist das Minus-Eins-Aufzeichnen, wie etwa die Aebersold-Serien, wie beschrieben in Aebersold, J., How To Play Jazz & Improvise, Buch & CD Set, Vol. 1, (2000). Mit diesen Aufnahmen ist der Musiker in der Lage, ein Musikstück zu spielen mit einem vollentwickelten professionellen Rhythmusabschnitt. Obwohl er unterschiedlicher Natur ist, ist der konservierte Effekt immer noch da: Spielen mit einer Aufzeichnung erzeugt stilistische Fehlanpassung. Stylistische Konsistenz ist verloren, da es nicht länger nur der Musiker ist, der spielt, sondern andere, unsichtbare Musiker, was die interaktive Natur von Echtzeitimprovisation eliminiert und den musikalischen Eindruck auf die Zuhörer verringert. Konsequenterweise werden diese Geräte kaum in Konzerten oder Aufnahmen benutzt, und ihre Benutzung bleibt begrenzt auf Übung oder Straßenmusik (draußen spielen mit geringem Profil).
  • Frühere Arbeiten haben versucht, traditionelle Instrumente zu erweitern, wie etwa die Gitarre, durch Benutzung von Echtzeitsignalanalyse und -synthese. Zum Beispiel zeigte Lähdeoja, O., An approach to instrument augmentation: the electric guitar, Proc. New Interfaces for Musical Expression conference, NIME (2008), wie feinkörnige Spielmodi aus der Analyse der eingehenden Gitarrensignale detektiert werden können, und Reboursière, L. Frisson, C. Lähdeoja, O. Anderson, J. Iii, M. Picard, C. Todoroff, T., Multimodal Guitar: A Toolbox For Augmented Guitar Performances, Proc. of NIME, (2010) schlugen ein neu anordnendes Schleifenpedal vor, das zufällig Notenevents innerhalb einer Schleife detektiert und umgestaltet. In Hamanaka, M. Goto, M. Asoh, H. und N. Otsu, A learning-based jam session system that imitates a player's personality model. IJCAI, Seiten 51–58, (2003) ist ein MIDI-basiertes Modell einer Persönlichkeit eines Improvisierers vorgeschlagen, um ein virtuelles Triosystem zu bauen, aber es ist nicht klar, wie es benutzt werden kann in realistischen Darbeitungsszenarien, die eine bestimmte Harmonie und ein bestimmtes Tempo erfordern. Schließlich schlägt Cherla, S., Automatic Phrase Continuation from Guitar and Bass-guitar Melodies, Masterarbeit, UPF, (2011) ein audiobasiertes Verfahren zur Erzeugung von stilistisch konsistenten Phrasen von einer Gitarre oder einem Bass vor, wobei dies nur auf monofonische Melodien zutrifft. Omax ist ein System zur Live-Improvisierung, das musikalische Abfolgen spielt, die inkrementierend und in Echtzeit von einer live MIDI- oder Audioquelle geschaffen sind, wie beschrieben in Levy, B., Bloch, G., Assayag, G., OMaxist Dialectics: Capturing, Visualizing and Expanding Improvisations, Proc. NIME 2012, Ann Arbor, 2012. Omax benutzt Eigenschaftsähnlichkeit und verknüpfende Synthese, um Klone des Musikers zu schaffen, um so das Instrument zu erstrecken durch Erzeugung von reichen Texturen durch Überlagern des Eingangs des Musikers mit den Klonen. Dies macht diesen Ansatz geeignet für freie Musikimprovisierung. Obwohl reflexive Schleifenpedale viele technische Ähnlichkeiten mit Omax haben, sind sie für traditionelle (Solo-)Jazzimprovisierung bestimmt, die harmonische und zeitliche Beschränkungen involviert sowie heterogene Instrumente und/oder Modi des Spielens kombiniert, wie unten erläutert werden wird.
  • Die Beobachtung von echten Jazzcombos (Duos oder Trios) lässt Schlüsse darauf zu, was eine natürliche Erweiterung eines Jazzinstruments sein könnte. In einem Jazzduo bspw. wechseln Musiker typischerweise zwischen Ausgleichen (Schaffen von Harmonie mit Akkorden) und Solo (z. B. Melodien). Jeder Musiker passt sich auch in einer nachahmenden Art und Weise an den anderen (die anderen) an, bspw. in Bezug auf Energie, Tonhöhe oder Notendichte. Basierend auf diesen Beobachtungen werden sog. reflexive Schleifenpedale (”Reflexive Loop Pedals”) vorgeschlagen, die einen neuen Ansatz darstellen für Schleifenpedale, die Musikern ermöglichen, ihre musikalische Kompetenz zu erweitern, als wenn sie in einem Duo oder Trio mit sich selbst spielen würden, was aber den konservierten Musikeffekt von Pedalen oder Minus-Eins-Aufnahmen vermeidet. Dies wird erreicht durch Durchsetzen von stilistischer Konsistenz (kein externes voraufgezeichnetes Material wird benutzt), während natürliche Interaktion zwischen dem Mensch und dem wiedergegebenen Material erlaubt ist. Im Folgenden wird der vorgeschlagene Ansatz detaillierter erläutert, und eine Sologitarrendarbietung wird als ein Beispiel beschrieben werden.
  • 2 zeigt ein schematisches Blockschaltbild einer ersten Ausführungsform einer Vorrichtung 20 zur Erzeugung einer Echtzeitmusikbegleitung gemäß der vorliegenden Offenbarung. Vorrichtung 20 umfasst eine Musikeingangsschnittstelle 21, die von einem Musiker gespielte Musikstücke empfängt. Ein Musikmodenklassifizierer 22 ist vorgesehen, der an der Musikeingangsschnittstelle empfangene Musikstücke klassifiziert in eine von mehreren Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode. Ein Musikspeicher 23 nimmt an der Musikeingangsschnittstelle empfangene Musikstücken auf (speichert sie) zusammen mit dem entsprechenden Mode in einer Aufnahmephase. Eine Musikausgangsschnittstelle 24 gibt vorher in dem Musikspeicher aufgezeichnete Musikstücke in einer Wiedergabephase aus. Ferner ist ein Controller 25 vorgesehen, der die Musikeingangsschnittstelle steuert, zwischen der Aufnahmephase und der Wiedergabephase umzuschalten. Schließlich wählt ein Musikauswähler 26 in der Wiedergabephase ein oder mehrere Musikstücke aus den in dem Musikspeicher gespeicherten Musikstücken aus als Echtzeitmusikbegleitung für ein tatsächlich gespieltes an der Musikeingangsschnittstelle empfangenes Musikstück, wobei das eine oder die mehreren Musikstücke so ausgewählt werden, dass sie in einem anderen Musikmode sind als das tatsächlich gespielte Musikstück.
  • Eine solche Vorrichtung wird hierin als reflexives Schleifenpedal (reflexive loop pedal, RLP) bezeichnet. RLPs folgen den gleichen Basisprinzipien wie Standard-Schleifenpedalen: sie geben Musikmaterial wieder, das zuvor von dem Musiker aufgeführt wurde. RLPs unterscheiden sich in wenigstens einem Aspekt: RLPs managen es, zu unterscheiden zwischen mehreren Spielmoden, wie etwa Bass, Harmonie (Akkorde) und Solomelodien. Abhängig von dem Mode, den der Musiker spielt zu einem beliebigen Zeitpunkt, wird die Vorrichtung unterschiedlich spielen, dem ”andere Mitglieder”-Prinzip folgend. Wenn bspw. der Musiker ein Solo spielt, wird das RLP Bass und/oder Akkorde spielen. Wenn der Musiker Akkorde spielt, wird das RLP Bass und/oder Solo spielen, etc. Diese Regel stellt sicher, dass die gesamte Darbietung nahe bei einer natürlichen Musikcombo ist, bei denen in den meisten Fällen Bass, Akkorde und Solo immer vorhanden sind, sich aber niemals überlappen.
  • In einer bevorzugten Ausgestaltung wird das wiedergegebene Material nicht nur gemäß der momentanen Position in der Schleife bestimmt, sondern auch gemäß einem vorbestimmten Akkordraster und/oder gemäß dem momentanen Spielen des Musikers, insbesondere durch Eigenschafts-basierte Ähnlichkeit. Dies stellt sicher, dass jede erzeugte Begleitung tatsächlich dem Spielen des Musiker folgt. Eine entsprechende zweite Ausführungsform einer Vorrichtung 30 zur Erzeugung einer Echtzeitmusikbegleitung gemäß der vorliegenden Offenbarung ist schematisch in 3 gezeigt. Vorrichtung 30 umfasst, zusätzlich zu den Elementen der in 2 gezeigten Vorrichtung 20, einen Musikanalysierer 31, der ein empfangenes Musikstück analysiert, um eine Musikstückbeschreibung mit einer oder mehreren Charakteristika des analysierten Musikstücks zu erhalten, d. h., dass die Musikstückbeschreibung eine Eigenschaftsanalyse der Eingangsmusik darstellt. Diese Musikstückbeschreibung wird in dem Musikspeicher 23 zusammen mit dem entsprechenden Musikstück in der Aufnahmephase gespeichert. Der Musikauswähler 26 berücksichtigt dann die Musikstückbeschreibung eines tatsächlich gespielten Musikstücks und von gespeicherten Musikstücken bei der Auswahl eines oder mehrerer gespeicherter Musikstücke als Echtzeitmusikbegleitung.
  • Vorzugsweise ist der Musikanalysierer 31 ausgestaltet, eine Musikstückbeschreibung zu erhalten mit einem oder mehreren von Tonhöhe, Takt, Tonart, Tempo, Energieverteilung, durchschnittliche Energie, Energiespitzen, Anzahl an Spitzen, spektraler Schwerpunkt, Energielevel, Stil, Akkorde, Lautstärke, Notendichte, Anzahl an Noten, mittlere Tonhöhe, mittleres Intervall, höchste Tonhöhe, niedrigste Tonhöhe, Tonhöhenvielfalt, Harmoniedauer, Melodiedauer, Intervalldauer, Akkordsymbole, Skalen, Akkordverlängerungen, relative Grundtöne, Zone, Instrumenttyp(en) und Melodie eines analysierten Musikstücks.
  • Optional, wie in 3 mit gestrichelten Linien gezeigt, weist die Vorrichtung 30 ferner eine Akkordschnittstelle 32 auf, die so ausgestaltet ist, dass sie ein Akkordraster mit einer Vielzahl von Akkorden (allgemein in einer Abfolge angeordnet) empfängt oder auswählt. So kann ein Benutzer ein Akkordraster (auch als Akkordschnittstelle bezeichnet) eingeben, oder er kann ein Akkordraster aus einer Akkordrasterdatenbank auswählen. In einer solchen Ausgestaltung ist der Musikanalysierer 31 so ausgestaltet, dass er eine Musikstückbeschreibung mit wenigstens den Akkorden des Beats des analysierten Musikstücks erhält. Ferner ist der Musikauswähler 26 ausgestaltet, das empfangene oder ausgewählte Akkordraster eines tatsächlich gespielten Musikstücks und die Musikstückbeschreibung von gespeicherten Musikstücken bei der Auswahl eines oder mehrerer gespeicherter Musikstücke als Echtzeitmusikbegleitung zu berücksichtigen.
  • In einer bevorzugten Implementierung wird die Eingangsmusik sowohl als ein Audio- als auch als ein MIDI-Strom ermpfangen. Entsprechend weist die Musikeingangsschnittstelle 21 vorzugsweise eine Midischnittstelle 21a und/oder eine Audioschnittstelle 21b zum Empfangen von Musikstücken im Midiformat und/oder im Audioformat auf, wie auch in 3 als eine zusätzliche Option gezeigt ist. Entsprechend ist der Musikmodenklassifizierer 22 ausgestaltet, Musikstücke im Midiformat zu klassifizieren, der Musikanalysierer 31 ist ausgestaltet, Musikstücke im Audioformat zu analysieren, und der Musikspeicher 23 ist ausgestaltet, Musikstücke im Audioformat aufzunehmen. Audio wird vorzugsweise benutzt zum Extrahieren von Interaktionseigenschaften und zur verknüpfenden Synthese (d. h. bei der Erzeugung der Audiobegleitung), und MIDI wird bevorzugt benutzt zur Analyse und Klassifizierung, wie in 4 gezeigt ist. Diese Figur verdeutlicht die Klassifizierung des Eingangs des Musikers in unterschiedliche Moden, insbesondere in Musikstücke im Solomode 41, einem Bassmode 42 und einem Harmonie-(Akkord-)Mode 43.
  • Wie in vielen Jazz-Begleitungssystemen wird a priori ein Akkordraster bereitgestellt, wie oben erläutert und wie in der folgenden Tabelle dargestellt.
    C min % G-7 C7
    F maj7 % F-7 Bb7
    Eb maj7 Eb-7/Ab7 Db maj7 D-7/G7
  • Die Tabelle zeigt ein typisches Akkordraster. Einige Akkorde werden wiederholt (z. B. hier C min und F maj4, was mehr Auswahl für die Vorrichtung und das Verfahren während der Erzeugung der Begleitung bereitstellt. Das Akkordraster wird vorzugsweise benutzt, um jeden gespielten Beat mit dem entsprechenden Akkord zu kennzeichnen. Eine bevorzugte Einschränkung, die RLPs auferlegt wird, ist es, dass jedes wiedergegebene Audiosegment dem richtigen Akkord in dem Akkordraster entsprechen soll. Ein Raster enthält oft mehrere Vorkommen desselben Akkords, was der Vorrichtung ermöglicht, eine gegebene Aufzeichnung für einen Akkord mehrere Male wiederzuverwenden, was ihre Fähigkeit erhöht, sich dem momentanen Spielen des Musikers anzupassen.
  • Ferner wird in noch einer weiteren Implementierung vorzugsweise auch ein Tempo bereitgestellt, z. B. mittels einer optional bereitgestellten Temposchnittstelle 33 (auch in 3 gezeigt), die ausgestaltet ist, ein Tempo oder gespielte Musik zu empfangen oder auszuwählen. In diesem Fall ist der Musikauswähler 26 ausgestaltet, das empfangene oder ausgewählte Tempo eines tatsächlich gespielten Musikstücks bei der Auswahl eines oder mehrerer gespeicherter Musikstücke als Echtzeitmusikbegleitung zu berücksichtigen.
  • Im Folgenden wird eine Ausführungsform beschrieben, wie die Vorrichtung und das Verfahren automatisch die Eingabe des Musikers in verschiedene Musikmoden klassifizieren kann. In diesem Zusammenhang werden musikalisch aussagekräftige Makromoden betrachtet, entsprechend verschiedenen musikalischen Absichten, wie etwa Bass, Akkorden und Solo. Insbesondere wird die Modenklassifikation für Gitarre betrachtet, aber dies gilt auch für andere Instrumente, z. B. das Piano, mit der gleichen Darbietung.
  • In dieser beispielhaften Ausführungsform wird ein Corpus aus 8 Standard-Jazzstücken in verschiedenen Tempi und Gefühlsrichtungen (bspw. Bluesette, Lady Bird, Nardis, Ornithology, Solar, Summer Samba, The Days of Wine and Roses, und Tune up) gebildet. Für jedes Stück wurden drei Gitarrendarbietungen der gleichen Dauer (ungefähr 4 min) aufgezeichnet: eine mit Bass, eine mit Akkorden und eine mit Solos, durch Spielen z. B. mit einer Aebersold Minus-Eins-Aufzeichnung. Für jede Darbietung wurden sowohl Audio als auch MIDI (z. B. unter Benutzung einer Godin-MIDI-Gitarre) aufgezeichnet für insgesamt 5.418 Takte. Der MIDI-Eingang ist in Ein-Takt ”Stücke” (”chunks”) segmentiert bei einem gegebenen Tempo. Stücke werden nicht mit dem Beat synchronisiert um sicherzustellen, dass der resultierende Klassifizierer robust ist, d. h., in der Lage ist, jeden musikalischen Eingang einfach zu klassifizieren, inklusive solcher Eingänge, die aus der Zeit (”out of time”) sind, was eine übliche im Jazz benutzte Technik ist.
  • Ein Stück (bspw. Bluesette) gab es, um Eigenschaftsauswahl durchzuführen. Der anfängliche Eigenschaftssatz enthält 20 MIDI-Eigenschaften bezüglich Tonhöhe, Dauer, Geschwindigkeit und statistischen Momente davon, und drei spezifische Taktstruktureigenschaften: Harmonie-dur, Melodie-dur, Interval-dur (wobie ”dur” hier Zeitdauer (duration) bedeutet), wie in 5 gezeigt ist. Das benutzte beispielhafte Eigenschaftsauswahlverfahren ist CfsSubsetEval mit der BestFirst-Suchmethode von Weka (wie bspw. beschrieben in I. W. Witten und F. Eibe, Data Mining: Practical Machine Learning Tools and Techniques, 2nd ed. San Francisco, CA: Morgan-Kaufmann, 205).
  • Neun Eigenschaften wurden ausgewählt: Anzahl an Noten, mittlere Tonhöhe, mittleres Interval, höchste Tonhöhe, niedrigste Tonhöhe, Tonhöhenvielfalt (Prozent an einzigartigen MIDI-Tonhöhen), Harmonie-dur, Melodie-dur und Interval-dur.
  • Insbesondere zeigt 5 die Berechnung der Prozentsatzeigenschaften der Melodie, Harmonie und Intervalldauer: Segmente 51 mit 3 oder mehr Noten, die zusammenspielen, entsprechen der Harmonie. Segmente 52 mit 1 Note entsprechend der Melodie. Segmente 53 mit 2 Noteen entsprechend den Intervallen. Der Takt dauert 1,5 s.
  • Kumulierte Zeitdauern von Harmonie, Melodien und Intervalen sind jeweils 0,5 s, 0,68 s und 0,08 s. Die Eigenschaftswerte für diesen Takt sind deshalb Harmonie-dur = 33%, Melodie-dur = 45%, Interval-dur = 5%.
  • Ein Support-Vector-Machine-Klassifizierer (z. B. Weka's SMO) wird bevorzugt benutzt und auf die gekennzeichneten Daten mit den ausgewählten Eigenschaften trainiert. Die folgende Tabelle zeigt die Leistung eines SVM- (Support Vector Machine, was ein Standardmaschinenlernen ist) Klassifizierers auf jedem individuellen Stück, gemessen mit einer 10-fachen Kreuzvalidierung mit einem normalisierten Poly-Kernel. Die letzte Zeile zeigt die Leistung des auf alle 8 Stücke trainierten Klassifizierers. Wie in der Tabelle gezeigt ist, sind die Klassifizierungsresultate nahezu perfekt, was eine robuste Modenidentifikation während der Darbietung sicherstellt.
    Stück Klassifizierer F-Maß
    Bass Solo Harmonie
    Bluesette 99,7% 99,1% 99,1%
    Lady Bird 98,2% 98,9% 97,5%
    Nardis 97,7% 98,7% 96,6%
    Ornithology 99,2% 99,2% 98,4%
    Solar 99,4% 98% 97,3%
    Summer Samba 98% 98,9% 97,4%
    The Days of ... 97,9% 98,9% 97,2%
    Tune Up 98,3% 100% 98,3%
    Gesamt 98,6% 97,7% 99%
  • Während der Darbietung werden Audioströme vorzugsweise erzeugt unter Benutzung von verknüpfender Synthese aus zuvor gespieltem und klassifiziertem Audiomaterial. Die Erzeugung erfolgt gemäß zwei Prinzipien.
  • Das erste Prinzip wird ”Die anderen Mitglieder Prinzip” genannt. Die gerade gespielte Musik wird analysiert durch den Modeklassifizierer, der die zwei anderen zu erzeugenden Musikmoden bestimmt (z. B. Bass => Akkorde & Solo, Akkorde => Bass & Solo, Solo => Bass & Akkorde). Für den Fall, dass kein zuvor gespielter Takt bislang verfügbar ist, gibt die Erzeugung Stille aus.
  • Das zweite Prinzip wird ”Eigenschafts-basierte Interaktion” genannt.
  • Gemäß einem Aspekt geben die vorgeschlagene Vorrichtung und vorliegende Verfahren nicht einfach eine aufgezeichnete Abfolge wieder, sondern erzeugen eine neue, die an die momentane Echtzeitdarbietung des Musikers angepasst ist. Dies wird vorzugsweise erreicht unter Benutzung von Eigenschafts-basierter Ähnlichkeit (insbesondere unter Benutzung einer Musikstückbeschreibung wie oben erläutert). Audioeigenschaften aus der Eingangsmusik des Benutzers werden extrahiert. Beispielsweise sind in einer Implementierung die Benutzereigenschaften RMS (mittlere Energie des Taktes), Schlagzahl (Anzahl an Spitzen in dem Signal) und spektraler Schwerpunkt, obwohl andere MPEG-7-Eigenschaften benutzt werden können (siehe z. B. Peeters, G., A (arge set of audio features for sound description (similarity and classification) in the CUIDADO project, Ircam Report (2000)). Vorrichtung und das Verfahren versuchen, aufgezeichnete Takte der richtigen Moden (sagen wir mal Akkorden und Bass, wenn der Benutzer Melodie spielt), und ein korrektes Akkordraster (sagen wir mal C min) und das, welches am besten zu den Benutzereigenschaften passt, zu finden und wiederzugeben. Eigenschaftsanpassung wird bevorzugt unter Benutzung von euklidischem Abstand durchgeführt.
  • Audioerzeugung wird vorzugsweise durchgeführt unter Benutzung von verknüpfender Synthese wie z. B. beschrieben in Schwarz, D., Current research in Concatenative Sound Synthesis, Proc. Int. Computer Music Conf. (2005). Audiobeats werden also verknüpft im Zeitbereich und überblendet, um Audioklicks zu vermeiden.
  • Der vorgeschlagene Ansatz ist mit einer Sologitarrendarbietung erprobt worden mit dem System basierend auf dem Stück ”Solar” von Miles Davis. Während dieser 2'50”-Darbietung wird das 12-taktige Stück 9 Mal gespielt. Der Musiker spielte abwechselnd Akkorde, Solos und Bass, und die Vorrichtung und das Verfahren reagierten gemäß dem 2 ”Andere Mitglieder”-Prinzip. Darüber hinaus erzeugten die Vorrichtung und das Verfahren eine Begleitung, die zu der Gesamtenergie des Musikers passt: weiche Passagen werden begleitet mit Basslinien geringer Intensität (d. h. Bassliniem mit wenigen Noten, da die Schlagzahlbenutzereigenschaft bedacht wird) und mit harmonischen Takten geringer Energie (d. h., mit weichen Akkorden, da die Benutzereigenschaft RMS bedacht wird), und umgekehrt.
  • 6 zeigt eine Zeitlinie eines Rasters (#9) der Darbietung, die Modeerzeugung und Wechselspiel, sowie die Eigenschafts-basierte Interaktion betont. Insbesondere zeigt 6 einen Auszug einer Darbietung von Solar mit einer Gitarre und dem System. Dem 2 ”Andere Mitglieder”-Prinzip folgend, spielen die Vorrichtung und das Verfahren nicht irgendeine Melodie. Die Akkorde folgen nicht dem Eingang des Musikers, da keine Akkorde hoher Energie für Takte 6, 8, 10, 11, und 12 aufgenommen wuden. Der Bass folgt der Energie des Musikers näher, da Bass geringer Energie für Takte 3 und 4 nicht aufgezeichnet wurde. In 6 zeigt Zeile 60 die Akkorde, die von der Vorrichtung und dem Verfahren gespielt wurden, einschließlich Akkorden 61 mit geringer Energie, Akkorden 62 mit mittlerer Energie und Akkorden 63 mit hoher Energie. Zeile 70 zeigt die Melodie, die von der Vorrichtung und dem Verfahren gespielt wurden, einschließlich Melodie 71 mit geringer Energie, Melodie 72 mit mittlerer Energie und Melodie 73 mit hoher Energie. Zeile 80 zeigt den Bass, der von der Vorrichtung und dem Verfahren gespielt wurden, einschließlich Bass 81 mit geringer Energie, Bass 82 mit mittlerer Energie und Bass 83 mit hoher Energie.
  • 7 zeigt ein Flussdiagramm eines Verfahrens zur Erzeugung einer Echtzeitmusikbegleitung gemäß der vorliegenden Offenbarung. In einem ersten Schritt S1 werden von einem Musiker gespielte Musikstücke empfangen. In einem zweiten Schritt S2 werden empfangene Musikstücke in einen von unterschiedlichen Musikmoden klassifiziert enthaltend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode. In einem dritten Schritt S3 werden eines oder mehrere aufgezeichnete Musikstücke ausgewählt als Echtzeitmusikbegleitung für ein tatsächlich gespieltes Musikstück, wobei das eine oder die mehreren ausgewählten Musikstücke ausgewählt werden, dass sie in einem unterschiedlichen Musikmode sind als das tatsächlich gespielte Musikstück. Schließlich werden in einem vierten Schritt S4 die ausgewählten Musikstücke ausgegeben als Musikbegleitung für das tatsächlich gespielte Musikstück.
  • Eine dritte allgemeinere Ausführungsform einer Vorrichtung 70 zur Erzeugung einer Echtzeitmusikbegleitung gemäß der vorliegenden Offenbarung ist in 7 gezeigt. Es umfasst eine Musikeingangsschnittstelle 21, die von einem Musiker gespielte Musikstücke empfängt. Ein Musikmodenklassifizierer 22 klassifiziert an der Musikeingangsschnittstelle empfangene Musikstücke in eine von mehreren Musikmoden, enthaltend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode. Ein Musikauswähler 26 wählt eines oder mehrere aufgezeichnete Musikstücke als Echtzeitmusikbegleitung für ein tatsächlich gespieltes, an der Musikeingangsschnittstelle empfangenes Musikstück aus, wobei das eine oder die mehreren ausgewählten Musikstücke ausgewählt werden, dass sie in einem unterschiedlichen Musikmode sind als das tatächlich gespielte Musikstück. Schließlich gibt eine Musikausgangsschnittstelle 24 die ausgewählten Musikstücke aus.
  • Optional, wie in gestrichelten Linien gezeigt ist, umfasst die Vorrichtung 70 ferner eine Musikaustauschschnittstelle 71, die ausgestaltet ist, an der Musikeingangsschnittstelle 21 empfangene Musikstücke zusammen mit ihrem klassifizierten Musikmode in einem externen Musikspeicher 72, z. B. einer externen Festplatte, Computerspeicher oder anderem extern von der Vorrichtung bereitgestellten Speicher (bspw. Speicherplatz, der in einer Cloud oder dem Internet bereitgestellt ist) aufzuzeichnen. Der Musikauswähler 26 ist entsprechend ausgestaltet, über die Musikaustauschschnittstelle 71 eines oder mehrere Musikstücke aus den in dem externen Musikspeicher 72 aufgezeichnete Musikstücke als Echtzeitmusikbegleitung auszuwählen.
  • Die oben erläuterten Ausführungsformen der Vorrichtung und des Verfahrens beziehen sich hauptsächlich auf die Wiedergabephase oder auf die Aufnahme- und die Wiedergabephase. Gemäß enem anderen Aspekt bezieht sich die vorliegende Offenbarung auch auf eine Vorrichtung und ein entsprechendes Verfahren zum Aufzeichnen von Musikstücken zur Benutzung bei der Erzeugung einer Echtzeitmusikbegleitung, d. h., die die Vorrichtung und das Verfahren, die sich nur auf die Aufnahmephase beziehen. Eine Ausführungsform einer solchen Vorrichtung 80 ist in 9 gezeigt. Sie umfasst eine Musikeingangsschnittstelle 81 (die grundsätzlich die gleiche oder eine ähnliche Schnittstelle sein kann wie die Musikeingangsschnittstelle 21), die von einem Musiker gespielte Musikstücke empfängt. Ferner umfasst die Vorrichtung 81 einen Musikmodenklassifizierer 82 (der grundsätzlich derselbe oder ein ähnlicher Klassifizierer sein kann wie der Musikmodenklassifizierer 22), der an der Musikeingangsschnittstelle 21 empfangene Musikstücke klassifiziert in eine von verschiedenen Musikmoden enthaltend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode. Noch weiter umfasst die Vorrichtung 80 einen Aufzeichner 83, der an der Musikeingangsschnittstelle 81 empfangene Musikstücke zusammen mit dem klassifizierten Musikmode aufzeichnet.
  • Der Aufzeichner 83 kann als Musikspeicher implementiert sein, wie z. B. der Musikspeicher 23, oder kann ausgestaltet sein, direkt auf einem solchen Musikspeicher aufzuzeichnen. In einer anderen Ausführungsform kann der Aufzeichner 83 implementiert sein als Musikaustauschschnittstelle, wie z. B. die Musikaustauschschnittstelle 71, um auf einem externen Musikspeicher aufzuzeichnen.
  • Die oben beschriebene Vorrichtung und das oben beschriebene Verfahren adressieren zwei kritische Probleme von existierendden Musikerweiterungsgeräten, nämlich Mangel an Anpassungsfähigkeit (Schleifenpedale sind zu repetitiv) und stilistische Fehlanpassung (Spielen zusammen mit Minus-Eins-Aufzeichnungen erzeugt stilistische Inkonsistenz). Der oben beschriebene Ansatz basiert auf einer multimodalen Analyse von Solodarbietung, die vorzugsweise jeden eingehenden Takt automatisch in einen von einem gegebenen Satz an Musikmoden (z. B. Bass, Akkorde, Solo) klassifiziert. Eine Audiobegleitung wird erzeugt, die am besten passend ist zu dem, was momentan dargeboten wird von dem Musiker, vorzugsweise unter Benutzung von Eigenschaftsanpassung und Modeidentifikation, was Anpassungsfähigkeit bringt. Ferner besteht sie ausschließlich aus Takten, die der Benutzer vorher bei der Darbietung gespielt hat, was stilistische Konsistenz sicherstellt.
  • Als Konsequenz kann ein Solodarsteller auftreten als ein Jazztrio, der mit sich selbst auf irgendeinem Akkordraster interagiert, einen starken Sinn an musikalischer Kohäsion bereitstellt und ohne einen Konserven-Musikeffekt zu erzeugen.
  • Die neue Art an Interaktion, wie sie oben unter Bezugnahme auf 19 beschrieben wurde, wurde inspiriert durch Beobachtungen von und Teilnahme an echten Jazzbands. Viele andere Szenarien wurden untersucht umfassend bspw. einen automatischen Mode, in dem der Musiker aufhört zu spielen und einfach die erzeugten Ströme (Bass, Akkord, Solo) unter Benutzung von gestischen Controllern steuert, um sie so auf Struktur zu fokussieren und nicht auf tatsächliches Spielen. Obgleich der oben beschriebene Ansatz vollständig automatisch ist und ohne irgendeinen tatsächlichen Controller arbeitet, können physikalische Controller eingeführt werden, um dem Musiker mehr Kontrolle über das von ihnen erzeugte Audio zu bringen. Ein Standpedal (”freeze pedal”) könnte dem Musiker erlauben, in einer bevorzugten Konfiguration weiterzuspielen, ohne es zu beeinträchtigen. Eine andere Konfiguration würde darin bestehen, ein Solo zu spielen über einem erzeugten Solo. In einem letzten Fall könnten der Vorrichtung und dem Verfahren erlaubt sein, die 3 Darbietungsmoden zu spielen und jede von ihnen mit zugehörigen Controllern, die auf dem Instrument platziert sind, zu steuern.
  • Eine bevorzugte Implementierung nutzt einen MIDI-Strom zur Modenklassifizierung. MIDI ist verfügbar von Synthesizern, einigen Pianos oder Gitarren, aber nicht allen Instrumenten. Momentane Arbeit adressiert die Identifikation von robusten Audioeigenschaften, die eher erforderlich sind, um Modenklassifikation direkt von dem Audiosignal durchzuführen. Dies wird den Ansatz auf jegliches Instrument verallgemeinern. In einer anderen Ausführungsform gibt es eine MIDI-Implementierung und eine AUDIO-Implementierung. Diese zwei Implementierungen sind exklusiv.
  • Ein schematisches Blockschaltbild einer Ausführungsform einer Vorrichtung 90 gemäß der vorliegenden Offenbarung ist in 10 gezeigt. Vorrichtung 90 umfasst eine Akkordschnittstelle 91, die ausgestaltet ist, ein Akkordraster mit einer Vielzahl von Akkorden zu empfangen, eine Musikschnittstelle 92 (z. B. ein Mikrophon oder eine MIDI-Schnittstelle), die ausgestaltet ist, wenigstens einen gespielten Akkord eines an der Akkordschnittstelle empfangenen Akkordrasters zu empfangen, und einen Musikgenerator 93, der automatisch eine Echtzeitmusikbegleitung erzeugt basierend auf dem an der Akkordschnittstelle empfangenen Akkordraster und dem wenigstens einen gespielten Akkord des Akkordrasters, vorzugsweise sogar wenn weniger als alle Akkorde des Akkordrasters gespielt und an der Musikschnittstelle empfangen werden, durch Transformierung (insbesondere durch Transponieren und/oder Substituieren) eines oder mehrerer des wenigstens einen gespielten Akkords in die verbleibenen Akkorde des Akkordrasters.
  • Vorrichtung 90 gemäß dieser Ausführungsform erlaubt es, eine Schleife aus einem begrenzten Umfang eines Musikmaterials, typischerweise einem Takt oder wenigen Takten, zu erzeugen. In der Tat wird also eine neue Form an Schleifenpedal vorgeschlagen, das auf Situationen abzielt, in denen das Akkordraster im Voraus bekannt ist. In diesem Falle wird das Akkordraster dem Pedal (d. h. der Vorrichtung) durch die Akkordrasterschnittstelle (z. B. durch irgendein GUI oder durch Auswahl aus einer Sammlung an Akkordrastern, etc.) spezifiziert. Ein typische Beispiel für ein Akkordraster ist ein Blues, z. B.”C7|C7|C7|C7|F7|F7|C7|C7|G7|F7|C7|C7” (oder etwas wie dieses).
  • Die Idee ist, dass, anstatt die gesamte Schleife vollständig zu spielen, das ”verbesserte Pedal” nun nur erfordert, dass der erste Takt (oder Akkord) oder die ersten Takte (oder Akkorde), z. B. ein C7-Akkord, gespielt in irgendeinem Stil, aufgezeichnet wird. Ein Musiker spielt also tatsächlich nur einen oder mehrere Akkorde, und diese(r) gespielten Takt(e) oder Akkord(e) wird (werden) digital umgewandelt, bspw. unter Benutzung bekannter Tonhöhenskalierungsalgorithmen, in diesem Beispiel in F7 und G7. Als eine Konsequenz kann der Benutzer beginnen zu improvisieren unmittelbar nach dem ersten Takt (den ersten Takten) oder Akkord(en), d. h. viel schneller als mit bekannten Schleifenpedalen. Während grundsätzlich der wenigstens eine gespielte Akkord live und in Echtzeit gespielt wird, ist es grundsätzlich möglich, dass der wenigstens eine Akkord im Voraus gespielt und aufgezeichnet wird und zur Erzeugung der gegenwärtigen Begleitung als voraufgezeichner Eingang, z. B. über die Datenschnittstelle oder das Mikrofon, empfangen wird.
  • Mehrere Probleme treten grundsätzlich auf bei der Tonhöhenskalierung eines Audiosignals: die Frequenzbins in dem Originalsignal sollen sich nicht ändern, die Phase des Ausgangs soll kohärent sein, und die Transienten sollen nicht gestreckt werden. Phase-Vocoding ist ein Algorithmus, der Short Time Fourier Transform (STFT; Kurzzeit-Frourier-Transformation) und Overlap-And-Add (OLA; Überlappungen und Addieren) nutzt und die Phase des Signals neu berechnet. Als ein Nachteil verschlechtert (verschmiert) der Phasen-Vocoder die Transienten und fügt einen Nachhalleffekt dem Ausgang hinzu. SOLA (Synchronous Overlap-And-Add; synchrones Überlappen und Addieren) verbessert Phasen-Vocoding durch Synchronisieren der Analyse-/Synthese-Rahmen, die für OLA benutzt werden, mit der Grundfrequenz des Signals. Seine Effizienz hängt von dem Typ des Eingangssignals ab, und komplexe Geräusche werden schwieriger zu skalieren sein (monofonische Geräusche werden leichter zu skalieren sein). Ein anderes Verfahren benutzt granulare (Re-)Synthese, gekoppelt mit einem transienten Detektor, um die Transienten ungestreckt zu lassen (das jüngste IRCAM's Mach Five nutzt diese Technologie). Im Falle von Sprache zeigen andere Algorithmen sehr gute Ergebnisse, wie etwa auf linearer Prädiktion basierende Vocoder oder der PSOLA-Algorithmus (Pitch Synchronous Overlap and Add; Tonhöhensynchrones Überlappen und Addieren).
  • Es wird also bevorzugt von dem Musikgenerator 93 ein Algorithmus benutzt, der eine Sequenz an Audiobegleitung erzeugt, wobei ein a priori Akkordraster gegeben ist, und partielle Audiostücke, entsprechend einigen der Akkorden der Sequenz. Praktisch kann der Musiker nur den ersten oder mehrere Takte spielen oder, während seiner Darbietung, andere Takte irgendwo in dem Akkordraster (das in Schleife gespielt wird) spielen. Der Algorithmus erzeugt eine Audiobegleitung, wobei diese unvollständigen Audioeingänge gegeben sind. In einer Ausführungsform wird der Ausgang dieses Algorithm konstant aktualisiert (z. B. bei jedem Takt).
  • Bevorzugt versucht der Algorithmus. die Anzahl an Transformationen und ihre Reichweite (es ist besser, so wenig wie möglich zu transponieren, um Artefakte zu minimieren) in der erzeugten Audiobegleitung zu minimieren. Eine Transformation ist grundsätzlich eine Substitution, eine Transposition oder eine Kombination aus Substitution mit einer Transposition. Die ”Reichweite” bezieht sich auf die Transposition, und die Reichweite einer Transposition ist das Frequenzverhältnis zwischen der Originalfrequenz und der transponierten Frequenz. Für eine kleine Änderung in der Frequenz, z. B. Transpositionen eines Halbtons, ist die Audioqualität beinahe perfekt; für größere Änderungen in der Frequenz, z. B. eine Transposition durch ein Fünftel, wird die Audioqualität verschlechtert. Die Benutzung einer Substitution kann ein sonderbares Gefühl erzeugen (was gespielt wird ist nicht notwendigerweise perfekt die erwartete Harmonie...). Deshalb ist das Ziel des offenbarten Ansatzes, die Anzahl an Transformationen zu minimieren, um ”seltsame Harmonien” aufgrund von Substitutionen und ”Audioverschlechterungen” aufgrund von Transpositionen zu vermeiden.
  • Darüber hinaus kann der Algorithmus ”Akkordsubstitutionen” verwenden, um Transpositionen möglichst zu vermeiden. Beispielsweise könnte man anstatt eines C-Dur sieben E-Moll verwenden, etc. Eine vollständige Liste von Substitutionen ist in 12 gegeben. Der Algorithmus stellt eine optimale Sequenz bezüglich dieser Beschränkungen sicher. Akkordsubstitution ist die Idee, dass einige Akkorde mehr oder weniger musikalisch äquivalent sind zu anderen, ”klanglich gesprochen”. Dies bedeutet, dass sie bedeutsame Noten gemeinsan haben und sich nur durch unbedeutsame Noten unterscheiden, so dass sie bis zu einem bestimmten Grad substituiert werden können. Diese Idee wurde formuliert durch Einführen eines Satzes an Substitutionsregeln, die explizit aussagen, welche Akkorde in welche anderen Akkorde substituiert werden können. Akkordsubstitution bedingt gewöhnlich sowohl eine Transposition des Grundtons als auch eine Veränderung in dem Typ des Akkords. Beispielsweise ist eine wohlbekannte Substitution die sog. ”relative Mol”-Substitution, die aussagt, dass jeglicher Dur-Akkord (sagen wie mal C-Dur) substituiert werden kann durch sein relatives Moll (A-Moll).
  • In einer Ausführungsform umfasst die Musikschnittstelle 92 eine Start-Stopp-Schnittstelle zum Starten und Stoppen des Empfangs und/oder der Aufzeichnung von von einem Musiker gespielten Akkorden. Die Start-Stopp-Schnittstelle kann z. B. ein Pedal umfassen. Ferner ist in einer Ausführungsform die Akkordschnittstelle 91 eine Nutzerschnittstelle zur Eingabe eines Akkordrasters und/oder zum Auswählen eines Akkordrasters aus einer Akkordrasterdatenbank. Ferner kann eine Musikausgangsschnittstelle, z. B. ein Lautsprecher, vorgesehen sein, der in der Lage ist, die erzeugte Musikbegleitung auszugeben.
  • Grundsätzlich entscheidet der Musiker (oder jemand anderes) im Voraus, welcher Akkordabfolge gefolgt werden soll und welche Akkorde zu spielen sind. In einer anderen Ausführungsform ist jedoch eine Einheit vorgesehen, die ausgestaltet ist, Audioeingang zu empfangen und ihn als einen bestimmten Akkord des Akkordrasters zu klassifizieren. Ferner kann in einer Ausführungsform eine Einheit zum Speichern empfangener und erzeugter Musik vorgesehen sein.
  • 11 zeigt ein Flussdiagramm eines entsprechenden Verfahrens zur Erzeugung einer Echtzeitmusikbegleitung gemäß der vorliegenden Offenbarung. In einem ersten Schritt S10 wird ein Akkordraster mit einer Vielzahl von Akkorden empfangen. In einem zweiten Schritt S11 wird wenigstens ein Akkord des an der Akkordschnittstelle empfangenen Akkordrasters empfangen, wobei der wenigstens eine Akkord vorzugsweise von einem Musiker gespielt ist. In einem dritten Schritt S12 wird eine Echtzeitmusikbegleitung automatisch erzeugt basierend auf dem gespielten, an der Akkordschnittstelle empfangenen Akkordraster und dem wenigstens einen gespielten Akkord des Akkordrasters, vorzugsweise sogar, wenn weniger als alle Akkorde des Akkordrasters gespielt und empfangen werden an der Musikschnittstelle, durch Transformieren eines oder mehrerer des wenigstens einen gespielten Akkords in die verbleibenden Akkorde des Akkordrasters. Die offenbarte Musikbegleitung wird also vorzugsweise erzeugt aus einem unvollständigen Akkordsatz, aber die offenbarte Vorrichtung und das offenbarte Verfahren können grundsätzlich auch nützlich sein zum Substituieren von Akkorden, sogar wenn es einen geeigneten voraufgezeichneten Akkord gibt, um die Hörerfahrung durch Erzeugung von unerwarteten Tönen zu verbessern.
  • Im Folgenden wird eine Beschreibung einer verallgemeinernden Harmonisierungsvorrichtung im Kontext von improvisierter klanglicher Musik bereitgestellt, wie etwa, aber nicht beschränkt auf Bebop-Jazz. In diesem Kontext wird eine Akkordabfolge (auch als ”Akkordraster” hierin bezeichnet) entschieden vor dem Start der tatsächlichen Improvisation, vielleicht durch Auswahl aus einer in einer entsprechenden Nutzerschnittstelle dargestellten Liste. Die Akkordabfolge definiert diese Harmonie jedes Taktes des Stückes. Während der Improvisation spielen einer oder mehrere Musiker zusammen, wobei sie den durch die Akkordabfolge spezifierten Harmonien folgen. Typischerweise spielt einer der Musiker eine Begleitung, bspw. Akkorde, während ein anderer simultan eine Solomelodie spielt in der gleichen Harmonie.
  • Grundsätzlich erzeugt eine Harmonisierungsvorrichtung eine Begleitung für einen oder mehrere Musiker, die auf einer vorbestimmten Akkordabfolge improvisieren. Die Begleitung passt zu der Harmoniestruktur des entsprechenden Taktes in der Akkordabfolge. Eine Harmonisierungsvorrichtung kann bspw. einen Akkord unter Benutzung eines MIDI-Synthesizers synthetisieren oder voraufgezeichnete Musik wiedergeben.
  • In diesem Kontext behandelt man bekanntermaßen voraufgezeichnete Musik. Vorrichtung nimmt zwei Eingänge: i) eine Akkorddatenbank D von voraufgezeichneten Takten, wobei jeder Takt eine spezifische Harmoniestruktur hat, und ii) eine Akkordabfolge P. Eine bekannte Vorrichtung gibt eine Musikbegleitung mit einer Abfolge an voraufgezeichneten Takten von D aus. Die Begleitung ist dafür vorgesehen, während einer Improvisation wiedergegeben zu werden. Es soll angemerkt werden, dass Tempodinge hierin vernachlässigt werden. Ferner soll angenommen werden, dass die musikalischen Takte in der Datenbank D vorzugsweise bei demselben Tempo aufgenommen sind wie die der Improvisation.
  • Die folgende Tabelle gibt den Akkordfortschritt eines einfachen Blues an. Jeder Takt enthält einen Akkord, aber einige Fortschritte spezifizieren typischerweise 1, 2, 3, oder 4 Akkorde pro Takt.
    C7 F7 C7 C7
    F7 F7 C7 A7
    D min 7 G7 C7 G7
  • Wenn eine Datenbank Dblues, die fünf Takte b1, ..., b5 enthält, betrachtet wird mit einer entsprechenden Harmoniestruktur C7, F7, A7, D min 7 und G7, wird eine einfache Harmonisierungsvorrichtung die Abfolge an Takten: b1, b2, b1, b1, b2, b2, b1, b3, b4, b5, b1, b5 während der Improvisation wiedergeben. In diesem Fall wird die Datenbank Dblues als vollständig in Bezug auf die Akkordabfolge Pblues bezeichnet, da es für jeden Akkord in Pblues einen entsprechenden Takt in Dblues gibt.
  • Wenn eine unvollständige Datenbank D'blues mit drei Takten b1, b2, b3 mit entsprechenden harmonischen Strukturen C7, F7 und G7 betrachtet wird, wird eine einfache Harmonisierungsvorrichtung die Abfolge von Takten: b1, b2, b1, b1, b2, b2, b1, -, -, b3, b1, b3 während der Improvisation wiedergeben. In dieser Abfolge bedeutet ”-”, dass nichts wiedergegeben wird.
  • In diesem Fall wird die Datenbank D'blues als unvollständig in Bezug auf die Akkordabfolge Pblues bezeichnet, da es nicht für jeden Akkord in Pblues einen entsprechendes Takt in D'blues gibt.
  • Die offenbarte verallgemeinernde Harmonisierungsvorrichtung (GHD; Generalizing Harmonization Device) zielt darauf ab, die oben vorgestellte einfache Harmonisierungsvorrichtung auf unvollständige Datenbanken zu verallgemeinern. Eine GHD benutzt Akkordsubstitutionsregeln und/oder Akkordtranspositionsmechanismen, wie hierin beschrieben, um Begleitungen aus unvollständigen Datenbanken zu erzeugen. Ein Akkord c besteht in diesem Zusammenhang aus einer Grundtonhöhenklasse und einem harmonischen Typ. Dies wird geschrieben als c = (r; t). Beispielsweise hat der Akkord C7 eine Grundtonnote r(C) = C und ist vom Typ t(C) = 7, d. h., C7 = (C; 7).
  • Der Transpositionsmechanismus kann einen existierenden digitalen Signalverarbeitungsalgorithmus verwenden, um die Frequenz eines Audiosignals zu ändern. Der Eingang des Algorithmus ist das Audiosignal eines gespielten Akkords, z. B. C maj, und eine Anzahl an zu transponierenden Halbtönen, z. B. +3. Der Ausgang ist das Audiosignal der gleichen Dauer wie das Eingangsaudiosignal, und sein Inhalt ist ein transponierter Akkord desselben Typs, hier: D# maj, da D# 3 Halbtöne über 0 liegt.
  • τn wird für die Transposition von n Halbtönen geschrieben. Beispielsweise τ–2 eine Transposition von zwei Halbtönen (d. h. einem Ton) nach unten, und τ+3 is eine Transposition von drei Halbtönen (d. h. ein Moll Drittel) nach oben.
  • Transponieren eines musikalischen Signals wird erreicht mit einem bestimmten Verlust an Audioqualität. Der Verlust wächst mit der Differenz an Frequenz zwischen dem Original- und dem Zielsignal. Deshalb kann jede Transposition τs verknüpft werden mit Kosten c(τs), was hauptsächlich von s abhängt. Beispielsweise wird c(s) = |s| benutzt.
  • Es ist eine allgemeine Praxis, speziell im Jazz, Akkordsubstitutionen zu benutzen beim Improvisieren. Substituieren eines Akkords auf einen anderen ist ein Weg, Variation zu erhöhen und Neuheit bei einer Darbietung zu kreieren. Die substituierten Akkorde haben eine gemeinsame harmonische Qualität mit dem Originalakkord, bspw. können sie im Allgemeinen mehrere Noten gemeinsam haben und der Bass des Originalakkords gehört im Allgemeinen zu dem substituierten Akkord. Eine Substitutionsregel ist eine abstrakte Operation, die sich nicht auf den Audioinhalt auswirkt. Stattdessen kann sie als eine nur neuschreibende Regel betrachtet werden.
  • Beispielsweise sagt die Regel σ1 (wie in 12 gezeigt) aus, dass, wenn der Akkordfortschritt einen C7-Akkord erfordert, stattdessen ein G min 7 Akkord gespielt werden kann. Allgemeiner sagt σ1 aus, dass irgendein Akkord des Typs 7 substituiert werden kann durch einen Akkord des Typs min 7, dessen Grundton ein Fünftel hoher ist als das des Originalakkords (wie z. B. beschrieben in Pachet, F., Surprising Harmonies. International Journal of Computing Anticipatory Systems, 4. Februar 1999).
  • Die Regeln sind alle mit einem linken Teil in C geschrieben, d. h., der Akkord links hat Tonhöhenklasse C als seinen Grundton. Dies ist eine bequeme Art des Schreibens der Regeln. Die Regeln sind jedoch auf jeden Grundton anwendbar, nicht nur C. In anderen Worten, jede Regel repräsentiert einen Satz von 12 Regeln, eine für jeden Grundton für den linken Akkord. Die 12 Regeln können leicht durch Transponieren des rechten Akkords, wie in 13 gezeigt, gefunden werden.
  • σi(c) wird geschrieben, um den durch Anwendung der Regel σi auf Akkord c erhaltenen Akkord darzustellen. Beispielsweise ist σ1(A7) = E min 7.
  • Jede Akkordsubstitution erzeugt einen unerwarteten Effekt beim Zuhörer. Der Effekt ist mehr oder weniger unerwartet, abhängig von der angewandten Substitutionsregel, da einige Substitutionen gewöhnlicher sind als andere und da einige ersetzte Akkorde mehr harmonische Qualitäten mit dem Originalakkord teilen als andere. Jede Substitutionsregel σi ist verknüpft mit Kosten c(σi), die diese bedingen.
  • Eine Akkordtransformation ist bevorzugt die Komposition einer einzelnen Akkordsubstitution mit einer einzelnen Akkordtransposition. Bei irgendwelchen gegebenen zwei Akkorden c1 = (r1, t1) und c2 = (r2, t2), hat jede Transformation τj ° σi von c1 auf c2 hat Kosten c(τj) + c(σi).
  • Eine verallgemeinernde Harmonisierungsvorrichtung erzeugt Begleitungen für eine Akkordabfolge und aus einer Datenbank voraufgezeichneter Takte, sogar wenn die Datenbank für die als Ziel gesetzte Akkordabfolge nicht vollständig ist. Für die Akkorde in der Akkordabfolge, die keinen entsprechenden Takt in der Datenbank haben, nutzt die GHD Akkordtransformationen, um Inhalte zur Wiedergabe zu erzeugen. Die GHD benutzt Auswahlalgorithmen, um die besten Transformationen zur Anwendung für einen gegebenen Akkord auszuwählen.
  • Der Substitutionsregelsatz wird als vollständig mit Bezug auf die Akkordtypen bezeichnet, wenn es für jegliche zwei Akkordtypen t1 und t2 eine Regel σi gibt, deren linker Teil vom Typ t1 und deren rechter Teil vom Typ t2 ist. Der in 12 gezeigte Substitutionsregelsatz ist nicht vollständig, da bspw. Akkorde vom Typ 7 und maj7 nicht substituierbar sind. Aber andere Regeln können hinzugefügt werden, um ihn vollständig zu machen. Wenn der Substitutionsregelsatz vollständig ist mit Bezug auf die Akkordtypen, dann ist die GHD in der Lage, eine vollständige Begleitung für jegliche Akkordabfolgen zu spielen. Andernfalls kann über einigen Akkorden in der Abfolge nicht gespielt werden.
  • In Folgenden werden drei beispielhafte Algorithmen gezeigt, die Primitive zum Erstellen von Anwendungen der verallgemeinernden Harmonisierungsvorrichtung bereitstellen. Algorithmus 1 berechnet und gibt den Satz bestehend aus den besten Transformationen eines Akkords C1 in einen anderen Akkord C2 bei einem gegebenen Satz Σ von Substitutionen zurück. In dem Algorithmus bezeichnet r(Ci) diee Grundtonnote des Akkords Ci und t(Ci) bezeichnet ihren Typ.
  • Figure DE112013005807T5_0002
  • Algorithmus 2 benutzt Algorithmus 1 und berechnet die Minimalkosten, um einen Akkord C1 in einen Akkord C2 umzuformen.
  • Figure DE112013005807T5_0003
  • Algorithmus 3 nimmt zwei Eingänge: 1) einen Zielakkord c und 2) eine Datenbank D = {C1, ..., Cn} von voraufgezeichneten Takten. Er berechnet den Satz bestehend aus allen Paaren < C1, τ ° σ > so dass Ci ∊ D, τ ° σ(Ci) = C und dass die Kosten c(τ ° σ) minimal sind.
  • Figure DE112013005807T5_0004
  • Die verallgemeinernde Harmonisierungsvorrichtung kann in verschiedenen praktischen Zusammenhängen benutzt werden. Beispielsweise ist in einigen Anwendungszusammenhängen eine Datenbank aufgezeichneter Akkorde verfügbar, bevor die Improvisation startet. In anderen Anwendungszusammenhängen kann die Datenbank während der Improvisationsphase aufgezeichnet werden. Diese unterschiedlichen Zusammenhänge erfordern unterschiedliche Strategien für die Erzeugung einer Begleitung durch die verallgemeinernde Harmonisierungsvorrichtung.
  • Im einfachsten Fall ist eine Datenbank an voraufgezeichneten Akkorden verfügbar, und keine Einschränkung ist auf die Transformationskosten eingestellt. In diesem Fall kann eine kostenoptimale vollständige Begleitung erzeugt werden mit der folgenden unkomplizierten Strategie: Für jeden Akkord in the Abfolge, spiele einen der besten verfügbaren Akkorde ab, wobei Algorithmus 3 zur Bestimmung der ”besten” Akkorde benutzt wird. Diese Strategie garantiert, dass die Begleitung die Transformationskosten bei jedem Takt minimiert. Algorithmus 4 implementiert diese Strategie:
    Figure DE112013005807T5_0005
  • Wenn eine Einschränkung hinsichtlich der Kosten vorliegt, z. B. die Transformationskosten eine Schwelle nicht überschreiten können, kann eine vollständige Begleitung nicht notwendigerweise erzeugt werden. Hier ist eine Strategie, die eine beispielhafte Begleitung, die nicht vollständig ist, erzeugt, aber garantiert, dass die Transformationskosten niemals den Schwellwert überschreiten. Sie besteht darin, einen der besten verfügbaren Akkorde wiederzugeben, wenn die Kosten unterhalb der Kostenschwelle sind, und andernfalls nichts wiederzugeben unter Benutzung von Algorithm 5:
    Figure DE112013005807T5_0006
  • Verallgemeinernde Harmonisierungsvorrichtungen können auf reflexive Schleifenpedale angewandt werden. In diesem Fall ermöglicht es einem reflexiven Schleifenpedal, in einer viel flexibleren und unterhaltsameren Art und Weise benutzt zu werden durch Reduzierung der Fütterungsphase um einen beträchtlichen Zeitumfang.
  • Im Kontext eines reflexiven Schleifenpedals kann ein Musiker auf einer Akkordabfolge improvisieren. Die Takte, während derer der Musiker Akkorde spielt, können von dem reflexiven Schleifenpedal aufgenommen werden, um eine Datenbank zu füttern. Die Takte in der Datenbank können von dem reflexiven Schleifenpedal wiedergegeben werden, wenn der Musiker eine Solomelodie (oder Bass) spielt, um eine harmonische Unterstützung oder Begleitung für das Solo bereitzustellen. In diesem Kontext spielt das Schleifenpedal, für einen gegebenen Takt in der Akkordabfolge, eine Begleitung nur dann, wenn die Datenbank wenigstens einen Takt mit der entsprechenden harmonischen Struktur enthält. Um sicherzustellen, dass ein konventionelles Schleifenpedal eine vollständige Begleitung bereitstellen wird, muss der Musiker anfangen durch Füttern der Datenbank mit wenigstens einem Akkord für jede in der Akkordabfolge vorhandene harmonische Struktur. Dies kann ein Gefühl von Langeweile für den Musiker sowie für die Zuhörer ergeben.
  • Beispielsweise, wenn man John Coltrane's Giant Steps betrachtet, ist eine Akkordabfolge, die besonders komplex ist, in der untenstehenden Tabelle gezeigt.
    B maj7 D7 G maj7 Bb7 Ebmaj7 A min7 D7
    G maj7 Bb7 Eb maj7 F#7 B maj7 F min 7 Bb7
    Eb maj7 A min 7 D7 G maj7 C# min 7 F#7
    B maj7 F min 7 Bb7 Eb maj7 C# min 7 F#7
  • Giant Steps ist eine 16-taktige Abfolge mit 9 unterschiedlichen Akkorden: B maj7, D7, G maj7, Bb7, Eb maj7, A min 7, F#7, F min 7, und C# min 7. Darüber hinaus hat beinahe jeder Takt eine eigene harmonische Struktur in diesem Stück. Deshalb muss der Musiker, um eine vollständige Begleitung von Giant Steps sicherzustellen, Akkorde spielen während der meisten Takte einer vollständigen Ausführung der Akkordabfolge. Es wird nun gezeigt werden, dass es eine GHD gemäß der vorliegenden Offenbarung ermöglichen kann, dass die Fütterungsphase dramatisch reduziert wird.
  • Im Zusammenhang mit einem reflexiven Schleifenpedal können komplexere Begleitungstrategien implementiert werden, da der Musiker der durch das Stück definierten Akkordabfolge von links nach rechts folgen muss. Betrachtet werden soll die Akkordabfolge PGS, die in der obigen Tabelle gezeigt ist. Der Musiker beginnt zu improvisieren auf diese Akkordabfolge mit einer leeren Datenbank DGS. Hier ist ein Szenario, das dem Musiker erlaubt, eine vollständige Begleitung von der GHD zu bekommen:
    • • Der Musiker spielt einen Akkord C1 auf dem ersten Akkord der Abfolge B maj7. Dieser Akkord wird in der Datenbank D aufgezeichnet.
    • • Es gibt keine Substitution in Σref, die einen Akkord vom Typ maj7 substituiert in einen 7-Typ Akkord. Deshalb gibt es keine Transformation, die den einzig aufgezeichneten Akkord C1 in D7 transformiert. Deshalb muss der Musiker einen Akkord C2 während der zweiten Hälfte des ersten Taktes (entsprechend D7) spielen. C2 wird auch in der Datenbank aufgezeichnet.
    • • Die zwei Akkorde des zweiten Taktes von PGS sind nur Transpositionen der Akkorde des ersten Taktes durch ein absteigendes Durdrittel. Deshalb können die Akkorde C1 und C2 von der GHD nach Anwendung von τ–4 wiedergegeben werden. Die Kosten sind deshalb 4 für jeden Akkord des Taktes 2.
    • • Im Takt 3 wird Eb maj7 erhalten durch Anwendung von τ–4 auf C1. Die Kosten sind 4.
    • • A min 7 im Takt 4 ist eine Substitution von G ma j7 durch Regel σ25, selbst erhalten als eine Transposition von C1 durch τ–4. Deshalb wird die GHD τ–4 ° σ25(C1) wiedergeben. Die Kosten sind 4 + 1 = 5.
    • • D7 im Takt 4 ist C2.
    • • Takt 5 ist identisch zu Takt 2.
    • • Es ist leicht zu sehen, dass der Rest der Akkordabfolge erhalten werden kann aus C1 und C2.
  • In dem obigen Szenario wurden nur zwei Akkorde C1 und C2 gespielt, um sicherzustellen, dass die GHD eine vollständige Begleitung spielt. Dieses Szenario macht jedoch keine Beschränkung hinsichtlich der Transformationskosten. Wenn die Transformationskosten begrenzt sind auf, sagen wir mal, 4, kann der Akkord A min 7 im Takt 4 nicht länger durch τ–4 ° σ25(C1) erhalten werden, dessen Kosten 5 sind. Eine weniger teure Transformation ist σ2323:C min 7 → F7, ist äquivalent zu A min 7 → D7 nach Ändern der Grundtöne. Deshalb kann die GHD C2 während der ersten Hälfte des Taktes 4 spielen. Die entsprechenden Kosten sind c(σ23) = 1.
  • Das Beispiel und Szenario oben werfen eine Frage auf: bei gegebenen maximalen Kosten cmax bei einer Akkordabfolge, was ist die Strategie, die die Anzahl an Akkorden minimiert, die gespielt werden müssen von dem Musiker, um eine vollständige Begleitung unter Benutzung nur einer Transformation mit Kosten unterhalb cmax sicherzustellen? Dies ist tatsächlich ein komplexes kombinatorisches (z. B. NP-hartes, wie Computerwissenschaftlern bekannt) Problem, das sich erwiesen hat als äquivalent zu einem allgemeinen Satzbezug (”general set covering”), was nicht in vernünftiger Zeit durch irgendeinen bekannten Algorithmus (es sei denn P = NP) bestimmt werden kann.
  • Es wird deshalb vorgeschlagen, einem gierigen Ansatz zu folgen, um eine suboptimale Lösung in Echtzeit zu finden. Algorithmus 6 berechnet eine Abfolge von Indices. Jeder Index ist die Position eines Akkords in der Zielakkordabfolge. Es ist ausreichend, dass der Musiker Akkorde bei jeder spezifizierten Position spielt, um sicherzustellen, dass die GHD eine vollständige Begleitung durchführen wird.
  • Figure DE112013005807T5_0007
  • Einige besssere Strategien, d. h. unter Benutzung von weniger Akkorden, könnten erhalten werden durch eine vollständige Suche basierend auf irgendeinem Rückverfolgungsalgorithmus. Der gierige Algorithmus, angewendet auf PGS mit cmax = 3, ergibt die Abfolge (1, 2, 3, 5). Die folgende Tabelle zeigt die entsprechende Ausführung mit den benutzten Transformationen und ihren entsprechenden Kosten. Der Musiker muss Akkorde spielen, sagen wir mal c1, c2, c3, und c4 (in fett angezeigt in der Tabelle) auf Positionen 1, 2, 3 und 5 in der Akkordabfolge, d. h., B maj7, D7, G maj7 und Eb maj7. Transformationen auf c1, c2, c3, und c4 werden dann benutzt von der GHD, um Akkorde auf dem Rest der Abfolge zu spielen. Der Musiker kann deshalb eine Solomelodie über der Begleitung spielen. Die Fütterungsphase ist reduziert auf zweieinhalb Takte.
  • Figure DE112013005807T5_0008
  • Der gierige Algorithmus, angewendet auf PGS mit cmax = 4, ergibt die Sequenz (1, 2). Die folgende Tabelle zeigt die entsprechende Ausführung mit den benutzten Transformationen und ihren entsprechenden Kosten. Der Musiker muss Akkorde spielen, sagen wir mal c1 und c2, auf den ersten zwei Positionen in der Akkordabfolge, d. h. B maj7 und D7. Transformationen von c1 und c2 werden dann von der GHD dazu benutzt, Akkorde auf dem Rest der Abfolge zu spielen/erzeugen. Der Musiker kann deshalb eine Solomelodie über der Begleitung spielen. Die Fütterungsphase ist reduziert auf einen Takt.
  • Figure DE112013005807T5_0009
  • Zusammenfassend beschreibt die vorliegende Offenbarung eine einfache Vorrichtung und ein einfaches Verfahren, die vorzugsweise Audiotransformationen und/oder musikalische Akkordsubstitutionsregeln benutzen, um eine reiche Harmonisierung und/oder Musikechtzeitbegleitungen aus unvollständigem Audiomaterial durchzuführen. Echtzeit in diesem Kontext ist nicht begrenzt auf Situationen, in denen der Akkord (die Akkorde) live von dem Musiker gespielt wird (werden), sondern kann alternativ in einer Fütterungsphase zur Bereitstellung von ein paar voraufgezeichneten Takten gespielt werden. Einige oder alle der Transformationen können schon im Voraus ebenfalls berechnet werden und die tatsächliche ”Echtzeit”-Begleitung des Musikers wird tatsächlich zu einem späteren Zeitpunkt durchgeführt basierend auf dem (den) voraufgezeichneten Akkord(en). Ferner sollen Situationen, in denen das System in der Lage sein kann, eine Begleitung zu beginnen, nachdem es nur wenige Takte empfangen hat, so dass es noch eine Verzögerung von wenigen Takten geben würde, verstanden werden als von den offenbarten Echtzeitbegleitungen abgedeckt.
  • Offensichtlich sind zahlreiche Modifikationen und Variationen der vorliegenden Offenbarung möglich im Lichte der obigen Lehren. Es ist deshalb denkbar, dass innerhalb des Umfangs der beigefügten Patentansprüche die Offenbarung anders ausgeführt werden kann als spezifisch hierin beschrieben ist.
  • In den Patentansprüchen schließt das Wort ”aufweisend” nicht andere Elemente oder Schritte aus, und der unbestimmte Artikel „ein” oder ”eine” schließt nicht eine Vielzahl aus. Ein einzelnes Element oder andere Einheit können die Funktionen vpn mehreren in den Ansprüchen genannten Elementen erfüllen. Die bloße Tatsache, dass bestimmte Maßnahmen in wechselweise unterschiedlichen abhängigen Patentansprüchen aufgeführt sind, zeigt nicht an, dass eine Kombination dieser Maßnahmen nicht vorteilhaft benutzt werden kann.
  • Soweit Ausführungsformen der Offenbarung beschrieben sind als implementiert, zumindest teilweise, durch eine Software-gesteuerte Datenverarbeitungsvorrichtung, wird gewürdigt, dass ein nicht-flüchtiges maschinen-lesbares Medium, das eine solche Software trägt, wie etwa eine optische Scheibe, eine magnetische Scheibe, ein Halbleiterspeicher oder dergleichen, auch betrachtet wird, eine Ausführungsform der vorliegenden Offenbarung zu repräsentieren. Ferner kann eine solche Software auch in anderen Formen vertrieben werden, wie etwa über das Internet oder andere verdrahtete oder drahtlose Telekommunikationssysteme.
  • Die Elemente der offenbarten Vorrichtungen, Geräte und Systeme können implementiert werden durch entsprechende Hardware- und/oder Softwareelemente, bspw. geeignete Schaltungen. Eine Schaltung ist ein struktureller Verbund elektronischer Komponenten einschließlich konventioneller Schaltelemente, integrierter Schaltungen einschließlich Anwendungs-spezifischer integrierter Schaltungen, Standard-integrierter Schaltungen, Anwendungs-spezifischer Standardprodukte und Feld-programmierbarer Gatterfelder. Ferner schließt eine Schaltung zentrale Verarbeitungseinheiten, grafische Verarbeitungseinheiten und Microprozessoren ein, die programmiert oder ausgestaltet sind gemäß Softwarecode. Eine Schaltung schließt nicht eine reine Software aus, obwohl eine Schaltung die oben beschriebene Hardware, die Software ausführt, umfasst.
  • Jegliche Bezugszeichen in den Patentansprüchen sollen nicht als schutzeinschränkend ausgelegt werden.
  • Es folgt eine Liste weiterer Ausführungsformen:
    • 1. Vorrichtung zur Erzeugung einer Echtzeitmusikbegleitung, wobei die Vorrichtung aufweist:
    • – eine Musikeingangsschnittstelle, die von einem Musiker gespielte Musikstücke empfängt,
    • – einen Musikmodenklassifizierer, der an der Musikeingangsschnittstelle empfangene Musikstücke klassifiziert in eines von verschiedenen Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode,
    • – einen Musikauswähler, der eines oder mehrere aufgezeichnete Musikstücke auswählt als Echtzeitmusikbegleitung für ein tatsächlich gespieltes Musikstück, das an der Musikeingangsschnittstelle empfangen wird, wobei das eine oder die mehreren ausgewählten Musikstücke ausgewählt werden, in einem unterschiedlichen Musikmode zu sein als das tatsächlich gespielte Musikstück, und
    • – eine Musikausgangsschnittstelle, die die ausgewählten Musikstücke ausgibt.
    • 2. Vorrichtung wie in Ausführungsform 1 definiert, ferner aufweisend einen Musikanalysierer, der ein empfangenes Musikstück analysiert, um eine Musikstückbeschreibung mit einer oder mehreren Charakteristiken des analysierten Musikstücks zu erhalten, und wobei der Musikauswähler ausgestaltet ist, die Musikstückbeschreibung eines tatsächlich gespielten Musikstücks und von aufgezeichneten Musikstücken berücksichtigt bei der Auswahl des einen oder der mehreren aufgezeichneten Musikstücke als Echtzeitmusikbegleitung.
    • 3. Vorrichtung wie in irgendeiner vorstehenden Ausführungsform definiert, wobei die Vorrichtung ausgestaltet ist, die Musikstückbeschreibung zusammen mit dem entsprechenden Musikstück aufzuzeichnen.
    • 4. Vorrichtung wie in irgendeiner vorstehenden Ausführungsform definiert, wobei der Musikanalysierer ausgestaltet ist, eine Musikstückbeschreibung zu erhalten mit einen oder mehreren von Tonhöhe, Takt, Tonart, Tempo, Energieverteilung, durchschnittliche Energie, Energiespitzen, Anzahl an Spitzen, spektraler Schwerpunkt, Energielevel, Stil, Akkorde, Lautstärke, Notendichte, Anzahl an Noten, mittlere Tonhöhe, mittleres Intervall, höchste Tonhöhe, niedrigste Tonhöhe, Tonhöhenvielfalt, Harmoniedauer, Melodiedauer, Intervalldauer, Akkordsymbole, Skalen, Akkordverlängerungen, relative Grundtöne, Zone, Instrumenttyp(en) und Melodie eines analysierten Musikstücks.
    • 5. Vorrichtung wie in irgendeiner vorstehenden Ausführungsform definiert, wobei die Musikeingangsschnittstelle eine Midischnittstelle und/oder eine Audioschnittstelle zum Empfang der Musikstücke im Midiformat und/oder im Audioformat aufweist.
    • 6. Vorrichtung wie in irgendeiner vorstehenden Ausführungsform definiert, wobei der Musikmodenklassifizierer ausgestaltet ist, Musikstücke im Midiformat zu klassifizieren.
    • 7. Vorrichtung wie in Ausführungsform 2 definiert, wobei der Musikanalysierer ausgestaltet ist, Musikstücke im Audioformat zu analysieren.
    • 8. Vorrichtung wie in Ausführungsform 2 definiert, wobei der Musikspeicher ausgestaltet ist, Musikstücke im Audioformat aufzuzeichnen.
    • 9. Vorrichtung wie in Ausführungsform 2 definiert, ferner aufweisend eine Akkordschnittstelle, die ausgestaltet ist, ein Akkordraster mit einer Vielzahl von Akkorden zu empfangen oder auszuwählen, wobei der Musikanalysierer ausgestaltet ist, eine Musikstückbeschreibung mit wenigstens den Akkorden des Beats des analysierten Musikstücks zu erhalten, und wobei der Musikauswähler ausgestaltet ist, das empfangene oder ausgewählte Akkordraster eines tatsächlich gespielten Musikstücks und die Musikstückbeschreibung von aufgezeichneten Musikstücken zu berücksichtigen bei der Auswahl eines oder mehrerer aufgezeichneter Musikstücke als Echtzeitmusikbegleitung.
    • 10. Vorrichtung wie in irgendeiner vorstehenden Ausführungsform definiert, ferner umfassend eine Temposchnittstelle, die ausgestaltet ist, ein Tempo von gespielter Musik zu empfangen und auszuwählen, wobei der Musikauswähler ausgestaltet ist, das empfangene oder ausgewählte Tempo eines tatsächlich gespielten Musikstücks zu berücksichtigen bei der Auswahl des einen oder der mehreren Musikstücke als Echtzeitmusikbegleitung.
    • 11. Vorrichtung wie in irgendeiner vorstehenden Ausführungsform definiert, ferner umfassend einen Controller, der die Vorrichtung steuert, um Umzuschalten zwischen der Aufnahmephase und der Wiedergabephase.
    • 12. Vorrichtung wie in Ausführungsform 11 definiert, wobei die Musikeingangsschnittstelle ausgestaltet ist, von einem Musiker in unterschiedlichen Musikmoden, Tempos und/oder Gefühlen in der Aufnahmephase zu empfangen, wobei die Vorrichtung ausgestaltet ist, an der Musikeingangsschnittstelle empfangene Musikstücke zusammen mit dem entsprechenden Mode, Tempo und/oder Gefühl in der Aufnahmephase aufzuzeichnen.
    • 13. Vorrichtung wie in Ausführungsform 11 definiert, wobei die Musikeingangsschnittstelle ausgestaltet ist, einen oder mehrere Akkorde oder Takte an Musik als Musikstücke in der Aufnahmephase zu empfangen, und wobei der Musikauswähler ausgestaltet ist, ausgewählte Musikstücke als Echtzeitbegleitung basierend auf den empfangenen einen oder mehreren Akkorden oder Takten in der Wiedergabephase zu synthetisieren.
    • 14. Vorrichtung wie in irgendeiner vorstehenden Ausführungsform definiert, wobei der Controller eine Benutzerschnittstelle aufweist, die einem Benutzer erlaubt, zwischen der Aufnahmephase und der Wiedergabephase umzuschalten.
    • 15. Vorrichtung wie in Ausführungsform 14 definiert, wobei die Benutzerschnittstelle ein Pedal aufweist.
    • 16. Vorrichtung wie in irgendeiner vorstehenden Ausführungsform definiert, ferner aufweisend einen Musikspeicher, der an der Musikeingangsschnittstelle empfangene Musikstücke zusammen mit ihrem klassifizierten Musikmode aufzeichnet, wobei der Musikauswähler ausgestaltet ist, eines oder mehrere Musikstücke aus den in dem Musikspeicher aufgezeichneten Musikstücken als Echtzeitmusikbegleitung auszuwählen.
    • 17. Vorrichtung wie in irgendeiner vorstehenden Ausführungsform definiert, ferner aufweisend eine Musikaustauschschnittstelle, die ausgestaltet ist, an der Musikeingangsschnittstelle empfangene Musikstücke zusammen mit ihrem klassifizierten Musikmode in einem externen Musikspeicher aufzuzeichnen, wobei der Musikauswähler ausgestaltet ist, über die Musikaustauschschnittstelle eines oder mehrere Musikstücke von den in dem externen Musikspeicher aufgezeichneten Musikstücken als Echtzeitmusikbegleitung auszuwählen.
    • 18. Vorrichtung zum Aufzeichnen von Musikstücken zur Benutzung bei der Erzeugung einer Echtzeitmusikbegleitung, wobei die Vorrichtung aufweist:
    • – eine Musikeingangsschnittstelle, die von einem Musiker gespielte Musikstücke empfängt,
    • – einen Musikmodenklassifizierer, der an der Musikeingangsschnittstelle empfangene Musikstücke klassifiziert in eines von mehreren Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode,
    • – einen Aufzeichner, der an der Musikeingangsschnittstelle empfangene Musikstücke aufzeichnet zusammen mit dem klassifizierten Musikmode.
    • 19. Verfahren zur Erzeugung einer Echtzeitmusikbegleitung, wobei das Verfahren aufweist:
    • – Empfangen von von einem Musiker gespielten Musikstücken,
    • – Klassifizieren von empfangenen Musikstücken in eines von mehreren Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode,
    • – Auswählen eines oder mehrerer aufgezeichneter Musikstücke als Echtzeitmusikbegleitung für ein tatsächlich gespieltes Musikstück, wobei das eine oder die mehreren ausgewählten Musikstücke ausgewählt werden, in einem unterschiedlichen Musikmode zu sein als das tatsächlich gespielte Musikstück,
    • – Ausgeben der ausgewählten Musikstücke.
    • 20. Verfahren wie in Ausführungsform 19 definiert, ferner aufweisend den Schritt des Aufzeichnens empfangener Musikstücke zusammen mit dem entsprechenden Musikmode.
    • 21. Verfahren zum Aufzeichnen von Musikstücken zur Benutzung bei der Erzeugung einer Echtzeitmusikbegleitung, wobei das Verfahren aufweist:
    • – Empfangen von von einem Musiker gespielten Musikstücken,
    • – Klassifizieren von empfangenen Musikstücken in eines von mehreren Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode,
    • – Aufzeichnen von empfangenen Musikstücken zusammen mit dem klassifizierten Musikmode.
    • 22. Vorrichtung zur Erzeugung einer Echtzeitmusikbegleitung, wobei die Vorrichtung aufweist:
    • – eine Akkordschnittstelle, die ausgestaltet ist, ein Akkordraster mit einer Vielzahl von Akkorden zu empfangen,
    • – eine Musikschnittstelle, die ausgestaltet ist, wenigstens einen Akkord eines Akkordrasters, das an der Akkordschnittstelle empfangen wurde, zu empfangen, und
    • – einen Musikgenerator, der automatisch eine Echtzeitmusikbegleitung erzeugt basierend auf dem an der Akkordschnittstelle empfangenen Akkordraster und dem wenigstens einem gespielten Akkord des Akkordrasters durch Transformieren eines oder mehrerer des wenigstens einen gespielten Akkords in die verbleibenden Akkorde des Akkordrasters.
    • 23. Vorrichtung wie in Ausführungsform 22 definiert, wobei der Musikerzeuger ausgestaltet ist, die Echtzeitmusikbegleitung automatisch zu erzeugend basierend auf dem an der Akkordschnittstelle empfangenen Akkordraster und einem einzelnen gespielten Akkord oder Takt des Akkordrasters durch Transformieren des einzelnen gespielten Akkords oder Taktes in die verbleibenden Akkorde des Akkordrasters.
    • 24. Vorrichtung wie in irgendeiner der Ausführungsformen 22 bis 23 definiert, wobei die Musikschnittstelle ausgestaltet ist, einen einzelnen gespielten Akkord eines Akkordrasters zu empfangen.
    • 25. Vorrichtung wie in irgendeiner der Ausführungsformen 22 bis 24 definiert, wobei die Musikschnittstelle eine Start-Stopp-Schnittstelle zum Starten und Stoppen des Empfangs von Akkorden, insbesondere von gegenwärtig von einem Musiker gespielten Akkorden, aufweist.
    • 26. Vorrichtung wie in Ausführungsform 25 definiert, wobei die Start-Stopp-Schnittstelle ein Pedal aufweist.
    • 27. Vorrichtung wie in irgendeiner der Ausführungsformen 22 bis 26 definiert, wobei der Musikerzeuger ausgestaltet ist, ein Tonhöhenskalierungsverfahren und/oder ein Akkordsubstitutionsverfahren zu benutzen zum Transformieren eines oder mehrerer des wenigstens einen gespielten Akkords in die verbleibenden Akkorde des Akkordrasters.
    • 28. Vorrichtung wie in irgendeiner der Ausführungsformen 22 bis 27 definiert, wobei die Akkordschnittstelle eine Benutzerschnittstelle ist zum Eingeben eines Akkordrasters und/oder Auswählen eines Akkordrasters aus einer Akkordrasterdatenbank mit einer Vielzahl von Akkordrastern.
    • 29. Vorrichtung wie in irgendeiner der Ausführungsformen 22 bis 28 definiert, wobei der Musikerzeuger ausgestaltet ist, adaptiv die automatische Erzeugung der Echtzeitmusikbegleitung zu erneuern basierend auf während einer Darbietung eines von der Echtzeitmusikbegleitung begleiteten Musikers gespielten Akkorden.
    • 30. Vorrichtung wie in irgendeiner der Ausführungsformen 22 bis 29 definiert, wobei der Musikerzeuger ausgestaltet ist, die Anzahl und/oder Reichweite von Transformationen zu minimieren.
    • 31. Vorrichtung wie in irgendeiner der Ausführungsformen 22 bis 30 definiert, wobei der Musikerzeuger ausgestaltet ist, Akkordsubstitution anzuwenden, um einen oder mehrere des wenigstens einen gespielten Akkords in einen oder mehrere der verbleibenden Akkorde des Akkordrasters zu substituieren.
    • 32. Vorrichtung wie in irgendeiner der Ausführungsformen 22 bis 31 definiert, wobei der Musikerzeuger ausgestaltet ist, auf eine Akkorddatenbank mit einer Vielzahl an voraufgezeichneten Akkorden zuzugreifen, um einen oder mehrere Akkorde basierend auf dem an der Akkordschnittstelle empfangenen Akkordraster und dem wenigstens einen gespielten Akkord des Akkordrasters auszuwählen.
    • 33. Vorrichtung wie in irgendeiner der Ausführungsformen 32 bis 33 definiert, wobei der Musikerzeuger ausgestaltet ist, einen oder mehrere des wenigstens einen gespielten Akkords in die verbleibenden Akkorde des Akkordrasters zu transformieren, ohne eine vorbestimmte Transformationskostenschwelle zu überschreiten.
    • 34. Vorrichtung wie in irgendeiner der Ausführungsformen 22 bis 33 definiert, wobei der Musikerzeuger ausgestaltet ist, die Echtzeitmusikbegleitung automatisch zu erzeugen basierend auf dem an der Akkordschnittstelle empfangenen Akkordraster und dem wenigstens einen gespielten Akkord des Akkordrasters, sogar wenn weniger als alle Akkorde des Akkordrasters gespielt und an der Musikschnittstelle empfangen werden.
    • 35. Verfahren zur Erzeugung einer Echtzeitmusikbegleitung, wobei das Verfahren aufweist:
    • – Empfangen eines Akkordrasters mit einer Vielzahl von Akkorden,
    • – Empfangen wenigstens eines Akkordes eines Akkordrasters, das an der Akkordschnittstelle empfangen wurde, und
    • – automatisches Erzeugen einer Echtzeitmusikbegleitung basierend auf dem an der Akkordschnittstelle empfangenen Akkordraster und dem wenigstens einen gespielten Akkord des Akkordrasters durch Transformieren eines oder mehrerer des wenigstens einen gespielten Akkords in die verbleibenden Akkorde des Akkordrasters.
    • 36. Computerprogramm umfassend Programmcodemittel zur Veranlassung eines Computers, die Schritte des Verfahrens wie definiert in Ausführungsformen 19, 21 oder 35 durchzuführen, wenn das Computerprogramm auf einem Computer ausgeführt wird.
    • 37. Nicht-flüchtiges Computer-lesbares Aufzeichnungsmedium, das darin ein Computerprogrammprodukt speichert, welches, wenn es von einem Prozessor ausgeführt wird, verursacht, dass das Verfahren gemäß Anspruch 19, 21 oder 35 ausgeführt wird.

Claims (20)

  1. Vorrichtung zur Erzeugung einer Echtzeitmusikbegleitung, wobei die Vorrichtung aufweist: – eine Musikeingangsschnittstelle, die von einem Musiker gespielte Musikstücke empfängt, – einen Musikmodenklassifizierer, der an der Musikeingangsschnittstelle empfangene Musikstücke klassifiziert in eines von verschiedenen Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode, – einen Musikauswähler, der eines oder mehrere aufgezeichnete Musikstücke auswählt als Echtzeitmusikbegleitung für ein tatsächlich gespieltes Musikstück, das an der Musikeingangsschnittstelle empfangen wird, wobei das eine oder die mehreren ausgewählten Musikstücke ausgewählt werden, in einem unterschiedlichen Musikmode zu sein als das tatsächlich gespielte Musikstück, und – eine Musikausgangsschnittstelle, die die ausgewählten Musikstücke ausgibt.
  2. Vorrichtung wie in Anspruch 1 beansprucht, ferner aufweisend einen Musikanalysierer, der ein empfangenes Musikstück analysiert, um eine Musikstückbeschreibung mit einer oder mehreren Charakteristiken des analysierten Musikstücks zu erhalten, und wobei der Musikauswähler ausgestaltet ist, die Musikstückbeschreibung eines tatsächlich gespielten Musikstücks und von aufgezeichneten Musikstücken berücksichtigt bei der Auswahl des einen oder der mehreren aufgezeichneten Musikstücke als Echtzeitmusikbegleitung.
  3. Vorrichtung wie in Anspruch 1 beansprucht, wobei die Vorrichtung ausgestaltet ist, die Musikstückbeschreibung zusammen mit dem entsprechenden Musikstück aufzuzeichnen.
  4. Vorrichtung wie in Anspruch 1 beansprucht, wobei der Musikanalysierer ausgestaltet ist, eine Musikstückbeschreibung zu erhalten mit einen oder mehreren von Tonhöhe, Takt, Tonart, Tempo, Energieverteilung, durchschnittliche Energie, Energiespitzen, Anzahl an Spitzen, spektraler Schwerpunkt, Energielevel, Stil, Akkorde, Lautstärke, Notendichte, Anzahl an Noten, mittlere Tonhöhe, mittleres Intervall, höchste Tonhöhe, niedrigste Tonhöhe, Tonhöhenvielfalt, Harmoniedauer, Melodiedauer, Intervalldauer, Akkordsymbole, Skalen, Akkordverlängerungen, relative Grundtöne, Zone, Instrumenttyp(en) und Melodie eines analysierten Musikstücks.
  5. Vorrichtung wie in Anspruch 2 beansprucht, ferner aufweisend eine Akkordschnittstelle, die ausgestaltet ist, ein Akkordraster mit einer Vielzahl von Akkorden zu empfangen oder auszuwählen, wobei der Musikanalysierer ausgestaltet ist, eine Musikstückbeschreibung mit wenigstens den Akkorden des Beats des analysierten Musikstücks zu erhalten, und wobei der Musikauswähler ausgestaltet ist, das empfangene oder ausgewählte Akkordraster eines tatsächlich gespielten Musikstücks und die Musikstückbeschreibung von aufgezeichneten Musikstücken zu berücksichtigen bei der Auswahl eines oder mehrerer aufgezeichneter Musikstücke als Echtzeitmusikbegleitung.
  6. Vorrichtung wie in Anspruch 1 beansprucht, ferner umfassend eine Temposchnittstelle, die ausgestaltet ist, ein Tempo von gespielter Musik zu empfangen und auszuwählen, wobei der Musikauswähler ausgestaltet ist, das empfangene oder ausgewählte Tempo eines tatsächlich gespielten Musikstücks zu berücksichtigen bei der Auswahl des einen oder der mehreren Musikstücke als Echtzeitmusikbegleitung.
  7. Vorrichtung wie in Anspruch 1 beansprucht, ferner umfassend einen Controller, der die Vorrichtung steuert, um Umzuschalten zwischen der Aufnahmephase und der Wiedergabephase.
  8. Vorrichtung zum Aufzeichnen von Musikstücken zur Benutzung bei der Erzeugung einer Echtzeitmusikbegleitung, wobei die Vorrichtung aufweist: – eine Musikeingangsschnittstelle, die von einem Musiker gespielte Musikstücke empfängt, – einen Musikmodenklassifizierer, der an der Musikeingangsschnittstelle empfangene Musikstücke klassifiziert in eines von mehreren Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode, – einen Aufzeichner, der an der Musikeingangsschnittstelle empfangene Musikstücke aufzeichnet zusammen mit dem klassifizierten Musikmode.
  9. Verfahren zur Erzeugung einer Echtzeitmusikbegleitung, wobei das Verfahren aufweist: – Empfangen von von einem Musiker gespielten Musikstücken, – Klassifizieren von empfangenen Musikstücken in eines von mehreren Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode, – Auswählen eines oder mehrerer aufgezeichneter Musikstücke als Echtzeitmusikbegleitung für ein tatsächlich gespieltes Musikstück, wobei das eine oder die mehreren ausgewählten Musikstücke ausgewählt werden, in einem unterschiedlichen Musikmode zu sein als das tatsächlich gespielte Musikstück, – Ausgeben der ausgewählten Musikstücke.
  10. Verfahren zum Aufzeichnen von Musikstücken zur Benutzung bei der Erzeugung einer Echtzeitmusikbegleitung, wobei das Verfahren aufweist: – Empfangen von von einem Musiker gespielten Musikstücken, – Klassifizieren von empfangenen Musikstücken in eines von mehreren Musikmoden umfassend wenigstens einen Solomode, einen Bassmode und einen Harmoniemode, – Aufzeichnen von empfangenen Musikstücken zusammen mit dem klassifizierten Musikmode.
  11. Vorrichtung zur Erzeugung einer Echtzeitmusikbegleitung, wobei die Vorrichtung aufweist: – eine Akkordschnittstelle, die ausgestaltet ist, ein Akkordraster mit einer Vielzahl von Akkorden zu empfangen, – eine Musikschnittstelle, die ausgestaltet ist, wenigstens einen Akkord eines Akkordrasters, das an der Akkordschnittstelle empfangen wurde, zu empfangen, und – einen Musikgenerator, der automatisch eine Echtzeitmusikbegleitung erzeugt basierend auf dem an der Akkordschnittstelle empfangenen Akkordraster und dem wenigstens einem gespielten Akkord des Akkordrasters durch Transformieren eines oder mehrerer des wenigstens einen gespielten Akkords in die verbleibenden Akkorde des Akkordrasters.
  12. Vorrichtung wie in Anspruch 11 beansprucht, wobei der Musikerzeuger ausgestaltet ist, die Echtzeitmusikbegleitung automatisch zu erzeugend basierend auf dem an der Akkordschnittstelle empfangenen Akkordraster und einem einzelnen gespielten Akkord oder Takt des Akkordrasters durch Transformieren des einzelnen gespielten Akkords oder Taktes in die verbleibenden Akkorde des Akkordrasters.
  13. Vorrichtung wie in Anspruch 11 beansprucht, wobei die Musikschnittstelle ausgestaltet ist, einen einzelnen gespielten Akkord eines Akkordrasters zu empfangen.
  14. Vorrichtung wie in Anspruch 11 beansprucht, wobei die Musikschnittstelle eine Start-Stopp-Schnittstelle zum Starten und Stoppen des Empfangs von Akkorden, insbesondere von gegenwärtig von einem Musiker gespielten Akkorden, aufweist.
  15. Vorrichtung wie in Anspruch 11 beansprucht, wobei der Musikerzeuger ausgestaltet ist, ein Tonhöhenskalierungsverfahren und/oder ein Akkordsubstitutionsverfahren zu benutzen zum Transformieren eines oder mehrerer des wenigstens einen gespielten Akkords in die verbleibenden Akkorde des Akkordrasters.
  16. Vorrichtung wie in Anspruch 11 beansprucht, wobei die Akkordschnittstelle eine Benutzerschnittstelle ist zum Eingeben eines Akkordrasters und/oder Auswählen eines Akkordrasters aus einer Akkordrasterdatenbank mit einer Vielzahl von Akkordrastern.
  17. Vorrichtung wie in Anspruch 11 beansprucht, wobei der Musikerzeuger ausgestaltet ist, adaptiv die automatische Erzeugung der Echtzeitmusikbegleitung zu erneuern basierend auf während einer Darbietung eines von der Echtzeitmusikbegleitung begleiteten Musikers gespielten Akkorden.
  18. Vorrichtung wie in Anspruch 11 beansprucht, wobei der Musikerzeuger ausgestaltet ist, die Anzahl und/oder Reichweite von Transformationen zu minimieren.
  19. Verfahren zur Erzeugung einer Echtzeitmusikbegleitung, wobei das Verfahren aufweist: – Empfangen eines Akkordrasters mit einer Vielzahl von Akkorden, – Empfangen wenigstens eines Akkordes eines Akkordrasters, das an der Akkordschnittstelle empfangen wurde, und – automatisches Erzeugen einer Echtzeitmusikbegleitung basierend auf dem an der Akkordschnittstelle empfangenen Akkordraster und dem wenigstens einen gespielten Akkord des Akkordrasters durch Transformieren eines oder mehrerer des wenigstens einen gespielten Akkords in die verbleibenden Akkorde des Akkordrasters.
  20. Nicht-flüchtiges Computer-lesbares Aufzeichnungsmedium, das darin ein Computerprogrammprodukt speichert, welches, wenn es von einem Prozessor ausgeführt wird, verursacht, dass das Verfahren gemäß Anspruch 9, 10 oder 19 ausgeführt wird.
DE112013005807.3T 2012-12-05 2013-12-05 Vorrichtung und Verfahren zur Erzeugung einer Echtzeitmusikbegleitung Pending DE112013005807T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP12195673.4 2012-12-05
EP12195673 2012-12-05
EP13161056.0 2013-03-26
EP13161056 2013-03-26
PCT/EP2013/075695 WO2014086935A2 (en) 2012-12-05 2013-12-05 Device and method for generating a real time music accompaniment for multi-modal music

Publications (1)

Publication Number Publication Date
DE112013005807T5 true DE112013005807T5 (de) 2015-08-20

Family

ID=49724591

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013005807.3T Pending DE112013005807T5 (de) 2012-12-05 2013-12-05 Vorrichtung und Verfahren zur Erzeugung einer Echtzeitmusikbegleitung

Country Status (3)

Country Link
US (1) US10600398B2 (de)
DE (1) DE112013005807T5 (de)
WO (1) WO2014086935A2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220310048A1 (en) * 2021-03-29 2022-09-29 Avid Technology, Inc. Data-Driven Autosuggestion Within Media Content Creation Applications
AT525849A1 (de) * 2022-01-31 2023-08-15 V3 Sound Gmbh Steuervorrichtung

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8927846B2 (en) * 2013-03-15 2015-01-06 Exomens System and method for analysis and creation of music
US11688377B2 (en) 2013-12-06 2023-06-27 Intelliterran, Inc. Synthesized percussion pedal and docking station
US10032443B2 (en) 2014-07-10 2018-07-24 Rensselaer Polytechnic Institute Interactive, expressive music accompaniment system
US9741327B2 (en) * 2015-01-20 2017-08-22 Harman International Industries, Incorporated Automatic transcription of musical content and real-time musical accompaniment
JP6735100B2 (ja) 2015-01-20 2020-08-05 ハーマン インターナショナル インダストリーズ インコーポレイテッド 音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜
DE102015004520B4 (de) * 2015-04-13 2016-11-03 Udo Amend Verfahren zur automatischen Erzeugung einer aus Tönen bestehenden Begleitung und Vorrichtung zu seiner Durchführung
US9721551B2 (en) 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
US20170236223A1 (en) * 2016-02-11 2017-08-17 International Business Machines Corporation Personalized travel planner that identifies surprising events and points of interest
US11212637B2 (en) * 2018-04-12 2021-12-28 Qualcomm Incorproated Complementary virtual audio generation
SE1851056A1 (en) 2018-09-05 2020-03-06 Spotify Ab System and method for non-plagiaristic model-invariant training set cloning for content generation
US11341184B2 (en) * 2019-02-26 2022-05-24 Spotify Ab User consumption behavior analysis and composer interface
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
CN111061909B (zh) * 2019-11-22 2023-11-28 腾讯音乐娱乐科技(深圳)有限公司 一种伴奏分类方法和装置
CN114005424A (zh) * 2021-09-16 2022-02-01 北京灵动音科技有限公司 信息处理方法、装置、电子设备及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3725820C1 (de) * 1987-08-04 1988-05-26 Mohrlok, Werner, 7218 Trossingen, De
US4941387A (en) 1988-01-19 1990-07-17 Gulbransen, Incorporated Method and apparatus for intelligent chord accompaniment
JP2590293B2 (ja) * 1990-05-26 1997-03-12 株式会社河合楽器製作所 伴奏内容検出装置
US5585585A (en) 1993-05-21 1996-12-17 Coda Music Technology, Inc. Automated accompaniment apparatus and method
DE69426588T2 (de) * 1993-10-08 2001-08-23 Yamaha Corp Elektronische Musikvorrichtung
US7735011B2 (en) 2001-10-19 2010-06-08 Sony Ericsson Mobile Communications Ab Midi composer
JP3915695B2 (ja) * 2002-12-26 2007-05-16 ヤマハ株式会社 自動演奏装置及びプログラム
US7790974B2 (en) 2006-05-01 2010-09-07 Microsoft Corporation Metadata-based song creation and editing
US8097801B2 (en) * 2008-04-22 2012-01-17 Peter Gannon Systems and methods for composing music
MX2011012749A (es) * 2009-06-01 2012-06-19 Music Mastermind Inc Sistema y metodo para recibir, analizar y editar audio para crear composiciones musicales.
US20110271187A1 (en) 2010-01-13 2011-11-03 Daniel Sullivan Musical Composition System
JP2011215257A (ja) * 2010-03-31 2011-10-27 Kawai Musical Instr Mfg Co Ltd 電子楽音発生器の自動伴奏装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220310048A1 (en) * 2021-03-29 2022-09-29 Avid Technology, Inc. Data-Driven Autosuggestion Within Media Content Creation Applications
US11875764B2 (en) 2021-03-29 2024-01-16 Avid Technology, Inc. Data-driven autosuggestion within media content creation
AT525849A1 (de) * 2022-01-31 2023-08-15 V3 Sound Gmbh Steuervorrichtung

Also Published As

Publication number Publication date
US20160247496A1 (en) 2016-08-25
US10600398B2 (en) 2020-03-24
WO2014086935A3 (en) 2014-08-14
WO2014086935A2 (en) 2014-06-12

Similar Documents

Publication Publication Date Title
DE112013005807T5 (de) Vorrichtung und Verfahren zur Erzeugung einer Echtzeitmusikbegleitung
DE69909107T2 (de) Verfahren und vorrichtung zum automatischen komponieren
DE602004011305T2 (de) Vorrichtung und Verfahren zur automatischen Klassifikation von musikalischen Kompositionen
EP1336173B1 (de) Anordnung bzw. anlage zum komponieren
CN103597543B (zh) 语义音轨混合器
DE60308370T2 (de) Musikalisches notierungssystem
DE69629486T2 (de) Kontrollstruktur für klangsynthesierung
DE202020005830U1 (de) Vorrichtung zum Zerlegen, Rekombinieren und Abspielen von Audiodaten
DE60216651T2 (de) Vorrichtung zur Sprachsynthese
DE60026189T2 (de) Verfahren und Vorrichtung zur Wellenformkomprimierung und Erzeugung
DE112014003260T5 (de) System und Verfahren zum Erzeugen einer rhythmischen Begleitungfür eine musikalische Darbietung
DE60024157T2 (de) Vorrichtung und Verfahren zur Eingabe eines Vortragstils
DE69908846T2 (de) Vorrichtung zur Ton- und Bilderzeugung
DE202015006043U1 (de) Signalfolge und Datenträger mit einem Computerprogramm zur Wiedergabe eines Musikstücks
EP1105867B1 (de) Verfahren und vorrichtungen zur koartikulationsgerechten konkatenation von audiosegmenten
DE60033098T2 (de) Verfahren und Vorrichtung zur Aufnahme/Wiedergabe oder Erzeugung von Wellenformen mittels Zeitlageinformation
DE60202161T2 (de) Verfahren, Vorrichtung und Programm zur Analyse und Synthese von Sprache
DE60318282T2 (de) Methoden und Vorrichtung zur Verarbeitung von Ausführungsdaten und zur Synthetisierung von Tonsignalen
Iverson The Emergence of Timbre: Ligeti's Synthesis of Electronic and Acoustic Music in Atmosphères
DE60006131T2 (de) Verfahren und vorrichtung zur erzeugung von improvisierter musik
Wang et al. An intelligent music generation based on Variational Autoencoder
DE60032844T2 (de) Verfahren und Vorrichtung zur Erzeugung einer Wellenform auf einem Auslegungsstildatenstrom basiert
DE102004033829B4 (de) Verfahren und Vorrichtung zur Erzeugung einer Polyphonen Melodie
EP1758096A1 (de) Verfahren und Vorrichtung zur Mustererkennung in akustischen Aufnahmen
Wulfson et al. Automatic notation generators

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: WITTE, WELLER & PARTNER PATENTANWAELTE MBB, DE

R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G10H0001180000

Ipc: G10H0001360000

R016 Response to examination communication