DE112019006852T5 - Datenverarbeitungsvorrichtung, datenverarbeitungsverfahren und datenverarbeitungsprogramm - Google Patents

Datenverarbeitungsvorrichtung, datenverarbeitungsverfahren und datenverarbeitungsprogramm Download PDF

Info

Publication number
DE112019006852T5
DE112019006852T5 DE112019006852.0T DE112019006852T DE112019006852T5 DE 112019006852 T5 DE112019006852 T5 DE 112019006852T5 DE 112019006852 T DE112019006852 T DE 112019006852T DE 112019006852 T5 DE112019006852 T5 DE 112019006852T5
Authority
DE
Germany
Prior art keywords
information
application
setting information
data processing
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019006852.0T
Other languages
English (en)
Inventor
Haruhiko Kishi
Tomonobu Kikuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of DE112019006852T5 publication Critical patent/DE112019006852T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/106Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/081Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/095Identification code, e.g. ISWC for musical works; Identification dataset
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

Diese Datenverarbeitungsvorrichtung (100) steuert eine erste Anwendung (20) und eine zweite Anwendung (20), die als ein Plug-In, das die Funktionen der ersten Anwendung erweitert, funktioniert. Die erste Anwendung umfasst eine Steuereinheit (161), die Aktionen der zweiten Anwendung in der ersten Anwendung steuert. Die zweite Anwendung umfasst eine Auswahleinheit (166), die Einstellungsinformationen zum Steuern einer auf Maschinenlernen basierenden Musikkompositionsfunktion auswählt, und eine Sende/Empfangseinheit (167), die über ein Netz die Einstellungsinformationen zu einem externen Server (200), der die auf Maschinenlernen basierende Musikkompositionsfunktion ausführt, sendet und durch den externen Server komponierte Musikdaten empfängt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung bezieht sich auf eine Datenverarbeitungsvorrichtung, ein Datenverarbeitungsverfahren und ein Datenverarbeitungsprogramm. Insbesondere bezieht sich die vorliegende Offenbarung auf die Verwendung von Musikdaten, die auf der Basis von Maschinenlernen komponiert sind.
  • TECHNISCHER HINTERGRUND
  • Mit dem Fortschritt von künstlicher Intelligenz (AI) wird die Verwendung von Computern auf dem Gebiet der Kunst gefördert.
  • Beispielsweise ist eine Technologie zum Ausführen von Maschinenlernen unter Verwendung existierender Musik als Lerndaten zum Erzeugen eines Lernmodells zur Musikerzeugung und Veranlassen eines Computers, neue Musik zu komponieren, bekannt (z. B. Patentdokument 1). In einer solchen Technologie ist es möglich, die Merkmale existierender Musik zu imitieren oder eine natürlichere Tonfolge unter Verwendung eines Markov-Modells zu erzeugen.
  • ENTGEGENHALTUNGSLISTE
  • PATENTDOKUMENT
  • Patentdokument 1: US-Patent Nr. 9,110,817
  • KURZDARSTELLUNG DER ERFINDUNG
  • AUFGABEN, DIE DURCH DIE ERFINDUNG ZU LÖSEN SIND
  • Gemäß der herkömmlichen Technologie kann der Anwender, da von AI vorgeschlagene (erzeugte) Musikdaten zur Komposition verwendet werden können, Musik auf der Basis einer größeren Vielfalt von Gesichtspunkten komponieren.
  • Mit der vorstehend beschriebenen herkömmlichen Technologie ist es jedoch nicht immer möglich, den Komfort der Funktion für automatische Komposition durch AI zu verbessern. Beispielsweise verwenden derzeit viele Anwender einen digitalen Audio-Arbeitsplatzrechner (DAW) zum Komponieren, Arrangieren und Aufzeichnen. Wenn jedoch der Anwender die vorstehend beschriebene herkömmliche Technologie in Kombination mit einem DAW verwendet, wird die Arbeit während eines Hin und Her zwischen unterschiedlichen Arbeitsumgebungen ausgeführt, was die Arbeitseffizienz reduzieren kann. Zusätzlich ist, da die Funktion für automatische Komposition durch AI allgemein eine hohe Datenverarbeitungslast aufweist, falls die Funktion für automatische Komposition gleichzeitig wie der DAW in der Endgerätevorrichtung ausgeführt wird, eine Wahrscheinlich dafür vorhanden, dass keine ausreichenden Funktionen gezeigt werden oder die Verarbeitung auf der DAW-Seite verzögert ist.
  • Vor diesem Hintergrund schlägt die vorliegende Offenbarung eine Datenverarbeitungsvorrichtung, ein Datenverarbeitungsverfahren und ein Datenverarbeitungsprogramm vor, die den Komfort einer Funktion für automatische Komposition durch AI verbessern können.
  • LÖSUNGEN FÜR DIE AUFGABE
  • Um die vorstehenden Aufgaben zu lösen, ist eine Datenverarbeitungsvorrichtung einer Form gemäß der vorliegenden Offenbarung eine Datenverarbeitungsvorrichtung, die eine erste Anwendung und eine zweite Anwendung, die als ein Plug-In, das Funktionen der ersten Anwendung erweitert, funktioniert, steuert, wobei die erste Anwendung eine Steuereinheit aufweist, die den Betrieb der zweiten Anwendung in der ersten Anwendung steuert, und die zweite Anwendung eine Auswahleinheit, die Einstellungsinformationen zum Steuern einer Kompositionsfunktion basierend auf Maschinenlernen auswählt, und eine Sende/Empfangseinheit, die die Einstellungsinformationen zu einem externen Server, der eine Kompositionsfunktion basierend auf Maschinenlernen ausführt, sendet und durch den externen Server komponierte Musikdaten über ein Netz empfängt, aufweist.
  • Figurenliste
    • 1 ist ein konzeptionelles Diagramm, das den Ablauf der Datenverarbeitung gemäß einer Ausführungsform zeigt.
    • 2 ist ein Diagramm (1), das ein Beispiel einer Anwenderschnittstelle gemäß der Ausführungsform zeigt.
    • 3 ist ein Diagramm (2), das ein Beispiel der Anwenderschnittstelle gemäß der Ausführungsform zeigt.
    • 4 ist ein Diagramm, das ein Beispiel Stilpalette gemäß der Ausführungsform zeigt.
    • 5 ist ein Blockdiagramm, das den Ablauf der Datenverarbeitung gemäß der Ausführungsform zeigt.
    • 6 ist ein Diagramm, das ein Datenverarbeitungssystem gemäß der Ausführungsform der vorliegenden Offenbarung zeigt.
    • 7 ist ein Diagramm, das ein Konfigurationsbeispiel eines Anwenderendgeräts gemäß der Ausführungsform zeigt.
    • 8 ist ein Diagramm, das ein Beispiel von Kompositionseinstellungsinformationen gemäß der Ausführungsform zeigt.
    • 9 ist ein Diagramm, das ein Beispiel von Kompositionsmusikinformationen gemäß der Ausführungsform zeigt.
    • 10 ist ein Diagramm, das ein Beispiel von Verlaufsinformationen gemäß der Ausführungsform zeigt.
    • 11 ist ein Diagramm, das ein Beispiel von Informationen über zugeordnete Instrumente gemäß der Ausführungsform zeigt.
    • 12 ist ein Diagramm, das ein Konfigurationsbeispiel eines Verarbeitungsservers gemäß der Ausführungsform zeigt.
    • 13 ist ein Diagramm, das ein Beispiel von Anwenderinformationen gemäß der Ausführungsform zeigt.
    • 14 ist ein Diagramm, das ein Beispiel von Musikinformationen gemäß der Ausführungsform zeigt.
    • 15 ist ein Diagramm, das ein Beispiel von Stilpaletteninformationen gemäß der Ausführungsform zeigt.
    • 16 ist ein Diagramm, das ein Beispiel von Stilpalettenfolgeninformationen gemäß der Ausführungsform zeigt.
    • 17 ist ein Diagramm, das ein Beispiel von Anwenderkompositionsinformationen gemäß der Ausführungsform zeigt.
    • 18 ist ein Diagramm, das ein Beispiel von Verlaufsinformationen gemäß der Ausführungsform zeigt.
    • 19 ist ein Ablaufplan, der die Prozedur der Datenverarbeitung gemäß der Ausführungsform zeigt.
    • 20 ist ein Hardwarekonfigurationsdiagramm, das ein Beispiel eines Computers, der Funktionen einer Datenverarbeitungsvorrichtung implementiert, zeigt.
  • ART UND WEISE ZUM AUSFÜHREN DER ERFINDUNG
  • Nachstehend werden Ausführungsformen der vorliegenden Offenbarung mit Bezug auf die Zeichnungen genau beschrieben. Es wird darauf hingewiesen, dass in jeder der folgenden Ausführungsformen die gleichen Teile durch die gleichen Bezugszeichen bezeichnet werden, wodurch eine doppelte Beschreibung weggelassen wird.
  • Die vorliegende Offenbarung wird in der Reihenfolge der nachstehend gezeigten Punkte beschrieben.
    • 1. Ausführungsform
      • 1-1. Ein Beispiel der Datenverarbeitung gemäß einer Ausführungsform
      • 1-2. Konfiguration des Datenverarbeitungssystems gemäß der Ausführungsform
      • 1-3. Konfiguration der
      • Datenverarbeitungsvorrichtung (des Anwenderendgeräts) gemäß der Ausführungsform
      • 1-4. Konfiguration des externen Servers (des Verarbeitungsservers) gemäß der Ausführungsform
      • 1-5. Prozedur der Datenverarbeitung gemäß der Ausführungsform
    • 2. Modifikation
      • 2-1. Form der Musikdaten
      • 2-2. Host-Anwendung
      • 2-3. Steuerung durch einen DAW
      • 2-4. Modus des Datenverarbeitungssystems
    • 3. Andere Ausführungsformen
    • 4. Effekt der Datenverarbeitungsvorrichtung gemäß der vorliegenden Offenbarung
    • 5. Hardwarekonfiguration
  • (1. Ausführungsform)
  • [1-1. Ein Beispiel der Datenverarbeitung gemäß der Ausführungsform]
  • Zuerst wird ein Beispiel der Datenverarbeitung gemäß der vorliegenden Offenbarung mit Bezug auf 1 beschrieben. 1 ist ein konzeptionelles Diagramm, das den Ablauf der Datenverarbeitung gemäß einer Ausführungsform zeigt. Die Datenverarbeitung gemäß der Ausführungsform wird durch ein Anwenderendgerät 10, das ein Beispiel einer Datenverarbeitungsvorrichtung gemäß der vorliegenden Offenbarung ist, und einen Verarbeitungsserver 100, der ein Beispiel eines externen Servers gemäß der vorliegenden Offenbarung ist, ausgeführt. Das Anwenderendgerät 10 und der Verarbeitungsserver 100 kommunizieren miteinander unter Verwendung eines drahtgebundenen oder drahtlosen Netzes N (z. B. des Internets oder dergleichen), wie in 1 gezeigt ist. Es wird darauf hingewiesen, dass die Anzahl von Anwenderendgeräten 10 und Verarbeitungsservern 100 nicht auf die in 1 gezeigte beschränkt ist.
  • Das in 1 gezeigte Anwenderendgerät 10 ist ein Beispiel der Datenverarbeitungsvorrichtung gemäß der vorliegenden Offenbarung. Beispielsweise ist das Anwenderendgerät 10 ein Datenverarbeitungsendgerät wie z. B. ein Personalcomputer (PC), ein Tablet-Endgerät oder ein Smartphone. Verschiedene Programmanwendungen (hier nachstehend einfach als „Anwendungen“ bezeichnet) sind in dem Anwenderendgerät 10 enthalten (installiert). Das Anwenderendgerät 10 startet verschiedene Anwendungen und lässt sie ablaufen und führt verschiedene Datenverarbeitung aus.
  • In der Ausführungsform weist das Anwenderendgerät 10 eine Anwendung (den sogenannten DAW) auf, die eine umfangreiche Musikproduktionsumgebung implementiert. In der folgenden Beschreibung ist die Anwendung (DAW) als eine erste Anwendung oder eine Host-Anwendung bezeichnet. Eine weitere Anwendung zum Erweitern von Funktionen kann in die erste Anwendung gemäß der Ausführungsform integriert (eingefügt) werden. Das heißt, es ist angenommen, dass die erste Anwendung ein sogenanntes Plug-In, das eine weitere Anwendung zum Erweitern von Funktionen ist, verwenden kann. In diesem Fall funktioniert die erste Anwendung als die Host-Anwendung für das integrierte Plug-In.
  • Zusätzlich weist in der Ausführungsform das Anwenderendgerät 10 eine Anwendung auf, die eine Funktion für automatische Komposition durch AI aufweist. In der folgenden Beschreibung ist die Anwendung (die Anwendung, die die Funktion für automatische Komposition durch AI aufweist) als eine zweite Anwendung oder ein Plug-In bezeichnet. Die zweite Anwendung gemäß der Ausführungsform ist als ein Plug-In der vorstehend beschriebenen ersten Anwendung integriert. Das Plug-In kann beispielsweise die Form der Steinberg virtuellen Studio-Technologie (VST) (eingetragenes Warenzeichen), Audio-Einheiten, Avid Audio eXtension (AAX) und dergleichen annehmen.
  • Der in 1 gezeigte Verarbeitungsserver 100 ist eine Servervorrichtung, die Datenverarbeitung, die sich auf die in dem Anwenderendgerät 10 enthaltene zweite Anwendung bezieht, ausführt. Beispielsweise ist der Verarbeitungsserver 100 ein sogenannter Cloud-Server und führt vorbestimmte Datenverarbeitung auf der Basis von Informationen, die durch das Anwenderendgerät 10 über das Netz N angeordnet sind, aus. Insbesondere führt der Verarbeitungsserver 100 vorbestimmte Lernverarbeitung auf der Basis von Informationen, die von dem Anwenderendgerät 10 gesendet werden, aus und erzeugt Musikdaten auf der Basis von Daten, die aus einem erlernten Modell ausgegeben werden. Mit anderen Worten führt der Verarbeitungsserver 100 die Funktion für automatische Komposition durch AI auf der Basis eines Befehls des Anwenderendgeräts 10 aus. Beispielsweise versorgt der Verarbeitungsserver 100 das Anwenderendgerät 10 mit Musikdaten, die unter Verwendung eines Markov-Modells oder dergleichen automatisch komponiert werden, wie in dem vorstehend genannten Dokument zur herkömmlichen Technologie oder dergleichen gezeigt ist.
  • Wie vorstehend beschrieben kann das Anwenderendgerät 10 unter Verwendung der zweiten Anwendung als ein Plug-In die Musikdaten, die durch den Verarbeitungsserver 100 auf der zweiten Anwendung bereitgestellt sind, auf die erste Anwendung ziehen und ablegen oder Editieren auf der ersten Anwendung ausführen. Zusätzlich führt, während die Funktion für automatische Komposition in der herkömmlichen Technologie von der Verarbeitungsleistungsfähigkeit (CPU-Leistung und dergleichen) des Endgeräts, auf dem die Verarbeitung ausgeführt wird, abhängig gewesen ist, wie in 1 gezeigt ist, das Anwenderendgerät 10 die Lernverarbeitung nicht selbst aus, sondern veranlasst den Verarbeitungsserver 100, die Verarbeitung auszuführen. Als ein Ergebnis kann das Anwenderendgerät 10 die Funktion für automatische Komposition, die eine relativ hohe Verarbeitungslast aufweist, ausführen, während es seine eigenen Betriebsmittel spart. Somit kann das Anwenderendgerät 10 die DAW-Verarbeitungsverzögerung (das Auftreten von Latenz und dergleichen), die ein herkömmliches Problem gewesen ist, lösen. Infolgedessen kann das Anwenderendgerät 10 gemäß der vorliegenden Offenbarung den Komfort der Funktion für automatische Komposition durch AI verbessern. Nachstehend wird der Umfang der Datenverarbeitung gemäß der vorliegenden Offenbarung gemäß dem Ablauf mit Bezug auf 1 beschrieben.
  • Wie in 1 gezeigt ist, aktiviert das Anwenderendgerät 10 die Host-Anwendung (erste Anwendung) 20 (Schritt S1). Zusätzlich aktiviert das Anwenderendgerät 10 das Plug-In (zweite Anwendung) 22 als ein Beispiel des Plug-In, das auf der Host-Anwendung 20 arbeitet (Schritt S2).
  • Das Anwenderendgerät 10 wählt die Einstellungsinformationen von Musik, die automatisch zu komponieren ist, in dem Plug-In 22, gemäß der Betätigung durch den Anwender. Obwohl Einzelheiten später beschrieben werden, wählt da Anwenderendgerät 10 Einstellungsinformationen wie z. B. eine Akkordfortschreibung der automatisch zu komponierenden Musik, ein subjektives Bild der Musik (dunkel, hell und dergleichen) und die Komposition der Musik gemäß den Operationen des Anwenders. Dann sendet das Anwenderendgerät 10 die ausgewählten Einstellungsinformationen zu dem Verarbeitungsserver 100 (Schritt S3).
  • Der Verarbeitungsserver 100 führt vorbestimmte Lernverarbeitung auf der Basis der von dem Anwenderendgerät 10 gesendeten Einstellungsinformationen aus und führt Kompositionsverarbeitung auf der Basis des Lernergebnisses aus (Schritt S4). Für eine solche Kompositionsverarbeitung kann beispielsweise die in dem vorstehend beschriebenen Dokument beschriebene herkömmliche Technologie verwendet werden. Dann erzeugt der Verarbeitungsserver 100 die Daten der komponierten Musik.
  • Danach sendet der Verarbeitungsserver 100 die erzeugten Musikdaten zu dem Anwenderendgerät 10 (Schritt S5). Das Anwenderendgerät 10 empfängt die von dem Verarbeitungsserver 100 gesendeten Musikdaten in dem Plug-In 22. Beispielsweise weisen die Musikdaten Informationen wie z. B. Akkordfortschreibung, eine Tonfolge und Basstonfortschreibung, die durch den Verarbeitungsserver 100 erzeugt sind, auf. Es wird darauf hingewiesen, dass die Musikdaten Standarddaten sein können wie z. B. Daten der digitalen Musikinstrumentenschnittstelle (MIDI-Daten), Wellenformdaten oder DAW-Original-Standarddaten. Der Anwender kann die empfangenen Musikdaten auf dem Plug-In 22 editieren oder kann die Musikdaten zu der Host-Anwendung 20 kopieren und sie auf der Host-Anwendung 20 verwenden.
  • Wie vorstehend beschrieben steuert das Anwenderendgerät 10 die Host-Anwendung 20 und das Plug-In 22, das als ein Plug-In funktioniert, das die Funktionen der Host-Anwendung 20 erweitert. Zusätzlich steuert die Host-Anwendung 20 die Operation des Plug-In 22 in der Host-Anwendung 20. Zusätzlich wählt das Plug-In 22 die Einstellungsinformationen zum Steuern der Kompositionsfunktion basierend auf Maschinenlernen aus, sendet die Einstellungsinformationen über das Netz N zu dem Verarbeitungsserver 100 und empfängt die durch den Verarbeitungsserver 100 komponierten Musikdaten.
  • Das heißt, das Anwenderendgerät 10 verwendet die Funktion für automatische Komposition als ein Plug-In des DAW. Aus diesem Grund kann der Anwender die Unterstützung der Funktion für automatische Komposition in dem DAW, der eine normale Arbeitsumgebung ist, erhalten. Zusätzlich kann der Anwender die Verzögerung der Verarbeitung in dem DAW dadurch vermeiden, dass er den Verarbeitungsserver 100 veranlasst, die Verarbeitungslast der Funktion für automatische Komposition zu tragen. Infolgedessen kann das Anwenderendgerät 10 den Komfort der Funktion für automatische Komposition durch AI verbessern.
  • Als Nächstes werden die Einzelheiten der Funktion für automatische Komposition durch das Plug-In 22 mit Bezug auf die 2 bis 4 beschrieben.
  • 2 ist ein Diagramm (1), das ein Beispiel einer Anwenderschnittstelle gemäß der Ausführungsform zeigt. 2 zeigt ein Beispiel der Anwenderschnittstelle, wenn das Plug-In 22 auf einem Bildschirm des Anwenderendgeräts 10 angezeigt wird.
  • In dem in 2 gezeigten Beispiel zeigt eine Anwenderschnittstelle 30 durch das Plug-In 22 empfangene Musikdaten an. Es wird darauf hingewiesen, dass, obwohl Einzelheiten später beschrieben werden, Musikdaten in dem Plug-In 22 drei unterschiedliche Typen von Daten aufweisen: Tonfolge, Akkord und Basston. Aus den drei unterschiedlichen Typen von Daten zeigt die in 2 gezeigte Anwenderschnittstelle 30 Daten, die sich auf die Tonfolge beziehen, an.
  • Die Einstellungsinformationen 31 zeigen Informationen an, die sich auf die Stilpalette beziehen, die ein Beispiel von Einstellungsinformationen in der Funktion für automatische Komposition sind. Die Stilpalette ist Festlegungsinformationen zum Festlegen von Musikmaterial als Lerndaten für Maschinenlernen.
  • Die Einstellungsinformationen 32 zeigen Informationen an, die sich auf die Harmonie, die ein Beispiel für Einstellungsinformationen in der Funktion für automatische Komposition ist, beziehen. Die Informationen, die sich auf die Harmonie beziehen, sind beispielsweise Informationen zum Bestimmen der Wahrscheinlichkeit dafür, dass einzelne Töne, die in einem Akkord enthalten sind, in der Tonfolge der durch den Verarbeitungsserver 100 komponierten Musikdaten erscheinen. Falls beispielsweise der Anwender die Informationen, die die Harmonie betreffen, auf „streng“ einstellt, ist es wahrscheinlicher, dass einzelne Töne, die in einem Akkord enthalten sind, in der Tonfolge der automatisch komponierten Musikdaten auftreten. Andererseits ist es, falls der Anwender die Informationen, die die Harmonie betreffen, auf „locker“ einstellt, weniger wahrscheinlich, dass einzelne Töne, die in einem Akkord enthalten sind, in der Tonfolge der automatisch komponierten Musikdaten auftreten. Das Beispiel in 2 zeigt, dass der Anwender die Informationen, die die Harmonie betreffen, näher an „streng“ angewandt hat.
  • Die Einstellungsinformationen 33 zeigen Tonlängeninformationen an, die ein Beispiel für Einstellungsinformationen in der Funktion für automatische Komposition sind. Die Tonlängeninformationen sind beispielsweise Informationen zum Bestimmen der Tonlänge in durch den Verarbeitungsserver 100 komponierten Musikdaten. Falls der Anwender beispielsweise die Tonlängeninformationen auf „lang“ einstellt, ist es wahrscheinlicher, dass Töne mit einer relativ langen Tonlänge (z. B. eine ganze Note, eine halbe Note und dergleichen) in den automatisch komponierten Musikdaten auftreten. Falls der Anwender andererseits die Tonlängeninformationen auf „kurz“ einstellt, ist es wahrscheinlicher, dass Töne mit einer relativ kurzen Tonlänge (z. B. eine Achtel-Note, eine Sechzehntel-Note und dergleichen) in den automatisch komponierten Musikdaten auftreten.
  • Die Einstellungsinformationen 34 zeigen Informationen zum Bestimmen des Typs und der Menge des Musikmaterials an, das nicht das Musikmaterial ist, das in den Festlegungsinformationen (durch den Anwender festgelegten Stilpalette) enthalten sind, die ein Beispiel für Einstellungsinformationen in der Funktion für automatische Komposition sind. Solche Informationen sind beispielsweise Informationen zum Bestimmen, ob das Lernen streng auf der Basis der in der durch den Anwender festgelegten Stilpalette enthaltenen Musik, die durch den Anwender festgelegt ist, in den durch den Verarbeitungsserver 100 komponierten Musikdaten auszuführen ist oder nicht. Falls der Anwender beispielsweise solche Informationen auf „niemals“ einstellt, nimmt die Tendenz zur Verwendung von Musik, die nicht die Musik ist, die in der Stilpalette enthalten ist, in dem Lernen für die automatische Komposition ab. Falls andererseits der Anwender solche Informationen auf „nur“ einstellt, nimmt die Tendenz zur Verwendung von Musik, die nicht die Musik ist, die in der Stilpalette enthalten ist, in dem Lernen für die automatische Komposition zu.
  • Die Musikdaten 35 zeigen spezifische Musikdaten an, die von dem Verarbeitungsserver 100 gesendet werden. In dem Beispiel von 2 weisen die Musikdaten Informationen, die die Fortschreibung eines Akkords wie z. B. Cm angeben, Informationen, die eine Tonhöhe und eine Tonlänge in einem Takt angeben, den Übergang der Tonhöhe (mit anderen Worten Tonfolge) und dergleichen auf. Zusätzlich können, wie in 2 gezeigt ist, die Musikdaten 35 beispielsweise vier unterschiedliche Typen von Inhalten aufweisen. Das heißt, der Verarbeitungsserver 100 kann mehrere Einheiten von Musikdaten senden, anstatt nur einen Typ von automatisch komponierten Musikdaten zu senden. Als ein Ergebnis kann der Anwender Musikdaten nach seinem/ihrem Geschmack aus den erzeugten mehreren Musikdatenkandidaten auswählen oder die mehreren Einheiten von Musikdaten kombinieren, um Musik nach seinem/ihrem Geschmack zu komponieren.
  • Es wird darauf hingewiesen, dass während die in 2 gezeigte Anwenderschnittstelle 30 Daten, die sich auf die Tonfolge beziehen, unter den drei unterschiedlichen Typen von Daten: Tonfolge, Akkord und Basston, die in den Musikdaten enthalten sind, anzeigt, andere Daten auf anderen Anwenderschnittstellen angezeigt werden. Dieser Punkt wird mit Bezug auf 3 beschrieben. 3 ist ein Diagramm (2), das ein Beispiel der Anwenderschnittstelle gemäß der Ausführungsform zeigt.
  • Wie in 3 gezeigt ist, kann das Anwenderendgerät 10 zusätzlich zu der Anwenderschnittstelle 30, die Daten, die sich auf die Tonfolge beziehen, anzeigt, eine Anwenderschnittstelle 38, die Daten, die sich auf Akkorde beziehen, anzeigt, und eine Anwenderschnittstelle 39, die Daten, die sich auf Basstöne beziehen, anzeigt, auf dem Bildschirm anzeigen. Obwohl es in 3 nicht gezeigt ist, zeigen die Anwenderschnittstelle 38 und die Anwenderschnittstelle 39 Toninformationen an, die von den Musikdaten 35 in der Anwenderschnittstelle 30 verschieden sind. Insbesondere zeigt die Anwenderschnittstelle 38 Toninformationen (z. B. einzelne Töne und dergleichen des Akkords Cm) an, die sich auf Akkorde, die der Tonfolge der Musikdaten entsprechen, beziehen. Zusätzlich zeigt die Anwenderschnittstelle 39 Toninformationen (z. B. den Ton „C“ in dem Fall des Akkords Cm und dergleichen) an, die sich auf den Basston, der der Tonfolge oder dem Akkord der Musikdaten entspricht, beziehen.
  • Der Anwender kann die Informationen, die zu der Host-Anwendung 20 zu kopieren sind, aus den angezeigten Anwenderschnittstelle 30, Anwenderschnittstelle 38 und Anwenderschnittstelle 39 auswählen oder beispielsweise einen Teil des Basstons editieren.
  • Als Nächstes wird die Stilpalette, die ein Beispiel der vorstehend beschriebenen Einstellungsinformationen ist, mit Bezug auf 4 beschrieben. 4 ist ein Diagramm, das ein Beispiel der Stilpalette gemäß der Ausführungsform zeigt.
  • Ein in 4 gezeigtes Fenster 40 ist ein Beispiel einer in dem Plug-In 22 angezeigten Anwenderschnittstelle. Beispielsweise bezieht sich der Anwender auf Merkmalsinformationen der in dem Fenster 40 angezeigten Stilpaletten und wählt ein Bild aus, das mit der automatisch zu komponierenden Musik übereinstimmt. Beispielsweise wählt der Anwender eine Stilpalette 41, die die Merkmalsinformationen „hell“ aufweist, eine Stilpalette 42, die die Merkmalsinformationen „dunkel“ aufweist, oder dergleichen aus. Alternativ wählt der Anwender eine Stilpalette 43 mit dem Namen „Amerikanisch“, die ein Genre und einen Typ der Musik als Merkmalsinformationen aufweist, oder eine Stilpalette 44 mit dem Namen „Strophe -> Brücke -> Refrain“, die die Komposition der Musik als Merkmalsinformationen aufweist, aus.
  • Es wird darauf hingewiesen, dass, wie vorstehend beschrieben, die Stilpalette Informationen zum Festlegen der durch den Verarbeitungsserver 100 zum Lernen verwendeten Musik ist. Das heißt, jede Stilpalette enthält Informationen zum Identifizieren eines existierenden im Voraus komponierten Musikstücks. Beispielsweise ist angenommen, dass eine Liste 50 von Musikbestandteilen der Stilpalette 41 zugeordnet ist. Die Liste 50 von Musikbestandteilen weist mehrere Stücke existierender Musik auf. Zusätzlich ist angenommen, dass eine Liste 51 von Musikbestandteilen der Stilpalette 42 zugeordnet ist. Die Liste 51 von Musikbestandteilen weist mehrere Stücke existierender Musik auf, die von den in der Liste 50 von Musikbestandteilen enthaltenen verschieden sind.
  • Aus diesem Grund ist ein Lernmodell, das durch Maschinenlernen auf der Basis der Stilpalette 41 erzeugt wird, verschieden von einem Lernmodell, das durch Maschinenlernen auf der Basis der Stilpalette 42 erzeugt wird. Das liegt daran, dass sich die Lerndaten für Maschinenlernen abhängig von der durch den Anwender ausgewählten Stilpalette ändern. Das heißt, die Stilpalette kann auch als Festlegungsinformationen zum Festlegen von Lerndaten für die automatische Komposition betrachtet werden.
  • Die in der Stilpalette enthaltene Musik ist beispielsweise durch den Administrator, Anbieter oder dergleichen des Plug-In 22 im Voraus registriert. Beispielsweise extrahiert der Administrator des Plug-In 22 mehrere Musikstücke, die subjektiv als „hell“ empfunden werden, um die Liste 50 von Musikbestandteilen zu erzeugen, und ordnet die Liste 50 von Musikbestandteilen der Stilpalette 41 zu. Es wird darauf hingewiesen, dass die Stilpalette und die Musik, die der Stilpalette entspricht, durch den Anwender des Plug-In 22 beliebig editiert werden können. Beispielsweise kann der Anwender aus einem Web-Dienst wie z. B. einen Liedverteildienst oder einen Dienst für soziale Netze (SNS) auswählen, die ausgewählten Musikstücke kombinieren und eine gewünschte Stilpalette erzeugen. Insbesondere kann der Anwender Musik, die in einer Playlist, die durch eine vorbestimmte Musikanwendung automatisch erzeugt wird, oder einer Playlist, die für den Anwender der Musikanwendung bereitgestellt ist, beliebig extrahieren und die Musikbestandteile einer Stilpalette, das er/sie erzeugt hat, ändern oder eine neue Stilpalette erzeugen. Als ein Ergebnis kann der Anwender die Stilpalette nach seinem/ihrem Geschmack flexibel erzeugen.
  • Es wird darauf hingewiesen, dass der Anwender mehrere Stilpaletten als die Einstellungsinformationen auswählen kann, wenn er die Stilpalette auswählt. Beispielsweise kann der Anwender die Stilpalette 41 als die Einstellungsinformationen zum Komponieren eines Teils eines Lieds (z. B. der ersten acht Takte) auswählen, und die Stilpalette 42 als die Einstellungsinformationen zum Komponieren eines weiteren Teils des Lieds (z. B. der mittleren acht Takte) auswählen. Solche Informationen, der mehrere Stilpaletten aufweisen, sind nachstehend als eine Stilpalettenfolge bezeichnet. Mit anderen Worten kann die Stilpalettenfolge als kombinierte Festlegungsinformationen betrachtet werden, in denen Elemente von Festlegungsinformationen zum Festlegen von Musik, das heißt Stilpaletten kombiniert sind. Der Anwender kann leicht verschiedene Musikdaten, die mehrere Merkmale aufweisen, in einem einzigen Musikstück durch Einstellen der Stilpalettenfolge für die Musikkomposition erzeugen.
  • Als Nächstes wird die Beziehung zwischen der Host-Anwendung 20 und dem Plug-In 22 mit Bezug auf 5 konzeptionell gezeigt. 5 ist ein Blockdiagramm, das den Ablauf der Datenverarbeitung gemäß der Ausführungsform zeigt.
  • Ein in 5 gezeigter Verarbeitungsblock zeigt den Ablauf der durch den DAW (die Host-Anwendung 20) und das Plug-In 22 ausgeführten Verarbeitung. Normalerweise zeichnet ein Künstler den Ton des Spielens eines Instruments auf oder erzeugt Daten wie z. B. MIDI. Zusätzlich werden in der Datenverarbeitung gemäß der Ausführungsform Musikdaten, die der Tonfolge, dem Akkord und dem Basston entsprechen, durch das Plug-In 22 anstatt den Künstler erzeugt. Beispielsweise erzeugt der Künstler oder das Plug-In 22 eine Tonfolge 61, einen Akkord 62 oder einen Basston 63.
  • Danach zeichnet der Anwender die Tonfolge 61, den Akkord 62 und den Basston 63, die für die Musik verwendet sind, in dem zu dem DAW gehörenden Aufzeichnungsgerät auf und erzeugt jede Spur, die der Tonfolge, dem Akkord und dem Basston entspricht. Beispielsweise stellt der Anwender Instrumenteninformationen ein, die in der Darbietung für die durch das Plug-In 22 erzeugte Tonfolge zu verwenden sind. Insbesondere stellt der Anwender Instrumenteninformationen wie z. B. Spielen der Tonfolge 61 auf einer in dem DAW registrierten Gitarre ein. Dann zeichnet der Anwender den durch die virtuelle Gitarre gespielten Ton in dem Aufzeichnungsgerät auf und erzeugt eine Spur, die der Gitarre entspricht. Es wird darauf hingewiesen, dass, da der DAW mehrere Spuren erzeugen kann, eine Spur basierend auf der Darbietung von Ton des Künstlers und eine Spur basierend auf den durch das Plug-In 22 erzeugten Musikdaten gemeinsam existieren können.
  • Danach mischt der Anwender die Spuren auf dem DAW und erzeugt Musikdaten durch Ausführen von Abmischen und dergleichen. Zusätzlich führt der Anwender Mastering auf dem DAW aus, passt den Schallsignalpegel und dergleichen an und erzeugt eine Musikdatei 65, die auf einer Wiedergabevorrichtung oder dergleichen wiedergegeben werden kann.
  • Wie vorstehend beschrieben kann der Anwender gemäß der Datenverarbeitung gemäß der Ausführungsform Daten, die durch das Plug-In 22 gemäß den Darbietungsdaten, die durch den Künstler gespielt werden, komponiert werden und die erzeugten MIDI-Daten verwenden und Musik auf dem DAW erzeugen. Beispielsweise kann der Anwender Musik auf dem DAW durch Mischen einer Tonfolge, die durch AI automatisch komponiert ist, mit den Darbietungsdaten, die durch den Künstler gespielt werden, oder durch Integrieren einer Akkordfortschreibung, die durch die AI vorgeschlagen ist, in die durch den Künstler gespielten Darbietungsdaten erzeugen.
  • Vorstehend ist der Überblick über dem Gesamtablauf der Datenverarbeitung gemäß der vorliegenden Offenbarung beschrieben worden. In 6 und den folgenden Zeichnungen wird die Konfiguration eines Datenverarbeitungssystems 1, das das Anwenderendgerät 10 aufweist, beschrieben, und die Einzelheiten der verschiedenen Verarbeitung werden der Reihe nach beschrieben.
  • [1-2. Konfiguration des Datenverarbeitungssystems gemäß der ersten Ausführungsform]
  • 6 ist ein Diagramm, das ein Beispiel des Datenverarbeitungssystems 1 gemäß einer ersten Ausführungsform der vorliegenden Offenbarung zeigt. Wie in 1 gezeigt ist, weist das Datenverarbeitungssystem 1 ein Anwenderendgerät 10, einen Verarbeitungsserver 100 und einen Managementserver 200 auf.
  • Das Anwenderendgerät 10 ist ein Beispiel der Datenverarbeitungsvorrichtung gemäß der vorliegenden Offenbarung und steuert den Betrieb der Host-Anwendung 20 und des Plug-In 22.
  • Der Verarbeitungsserver 100 ist ein Beispiel eines externen Servers gemäß der vorliegenden Offenbarung und führt Verarbeitung für automatische Komposition in Zusammenarbeit mit dem Plug-In 22 aus.
  • Der Managementserver 200 ist beispielsweise ein Server, der durch einen Unternehmer oder dergleichen, der das Plug-In 22 bereitstellt, gemanagt wird.
  • Beispielsweise managt der Managementserver 200 die Anwenderberechtigung des Anwenders des Plug-In 22 und managt Informationen über die Stilpalette, die in dem Plug-In 22 verfügbar ist. Beispielsweise bestimmt der Managementserver 200, ob ein Anwender die Berechtigung besitzt oder nicht, das Plug-In 22 zu verwenden, auf der Basis einer Anwender-ID, die den Anwender eindeutig identifiziert. Zusätzlich erzeugt der Managementserver 200 eine Stilpalette, editiert Musik, die in der Stilpalette enthalten ist, und sendet Informationen bezüglich der Stilpalette zu dem Anwenderendgerät 10 und dem Verarbeitungsserver 100. Es wird darauf hingewiesen, dass der Managementserver 200 integral mit dem Verarbeitungsserver 100 konfiguriert sein kann.
  • [1-3. Konfiguration der Datenverarbeitungsvorrichtung (Anwenderendgerät) gemäß der Ausführungsform]
  • Als Nächstes wird die Konfiguration des Anwenderendgeräts 10, das ein Beispiel der Datenverarbeitungsvorrichtung gemäß der vorliegenden Offenbarung ist, mit Bezug auf 7 beschrieben. 7 ist ein Diagramm, das ein Konfigurationsbeispiel des Anwenderendgeräts 10 gemäß der Ausführungsform der vorliegenden Offenbarung zeigt. Wie in 7 gezeigt ist, weist das Anwenderendgerät 10 eine Kommunikationseinheit 11, eine Eingabeeinheit 12, eine Anzeigeeinheit 13, eine Speichereinheit 15 und eine Steuereinheit 16 auf.
  • Die Kommunikationseinheit 11 ist beispielsweise durch eine Netzschnittstellenkarte (NIC) oder dergleichen implementiert. Die Kommunikationseinheit 11 ist mit dem Netz N (Internet oder dergleichen) drahtgebunden oder drahtlos verbunden und sendet und empfängt Daten zu und von dem Verarbeitungsserver 100, dem Managementserver 200 und dergleichen über das Netz N.
  • Die Eingabeeinheit 12 ist eine Eingabevorrichtung, die verschiedenen Operationen von dem Anwender annimmt. Beispielsweise ist die Eingabeeinheit durch eine Bedientaste oder dergleichen, die in dem Anwenderendgerät 10 enthalten ist, implementiert. Die Anzeigeeinheit 13 ist eine Anzeigevorrichtung zum Anzeigen verschiedener Typen von Informationen. Beispielsweise ist die Anzeigeeinheit 13 durch eine Flüssigkristallanzeigevorrichtung oder dergleichen implementiert. Es wird darauf hingewiesen, dass dann, wenn eine berührungssensitive Tafel als das Anwenderendgerät 10 eingesetzt ist, ein Teil der Eingabeeinheit 12 und der Anzeigeeinheit 13 integriert sind.
  • Die Speichereinheit 15 ist beispielsweise durch ein Halbleiterspeicherelement, wie z. B. einen Direktzugriffsspeicher (RAM) oder einen Flash-Speicher, oder eine Speichervorrichtung wie z. B. eine Festplatte oder eine optische Platte implementiert. Die Speichereinheit 16 speichert verschiedene Daten, die zur Datenverarbeitung verwendet werden.
  • Wie in 7 gezeigt ist, speichert die Speichereinheit 15 verschiedene Informationen wie z. B. Kompositionseinstellungsinformationen 151, Kompositionsmusikinformationen 152, Verlaufsinformationen 153 und Informationen 154 über zugeordnete Instrumente. Nachstehend wird jeder Typ von Informationen beschrieben.
  • Die Kompositionseinstellungsinformationen 151 sind Informationen, die durch das Plug-In 22 (die zweite Anwendung) verwendet werden, wenn automatische Komposition ausgeführt wird. 8 zeigt ein Beispiel für die Kompositionseinstellungsinformationen 151 gemäß der Ausführungsform. 8 ist ein Diagramm, das ein Beispiel der Kompositionseinstellungsinformationen 151 gemäß der Ausführungsform zeigt.
  • Wie in 8 gezeigt ist, weisen die Kompositionseinstellungsinformationen 151 Kompositionskorpusinformationen und Darbietungsstilinformationen auf. Als die Kompositionskorpusinformationen sind Musikdaten, die als die Lerndaten der automatischen Komposition verwendet sind, oder ein Ort, an dem die Musikdaten gesichert sind (z. B. die Adresse des Datenservers) gespeichert. Zusätzlich weisen die Kompositionskorpusinformationen beispielsweise Informationen wie z. B. die mittlere Länge und Modulation der Töne jedes Musikstücks auf.
  • Als die Darbietungsstilinformationen sind Informationen wie z. B. der Darbietungsstil der Musik, die als Lerndaten der automatischen Komposition verwendet sind, gespeichert. Der Darbietungsstil weist beispielsweise Informationen wie z. B. das Zufallswiedergabeverhältnis, Akkord- und Basston-Aufteilungen und das Gesamtgleichgewicht auf.
  • Die Kompositionsmusikinformationen 152 sind Informationen über die Musik, die durch das Plug-In 22 verwendet wird, wenn es automatische Komposition ausführt. 9 zeigt ein Beispiel für die Kompositionsmusikinformationen 152 gemäß der Ausführungsform. 9 ist ein Diagramm, das ein Beispiel für die Kompositionsmusikinformationen 152 gemäß der Ausführungsform zeigt.
  • Wie in 9 gezeigt ist, weisen die Kompositionsmusikinformationen 152 eine Musik-ID, eine Stilpaletten-ID und eine Stilpalettenfolgen-ID auf. Die Musik-ID gibt Identifizierungsinformationen zum eindeutigen Identifizieren existierender Musik, die als Lerndaten verwendet wird, an. Die Stilpaletten-ID gibt Identifizierungsinformationen zum Identifizieren einer Stilpalette, die mehrere Stücke existierender Musik aufweist, an. Die Stilpalettenfolgen-ID gibt Identifizierungsinformationen zum Identifizieren einer Stilpalettenfolge, die mehrere Stilpaletten aufweist, an.
  • Die Verlaufsinformationen 153 geben den Verlauf von Operationen durch den Anwender in der Host-Anwendung 20 und dem Plug-In 22 und den Verlauf der durch den Anwender erzeugten Musik an. 10 zeigt ein Beispiel der Verlaufsinformationen 153 gemäß der Ausführungsform. 10 ist ein Diagramm, das ein Beispiel der Verlaufsinformationen 153 gemäß der Ausführungsform zeigt.
  • Wie in 10 gezeigt ist, weisen die Verlaufsinformationen 153 Kompositionsmusikinformationen auf. Die Kompositionsmusikinformationen weisen Musikdaten, die von dem Verarbeitungsserver 100 gesendet werden, mehrere Kandidatendaten, die in den Musikdaten enthalten sind, (Musikdaten 35, die vier Typen von Unterteilungen aufweisen, die auf der Basis spezieller Einstellungsinformationen erzeugt sind, und dergleichen, wie in 2 gezeigt ist) und Musikdaten, die durch den Anwender editiert sind, auf.
  • Die Informationen 154 über zugeordnete Instrumente geben Instrumenteninformationen, die für die von dem Verarbeitungsserver 100 gesendeten Musikdaten eingestellt sind, und mehrere Einheiten von Kandidatendaten, die in den Musikdaten enthalten sind, an. 11 zeigt ein Beispiel der Informationen 154 über zugeordnete Instrumente gemäß der Ausführungsform. 11 ist ein Diagramm, das ein Beispiel der Informationen 154 über zugeordnete Instrumente gemäß der Ausführungsform zeigt.
  • Wie in 11 gezeigt ist, weisen die Informationen 154 über zugeordnete Instrumente Informationen über zugeordnete Instrumente auf. Die Informationen über zugeordnete Instrumente geben Informationen zum Identifizieren der Instrumente, die zum virtuellen Abspielen von Musikdaten, die von dem Verarbeitungsserver 100 gesendet werden, eingestellt sind, oder mehrere Einheiten von Kandidatendaten, die in den Musikdaten enthalten sind, den Namen des Instruments, das für die Musikdaten eingestellt ist, und dergleichen an. Beispielsweise können als die Informationen über zugeordnete Instrumente unterschiedliche Informationen für jedes aus der Tonfolge, dem Akkord und dem Basston eingestellt sein.
  • Zurück zu 7 wird die Beschreibung fortgesetzt. Beispielsweise ist die Steuereinheit 16 durch eine zentrale Verarbeitungseinheit (CPU), eine Mikroverarbeitungseinheit (MPU), eine Grafikverarbeitungseinheit (GPU) oder dergleichen, die ein Programm (z. B. ein Datenverarbeitungsprogramm gemäß der vorliegenden Offenbarung), das in dem Anwenderendgerät 10 gespeichert ist, mit einem Direktzugriffsspeicher (RAM) oder dergleichen als einem Arbeitsbereich ausführt, implementiert. Zusätzlich ist die Steuereinheit 16 eine Steuereinheit und kann beispielsweise durch eine integrierte Schaltung wie z. B. eine anwendungsspezifische integrierte Schaltung (ASIC) oder ein im Feld programmierbares Gatter-Array (FPGA) implementiert sein.
  • Wie in 7 gezeigt ist, weist die Steuereinheit 16 eine Host-Anwendungssteuereinheit 161 und eine Plug-In-Anwendungssteuereinheit 165 auf und erreicht eine Datenverarbeitungsfunktion und Operation, die nachstehend beschrieben ist, oder führt sie aus. Die Host-Anwendungssteuereinheit 161 weist eine Plug-In-Steuereinheit 162, eine Wiedergabeeinheit 163 und eine Anzeigesteuereinheit 164 auf. Die Plug-In-Anwendungssteuereinheit 165 weist eine Auswahleinheit 166, eine Sende/Empfangseinheit 167, eine Wiedergabeeinheit 168 und eine Anzeigesteuereinheit 169 auf. Es wird darauf hingewiesen, dass die interne Konfiguration der Steuereinheit 16 nicht auf die in 7 gezeigte Konfiguration eingeschränkt ist und eine andere Konfiguration sein kann, solange sie eine Konfiguration zum Ausführen der später beschriebenen Datenverarbeitung ist.
  • Die Host-Anwendungssteuereinheit 161 steuert die Host-Anwendung 20 (DAW als erste Anwendung).
  • Die Plug-In-Steuereinheit 162 steuert den Betrieb verschiedener Plug-Ins in der Host-Anwendung 20. Beispielsweise steuert die Plug-In-Steuereinheit 162 Operationen wie z. B. das Aufrufen eines Plug-In in der Host-Anwendung 20, das Aktivieren eines Plug-In auf der Host-Anwendung 20 und das Kopieren von Daten in einem Plug-In zu der Host-Anwendung 20.
  • Beispielsweise stellt die Plug-In-Steuereinheit 162 individuell Instrumenteninformationen zum Festlegen einer Klangqualität, wenn das Plug-In einen Akkord, eine Tonfolge oder einen Basston, die in von dem Verarbeitungsserver 100 empfangenen Musikdaten enthalten sind, wiedergibt. Beispielsweise liest die Plug-In-Steuereinheit 162 Informationen über auf dem DAW registrierte virtuelle Instrumenten aus und stellt die Informationen über die virtuellen Instrumente ein, um jedes aus dem Akkord, der Tonfolge oder dem Basston, die in den Musikdaten des Plug-In enthalten sind, abzuspielen.
  • Die Wiedergabeeinheit 163 steuert die Wiedergabeverarbeitung in der Host-Anwendung 20. Die Wiedergabeeinheit 163 weist eine Funktion zur synchronen Wiedergabe, eine Wiedergabeinformationssendefunktion, eine Klangsynthesewiedergabefunktion, eine Wiedergabestilanordnungsfunktion und dergleichen in der Host-Anwendung 20 auf.
  • Beispielsweise arbeitet die Wiedergabeeinheit 163 mit der Funktion zur synchronen Wiedergabe der Wiedergabeeinheit 168 des Plug-In zusammen, um die durch das Plug-In gehaltenen Musikdaten wiederzugeben. Beispielsweise kann die Wiedergabeeinheit 163 Zeitinformationen, die die Position, an der die Host-Anwendung wiedergibt, zu dem Plug-In weitergeben, um die Tonfolge, den Akkord und den Basston des Abschnitts, der der Wiedergabeposition entspricht, zu erfassen und wiederzugeben.
  • Zusätzlich kann in einem Fall, in dem der Darbietungsstil oder dergleichen in dem Plug-In eingestellt ist, die Wiedergabeeinheit 163 die Wiedergabedaten gemäß dem Darbietungsstil verarbeiten und die verarbeiteten Daten wiedergeben.
  • Die Anzeigesteuereinheit 164 steuert die Anzeigesteuerungsverarbeitung in der Host-Anwendung 20. Beispielsweise weist die Anzeigesteuereinheit 164 eine Darbietungsinformationsanzeigefunktion zum Anzeigen von Informationen über jede Spur auf einem Bildschirm (der Anzeigeeinheit 13), eine Kompositionsmusikinformationseinfügefunktion zum Kopieren von Informationen wie z. B. Musikdaten in eine Spur und dergleichen auf.
  • Zusätzlich steuert die Anzeigesteuereinheit 164 das Plug-In, jedes Fenster, das Informationen, die den Akkord, die Tonfolge oder den Basston betreffen, die in den von dem Verarbeitungsserver 100 empfangenen Musikdaten enthalten sind, anzeigt, separat anzuzeigen. Beispielsweise zeigt die Anzeigesteuereinheit 164 eine Anwenderschnittstelle, die jedem aus dem Akkord, der Tonfolge oder dem Basston entspricht, auf dem Bildschirm des DAW an, wie in 3 gezeigt ist.
  • Zusätzlich steuert die Anzeigesteuereinheit 164 das Senden und den Empfang von Informationen zwischen jedem Fenster, das Informationen, die den Akkord, die Tonfolge oder den Basston betreffen, anzeigt, und einem Fenster, das Informationen, die die Host-Anwendung betreffen, anzeigt, gemäß der Operation des Anwenders. Als ein Ergebnis kann der Anwender schnell Verarbeitung wie z. B. Kopieren der automatisch komponierten Musikdaten in eine beliebige Spur oder Ausführen von Editieren auf dem DAW ausführen.
  • Es wird darauf hingewiesen, dass die Anzeigesteuereinheit 164 nicht nur den Austausch von Informationen zwischen der Host-Anwendung und dem Plug-In, sondern auch den Austausch von Informationen zwischen den anzeigen Plug-In-Fenstern steuern kann. Das heißt, die Anzeigesteuereinheit 164 kann das Senden und den Empfang von Informationen zwischen Fenstern, von denen jedes Informationen anzeigt, die den Akkord, die Tonfolge oder den Basston betreffen, gemäß der Operation des Anwenders steuern.
  • Die Plug-In-Anwendungssteuereinheit 165 steuert den Betrieb des Plug-In, das auf der Host-Anwendung 20 abläuft. Beispielsweise aktiviert die Plug-In-Anwendungssteuereinheit 165 das Plug-In auf der Host-Anwendung 20 gemäß der Operation des Anwenders.
  • Die Auswahleinheit 166 wählt Einstellungsinformationen zum Steuern einer Kompositionsfunktion basierend auf Maschinenlernen aus. Beispielsweise wählt die Auswahleinheit 166 als die Einstellungsinformationen Festlegungsinformationen zum Festlegen des Musikmaterials als Lerndaten für das Maschinenlernen aus. Insbesondere entsprechen die Festlegungsinformationen der in 4 und anderen Zeichnungen gezeigten Stilpalette.
  • Beispielsweise wählt die Auswahleinheit 166 gemäß der Operation des Anwenders Festlegungsinformationen, die im Voraus in der Speichereinheit 15 gespeichert sind, aus und nimmt Merkmalsinformationen, die ein Merkmal der Festlegungsinformationen angeben, und mehrere Stücke von Musikmaterial, die den Merkmalsinformationen zugeordnet sind, auf. Beispielsweise referenziert der Anwender die Merkmalsinformationen („hell“, „dunkel“ oder dergleichen) der Stilpalette durch das Fenster 40 oder dergleichen, das in 4 gezeigt ist. Dann wählt der Anwender basierend auf den Merkmalsinformationen eine Stilpalette, die die gewünschten Merkmalsinformationen aufweist, für die durch die AI zu komponierende Musik aus.
  • Zusätzlich kann die Auswahleinheit 166 kombinierte Festlegungsinformationen, in denen erste Festlegungsinformationen, die einigen Takten der Musikdaten, die durch den externen Server komponiert sind, entsprechen, und zweite Festlegungsinformationen, die einigen anderen Takten davon entsprechen, kombiniert sind, auswählen. Wie vorstehend beschrieben entsprechen die kombinierten Festlegungsinformationen der Stilpalettenfolge. Zusätzlich entsprechen die ersten Festlegungsinformationen der Stilpalette, die die Einstellungsinformationen zum Komponieren einiger Takte ist. Zusätzlich entsprechen die zweiten Festlegungsinformationen der Stilpalette, die die Einstellungsinformationen zum Komponieren einiger anderer Takte ist.
  • Außerdem kann die Auswahleinheit 166 zusätzlich zu der Stilpalette detaillierte Einstellungsinformationen, die die zu komponierenden Musikdaten betreffen, auswählen.
  • Beispielsweise kann die Auswahleinheit 166 als die Einstellungsinformationen die Längeninformationen von Tönen, die in den durch den Verarbeitungsserver 100 auf der Basis der Stilpalette komponierten Musikdaten enthalten sind, auswählen. Beispielsweise nimmt die Auswahleinheit 166 die Auswahl der Tonlängeninformationen von dem Anwender über die Anzeige des Schiebereglers oder dergleichen der Einstellungsinformationen 33, der in der Anwenderschnittstelle 30, die in 2 gezeigt ist, oder dergleichen enthalten ist, entgegen.
  • Zusätzlich kann die Auswahleinheit 166 als Einstellungsinformationen Informationen zum Bestimmen der Wahrscheinlichkeit dafür, dass die einzelnen Töne, die in einem Akkord enthalten sind, in der Tonfolge der durch den Verarbeitungsserver 100 auf der Basis der Stilpalette komponierten Musikdaten auftreten, auswählen. Beispielsweise nimmt die Auswahleinheit die Auswahl der Informationen zum Bestimmen der Wahrscheinlichkeit dafür, dass einzelne Töne, die in einem Akkord enthalten sind, in der Tonfolge auftreten, von dem Anwender über die Anzeige des Schiebereglers oder dergleichen der Einstellungsinformationen 32, der in der Anwenderschnittstelle 30, die in 2 gezeigt ist, oder dergleichen enthalten ist, entgegen.
  • Zusätzlich kann die Auswahleinheit 166 als Einstellungsinformationen Informationen zum Bestimmen des Typs und der Menge von Musikmaterial, das nicht das Musikmaterial ist, das in der Stilpalette der durch den Verarbeitungsserver 100 auf der Basis der Stilpalette komponierten Musik, enthalten ist, auswählen. Beispielsweise nimmt die Auswahleinheit die Auswahl der Informationen zum Bestimmen des Typs und der Menge von Musikmaterial, das nicht das Musikmaterial ist, das in der Stilpalette enthalten ist, von dem Anwender über die Anzeige des Schiebereglers oder dergleichen der Einstellungsinformationen 34, der in der Anwenderschnittstelle 30, die in 2 gezeigt ist, der dergleichen enthalten ist, entgegen.
  • Zusätzlich kann die Auswahleinheit 166 Informationen, die nicht die Stilpalette sind, als die Einstellungsinformationen für automatische Komposition auswählen. Als ein Beispiel kann die Auswahleinheit 166 als die Einstellungsinformationen eine Akkordfortschreibung in der komponierten Musik auf der Basis der Operation des Anwenders auswählen. In diesem Fall erzeugt der Verarbeitungsserver 100 automatisch Musikdaten auf der Basis der durch den Anwender ausgewählten Akkordfortschreibung.
  • Die Sende/Empfangseinheit 167 sendet die durch die Auswahleinheit 166 ausgewählten Einstellungsinformationen zu dem Verarbeitungsserver 100, der die Kompositionsfunktion basierend auf Maschinenlernen ausführt, über das Netz N und empfängt die durch den Verarbeitungsserver 100 komponierten Musikdaten.
  • Beispielsweise sendet die Sende/Empfangseinheit 167 eine durch die Auswahleinheit 166 ausgewählte Stilpalette zu dem Verarbeitungsserver 100. Dann empfängt die Sende/Empfangseinheit 167 durch den Verarbeitungsserver 100 auf der Basis der Stilpalette erzeugte Musikdaten.
  • Die Sende/Empfangseinheit 167 empfängt beispielsweise einen Akkord in einem Takt einer spezifizierten Länge, eine Tonfolge in dem Takt und einen Basston in dem Takt als Musikdaten. Solche Informationen können Daten wie z. B. MIDI, MusicXML oder dergleichen, Informationen des DAW-Originalstandards oder Wellenformdaten (WAV-Datei oder dergleichen) sein.
  • Zusätzlich kann die Sende/Empfangseinheit 167 eine durch die Auswahleinheit 166 ausgewählte Stilpalettenfolge zu dem Verarbeitungsserver 100 senden. In diesem Fall empfängt die Sende/Empfangseinheit 167 die durch den Verarbeitungsserver 100 auf der Basis der Stilpalettenfolge erzeugten Musikdaten.
  • Wenn die Sende/Empfangseinheit 167 von dem Verarbeitungsserver 100 auf der Basis der Stilpalettenfolge komponierte Musikdaten empfängt, kann die Sende/Empfangseinheit 167 die Musikdaten in Zuordnung zu der Stilpalettenfolge in der Speichereinheit 15 speichern. Als ein Ergebnis kann der Anwender darauf, welche Art von Musikdaten durch welche Art von Stilpalettenfolge erzeugt werden, als einen Verlauf referenzieren, so dass solche Informationen zur Komposition benutzt werden können.
  • Zusätzlich kann die Sende/Empfangseinheit 167 verschiedene Einstellungsinformationen, die nicht die Stilpalette und die Stilpalettenfolge sind, zu dem Verarbeitungsserver 100 senden. Beispielsweise sendet die Sende/Empfangseinheit 167 zu dem Verarbeitungsserver 100 Tonlängeninformationen, Informationen zum Bestimmen der Wahrscheinlichkeit dafür, dass in einem Akkord enthaltene einzelne Töne in der Tonfolge auftreten, Informationen zum Bestimmen des Typs und der Menge von Musikmaterial, das nicht das in der Stilpalette enthaltene Musikmaterial ist, und dergleichen, die durch den Anwender eingestellt sind.
  • Zusätzlich kann, wenn der Anwender eine Wiedergabe- oder Editieroperation auf den durch den Verarbeitungsserver 100 komponierten Musikdaten nach dem Empfangen der Musikdaten ausführt, die Sende/Empfangseinheit 167 Informationen, die die Wiedergabe- oder Editieroperation betreffen, zu dem Verarbeitungsserver 100 senden. Als ein Ergebnis kann der Verarbeitungsserver 100 Informationen wie z. B. wie die komponierten Musikdaten verwendet werden oder wie viel die komponierten Musikdaten verwendet werden, erfassen. In diesem Fall kann der Verarbeitungsserver 100 das Lernverfahren und die Musikdaten, die auf der Basis solcher Informationen zu erzeugen sind, anpassen. Beispielsweise kann der Verarbeitungsserver 100 vergangene Musikdaten, die durch mehr Anwender verwendet wurden, analysieren und bevorzugt Musikdaten, die solche Eigenschaften aufweisen, erzeugen.
  • Die Wiedergabeeinheit 168 steuert die Wiedergabeverarbeitung in dem Plug-In. Beispielsweise gibt die Wiedergabeeinheit 168 durch die Sende/Empfangseinheit 167 empfangene Musikdaten wieder. Insbesondere stellt die Wiedergabeeinheit 168 beliebige Instrumenteninformationen für jedes aus der Tonfolge, dem Akkord und dem Basston, die in den Musikdaten enthalten sind, ein und gibt jede Dateneinheit wieder. Es wird darauf hingewiesen, dass die Wiedergabeeinheit 168 die Tonfolge, den Akkord und den Basston in Kombination wiedergeben kann.
  • Die Anzeigesteuereinheit 169 steuert die Anzeigeverarbeitung in dem Plug-In. Beispielsweise zeigt die Anzeigesteuereinheit 169 ein Fenster wie z. B. eine Anwenderschnittstelle, die Plug-In-Informationen zeigt, auf dem Bildschirm an.
  • Wie in 2 gezeigt ist, erfasst beispielsweise die Anzeigesteuereinheit 169 vier Typen von Musikdaten von vier Takten und zeigt die vier Kandidaten nebeneinander in der Anwenderschnittstelle an. Der Anwender kann den endgültigen Kandidaten durch Verbinden guter Teile entlang der Zeitachse (d. h. Ausführen von Begleiten) aus den vier Typen von Musikdatenkandidaten auswählen. Beispielsweise kann der Anwender einige Töne in einer Tonfolge löschen oder verbinden, die Länge der Töne ändern oder die Tonhöhe der Töne ändern.
  • Zusätzlich kann die Anzeigesteuereinheit 169 Steuerung zum Abrufen des Verlaufs vergangener Musikdaten, die durch den Verarbeitungsserver 100 komponiert sind, aus der Speichereinheit 15 und Anzeigen des Verlaufs der vergangenen Musikdaten gemäß der Operation des Anwenders ausführen. Als ein Ergebnis kann der Anwender mit der Komposition fortfahren, während er die durch den Verarbeitungsserver 100 in der Vergangenheit komponierten Daten referenziert. Beispielsweise kann der Anwender den endgültigen Kandidaten durch Vergleichen der neuesten durch Editieren erzeugten Musik mit dem Verlauf der in der Vergangenheit editierten Musik bestimmen.
  • Zusätzlich kann die Anzeigesteuereinheit 169 Steuerung zum Abrufen des Verlaufs von Editieroperationen, die auf den vergangenen durch den Verarbeitungsserver 100 komponierten Musikdaten ausgeführt wurden, aus der Speichereinheit 15 und außerdem Anzeigen der auf den vergangenen Musikdaten ausgeführten Editieroperationen ausführen. Als ein Ergebnis kann der Anwender die in der Vergangenheit ausgeführten Editieroperationen, beispielsweise die durch die Editieroperation erzeugten Musikdaten, referenzieren, so dass die Komposition effizient ausgeführt werden kann.
  • Es wird darauf hingewiesen, dass, obwohl die 2 und 3 ein Beispiel zeigen, in dem Musikdaten auf der Anwenderschnittstelle in einem Format wie eine sogenannte Notenrolle, die die Tonhöhe und die Tonlänge zeigt, angezeigt ist, die Anzeigesteuereinheit 169 die Musikdaten in einer Notendarstellung oder in einem für den DAW einzigartigem Format anzeigen kann.
  • [1-4. Konfiguration des externen Servers (Verarbeitungsservers) gemäß der Ausführungsform]
  • Als Nächstes wird die Konfiguration des Verarbeitungsservers 100, der ein Beispiel des externen Servers gemäß der vorliegenden Offenbarung ist, beschrieben. 12 ist ein Diagramm, das ein Konfigurationsbeispiel des Verarbeitungsservers 100 gemäß der Ausführungsform zeigt.
  • Wie in 12 gezeigt ist, weist der Verarbeitungsserver 100 eine Kommunikationseinheit 110, eine Speichereinheit 120 und eine Steuereinheit 130 auf. Es wird darauf hingewiesen, dass der Verarbeitungsserver 100 eine Eingabeeinheit (z. B. eine Tastatur, eine Maus oder dergleichen) aufweisen kann, die verschiedene Operationen von einem Administrator oder dergleichen, der den Verarbeitungsserver 100 managt, entgegennimmt, und eine Anzeigeeinheit (z. B. eine Flüssigkristallanzeigevorrichtung oder dergleichen) zum Anzeigen verschiedener Informationen aufweisen kann.
  • Die Kommunikationseinheit 110 ist beispielsweise durch eine NIC oder dergleichen implementiert. Die Kommunikationseinheit 210 ist mit dem Netz N drahtgebunden oder drahtlos verbunden und sendet und empfängt Daten zu und von dem Anwenderendgerät 10, dem Managementserver 20 und dergleichen über das Netz N.
  • Die Speichereinheit 120 ist beispielsweise durch ein Halbleiterspeicherelement, wie z. B. einen RAM oder einen Flash-Speicher, oder eine Speichervorrichtung wie z. B. eine Festplatte oder eine optische Platte implementiert. Die Speichereinheit 120 speichert verschiedene Daten, die zur Datenverarbeitung verwendet werden.
  • Wie in 12 gezeigt ist, speichert die Speichereinheit 120 verschiedene Informationen wie z. B. Anwenderinformationen 121, Musikinformationen 122, Stilpaletteninformationen 123, Stilpalettenfolgeninformationen 124, Anwenderkompositionsinformationen 125 und Verlaufsinformationen 126. Nachstehend wird jeder Typ von Informationen beschrieben.
  • Die Anwenderinformationen 121 geben Informationen über den Anwender des Plug-In 22 (zweite Anwendung) an. 13 zeigt ein Beispiel der Anwenderinformationen 121 gemäß der Ausführungsform. 13 ist ein Diagramm, das ein Beispiel der Anwenderinformationen 121 gemäß der Ausführungsform zeigt.
  • Wie in 13 gezeigt ist, weisen die Anwenderinformationen 121 eine Anwender-ID, Anwendermetainformationen und Berechtigungsinformationen auf. Die Anwender-ID gibt Identifizierungsinformationen zum eindeutigen Identifizieren des Anwenders an. Die Anwendermetainformationen sind zusätzliche Informationen über den Anwender wie z. B. der Name und die Adresse des Anwenders. Die Berechtigungsinformationen sind beispielsweise Identifizierungsinformationen wie z. B. ob der Anwender des Plug-In ein Administrator, ein allgemeiner Anwender oder ein spezieller Anwender ist.
  • Die Musikinformationen 122 geben Informationen über die zur automatischen Kompositionsverarbeitung verwendete Musik an. 14 zeigt ein Beispiel der Musikinformationen 122 gemäß der Ausführungsform. 14 ist ein Diagramm, das ein Beispiel der Musikinformationen 122 gemäß der Ausführungsform zeigt.
  • Wie in 14 gezeigt ist, weisen die Musikinformationen 122 eine Musik-ID, Musikmetainformationen, Tonfolgeninformationen, Akkordfortschreibungsinformationen und Basstonfortschreibungsinformationen auf. Die Musik-ID gibt Identifizierungsinformationen zum eindeutigen Identifizieren der Musik an. Die Musikmetainformationen sind beispielsweise Informationen wie z. B. der Musiktitel, der Komponist, das Datum und das Genre der Musik. Die Tonfolgeninformationen sind beispielsweise Tonleiterinformationen oder dergleichen, die einen Vokalteil ausdrücken. Die Akkordfortschreibungsinformationen sind beispielsweise Zeitreiheninformationen, die den Übergang von Akkorden in der Musik ausdrücken. Die Basstonfortschreibungsinformationen sind Zeitreiheninformationen, die den Grundton der Akkordfortschreibungsinformationen angeben.
  • Die Stilpaletteninformationen 123 geben Informationen an, die die zur automatischen Kompositionsverarbeitung verwendete Stilpalette betreffen. 15 zeigt ein Beispiel der Stilpaletteninformationen 123 gemäß der Ausführungsform. 15 ist ein Diagramm, das ein Beispiel der Stilpaletteninformationen 123 gemäß der Ausführungsform zeigt.
  • Wie in 15 gezeigt ist, weisen die Stilpaletteninformationen 123 eine Stilpaletten-ID, Stilpalettenmetainformationen und die Musik-ID auf. Die Stilpaletten-ID gibt Identifizierungsinformationen zum eindeutigen Identifizieren der Stilpalette an. Die Stilpalettenmetainformationen weisen beispielsweise Informationen wie z. B. den Namen der Stilpalette, subjektive Merkmalsinformationen wie z. B. hell oder dunkel und schnell oder langsam, die Struktur wie z. B. ein Lied, das eine Strophe, eine Brücke und einen Refrain aufweist, und das Merkmal der Akkordfortschreibungen auf. Es wird darauf hingewiesen, dass Akkordfortschreibungsinformationen oder dergleichen dem Namen der Stilpalettenmetainformationen hinzugefügt sein können. Als ein Ergebnis kann der Anwender die Merkmale der Stilpalette intuitiv begreifen. Zusätzlich sind, wie in 15 gezeigt ist, mehrere Musik-IDs in Zuordnung zu der Stilpalette registriert. Die Stilpaletteninformationen 123 sind beispielsweise durch den Managementserver 200 oder dergleichen registriert.
  • Die Stilpalettenfolgeninformationen 124 geben Informationen an, die die für die automatische Kompositionsverarbeitung verwendete Stilpalettenfolge betreffen. 16 zeigt ein Beispiel der Stilpalettenfolgeninformationen 124 gemäß der Ausführungsform. 16 ist ein Diagramm, das ein Beispiel der Stilpalettenfolgeninformationen 124 gemäß der Ausführungsform zeigt.
  • Wie in 16 gezeigt ist, weisen die Stilpalettenfolgeninformationen 124 eine Stilpalettenfolgen-ID, Stilpalettenfolgenmetainformationen, die Stilpaletten-ID und Formulierungsinformationen auf. Die Stilpalettenfolgen-ID gibt Identifizierungsinformationen zum eindeutigen Identifizieren der Stilpalettenfolge an. Die Stilpalettenfolgenmetainformationen sind beispielsweise der Name der Stilpalettenfolge und subjektive Merkmalsinformationen wie z. B. hell oder dunkel und schnell oder langsam. Zusätzlich sind, wie in 16 gezeigt ist, mehrere Stilpaletten-IDs in Zuordnung zu der Stilpalettenfolge registriert. Zusätzlich sind die Formulierungsinformationen Informationen, die die Anordnung der Stilpaletten in der Stilpalettenfolge betreffen.
  • Die Anwenderkompositionsinformationen 125 geben Informationen an, die die von dem Anwenderendgerät 10 empfangene Komposition betreffen. 17 zeigt ein Beispiel der Anwenderkompositionsinformationen 125 gemäß der Ausführungsform. 17 ist ein Diagramm, das ein Beispiel der Anwenderkompositionsinformationen 125 gemäß der Ausführungsform zeigt.
  • Wie in 17 gezeigt ist, weisen die Anwenderkompositionsinformationen 125 die Anwender-ID, die Musik-ID, die Stilpaletten-ID und die Stilpalettenfolgen-ID auf. Die Anwender-ID gibt Identifizierungsinformationen zum eindeutigen Identifizieren des Anwenders an. Die Musik-ID gibt Identifizierungsinformationen zum Identifizieren der durch den durch die Anwender-ID identifizierten Anwender erzeugten Musik an. Die Stilpaletten-ID gibt Identifizierungsinformationen zum Identifizieren der von dem durch die Anwender-ID identifizierten Anwender gesendeten Stilpalette an. Die Stilpalettenfolgen-ID gibt Identifizierungsinformationen zum Identifizieren der von dem durch die Anwender-ID identifizierten Anwender gesendeten Stilpalettenfolge an.
  • Die Verlaufsinformationen 126 sind verschiedene Verläufe, die sich auf Datenverarbeitung des Verarbeitungsservers 100 beziehen. 18 zeigt ein Beispiel für die Verlaufsinformationen 126 gemäß der Ausführungsform. 18 ist ein Diagramm, das ein Beispiel der Verlaufsinformationen 126 gemäß der Ausführungsform zeigt.
  • Wie in 18 gezeigt ist, weisen die Verlaufsinformationen 126 Kompositionsverlaufsinformationen und Operationsverlaufsinformationen auf. Die Kompositionsverlaufsinformationen sind der Verlauf der durch den Verarbeitungsserver 100 erzeugten Musik. Die Operationsverlaufsinformationen sind Informationen wie z. B. der Verlauf von Editieroperationen durch den Anwender auf dem Anwenderendgerät 10. Die Operationsverlaufsinformationen sind beispielsweise Informationen darüber, dass der Anwender, der Neukomposition ausführt, komponierte Musikdaten auswählt, die Musikdaten editiert, Informationen über die Anzahl von Wiedergaben und die Anzahl von Fällen, in denen die Wiedergabe übersprungen wird, und dergleichen. Diese Informationseinheiten können als Lerndaten einer Kompositionseinheit 134, die später beschrieben wird, verwendet werden.
  • Zurück zu 12 wird die Beschreibung fortgesetzt. Die Steuereinheit 130 ist beispielsweise durch die CPU, MPU, GPU oder dergleichen, die ein in dem Verarbeitungsserver 100 gespeichertes Programm mit einem RAM oder dergleichen als einem Arbeitsbereich ausführt, implementiert. Zusätzlich ist die Steuereinheit 130 eine Steuereinheit und kann beispielsweise durch eine integrierte Schaltung wie z. B. eine ASIC oder ein FPGA implementiert sein.
  • Wie in 12 gezeigt ist, weist die Steuereinheit 130 eine Annahmeeinheit 131, eine Managementeinheit 132, eine Erfassungseinheit 133, eine Kompositionseinheit 134 und eine Sendeeinheit 135 auf und erreicht eine Datenverarbeitungsfunktion und Operation, die nachstehend beschrieben ist, oder führt sie aus. Es wird darauf hingewiesen, dass die interne Konfiguration der Steuereinheit 130 nicht auf die in 12 gezeigte Konfiguration eingeschränkt ist und eine andere Konfiguration sein kann, solange sie eine Konfiguration zum Ausführen der später beschriebenen Datenverarbeitung ist.
  • Die Annahmeeinheit 131 nimmt verschiedene Informationen, die von dem Managementserver 200 gesendet werden, an. Beispielsweise nimmt die Annahmeeinheit 131 Informationen über den Anwender des Plug-In, Informationen, die die Stilpalette betreffen, Informationen über das Musikmaterial, das in der automatischen Komposition verwendet wird, und dergleichen an. Beispielsweise wenn der Anwender ein Produkt (Plug-In, DAW oder dergleichen) kauft und aktiviert, führt die Annahmeeinheit 131 Verarbeitung zum Ausgeben einer Anwender-ID zu dem Anwender und Annehmen von Informationen bezüglich des Anwenders aus. Zusätzlich nimmt die Annahmeeinheit 131 die Registrierung von Musik, die mit einer Stilpalette verbunden werden soll, Editieren der Stilpalette und dergleichen gemäß Operationen und Befehlen von dem Managementserver 200 an.
  • Die Managementeinheit 132 managt verschiedene durch die Annahmeeinheit 131 angenommene Informationen. Beispielsweise speichert die Managementeinheit 132 verschiedene Informationen in der Speichereinheit 120 und aktualisiert die gespeicherten Informationen wie jeweils erforderlich.
  • Wenn beispielsweise die Stilpalettenregistrierungsverarbeitung durch die Managementeinheit 132 fertiggestellt ist, kann der Anwender eine Liste von Stilpaletteninformationen erfassen und sie durchsuchen.
  • Die Erfassungseinheit 133 erfasst eine Anforderung für automatische Komposition, die von dem Anwenderendgerät 10 gesendet wird. Zusätzlich erfasst die Erfassungseinheit 133 Einstellungsinformationen, die zusammen mit der Anforderung gesendet werden. Beispielsweise erfasst die Erfassungseinheit 133 eine Stilpalette, die der Anwender wünscht, als die Einstellungsinformationen.
  • Die Kompositionseinheit 134 komponiert Musik auf der Basis der durch die Erfassungseinheit 133 erfassten Einstellungsinformationen. Die Kompositionseinheit 134 kann Musik unter Verwendung verschiedener existierender Musikerzeugungsalgorithmen komponieren. Beispielsweise kann die Kompositionseinheit 134 einen Musikerzeugungsalgorithmus unter Verwendung einer Markov-Kette verwenden, oder kann einen Musikerzeugungsalgorithmus unter Verwendung von tiefem Lernen verwenden. Wie vorstehend beschrieben erzeugt die Kompositionseinheit 134 mehrere Einheiten von Musikdaten für eine einzelne Einheit von Einstellungsinformationen, die von dem Anwender gesendet werden. Als ein Ergebnis kann der Anwender mehrere Vorschläge von der Kompositionseinheit 134 empfangen und kann somit mit der Komposition unter Verwendung von mehreren unterschiedlichen Informationen fortfahren.
  • Wenn Musikdaten durch Kompositionsverarbeitung erzeugt werden, ordnet die Kompositionseinheit 134 die erzeugten Musikdaten der Anwender-ID des Anwenders, der die Stilpalette gesendet hat, zu und speichert sie in der Speichereinheit 120 als Verlaufsinformationen.
  • Die Sendeeinheit 135 sendet die durch die Kompositionseinheit 134 erzeugten Musikdaten zu dem Anwenderendgerät 10.
  • [1-5. Prozedur der Datenverarbeitung gemäß der Ausführungsform]
  • Als Nächstes wird die Prozedur der Datenverarbeitung gemäß der Ausführungsform mit Bezug auf 19 beschrieben. 19 ist ein Ablaufplan, der die Prozedur der Datenverarbeitung gemäß der Ausführungsform zeigt.
  • Wie in 19 gezeigt ist, aktiviert das Anwenderendgerät 10 die automatische Kompositionsfunktion (Plug-In) auf der Host-Anwendung gemäß der Operation des Anwenders (S101).
  • Danach bestimmt das Anwenderendgerät 10, ob die Auswahl einer Stilpalette oder dergleichen von dem Anwender angenommen ist oder nicht (Schritt S102). Falls die Auswahl einer Stilpalette oder dergleichen nicht von dem Anwender angenommen ist (Schritt S102; Nein), bleibt das Anwenderendgerät 10 in Bereitschaft, bis eine Auswahl angenommen ist.
  • Falls andererseits die Auswahl einer Stilpalette oder dergleichen von dem Anwender angenommen ist (Schritt S102; Ja), wählt das Anwenderendgerät 10 eine Stilpalette gemäß der Operation des Anwenders aus (Schritt S103). Es wird darauf hingewiesen, dass das Anwenderendgerät 10 verschiedene Einstellungsinformationen, die nicht die Stilpalette sind, in Schritt S102 annehmen kann.
  • Danach bestimmt das Anwenderendgerät 10, ob eine Kompositionsanforderung von dem Anwender angenommen ist oder nicht (Schritt S104). Falls keine Kompositionsanforderung von dem Anwender angenommen ist (Schritt S104; Nein), bleibt das Anwenderendgerät 10 in Bereitschaft, bis eine Anforderung angenommen ist.
  • Falls andererseits eine Kompositionsanforderung von dem Anwender angenommen ist (Schritt S104; Ja), sendet das Anwenderendgerät 10 die angenommenen Einstellungsinformationen zusammen mit der Kompositionsanforderung zu dem Verarbeitungsserver 100 (Schritt S105). Danach empfängt das Anwenderendgerät 10 durch den Verarbeitungsserver 100 komponierte (erzeugte) Musikdaten (Schritt S106).
  • Danach bestimmt das Anwenderendgerät 10, ob Editierverarbeitung oder dergleichen durch den Anwender auf dem Anwenderendgerät 10 ausgeführt worden ist oder nicht (Schritt S107). Falls die Editierverarbeitung oder dergleichen nicht ausgeführt worden ist (Schritt S107; Nein), bleibt das Anwenderendgerät 10 in Bereitschaft, bis die Editierverarbeitung oder dergleichen angenommen ist (Schritt S107).
  • Falls andererseits die Editierverarbeitung oder dergleichen ausgeführt worden ist (Schritt S107; Ja), spiegelt das Anwenderendgerät 10 das Editieren wider und sendet Informationen, die die Editieroperation betreffen, zu dem Verarbeitungsserver 100 (Schritt S108).
  • Danach bestimmt das Anwenderendgerät 10, ob eine weitere Kompositionsanforderung von dem Anwender angenommen ist oder nicht (Schritt S109). Falls eine Kompositionsanforderung von dem Anwender angenommen ist (Schritt S109; Ja), nimmt das Anwenderendgerät 10 neue Einstellungsinformationen von dem Anwender an.
  • Falls andererseits keine Kompositionsanforderung von dem Anwender angenommen ist (Schritt S109; Nein), bestimmt das Anwenderendgerät 10, ob eine Host-Anwendungsbeendigungsanforderung angenommen ist oder nicht (Schritt S110). Falls keine Host-Anwendungsbeendigungsanforderung angenommen ist (Schritt S110; Nein), fährt das Anwenderendgerät 10 mit der Editierverarbeitung der Musikdaten, die derzeit empfangen sind, fort. Falls andererseits eine Host-Anwendungsbeendigungsanforderung angenommen ist (Schritt S110; Ja), beendet das Anwenderendgerät 10 die Host-Anwendung und das Plug-In und beendet die Verarbeitung.
  • (2. Modifikation)
  • Das vorstehend beschriebene Datenverarbeitungssystem 1 kann in verschiedenen unterschiedlichen Formen, die nicht die vorstehende Ausführungsform sind, implementiert sein. Daher werden nachstehend Modifikationen der Ausführungsform beschrieben.
  • [2-1. Form der Musikdaten]
  • In der vorstehenden Ausführungsform ist angenommen, dass die Typen von Informationen, die in den Informationen 154 über zugeordnete Instrumente und dergleichen der Musikdaten in dem Plug-In eingestellt sind, Tonfolge, Akkord und Basston sind. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt. Beispielsweise können die Informationen 154 über zugeordnete Instrumente nicht nur auf die Tonfolge, den Akkord und den Basston angewandt werden, sondern beispielsweise auch auf den Darbietungsteil jedes Instruments eines vollständigen Orchesters.
  • [2-2. Host-Anwendung]
  • In der vorstehenden Ausführungsform ist der DAW als die Host-Anwendung angenommen. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt. Beispielsweise kann die Host-Anwendung eine Video-Editieranwendung oder dergleichen anstelle einer Musik-Editieranwendung sein.
  • [2-3. Steuerung durch den DAW]
  • In der vorstehenden Ausführungsform ist ein Beispiel gezeigt, in dem das Anwenderendgerät 10 Einstellungsinformationen auf dem Plug-In auswählt und die ausgewählten Informationen zu dem Verarbeitungsserver 100 sendet. Die Einstellungsinformationen und dergleichen können jedoch durch die Host-Anwendung ausgewählt werden. Das heißt, das Anwenderendgerät 10 kann die Einstellungsinformationen (z. B. die Akkordfortschreibung) und dergleichen, die in der Host-Anwendung ausgewählt sind, an den Verarbeitungsserver 100 senden, um die Ausführung der automatischen Kompositionsverarbeitung zu ermöglichen. In diesem Fall kann die Host-Anwendung das Plug-In mit einer Anwendungsprogrammierschnittstelle (API) ausstatten, damit das Plug-In Informationen der Host-Anwendung verwenden kann, und die Erfassung von Informationen zum Erzeugen einer Stilpalette von der Host-Anwendung erlauben und die Sende- und Empfangsverarbeitungen mit dem Verarbeitungsserver 100 steuern.
  • Beispielsweise verwendet das Anwenderendgerät 10 eine Akkorderzeugungsfunktion des DAW, der die Host-Anwendung ist, um eine beliebige Akkordfortschreibung zu erzeugen. Dann kann das Anwenderendgerät 10 automatische Komposition auf der Basis der durch den DAW erzeugten Akkordfortschreibung ausführen. Beispielsweise gibt das Anwenderendgerät 10 die durch den DAW erzeugte Akkordfortschreibung in das Plug-In ein und sendet die Akkordfortschreibung über das Plug-In zu dem Verarbeitungsserver 100.
  • Das heißt, die Host-Anwendung führt Steuerung aus, um Informationen, die die Akkordfortschreibung betreffen, die in der Host-Anwendung erzeugt werden, zu dem Plug-In zu senden. Dann wählt das Plug-In die Informationen, die die Akkordfortschreibung betreffen, die in der Host-Anwendung erzeugt werden, als Einstellungsinformationen aus. Außerdem sendet das Plug-In die Informationen, die die Akkordfortschreibung betreffen, die in der Host-Anwendung erzeugt werden, zu dem Verarbeitungsserver 100 und empfängt Musikdaten, die auf der Basis der Informationen, die die Akkordfortschreibung betreffen, komponiert sind.
  • Zusätzlich kann das Anwenderendgerät 10 automatisch eine Stilpalette, die zu dem Verarbeitungsserver 100 zu senden ist, auf der Basis der durch den DAW erzeugten Akkordfortschreibung auswählen. Beispielsweise kann das Anwenderendgerät 10 eine Stilpalette auswählen, die Merkmale ähnlich der durch den DAW erzeugten Akkordfortschreibung aufweist, und die Stilpalette zu dem Verarbeitungsserver 100 senden. Zusätzlich kann das Anwenderendgerät 10 der Reihe nach Stilpaletten gemäß der durch den DAW erzeugten Akkordfortschreibung auswählen, eine Stilpalettenfolge erzeugen und die erzeugte Stilpalettenfolge zu dem Verarbeitungsserver 100 senden.
  • Zusätzlich kann das Anwenderendgerät 10 Einstellungen ausführen, so dass das Plug-In auf Informationen einer Basisspur auf der Host-Anwendung zugreifen darf. Beispielsweise stellt der Anwender die Basisspur des DAW ein, so dass die Spur automatisch komponierten Musikdaten folgt. In diesem Fall wird die Basisspur beispielsweise gemäß der durch den Verarbeitungsserver 100 erzeugten Musikdaten und einer durch den DAW erzeugten Akkordfortschreibung automatisch ergänzt.
  • Zusätzlich kann das Anwenderendgerät 10 Einstellungen ausführen, so dass das Plug-In auf Informationen einer Tonfolgenspur auf der Host-Anwendung zugreifen darf. Beispielsweise stellt der Anwender die Tonfolgenspur des DAW ein, so dass die Spur automatisch komponierten Musikdaten folgt. In diesem Fall wird, wenn der Anwender einen speziellen Takt auswählt und automatische Komposition anfordert, die erzeugte Tonfolge automatisch in die Spur eingefügt. Zusätzlich kann, wenn der Anwender den DAW auf eine Betriebsart (die als eine Begleitbetriebsart oder dergleichen bezeichnet wird) zum Editieren durch Kombinieren von mehreren Einheiten von Musikdaten einstellt, der Anwender die Tonfolge durch Auswählen gewünschter Teile aus mehreren Spuren, die auf dem Bildschirm erscheinen, fertigstellen.
  • Zusätzlich kann das Anwenderendgerät 10 Einstellungen ausführen, so dass das Plug-In auf Informationen einer Tonfolgenspur und eine MIDI-Eingabe auf der Host-Anwendung zugreifen darf. In diesem Fall kann der Anwender eine Komposition durch vollständiges Nutzen sowohl der automatischen Kompositionsfunktion als auch der MIDI-Eingabe ausführen. Beispielsweise gibt der Anwender eine beliebige Akkordfortschreibung in vier Takten ein und veranlasst den DAW zu einer Schleife. Dann führt der Anwender eine Eingabe mit der MIDI-Tastatur gemäß der Schleifenausführung aus. Durch Hochladen der Akkordfortschreibung und der Tonfolgeninformationen zu dem Verarbeitungsserver 100 kann das Anwenderendgerät 10 automatisch eine persönliche Stilpalette auf der Seite des Verarbeitungsservers 100 erzeugen. Beispielsweise kann der Anwender in einem neu hinzugefügten Stilpalettenmenü auf dem DAW beispielsweise Anweisungen erteilen, das Erzeugen zu starten oder anzuhalten, die persönlichen Stilpaletten zu sichern, zu benennen oder zu löschen. Eine solche persönliche Stilpalette kann durch das Stilpalettenmenü öffentlich verfügbar gemacht werden.
  • Zusätzlich kann das Anwenderendgerät 10 Einstellungen ausführen, so dass das Plug-In auf Informationen einer Audiospur auf der Host-Anwendung zugreifen darf. Die Audiospur ist beispielsweise eine Spur, auf der ein Instrumentenaufführungsklang aufgezeichnet ist, und ist beispielsweise eine Spur, die eine Akkordausführung durch ein Klavier, eine Basstonausführung durch eine Bassgitarre, eine Tonfolge durch ein Hauptinstrument oder dergleichen enthält. Das Plug-In greift auf eine Audiospur zu, analysiert Audiodaten wie z. B. eine Tonfolge, einen Akkord und einen Basston jeder Spur durch Signalverarbeitung und erhält NIDI-Informationen über die Tonfolge, Akkordfortschreibungsinformationen und dergleichen. Das Plug-In kann beispielsweise 12-Ton-Analysetechnologie oder dergleichen zur Analyse verwenden. In diesem Fall kann das Anwenderendgerät 10 die analysierten Informationen zu dem Verarbeitungsserver 100 senden, um die optimale Akkordfortschreibung durch Maschinenlernen oder dergleichen automatisch abzuleiten. Dann definiert der Verarbeitungsserver 100 eine Stilpalettenfolge auf der Basis dieser Akkordfortschreibungsinformationen. Als ein Ergebnis kann der Anwender unterstützte Komposition basierend auf der durch den Verarbeitungsserver 100 erzeugten Stilpalettenfolge ausführen, so dass beispielsweise die gesamte Komposition neu komponiert werden kann oder die Komposition teilweise neu komponiert und ersetzt werden kann.
  • Zusätzlich kann das Anwenderendgerät 10 Einstellungen ausführen, so dass das Plug-In auf Informationen einer existierenden Master-Spur auf der Host-Anwendung zugreifen darf. Die Master-Spur wird beispielsweise durch Ausführen von Mischen in dem DAW und Abmischen auf Zweikanal-Stereo erhalten. Das Plug-In greift auf die Master-Spur zu, analysiert die Audiodaten durch Signalverarbeitung und erhält Akkordfortschreibungsinformationen und dergleichen. Das Anwenderendgerät 10 kann die analysierten Informationen zu dem Verarbeitungsserver 100 senden, um die optimale Akkordfortschreibung durch Maschinenlernen oder dergleichen automatisch abzuleiten. Dann definiert der Verarbeitungsserver 100 eine Stilpalettenfolge auf der Basis dieser Akkordfortschreibungsinformationen. Als ein Ergebnis kann der Anwender unterstützte Komposition basierend auf der durch den Verarbeitungsserver 100 erzeugten Stilpalettenfolge ausführen, so dass beispielsweise die gesamte Komposition neu komponiert werden kann oder die Komposition teilweise neu komponiert und ersetzt werden kann.
  • Wie vorstehend beschrieben kann in einem Fall, in dem die Host-Anwendung mit verschiedenen Funktionen ausgestattet ist, das Anwenderendgerät 10 die Funktionen auf das Plug-In anwenden und sie zur Datenverarbeitung gemäß der vorliegenden Offenbarung verwenden. Beispielsweise kann, wie vorstehend beschrieben, das Anwenderendgerät 10 eine Stilpalettenfolge auf der Basis einer durch den DAW erzeugten Akkordfortschreibung erzeugen und die Stilpalettenfolge auf dem Netz öffentlich verfügbar machen, um die Kompositionsverarbeitung unter Anwendern zu stärken.
  • [2-4. Modus des Datenverarbeitungssystems]
  • In der Ausführungsform ist angenommen, dass der Verarbeitungsserver 100 auf einem Cloud-Netz installiert ist. Die vorliegende Erfindung ist jedoch nicht auf dieses Beispiel eingeschränkt, und solange die Kommunikation mit dem Anwenderendgerät 10 möglich ist, können der Verarbeitungsserver 100 und der Managementserver 200 auf einem Netz wie z. B. einem lokalen Netz (LAN) installiert sein.
  • In der Ausführungsform ist ein Beispiel gezeigt, in dem die erste Anwendung und die zweite Anwendung in dem Anwenderendgerät 10 installiert sind. Die erste Anwendung und die zweite Anwendung können jedoch Anwendungen sein, die in unterschiedlichen Vorrichtungen installiert sind. Beispielsweise kann das Anwenderendgerät 10 die Funktion nur der ersten Anwendung aufweisen und eine Klangquelle wiedergeben, beispielsweise durch Steuern der zweiten Anwendung, die auf einer weiteren Vorrichtung wie z. B. einem Tablet-Endgerät oder einem Smartphone installiert ist.
  • (3. Andere Ausführungsformen)
  • Die Verarbeitung gemäß jeder der vorstehenden Ausführungsformen kann in verschiedenen unterschiedlichen Formen, die nicht die vorstehenden Ausführungsformen sind, durchgeführt werden.
  • Zusätzlich kann unter der in jeder der vorstehenden Ausführungsformen beschriebenen Verarbeitung die gesamte oder ein Teil der Verarbeitung, die als automatisch ausgeführt beschrieben ist, manuell ausgeführt werden, und die gesamte oder ein Teil der als manuell ausgeführten Verarbeitung kann durch ein bekanntes Verfahren automatisch ausgeführt werden. Zusätzlich können die Verarbeitungsprozedur, der spezifische Name und Informationen, die verschiedene Daten und Parameter enthalten, die in dem vorstehenden Dokument und den Zeichnungen gezeigt sind, beliebig geändert werden, sofern nicht anderweitig spezifiziert. Beispielsweise sind die verschiedenen Informationen, die in den Zeichnungen gezeigt sind, nicht auf die dargestellten Informationen eingeschränkt.
  • Zusätzlich ist jede Komponente jeder dargestellten Vorrichtung ein funktionales Konzept und muss nicht notwendigerweise physikalisch wie in der Zeichnung gezeigt konfiguriert sein. Das heißt, die spezifische Form der Verteilung oder Integration jeder Vorrichtung ist nicht auf die in der Zeichnung gezeigte beschränkt, und die gesamte oder ein Teil der Vorrichtung kann in beliebigen Einheiten gemäß verschiedenen Lasten und Nutzungsbedingungen funktional oder physikalisch verteilt oder integriert sein.
  • Zusätzlich können die vorstehend beschriebenen Ausführungsformen und Modifikationen auf geeignete Weise kombiniert sein, solange die Verarbeitungsinhalte einander nicht widersprechen.
  • Zusätzlich ist der in der vorliegenden Spezifikation beschriebene Effekt lediglich eine Erläuterung und ist nicht einschränkend. Daher können andere Effekte erhalten werden.
  • (4. Effekt der Datenverarbeitungsvorrichtung gemäß der vorliegenden Offenbarung)
  • Wie vorstehend beschrieben steuert die Datenverarbeitungsvorrichtung (das Anwenderendgerät 10 in der Ausführungsform) gemäß der vorliegenden Offenbarung eine erste Anwendung (die Host-Anwendung 20 in der Ausführungsform) und eine zweite Anwendung (das Plug-In 22 in der Ausführungsform), die als ein Plug-In, das die Funktionen der ersten Anwendung erweitert, funktioniert. Die erste Anwendung weist eine Steuereinheit (die Host-Anwendungssteuereinheit 161 in der Ausführungsform) auf, die den Betrieb der zweiten Anwendung in der ersten Anwendung steuert. Die zweite Anwendung weist eine Auswahleinheit (die Auswahleinheit 166 in der Ausführungsform), die Einstellungsinformationen zum Steuern einer Kompositionsfunktion basierend auf Maschinenlernen auswählt, und eine Sende/Empfangseinheit (die Sende/Empfangseinheit 167 in der Ausführungsform), die die Einstellungsinformationen zu einem externen Server (dem Verarbeitungsserver 100 in der Ausführungsform), der die Kompositionsfunktion basierend auf Maschinenlernen ausführt, sendet und durch den externen Server komponierte Musikdaten durch ein Netz empfängt, auf.
  • Wie vorstehend beschrieben behandelt die Datenverarbeitungsvorrichtung gemäß der vorliegenden Offenbarung die zweite Anwendung, die die automatische Kompositionsfunktion aufweist, als ein Plug-In und veranlasst den externen Server, die eigentliche Kompositionsverarbeitung auszuführen. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung den Anwender mit einer Umgebung mit guter Arbeitseffizienz versorgen, während die Verarbeitungslast gedrosselt ist. Das heißt, die Datenverarbeitungsvorrichtung kann den Komfort der automatischen Kompositionsfunktion durch AI verbessern.
  • Die Sende/Empfangseinheit empfängt einen Akkord in einem Takt einer spezifizierten Länge, eine Tonfolge in dem Takt und einen Basston in dem Takt als Musikdaten. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung individuell auf die Musikdaten Bezug nehmen und sie editieren, was den Komfort für den Anwender verbessern kann.
  • Die Steuereinheit stellt individuell Instrumenteninformationen zum Festlegen einer Klangqualität beim Abspielen eines Akkords, einer Tonfolge oder eines Basstons, die in den Musikdaten enthalten sind, ein. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung verschiedene Wiedergabeumgebungen bereitstellen.
  • Die Steuereinheit führt eine Steuerung aus, um jedes Fenster, das Informationen bezüglich dem Akkord, der Tonfolge oder dem Basston, die in den Musikdaten enthalten sind, anzeigt, separat anzuzeigen. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung den Komfort für die Editieroperation des Anwenders verbessern.
  • Die Anzeigesteuereinheit steuert das Senden und den Empfang von Informationen zwischen jedem Fenster, das Informationen anzeigt, die den Akkord, die Tonfolge oder den Basston betreffen, und einem Fenster, das Informationen anzeigt, die die erste Anwendung betreffen, gemäß der Operation des Anwenders. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung Informationen zwischen der ersten Anwendung und der zweiten Anwendung durch Operationen wie z. B. Ziehen und Ablegen austauschen, so dass der Komfort für die Editieroperation des Anwenders verbessert sein kann.
  • Die Anzeigesteuereinheit steuert das Senden und den Empfang von Informationen zwischen Fenstern, von denen jedes Informationen anzeigt, die den Akkord, die Tonfolge oder den Basston betreffen, gemäß der Operation des Anwenders. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung den Komfort für die Editieroperation des Anwenders verbessern.
  • Die Auswahleinheit wählt als Einstellungsinformationen Festlegungsinformationen (die Stilpalette in der Ausführungsform) zum Festlegen von Musikmaterial als Lerndaten für Maschinenlernen aus. Die Sende/Empfangseinheit sendet die durch die Auswahleinheit ausgewählten Festlegungsinformationen zu dem externen Server. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung automatische Komposition durch Festlegen verschiedener Merkmale, die der Anwender wünscht, ausführen.
  • Gemäß der Operation des Anwenders wählt die Auswahleinheit Festlegungsinformationen, die im Voraus in einer Speichereinheit (der Speichereinheit 15 in der Ausführungsform) gespeichert sind, aus und nimmt Merkmalsinformationen, die ein Merkmal der Festlegungsinformationen angeben, und mehrere Stücke von Musikmaterial, die den Merkmalsinformationen zugeordnet sind, auf. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung den Komfort, wenn der Anwender die Festlegungsinformationen auswählt, verbessern.
  • Die Auswahleinheit wählt kombinierte Festlegungsinformationen (die Stilpalettenfolge in der Ausführungsform), in denen erste Festlegungsinformationen, die einigen Takten von Musikdaten, die durch den externen Server komponiert sind, entsprechen, und zweite Festlegungsinformationen, die einigen anderen Takten davon entsprechen, kombiniert sind, aus. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung verschiedene Arten von Musik automatisch erzeugen.
  • Wenn die Sende/Empfangseinheit Musikdaten, die durch den externen Server auf der Basis der kombinierten Festlegungsinformationen komponiert sind, empfängt, speichert die Sende/Empfangseinheit die kombinierten Festlegungsinformationen in Zuordnung zu den Musikdaten in der Speichereinheit. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung den Komfort verbessern, wenn der Anwender die kombinierten Festlegungsinformationen oder dergleichen, die die Basis von in der Vergangenheit erzeugten Musikdaten ist, referenziert.
  • Die Auswahleinheit wählt als Einstellungsinformationen die Längeninformationen von Tönen, die in den durch den externen Server auf der Basis der Festlegungsinformationen komponierten Musikdaten enthalten sind, aus. Die Sende/Empfangseinheit sendet die Festlegungsinformationen und Tonlängeninformationen zu dem externen Server. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung Musikdaten erzeugen, die die Eigenschaften, die der Anwender wünscht, aufweisen.
  • Die Auswahleinheit wählt als Einstellungsinformationen Informationen zum Bestimmen der Wahrscheinlichkeit dafür, dass die einzelnen Töne, die in einem Akkord enthalten sind, in der Tonfolge der durch den externen Server auf der Basis der Festlegungsinformationen komponierten Musikdaten auftreten, aus. Die Sende/Empfangseinheit sendet die Festlegungsinformationen und die Informationen zum Bestimmen der Wahrscheinlichkeit dafür, dass die einzelnen Töne, die in einem Akkord enthalten sind, in der Tonfolge auftreten, zu dem externen Server. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung Musikdaten erzeugen, die die Eigenschaften, die der Anwender wünscht, aufweisen.
  • Die Auswahleinheit wählt als Einstellungsinformationen Informationen zum Bestimmen des Typs und der Menge von Musikmaterial, das nicht das Musikmaterial ist, das in den Festlegungsinformationen der durch den externen Server auf der Basis der Festlegungsinformationen komponierten Musikdaten enthalten ist, aus. Die Sende/Empfangseinheit sendet die Festlegungsinformationen und die Informationen zum Bestimmen des Typs und der Menge von Musikmaterial, das nicht das in den Festlegungsinformationen enthaltene Musikmaterial ist, zu dem externen Server. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung Musikdaten erzeugen, die die Eigenschaften, die der Anwender wünscht, aufweisen.
  • Die zweite Anwendung weist ferner eine Anzeigesteuereinheit (die Anzeigesteuereinheit 169 in der Ausführungsform) auf, die Steuerung zum Abrufen des Verlaufs vergangener durch den externen Server komponierten Musikdaten aus der Speichereinheit und Anzeigen des Verlaufs der vergangenen Musikdaten gemäß der Operation des Anwenders ausführt. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung den Komfort verbessern, wenn der Anwender den Verlauf vergangener Operation und dergleichen referenziert.
  • Die Anzeigesteuereinheit führt Steuerung zum Abrufen des Verlaufs von Editieroperationen, die auf den vergangenen durch den externen Server komponierten Musikdaten ausgeführt wurden, aus der Speichereinheit und außerdem Anzeigen der auf den vergangenen Musikdaten ausgeführten Editieroperationen aus. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung den Komfort verbessern, wenn der Anwender den Verlauf vergangener Operation und dergleichen referenziert.
  • Wenn der Anwender eine Wiedergabe- oder Editieroperation auf den durch den externen Server komponierten Musikdaten nach dem Empfangen der Musikdaten ausführt, sendet die Sende/Empfangseinheit Informationen, die die Wiedergabe- oder Editieroperation betreffen, zu dem externen Server. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung den Verarbeitungsserver 100 veranlassen, weiteres Lernen auf der Basis des Editierens und dergleichen, das durch den Anwender ausgeführt wird, auszuführen.
  • Die Auswahleinheit wählt als Einstellungsinformationen eine Akkordfortschreibung in der komponierten Musik auf der Basis der Operation des Anwenders aus. Die Sende/Empfangseinheit sendet die durch die Auswahleinheit ausgewählte Akkordfortschreibung zu dem externen Server. Als ein Ergebnis dann die Datenverarbeitungsvorrichtung Musikdaten, die der Anwender wünscht, bereitstellen, ohne von den Festlegungsinformationen abhängig zu sein.
  • Die Steuereinheit führt Steuerung zum Senden von Informationen, die die in der ersten Anwendung erzeugte Akkordfortschreibung betreffen, zu der zweiten Anwendung aus. Die Auswahleinheit wählt die Informationen, die die Akkordfortschreibung, die in der ersten Anwendung erzeugt wird, betreffen, als Einstellungsinformationen aus. Die Sende/Empfangseinheit sendet die Informationen, die die Akkordfortschreibung, die in der ersten Anwendung erzeugt wird, betreffen, zu dem externen Server und empfängt Musikdaten, die auf der Basis der Informationen, die die Akkordfortschreibung betreffen, komponiert sind. Als ein Ergebnis kann die Datenverarbeitungsvorrichtung Kompositionsverarbeitung unter Nutzung der Funktionen der ersten Anwendung wie z. B. einem DAW ausführen.
  • (5. Hardwarekonfiguration)
  • Die Datenvorrichtungen wie z. B. das Anwenderendgerät 10, der Verarbeitungsserver 100 und der Managementserver 200 gemäß jeder der vorstehend beschriebenen Ausführungsformen sind durch einen Computer 1000, der beispielsweise eine Konfiguration wie in 20 gezeigt aufweist, implementiert. Nachstehend wird das Anwenderendgerät 10 gemäß der Ausführungsform als ein Beispiel beschrieben. 20 ist ein Hardwarekonfigurationsdiagramm, das ein Beispiel für den Computer 1000, der die Funktionen des Anwenderendgeräts 10 implementiert, zeigt. Der Computer 1000 weist eine CPU 1100, einen RAM 1200, einen Festwertspeicher (ROM) 1300, ein Festplattenlaufwerk (HDD) 1400, eine Kommunikationsschnittstelle 1500 und eine Eingabe/Ausgabe-Schnittstelle 1600 auf. Jeder Teil des Computer 1000 ist durch einen Bus 1050 verbunden.
  • Die CPU 1100 arbeitet auf der Basis eines in dem ROM 1300 oder der HDD 1400 gespeicherten Programms und steuert jeden Teil. Beispielsweise erweitert die CPU 1100 das in dem ROM 1300 oder der HDD 1400 gespeicherte Programm in den RAM 1200 und führt Verarbeitung, die verschiedenen Programmen entspricht, aus.
  • Der ROM 1300 speichert ein Boot-Programm wie z. B. das grundlegende Eingabe-Ausgabe-System (BIOS), das durch die CPU 110 ausgeführt wird, wenn der Computer 1000 gestartet wird, und Programme, die von der Hardware des Computers 1000 abhängen.
  • Das HDD 1400 ist ein computerlesbares Aufzeichnungsmedium, das Programme, die durch die CPU 1100 ausgeführt werden, und Daten, die durch die Programme verwendet werden, nicht-temporär speichert. Insbesondere ist das HDD 1400 ein Aufzeichnungsmedium zum Aufzeichnen eines Datenverarbeitungsprogramms gemäß der vorliegenden Offenbarung, das ein Beispiel für Programmdaten 1450 ist.
  • Die Kommunikationsschnittstelle 1500 ist eine Schnittstelle zum Verbinden des Computers 1000 mit einem externen Netz 1550 (z. B. dem Internet). Beispielsweise empfängt die CPU 1100 Daten von einer weiteren Vorrichtung oder sendet Daten, die durch die CPU 1100 erzeugt werden, zu einer weiteren Vorrichtung über die Kommunikationsschnittstelle 1500.
  • Die Eingabe/Ausgabeschnittstelle 1600 ist eine Schnittstelle zum Verbinden einer Eingabe/Ausgabevorrichtung 1650 und des Computers 1000. Beispielsweise empfängt die CPU 1100 Daten von einer Eingabevorrichtung wie z. B. einer Tastatur oder einer Maus über die Eingabe/Ausgabeschnittstelle 1600. Zusätzlich sendet die CPU 1100 Daten zu einer Ausgabevorrichtung wie z. B. einer Anzeigevorrichtung, einem Lautsprecher oder einem Drucker über die Eingabe/Ausgabeschnittstelle 1600. Zusätzlich kann die Eingabe/Ausgabeschnittstelle 1600 als eine Medienschnittstelle zum Lesen eines Programms oder dergleichen, das auf einem vorbestimmten Aufzeichnungsmedium aufgezeichnet ist, funktionieren. Das Medium ist beispielsweise ein optisches Aufzeichnungsmedium wie z. B. eine Digital-Versatile-Disc (DVD) oder eine wiederbeschreibbare Phasenwechselplatte (PD), ein magneto-optisches Aufzeichnungsmedium wie z. B. eine magneto-optische Platte (MO), ein Bandmedium, ein magnetisches Aufzeichnungsmedium oder ein Halbleiterspeicher.
  • Beispielsweise implementiert in einem Fall, in dem der Computer 1000 als das Anwenderendgerät 10 gemäß der Ausführungsform funktioniert, die CPU 1100 des Computers 1000 die Funktionen der Steuereinheit 16 und dergleichen durch Ausführen des in den RAM 1200 geladenen Datenverarbeitungsprogramms. Zusätzlich speichert das HDD 1400 das Datenverarbeitungsprogramm gemäß der vorliegenden Offenbarung und die Daten in der Speichereinheit 15. Es wird darauf hingewiesen, dass, obwohl die CPU 1100 die Programmdaten 1450 aus dem HDD 1400 liest und ausführt, diese Programme von einer weiteren Vorrichtung über das externe Netz 1550 erfasst werden können.
  • Es wird darauf hingewiesen, dass die vorliegende Technologie auch auf die folgende Weise konfiguriert sein kann.
    • (1) Datenverarbeitungsvorrichtung, die eine erste Anwendung und eine zweite Anwendung, die als ein Plug-In funktioniert, das Funktionen der ersten Anwendung erweitert, steuert, wobei die erste Anwendung Folgendes aufweist: eine Steuereinheit, die die Operation der zweiten Anwendung in der ersten Anwendung steuert, und die zweite Anwendung Folgendes aufweist:
      • eine Auswahleinheit, die Einstellungsinformationen zum Steuern einer Kompositionsfunktion basierend auf Maschinenlernen auswählt, und
      • eine Sende/Empfangseinheit, die die Einstellungsinformationen zu einem externen Server, der eine Kompositionsfunktion basierend auf Maschinenlernen ausführt, sendet und durch den externen Server komponierte Musikdaten über ein Netz empfängt.
    • (2) Datenverarbeitungsvorrichtung nach dem vorstehenden (1), wobei die Sende/Empfangseinheit einen Akkord in einem Takt einer spezifizierten Länge, eine Tonfolge in dem Takt und einen Basston in dem Takt als Musikdaten empfängt.
    • (3) Datenverarbeitungsvorrichtung nach dem vorstehenden (2), wobei die Steuereinheit Instrumenteninformationen zum Festlegen einer Klangqualität beim Abspielen eines Akkords, einer Tonfolge oder eines Basstons, die in den Musikdaten enthalten sind, individuell einstellt.
    • (4) Datenverarbeitungsvorrichtung nach dem vorstehenden (3), wobei die Steuereinheit eine Steuerung ausführt, um jedes Fenster, das Informationen bezüglich des Akkords, der Tonfolge oder des Basstons, die in den Musikdaten enthalten sind, anzeigt, separat anzuzeigen.
    • (5) Datenverarbeitungsvorrichtung nach dem vorstehenden (4), wobei die Anzeigesteuereinheit das Senden und den Empfang von Informationen zwischen jedem Fenster, das Informationen anzeigt, die den Akkord, die Tonfolge oder den Basston betreffen, und einem Fenster, das Informationen, die die erste Anwendung betreffen, anzeigt, gemäß der Operation eines Anwenders steuert.
    • (6) Datenverarbeitungsvorrichtung nach dem vorstehenden (4) oder (5), wobei die Anzeigesteuereinheit das Senden und den Empfang von Informationen zwischen Fenstern, von denen jedes Informationen, die den Akkord, die Tonfolge oder den Basston betreffen, anzeigt, gemäß der Operation des Anwenders steuert.
    • (7) Datenverarbeitungsvorrichtung nach einem der vorstehenden (1) bis (6), wobei die Auswahleinheit als die Einstellungsinformationen Festlegungsinformationen zum Festlegen von Musikmaterial als Lerndaten für das Maschinenlernen auswählt, und die Sende/Empfangseinheit die durch die Auswahleinheit ausgewählten Festlegungsinformationen zu dem externen Server sendet.
    • (8) Datenverarbeitungsvorrichtung nach dem vorstehenden (7), wobei gemäß der Operation eines Anwenders die Auswahleinheit Festlegungsinformationen, die im Voraus in einer Speichereinheit gespeichert sind, auswählt und Merkmalsinformationen, die ein Merkmal der Festlegungsinformationen angeben, und mehrere Stücke von Musikmaterial, die den Merkmalsinformationen zugeordnet sind, auswählt.
    • (9) Datenverarbeitungsvorrichtung nach dem vorstehenden (7) oder (8), wobei die Auswahleinheit kombinierte Festlegungsinformationen, in denen erste Festlegungsinformationen, die einigen Takten von Musikdaten, die durch den externen Server komponiert sind, entsprechen, und zweite Festlegungsinformationen, die einigen anderen Takten davon entsprechen, kombiniert sind, auswählt.
    • (10) Datenverarbeitungsvorrichtung nach dem vorstehenden (9), wobei wenn die Sende/Empfangseinheit Musikdaten, die durch den externen Server auf der Basis der kombinierten Festlegungsinformationen komponiert sind, empfängt, die Sende/Empfangseinheit die kombinierten Festlegungsinformationen in Zuordnung zu den Musikdaten in einer Speichereinheit speichert.
    • (11) Datenverarbeitungsvorrichtung nach einem der vorstehenden (7) bis (10), wobei die Auswahleinheit als die Einstellungsinformationen Längeninformationen von Tönen, die in den durch den externen Server auf der Basis der Festlegungsinformationen komponierten Musikdaten enthalten sind, auswählt, und die Sende/Empfangseinheit die Festlegungsinformationen und Tonlängeninformationen zu dem externen Server sendet.
    • (12) Datenverarbeitungsvorrichtung nach einem der vorstehenden (7) bis (11), wobei die Auswahleinheit als die Einstellungsinformationen Informationen zum Bestimmen der Wahrscheinlichkeit dafür, dass einzelne Töne, die in einem Akkord enthalten sind, in einer Tonfolge von durch den externen Server auf der Basis der Festlegungsinformationen komponierten Musikdaten auftreten, auswählt, und die Sende/Empfangseinheit die Festlegungsinformationen und die Informationen zum Bestimmen der Wahrscheinlichkeit dafür, dass einzelne Töne, die in einem Akkord enthalten sind, in einer Tonfolge auftreten, zu dem externen Server sendet.
    • (13) Datenverarbeitungsvorrichtung nach einem der vorstehenden (7) bis (12), wobei die Auswahleinheit als die Einstellungsinformationen Informationen zum Bestimmen eines Typs und einer Menge von Musikmaterial, das nicht das Musikmaterial ist, das in den Festlegungsinformationen von durch den externen Server auf der Basis der Festlegungsinformationen komponierten Musikdaten enthalten ist, auswählt, und die Sende/Empfangseinheit die Festlegungsinformationen und die Informationen zum Bestimmen eines Typs und einer Menge von Musikmaterial, das nicht das in den Festlegungsinformationen enthaltene Musikmaterial ist, zu dem externen Server sendet.
    • (14) Datenverarbeitungsvorrichtung nach einem der vorstehenden (1) bis (13), wobei die zweite Anwendung ferner eine Anzeigesteuereinheit aufweist, die Steuerung zum Abrufen des Verlaufs vergangener durch den externen Server komponierten Musikdaten aus einer Speichereinheit und Anzeigen des Verlaufs der vergangenen Musikdaten gemäß einer Operation des Anwenders ausführt.
    • (15) Datenverarbeitungsvorrichtung nach dem vorstehenden (14), wobei die Anzeigesteuereinheit Steuerung zum Abrufen eines Verlaufs von Editieroperationen, die auf den vergangenen durch den externen Server komponierten Musikdaten ausgeführt wurden, aus einer Speichereinheit und außerdem Anzeigen der auf den vergangenen Musikdaten ausgeführten Editieroperationen ausführt.
    • (16) Datenverarbeitungsvorrichtung nach einem der vorstehenden (1) bis (15), wobei wenn der Anwender eine Wiedergabe- oder Editieroperation auf durch den externen Server komponierten Musikdaten nach dem Empfangen der Musikdaten ausführt, die Sende/Empfangseinheit Informationen, die die Wiedergabe- oder Editieroperation betreffen, zu dem externen Server sendet.
    • (17) Datenverarbeitungsvorrichtung nach einem der vorstehenden (1) bis (16), wobei die Auswahleinheit als die Einstellungsinformationen eine Akkordfortschreibung in komponierter Musik auf der Basis der Operation eines Anwenders auswählt, und die Sende/Empfangseinheit die durch die Auswahleinheit ausgewählte Akkordfortschreibung zu dem externen Server sendet.
    • (18) Datenverarbeitungsvorrichtung nach einem der vorstehenden (1) bis (17), wobei die Steuereinheit Steuerung zum Senden von Informationen, die eine in der ersten Anwendung erzeugte Akkordfortschreibung betreffen, zu der zweiten Anwendung ausführt, die Auswahleinheit die Informationen, die die Akkordfortschreibung, die in der ersten Anwendung erzeugt wird, betreffen, als die Einstellungsinformationen auswählt, und die Sende/Empfangseinheit die Informationen, die die Akkordfortschreibung, die in der ersten Anwendung erzeugt wird, betreffen, zu dem externen Server sendet und Musikdaten, die auf der Basis der Informationen, die die Akkordfortschreibung betreffen, komponiert sind, empfängt.
    • (19) Datenverarbeitungsverfahren, das durch eine Datenverarbeitungsvorrichtung, die eine erste Anwendung und eine zweite Anwendung, die als ein Plug-In funktioniert, das Funktionen der ersten Anwendung erweitert, steuert, ausgeführt wird, wobei die erste Anwendung die Operation der zweiten Anwendung in der ersten Anwendung steuert, und die zweite Anwendung Einstellungsinformationen zum Steuern einer Kompositionsfunktion basierend auf Maschinenlernen auswählt, und die Einstellungsinformationen zu einem externen Server, der eine Kompositionsfunktion basierend auf Maschinenlernen ausführt, sendet und durch den externen Server komponierte Musikdaten über ein Netz empfängt.
    • (20) Datenverarbeitungsprogramm, das eine Datenverarbeitungsvorrichtung, die eine erste Anwendung und eine zweite Anwendung, die als ein Plug-In funktioniert, das Funktionen der ersten Anwendung erweitert, steuert, veranlasst, so zu funktionieren, dass die erste Anwendung die Operation der zweiten Anwendung in der ersten Anwendung steuert, und die zweite Anwendung Einstellungsinformationen zum Steuern einer Kompositionsfunktion basierend auf Maschinenlernen auswählt, und die Einstellungsinformationen zu einem externen Server, der eine Kompositionsfunktion basierend auf Maschinenlernen ausführt, sendet und durch den externen Server komponierte Musikdaten über ein Netz empfängt.
  • Bezugszeichenliste
  • 1
    Datenverarbeitungssystem
    10
    Anwenderendgerät
    11
    Kommunikationseinheit
    12
    Eingabeeinheit
    13
    Anzeigeeinheit
    15
    Speichereinheit
    151
    Kompositionseinstellungsinformationen
    152
    Kompositionsmusikinformationen
    153
    Verlaufsinformationen
    154
    Informationen über zugeordnete Instrumente
    16
    Steuereinheit
    161
    Host-Anwendungssteuereinheit
    162
    Plug-In-Steuereinheit
    163
    Wiedergabeeinheit
    164
    Anzeigesteuereinheit
    165
    Plug-In-Anwendungssteuereinheit
    166
    Auswahleinheit
    167
    Sende/Empfangseinheit
    168
    Wiedergabeeinheit
    169
    Anzeigesteuereinheit
    100
    Verarbeitungsserver
    200
    Managementserver
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 9110817 [0004]

Claims (20)

  1. Datenverarbeitungsvorrichtung, die eine erste Anwendung und eine zweite Anwendung, die als ein Plug-In funktioniert, das Funktionen der ersten Anwendung erweitert, steuert, wobei die erste Anwendung Folgendes aufweist: eine Steuereinheit, die die Operation der zweiten Anwendung in der ersten Anwendung steuert, und die zweite Anwendung Folgendes aufweist: eine Auswahleinheit, die Einstellungsinformationen zum Steuern einer Kompositionsfunktion basierend auf Maschinenlernen auswählt, und eine Sende/Empfangseinheit, die die Einstellungsinformationen zu einem externen Server, der eine Kompositionsfunktion basierend auf Maschinenlernen ausführt, sendet und durch den externen Server komponierte Musikdaten über ein Netz empfängt.
  2. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Sende/Empfangseinheit einen Akkord in einem Takt einer spezifizierten Länge, eine Tonfolge in dem Takt und einen Basston in dem Takt als Musikdaten empfängt.
  3. Datenverarbeitungsvorrichtung nach Anspruch 2, wobei die Steuereinheit Instrumenteninformationen zum Festlegen einer Klangqualität beim Abspielen eines Akkords, einer Tonfolge oder eines Basstons, die in den Musikdaten enthalten sind, individuell einstellt.
  4. Datenverarbeitungsvorrichtung nach Anspruch 3, wobei die Steuereinheit eine Steuerung ausführt, um jedes Fenster, das Informationen bezüglich des Akkords, der Tonfolge oder des Basstons, die in den Musikdaten enthalten sind, anzeigt, separat anzuzeigen.
  5. Datenverarbeitungsvorrichtung nach Anspruch 4, wobei die Anzeigesteuereinheit das Senden und den Empfang von Informationen zwischen jedem Fenster, das Informationen, die den Akkord, die Tonfolge oder den Basston betreffen, anzeigt, und einem Fenster, das Informationen, die die erste Anwendung betreffen, anzeigt, gemäß der Operation eines Anwenders steuert.
  6. Datenverarbeitungsvorrichtung nach Anspruch 4, wobei die Anzeigesteuereinheit das Senden und den Empfang von Informationen zwischen Fenstern, von denen jedes Informationen, die den Akkord, die Tonfolge oder den Basston betreffen, anzeigt, gemäß der Operation des Anwenders steuert.
  7. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Auswahleinheit als die Einstellungsinformationen Festlegungsinformationen zum Festlegen von Musikmaterial als Lerndaten für das Maschinenlernen auswählt, und die Sende/Empfangseinheit die durch die Auswahleinheit ausgewählten Festlegungsinformationen zu dem externen Server sendet.
  8. Datenverarbeitungsvorrichtung nach Anspruch 7, wobei gemäß der Operation des Anwenders die Auswahleinheit Festlegungsinformationen, die im Voraus in einer Speichereinheit gespeichert sind, auswählt und Merkmalsinformationen, die ein Merkmal der Festlegungsinformationen angeben, und mehrere Stücke von Musikmaterial, die den Merkmalsinformationen zugeordnet sind, auswählt.
  9. Datenverarbeitungsvorrichtung nach Anspruch 7, wobei die Auswahleinheit kombinierte Festlegungsinformationen, in denen erste Festlegungsinformationen, die einigen Takten von Musikdaten, die durch den externen Server komponiert sind, entsprechen, und zweite Festlegungsinformationen, die einigen anderen Takten davon entsprechen, kombiniert sind, auswählt.
  10. Datenverarbeitungsvorrichtung nach Anspruch 9, wobei wenn die Sende/Empfangseinheit Musikdaten, die durch den externen Server auf einer Basis der kombinierten Festlegungsinformationen komponiert sind, empfängt, die Sende/Empfangseinheit die kombinierten Festlegungsinformationen in Zuordnung zu den Musikdaten in einer Speichereinheit speichert.
  11. Datenverarbeitungsvorrichtung nach Anspruch 7, wobei die Auswahleinheit als die Einstellungsinformationen Längeninformationen von Tönen, die in den durch den externen Server auf einer Basis der Festlegungsinformationen komponierten Musikdaten enthalten sind, auswählt, und die Sende/Empfangseinheit die Festlegungsinformationen und die Tonlängeninformationen zu dem externen Server sendet.
  12. Datenverarbeitungsvorrichtung nach Anspruch 7, wobei die Auswahleinheit als die Einstellungsinformationen Informationen zum Bestimmen der Wahrscheinlichkeit dafür, dass einzelne Töne, die in einem Akkord enthalten sind, in einer Tonfolge von durch den externen Server auf einer Basis der Festlegungsinformationen komponierten Musikdaten auftreten, auswählt, und die Sende/Empfangseinheit die Festlegungsinformationen und die Informationen zum Bestimmen der Wahrscheinlichkeit dafür, dass einzelne Töne, die in einem Akkord enthalten sind, in einer Tonfolge auftreten, zu dem externen Server sendet.
  13. Datenverarbeitungsvorrichtung nach Anspruch 7, wobei die Auswahleinheit als die Einstellungsinformationen Informationen zum Bestimmen eines Typs und einer Menge von Musikmaterial, das nicht das Musikmaterial ist, das in den Festlegungsinformationen von durch den externen Server auf einer Basis der Festlegungsinformationen komponierten Musikdaten enthalten ist, auswählt, und die Sende/Empfangseinheit die Festlegungsinformationen und die Informationen zum Bestimmen eines Typs und einer Menge von Musikmaterial, das nicht das in den Festlegungsinformationen enthaltene Musikmaterial ist, zu dem externen Server sendet.
  14. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die zweite Anwendung ferner eine Anzeigesteuereinheit aufweist, die Steuerung zum Abrufen eines Verlaufs vergangener durch den externen Server komponierter Musikdaten aus einer Speichereinheit und Anzeigen des Verlaufs der vergangenen Musikdaten gemäß einer Operation des Anwenders ausführt.
  15. Datenverarbeitungsvorrichtung nach Anspruch 14, wobei die Anzeigesteuereinheit Steuerung zum Abrufen eines Verlaufs von Editieroperationen, die auf den vergangenen durch den externen Server komponierten Musikdaten ausgeführt wurden, aus einer Speichereinheit und außerdem Anzeigen der auf den vergangenen Musikdaten ausgeführten Editieroperationen ausführt.
  16. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei wenn der Anwender eine Wiedergabe- oder Editieroperation auf durch den externen Server komponierten Musikdaten nach dem Empfangen der Musikdaten ausführt, die Sende/Empfangseinheit Informationen, die die Wiedergabe- oder Editieroperation betreffen, zu dem externen Server sendet.
  17. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Auswahleinheit als die Einstellungsinformationen eine Akkordfortschreibung in komponierter Musik auf einer Basis der Operation eines Anwenders auswählt, und die Sende/Empfangseinheit die durch die Auswahleinheit ausgewählte Akkordfortschreibung zu dem externen Server sendet.
  18. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Steuereinheit Steuerung zum Senden von Informationen, die eine in der ersten Anwendung erzeugte Akkordfortschreibung betreffen, zu der zweiten Anwendung ausführt, die Auswahleinheit die Informationen, die die Akkordfortschreibung, die in der ersten Anwendung erzeugt wird, betreffen, als die Einstellungsinformationen auswählt, und die Sende/Empfangseinheit die Informationen, die die Akkordfortschreibung, die in der ersten Anwendung erzeugt wird, betreffen, zu dem externen Server sendet und Musikdaten, die auf einer Basis der Informationen, die die Akkordfortschreibung betreffen, komponiert sind, empfängt.
  19. Datenverarbeitungsverfahren, das durch eine Datenverarbeitungsvorrichtung, die eine erste Anwendung und eine zweite Anwendung, die als ein Plug-In funktioniert, das Funktionen der ersten Anwendung erweitert, steuert, ausgeführt wird, wobei die erste Anwendung die Operation der zweiten Anwendung in der ersten Anwendung steuert, und die zweite Anwendung Einstellungsinformationen zum Steuern einer Kompositionsfunktion basierend auf Maschinenlernen auswählt, und die Einstellungsinformationen zu einem externen Server, der eine Kompositionsfunktion basierend auf Maschinenlernen ausführt, sendet und durch den externen Server komponierte Musikdaten über ein Netz empfängt.
  20. Datenverarbeitungsprogramm, das eine Datenverarbeitungsvorrichtung, die eine erste Anwendung und eine zweite Anwendung, die als ein Plug-In funktioniert, das Funktionen der ersten Anwendung erweitert, steuert, veranlasst, so zu funktionieren, dass die erste Anwendung die Operation der zweiten Anwendung in der ersten Anwendung steuert, und die zweite Anwendung Einstellungsinformationen zum Steuern einer Kompositionsfunktion basierend auf Maschinenlernen auswählt, und die Einstellungsinformationen zu einem externen Server, der eine Kompositionsfunktion basierend auf Maschinenlernen ausführt, sendet und durch den externen Server komponierte Musikdaten über ein Netz empfängt.
DE112019006852.0T 2019-02-12 2019-03-08 Datenverarbeitungsvorrichtung, datenverarbeitungsverfahren und datenverarbeitungsprogramm Pending DE112019006852T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962804450P 2019-02-12 2019-02-12
US62/804,450 2019-02-12
PCT/JP2019/009353 WO2020166094A1 (ja) 2019-02-12 2019-03-08 情報処理装置、情報処理方法及び情報処理プログラム

Publications (1)

Publication Number Publication Date
DE112019006852T5 true DE112019006852T5 (de) 2021-10-28

Family

ID=72044448

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019006852.0T Pending DE112019006852T5 (de) 2019-02-12 2019-03-08 Datenverarbeitungsvorrichtung, datenverarbeitungsverfahren und datenverarbeitungsprogramm

Country Status (6)

Country Link
US (1) US20220130359A1 (de)
EP (1) EP3926619A4 (de)
JP (2) JP7322900B2 (de)
CN (1) CN113424253A (de)
DE (1) DE112019006852T5 (de)
WO (1) WO2020166094A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022044646A1 (de) * 2020-08-31 2022-03-03

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9110817B2 (en) 2011-03-24 2015-08-18 Sony Corporation Method for creating a markov process that generates sequences

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100731761B1 (ko) 2005-05-02 2007-06-22 주식회사 싸일런트뮤직밴드 인터넷을 통한 음악제작 시스템 및 방법
US20090125799A1 (en) * 2007-11-14 2009-05-14 Kirby Nathaniel B User interface image partitioning
KR101886534B1 (ko) * 2016-12-16 2018-08-09 아주대학교산학협력단 인공지능을 이용한 작곡 시스템 및 작곡 방법
US20180190250A1 (en) * 2016-12-30 2018-07-05 ILIO Enterprises, LLC Control system for audio production

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9110817B2 (en) 2011-03-24 2015-08-18 Sony Corporation Method for creating a markov process that generates sequences

Also Published As

Publication number Publication date
US20220130359A1 (en) 2022-04-28
JPWO2020166094A1 (ja) 2021-12-16
JP2023129639A (ja) 2023-09-14
WO2020166094A1 (ja) 2020-08-20
JP7322900B2 (ja) 2023-08-08
EP3926619A4 (de) 2022-04-20
CN113424253A (zh) 2021-09-21
EP3926619A1 (de) 2021-12-22

Similar Documents

Publication Publication Date Title
DE69936801T2 (de) Aufzeichnungsvorrichtung
DE602004011305T2 (de) Vorrichtung und Verfahren zur automatischen Klassifikation von musikalischen Kompositionen
DE60006845T2 (de) Verfahren und vorrichtung zur zusammenarbeit bei multimediaerzeugung über einem netzwerk
DE69625693T2 (de) Verfahren und vorrichtung zur formatierung von digitalen, elektrischen daten
DE60029724T2 (de) Vorrichtung zur Bereitstellung von Information mit Musiktoneffekt
US8513512B2 (en) Personalized music remixing
US7191023B2 (en) Method and apparatus for sound and music mixing on a network
US8732221B2 (en) System and method of multimedia content editing
DE112016006155T5 (de) Erstellen und verteilen von wiedergabelisten mit musik und geschichten mit verwandten stimmungen
DE69922284T2 (de) Vorrichtung und Verfahren zur Wiedergabe von Musik zusammen mit Taktschlaginformation
EP1557836A2 (de) System und Methode zur Bearbeitung von Multimedia Material
DE60024157T2 (de) Vorrichtung und Verfahren zur Eingabe eines Vortragstils
EP1415297A2 (de) Automatische erzeugung von musikalischen sratch-effekten
DE112018006004T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE602004009371T2 (de) AV-System-Netz mit Personalcomputer
US20130097558A1 (en) Adaptive artistry
DE112019006852T5 (de) Datenverarbeitungsvorrichtung, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE69833721T2 (de) Verfahren zur Anzeige von reichen Texten und System zur Bereitstellung von Bildinformationen
DE60118083T2 (de) Speicherkarte mit einer Funktion zur Aufführung von Musik
DE112017008021B4 (de) Musikalische klangdatenwiedergabevorrichtung und musikalisches klangdatenwiedergabeverfahren
DE112006002058T5 (de) Vorrichtung zur Speicherung von Klangfarben, Verfahren zur Speicherung von Klangfarben sowie Computerprogramm zur Speicherung von Klangfarben
DE10392559T5 (de) Aufzeichnungs- und Wiedergabevorrichtung sowie Aufzeichnungs- und Wiedergabeverfahren
DE112020002116T5 (de) Informationsverarbeitungsvorrichtung und Verfahren und Programm
DE102008008388A1 (de) Mehrspuraufzeichnungs- und Wiedergabesystem zur räumlich und zeitlich unabhängigen Aufzeichnung und Wiedergabe mehrspuriger medialer Inhalte unterschiedlicher Art
DE602004008720T2 (de) System und Server mit Aktualisierungsmeldung