PL242373B1 - Sposób generowania treści muzycznych - Google Patents

Sposób generowania treści muzycznych Download PDF

Info

Publication number
PL242373B1
PL242373B1 PL434520A PL43452020A PL242373B1 PL 242373 B1 PL242373 B1 PL 242373B1 PL 434520 A PL434520 A PL 434520A PL 43452020 A PL43452020 A PL 43452020A PL 242373 B1 PL242373 B1 PL 242373B1
Authority
PL
Poland
Prior art keywords
content
music
recording
generator
music content
Prior art date
Application number
PL434520A
Other languages
English (en)
Other versions
PL434520A1 (pl
Inventor
Marek PLUTA
Marek Pluta
Joanna Kwiecień
Colin Lewis
Andrzej Dąbrowski
Marek Włodarczyk
Original Assignee
Independent Digital Spolka Z Ograniczona Odpowiedzialnoscia
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Independent Digital Spolka Z Ograniczona Odpowiedzialnoscia filed Critical Independent Digital Spolka Z Ograniczona Odpowiedzialnoscia
Priority to PL434520A priority Critical patent/PL242373B1/pl
Priority to US18/012,116 priority patent/US20230178057A1/en
Priority to PCT/PL2021/000039 priority patent/WO2022005312A1/en
Priority to EP21759425.8A priority patent/EP4182917A1/en
Publication of PL434520A1 publication Critical patent/PL434520A1/pl
Publication of PL242373B1 publication Critical patent/PL242373B1/pl

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/105Composing aid, e.g. for supporting creation, edition or modification of a piece of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • G10H2210/115Automatic composing, i.e. using predefined musical rules using a random process to generate a musical note, phrase, sequence or structure
    • G10H2210/121Automatic composing, i.e. using predefined musical rules using a random process to generate a musical note, phrase, sequence or structure using a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/145Composing rules, e.g. harmonic or musical rules, for use in automatic composition; Rule generation algorithms therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/056MIDI or other note-oriented file format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/125Library distribution, i.e. distributing musical pieces from a central or master library
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/145Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/005Algorithms for electrophonic musical instruments or musical processing, e.g. for automatic composition or resource allocation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

Generowanie treści muzycznej rozpoczyna się od wprowadzenia wejściowych treści muzycznych (1). Kolejnym krokiem przy inicjacji generowania treści muzycznych jest podjęcie decyzji o tym czy wejściowe treści muzyczne poddać analizie ręcznej czy automatycznej. Niezależnie od formy analizy (3) wejściowych treści muzycznych (1), na podstawie reguł biznesowych oraz zasad kompozycji (4) opracowuje się modele generacji utworów muzycznych (5) i tworzy się generator melodii (10). Równolegle (2) przygotowuje się dźwięki (6) które można zapisać w repozytorium dźwięków (8). Następnie modele w formie kodu źródłowego przekazuje się do generatora (14). W pierwszej kolejności generatorowi zadaje się (12) określone parametry przy pomocy urządzenia sterującego (26) zgodnego ze standardami MIDI i uzupełnia się o cechy utworu odczytane z bazy preferencji użytkownika (13). Następnie treści te przekazuje się do automatycznego generowania (15) na bazie algorytmów sztucznej inteligencji i generuje się cyfrowy zapis nutowy utworu o żądanych cechach (15). Ścieżki dźwiękowe poszczególnych instrumentów renderuje się (16) i ścieżki zrenderowane miksuje się do finalnego nagrania muzycznego (20). Następnie utwór (27) i jego nagranie (20) poddaje się weryfikacji przez moduł krytyka (23) oparty na algorytmach na bazie sieci neuronowych. Po pozytywnej ocenie utwór eksportuje się (23) na dedykowaną platformę (24).

Description

Opis wynalazku
Przedmiotem wynalazku jest sposób generowania treści muzycznych oparty na algorytmach następujących po sobie procesów na zbiorach danych wejściowych.
Pod pojęciem algorytmów rozumieć należy w tym opisie patentowym kolejne czynności na danych w postaci zbioru treści muzycznych powstałych na podstawie reguł kompozycyjnych, stworzonych w oparciu o preferencje użytkowników oraz reguły biznesowe i prawne standaryzujące organizację procesu generowania treści muzycznych i ich nagrań.
Pod pojęciem reguł biznesowych rozumieć należy stwierdzenie, które definiuje aspekt biznesu ukierunkowany na kontrolowanie lub wywieranie wpływu na zachowania biznesowe poprzez informowanie, że istnieją określone wymogi dotyczące postępowania, działań i praktyk albo procedur realizowanych w ramach danej aktywności użytkownika. Na potrzeby przedmiotowego opisu rozwiązania reguły biznesowe zespolono z zasadami kompozycji muzyki.
Pod pojęciem reguł biznesowych z zasadami kompozycji muzyki rozumieć należy zespół zasad kompozycji muzycznych z uwzględnieniem estymacji sprzedażowej form muzycznych oraz norm kompozycji muzycznej.
Pod pojęciem repozytorium dźwięków atomowych rozumieć należy zbiór nagrań pojedynczych nut.
W procesie generowania treści muzycznych, algorytmy przeprowadzają szereg procesów ukierunkowanych w pierwszych etapach na stworzenie generatora, który generuje cyfrowy zapis nutowy modelu, któremu w generatorze zadaje się parametry i cechy utworu zgodne z preferencjami użytkownika. W tym obszarze działania generatora powstają treści muzyczne na poziomie utworu technicznego.
Pod pojęciem treści muzycznych na poziomie technicznym rozumieć należy opracowany model, będący wynikiem wykonania szeregu procesów ukierunkowanych na stworzenie generatora. Tworzenie generatora podzielone jest na dwa etapy gdzie w pierwszym podetapie etapu pierwszego treść powstaje na poziomie abstrakcyjnym jako element formy, w drugim podetapie treść abstrakcyjna konwertowana jest do cyfrowego zapisu nutowego każdej linii danego instrumentu z osobna, zawierającego formę, harmonię i warstwy, ukształtowanie melodii poprzez zadanie generatorowi parametrów i cech utworu zgodnych z preferencjami użytkownika.
W etapie drugim procesu generowania treści muzycznych procesuje się zapis nutowy w taki sposób ze przechodzi on w formę nagrania w sprecyzowanej formie dźwiękowej przy użyciu syntezy samplingowej i próbek jako nagrań pojedynczych dźwięków. Pod pojęciem syntezy samplingowej rozumieć należy proces tworzenia treści muzycznych z użyciem fragmentu wcześniej dokonanego nagrania muzycznego, zwanego samplem, jako elementu nowo tworzonego utworu.
Na etapie renderowania treści muzyczne w formie modelu są zamieniane przez sekwencer i sampler z użyciem sampli na formę nagrania poszczególnych instrumentów osobno. Tak powstałe treści poddawane są w kolejnym etapie procesowi miksowania i dopracowywania nagrania. Otrzymuje się finalne nagranie które weryfikuje się przez moduł krytyka oparty na algorytmach sztucznej inteligencji sieci neuronowych. Na tym etapie otrzymuje się utwór o charakterze artystycznym z walorami kompozycyjnymi zgodnymi ze standardami biznesowymi i regułami kompozycyjnymi. Następnie utwór eksportuje się do modułu dystrybucyjnego platformy.
Znanych jest szereg rozwiązań generowania utworów muzycznych. Znane rozwiązanie przedstawione zostało w dokumencie patentowym KR 20190100543. Ujawniono w nim urządzenie elektroniczne zawierające: wyświetlacz, procesor podłączony elektrycznie do wyświetlacza, pamięć elektrycznie podłączona do procesora, przy czym, gdy obróbka jest wykonywana, procesor sprawdza określone parametry wejściowe i wyjściowe ścieżki dźwiękowe oraz, w oparciu o algorytm sztucznej inteligencji, identyfikuje parametry dźwiękowe. Urządzenie elektroniczne przechowuje instrukcje sprawdzania odpowiednich informacji o kompozycji i wyświetlania informacji pomocniczych dotyczących korekty wejściowej ścieżki dźwiękowej na wyświetlaczu, na podstawie potwierdzonych informacji o kompozycji. Zdefiniowane parametry zawierają sprecyzowane informacje, w szczególności o stylu muzycznym, informacje o instrumencie muzycznym, informacje o rytmie, informacje o metrum i informacje o gatunku muzycznym.
Kolejne znane rozwiązanie przedstawiono w dokumencie patentowym CN 110211556. Przedstawiono w nim sposób i urządzenie do obróbki pliku muzycznego, terminal i nośnik pamięci. Metoda przetwarzania obejmuje następujące etapy: gromadzone są pierwsze dane głosu ludzkiego mające na celu wprowadzenie dźwięków docelowych, uzyskanie parametrów pogłosu przyjęte przez dane ludzkiego głosu docelowego odpowiadające docelowej muzyce. Pierwsze dane ludzkiego głosu są przetwarzane na podstawie parametrów pogłosu, a uzyskiwane są drugie dane ludzkiego głosu. Jako drugie przetwarzane są dane głosu ludzkiego i dane akompaniamentu odpowiadające muzyce docelowej są syntezowane i uzyskiwany jest docelowy plik muzyczny.
Dalsze znane rozwiązanie przedstawiono w opisie patentowym KR 20190105254. Opisano tu rozwiązanie które ma na celu zapewnienie w pełni cyfrowego urządzenia do przetwarzania dźwięku, które bezpośrednio odbiera cyfrowy sygnał źródła dźwięku. Przetwarzanie odbywa się na bazie pliku zawierającego cyfrowe źródło dźwięku, przetwarzanie sygnału audio odbywa się w sposób całkowicie cyfrowy w połączeniu z wejściowym sygnałem cyfrowego źródła dźwięku. Następnie wysyła się sygnał audio do głośnika. Po bezpośrednim wprowadzeniu sygnału cyfrowego z cyfrowego pliku źródłowego dźwięku, całe przetwarzanie sygnału może być wykonane w dalszym ciągu cyfrowo, a sygnał audio może być adaptacyjnie przetwarzany w oparciu o sztuczną inteligencję.
Według wynalazku sposób generowania treści muzycznych na podstawie szeregu następujących po sobie procesów, których działanie i przebieg następuje w oparciu o pracę algorytmów sztucznej inteligencji. Proces generowania treści muzycznych odbywa się z użyciem kontrolera sterującego odpowiadającego standardom MIDI. Stworzono reguły biznesowe, pozwalające na au tomatyczne budowanie ścieżek muzycznych na bazie preferencji użytkownika. Automatyczne wygenerowanie treści muzycznych możliwe jest poprzez funkcjonujące na platformie takie rozwiązania jak baza preferencji użytkownika, zasoby repozytorium, reguły biznesow e, modele generacji utworów muzycznych danego typu oraz generator melodii w którym podaje się parametry i cechy dla modeli dla formy i linii instrumentów. Tworzone są modele na poziomie technicznym które poddawane są dalszej obróbce na bazie algorytmów modyfikacji muzycznych plików wejściowych by w efekcie wygenerować nagranie finalne a po jego weryfikacji utwór zawierający zamierzony ładunek kompozycyjny i artystyczny.
Sposób generowania treści muzycznych według wynalazku charakteryzuje się tym, że wejściowe próbki dźwiękowe poddaje się obróbce na bazie algorytmów modyfikacji muzycznych plików wejściowych, dotyczących w szczególności cech takich jak tempo, nastrój utworu, gatunek muzyczny, czas trwania oraz zakres modulacji treści. W efekcie otrzymuje się kompozycję o zamierzonym wyrazie artystycznym. Proces generowania w pierwszym etapie polega na tym, że buduje się treści muzyczne na poziomie technicznym w formie modeli. Treści techniczne pozyskuje się w efekcie przeprowadzenia szeregu procesów skupionych na stworzenie generatora. Przeprowadzenie szeregu procesów polega na tym, że po wprowadzeniu treści wejściowych, analizuje się wejściowe treści muzyczne pod kątem występowania wzorców. Następnie zapisuje się wzorce w bazie reguł biznesowych i zasad komponowania muzyki na podstawie których opracowuje się modele generacji utworów muzycznych danego typu. Tak tworzy się generator melodii, w którym generuje się cyfrowy zapis nutowy linii danego instrumentu. Równolegle przygotowuje się bazę dźwięków atomowych a następnie przekazuje się je do generatora, w którym przy pomocy urządzenia sterującego zgodnego ze standardami MIDI zadaje się generatorowi parametry. Tak powstałe modele poddaje się automatycznej generacji cyfrowego zapisu nutowego i tworzy się partie dla poszczególnych instrumentów, które następnie renderuje się do ścieżek muzycznych dla każdego instrumentu. Otrzymuje się nagranie na poziomie artystycznym. Następnie nagranie dopracowuje się i miksuje się. Otrzymuje się finalną wersję nagrania, po czym utwór i jego nagranie poddaje się weryfikacji przez moduł krytyka. Po weryfikacji eksportuje się nagranie do modułu dystrybucyjnego dedykowanej platformy.
W korzystnej wersji rozwiązania tworzy się finalne nagranie muzyczne z wykorzystaniem algorytmów sztucznej inteligencji na etapie wykonywania analizy pod kątem występowania istniejących wzorców, opracowywania modeli generacji utworów, stworzenia generatora melodii przygotowania dźwięków.
W innej korzystnej wersji rozwiązania próbki dźwięków tworzy się wraz z zapisywaniem treści w repozytorium.
W kolejnej korzystnej wersji rozwiązania opracowane modele przekazuje się do odczytu i generuje się automatycznie cyfrowy zapis nutowy utworu o żądanych cechach.
W następnej korzystnej wersji rozwiązania ścieżki dźwiękowe instrumentów renderuje się przy użycia zasobów repozytorium.
W kolejnej korzystnej wersji rozwiązania utwór i jego nagranie weryfikuje się z wykorzystaniem sztucznej inteligencji i powtarza się proces generowania treści muzycznych od początku.
Przy wykorzystaniu gotowych wzorców schematów i próbek, użytkownik bez specjalnych zasobów instrumentalnych i sprzętowych oraz bez wiedzy merytorycznej na poziomie programisty czy inżyniera dźwięku, z użyciem kontrolera sterującego dla określenia cech treści dźwiękowych treści dźwiękowych, będzie w stanie stworzyć pełnowymiarowe treści muzyczne o walorach artystycznych, dopracowane według indywidualnie sprecyzowanych preferencji kompozycyjnych.
W procesie tworzenia treści muzycznych wykorzystane są algorytmy sztucznej inteligencji, co daje efekt pracy sztabu specjalistów odpowiedzialnych za generowanie tego typu treści muzycznych w tradycyjny sposób. Praca generatora wsparta i sterowana jest urządzeniem sterującym w standardzie MIDI. W pełni cyfrowa generacja treści muzycznych przy pomocy urządzenia sterującego daje użytkownikowi możliwość sprecyzowania wytycznych dla generatora w postaci zad ania parametrów bazowych, w szczególności dla gatunku, tempa, nastroju, czasu trwania oraz parametrów modulacji treści nadających indywidualną zawartość. Praca użytkownika wspomagana jest dodatkowo poprzez użytkowe repozytorium dźwięków zawierające dźwięki w formie pojedynczych nut. Ścieżki muzyczne dla poszczególnych instrumentów renderowane są do postaci poddanej następnie miksowaniu i doprecyzowaniu do poziomu według zamierzonej kompozycji artystycznej. Algorytm oparty o pracę rozbudowanych sieci przekaźnikowych sprawdza utwór i jego nagranie na zgodność z założeniami kompozycyjnymi, w szczególności zgodność z preferencjami oraz standardami biznesowymi obowiązującymi przy kompozycji. Treści muzyczne mogą być generowane bez ograniczeń. Proces tworzenia generatora jest jednorazowy. Wygenerowane treści muzyczne mogą być dystrybuowane.
Przedmiot wynalazku przedstawiony został w przykładzie wykonania na załączonym rysunku który ilustruje przykładowy schemat blokowy generowania treści muzycznych.
Na schemacie blokowym przedstawiono przebieg kolejnych czynności dla realizacji przedmiotu wynalazku, a także wskazano zbiory i bazy wykorzystywane podczas generowania nowych treści muzycznych sposobem według wynalazku. W niniejszym opisie używa się określeń treści muzyczne, utwór oraz utwór i jego nagranie, na oznaczenie rezultatu postępowania według wynalazku. Elementem niezbędnym do realizacji sposobu według wynalazku jest urządzenie sterujące zgodne ze standardami MIDI.
W schemacie blokowym przedstawionym na rysunku każdy symbol „+” rozumieć należy jako koniunkcję szeregu procesów następujących po sobie w jednym czasie.
Strzałki oznaczone na długości linią przerywaną rozumieć należy jako wskazanie przebiegu czynności czasowo wcześniejszych względem przebiegu czynności strzałek oznaczonych na długości za pomocą linii ciągłych.
Każdą pierwszą strzałkę poprowadzoną do kafelka bazy 25 rozumieć należy jako strzałkę „zapisuje się w”, każdą strzałkę wyprowadzaną od kafelka baz 25 rozumieć należy jako „odczytuje się w”.
Pod pojęciem utworów istniejących rozumieć należy istniejące kompozycje dźwiękowe lub próbki dźwiękowe.
Pod pojęciem „utwór i jego nagranie” na etapie eksportu na moduł dystrybucyjny platformy 23 rozumie się, że weryfikacji poddane zostaje nie tylko samo nagranie ale również m.in. część informacji zadawanych przez użytkownika parametrów i cech utworu 12 obejmujących koncepcję utworu np. jego gatunek.
Pod pojęciem treści na poziomie technicznym 26 rozumieć należy plik MIDI oraz dane dodatkowe przekazywane do generatora w formie algorytmów technicznych i kodu źródłowego.
Pod pojęciem sekwencera 28a rozumieć należy urządzanie elektroniczne lub program komputerowy zapamiętujące sekwencję dźwięków lecz sekwencję instrukcji sterujących syntezatorem wraz z parametrami i umożliwiające wielokrotne jej odtworzenie.
Pod pojęciem samplers 28b rozumieć należy elektroniczny instrument muzyczny lub program komputerowy umożliwiający cyfrowy zapis dowolnego dźwięku, a następnie posługiwanie się nim jak tradycyjnym dźwiękiem muzycznym.
Pod pojęciem obszaru działania samplers i sekwencera rozumieć należy zespolone działanie modułów: 28a oraz 28b na plikach MIDI i danych co do treści muzycznych, stanowiących instrukcje dla procesu renderowania 16.
Pod pojęciem weryfikacji przez moduł krytyka Al 19 rozumieć należy weryfikowanie nagrania i jego utworu poprzez moduł oparty o działanie algorytmów sztucznej inteligencji opartych o rozbudo wane sieci neuronowe. Są to algorytmy uczenia sieci neuronowych posiadające przede wszystkim zdolność uogólniania obserwowanych danych. Pod pojęciem uczenia sieci rozumie się wymuszenie na sieci określonego reagowania na zadane sygnały wejściowe.
Jak pokazano na rysunku fig. 1 proces generowania treści muzycznej rozpoczyna się od tworzenia generatora gdzie na początku analizuje się wejściowe treści muzyczne 1 z utworów istniejących. Dwutorowość procesu polega na tym, że w jednym czasie analizuje się istniejące utwory pod kątem występowania wzorców 3 istniejących utworów i opracowuje się modele generacji utworów muzycznych 5, tworzy się generator melodii 10 oraz przygotowuje się dźwięki 6. Tak powstałe modele na poziomie technicznym 27 w formie kodu źródłowego wprowadza się do generatora 14 któremu zadaje się parametry i cechy. Zadawanie cech i parametrów generatorowi korzystnie odbywa się przy pomocy urządzenia sterującego 26 zgodnego ze standardami MIDI.
Treści z generatora jako modele na poziomie technicznym 27 przekazuje się do generacji gdzie w odbywa się automatyczna generacja cyfrowego zapisu nutowego utworu o żądanych cechach 15 na bazie algorytmów sztucznej inteligencji i następnie uzyskuje się partie dźwiękowe dla poszczególnych instrumentów 17. Powstałe partie dźwiękowe 17 przekazuje się jako informacje które analizuje się w obszarze działania sekwensera oraz samplera 28 i renderuje się 16 te treści osobno dla każdego instrumentu, w taki sposób za pomocą sekwencera i samplera z użyciem sampli zmienia się cyfrowe zapisy nutowe każdej linii danego instrumentu na formę dźwiękową i tworzy się formę nagrania poszczególnych instrumentów osobno. Następnie dopracowuje się i miksuje się 18 nagranie. W ten sposób otrzymuje się finalne nagranie muzyczne 20 które przekazuje się do weryfikacji. Utwór 27 i jego nagranie 20 weryfikuje się za pomocą modułu krytyka 19 opartego na specjalistycznych algorytmach sieci neuronowych. Finalną treść muzyczną eksportuje się 23 i przekazuje się do dystrybucji 24. W przypadku negatywnej weryfikacji utworu i jego nagrania w module krytyka 19, proces na tym etapie zatrzymuje się, a automatyczny generator 16 generuje nowe treści na podstawie zadanych mu parametrów i cech, korzystnie z baz preferencji użytkownika 13.
W tym przykładzie wykonania rozwiązania według wynalazku, na etapie procesu przygotowywania dźwięków 6, przygotowane treści muzyczne zapisuje się w repozytorium dźwięków 8.
W tym przykładzie wykonania, w rozwiązaniu według wynalazku zadaje się generatorowi parametry i cechy utworu z baz preferencji użytkownika 13.
W innym przykładzie wykonania, opracowuje się modele generacji utworów muzycznych danego typu i zapisuje się je w bazie 11 opracowanych modeli z której odczytuje się te modele na etapie automatycznej generacji cyfrowego zapisu nutowego utworu o żądanych cechach 15.

Claims (6)

  1. Zastrzeżenia patentowe
    1. Sposób generowania treści muzycznych według wynalazku gdzie wejściowe próbki dźwiękowe poddaje się obróbce na bazie algorytmów modyfikacji muzycznych plików wejściowych, dotyczących w szczególności cech takich jak tempo, nastrój utworu, gatunek muzyczny, czas trwania oraz dobiera się zakres modulacji treści, gdzie w efekcie otrzymuje się kompozycję o zamierzonym wyrazie artystycznym, znamienny tym, że buduje się treści muzyczne na poziomie technicznym (27) i artystycznym (20), gdzie na poziomie tworzenia treści na poziomie technicznym (20) analizuje się wejściowe treści muzyczne (1) pod kątem występowania wzorców (3), zapisuje się wzorce w bazie reguł biznesowych i zasad komponowania muzyki (4) na podstawie których opracowuje się modele generacji utworów muzycznych danego typu (5), następnie tworzy się generator melodii, w którym generuje się cyfrowy zapis nutowy linii danego instrumentu (10), przy czym równolegle przygotowuje się bazę dźwięków atomowych (6), a następnie treści muzyczne przekazuje się do generatora (14) w którym przy pomocy urządzenia sterującego (26) zgodnego ze standardami MIDI zadaje się generatorowi parametry (12) i poddaje się automatycznej generacji cyfrowego zapisu nutowego utworu (15) i tworzy się partie dla poszczególnych instrumentów (17) które następnie renderuje się (16) do ścieżek muzycznych dla każdego instrumentu, a następnie miksuje się poszczególne ścieżki w nagranie (18) i otrzymuje się finalną wersję nagrania (20), po czym utwór (27) i jego nagranie (20) poddaje się poddaje się weryfikacji przez moduł krytyka Al (19).
  2. 2. Sposób generowania treści muzycznych według zastrz. 1, znamienny tym, że tworzy się finalne nagranie muzyczne (20) z wykorzystaniem algorytmów sztucznej inteligencji na etapie wykonywania analizy pod kątem występowania istniejących wzorców (3), opracowuje się modele generacji utworów (5) i tworzy się generator (6) przygotowania dźwięków (10).
  3. 3. Sposób generowania treści muzycznych według zastrz. 1 oraz 2, znamienny tym, że próbki dźwięków (6) tworzy się i równolegle zapisuje się treści w repozytorium (8).
  4. 4. Sposób generowania treści muzycznych według zastrz. 1, znamienny tym, że opracowane (5) modele (11) przekazuje się do odczytu i generuje się automatycznie cyfrowy zapis nutowy utworu o żądanych cechach (15).
  5. 5. Sposób generowania treści muzycznych według zastrz. 1, znamienny tym, że ścieżki dźwiękowe instrumentów (17) renderuje się (16) przy użyciu zasobów repozytorium (8).
  6. 6. Sposób generowania treści muzycznych według zastrz. 1, znamienny tym, że utwór i jego nagranie weryfikuje się (19) za pomocą algorytmów sztucznej inteligencji i powtarza się proces generowania treści muzycznych od początku.
PL434520A 2020-06-30 2020-06-30 Sposób generowania treści muzycznych PL242373B1 (pl)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PL434520A PL242373B1 (pl) 2020-06-30 2020-06-30 Sposób generowania treści muzycznych
US18/012,116 US20230178057A1 (en) 2020-06-30 2021-06-24 Generating music out of a database of sets of notes
PCT/PL2021/000039 WO2022005312A1 (en) 2020-06-30 2021-06-24 Generating music out of a database of sets of notes
EP21759425.8A EP4182917A1 (en) 2020-06-30 2021-06-24 Generating music out of a database of sets of notes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PL434520A PL242373B1 (pl) 2020-06-30 2020-06-30 Sposób generowania treści muzycznych

Publications (2)

Publication Number Publication Date
PL434520A1 PL434520A1 (pl) 2022-01-03
PL242373B1 true PL242373B1 (pl) 2023-02-13

Family

ID=77499887

Family Applications (1)

Application Number Title Priority Date Filing Date
PL434520A PL242373B1 (pl) 2020-06-30 2020-06-30 Sposób generowania treści muzycznych

Country Status (4)

Country Link
US (1) US20230178057A1 (pl)
EP (1) EP4182917A1 (pl)
PL (1) PL242373B1 (pl)
WO (1) WO2022005312A1 (pl)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7705231B2 (en) * 2007-09-07 2010-04-27 Microsoft Corporation Automatic accompaniment for vocal melodies
KR20190100543A (ko) * 2018-02-09 2019-08-29 삼성전자주식회사 전자장치 및 이를 이용한 인공지능 알고리즘 기반의 음악 작곡 방법
KR20190105254A (ko) * 2018-03-05 2019-09-17 주식회사 제이디사운드 인공 지능에 기반한 풀 디지털 오디오 처리 장치
US11972746B2 (en) * 2018-09-14 2024-04-30 Bellevue Investments Gmbh & Co. Kgaa Method and system for hybrid AI-based song construction
CN110211556B (zh) * 2019-05-10 2022-07-08 北京字节跳动网络技术有限公司 音乐文件的处理方法、装置、终端及存储介质

Also Published As

Publication number Publication date
US20230178057A1 (en) 2023-06-08
PL434520A1 (pl) 2022-01-03
WO2022005312A1 (en) 2022-01-06
EP4182917A1 (en) 2023-05-24

Similar Documents

Publication Publication Date Title
US11037538B2 (en) Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US10964299B1 (en) Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
CN109036355B (zh) 自动作曲方法、装置、计算机设备和存储介质
US11024275B2 (en) Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
US20110219940A1 (en) System and method for generating custom songs
Jonason The control-synthesis approach for making expressive and controllable neural music synthesizers
CN1770258B (zh) 表演风格确定设备和方法
Haus et al. Scoresynth: A system for the synthesis of music scores based on petri nets and a music algebra
US7420113B2 (en) Rendition style determination apparatus and method
US20210366454A1 (en) Sound signal synthesis method, neural network training method, and sound synthesizer
CN112669811B (zh) 一种歌曲处理方法、装置、电子设备及可读存储介质
Pedroza et al. Egfxset: Electric guitar tones processed through real effects of distortion, modulation, delay and reverb
Collins LL: Listening and learning in an interactive improvisation system
PL242373B1 (pl) Sposób generowania treści muzycznych
Borodovskaya et al. Automatic musical transcription of the Tatar folk song: comparative analysis of AI-powered programs.
US20210350783A1 (en) Sound signal synthesis method, neural network training method, and sound synthesizer
WO2022160054A1 (en) Artificial intelligence and audio processing system & methodology to automatically compose, perform, mix, and compile large collections of music
Cella et al. Dynamic Computer-Aided Orchestration in Practice with Orchidea
Wiggins et al. A differentiable acoustic guitar model for string-specific polyphonic synthesis
Liu An FM-Wavetable-Synthesized Violin with Natural Vibrato and Bow Pressure
CN112750422B (zh) 一种歌声合成方法、装置及设备
WO2020171035A1 (ja) 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム
Borodovskaya et al. The possibilities of artificial intelligence in automatic musical transcription of the Tatar folk song
Rogozinsky et al. Pch2csd: An application for converting Nord Modular G2 patches into Csound code
Masko et al. Software tools for automatic music performance