KR20170128070A - 순환형 신경망에 기반한 작곡 방법 - Google Patents

순환형 신경망에 기반한 작곡 방법 Download PDF

Info

Publication number
KR20170128070A
KR20170128070A KR1020170022493A KR20170022493A KR20170128070A KR 20170128070 A KR20170128070 A KR 20170128070A KR 1020170022493 A KR1020170022493 A KR 1020170022493A KR 20170022493 A KR20170022493 A KR 20170022493A KR 20170128070 A KR20170128070 A KR 20170128070A
Authority
KR
South Korea
Prior art keywords
codes
encoder
auto
computer device
neural network
Prior art date
Application number
KR1020170022493A
Other languages
English (en)
Inventor
반병현
박주희
정윤의
Original Assignee
반병현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 반병현 filed Critical 반병현
Priority to KR1020170022493A priority Critical patent/KR20170128070A/ko
Publication of KR20170128070A publication Critical patent/KR20170128070A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/105Composing aid, e.g. for supporting creation, edition or modification of a piece of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

순환형 신경망에 기반한 작곡 방법은 컴퓨터 장치가 RNN(Recurrent Neural Network)에 기반하여 학습된 오토인코더(autoencoder)에 i개의 시드 코드를 입력하는 단계 및 상기 컴퓨터 장치가 상기 오토인코더에서 출력되는 i+1개의 코드 중 첫 번째 코드를 제외한 나머지 i개의 코드를 다시 상기 오토인코더에 입력하여 i+1 개의 코드를 출력하는 단계를 포함한다. 상기 컴퓨터 장치는 i+1 개의 코드를 출력하는 단계를 n번 반복하여 i+n개의 코드를 생성한다.

Description

순환형 신경망에 기반한 작곡 방법{CHORD COMPOSITION METHOD BASED ON RECURRENT NEURAL NETWORK}
이하 설명하는 기술은 딥 러닝(deep learning) 기법을 이용하여 음악을 작곡하는 기법에 관한 것이다.
종래 컴퓨터 장치를 이용하여 음악을 자동으로 작곡하려는 연구가 있었다. 대부분의 종래 연구는 멜로디를 입력으로 사용하여 화음을 생성하거나, 몇 가지 변수를 고려하여 확률적 방법에 기반하여 음을 생성하였다.
한국공개특허 제2012-0060085호(2012.06.11)
이하 설명하는 기술은 RNN(Recurrent Neural Network)에 기반한 오토인코더(autoencoder)를 이용하여 음악을 작곡하는 기법을 제공하고자 한다.
순환형 신경망에 기반한 작곡 방법은 컴퓨터 장치가 RNN(Recurrent Neural Network)에 기반하여 학습된 오토인코더(autoencoder)에 i개의 시드 코드를 입력하는 단계 및 상기 컴퓨터 장치가 상기 오토인코더에서 출력되는 i+1개의 코드 중 첫 번째 코드를 제외한 나머지 i개의 코드를 다시 상기 오토인코더에 입력하여 i+1 개의 코드를 출력하는 단계를 포함한다. 상기 컴퓨터 장치는 i+1 개의 코드를 출력하는 단계를 n번 반복하여 i+n개의 코드를 생성한다.
이하 설명하는 기술은 큰 규모의 시계열적 데이터를 높은 정확도를 유지하며 생성하여 인간이 납득할 수 있는 수준의 아름다운 음악을 작곡할 수 있다.
도 1은 오토인코더 구조에 대한 예이다.
도 2는 RNN에 기반한 오토인코더에 대한 예이다.
도 3은 오토인코더를 학습하는 예이다.
도 4는 오토인코더를 학습하는 과정에 대한 예이다.
도 5는 오토인코더를 학습하는 과정에서 이용하는 샘플 데이터의 예이다.
도 6은 Deep RNN에 기반한 작곡 방법에 대한 순서도의 예이다.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시례를 가질 수 있는 바, 특정 실시례들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설시된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
이하 설명하는 기술은 딥 러닝(deep learning) 기법을 이용하여 음악을 작곡하는 기법이다. 이하 설명하는 기술은 음의 높이를 나타내는 코드(chord)를 생성한다. 음악은 음의 높이, 하나의 음의 길이, 음의 강약과 같은 요소들이 조합된다. 다만 이하 음의 높이에 해당하는 일련의 코드(멜로디)를 생성하는 과정을 중심으로 설명한다. 이하 설명하는 기술은 딥 러닝을 위한 신경망을 이용한다. 이하 신경망을 이용하여 음악을 작곡하는 장치를 컴퓨터 장치라고 명명한다.
이하 설명하는 기술은 신경망 중 소위 오토인코더(autoencoder)라고 불리는 신경망을 사용한다. 도 1은 오토인코더 구조에 대한 예이다. 오토인코더는 신경망 중 자율학습(Unsupervised learning)을 사용하여 학습하는 모델을 의미한다.
오토인코더는 입력 계층(input layer)과 은닉 계층(hidden layer)을 포함하는 인코더(encoder) 및 은닉 계층과 출력 계층(output layer)을 포함하는 디코더(decoder)로 구성된다.
인코더와 디코더에 학습된 모델은 학습 과정에서 계속 데이터를 생성해 내고, 학습이 끝난 이후에는 인코더의 출력폼 형식의 수학적 함수 분포(distribution)를 디코더에 넣어 주면 일정한 출력물을 생성할 수 있다. 일반적으로 오토인코더는 FNN(Feedforward Neural Networks)를 이용하여 학습된다. 이 경우 오토인코더는 입력된 데이터에 대한 결과물을 한 번에 출력한다.
이하 설명하는 기술에서 오토인코더는 RNN을 이용하여 학습한다. RNN은 신경망 학습 과정에서 시계열적으로 이전 또는/및 이후 데이터를 활용하여 학습을 수행한다. RNN은 시간 스텝 t에서의 출력값이 이전 시간 스텝 및/또는 이후의 시간 스텝에서 들어오는 입력값에도 영향을 받을 수 있다는 아이디어에 기반한다. 예를 들어, 영어 문제에서 빈칸에 가장 알맞는 단어를 채우기 위해서는 빈칸보다 앞쪽 문장들도 봐야겠지만, 빈칸 이후의 단어들도 문맥을 파악하는데 도움이 될 수 있다. 네트워크 구조는 몇 가지 형태가 가능하다. 예컨대, 양방향(birectional) RNN은 두 개의 RNN을 포함하고, 출력값은 두 개의 RNN의 은닉 계층에 의존하여 결정된다. 도 2는 RNN에 기반한 오토인코더에 대한 예이다. 도 2는 Deep RNN의 유형 중 하나의 예이다. Deep RNN(심층 순환형 신경망)은 양방향 RNN과 유사하지만, 매 시간 스텝마다 복수의 계층이 존재한다. 이하 Deep RNN을 이용하여 음악을 작곡한다고 가정한다.
먼저 오토인코더를 학습하는 과정에 대해 설명한다. 도 3은 오토인코더를 학습하는 예이다. 컴퓨터 장치는 샘플 데이터인 코드 샘플을 이용하여 오토인코더를 학습한다. 컴퓨터 장치가 일정한 코드 샘플을 오토인코더에 입력하면 일정한 결과물인 출력 코드가 출력된다. 컴퓨터 장치는 입력된 코드와 출력된 코드를 비교하면서 일정한 방향으로 학습을 수행한다.
인코더는 입력값으로 N차원 텐서(tensor)를 받는다. 이 텐서는 N차원 횡백터를 연결한 것이다. 텐서는 에서 열차원의 크기는 각 배치별 트레이닝 데이터의 크기와 일치한다. N차원 횡벡터는 One-Hot vector로 구성되며, 벡터의 요소들은 C, Dm, G7등의 음악적 코드에 사상된다.
도 4는 오토인코더를 학습하는 과정에 대한 예이다. 도 4는 12개의 연속된 코드를 갖는 코드 샘플을 예로 도시한다. 도 4에서 숫자로 표시한 부분은 코드 샘플의 위치를 의미한다. 컴퓨터 장치는 코드 샘플 중 일정한 길이의 샘플을 기준으로 학습을 수행한다. 도 4는 5개 길이의 샘플 코드를 이용한 예를 도시한다. 도 4(a)는 5개의 샘플 코드를 오토인코더에 입력하여 6개의 코드를 출격하는 예이다. 도 4(a)는 코드 샘플 중 첫 번째 샘플인 입력 샘플을 입력하여 출력 코드를 출력한 예이다. 입력 샘플은 [0,1,2,3,4]이고, 이에 대한 출력 코드는 [a,b,c,d,e,f]이다.
컴퓨터 장치는 입력 샘플과 디코더가 출력한 출력 코드 중 마지막 코드를 제외한 5개의 코드 [a,b,c,d,e]를 비교한다. 입력 샘플 [0,1,2,3,4]와 출력 코드 중 5개인 [a,b,c,d,e]의 차이를 기본 손실(basal loss)로 정의한다. 도 4(b)는 기본 손실을 판단하는 과정에 대한 예이다.
컴퓨터 장치는 코드 샘플에서 입력 샘플과 연속된 하나의 샘플 [0,1,2,3,4,5]과 출력 코드 [a,b,c,d,e,f]를 비교한다. 입력 샘플 +1과 출력 코드의 차이를 예측 손실(prediction loss)로 정의한다. 도 4(c)는 예측 손실을 판단하는 과정에 대한 예이다.
도 4의 내용을 일반화하여 다시 설명한다. 컴퓨터 장치는 코드 샘플 중 일부인 k개의 입력 샘플을 오토인코더에 입력하여, k+1개의 출력 코드를 획득한다. 컴퓨터 장치는 k개의 입력 샘플과 출력 코드 중 k개를 비교하여 기본 손실을 결정한다. 컴퓨터 장치는 입력 샘플과 코드 샘플에서 입력 샘플에 인접한 하나의 샘플(k+1개)와 출력 코드(k+1)을 비교하여 예측 손실을 결정한다. 컴퓨터 장치는 기본 손실과 예측 손실을 합산한 값이 줄어드는 방향으로 오코인코더를 학습한다. 이와 같은 과정을 반복하면서 컴퓨터 장치는 학습된 오토인코더를 마련한다. k는 음악의 종류나 시스템의 성능에 따라 달라질 수 있다.
도 5는 오토인코더를 학습하는 과정에서 이용하는 샘플 데이터의 예이다. 도 5는 샘플 데이터에 대해 반복적으로 학습을 수행하는 과정에 대한 예이다. 컴퓨터 장치는 입력 샘플 [0,1,2,3,4]를 이용하여 오토인코더를 학습하고, 이후 입력 샘플의 시작 위치를 하나 변경(증가)하여 입력 샘플 [1,2,3,4,5]를 이용하여 오토인토더를 학습한다. 이와 같이 컴퓨터장치는 입력 샘플의 위치를 변경하면서 전체 샘플 데이터를 이용하여 오토인코더를 학습한다.
악적 코드는 작곡하려는 곡의 종류에 따라 최소 8개, 최대 120개의 vocabulary로 거의 모든 기성음악을 표현할 수 있다. 마이너한 장르의 음악을 포괄하도록 예외적인 코드들까지 고려하더라도 Vocabulary가 200개 내외면 충분하다.
도 6은 RNN에 기반한 작곡 방법(100)에 대한 순서도의 예이다. 컴퓨터 장치는 전술한 과정에 따라 학습된 오토인코더를 준비한다(110). 컴퓨터 장치는 오토인코더에 i 개의 시드 코드를 입력한다(120). 시드 코드는 음악을 작곡하기 위해 이용하는 시작 코드에 해당한다. 컴퓨터 장치는 오토인코더의 디코더에 시드 코드를 입력할 수 있다.
오토인코더가 i+1개의 음악 코드를 출력한다(130). 오토인코더가 출력하는 코드를 결과 코드라고 명명한다. 컴퓨터 장치는 오토인코더가 출력하는 결과 코드를 별도로 저장한다(130). 컴퓨터 장치는 코드 작곡이 완료되었는지 확인한다(140). 코드의 길이는 사전에 설정할 수 있다. 설명의 편의를 위해 오토인코더가 n개의 추가 코드를 생성한다고 가정한다. 아직 코드 생성이 완성되지 않았다면, 컴퓨터 장치는 결과 코드 중 i개의 코드를 다시 오토인코더에 입력한다(150). 여기서 입력되는 i 개의 코드는 결과 코드(i+1) 중 가장 앞에 있는 코드를 제외한 나머지 코드에 해당한다. 컴퓨터 장치가 결과 코드를 획득하는 과정을 n번 반복하면, 최종적으로 i + n 개의 길이를 갖는 코드가 완성된다.
컴퓨터 장치가 n번의 과정에서 생성되는 n개의 출력 코드를 일정하게 조합하여 최종 코드를 생성할 수도 있다. 또는 정확도가 높은 경우라면 컴퓨터 장치는 최초 i개의 코드에서 추가되는 마지막 코드만을 추가하는 방식으로 최종 코드를 생성할 수도 있다.
본 실시례 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시례는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.

Claims (5)

  1. 컴퓨터 장치가 RNN(Recurrent Neural Network)에 기반하여 학습된 오토인코더(autoencoder)에 i개의 시드 코드를 입력하는 단계; 및
    상기 컴퓨터 장치가 상기 오토인코더에서 출력되는 i+1개의 코드 중 첫 번째 코드를 제외한 나머지 i개의 코드를 다시 상기 오토인코더에 입력하여 i+1 개의 코드를 출력하는 단계를 포함하되, 상기 컴퓨터 장치는 i+1 개의 코드를 출력하는 단계를 n번 반복하여 i+n개의 코드를 생성하는 순환형 신경망에 기반한 작곡 방법.
  2. 제1항에 있어서,
    상기 오토인코더는 음악 코드에 대응되는 요소를 갖는 N차원 벡터를 포함하는 샘플 데이터를 이용한 자율학습(unspervised learning) 방식으로 학습되는 순환형 신경망에 기반한 작곡 방법.
  3. 제1항에 있어서,
    상기 오토인코더는 RNN 구조를 갖는 인코더 및 RNN 구조를 갖는 디코더를 포함하는 순환형 신경망에 기반한 작곡 방법.
  4. 제1항에 있어서,
    상기 컴퓨터 장치는 상기 오토인코더에 대한 학습과정에서
    일정한 순서를 갖는 k+1개의 입력 데이터 중 어느 하나를 제외한 k 개의 입력 데이터를 상기 오토인코더에 입력하여 k+1개의 출력 데이터를 획득하고,
    상기 k개의 입력 데이터 및 상기 k+1개의 출력 데이터 중 마지막 데이터를 제외한 k개의 출력 데이터의 차이와 상기 k+1개의 입력 데이터 및 상기 k+1개의 출력 데이터의 차이를 합산한 값이 감소하도록 상기 오토인코더를 구성하는 순환형 신경망에 기반한 작곡 방법.
  5. 제4항에 있어서,
    상기 컴퓨터 장치는 음악 코드로 구성된 샘플 데이터에서 시작 위치를 하나씩 증가시키면서 상기 k개의 입력 데이터를 선택하면서 상기 학습 과정을 반복하는 순환형 신경망에 기반한 작곡 방법.
KR1020170022493A 2017-02-20 2017-02-20 순환형 신경망에 기반한 작곡 방법 KR20170128070A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170022493A KR20170128070A (ko) 2017-02-20 2017-02-20 순환형 신경망에 기반한 작곡 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170022493A KR20170128070A (ko) 2017-02-20 2017-02-20 순환형 신경망에 기반한 작곡 방법

Publications (1)

Publication Number Publication Date
KR20170128070A true KR20170128070A (ko) 2017-11-22

Family

ID=60809838

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170022493A KR20170128070A (ko) 2017-02-20 2017-02-20 순환형 신경망에 기반한 작곡 방법

Country Status (1)

Country Link
KR (1) KR20170128070A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019175462A (ja) * 2018-03-29 2019-10-10 コリア インスティテュート オブ オーシャン サイエンス テクノロジー 教師なし学習方法を用いた船舶の異常運航状態自動識別システムおよびその方法
KR102093233B1 (ko) * 2018-09-27 2020-03-26 동국대학교 산학협력단 신경망 기반의 음악 자동 생성 장치 및 그 방법
KR102196874B1 (ko) * 2020-08-07 2020-12-31 주식회사 환경과학기술 위성 이미지 생성 학습 장치, 위성 이미지 생성 학습 방법, 위성 이미지 생성 장치 및 위성 이미지 생성 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019175462A (ja) * 2018-03-29 2019-10-10 コリア インスティテュート オブ オーシャン サイエンス テクノロジー 教師なし学習方法を用いた船舶の異常運航状態自動識別システムおよびその方法
KR102093233B1 (ko) * 2018-09-27 2020-03-26 동국대학교 산학협력단 신경망 기반의 음악 자동 생성 장치 및 그 방법
KR102196874B1 (ko) * 2020-08-07 2020-12-31 주식회사 환경과학기술 위성 이미지 생성 학습 장치, 위성 이미지 생성 학습 방법, 위성 이미지 생성 장치 및 위성 이미지 생성 방법

Similar Documents

Publication Publication Date Title
Hernandez-Olivan et al. Music composition with deep learning: A review
Bretan et al. A unit selection methodology for music generation using deep neural networks
Lopez-Rincon et al. Algoritmic music composition based on artificial intelligence: A survey
Navarro et al. Automatic generation of chord progressions with an artificial immune system
Sturm et al. Folk music style modelling by recurrent neural networks with long short term memory units
US11887566B2 (en) Method of generating music data
Nakamura et al. Statistical piano reduction controlling performance difficulty
Yadav et al. A Lightweight Deep Learning‐Based Approach for Jazz Music Generation in MIDI Format
KR20170128070A (ko) 순환형 신경망에 기반한 작곡 방법
KR20170128073A (ko) 심층 강화 학습을 이용한 음악 작곡 방법
Suzuki et al. Four-part harmonization using Bayesian networks: Pros and cons of introducing chord nodes
McLeod et al. A modular system for the harmonic analysis of musical scores using a large vocabulary
Ippolito et al. Infilling piano performances
Sajad et al. Music generation for novices using Recurrent Neural Network (RNN)
CN1787072B (zh) 基于韵律模型和参数选音的语音合成方法
Ramoneda et al. Automatic piano fingering from partially annotated scores using autoregressive neural networks
Bhardwaj et al. Automated Music Generation using Deep Learning
KR102560394B1 (ko) 악보 코드 ai판별 알고리즘 기반 코드 생성 시스템
KR101934057B1 (ko) 계층적 인공 신경망을 이용한 자동 작곡 방법 및 그 기록 매체
KR102227415B1 (ko) 복선율 음악 생성 방법, 장치, 및 시스템
Roig et al. A non-homogeneous beat-based harmony Markov model
Grekow Generating musical sequences with a given emotion
Mohanty et al. Temporally conditioning of generative adversarial networks with lstm for music generation
KR20170128072A (ko) 프리 오더 마르코프 체인과 베이즈 추론을 이용한 음악 작곡 방법
Cao et al. Automatic composition of happy melodies based on relations

Legal Events

Date Code Title Description
G15R Request for early opening