KR20180070340A - 인공지능을 이용한 작곡 시스템 및 작곡 방법 - Google Patents

인공지능을 이용한 작곡 시스템 및 작곡 방법 Download PDF

Info

Publication number
KR20180070340A
KR20180070340A KR1020160172926A KR20160172926A KR20180070340A KR 20180070340 A KR20180070340 A KR 20180070340A KR 1020160172926 A KR1020160172926 A KR 1020160172926A KR 20160172926 A KR20160172926 A KR 20160172926A KR 20180070340 A KR20180070340 A KR 20180070340A
Authority
KR
South Korea
Prior art keywords
melody
composition
progression
neural network
user
Prior art date
Application number
KR1020160172926A
Other languages
English (en)
Other versions
KR101886534B1 (ko
Inventor
최정
오규환
백재순
이수호
이진우
조진형
이한가람
김기훈
박현명
홍이경
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020160172926A priority Critical patent/KR101886534B1/ko
Publication of KR20180070340A publication Critical patent/KR20180070340A/ko
Application granted granted Critical
Publication of KR101886534B1 publication Critical patent/KR101886534B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/081Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/145Composing rules, e.g. harmonic or musical rules, for use in automatic composition; Rule generation algorithms therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

사용자로부터의 작곡 요청 입력이 수신되면 인공 신경망을 통해 곡의 화성 진행과 멜로디 진행을 구성하고, 화성 진행과 멜로디 진행이 구성된 결과물에 대하여 편곡을 수행하고, 편곡이 완료된 결과물을 렌더링하여 음악 파일을 생성하고 음악 파일을 사용자에게 제공하는 작곡 시스템 및 작곡 방법이 개시된다.

Description

인공지능을 이용한 작곡 시스템 및 작곡 방법{SYSTEM AND METHOD FOR COMPOSING MUSIC BY USING ARTIFICIAL INTELLIGENCE}
본 발명은 작곡 시스템과 작곡 방법에 관한 것으로, 더욱 상세하게는 인공지능을 이용하는 간단하면서도 효율적인 작곡 시스템과 작곡 방법에 관한 것이다.
음악, 특히 배경음악은 영화, 게임, 애니메이션, 드라마 등 다양한 컨텐츠에서 분위기를 조성하여 소비자나 사용자들의 몰입을 돕는 역할을 한다. 예를 들어, 영화에서 주인공이 쫓기는 장면에서는 긴장감을 조성하기 위한 배경음악이 사용되고, 드라마에서는 스토리 흐름에 따라 적절한 분위기를 조성하기 위한 여러 가지 배경음악들이 사용된다.
이러한 배경음악 또는 기능성 음악은 다양한 상황에 어울리는 정형화된 음악들을 미리 제작하여 녹음해두고 라이브러리에서 선택하여 사용하는 방식이 일반적이다. 그러나, 매번 새로운 배경음악을 작곡하는 것은 인간의 창작성 발휘에 한계가 있고 비용의 관점에서 쉽지 않아, 동일한 음악이 여러 작품에 반복되어 사용되는 경우가 있다. 이러한 반복 사용은 사용자나 소비자들로 하여금 단조롭고 지겹게 들릴 우려가 있다.
또한, 최근 북미와 유럽 등을 중심으로 영상 공유 매체를 통한 개인영상 제작자의 수가 급증하는 추세이다. 이들은 뷰티, 패션, 게임, 신변 잡기, 사회적 이슈 등 여러 가지 분야의 흥미를 유발할 수 있는 콘텐츠를 제공함으로써 소비자들을 유인한다. 이러한 개인영상 제작자들은 영상에서 다양한 배경음악을 사용하기 원하는데, 대중음악을 사용하는 것은 저작권 문제가 발생할 수 있어서 주로 기제작된 다양한 음원을 구매하는 경우가 다수이다. 이러한 음원 구매 또한 일정 수준 이상의 비용이 소모되며 타인과 동일한 음원을 사용할 가능성이 있어 만족도가 높지 않다고 할 수 있다.
따라서, 저비용으로도 타인과 구별될 수 있는 작곡 환경에 대한 요구는 날로 증대되는 상황이다.
본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 인공지능을 이용한 작곡 시스템을 제안함으로써 저비용으로도 사용자의 요구에 맞는 결과물을 제공하는 것이다.
본 발명의 또 다른 목적은 매 결과물마다 다른 작곡 결과를 제공함으로써 사용자들에게 특화된 결과물을 제공하는 것이다.
본 발명의 또 다른 목적은 사용자들이 결과물에 대한 추가 작업을 할 수 있게 함으로써 개선된 창작 환경을 제공하는 것이다.
본 발명에서 이루고자 하는 기술적 목적들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 발명의 실시 예들로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.
상기 기술적 과제를 해결하기 위한 작곡 시스템은, 사용자로부터 특정한 스타일의 작곡을 요청하는 작곡 요청 입력을 수신하는 입출력부, 사용자의 작곡 요청 입력에 따라 인공 신경망을 통해 곡의 화성 진행을 구성하는 화성 생성부, 인공 신경망을 통해서 화성 진행에 대응되도록 멜로디 진행을 구성하는 멜로디 생성부, 화성 진행과 멜로디 진행이 구성된 제1 결과물에 대하여 리듬을 추가하고 세션 시퀀스를 추가함으로써 편곡을 수행하는 편곡부, 및 편곡이 완료된 제2 결과물을 렌더링하여 음악 파일을 생성하는 렌더링부를 포함하고, 입출력부는 음악 파일을 사용자에게 제공한다.
화성 진행 및 멜로디 진행은 각각 텍스트 데이터의 순차적인 배열로써 표현될 수 있다.
화성 생성부의 인공 신경망과 멜로디 생성부의 인공 신경망은 LSTM RNN(Long Term Short Memory Recurrent Neural Network)으로 구성될 수 있다.
화성 생성부의 인공 신경망과 멜로디 생성부의 인공 신경망은 복수의 음원들을 분석함으로써 코드 진행과 멜로디 진행을 텍스트 데이터로써 누적하여 학습할 수 있다.
편곡부는 제1 결과물에 대한 파싱(parsing) 과정을 거쳐 편곡을 수행하며, 편곡이 완료된 제2 결과물은 미디(MIDI) 파일로써 생성될 수 있다.
작곡 요청 입력은 사용자가 원하는 테마, 장르, 분위기, 스타일 중 적어도 하나를 나타내는 값을 포함할 수 있다.
멜로디 진행은 주 멜로디 파트의 구성과 솔로 연주 파트의 구성을 포함할 수 있다.
상기 기술적 과제를 해결하기 위한 작곡 방법은, 사용자로부터 특정한 스타일의 작곡을 요청하는 작곡 요청 입력을 수신하는 단계, 사용자의 작곡 요청 입력에 따라 인공 신경망을 통해 곡의 화성 진행을 구성하는 단계, 인공 신경망을 통해서 화성 진행에 대응되도록 멜로디 진행을 구성하는 단계, 화성 진행과 멜로디 진행이 구성된 제1 결과물에 대하여 리듬을 추가하고 세션 시퀀스를 추가함으로써 편곡을 수행하는 단계, 편곡이 완료된 제2 결과물을 렌더링하여 음악 파일을 생성하는 단계, 및 음악 파일을 사용자에게 제공하는 단계를 포함한다.
상기 기술적 과제를 해결하기 위한 컴퓨터 판독 가능한 기록 매체는 상술한 작곡 방법을 실행하기 위한 컴퓨터 프로그램을 기록한다.
본 발명의 실시 예들에 따르면 다음과 같은 효과를 기대할 수 있다.
첫째로, 향상된 작곡 시스템과 작곡 방법을 통해서 저비용으로도 고효율의 음악적 결과물이 제작될 수 있다.
둘째로, 인공지능에 기초하여 매 시도마다 다른 작곡 결과물을 얻어낼 수 있어, 사용자가 타인과 차별화된 결과물을 획득할 수 있게 된다.
셋째로, 결과물에 대한 추가작업을 가능케 함으로써 사용자의 창작 영역을 확장하고 창의성을 발휘할 수 있는 환경을 제공할 수 있게 된다.
본 발명의 실시 예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 이하의 본 발명의 실시 예들에 대한 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 발명을 실시함에 따른 의도하지 않은 효과들 역시 본 발명의 실시 예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.
이하에 첨부되는 도면들은 본 발명에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 발명에 대한 실시 예들을 제공한다. 다만, 본 발명의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 제안하는 일 실시 예에 따른 작곡 시스템의 구성을 도시하는 블록도이다.
도 2는 제안하는 일 실시 예에 따른 작곡 시스템의 동작 과정을 설명하는 도면이다.
도 3은 제안하는 또 다른 실시 예에 따른 작곡 시스템의 동작 과정을 설명하는 도면이다.
도 4는 제안하는 또 다른 실시 예에 따른 작곡 시스템의 동작 과정을 설명하는 도면이다.
도 5는 제안하는 일 실시 예에 따른 작곡 시스템의 인공지능 구조를 설명하는 도면이다.
도 6은 제안하는 또 다른 실시 예에 따른 작곡 시스템의 인공지능 구조를 설명하는 도면이다.
도 7은 제안하는 일 실시 예에 따른 작곡 시스템의 편곡 과정을 설명하는 도면이다.
도 8은 제안하는 일 실시 예에 따른 작곡 방법의 동작 과정을 설명하는 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 명세서 전체에서 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, "그 중간에 다른 소자를 사이에 두고" 연결되어 있는 경우도 포함한다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명한다.
도 1은 제안하는 일 실시 예에 따른 작곡 시스템의 구성을 도시하는 블록도이다. 제안하는 실시 예에 따른 작곡 시스템(1000)은 입출력부(110), 통신부(120), 저장부(130), 화성 생성부(140), 멜로디 생성부(150), 편곡부(160), 렌더링부(170) 및 제어부(180)를 포함한다. 다만, 제안하는 실시 예에 따른 작곡 시스템(1000)은 도 1에 도시된 구성만을 포함하는 것은 아니며, 그 기능과 동작을 구현하기 위한 다른 범용적인 구성을 더 포함할 수 있다. 이하에서 도 1에 도시된 작곡 시스템(1000)과 작곡 시스템(1000)의 각각의 구성요소들에 대해 구체적으로 설명한다.
제안하는 일 실시 예에 따른 작곡 시스템(1000)은 인공지능 모듈을 이용하여 사용자의 요청에 적합한 음악을 작곡한다. 작곡 시스템(1000)이 인공지능 모듈을 이용한다는 것은, 기존 음악들을 통해서 학습한 결과를 반영하여 사용자의 개입 없이도 요구에 맞는 음악을 작곡하는 것을 의미한다. 즉, 사용자가 특정 장르나 분위기에 대한 음악을 요청하면, 작곡 시스템(1000)은 데이터베이스에 저장된 결과물을 이용하여 요청에 적합한 결과물을 제작하여 사용자에게 제공하게 된다.
먼저, 제안하는 실시 예에 따른 작곡 시스템(1000)에 포함되는 입출력부(110)는 사용자로부터 입력을 수신하고 사용자에게 결과물을 제공한다. 입출력부(110)는 웹페이지나 웹 서버에 사용자 인터페이스로써 구현될 수 있으며, 사용자의 입력은 사용자 인터페이스를 통해 감지되는 소정의 요청, 질의 등을 의미할 수 있다. 한편, 입출력부(110)는 사용자로부터 사용자가 원하는 특정한 음악의 제작을 요청받을 수 있으며, 사용자는 자신이 원하는 음악을 제작하기 위해 테마, 분위기, 장르 등 다양한 팩터(factor)들을 지정하여 음악 제작을 요청할 수 있다.
또한, 입출력부(110)는 사용자의 요청에 따라 제작된 음악적 결과물을 제공하는 역할도 수행한다. 즉, 작곡 시스템(1000)은 사용자가 원하는 스타일의 작곡이 완료되면 렌더링을 거쳐 결과물을 디지털 파일로 생성할 수 있으며, 입출력부(110)는 생성된 파일을 사용자에게 전달한다.
통신부(120)는 작곡 시스템(1000)이 다른 디바이스나 서버와 데이터를 주고받기 위한 역할을 담당한다. 데이터를 주고 받는다는 것은 사용자의 입력을 수신하고 사용자로 결과물을 제공하는 과정 또한 포함하기 때문에, 통신부(120)는 앞서 설명한 입출력부(110)와 일체로 구현될 수도 있다. 한편, 통신부(120)가 사용자가 아닌 다른 서버나 디바이스와 통신하는 경우에는 입출력부(110)와 별도로 통신부(120)가 구현되는 것이 의미가 있다.
통신부(120)는 유선 통신, 무선 통신, 이동 통신 등 일체의 통신을 구현하기 위한 통신 모듈을 포함하여, 앞서 설명했듯이 사용자, 외부 디바이스, 외부 서버와 통신을 수행한다.
저장부(130)는 작곡 시스템(1000)에서 처리되는 데이터, 신호, 프로그램, 알고리즘, 어플리케이션 등을 저장 및 관리한다. 저장부(130)는 작곡 시스템(1000) 내부에 하드웨어적인 구성요소로써 포함될 수 있으며, 작곡 시스템(1000)은 별도의 클라우드 서버를 운영함으로써 저장부(130)를 외부에 보유할 수도 있다.
이어서, 화성 생성부(140)는 사용자의 요청에 따라 제작될 음악의 코드 진행을 구성한다. 화성 생성부(140)는 기존의 음원들의 코드 진행 정보를 획득하며, 코드 진행 정보를 화성학적 의미로 해석하여 기계학습으로 활용할 수 있는 데이터 구조를 정립한다. 화성 생성부(140)는 음원들로부터 추출된 코드 진행 정보를 정립된 데이터 구조에 따라 기호화한 뒤 텍스트 데이터로 변환하여 저장한다. 이러한 저장 과정을 거쳐 화성 생성부(140)는 기존의 음원들의 코드 진행을 학습할 수 있다.
한편, 화성 생성부(140)는 인공 신경망을 구성하는 인공지능 모듈을 포함할 수 있다. 이러한 인공지능 모듈은 화성 생성부(140)가 코드 진행 정보를 지속적으로 학습함으로써 사용자 요청에 맞는 음악의 코드를 구성할 수 있게끔 한다. 즉, 음악을 구성하는 화성은 특정 이벤트들의 순차적인 나열로 해석될 수 있으므로, 화성 생성부(140)는 인공지능 모듈을 이용하여 소정 코드들을 확률에 따라 순차적으로 등장시킴으로써 전체 음악의 코드를 구성한다.
한편, 이러한 인공지능 모듈은 LSTM RNN(Long Term Short Memory Recurrent Neural Network) 모델로써 구현될 수 있다. 화성 생성부(140)는 LSTM RMN 모델을 이용하여 텍스트 데이터를 지속적으로 학습함으로써, 사용자의 요청에 맞는 음악의 코드 진행을 구성할 수 있게 된다.
멜로디 생성부(150)는 사용자의 요청에 따라 제작된 음악의 멜로디 진행을 구성한다. 즉, 멜로디 생성부(150)는 화성 생성부(140)에 의해 음악의 코드 진행이 구성되고 나면, 코드 진행에 멜로디를 부가한다. 멜로디 생성부(150) 또한 화성 생성부(140)와 유사하게 기존의 음원들을 화성학적 의미로 해석하여 기계학습을 위한 데이터 구조를 정립한다.
구체적으로, 멜로디 생성부(150)는 음원들로부터 추출된 음가의 진행들을 각 코드에 맞추어 추상화하고, 추상화된 멜로디 진행 정보를 텍스트 데이터로 변환하여 저장한다. 이러한 저장 과정을 거쳐 멜로디 생성부(150)는 기존의 음원들의 멜로디 진행을 학습할 수 있다. 멜로디 생성부(150) 또한 화성 생성부(140)와 유사하게 인공 신경망을 구성하는 인공지능 모듈을 포함할 수 있으며, 인공지능 모듈을 이용하여 멜로디 진행을 학습할 수 있다. 한편, 멜로디 생성부(150)가 저장하고 학습하는 멜로디 진행 정보는 주 멜로디 파트와 솔로 연주 파트로 구분되어 저장 및 학습될 수 있다. 주 멜로디는 특정 코드 내에서 주를 이루는 멜로디 진행을 의미하며, 솔로 연주 파트는 간주나 연주와 같이 주 멜로디와는 구분되는 멜로디 진행을 의미한다. 솔로 연주 파트는 주 멜로디에 비하여 스케일 위주로 저장 및 학습될 수 있다.
멜로디 생성부(150)는 화성 생성부(140)가 생성한 코드 진행에 맞추어 음악의 멜로디를 구성하여 부가한다. 멜로디 생성부(150)가 멜로디를 구성하는 과정에서 멜로디의 출현 빈도 수를 추출하는 N-gram 기법이 활용될 수 있으며, 구체적인 내용은 도 6에서 설명한다.
이상에서 화성 생성부(140)와 멜로디 생성부(150)는 인공지능 모듈로써 LSTM RNN 모델로 구현되는 예를 설명하였다. 그러나, 이러한 내용은 단순한 예시에 불과하며, 화성 생성부(140)와 멜로디 생성부(150)를 구성하는 인공지능 모듈은 CNN(convolutional neural network)과 같은 다른 모듈로써 구현될 수도 있으며, LSTM RNN 모델과 CNN 모델이 복합적으로 구축되는 방식으로 구현될 수도 있다.
이어서, 편곡부(160)는 화성 생성부(140)와 멜로디 생성부(150)에 의해 제작된 음악적 결과물을 구체화한다. 화성과 멜로디 구성은 텍스트 데이터의 순차적인 배열이기 때문에, 편곡 과정은 이러한 결과물에 대해 파싱(parsing)을 수행함으로써 디지털 파일을 생성하는 과정으로 이해될 수 있다. 또한, 편곡부(160)는 사용자가 요청한 음악적 특색(장르, 분위기, 테마 등)에 맞게끔 작곡 결과물에 리듬을 추가하거나 세션 및 반주를 추가하는 역할을 수행한다. 이러한 편곡 과정은 작곡된 곡의 마디 단위로 수행될 수 있으며, 기정의된 법칙과 확률에 따른 알고리즘을 기반으로 수행될 수 있다. 편곡부(160)가 편곡 과정을 거친 결과물은 디지털 파일로써 생성될 수 있으며, 예를 들어 미디 파일로써 생성될 수 있다.
렌더링부(170)는 편곡이 완료된 데이터를 오디오 파일로써 렌더링하는 역할을 수행한다. 렌더링이 완료된 결과물은 사용자에게 제공될 최종적인 결과물로써, 예를 들어 aiff 형식의 파일로써 생성될 수 있다.
한편, 렌더링부(170)는 작곡 시스템(1000) 내부에 마련될 수도 있으나, 작곡 시스템(1000)의 구현형태에 따라서 작곡 시스템(1000)의 외부에 별도로 구현될 수도 있다. 렌더링부(170)가 외부에 구현되는 경우, 통신부(120)는 편곡이 완료된 데이터를 렌더링하기 위해 렌더링부(170)로 전송하며, 렌더링된 결과물을 렌더링부(170)로부터 수신하게 된다.
제어부(180)는 앞서 설명한 입출력부(110), 통신부(120), 저장부(130), 화성 생성부(140), 멜로디 생성부(150), 편곡부(160) 및 렌더링부(170)의 구성들의 전반적인 동작을 제어한다. 즉, 제어부(180)는 상술한 구성요소들간의 연결과 동작을 제어함으로써 작곡 시스템(1000)이 기능하기 위한 전반적인 작업을 수행한다.
상술한 구성요소들에 의하면, 작곡 시스템(1000)은 사용자의 요청에 따라 인공지능을 이용하여 작곡을 수행하며, 작곡된 음악을 사용자에게 파일의 형태로 제공할 수 있다.
이하에서는 도 1에서 설명한 작곡 시스템(1000)이 동작하는 여러 가지 실시 예들에 대해 구체적으로 설명한다.
도 2는 제안하는 일 실시 예에 따른 작곡 시스템의 동작 과정을 설명하는 도면이다. 도 2에서 웹 클라이언트는 사용자로부터 작곡 요청 입력을 수신하고 음악적 결과물을 제공하기 위한 사용자 인터페이스를 의미한다. 인공신경망 모듈은 인공지능을 이용하여 화성과 멜로디를 생성하기 위한 작곡 시스템의 내부 모듈을 의미하며, 리듬 섹션 추가 및 편곡과 미디 출력 및 오디오 렌더링은 각각 작곡된 결과물에 대한 추가적인 작업 과정을 나타낸다.
구체적으로, 사용자는 웹 클라이언트 등을 통해서 원하는 특정 스타일의 음악을 요청한다(210). 사용자는 테마, 장르, 분위기, 스타일 등을 지정함으로써 자신이 어떠한 특색의 음악을 원하는지를 작곡 시스템에 전달한다. 작곡 시스템은 사용자로부터의 요청에 따라 음악의 화성과 멜로디를 생성한다(220). 사용자가 원하는 특색의 화성 진행이 먼저 구성될 수 있으며, 화성 진행에 멜로디가 부가되는 방식을 통해서 작곡 과정이 수행될 수 있다.
화성과 멜로디가 구성된 작곡 결과물(230)은 리듬, 세션, 편곡 과정을 거쳐 디지털 데이터(예를 들어, 미디 파일)로써 생성되며, 오디오 렌더링을 거쳐 최종적인 음악 파일이 생성된다(240). 이러한 음악 파일은 웹 클라이언트를 통해 사용자에게 전달될 수 있다(250).
도 3은 제안하는 또 다른 실시 예에 따른 작곡 시스템의 동작 과정을 설명하는 도면이다. 도 3은 도 1의 작곡 시스템이 도 2에서 설명한 동작을 수행하기 위한 프레임워크 구현의 일 예를 도시한다.
도 3에서, 클라이언트를 통해서 사용자로부터 특정한 특색의 작곡을 요청받으면, 작곡 서비스를 제공하기 위한 웹 사이트는 사용자 요청에 따른 특정 입력값(또는, 변수)을 작곡을 위한 서버로 전달한다. 웹 사이트는 예를 들어 레일즈(Ruby on Rails) 프레임워크를 통해 구현될 수 있다.
작곡과 편곡을 담당하는 서버는 예를 들어 파이썬(python) 모듈에 플라스크(Flask)를 사용하여 웹 서버로써 구현될 수 있으며, 전달받은 입력값과 변수에 따라 작곡 결과물을 생성한다. 미디 파일로써 생성된 작곡 결과물은 별도의 서버로 전달되어 오디오 렌더링 과정을 거치며, 렌더링이 완료된 최종 오디오 파일은 다시 작곡을 담당하는 서버로 전달된다. 작곡 시스템은 최종적으로 웹 서버를 통해 오디오 파일을 연결하는 URL을 사용자에게 제공함으로써, 사용자가 오디오 파일을 다운로드 받을 수 있게끔 한다.
도 4는 제안하는 또 다른 실시 예에 따른 작곡 시스템의 동작 과정을 설명하는 도면이다. 도 4에서는 앞서 설명한 인공 신경망 모듈이 코드 진행 정보를 학습하는 과정에 대해 구체적으로 설명한다.
먼저, 작곡 시스템은 기존의 음악들을 분석하여 코드 진행 정보를 획득한다(도 4(a)). 코드 진행 정보는 화성학적 의미로 해석되어 기계학습을 위한 데이터 구조로써 정립되며(도 4(b)), 최종적으로는 데이터 형식에 맞추어 기호화된 텍스트로써 변환된다(도 4(c)). 즉, 작곡 시스템은 각각의 코드 진행을 텍스트 데이터로써 변환함으로써, 코드 진행을 나타내는 텍스트 데이터를 누적하여 학습할 수 있다. 코드 진행을 일차원적인 흐름으로 해석하는 대신에 화성적 의미에 따라 해석함으로써, 작곡 시스템은 사용자의 장르, 테마, 분위기 등의 요청에 따라 복합적인 코드 진행을 구성할 수 있게 된다.
도 5는 제안하는 일 실시 예에 따른 작곡 시스템의 인공지능 구조를 설명하는 도면이다. 도 5는 앞서 설명한 인공 신경망 구조 중에서 LSTM RNN 모델을 예로 들어 설명한다.
앞서 설명했듯이, 작곡 시스템의 화성 생성부 및 멜로디 생성부는 인공지능을 이용해 화성과 멜로디를 구성한다. 이를 위하여 화성 생성부와 멜로디 생성부는 기계학습을 통해 미리 데이터베이스를 구성할 필요가 있으며, 도 4에서 설명한 바에 따라 분석된 코드 진행 정보를 도 5의 구조에 따라 학습할 수 있다.
이러한 인공신경망은 파이썬(python) 기반의 기계학습 라이브러리인 Tensorflow로 구현될 수 있으며, 코드의 의미를 담은 텍스트 데이터 단위의 시퀀스를 기반으로 학습한다. 반대로, 화성을 생성하는 과정 또한 텍스트 데이터 단위로 수행된다. 예를 들어, 인공 신경망은 514개의 뉴런으로 이루어진 LSTM 레이어와 dropout 레이어의 조합들로 구성될 수 있으며, 신경망의 구체적인 구조와 하이퍼파라미터는 사용자의 조작이나 시스템 내부적으로 조절될 수 있다.
도 6은 제안하는 또 다른 실시 예에 따른 작곡 시스템의 인공지능 구조를 설명하는 도면이다. 도 6에서는 멜로디 생성 과정에서 이용되는 N-gram 방식에 대해 설명하여, N-gram 방식에 대해 설명하기에 앞서 멜로디 생성부가 기존의 음원들을 분석하여 추상화하는 과정에 대해 설명한다.
앞서 설명했듯이, 멜로디 생성부는 특정 코드 내에서 주 멜로디 파트와 솔로 연주 파트를 각각 구분하여 추상화하는데, 추상화 과정은 각각의 노트의 성격을 텍스트 데이터로 변환하기 위해서 알파벳으로 표현하는 과정으로 이해될 수 있다. 아래의 표 1 및 표 2는 각각 주 멜로디 파트와 솔로 연주 파트를 추상화하는 과정을 표현한다.
노트 성격 추상화
R
루트 T
코드 톤 C
9th N
11th F
6th X
Dominant 7th D
Major 7th J
어프로치 노트 A
노트 성격 추상화
코드 톤 C
컬러 노트 L
그외 텐션 노트 T
어프로치 노트 A
도움 노트 H
스케일 노트 S
임의의 노트 X
R
표 1 및 표 2에서 각각의 노트를 추상화하는 알파벳은 단순한 예시에 불과하며, 다른 방식을 통해서 추상화가 수행될 수도 있다. 한편, 상술한 추상화 과정에 따라 각 노트들이 텍스트 데이터로써 변환되며, 멜로디 생성부는 인공 신경망을 통해 해당 텍스트 데이터들을 학습한다.
도 6(a)에서 각각의 박스들은 멜로디 진행을 추상화한 텍스트 데이터를 나타낸다. 각각의 텍스트 데이터에서 알파벳은 표 1 및 표 2의 추상화된 노트를 의미하고, 알파벳에 이어진 숫자는 각 노트의 길이를 의미한다.
도 6(a)의 텍스트 데이터에 대하여, 멜로디 생성부는 N-gram 기법을 적용함으로써 특정 노트의 출현 빈도수에 따라 멜로디를 구조화한다(도 6(b), 도 6(c)). 구조화된 멜로디 결과는 멜로디 생성부에 다시 데이터로써 입력될 수 있으며, 이러한 반복적인 구조화 과정을 통해서 작곡 시스템은 충분한 깊이와 분량의 멜로디 데이터베이스를 확보할 수 있게 된다.
도 7은 제안하는 일 실시 예에 따른 작곡 시스템의 편곡 과정을 설명하는 도면이다. 편곡 과정은 인공 신경망을 통해 화성과 멜로디가 생성되면, 생성된 곡을 토대로 마디 단위로 수행된다. 도 7에 도시된 바와 같이, 전체 화성 진행에 주 멜로디가 입혀진 결과물에 대하여, 특정 시퀀스들을 추가하거나 리듬을 추가하거나, 세션들을 추가하는 과정 등을 통해서 편곡 과정이 수행될 수 있다. 편곡 과정은 사전에 입력된 알고리즘과 반주 기법 등에 따라서 이루어질 수 있으며, 화성 생성 과정과 멜로디 생성 과정과는 달리 인공 신경망으로 구성되지는 않는다.
도 8은 제안하는 일 실시 예에 따른 작곡 방법의 동작 과정을 설명하는 흐름도이다. 도 8은 도 1 내지 도 7에서 설명한 작곡 시스템의 실시 예들을 시계열적인 흐름에 따라 도시한 도면이다. 따라서, 도 8에 구체적으로 도시되거나 설명되지 않더라도 이상에서 설명한 내용들이 도 8의 작곡 방법에 동일 또는 유사하게 적용될 수 있다.
먼저, 작곡 시스템은 사용자로부터 작곡 요청 입력을 수신한다(S810). 이러한 작곡 요청 입력은 특정 장르, 분위기, 테마 등 사용자가 원하는 특색의 음악을 지정하는 입력일 수 있으며, 웹 클라이언트를 통해서 사용자로부터 수신될 수 있다.
작곡 시스템은 사용자의 요청에 따라 화성 데이터를 생성한다(S820). 화성 데이터는 작곡 시스템이 미리 학습한 코드 진행 정보에 기초하여 인공 신경망을 통해서 생성될 수 있으며, 소정의 코드들을 확률에 따라 배치함으로써 전체 음악의 코드를 구성한다. 이어서, 작곡 시스템은 생성된 화성에 맞는 멜로디 데이터를 생성한다(S830). 멜로디를 구성하는 노트들은 특정 마다 다르게 해석되기 때문에, 멜로디 데이터는 화성 데이터를 기반으로 생성된다.
이어서, 작곡 시스템은 생성된 화성 데이터와 멜로디 데이터를 기반으로 편곡을 수행한다(S840). 즉, 작곡 시스템은 데이터의 연속적인 배치로 구성되는 화성 데이터와 멜로디 데이터에 리듬을 추가하거나 세션을 추가함으로써 전체 곡을 풍성하게 구성한다. 작곡 시스템은 편곡이 완료된 결과물을 미디 파일로써 출력하며, 출력된 파일에 대해 오디오 렌더링을 수행하여 곡을 최종적인 결과물로써 생성한다(S850). 생성된 결과물은 사용자에게 제공되며(S860) 다운로드 받을 수 있는 웹페이지의 주소를 제공하는 방식 등으로 이루어질 수 있다.
한편, 상술한 방법은, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 코드를 포함하는 저장 디바이스를 설명하기 위해 사용될 수 있는 프로그램 저장 디바이스들은, 반송파(carrier waves)나 신호들과 같이 일시적인 대상들은 포함하는 것으로 이해되지는 않아야 한다. 상기 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, DVD 등)와 같은 저장 매체를 포함할 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 인공지능을 이용한 작곡 시스템에 있어서,
    사용자로부터 특정한 스타일의 작곡을 요청하는 작곡 요청 입력을 수신하는 입출력부;
    상기 사용자의 작곡 요청 입력에 따라 인공 신경망을 통해 곡의 화성 진행을 구성하는 화성 생성부;
    인공 신경망을 통해서 상기 화성 진행에 대응되도록 멜로디 진행을 구성하는 멜로디 생성부;
    상기 화성 진행과 상기 멜로디 진행이 구성된 제1 결과물에 대하여 리듬을 추가하고 세션 시퀀스를 추가함으로써 편곡을 수행하는 편곡부; 및
    상기 편곡이 완료된 제2 결과물을 렌더링하여 음악 파일을 생성하는 렌더링부를 포함하고,
    상기 입출력부는 상기 음악 파일을 상기 사용자에게 제공하는 것인, 작곡 시스템.
  2. 제1항에 있어서,
    상기 화성 진행 및 상기 멜로디 진행은 각각 텍스트 데이터의 순차적인 배열로써 표현되는 것인, 작곡 시스템.
  3. 제1항에 있어서,
    상기 화성 생성부의 인공 신경망과 상기 멜로디 생성부의 인공 신경망은 LSTM RNN(Long Term Short Memory Recurrent Neural Network)으로 구성되는 것인, 작곡 시스템.
  4. 제3항에 있어서,
    상기 화성 생성부의 인공 신경망과 상기 멜로디 생성부의 인공 신경망은 복수의 음원들을 분석함으로써 코드 진행과 멜로디 진행을 텍스트 데이터로써 누적하여 학습하는 것인, 작곡 시스템.
  5. 제1항에 있어서,
    상기 편곡부는 상기 제1 결과물에 대한 파싱(parsing) 과정을 거쳐 상기 편곡을 수행하며, 상기 편곡이 완료된 제2 결과물은 미디(MIDI) 파일로써 생성되는 것인, 작곡 시스템.
  6. 제1항에 있어서,
    상기 작곡 요청 입력은 상기 사용자가 원하는 테마, 장르, 분위기, 스타일 중 적어도 하나를 나타내는 값을 포함하는 것인, 작곡 시스템.
  7. 제1항에 있어서,
    상기 멜로디 진행은 주 멜로디 파트의 구성과 솔로 연주 파트의 구성을 포함하는 것인, 작곡 시스템.
  8. 인공지능을 이용한 작곡 방법에 있어서,
    사용자로부터 특정한 스타일의 작곡을 요청하는 작곡 요청 입력을 수신하는 단계;
    상기 사용자의 작곡 요청 입력에 따라 인공 신경망을 통해 곡의 화성 진행을 구성하는 단계;
    인공 신경망을 통해서 상기 화성 진행에 대응되도록 멜로디 진행을 구성하는 단계;
    상기 화성 진행과 상기 멜로디 진행이 구성된 제1 결과물에 대하여 리듬을 추가하고 세션 시퀀스를 추가함으로써 편곡을 수행하는 단계;
    상기 편곡이 완료된 제2 결과물을 렌더링하여 음악 파일을 생성하는 단계; 및
    상기 음악 파일을 상기 사용자에게 제공하는 단계를 포함하는, 작곡 방법.
  9. 제8항에 있어서,
    상기 화성 진행 및 상기 멜로디 진행은 각각 텍스트 데이터의 순차적인 배열로써 표현되는 것인, 작곡 방법.
  10. 제8항에 있어서,
    상기 화성 진행을 위한 인공 신경망과 상기 멜로디 진행을 위한 인공 신경망은 LSTM RNN(Long Term Short Memory Recurrent Neural Network)으로 구성되는 것인, 작곡 방법.
  11. 제10항에 있어서,
    상기 화성 진행을 위한 인공 신경망과 상기 멜로디 진행을 위한 인공 신경망은 복수의 음원들을 분석함으로써 코드 진행과 멜로디 진행을 누적하여 학습하는 것인, 작곡 방법.
  12. 제8항에 있어서,
    상기 편곡 과정은 상기 제1 결과물에 대한 파싱(parsing) 과정을 거쳐 수행되며, 상기 편곡이 완료된 제2 결과물은 미디(MIDI) 파일로써 생성되는 것인, 작곡 방법.
  13. 제8항에 있어서,
    상기 작곡 요청 입력은 상기 사용자가 원하는 테마, 장르, 분위기 중 적어도 하나를 나타내는 값을 포함하는 것인, 작곡 방법.
  14. 제8항에 있어서,
    상기 멜로디 진행은 주 멜로디 파트의 구성과 솔로 연주 파트의 구성을 포함하는 것인, 작곡 방법.
  15. 제8항 내지 제14항 중 어느 하나의 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체.
KR1020160172926A 2016-12-16 2016-12-16 인공지능을 이용한 작곡 시스템 및 작곡 방법 KR101886534B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160172926A KR101886534B1 (ko) 2016-12-16 2016-12-16 인공지능을 이용한 작곡 시스템 및 작곡 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160172926A KR101886534B1 (ko) 2016-12-16 2016-12-16 인공지능을 이용한 작곡 시스템 및 작곡 방법

Publications (2)

Publication Number Publication Date
KR20180070340A true KR20180070340A (ko) 2018-06-26
KR101886534B1 KR101886534B1 (ko) 2018-08-09

Family

ID=62788333

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160172926A KR101886534B1 (ko) 2016-12-16 2016-12-16 인공지능을 이용한 작곡 시스템 및 작곡 방법

Country Status (1)

Country Link
KR (1) KR101886534B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110136730A (zh) * 2019-04-08 2019-08-16 华南理工大学 一种基于深度学习的钢琴和声自动编配系统及方法
WO2020166094A1 (ja) * 2019-02-12 2020-08-20 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
CN112017621A (zh) * 2020-08-04 2020-12-01 河海大学常州校区 基于对位和声关系的lstm多轨音乐生成方法
WO2021029523A1 (en) * 2019-08-15 2021-02-18 Samsung Electronics Co., Ltd. Techniques for learning effective musical features for generative and retrieval-based applications
CN113178182A (zh) * 2021-04-25 2021-07-27 北京灵动音科技有限公司 信息处理方法、装置、电子设备及存储介质

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102138248B1 (ko) * 2018-10-30 2020-07-28 주식회사 크리에이티브마인드 온라인 채팅의 배경음악생성방법 및 그 장치
KR20210158706A (ko) 2020-06-24 2021-12-31 현대자동차주식회사 차량 및 그 제어방법
KR20220000654A (ko) 2020-06-26 2022-01-04 현대자동차주식회사 차량 및 그 제어방법
KR20220000655A (ko) 2020-06-26 2022-01-04 현대자동차주식회사 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량
KR102640557B1 (ko) 2021-10-01 2024-02-23 서울대학교산학협력단 음악 이론을 이용한 뇌-컴퓨터 인터페이스 기반 음악 작곡 방법 및 장치
KR102492074B1 (ko) 2022-03-02 2023-01-26 손다영 인공지능을 이용한 음악 작곡 방법
KR20230162878A (ko) 2022-05-20 2023-11-29 포항공과대학교 산학협력단 위상적 데이터 분석을 이용한 음악 데이터 분석 장치 및 방법, 음악 데이터 생성 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000058999A (ko) * 2000-07-08 2000-10-05 강승일 웹을 이용한 자동 편곡 시스템 및 방법
KR20060109813A (ko) * 2005-04-18 2006-10-23 엘지전자 주식회사 음악 작곡 장치 및 그 운용방법
KR20080054393A (ko) * 2005-09-08 2008-06-17 유니버시티 오브 이스트 앵글리아 음악 분석
KR20160076775A (ko) * 2014-12-23 2016-07-01 김성현 입력 곡 정보에 기반한 자동 작곡 프로그램 및 시스템
KR20160102690A (ko) * 2015-02-23 2016-08-31 삼성전자주식회사 신경망 학습 방법 및 장치, 및 인식 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000058999A (ko) * 2000-07-08 2000-10-05 강승일 웹을 이용한 자동 편곡 시스템 및 방법
KR20060109813A (ko) * 2005-04-18 2006-10-23 엘지전자 주식회사 음악 작곡 장치 및 그 운용방법
KR20080054393A (ko) * 2005-09-08 2008-06-17 유니버시티 오브 이스트 앵글리아 음악 분석
KR20160076775A (ko) * 2014-12-23 2016-07-01 김성현 입력 곡 정보에 기반한 자동 작곡 프로그램 및 시스템
KR20160102690A (ko) * 2015-02-23 2016-08-31 삼성전자주식회사 신경망 학습 방법 및 장치, 및 인식 방법 및 장치

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166094A1 (ja) * 2019-02-12 2020-08-20 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JPWO2020166094A1 (ja) * 2019-02-12 2021-12-16 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
EP3926619A4 (en) * 2019-02-12 2022-04-20 Sony Group Corporation INFORMATION PROCESSING DEVICE, METHOD AND PROGRAM
CN110136730A (zh) * 2019-04-08 2019-08-16 华南理工大学 一种基于深度学习的钢琴和声自动编配系统及方法
WO2021029523A1 (en) * 2019-08-15 2021-02-18 Samsung Electronics Co., Ltd. Techniques for learning effective musical features for generative and retrieval-based applications
US11341945B2 (en) 2019-08-15 2022-05-24 Samsung Electronics Co., Ltd. Techniques for learning effective musical features for generative and retrieval-based applications
CN112017621A (zh) * 2020-08-04 2020-12-01 河海大学常州校区 基于对位和声关系的lstm多轨音乐生成方法
CN113178182A (zh) * 2021-04-25 2021-07-27 北京灵动音科技有限公司 信息处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
KR101886534B1 (ko) 2018-08-09

Similar Documents

Publication Publication Date Title
KR101886534B1 (ko) 인공지능을 이용한 작곡 시스템 및 작곡 방법
JP7041270B2 (ja) モジュラー自動音楽制作サーバー
KR102621546B1 (ko) 음악 생성기
JP5815211B2 (ja) ウェブテキストの映像化装置及び方法
Manfrè et al. An automatic system for humanoid dance creation
Blackwell et al. Live Algorithms: towards autonomous computer improvisers
CN114128299A (zh) 多媒体表演的基于模板的摘录和呈现
US11295784B2 (en) User-generated templates for segmented multimedia performance
Eigenfeldt et al. Negotiated Content: Generative Soundscape Composition by Autonomous Musical Agents in Coming Together: Freesound.
US11908491B2 (en) Selecting supplemental audio segments based on video analysis
Scipio Iterated nonlinear functions as a sound-generating engine
Eigenfeldt et al. Mediascape: Towards a video, music, and sound metacreation
Taylor et al. Visualizing emotion in musical performance using a virtual character
Gansing The cinema of extractions: film as infrastructure for (artistic?) research
Jónsson et al. A system for sonic explorations with evolutionary algorithms
US20240135212A1 (en) AI Generated Creative Content Based on Shared Memories
Olson Deep Generative Multimedia Children's Literature
Vasilakos Lick the Toad: a web-based interface for collective sonification
Pujari et al. Final Product Report-Team WannaBe
Cretu et al. Music Generation using Neural Nets
GÜVEN Thinking on the Changing Representation of Music on Cyberspace
Randell et al. Eurorack to VCV Rack: Modular Synthesis as Compositional Performance
Anitha et al. NextGen Dynamic Video Generator using AI
KR20230043294A (ko) 노래 가사 분석을 이용한 배경 스타일 변환 장치 및 그 방법
Wang et al. A Survey on Edge Intelligence for Music Composition: Principles, Applications, and Privacy Implications

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right