KR20200139851A - 인공지능을 이용한 음악 자동 마스터링 방법, 장치 및 프로그램 - Google Patents

인공지능을 이용한 음악 자동 마스터링 방법, 장치 및 프로그램 Download PDF

Info

Publication number
KR20200139851A
KR20200139851A KR1020190065665A KR20190065665A KR20200139851A KR 20200139851 A KR20200139851 A KR 20200139851A KR 1020190065665 A KR1020190065665 A KR 1020190065665A KR 20190065665 A KR20190065665 A KR 20190065665A KR 20200139851 A KR20200139851 A KR 20200139851A
Authority
KR
South Korea
Prior art keywords
sound source
feedback
obtaining
processing
computer
Prior art date
Application number
KR1020190065665A
Other languages
English (en)
Inventor
서정훈
이원섭
김양수
김용우
박지교
Original Assignee
서정훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서정훈 filed Critical 서정훈
Priority to KR1020190065665A priority Critical patent/KR20200139851A/ko
Publication of KR20200139851A publication Critical patent/KR20200139851A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

컴퓨터에 의하여 수행되는 방법에 있어서, 가공대상 음원을 획득하는 단계, 상기 음원으로부터 입력 데이터를 획득하는 단계, 상기 입력 데이터를 학습된 모델에 입력하는 단계, 상기 학습된 모델의 출력으로부터 하나 이상의 파라미터를 획득하는 단계 및 상기 획득된 하나 이상의 파라미터를 이용하여 상기 음원을 가공하는 단계를 포함하는, 인공지능 기반 음원 가공방법이 개시된다.

Description

인공지능을 이용한 음악 자동 마스터링 방법, 장치 및 프로그램 {METHOD, APPARATUS AND PROGRAM FOR AUTOMATICALLY MASTERING MUSIC USING ARTIFICIAL INTELLIGENCE}
본 발명은 인공지능 기반 음원 가공방법, 장치 및 프로그램에 관한 것이다.
음원이 만들어지고 배포되는 과정에 있어 많은 부분이 편리해졌으나, 그 중 핵심 과정에 해당하는 믹싱 혹은 마스터링 과정은 작곡가나 가수가 직접 수행하기에 많은 시간이 필요하고, 기술적 장벽이 높은 어려움이 있었다. 이에 엔지니어들에 의하여 음원의 가공단계가 필수적으로 수행되고 있으나, 이는 많은 비용과 시간을 소요하는 바 음원의 생산 및 배포과정에서 적지 않은 부담이 되고 있다.
또한, 음원의 가공방법에 따라 전체적인 음악의 분위기가 크게 달라짐은 물론, 대중적 흥행이나 매출이 크게 좌우되는 경우가 많은 데 반해 이를 수행하기 위한 구체적인 분석이나 방법론은 거의 제시되고 있지 못한 것이 현실이다.
따라서, 음원의 가공단계의 부담을 경감함은 물론, 더 높은 성과를 올릴 수 있도록 하는 음원 가공방법의 개발이 요구되고 있다.
등록특허공보 제10-1558199호, 2015.10.01 등록
본 발명이 해결하고자 하는 과제는 인공지능 기반 음원 가공방법, 장치 및 프로그램을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 인공지능 기반 음원 가공방법은, 가공대상 음원을 획득하는 단계(S110), 상기 음원으로부터 입력 데이터를 획득하는 단계(S120), 상기 입력 데이터를 학습된 모델에 입력하는 단계(S130), 상기 학습된 모델의 출력으로부터 하나 이상의 파라미터를 획득하는 단계(S140) 및 상기 획득된 하나 이상의 파라미터를 이용하여 상기 음원을 가공하는 단계(S150)를 포함한다.
또한, 상기 단계(S140)는, 상기 음원을 마스터링하기 위한 하나 이상의 파라미터를 획득하되, 상기 하나 이상의 파라미터는 상기 음원의 컴프레싱, EQ조정, 멀티밴드 컴프레싱, 스테레오 조정 및 음압 조정 중 적어도 하나에 적용되는 파라미터인, 단계(S210)를 포함하고, 상기 단계(S150)는, 상기 하나 이상의 파라미터를 이용하여 상기 음원을 마스터링하되, 상기 음원의 컴프레싱, EQ조정, 멀티밴드 컴프레싱, 스테레오 조정 및 음압 조정 중 적어도 하나를 수행하는, 단계(S220)를 포함한다.
또한, 상기 단계(S140)는, 하나 이상의 목표 특성을 획득하는 단계(S310) 및 상기 하나 이상의 목표 특성에 각각 대응하는 파라미터를 획득하는 단계(S320)를 더 포함하고, 상기 단계(S150)는, 상기 하나 이상의 목표 특성에 각각 대응하는 파라미터를 이용하여, 상기 하나 이상의 목표 특성을 갖는 하나 이상의 가공된 음원을 획득하는 단계(S330)를 더 포함한다.
또한, 상기 단계(S320)는, 상기 하나 이상의 목표 특성에 각각 대응하는 하나 이상의 학습된 모델을 획득하는 단계(S410), 상기 하나 이상의 학습된 모델에 상기 입력 데이터를 각각 입력하는 단계(S420) 및 상기 하나 이상의 학습된 모델의 출력으로부터, 상기 하나 이상의 목표 특성에 각각 대응하는 파라미터를 획득하는 단계(S430)를 포함한다.
또한, 상기 단계(S320)는, 상기 하나 이상의 목표 특성에 각각 대응하는 입력 파라미터를 획득하는 단계(S510), 상기 입력 데이터 및 상기 입력 파라미터를 상기 학습된 모델에 입력하는 단계(S520) 및 상기 학습된 모델의 출력으로부터, 상기 하나 이상의 목표 특성에 각각 대응하는 파라미터를 획득하는 단계(S530)를 포함한다.
또한, 상기 단계(S150)에서 가공된 음원을 배포하는 단계(S610), 상기 배포된 음원에 대한 피드백을 획득하는 단계(S620), 상기 피드백에 기초하여 배포대상 음원을 재획득하는 단계(S630) 및 상기 재획득된 음원을 배포하는 단계(S640)를 더 포함한다.
또한, 상기 단계(S620)는, 획득된 피드백의 노이즈를 제거하는 단계(S710) 및 노이즈가 제거된 피드백을 음원 제작단계에 대한 제1 피드백 및 음원 가공단계에 대한 제2 피드백으로 분류하는 단계(S720)를 더 포함하고, 상기 단계(S630)는, 상기 제1 피드백에 기반하여 상기 가공대상 음원을 업데이트하는 단계(S730) 및 상기 제2 피드백에 기반하여 상기 업데이트된 가공대상 음원을 가공하는 단계(S740)를 더 포함한다.
또한, 학습용 음원데이터를 수집하는 단계(S810), 상기 학습용 음원데이터를 전처리하여 학습 데이터를 획득하되, 상기 학습 데이터는 훈련용 데이터 및 테스트용 데이터를 포함하는, 단계(S820), 상기 훈련용 데이터를 이용하여 상기 모델을 학습시키는 단계(S830), 상기 단계(S830)에서 학습된 모델을 이용하여 상기 테스트용 데이터에 대한 가공 결과를 획득하는 단계(S840), 상기 단계(S840)에서 획득된 가공 결과에 대한 피드백을 획득하는 단계(S850) 및 상기 피드백에 기초하여 상기 단계(S830)에서 학습된 모델을 업데이트하는 단계(S860)를 더 포함한다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 인공지능 기반 음원 가공장치는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 개시된 실시 예에 따른 인공지능 기반 음원 가공방법을 수행한다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 인공지능 기반 음원 가공프로그램은 하드웨어인 컴퓨터와 결합되어, 개시된 실시예에 따른 인공지능 기반 음원 가공방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
개시된 실시 예에 따르면, 인공지능 기술에 기반하여 음원을 가공함으로써 보다 빠르게, 비용을 절감하여 음원을 가공할 수 있다. 음원을 창작하고 배포하는 과정에 있어 보다 기민하게 시장에 대응할 수 있으며, 전체 과정의 효율을 크게 높일 수 있는 장점이 있다.
이에 따라, 음원 산업계에 있어서는 음원을 쉽고 다양하게 가공함으로써 가공비용을 절감할 수 있고, 다양한 버전을 비교하여 최선의 음원 가공방법을 결정할 수 있을 뿐 아니라, 피드백에 대한 실시간 대응을 통해 수익을 극대화할 수 있다.
또한, 개인 또는 소규모 음악 제작자의 경우 마스터링 등 음원 가공의 비용 및 기술 장벽을 해소할 수 있으며, 상대적으로 저렴한 비용으로 쉽고 빠르게 음원을 가공할 수 있도록 하는 효과가 있다.
또한, 음원 소비자의 경우 개시된 실시 예에 따른 서비스를 이용하여 다양한 형태로 가공된 음원을 제공받을 수 있음은 물론, 개인의 특성과 취향에 맞도록 가공된 음원을 제공받아 감상할 수 있도록 하는 장점이 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시 예에 따른 시스템을 도시한 도면이다.
도 2는 일 실시 예에 따른 인공지능 기반 음원 가공방법을 도시한 흐름도이다.
도 3은 일 실시 예에 따른 음원 마스터링 방법을 도시한 흐름도이다.
도 4는 일 실시 예에 따른 인공지능에 기반하여 하나 이상의 목표 특성을 갖는 음원 가공방법을 도시한 흐름도이다.
도 5는 일 실시 예에 따른 목표 특성에 대응하는 파라미터를 획득하는 방법을 도시한 흐름도이다.
도 6은 일 실시 예에 따른 학습된 모델을 통해 목표 특성에 대응하는 파라미터를 획득하는 방법을 도시한 흐름도이다.
도 7은 일 실시 예에 따른 가공된 음원을 배포하고, 이에 대한 피드백을 획득하여 재배포하는 방법을 도시한 흐름도이다.
도 8은 일 실시 예에 따른 피드백에 기반하여 음원을 업데이트 하는 방법을 도시한 흐름도이다.
도 9는 일 실시 예에 따른 피드백에 기초하여 학습된 모델을 업데이트 하는 방법을 도시한 흐름도이다.
도 10은 개시된 실시 예에 따라 음원을 가공하는 화면의 일 예를 도시한 도면이다.
도 11은 일 실시 예에 따른 음원 가공단계들을 도시한 도면이다.
도 12는 수집된 데이터에 기반하여 인공지능 모델을 학습시키는 과정의 일 예를 도시한 도면이다.
도 13은 일 실시 예에 따른 장치의 구성도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 일 실시 예에 따른 시스템을 도시한 도면이다.
도 1을 참조하면, 시스템은 서버(100), 작업자 단말(200) 및 사용자 단말(300)을 포함한다.
개시된 시스템에 포함되는 구성요소는 이에 제한되지 않으며, 일부 구성요소가 생략되거나, 추가적인 구성요소가 더 포함될 수도 있다.
개시된 실시 예에서, 서버(100), 작업자 단말(200) 및 사용자 단말(300)은 상술한 컴퓨터의 일종일 수 있으나, 이에 제한되는 것은 아니다.
일 실시 예에서, 서버(100)는 클라우드 서버를 의미할 수 있으나, 이에 제한되는 것은 아니다.
일 실시 예에서, 작업자 단말(200)은 개시된 실시 예에 따라 음원을 가공 및 배포하는 음원 제작자 및 이와 관련된 사람이 이용하는 단말을 의미할 수 있으나, 이에 제한되는 것은 아니다.
일 실시 예에서, 사용자 단말(300)은 음원을 감상하고, 이에 대한 피드백을 제공하는 음원 소비자의 단말을 의미할 수 있으나, 이에 제한되는 것은 아니다.
즉, 작업자 단말(200)은 제작된 음원을 서버(100) 또는 서버(100)에서 학습된 모델을 이용하여 가공하고, 가공된 음원이 서버(100)를 통해 배포되며, 사용자 단말(300)은 배포된 음원을 감상하고, 이에 대한 피드백을 제공할 수 있다.
실시 예에 따라서, 사용자 단말(300)은 배포된 음원을 감상함에 있어서, 본인의 취향에 따른 음원 가공을 서버(100)에 요청하거나, 서버(100)에서 학습된 모델을 획득하여 음원을 가공할 수 있다.
즉, 서버(100)는 음원 제작자를 포함하는 작업자 단말(200)에 대하여 음원의 가공 서비스를 제공할 수 있을 뿐 아니라, 음원 소비자인 사용자 단말(300)에 대해서도 음원의 가공 서비스를 제공할 수 있다.
이하에서는, 개시된 실시 예에 따른 음원 가공방법을 도면을 참조하여 구체적으로 설명한다.
도 2는 일 실시 예에 따른 인공지능 기반 음원 가공방법을 도시한 흐름도이다.
본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.
단계 S110에서, 컴퓨터는 가공대상 음원을 획득한다.
일 실시 예에서, 가공대상 음원은 음원 제작, 즉 작곡 및 편곡과정에 있어서 믹싱 또는 마스터링을 수행하여야 하는 단계의 음원을 의미할 수 있으나, 이에 제한되는 것은 아니다.
예를 들어, 개시된 실시 예에 따른 음원 가공방법은 음원의 마스터링 단계를 인공지능 모델에 기반하여 자동으로 수행할 수 있도록 하는 방법을 포함할 수 있으나, 이에 제한되는 것은 아니다.
도 10을 참조하면, 개시된 실시 예에 따라 음원을 가공하는 화면의 일 예가 도시되어 있다.
도 10에 도시된 화면(400)을 참조하면, 가공대상 음원(410) 및 가공된 음원(420)을 포함하는 사용자 인터페이스 화면이 도시되어 있다. 일 실시 예에서, 컴퓨터는 가공대상 음원(410)을 획득하고, 이를 가공한 음원(420)을 출력할 수 있다.
일 실시 예에서, 컴퓨터는 가공된 음원(420)에 대한 사용자의 피드백을 획득하고, 이에 기반하여 가공된 음원(420)의 적어도 일부를 재가공 혹은 업데이트할 수도 있다.
또한, 컴퓨터는 음원을 가공함에 있어서, 사용자로부터 획득된 다양한 특성값들을 고려할 수 있다. 예를 들어, 컴퓨터는 사용자로부터 음원을 가공하고자 하는 장르, 테마, 특성, 목적 등에 대한 정보를 획득하고, 이에 기반하여 음원을 가공할 수 있으며, 실시 예에 따라 다양한 장르, 테마, 특성, 목적 등을 갖는 복수의 음원을 병렬적으로 가공하여 출력할 수도 있다.
실시 예에 따라, 사용자는 출력되는 복수의 음원들 중 적어도 하나를 선택할 수 있다.
단계 S120에서, 컴퓨터는 상기 음원으로부터 입력 데이터를 획득한다.
일 실시 예에서, 입력 데이터는 음원 그 자체를 의미할 수도 있고, 음원에 소정의 전처리를 수행한 데이터를 의미할 수도 있으며, 음원으로부터 추출된 하나 이상의 파라미터를 의미할 수도 있으나, 이에 제한되는 것은 아니다.
단계 S130에서, 컴퓨터는 상기 입력 데이터를 학습된 모델에 입력한다.
일 실시 예에서, 학습된 모델은 인공지능 기술에 의하여 학습된 모델을 의미할 수 있으며, 구체적으로 머신러닝(기계학습), 딥러닝 기술에 기반하여 학습된 모델을 의미할 수 있으나, 이에 제한되는 것은 아니다.
단계 S140에서, 컴퓨터는 상기 학습된 모델의 출력으로부터 하나 이상의 파라미터를 획득한다.
일 실시 예에서, 하나 이상의 파라미터는 음원의 마스터링을 위한 하나 이상의 가공단계에 적용되는 파라미터를 의미할 수 있으나, 이에 제한되는 것은 아니다.
단계 S150에서, 컴퓨터는 상기 획득된 하나 이상의 파라미터를 이용하여 상기 음원을 가공한다.
일 실시 예에서, 컴퓨터는 획득된 파라미터에 기반하여 음원에 대한 마스터링 동작을 수행할 수 있다.
일 실시 예에서, 가공대상 음원은 마스터링이 수행되지 않은 단계의 음원을 의미할 수 있으나, 이에 제한되는 것은 아니다. 예를 들어, 음원은 이미 마스터링이 수행된 음원일 수 있으며, 컴퓨터는 사용자의 요청에 따라 마스터링 및 기타 가공과정을 추가로 수행할 수도 있다.
예를 들어, 사용자는 음원의 장르를 변경하거나, 다양한 형태로 가공할 것을 요청할 수 있고, 컴퓨터는 사용자의 요청에 기반하여 음원을 가공할 수 있다.
도 3은 일 실시 예에 따른 음원 마스터링 방법을 도시한 흐름도이다.
상술한 단계(S140)에서, 컴퓨터는 상기 음원을 마스터링하기 위한 하나 이상의 파라미터를 획득하되, 상기 하나 이상의 파라미터는 상기 음원의 컴프레싱, EQ조정, 멀티밴드 컴프레싱, 스테레오 조정 및 음압 조정 중 적어도 하나에 적용되는 파라미터인, 단계(S210)를 수행할 수 있다.
일 실시 예에서, 음원의 마스터링은 다양한 단계를 포함할 수 있다. 예를 들어, 마스터링 단계는 음원의 컴프레싱, EQ조정, 멀티밴드 컴프레싱, 스테레오 조정 및 음압 조정 중 적어도 하나를 포함할 수 있으며, 일부 단계가 생략되거나 개시되지 않은 추가 단계가 더 포함될 수 있고, 그 순서 또한 제한되지 않는다.
또한, 상술한 단계(S150)에서, 컴퓨터는 상기 하나 이상의 파라미터를 이용하여 상기 음원을 마스터링하되, 상기 음원의 컴프레싱, EQ조정, 멀티밴드 컴프레싱, 스테레오 조정 및 음압 조정 중 적어도 하나를 수행하는, 단계(S220)를 수행할 수 있다.
도 11은 일 실시 예에 따른 음원 가공단계들을 도시한 도면이다.
도 11을 참조하면, 음원 가공단계에 있어서, 하나 이상의 마스터링 단계들이 도시되어 있다.
하나 이상의 마스터링 단계들은, 상술한 바와 같이 음원의 컴프레싱, EQ조정, 멀티밴드 컴프레싱, 스테레오 조정 및 음압 조정 단계들을 포함하며, 또한 그 결과물을 확인하고 피드백을 제공 및 획득하는 과정을 포함한다.
개시된 실시 예에서, 음원의 가공단계들의 적어도 일부 또는 전부가 인공지능 기반 모델에 의하여 자동으로 수행될 수 있으나, 음원 가공단계들의 적어도 일부가 작업자에 의하여 수행되거나, 모니터링될 수 있다.
또한, 작업자는, 자동으로 가공된 음원에 대한 피드백을 제공할 수 있으며, 이러한 피드백은 마스터링의 각 단계에 대하여 수행될 수도 있고, 최종 결과물에 대하여 수행될 수도 있다.
작업자는 가공된 음원을 직접 재조정하거나, 조정이 필요한 부분 및 조정에 대한 정보를 입력함으로써 인공지능 기반 모델이 이를 자동으로 조정하도록 할 수도 있다.
즉, 인공지능 모델은 기 수집된 학습 데이터(즉, 기존 음원 데이터)에 기반하여 학습된 인공지능 모델을 이용하여 음원을 자동으로 조정할 수 있으며, 인공지능 모델은 학습 데이터에 기반하여 자동화 및 최적화될 수 있다.
또한, 이를 관리감독하는 작업자는 노하우에 기반하여 인공지능 모델의 작업을 보조하거나 작업결과에 대한 피드백을 제공할 수 있으며, 이러한 피드백은 또한 인공지능 모델의 추가 학습을 위한 학습 데이터로 활용되고, 인공지능 모델은 작업이 수행됨에 따라 점차적으로 고도화될 수 있다.
본 실시 예에서, 작업자는 음원 제작자에 제한되는 것은 아니고, 실시 예에 따라 음원 소비자 또한 본인의 취향에 맞도록 음원의 가공을 요청하고, 가공 결과에 대한 피드백을 제공함으로써 사용자의 취향을 고려한 개인화된 학습 모델을 획득하며, 이에 따라 음원의 가공결과를 개인화(personalize)할 수 있다.
이 경우, 개시된 실시 예에 따른 서비스와 함께 제공되는 음원 서비스는, 개인의 취향이나 다양한 트렌드, 특성들에 기반하여 가공된 음원에 대한 정보를 보유하며, 해당 음악을 검색하는 사용자의 특성에 기반하여 하나의 음원을 선택하고, 선택된 음원을 해당 사용자에게 제공할 수 있다.
즉, 서로 다른 사용자가 각자의 사용자 단말을 이용하여 동일한 음원을 검색하는 경우에도, 컴퓨터는 해당 음원의 다양한 가공된 버전들 중 해당 사용자에게 제공할 버전을 선택하고, 선택된 버전의 음원을 해당 사용자에게 제공할 수 있다.
실시 예에 따라서, 해당 사용자에게 부정적 피드백 또는 버전의 변경요청이 수신되는 경우, 다른 버전의 가공된 음원을 해당 사용자에게 제공할 수 있다.
또한, 컴퓨터는 다양한 음원 가공결과를 제공하며, 이에 대한 사용자의 피드백을 획득할 수 있다. 예를 들어, 컴퓨터는 병렬적으로 가공된 복수의 음원을 사용자에게 제공하거나, 음원의 가공결과를 사용자에게 제공한 후, 이에 대한 피드백을 획득할 수 있다.
컴퓨터는 사용자가 요청을 중지할 때까지, 즉 사용자가 결과에 만족할 때까지 피드백을 받아 음원의 재가공을 수행할 수 있으며, 사용자의 피드백 정보를 수집 및 관리할 수 있다.
이에 따라, 컴퓨터는 사용자가 만족한 가공결과들에 대한 정보를 수집하고, 이에 기반하여 각 사용자의 취향에 대한 정보를 생성하여 제공할 수 있다.
이에 따라 사용자는 본인의 음악 취향에 대한 정보를 얻을 수 있고, 또한 사용자의 음악 취향에 대한 정보는 컴퓨터에 누적적으로 저장 및 학습되며, 이에 기반하여 컴퓨터는 음악을 사용자의 취향에 맞게 자동으로 가공하여 제공할 수 있다.
실시 예에 따라, 컴퓨터는 하나의 음원을 복수의 부분들로 분할할 수 있다. 컴퓨터는 분할된 부분들 각각에 적용될 하나 이상의 목표 특성을 결정할 수 있으며, 각 부분들을 결정된 목표 특성에 기반하여 각각 가공할 수도 있다.
이를 통해, 컴퓨터는 하나의 음원 내에서 복수의 목표 특성에 기반한 가공을 통한 변주효과를 제공할 수도 있다. 이러한 변주효과를 제공할 수 있는 목표 특성들의 조합은 음원 엔지니어에 의하여 미리 획득될 수도 있고, 트렌드 분석에 기반하여 현 시점에 인기가 있는 것으로 판단되는 복수의 목표 특성들을 획득하고, 이중 하나의 음원에 포함되기에 문제가 없는 목표 특성들의 조합이 데이터베이스에 기반하여 획득될 수도 있다.
도 4는 일 실시 예에 따른 인공지능에 기반하여 하나 이상의 목표 특성을 갖는 음원 가공방법을 도시한 흐름도이다.
상술한 단계(S140)에서, 컴퓨터는 하나 이상의 목표 특성을 획득하는 단계(S310) 및 상기 하나 이상의 목표 특성에 각각 대응하는 파라미터를 획득하는 단계(S320)를 더 수행할 수 있다.
일 실시 예에서, 목표 특성은 음원의 장르, 테마, 템포, 트렌드, 음색 등 다양한 특징들을 포함할 수 있으며, 이는 사용자로부터 직접 입력받을 수도 있고, 사용자의 기존 데이터에 기반하여 획득될 수도 있고, 또한 사용자로부터 레퍼런스 음원을 획득함으로써, 해당 레퍼런스 음원에 대응하는 목표 특성을 컴퓨터가 자동으로 획득할 수도 있다.
예를 들어, 사용자가 특정 음악을 레퍼런스로 제시하며, 해당 음악과 유사한 가공방법에 기반하여 음원을 가공해줄 것을 요청받는 경우, 컴퓨터는 해당 음악을 분석하여 그 가공방법에 대한 정보를 추출할 수 있다. 예를 들어, 컴퓨터는 해당 음악을 가공하는 데 이용된 하나 이상의 특성값(파라미터)을 추출할 수 있으나, 이에 제한되는 것은 아니다.
컴퓨터는 추출된 가공방법에 기반하여 목표 특성을 설정하고, 설정된 목표 특성에 기반하여 음원을 가공할 수 있다.
또한, 컴퓨터는 음원의 타겟 시장이나 목표 고객층에 대한 정보를 획득할 수 있다. 컴퓨터는 획득된 정보에 기초하여 이에 대응하는 타겟 시장이나 목표 고객층에서 많이 스트리밍되거나 다운로드된 음원들에 대한 정보를 획득하고, 이에 기반하여 목표 특성을 추출할 수 있다.
또한, 상술한 단계(S150)에서, 컴퓨터는 상기 하나 이상의 목표 특성에 각각 대응하는 파라미터를 이용하여, 상기 하나 이상의 목표 특성을 갖는 하나 이상의 가공된 음원을 획득하는 단계(S330)를 더 수행할 수 있다.
일 실시 예에서, 컴퓨터는 복수의 목표 특성을 갖는 복수의 가공된 음원들을 병렬적으로 생성할 수도 있다.
도 5는 일 실시 예에 따른 목표 특성에 대응하는 파라미터를 획득하는 방법을 도시한 흐름도이다.
상술한 단계(S320)에서, 컴퓨터는 상기 하나 이상의 목표 특성에 각각 대응하는 하나 이상의 학습된 모델을 획득하는 단계(S410)를 수행할 수 있다.
예를 들어, 인공지능 모델의 학습방법에 있어서, 컴퓨터는 서로 다른 목표 특성을 갖는 음원 데이터들을 분류하고, 분류된 음원 데이터들을 각각 이용하여 별도의 인공지능 모델을 학습시킬 수 있다.
실시 예에 따라서, 인공지능 모델은 일반 음원 데이터들을 이용하여 공통적으로 학습되되, 특정 장르별로 분류된 학습 데이터들을 이용하여 별도로 추가 학습될 수 있다. 이에 따라, 컴퓨터는 장르별로 각각 학습된 복수의 학습된 모델을 획득할 수 있다.
또한, 컴퓨터는 상기 하나 이상의 학습된 모델에 상기 입력 데이터를 각각 입력하는 단계(S420) 및 상기 하나 이상의 학습된 모델의 출력으로부터, 상기 하나 이상의 목표 특성에 각각 대응하는 파라미터를 획득하는 단계(S430)를 수행할 수 있다.
즉, 컴퓨터는 복수의 학습된 모델들 중 목표 특성에 대응하도록 학습된 모델을 결정하며, 결정된 모델로부터 획득되는 파라미터들을 이용하여 음원을 가공할 수 있다.
도 6은 일 실시 예에 따른 학습된 모델을 통해 목표 특성에 대응하는 파라미터를 획득하는 방법을 도시한 흐름도이다.
상술한 단계(S320)에서, 컴퓨터는 상기 하나 이상의 목표 특성에 각각 대응하는 입력 파라미터를 획득하는 단계(S510)를 수행할 수 있다.
또한, 컴퓨터는 상기 입력 데이터 및 상기 입력 파라미터를 상기 학습된 모델에 입력하는 단계(S520)를 수행할 수 있다.
또한, 컴퓨터는 상기 학습된 모델의 출력으로부터, 상기 하나 이상의 목표 특성에 각각 대응하는 파라미터를 획득하는 단계(S530)를 수행할 수 있다.
예를 들어, 인공지능 모델의 학습방법에 있어서, 컴퓨터는 서로 다른 목표 특성을 갖는 음원 데이터들을 분류하고, 분류된 음원 데이터들 각각의 특성에 대응하는 파라미터 값이 획득될 수 있다.
예를 들어, 컴퓨터는 목표 특성별 파라미터를 미리 저장하는 데이터베이스를 생성 및 관리할 수 있고, 구체적으로 음악의 장르나 테마, 트렌드별로 상이한 파라미터 값이 미리 결정되어 데이터베이스에 저장될 수 있다. 컴퓨터는 학습 또는 가공하고자 하는 음원의 특성에 대응하는 파라미터 값을 데이터베이스로부터 획득할 수 있으나, 이에 제한되는 것은 아니다.
획득된 파라미터들은 인공지능 모델의 입력 데이터로서 활용되며, 이에 기반하여 학습된 모델의 경우, 음원으로부터 획득된 입력 데이터에 더하여, 음원의 목표 특성에 대응하는 파라미터가 함께 입력되면, 해당 목표 특성에 대응하여 음원을 가공하기 위한 파라미터 값들을 출력할 수 있다.
즉, 인공지능 모델은 음원에 대한 데이터 및 음원의 가공에 대한 목표 특성을 입력 데이터로 하고, 각 음원에 대한 목표 특성 데이터에 따라 서로 다른 출력값을 획득하도록 학습 및 활용될 수 있다.
도 7은 일 실시 예에 따른 가공된 음원을 배포하고, 이에 대한 피드백을 획득하여 재배포하는 방법을 도시한 흐름도이다.
상술한 단계(S150)에서, 컴퓨터는 가공된 음원을 배포하는 단계(S610)를 수행할 수 있다.
예를 들어, 컴퓨터는 개시된 실시 예에 따라 가공된 음원을 배포할 수 있으며, 배포되는 수단은 제한되지 않는다. 예를 들어, 음원의 배포는 피드백을 용이하게 획득할 수 있도록 디자인된 테스트용 서비스에 기반하여 배포될 수도 있으나, 실시 예에 따라 다양한 음원 플랫폼들에 기반하여 스트리밍 및 다운로드 가능하도록 배포될 수도 있다.
또한, 컴퓨터는 상기 배포된 음원에 대한 피드백을 획득하는 단계(S620)를 수행할 수 있다.
획득되는 피드백의 종류 및 피드백의 획득방법은 제한되지 않으며, 예를 들어 피드백은 음원에 대한 공감(좋아요, 싫어요 등)이나 댓글 형태로 수집될 수도 있고, 실시 예에 따라 음원을 스트리밍하거나 다운로드한 사용자에 대하여 설문을 배포하며, 설문에 대한 응답결과를 수집함으로써 획득될 수도 있다.
또한, 컴퓨터는 상기 피드백에 기초하여 배포대상 음원을 재획득하는 단계(S630)를 수행할 수 있다.
예를 들어, 컴퓨터는 피드백 결과에 따라 음원을 재가공하거나, 다른 목표 특성에 기반하여 가공된 음원을 획득할 수도 있고, 실시 예에 따라 음악 자체를 다시 생성 및 가공할 수도 있다.
실시 예에 따라, 컴퓨터는 복수의 가공된 음원들을 배포한 후, 소정의 시간마다 피드백을 수집하며, 피드백 결과에 기초하여 일부 음원들의 배포를 중지하는 소거법에 기반하여 최종적으로 하나 이상의 음원을 남기는 방식을 이용할 수도 있다.
즉, 특정 음악에 대해 다양한 목표 특성에 기반하여 가공된 음원들을 하나의 미니앨범 형태로, 혹은 서로 다른 싱글 앨범 형태로 배포한 후, 사용자들의 피드백(예를 들어, 조회수, 스트리밍 및 다운로드 수, 공감 및 덧글 등)에 기초하여 결과가 부진한 음원들의 배포를 중단하는 방식의 소거법을 적용함으로써, 최종적으로 하나 또는 수 개의 음원만을 남겨 해당 음원들에 사용자들이 집중되도록 하는 방법을 활용할 수도 있다.
복수의 음원을 동시에 올리는 경우 음원의 재생수나 다운로드 수 등 음원순위에 반영되는 지표들이 분산될 수 있는 바, 사용자의 피드백을 수집하는 과정은 선공개 형태로 지정된 사용자들(예를 들어, 사전신청을 한 사용자들, 특정 음원서비스를 이용하는 사용자들 또는 팬클럽 회원들 등)에게만 소정의 시간제한을 두고 배포한 후, 그중 하나의 음원을 선택하여 해당 음원에 재생수나 다운로드 수 등 음원순위에 반영되는 지표들이 집중되도록 할 수 있다.
실시 예에 따라서, 개시된 실시 예에 따른 소거법이 적용된 음원 서비스의 경우, 소거된 음원에 대한 스트리밍, 재생 등의 지표는 남아있는 다른 음원에 통합되도록 설정될 수도 있다.
또한, 하나의 음원을 올리되 피드백에 기반하여 지속적으로 음원에 대한 업데이트를 수행하는 경우, 음원을 업데이트하는 경우에도 해당 음원에 대한 지표들이 누적되도록 음원 서비스가 설정될 수도 있다.
이와 같은 음원의 배포, 피드백 획득 및 음원 재획득 과정은 애자일(agile) 방법론에 기반하여 수행될 수 있으나, 이에 제한되는 것은 아니다.
또한, 컴퓨터는 상기 재획득된 음원을 배포하는 단계(S640)를 수행할 수 있다.
도 8은 일 실시 예에 따른 피드백에 기반하여 음원을 업데이트 하는 방법을 도시한 흐름도이다.
상술한 단계(S620)에서, 컴퓨터는 획득된 피드백의 노이즈를 제거하는 단계(S710)를 수행할 수 있다.
예를 들어, 피드백에는 음악 자체에 대한 평가가 아닌 다양한 내용들(예를 들어, 응원하는 덧글 혹은 잡담 등)이 포함될 수 있다. 따라서, 컴퓨터는 피드백으로부터 이와 같은 노이즈들을 제거하고, 음원 자체에 대한 평가정보를 포함하는 피드백만을 획득할 수 있다.
또한, 컴퓨터는 노이즈가 제거된 피드백을 음원 제작단계에 대한 제1 피드백 및 음원 가공단계에 대한 제2 피드백으로 분류하는 단계(S720)를 수행할 수 있다.
예를 들어, 음원에 대한 평가정보는 음악의 멜로디나 가사 등 음원 제작단계(즉, 음악의 작곡방법)에 대한 피드백이 있을 수 있고, 음원의 가공단계(예를 들어, 믹싱이나 마스터링 등)에 대한 피드백이 있을 수 있다.
이는 멜로디, 가사, 템포, 트렌드, 장르, 피치, 음색 등 다양한 키워드들에 기반하여 분류될 수 있다. 실시 예에 따라, 컴퓨터는 기 학습된 인공지능 모델에 기반한 자연어 처리를 이용하여 피드백 분류를 수행할 수도 있다.
상술한 단계(S630)에서, 컴퓨터는 상기 제1 피드백에 기반하여 상기 가공대상 음원을 업데이트하는 단계(S730)를 수행할 수 있다.
예를 들어, 컴퓨터는 음악의 제조과정에 대한 피드백(즉, 멜로디나 가사, 가창방식 등에 대한 피드백)이 수신되는 경우, 이를 반영하여 음악을 다시 생성하거나, 작곡가나 제작자로부터 다시 생성된 음악을 획득할 수 있다.
컴퓨터는 피드백을 정리하여 음악을 업데이트하기 위한 정보를 생성할 수 있으며, 이는 음악의 특정 부분의 멜로디에 대한 지적사항이나 가사에 대한 정보, 가창방식 등에 대한 정보들을 포함할 수 있다. 이러한 정보는 음악을 재생성하는 데 활용되거나, 음악 제작자에게 제공되어 음악의 수정에 활용되도록 할 수 있다.
또한, 컴퓨터는 상기 제2 피드백에 기반하여 상기 업데이트된 가공대상 음원을 가공하는 단계(S740)를 수행할 수 있다.
예를 들어, 음악의 믹싱이나 마스터링 등 음악의 가공방법에 대한 피드백들이 수집되는 겨우, 컴퓨터는 이에 기반하여 음악을 재가공하거나, 가공대상 음원을 획득하여 음악을 다른 방식으로 가공하여 가공된 음원을 업데이트할 수 있다.
실시 예에 따라서, 컴퓨터는 이러한 피드백들을 수집할 뿐 아니라, 음원 서비스에서 상위권에 위치하는 음원들을 주기적으로 수집 및 분석하여, 현재 트렌드에 맞는 음악의 장르, 테마, 음색, 템포, 피치 등 음악의 가공방법과, 음악의 멜로디나 가사의 내용, 가창방식 등 음악의 제조방법을 추출할 수 있다.
이러한 정보들은 주기적으로 수집, 추출 및 업데이트되며, 가장 최근의 정보 및 그 변화에 대한 히스토리 정보가 음원 제작자에게 전달되어 음악의 제작과정을 보조하는 정보를 제공하는 데 활용될 수 있다.
또한, 컴퓨터는 기존의 음원들을 최근 트렌드에 맞게 자동으로 가공하여 음원 소비자에게 제공하는 서비스를 제공할 수도 있다.
예를 들어, 컴퓨터는 기존의 히트곡들이나, 소비자가 과거에 청취하였던 음원, 소비자의 플레이 리스트에 포함된 음원 등에 대한 정보를 획득하고, 해당 음원들을 최근의 트렌드에 기반하여 가공하여 소비자에게 제공할 수 있다.
이러한 가공은 소비자의 취향이나 요구사항, 트렌드 등에 기반하여 다양하게 수행될 수 있으며, 사용자는 개인별로 취향에 맞는 가공방법을 하나 이상 설정하여 저장할 수 있다. 또한, 이러한 가공방법들은 컴퓨터에 의하여 자동으로 생성 및 추천될 수 있고, 사용자의 선택에 의하여 저장 및 활용될 수 있다.
개시된 실시 예에 따른 가공 서비스는 음원 제작자들 및 음원 소비자들에게 유료로도 제공될 수 있으며, 건별 과금 또는 기간제 과금, 정액제 및 종량제 등에 기반하여 제공될 수 있으나, 이에 제한되는 것은 아니다.
도 9는 일 실시 예에 따른 피드백에 기초하여 학습된 모델을 업데이트 하는 방법을 도시한 흐름도이다.
개시된 실시 예에서, 컴퓨터는 학습용 음원데이터를 수집하는 단계(S810)를 수행할 수 있다.
수집되는 음원데이터의 종류는 제한되지 않으며, 예를 들어 소정의 기간 동안 각 음원서비스의 차트에 기반하여 상위의 기 설정된 수의 음원들이 수집될 수 있고, 또한 이는 장르별, 테마별로 수집될 수 있고, 또한 청취자의 성별, 연령대 등 다양한 특성에 기반하여서도 수집될 수 있다.
도 12를 참조하면, 수집된 데이터에 기반하여 인공지능 모델을 학습시키는 과정의 일 예가 도시되어 있다.
일 실시 예에서, 컴퓨터는 상기 학습용 음원데이터를 전처리하여 학습 데이터를 획득하되, 상기 학습 데이터는 훈련용 데이터 및 테스트용 데이터를 포함하는 단계(S820)를 수행할 수 있다.
즉, 컴퓨터는 데이터베이스에 저장된 음원 데이터들을 획득하며, 획득된 음원 데이터를 전처리할 수 있다. 예를 들어, 컴퓨터는 다양한 형식을 갖는 음원 데이터들을 표준화(normalization)할 수 있다.
또한, 컴퓨터는 표준화된 데이터들을 PCA Whitening에 기반하여 저차원으로 변경하여 저장함으로써, 머신러닝에 소요되는 시간을 단축할 수 있다. 하지만, 컴퓨터가 데이터들을 전처리하여 저장하는 방법은 이에 제한되는 것은 아니다.
또한, 컴퓨터는 학습용 데이터를 훈련용 데이터 셋 및 테스트용 데이터 셋으로 분류할 수 있다. 훈련용 데이터 셋은 인공지능 모델을 학습시키는 데 활용되고, 테스트용 데이터 셋은 학습된 인공지능 모델을 검증 및 업데이트하는 데 활용될 수 있다.
또한, 컴퓨터는 상기 훈련용 데이터를 이용하여 상기 모델을 학습시키는 단계(S830)를 수행할 수 있다.
일 실시 예에서, 모델은 CNN(Convolution Neural Network)을 의미할 수 있으나, 이에 제한되는 것은 아니며, 다양한 지도학습 방법이 개시된 실시 예에 따른 학습에 활용될 수 있다. 실시 예에 따라서, 비지도학습 방법이 개시된 실시 예에 따른 학습의 적어도 일부 단계에서 수행될 수도 있다.
또한, 컴퓨터는 상기 단계(S830)에서 학습된 모델을 이용하여 상기 테스트용 데이터에 대한 가공 결과를 획득하는 단계(S840)를 수행할 수 있다.
또한, 컴퓨터는 상기 단계(S840)에서 획득된 가공 결과에 대한 피드백을 획득하는 단계(S850)를 수행할 수 있다.
개시된 실시 예에서, 가공 결과에 대한 피드백은 음원 엔지니어에 의하여 입력될 수도 있고, 해당 음원에 대하여 기 가공된 학습 데이터가 있는 경우, 해당 학습 데이터와의 비교를 통해 획득될 수도 있다.
즉, 학습 데이터에는 음원의 가공 전 및 가공 후 버전이 포함될 수 있으며, 컴퓨터는 가공 전 음원을 학습된 모델에 기반하여 가공하고, 학습된 모델에 기반하여 가공된 음원과, 학습 데이터에 포함된 가공 후 버전을 비교함으로써 피드백을 획득할 수도 있다.
또한, 컴퓨터는 상기 피드백에 기초하여 상기 단계(S830)에서 학습된 모델을 업데이트하는 단계(S860)를 수행할 수 있다.
예를 들어, 컴퓨터는 피드백에 기초하여 학습된 모델의 특성(예를 들어, CNN의 Feature)을 수정할 수 있고, 수정된 모델을 이용하여 테스트용 음원을 가공하고, 다시 피드백을 획득하여 업데이트하는 과정을 반복할 수 있다.
도 13은 일 실시 예에 따른 장치의 구성도이다.
프로세서(102)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.
일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 12와 관련하여 설명된 방법을 수행한다.
한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (10)

  1. 컴퓨터에 의하여 수행되는 방법에 있어서,
    가공대상 음원을 획득하는 단계(S110)
    상기 음원으로부터 입력 데이터를 획득하는 단계(S120);
    상기 입력 데이터를 학습된 모델에 입력하는 단계(S130);
    상기 학습된 모델의 출력으로부터 하나 이상의 파라미터를 획득하는 단계(S140); 및
    상기 획득된 하나 이상의 파라미터를 이용하여 상기 음원을 가공하는 단계(S150); 를 포함하는,
    인공지능 기반 음원 가공방법.
  2. 제1 항에 있어서,
    상기 단계(S140)는,
    상기 음원을 마스터링하기 위한 하나 이상의 파라미터를 획득하되, 상기 하나 이상의 파라미터는 상기 음원의 컴프레싱, EQ조정, 멀티밴드 컴프레싱, 스테레오 조정 및 음압 조정 중 적어도 하나에 적용되는 파라미터인, 단계(S210); 를 포함하고,
    상기 단계(S150)는,
    상기 하나 이상의 파라미터를 이용하여 상기 음원을 마스터링하되, 상기 음원의 컴프레싱, EQ조정, 멀티밴드 컴프레싱, 스테레오 조정 및 음압 조정 중 적어도 하나를 수행하는, 단계(S220); 를 포함하는,
    인공지능 기반 음원 가공방법.
  3. 제1 항에 있어서,
    상기 단계(S140)는,
    하나 이상의 목표 특성을 획득하는 단계(S310); 및
    상기 하나 이상의 목표 특성에 각각 대응하는 파라미터를 획득하는 단계(S320); 를 더 포함하고,
    상기 단계(S150)는,
    상기 하나 이상의 목표 특성에 각각 대응하는 파라미터를 이용하여, 상기 하나 이상의 목표 특성을 갖는 하나 이상의 가공된 음원을 획득하는 단계(S330); 를 더 포함하는,
    인공지능 기반 음원 가공방법.
  4. 제3 항에 있어서,
    상기 단계(S320)는,
    상기 하나 이상의 목표 특성에 각각 대응하는 하나 이상의 학습된 모델을 획득하는 단계(S410);
    상기 하나 이상의 학습된 모델에 상기 입력 데이터를 각각 입력하는 단계(S420); 및
    상기 하나 이상의 학습된 모델의 출력으로부터, 상기 하나 이상의 목표 특성에 각각 대응하는 파라미터를 획득하는 단계(S430); 를 포함하는,
    인공지능 기반 음원 가공방법.
  5. 제3 항에 있어서,
    상기 단계(S320)는,
    상기 하나 이상의 목표 특성에 각각 대응하는 입력 파라미터를 획득하는 단계(S510);
    상기 입력 데이터 및 상기 입력 파라미터를 상기 학습된 모델에 입력하는 단계(S520); 및
    상기 학습된 모델의 출력으로부터, 상기 하나 이상의 목표 특성에 각각 대응하는 파라미터를 획득하는 단계(S530); 를 포함하는,
    인공지능 기반 음원 가공방법.
  6. 제1 항에 있어서,
    상기 단계(S150)에서 가공된 음원을 배포하는 단계(S610);
    상기 배포된 음원에 대한 피드백을 획득하는 단계(S620);
    상기 피드백에 기초하여 배포대상 음원을 재획득하는 단계(S630); 및
    상기 재획득된 음원을 배포하는 단계(S640); 를 더 포함하는,
    인공지능 기반 음원 가공방법.
  7. 제6 항에 있어서,
    상기 단계(S620)는,
    획득된 피드백의 노이즈를 제거하는 단계(S710); 및
    노이즈가 제거된 피드백을 음원 제작단계에 대한 제1 피드백 및 음원 가공단계에 대한 제2 피드백으로 분류하는 단계(S720); 를 더 포함하고,
    상기 단계(S630)는,
    상기 제1 피드백에 기반하여 상기 가공대상 음원을 업데이트하는 단계(S730); 및
    상기 제2 피드백에 기반하여 상기 업데이트된 가공대상 음원을 가공하는 단계(S740); 를 더 포함하는,
    인공지능 기반 음원 가공방법.
  8. 제1 항에 있어서,
    학습용 음원데이터를 수집하는 단계(S810);
    상기 학습용 음원데이터를 전처리하여 학습 데이터를 획득하되, 상기 학습 데이터는 훈련용 데이터 및 테스트용 데이터를 포함하는, 단계(S820);
    상기 훈련용 데이터를 이용하여 상기 모델을 학습시키는 단계(S830);
    상기 단계(S830)에서 학습된 모델을 이용하여 상기 테스트용 데이터에 대한 가공 결과를 획득하는 단계(S840);
    상기 단계(S840)에서 획득된 가공 결과에 대한 피드백을 획득하는 단계(S850); 및
    상기 피드백에 기초하여 상기 단계(S830)에서 학습된 모델을 업데이트하는 단계(S860); 를 더 포함하는,
    인공지능 기반 음원 가공방법.
  9. 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    제1 항의 방법을 수행하는, 장치.
  10. 하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
KR1020190065665A 2019-06-04 2019-06-04 인공지능을 이용한 음악 자동 마스터링 방법, 장치 및 프로그램 KR20200139851A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190065665A KR20200139851A (ko) 2019-06-04 2019-06-04 인공지능을 이용한 음악 자동 마스터링 방법, 장치 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190065665A KR20200139851A (ko) 2019-06-04 2019-06-04 인공지능을 이용한 음악 자동 마스터링 방법, 장치 및 프로그램

Publications (1)

Publication Number Publication Date
KR20200139851A true KR20200139851A (ko) 2020-12-15

Family

ID=73780260

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190065665A KR20200139851A (ko) 2019-06-04 2019-06-04 인공지능을 이용한 음악 자동 마스터링 방법, 장치 및 프로그램

Country Status (1)

Country Link
KR (1) KR20200139851A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102260010B1 (ko) * 2020-12-21 2021-06-04 타우데이타 주식회사 인공지능 기반 수면 질 향상을 위한 음원 제공 시스템 및 방법
KR102545954B1 (ko) * 2022-03-21 2023-06-21 주식회사 워프 음향을 포함하는 영상 데이터의 노이즈 제거하기 위한 방법, 서버 및 컴퓨터프로그램

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101558199B1 (ko) 2015-05-19 2015-10-08 주식회사 케빅 Gui를 통한 제어기능의 디지털 음원 믹싱 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101558199B1 (ko) 2015-05-19 2015-10-08 주식회사 케빅 Gui를 통한 제어기능의 디지털 음원 믹싱 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102260010B1 (ko) * 2020-12-21 2021-06-04 타우데이타 주식회사 인공지능 기반 수면 질 향상을 위한 음원 제공 시스템 및 방법
KR102545954B1 (ko) * 2022-03-21 2023-06-21 주식회사 워프 음향을 포함하는 영상 데이터의 노이즈 제거하기 위한 방법, 서버 및 컴퓨터프로그램

Similar Documents

Publication Publication Date Title
US11610568B2 (en) Modular automated music production server
US9532136B2 (en) Semantic audio track mixer
CN108780653B (zh) 音频内容制作、音频排序和音频混合的系统和方法
JP4539712B2 (ja) 情報処理端末、情報処理方法、およびプログラム
US7696427B2 (en) Method and system for recommending music
KR101637282B1 (ko) 음악 플레이리스트 생성방법, 및 음악 플레이리스트 생성장치
KR20080089545A (ko) 정보 처리 장치 및 방법, 및 프로그램
JP4893940B2 (ja) 情報処理装置および方法、並びにプログラム
EP3945435A1 (en) Dynamic identification of unknown media
US11687314B2 (en) Digital audio workstation with audio processing recommendations
KR20200139851A (ko) 인공지능을 이용한 음악 자동 마스터링 방법, 장치 및 프로그램
CN108628886A (zh) 一种音频文件推荐方法及装置
US11087738B2 (en) System and method for music and effects sound mix creation in audio soundtrack versioning
KR20190108027A (ko) 영상과 어울리는 음악을 생성하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
AU2022202594A1 (en) System for deliverables versioning in audio mastering
Deng Resource Management and Optimization Method of Music Audio‐Visual Archives under the Background of Big Data
Omowonuola et al. Hybrid Context-Content Based Music Recommendation System
US20240022224A1 (en) Automatic generation and selection of target profiles for dynamic equalization of audio content
WO2020226224A1 (ko) 인공지능 기반 음원 가공방법, 장치 및 프로그램
KR20230161235A (ko) 음원 인공지능 학습장치 및 그 장치의 구동방법
CN112509538A (zh) 音频处理方法、装置、终端及存储介质
CN116127125A (zh) 多媒体数据处理方法、装置、设备及计算机可读存储介质
Charchyan Exploring Trends in Music Platforms: A Comparative Analysis of Key Factors for Trending Songs on Spotify and YouTube