KR20220112016A - Apparatus and method for generating adaptive music based on user's consumption information and context information - Google Patents

Apparatus and method for generating adaptive music based on user's consumption information and context information Download PDF

Info

Publication number
KR20220112016A
KR20220112016A KR1020210015486A KR20210015486A KR20220112016A KR 20220112016 A KR20220112016 A KR 20220112016A KR 1020210015486 A KR1020210015486 A KR 1020210015486A KR 20210015486 A KR20210015486 A KR 20210015486A KR 20220112016 A KR20220112016 A KR 20220112016A
Authority
KR
South Korea
Prior art keywords
sound source
user
generating
music
adaptive
Prior art date
Application number
KR1020210015486A
Other languages
Korean (ko)
Other versions
KR102556182B1 (en
Inventor
여운승
강다혜
Original Assignee
이화여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이화여자대학교 산학협력단 filed Critical 이화여자대학교 산학협력단
Priority to KR1020210015486A priority Critical patent/KR102556182B1/en
Publication of KR20220112016A publication Critical patent/KR20220112016A/en
Application granted granted Critical
Publication of KR102556182B1 publication Critical patent/KR102556182B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

Disclosed are a device and method for generating an adaptive music based on the sound source consumption information of a user. The method for generating the adaptive music may comprise: a step of collecting the sound source consumption information and contextual information of the user for a first sound source of the user; a step of determining a transformation intensity of a transformation for the first sound source according to the sound source consumption information; a step of generating a second sound source by transforming the first sound source according to the contextual information and the transformation intensity; and a step of providing the second sound source to the user. Therefore, the present invention is capable of providing the sound source optimized for the user.

Description

사용자의 음원 소비 정보 및 맥락 정보에 기초한 적응형 음악 생성 장치 및 방법{APPARATUS AND METHOD FOR GENERATING ADAPTIVE MUSIC BASED ON USER'S CONSUMPTION INFORMATION AND CONTEXT INFORMATION}Apparatus and method for adaptive music generation based on user's music consumption information and context information

본 발명은 적응형 음악 생성 장치 및 방법에 관한 것으로, 보다 구체적으로는 사용자의 음원 소비 정보 및 맥락 정보에 따라 사용자의 성향 및 상황에 대응하는 제2 음원을 생성하는 장치 및 방법에 관한 것이다.The present invention relates to an adaptive music generating apparatus and method, and more particularly, to an apparatus and method for generating a second sound source corresponding to a user's tendency and situation according to the user's sound source consumption information and context information.

현대에는 사용자에 최적화된 콘텐츠를 제공하는 것이 중시되고 있다. 종래의 사용자에 최적화된 적응적 콘텐츠 제공 방법은, 아직 사용자가 선택하지 않은 복수의 콘텐츠들 중 사용자의 선호도에 적합한 콘텐츠를 선별하여 제공하는 방식으로 이루어져 있다.In modern times, it is important to provide content optimized for users. The conventional method of providing adaptive content optimized for a user consists of selecting and providing content suitable for a user's preference from among a plurality of content not yet selected by the user.

그러나 음원 콘텐츠의 경우 책이나 영화 등 다른 콘텐츠에 비해 동일한 콘텐츠를 반복적으로 소비하는 것이 매우 일반적이라는 특성이 있기에, 사용자가 선택한 음원을 반복적으로 청취할 시에 해당 원곡을 사용자의 소비 정보에 맞추어 다양한 방식으로 변형하여 제공하는 것이 사용자에게 보다 최적화된 방식일 수 있다.However, in the case of sound source content, it is very common to consume the same content repeatedly compared to other content such as books or movies. It may be a more optimized method for users to transform and provide it.

따라서, 사용자의 음원 소비 정보 및 맥락 정보에 따라 음원의 원곡을 변형할 수 있는 방법이 요청된다.Accordingly, there is a demand for a method capable of transforming an original song of a sound source according to the user's sound source consumption information and context information.

본 발명은 사용자의 음원 소비 정보 및 맥락 정보에 따라 동일한 곡을 사용자 별로 다르게 변형하여 제공함으로써, 사용자에 최적화된 음원을 제공하는 장치 및 방법을 제공한다.The present invention provides an apparatus and method for providing a sound source optimized for a user by providing the same song differently for each user according to the user's sound source consumption information and context information.

본 발명의 일실시예에 따른 적응형 음악 생성 방법은 사용자의 제1 음원에 대한 사용자의 음원 소비 정보 및 맥락 정보를 수집하는 단계; 상기 음원 소비 정보에 따라 제1 음원에 대한 변형의 변형 강도를 결정하는 단계; 상기 맥락 정보 및 상기 변형 강도에 따라 상기 제1 음원을 변형하여 제2 음원을 생성하는 단계; 및 상기 제2 음원을 사용자에게 제공하는 단계를 포함할 수 있다.A method for generating adaptive music according to an embodiment of the present invention includes: collecting user's sound source consumption information and context information for the user's first sound source; determining a deformation strength of deformation of a first sound source according to the sound source consumption information; generating a second sound source by deforming the first sound source according to the context information and the deformation strength; and providing the second sound source to the user.

본 발명의 일실시예에 따른 적응형 음악 생성 방법은 사용자로부터 제1 음원의 보컬 트랙과 반주 트랙 중 변형할 트랙을 입력 받는 단계를 더 포함하고, 상기 제2 음원을 생성하는 단계는, 사용자의 입력에 따라 상기 제1 음원의 보컬 트랙, 및 반주 트랙 중 하나를 변형하여 제2 음원을 생성할 수 있다.The method for generating adaptive music according to an embodiment of the present invention further comprises the step of receiving, from a user, a track to be deformed among a vocal track and an accompaniment track of a first sound source, wherein the generating of the second sound source includes: A second sound source may be generated by modifying one of a vocal track and an accompaniment track of the first sound source according to an input.

본 발명의 일실시예에 따른 적응형 음악 생성 방법의 제2 음원을 생성하는 단계는, 상기 제1 음원의 보컬 트랙을 변형하고, 상기 변형 강도가 제1 단계인 경우, 상기 제1 음원의 반주를 유지하고, 상기 제1 음원에서 원곡 가수가 부른 구간의 일부를 사용자의 선호 가수가 부른 구간으로 대체하여 제2 음원을 생성할 수 있다.The generating of the second sound source of the method for generating adaptive music according to an embodiment of the present invention comprises deforming a vocal track of the first sound source, and when the deformation strength is the first stage, accompaniment of the first sound source may be maintained, and a second sound source may be generated by replacing a portion of the section sung by the original singer in the first sound source with a section sung by the user's preferred singer.

본 발명의 일실시예에 따른 적응형 음악 생성 방법의 제2 음원을 생성하는 단계는, 상기 제1 음원의 보컬 트랙을 변형하고, 상기 변형 강도가 제2 단계인 경우, 사용자의 선호 가수가 상기 제1 음원을 부른 구간을 추가하고, 추가한 구간에 따라 상기 제1 음원의 반주를 연장하여 제2 음원을 생성할 수 있다.The generating of the second sound source of the method for generating adaptive music according to an embodiment of the present invention comprises deforming a vocal track of the first sound source, and when the deformation intensity is the second stage, the user's preferred singer is the A second sound source may be generated by adding a section in which the first sound source is sung, and by extending the accompaniment of the first sound source according to the added section.

본 발명의 일실시예에 따른 적응형 음악 생성 방법의 제2 음원을 생성하는 단계는, 상기 제1 음원의 보컬 트랙을 변형하고, 상기 변형 강도가 제3 단계인 경우, 사용자의 선호 가수들이 각각 상기 제1 음원을 부른 구간들을 추가하고, 추가한 구간들에 따라 상기 제1 음원의 반주를 연장하여 제2 음원을 생성할 수 있다.The generating of the second sound source of the method for generating adaptive music according to an embodiment of the present invention comprises deforming the vocal track of the first sound source, and when the deformation strength is the third stage, the user's preferred singers are selected, respectively. The second sound source may be generated by adding sections in which the first sound source is sung, and extending the accompaniment of the first sound source according to the added sections.

본 발명의 일실시예에 따른 적응형 음악 생성 방법의 제2 음원을 생성하는 단계는, 상기 제1 음원의 보컬 트랙을 변형하고, 상기 변형 강도가 제4 단계인 경우, 제1음원의 가수를 사용자의 선호 가수로 대체하여 제2 음원을 생성할 수 있다.The generating of the second sound source of the method for generating adaptive music according to an embodiment of the present invention comprises deforming the vocal track of the first sound source, and when the deformation intensity is the fourth stage, the singer of the first sound source is A second sound source may be generated by replacing the user's preferred singer.

본 발명의 일실시예에 따른 적응형 음악 생성 방법의 제2 음원을 생성하는 단계는, 상기 제1 음원의 반주 트랙을 변형하고, 상기 변형 강도가 제1 단계인 경우, 상기 제1 음원의 악기 구성을 사용자의 선호 악기로 대체하여 제2 음원을 생성할 수 있다.The step of generating the second sound source of the adaptive music generating method according to an embodiment of the present invention comprises deforming an accompaniment track of the first sound source, and when the deformation strength is the first stage, the musical instrument of the first sound source A second sound source may be created by replacing the configuration with the user's preferred musical instrument.

본 발명의 일실시예에 따른 적응형 음악 생성 방법의 제2 음원을 생성하는 단계는, 상기 제1 음원의 반주 트랙을 변형하고, 상기 변형 강도가 제2 단계인 경우, 상기 제1 음원의 악기 구성 및 악곡 구조를 사용자가 선호하는 악기 및 악곡 구조로 대체하여 제2 음원을 생성할 수 있다.The generating of the second sound source of the method for generating adaptive music according to an embodiment of the present invention includes deforming an accompaniment track of the first sound source, and when the deformation strength is the second stage, the musical instrument of the first sound source The second sound source may be generated by replacing the composition and music structure with the user's preferred instrument and music structure.

본 발명의 일실시예에 따른 적응형 음악 생성 방법의 제2 음원을 생성하는 단계는, 상기 제1 음원의 반주 트랙을 변형하고, 상기 변형 강도가 제3 단계인 경우, 상기 제1 음원의 악기 구성, 악곡 구조, 및 템포를 사용자가 선호하는 악기, 악곡 구조, 및 템포로 대체하여 제2 음원을 생성할 수 있다.The step of generating the second sound source of the method for generating adaptive music according to an embodiment of the present invention comprises deforming an accompaniment track of the first sound source, and when the deformation strength is the third stage, the musical instrument of the first sound source The second sound source may be generated by replacing the composition, the music structure, and the tempo with the instrument, the music structure, and the tempo preferred by the user.

본 발명의 일실시예에 따른 적응형 음악 생성 방법의 제2 음원을 생성하는 단계는, 상기 제1 음원의 반주 트랙을 변형하고, 상기 변형 강도가 제4 단계인 경우, 상기 제1 음원의 악기 구성, 악곡 구조, 템포 및 조성을 사용자가 선호하는 악기 구성, 악곡 구조, 템포 및 조성으로 대체하여 제2 음원을 생성할 수 있다.The generating of the second sound source of the method for generating adaptive music according to an embodiment of the present invention includes deforming an accompaniment track of the first sound source, and when the deformation strength is the fourth stage, the musical instrument of the first sound source The second sound source may be generated by replacing the composition, the music structure, the tempo, and the composition with the user's preferred instrument composition, music structure, tempo, and composition.

본 발명의 일실시예에 따른 적응형 음악 생성 방법의 제2 음원을 생성하는 단계는, 상기 음원의 음악 장르 별로 변형된 곡들 중에서 상기 맥락 정보에 포함된 상기 사용자의 선호 장르에 대응하는 곡을 선택하여 상기 제2 음원을 생성할 수 있다.The generating of the second sound source of the method for generating adaptive music according to an embodiment of the present invention includes selecting a song corresponding to the user's preferred genre included in the context information from among the songs modified for each music genre of the sound source. to generate the second sound source.

본 발명의 일실시예에 따른 적응형 음악 생성 방법의 제2 음원을 생성하는 단계는, 상기 음원 소비 정보에 포함된 상기 음원이 재생된 시간의 날씨에 따라 상기 음원의 음색을 제어하여 상기 제2 음원을 생성할 수 있다.The generating of the second sound source of the method for generating adaptive music according to an embodiment of the present invention comprises controlling the tone of the sound source according to the weather at the time when the sound source was reproduced included in the sound source consumption information to control the second sound source. You can create a sound source.

본 발명의 일실시예에 따른 적응형 음악 생성 방법의 제2 음원을 생성하는 단계는, 상기 음원 음원 소비 정보에 포함된 상기 음원이 재생된 시간대에 따라 상기 음원의 템포를 제어하여 상기 제2 음원을 생성할 수 있다.The generating of the second sound source of the method for generating adaptive music according to an embodiment of the present invention includes controlling the tempo of the sound source according to a time period in which the sound source included in the sound source source consumption information is reproduced to thereby control the second sound source. can create

본 발명의 일실시예에 따른 적응형 음악 생성 장치는 사용자의 제1 음원에 대한 사용자의 음원 소비 정보 및 맥락 정보를 수집하고, 상기 음원 소비 정보에 따라 제1 음원에 대한 변형의 변형 강도를 결정하며, 상기 맥락 정보 및 상기 변형 강도에 따라 상기 제1 음원을 변형하여 제2 음원을 생성하는 프로세서; 및 상기 제2 음원을 사용자에게 제공하는 통신기를 포함할 수 있다.The adaptive music generating apparatus according to an embodiment of the present invention collects the user's sound consumption information and context information for the user's first sound source, and determines the deformation strength of the first sound source according to the sound source consumption information. and a processor configured to deform the first sound source according to the context information and the deformation strength to generate a second sound source; and a communicator providing the second sound source to a user.

본 발명의 일실시예에 의하면, 사용자의 음원 소비 정보 및 맥락 정보에 따라 동일한 곡을 사용자 별로 다르게 변형하여 제공함으로써, 사용자에 최적화된 음원을 제공할 수 있다.According to an embodiment of the present invention, the same song can be differently modified and provided for each user according to the user's music consumption information and context information, thereby providing a sound source optimized for the user.

도 1은 본 발명의 일실시예에 따른 적응형 음악 생성 장치를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 보컬 변형 음원 생성 방법의 일례이다.
도 3은 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 반주 변형 음원 생성 방법의 일례이다.
도 4는 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 평균 재생 시간에 따른 적응형 음악 생성 방법의 일례이다.
도 5는 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 사용자 선호 악기에 따른 적응형 음악 생성 방법의 일례이다.
도 6은 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 사용자 선호 멤버에 따른 적응형 음악 생성 방법의 일례이다.
도 7은 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 날씨에 따른 적응형 음악 생성 방법이다.
도 8은 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 시간대에 따른 적응형 음악 생성 방법이다.
도 9는 본 발명의 일실시예에 따른 적응형 음악 생성 방법을 도시한 플로우차트이다.
1 is a diagram illustrating an adaptive music generating apparatus according to an embodiment of the present invention.
2 is an example of a method for generating a modified vocal sound source of an adaptive music generating apparatus according to an embodiment of the present invention.
3 is an example of a method for generating an accompaniment modified sound source of the adaptive music generating apparatus according to an embodiment of the present invention.
4 is an example of an adaptive music generating method according to an average playing time of the adaptive music generating apparatus according to an embodiment of the present invention.
5 is an example of an adaptive music generating method according to a user's preferred musical instrument of the adaptive music generating apparatus according to an embodiment of the present invention.
6 is an example of an adaptive music generating method according to a user preference member of the adaptive music generating apparatus according to an embodiment of the present invention.
7 is a method for generating adaptive music according to weather of an apparatus for generating adaptive music according to an embodiment of the present invention.
8 is a method for generating adaptive music according to time zones of an apparatus for generating adaptive music according to an embodiment of the present invention.
9 is a flowchart illustrating an adaptive music generation method according to an embodiment of the present invention.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 적응형 음악 생성 장치를 도시한 도면이다.1 is a diagram illustrating an adaptive music generating apparatus according to an embodiment of the present invention.

적응형 음악 생성 장치(110)는 음원에 대한 사용자의 음원 소비 정보 및 맥락 정보에 따라 음원을 변형하여 사용자의 성향 및 상황에 대응하는 제2 음원을 생성하는 프로세서 및 제2 음원을 사용자의 단말(120)로 전송함으로써, 사용자에게 제2 음원을 제공하는 통신기를 포함할 수 있다.The adaptive music generating apparatus 110 transforms the sound source according to the user's sound consumption information and context information for the sound source to generate a second sound source corresponding to the user's tendency and situation and transmits the second sound source to the user's terminal ( 120), and may include a communicator providing a second sound source to the user.

이때, 사용자의 음원 소비 정보는 사용자가 음원을 소비하는 방식이나 소비한 시간과 관련된 정보일 수 있다. 예를 들어, 음원 소비 정보는 사용자의 음원에 대한 반복 재생 회수, 사용자의 음원에 대한 평균 재생 시간, 음원이 사용자에게 재생된 시간의 날씨, 및 음원이 재생된 시간대 중 적어도 하나를 포함할 수 있다.In this case, the sound source consumption information of the user may be information related to the way the user consumes the sound source or the time consumed. For example, the sound source consumption information may include at least one of the number of repeated reproductions of the user's sound source, the average reproduction time of the user's sound source, the weather at the time the sound source is reproduced to the user, and the time period in which the sound source is reproduced. .

또한, 사용자의 맥락 정보는 사용자의 취향, 또는 선호도와 관련된 정보일 수 있다. 예를 들어, 맥락 정보는 사용자의 선호 악기, 복수의 멤버들로 구성된 가수 그룹에 대한 사용자의 선호 멤버, 음악 장르들 중에서 사용자가 선호하는 사용자의 선호 장르 중 적어도 하나를 포함할 수 있다.Also, the context information of the user may be information related to the user's taste or preference. For example, the context information may include at least one of a user's preferred musical instrument, a user's preferred member for a singer group composed of a plurality of members, and a user's preferred user's preferred genre among music genres.

적응형 음악 생성 장치(110)는 도 1에 도시된 바와 같이 음원 공급 업체가 운영하는 서버, 또는 해당 서버에 결합되는 장치일 수 있다. 또한, 적응형 음악 생성 방법을 수행하는 프로그램이 설치된 저장 매체일 수도 있다. 예를 들어, 사용자의 PC, 또는 태블릿에 적응형 음악 생성 방법을 수행하는 프로그램이 설치되는 경우, 사용자의 PC, 또는 태블릿이 적응형 음악 생성 장치(110)로 동작할 수도 있다. 이때, 단말(120)과 적응형 음악 생성 장치(110)은 하나의 하드웨어일 수도 있다. 즉, 사용자의 PC, 또는 태블릿에서 제2 음원을 생성하여 재생하여 사용자에게 제공할 수도 있다.As shown in FIG. 1 , the adaptive music generating device 110 may be a server operated by a sound source provider or a device coupled to the server. Also, it may be a storage medium in which a program for performing the adaptive music generation method is installed. For example, when a program for performing an adaptive music generating method is installed in a user's PC or tablet, the user's PC or tablet may operate as the adaptive music generating apparatus 110 . In this case, the terminal 120 and the adaptive music generating apparatus 110 may be one piece of hardware. That is, the second sound source may be generated and reproduced on the user's PC or tablet and provided to the user.

구체적으로, 적응형 음악 생성 장치(110)의 프로세서는 사용자의 제1 음원에 대한 사용자의 음원 소비 정보 및 맥락 정보를 수집할 수 있다.Specifically, the processor of the adaptive music generating apparatus 110 may collect the user's sound source consumption information and context information for the user's first sound source.

다음으로, 적응형 음악 생성 장치(110)의 프로세서는 수집한 음원 소비 정보에 따라 제1 음원에 대한 편곡의 변형 강도를 결정할 수 있다. 이때, 적응형 음악 생성 장치(110)의 프로세서는 사용자의 음원에 대한 반복 재생 회수가 일정 회수를 초과하거나, 사용자의 음원에 대한 평균 재생 시간이 일정 시간을 초과하는 경우, 변형 강도의 단계를 증가시킬 수 있다. 또한, 단계를 결정하기 위한 일정 회수, 일정 시간 및 단계의 개수는 실시예에 따라 결정될 수 있다.Next, the processor of the adaptive music generating apparatus 110 may determine the deformation strength of the arrangement for the first sound source according to the collected sound source consumption information. In this case, the processor of the adaptive music generating apparatus 110 increases the level of deformation intensity when the number of repeated reproductions of the user's sound source exceeds a predetermined number of times or the average reproduction time of the user's sound source exceeds a predetermined time. can do it In addition, the predetermined number of times, the predetermined time, and the number of steps for determining the steps may be determined according to embodiments.

그 다음으로, 적응형 음악 생성 장치(110)의 프로세서는 사용자의 맥락 정보 및 변형 강도에 따라 제1 음원을 변형하여 제2 음원을 생성할 수 있다. 이때, 제1 음원은 사용자가 선택한 음원의 원곡이고, 제2 음원은, 제1 음원을 변형하여 생성되는 음원일 수 있다. Next, the processor of the adaptive music generating apparatus 110 may generate the second sound source by deforming the first sound source according to the user's context information and deformation strength. In this case, the first sound source may be an original song of a sound source selected by the user, and the second sound source may be a sound source generated by modifying the first sound source.

이때, 적응형 음악 생성 장치(110)의 프로세서는 사용자에게 제1 음원의 보컬 트랙과 반주 트랙 중 변형할 트랙을 입력하도록 요청할 수 있다. 그리고, 적응형 음악 생성 장치(110)의 프로세서는 사용자의 입력에 따라 제1 음원의 보컬 트랙과 반주 트랙 중 하나를 변형하여 제2 음원을 생성할 수 있다.In this case, the processor of the adaptive music generating apparatus 110 may request the user to input a track to be modified from among the vocal track and the accompaniment track of the first sound source. In addition, the processor of the adaptive music generating apparatus 110 may generate a second sound source by transforming one of a vocal track and an accompaniment track of the first sound source according to a user's input.

사용자가 보컬 트랙을 입력한 경우, 적응형 음악 생성 장치(110)의 프로세서는, 제1 음원의 반주 트랙은 보존하고, 제1 음원의 보컬 트랙에 사용자가 선호하는 가수를 추가하거나, 제1 음원의 가수를 사용자가 선호하는 가수로 대체하여 제2 음원을 생성할 수 있다. 이때, 반주 트랙의 보전은 가수의 추가로 인하여 단순 연장되는 것을 포함할 수 있다.When the user inputs a vocal track, the processor of the adaptive music generating apparatus 110 preserves the accompaniment track of the first sound source, adds a singer preferred by the user to the vocal track of the first sound source, or the first sound source A second sound source may be created by replacing the singer of the user with a singer preferred by the user. In this case, the maintenance of the accompaniment track may include a simple extension due to the addition of a singer.

예를 들어, 변형 강도가 제1 단계인 경우, 적응형 음악 생성 장치(110)의 프로세서는 제1 음원의 반주를 유지하고, 제1 음원에서 원곡 가수가 부른 구간의 일부를 사용자의 선호 가수가 부른 구간으로 대체하여 제2 음원을 생성할 수 있다.For example, when the deformation strength is the first stage, the processor of the adaptive music generating apparatus 110 maintains the accompaniment of the first sound source, and the user's preferred singer selects a portion of the section sung by the original singer in the first sound source. The second sound source may be generated by replacing the sung section.

또한, 변형 강도가 제2 단계인 경우, 적응형 음악 생성 장치(110)의 프로세서는 사용자의 선호 가수가 제1 음원을 부른 구간을 추가하고, 추가한 구간에 따라 제1 음원의 반주를 연장하여 제2 음원을 생성할 수 있다.In addition, when the deformation strength is the second stage, the processor of the adaptive music generating apparatus 110 adds a section in which the user's preferred singer sang the first sound source, and extends the accompaniment of the first sound source according to the added section. A second sound source may be generated.

그리고, 변형 강도가 제3 단계인 경우, 적응형 음악 생성 장치(110)의 프로세서는 사용자의 선호 가수들이 각각 제1 음원을 부른 구간들을 추가하고, 추가한 구간들에 따라 제1 음원의 반주를 연장하여 제2 음원을 생성할 수 있다.And, when the deformation strength is the third stage, the processor of the adaptive music generating apparatus 110 adds sections in which the user's preferred singers sang the first sound source, respectively, and performs accompaniment of the first sound source according to the added sections. By extension, the second sound source may be generated.

또한, 변형 강도가 제4 단계인 경우, 적응형 음악 생성 장치(110)의 프로세서는 제1음원의 가수를 사용자의 선호 가수로 대체하여 제2 음원을 생성할 수 있다. 이때, 적응형 음악 생성 장치(110)의 프로세서는 제1음원의 가수를 사용자의 선호 가수들로 대체하여 제2 음원을 생성할 수도 있으며, 추가한 선호 가수들의 숫자에 따라 제1 음원의 반주를 연장시킬 수도 있다.Also, when the deformation strength is the fourth stage, the processor of the adaptive music generating apparatus 110 may generate the second sound source by replacing the singer of the first sound source with the user's preferred singer. In this case, the processor of the adaptive music generating apparatus 110 may generate a second sound source by replacing the singer of the first sound source with the user's preferred singers, and may perform accompaniment of the first sound source according to the number of added preferred singers. may be extended.

즉, 변형 강도가 제4 단계인 경우, 적응형 음악 생성 장치(110)의 프로세서는 제1 음원의 가수를 사용자가 선호하는 하나의 가수, 또는 복수의 가수들로 대체시켜 제2 음원을 생성할 수 있다.That is, when the deformation strength is the fourth stage, the processor of the adaptive music generating apparatus 110 generates the second sound source by replacing the singer of the first sound source with one or a plurality of singers preferred by the user. can

사용자가 반주 트랙을 입력한 경우, 적응형 음악 생성 장치(110)의 프로세서는 제1 음원의 보컬 트랙은 보존하고, 제1 음원의 반주 트랙의 악기 구성, 악곡 구조, 템포 및 조성 중 적어도 하나를 변형하여 제2 음원을 생성할 수 있다. When the user inputs an accompaniment track, the processor of the adaptive music generating device 110 preserves the vocal track of the first sound source and selects at least one of the instrument composition, music structure, tempo, and tonality of the accompaniment track of the first sound source. The second sound source may be generated by deformation.

예를 들어, 변형 강도가 제1 단계인 경우, 적응형 음악 생성 장치(110)의 프로세서는 제1 음원의 악기 구성을 사용자의 선호 악기로 대체하여 제2 음원을 생성할 수 있다. For example, when the deformation strength is the first stage, the processor of the adaptive music generating apparatus 110 may generate the second sound source by replacing the musical instrument configuration of the first sound source with the user's preferred instrument.

또한, 변형 강도가 제2 단계인 경우, 적응형 음악 생성 장치(110)의 프로세서는 제1 음원의 악기 구성 및 악곡 구조를 사용자가 선호하는 악기 및 악곡 구조로 대체하여 제2 음원을 생성할 수 있다.In addition, when the deformation strength is the second stage, the processor of the adaptive music generating apparatus 110 may generate the second sound source by replacing the instrument configuration and the music structure of the first sound source with the instrument and music structure preferred by the user. have.

그리고, 변형 강도가 제3 단계인 경우, 적응형 음악 생성 장치(110)의 프로세서는 제1 음원의 악기 구성, 악곡 구조, 및 템포를 사용자가 선호하는 악기, 악곡 구조, 및 템포로 대체하여 제2 음원을 생성할 수 있다.And, when the deformation strength is the third stage, the processor of the adaptive music generating apparatus 110 replaces the instrument configuration, the music structure, and the tempo of the first sound source with the user's preferred instrument, the music structure, and the tempo. 2 You can create a sound source.

또한, 변형 강도가 제4 단계인 경우, 적응형 음악 생성 장치(110)의 프로세서는 제1 음원의 악기 구성, 악곡 구조, 템포 및 조성을 사용자가 선호하는 악기 구성, 악곡 구조, 템포 및 조성으로 대체하여 제2 음원을 생성할 수 있다.In addition, when the deformation strength is the fourth stage, the processor of the adaptive music generating apparatus 110 replaces the instrument composition, music structure, tempo, and tone of the first sound source with the instrument composition, music structure, tempo, and tone preferred by the user. to generate the second sound source.

이때, 적응형 음악 생성 장치(110)의 프로세서는 음원 소비 정보에 포함된 사용자의 음원에 대한 반복 재생 회수에 따라 음원에 악기, 보컬, 및 악구(clause) 중 적어도 하나를 추가하여 제2 음원을 생성할 수 있다. In this case, the processor of the adaptive music generating device 110 adds at least one of an instrument, a vocal, and a clause to the sound source according to the number of repeated reproductions of the user's sound source included in the sound source consumption information to generate the second sound source. can create

이때, 적응형 음악 생성 장치(110)의 프로세서는 100회, 200회, 400회와 같은 절대적인 반복 재생 회수에 따라 음원을 변형할 수도 있고, 다른 곡 재생 회수에 대한 해당 곡 재생 회수의 비율와 같은 사용자의 상대적인 재생 회수에 따라 음원을 변형할 수도 있다.In this case, the processor of the adaptive music generating apparatus 110 may transform the sound source according to the absolute number of repeated reproductions such as 100 times, 200 times, or 400 times, and the user equals the ratio of the number of reproductions of the corresponding songs to the number of reproductions of other songs. It is also possible to transform the sound source according to the relative number of playbacks.

또한, 적응형 음악 생성 장치(110)의 프로세서는 음원 소비 정보에 포함된 사용자의 음원에 대한 평균 재생 시간에 따라 음원에 포함된 곡의 악곡 구조를 변형하여 제2 음원을 생성할 수 있다. 그리고, 적응형 음악 생성 장치(110)의 프로세서는 맥락 정보에 포함된 사용자의 선호 악기에 따라 음원에 포함된 곡을 연주하는 악기를 교체, 또는 대체하여 제2 음원을 생성할 수 있다.In addition, the processor of the adaptive music generating apparatus 110 may generate the second sound source by modifying the music structure of the music included in the sound source according to the average reproduction time of the user's sound source included in the sound source consumption information. In addition, the processor of the adaptive music generating apparatus 110 may generate a second sound source by replacing or replacing an instrument playing a song included in the sound source according to the user's preferred instrument included in the context information.

또한, 적응형 음악 생성 장치(110)의 프로세서는 맥락 정보에 포함된 사용자의 선호 멤버에 따라 음원에 포함된 곡을 부르는 그룹의 멤버에 대한 보컬 파트의 비중 및 순서를 제어하여 제2 음원을 생성할 수 있다. In addition, the processor of the adaptive music generating device 110 generates a second sound source by controlling the weight and order of vocal parts with respect to members of a group singing a song included in the sound source according to the user's preferred member included in the context information. can do.

그리고, 적응형 음악 생성 장치(110)의 프로세서는 음원의 음악 장르 별로 변형된 곡들 중에서 맥락 정보에 포함된 사용자의 선호 장르에 대응하는 곡을 선택하여 제2 음원을 생성할 수 있다. 이때, 적응형 음악 생성 장치(110)의 프로세서는 변형가에 의하여 제1 음원을 발라드, 댄스 R&B, 랩, 힙합, 밴드, 재즈, 클래식과 같은 음악 장르 별로 각각 재변형한 곡들을 저장하고 관리할 수 있다. In addition, the processor of the adaptive music generating apparatus 110 may generate the second sound source by selecting a song corresponding to the user's preferred genre included in the context information from among the songs modified for each music genre of the sound source. In this case, the processor of the adaptive music generating device 110 stores and manages the songs that are re-transformed by the modifier for each music genre such as ballad, dance R&B, rap, hip-hop, band, jazz, and classical music. have.

또한, 적응형 음악 생성 장치(110)의 프로세서는 음원 소비 정보에 포함된 음원이 사용자에게 재생된 시간의 날씨에 따라 음원의 음색을 제어하여 제2 음원을 생성할 수 있다. 그리고, 적응형 음악 생성 장치(110)의 프로세서는 음원 소비 정보에 포함된 음원이 사용자에게 재생된 시간대에 따라 음원의 템포를 제어하여 제2 음원을 생성할 수 있다.In addition, the processor of the adaptive music generating apparatus 110 may generate the second sound source by controlling the tone of the sound source according to the weather at the time when the sound source included in the sound source consumption information is reproduced to the user. In addition, the processor of the adaptive music generating apparatus 110 may generate the second sound source by controlling the tempo of the sound source according to the time period in which the sound source included in the sound source consumption information is reproduced to the user.

또한, 적응형 음악 생성 장치(110)의 프로세서는 사용자의 입력, 취향, 또는 선호도에 따라 음원을 변형하여 제2 음원을 생성할 수도 있다. 이때, 적응형 음악 생성 장치(110)의 프로세서는 사용자의 입력, 취향, 또는 선호도에 따라 음원에 포함된 악기 트랙, 음원에 포함된 곡의 악곡 구조, 또는 곡을 부르는 그룹의 멤버에 대한 보컬 파트의 비중 및 순서, 곡의 음색, 템포 및 트랙별 볼륨 중 적어도 하나를 변형하여 사용자의 성향 및 상황에 대응하는 제2 음원을 생성할 수 있다. 예를 들어, 적응형 음악 생성 장치(110)의 프로세서는 음원에 포함된 악기 트랙을 변형하여 음원에 사용된 악기 구성에 변화를 줄 수 있다.In addition, the processor of the adaptive music generating apparatus 110 may generate the second sound source by transforming the sound source according to the user's input, taste, or preference. In this case, the processor of the adaptive music generating apparatus 110 may perform an instrument track included in a sound source, a music structure of a song included in the sound source, or a vocal part for a member of a group singing a song according to the user's input, taste, or preference. The second sound source corresponding to the user's tendency and situation may be generated by modifying at least one of the weight and order of , the tone of the song, the tempo, and the volume for each track. For example, the processor of the adaptive music generating apparatus 110 may change the instrument track included in the sound source to change the composition of the instrument used in the sound source.

그 다음으로, 적응형 음악 생성 장치(110)는 생성한 제2 음원을 사용자에게 제공할 수 있다. 이때, 적응형 음악 생성 장치(110)의 통신기는 생성한 제2 음원을 단말(120)로 전송할 수 있다.Next, the adaptive music generating apparatus 110 may provide the generated second sound source to the user. In this case, the communicator of the adaptive music generating apparatus 110 may transmit the generated second sound source to the terminal 120 .

단말(120)은 적응형 음악 생성 장치(110)와 유선, 또는 무선으로 접속하여 적응형 음악 생성 장치(110)로부터 제2 음원을 수신할 수 있다. 그리고, 단말(120)은 수신한 제2 음원을 재생함으로써, 사용자에게 제2 음원을 제공할 수 있다. 예를 들어, 단말(120)은 도 1에 도시된 바와 같은 스마트 기기일 수도 있고, 스마트 스피커와 같이 음원 재생에 특화된 장치일 수도 있다.The terminal 120 may receive the second sound source from the adaptive music generating device 110 by connecting to the adaptive music generating device 110 by wire or wirelessly. In addition, the terminal 120 may provide the second sound source to the user by playing the received second sound source. For example, the terminal 120 may be a smart device as shown in FIG. 1 , or a device specialized in sound source reproduction, such as a smart speaker.

적응형 음악 생성 장치(110)는 사용자의 음원 소비 정보 및 맥락 정보에 따라 동일한 곡을 사용자 별로 다르게 변형함으로써, 사용자에 최적화된 음원을 제공할 수 있다.The adaptive music generating apparatus 110 may provide a sound source optimized for the user by differently transforming the same song for each user according to the user's sound source consumption information and context information.

도 2는 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 보컬 변형 음원 생성 방법의 일례이다.2 is an example of a method for generating a modified vocal sound source of an adaptive music generating apparatus according to an embodiment of the present invention.

적응형 음악 생성 장치(110)는 반복 재생 회수가 100회 이하인 경우, 변형 강도를 1단계로 결정하고, 반복 재생 회수가 100회 내지 200회인 경우, 변형 강도를 2단계로 결정할 수 있다. 또한, 적응형 음악 생성 장치(110)는 반복 재생 회수가 200회 내지 300회인 경우, 변형 강도를 3단계로 결정하고, 반복 재생 회수가 300회 내지 400회인 경우, 변형 강도를 4단계로 결정할 수 있다. The adaptive music generating apparatus 110 may determine the deformation strength as one level when the number of repeated reproductions is 100 or less, and determines the deformation strength as two levels when the number of repetitions is 100 to 200 times. In addition, the adaptive music generating apparatus 110 may determine the deformation strength in three stages when the number of repeated reproductions is 200 to 300 times, and determine the deformation strength as four levels when the number of repeated reproductions is 300 to 400 times. have.

그리고, 제1 음원의 보컬 트랙을 변형하고 변형 강도가 제1 단계인 경우, 적응형 음악 생성 장치(110)는 제1 음원의 반주를 유지하고, 사용자의 선호 가수를 추가할 수 있다. 이때, 적응형 음악 생성 장치(110)는 제1 음원에서 원곡 가수가 부른 구간의 일부를 사용자의 선호 가수가 부른 구간으로 대체하여 제2 음원을 생성할 수 있다.And, when the vocal track of the first sound source is deformed and the deformation intensity is the first stage, the adaptive music generating apparatus 110 may maintain the accompaniment of the first sound source and add the user's preferred singer. In this case, the adaptive music generating apparatus 110 may generate the second sound source by replacing a portion of the section sung by the original singer in the first sound source with the section sung by the user's preferred singer.

또한, 변형 강도가 제2 단계인 경우, 적응형 음악 생성 장치(110)는 사용자의 선호 가수를 추가하고, 추가한 선호 가수에 따라 제1 음원의 반주를 연장시킬 수 있다. 이때, 적응형 음악 생성 장치(110)는 사용자의 선호 가수가 제1 음원을 부른 구간을 추가하고, 추가한 구간에 따라 제1 음원의 반주를 연장하여 제2 음원을 생성할 수 있다.Also, when the deformation strength is the second stage, the adaptive music generating apparatus 110 may add the user's preferred singer and extend the accompaniment of the first sound source according to the added preferred singer. In this case, the adaptive music generating apparatus 110 may generate a second sound source by adding a section in which the user's preferred singer sang the first sound source, and extending the accompaniment of the first sound source according to the added section.

그리고, 변형 강도가 제3 단계인 경우, 적응형 음악 생성 장치(110)는 사용자가 선호하는 복수의 가수들을 추가하고, 추가한 가수들에 따라 제1 음원의 반주를 연장시킬 수 있다. 이때, 적응형 음악 생성 장치(110)는 사용자의 선호 가수들이 각각 제1 음원을 부른 구간들을 추가하고, 추가한 구간들에 따라 제1 음원의 반주를 연장하여 제2 음원을 생성할 수 있다.And, when the deformation strength is the third stage, the adaptive music generating apparatus 110 may add a plurality of singers preferred by the user, and extend the accompaniment of the first sound source according to the added singers. In this case, the adaptive music generating apparatus 110 may generate the second sound source by adding sections in which the user's preferred singers sang the first sound source, respectively, and extending the accompaniment of the first sound source according to the added sections.

또한, 변형 강도가 제4 단계인 경우, 적응형 음악 생성 장치(110)의 프로세서는 제1음원의 가수를 사용자의 선호 가수로 대체하여 제2 음원을 생성할 수 있다. 이때, 적응형 음악 생성 장치(110)의 프로세서는 제1음원의 가수를 사용자의 선호 가수들로 대체하여 제2 음원을 생성할 수도 있으며, 추가한 선호 가수들의 숫자에 따라 제1 음원의 반주를 연장시킬 수도 있다.Also, when the deformation strength is the fourth stage, the processor of the adaptive music generating apparatus 110 may generate the second sound source by replacing the singer of the first sound source with the user's preferred singer. In this case, the processor of the adaptive music generating apparatus 110 may generate a second sound source by replacing the singer of the first sound source with the user's preferred singers, and may perform accompaniment of the first sound source according to the number of added preferred singers. may be extended.

도 3은 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 반주 변형 음원 생성 방법의 일례이다.3 is an example of a method of generating an accompaniment-modified sound source of the adaptive music generating apparatus according to an embodiment of the present invention.

제1 음원의 반주 트랙을 변형하고 변형 강도가 제1 단계인 경우, 적응형 음악 생성 장치(110)는 제1 음원의 악기 구성을 사용자의 선호 악기로 대체하여 제2 음원을 생성할 수 있다. When the accompaniment track of the first sound source is deformed and the deformation intensity is the first stage, the adaptive music generating apparatus 110 may generate the second sound source by replacing the instrument configuration of the first sound source with the user's preferred instrument.

또한, 변형 강도가 제2 단계인 경우, 적응형 음악 생성 장치(110)의 프로세서는 제1 음원의 악기 구성 및 악곡 구조를 사용자가 선호하는 악기 및 악곡 구조로 대체하여 제2 음원을 생성할 수 있다.In addition, when the deformation strength is the second stage, the processor of the adaptive music generating apparatus 110 may generate the second sound source by replacing the instrument configuration and the music structure of the first sound source with the instrument and music structure preferred by the user. have.

그리고, 변형 강도가 제3 단계인 경우, 적응형 음악 생성 장치(110)의 프로세서는 제1 음원의 악기 구성, 악곡 구조, 및 템포를 사용자가 선호하는 악기, 악곡 구조, 및 템포로 대체하여 제2 음원을 생성할 수 있다.And, when the deformation strength is the third stage, the processor of the adaptive music generating apparatus 110 replaces the instrument configuration, the music structure, and the tempo of the first sound source with the user's preferred instrument, the music structure, and the tempo. 2 You can create a sound source.

또한, 변형 강도가 제4 단계인 경우, 적응형 음악 생성 장치(110)의 프로세서는 제1 음원의 악기 구성, 악곡 구조, 템포 및 조성을 사용자가 선호하는 악기 구성, 악곡 구조, 템포 및 조성으로 대체하여 제2 음원을 생성할 수 있다.In addition, when the deformation strength is the fourth stage, the processor of the adaptive music generating apparatus 110 replaces the instrument composition, music structure, tempo, and tone of the first sound source with the instrument composition, music structure, tempo, and tone preferred by the user. to generate the second sound source.

도 4는 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 평균 재생 시간에 따른 적응형 음악 생성 방법의 일례이다.4 is an example of an adaptive music generating method according to an average playing time of the adaptive music generating apparatus according to an embodiment of the present invention.

적응형 음악 생성 장치(110)는 음원 소비 정보에 포함된 사용자의 음원에 대한 평균 재생 시간에 따라 음원에 포함된 곡의 악곡 구조를 변형하여 제2 음원을 생성할 수 있다. The adaptive music generating apparatus 110 may generate the second sound source by transforming the music structure of the music included in the sound source according to the average reproduction time of the user's sound source included in the sound source consumption information.

사용자의 음원에 대한 평균 재생 시간이 짧은 경우, 사용자가 핵심 주제(Chorus)를 청취하지 못한 상태로 재생을 종료할 수 있다. 따라서, 사용자의 평균 재생 시간이 제1 음원의 전체 재생 시간보다 짧은 경우, 적응형 음악 생성 장치(110)는 제1 음원의 구조, 또는 악곡 구조를 변경하여 제2 음원을 생성함으로써, 사용자가 음원을 재생하는 시간 안에 핵심 주제(Chorus)를 청취하도록 유도할 수 있다.When the average playback time of the user's sound source is short, playback may be terminated without the user listening to the core topic (Chorus). Accordingly, when the average playback time of the user is shorter than the total playback time of the first sound source, the adaptive music generating apparatus 110 generates the second sound source by changing the structure of the first sound source or the music structure, so that the user can use the sound source It can induce you to listen to the core topic (Chorus) within the time of playing.

예를 들어, 적응형 음악 생성 장치(110)는 평균 재생 시간이 30초 이하인 경우, 변형 강도를 1단계로 결정하고, 반복 재생 회수가 30초 내지 1분인 경우, 변형 강도를 2단계로 결정할 수 있다. 또한, 적응형 음악 생성 장치(110) 는 반복 재생 회수가 200회 내지 300회인 경우, 변형 강도를 3단계로 결정하고, 반복 재생 회수가 300회 내지 400회인 경우, 변형 강도를 4단계로 결정할 수 있다. For example, the adaptive music generating apparatus 110 may determine the deformation strength as one level when the average reproduction time is 30 seconds or less, and determine the deformation strength as level two when the number of repeated reproductions is 30 seconds to 1 minute. have. In addition, the adaptive music generating apparatus 110 may determine the deformation strength as three levels when the number of repeated reproductions is 200 to 300 times, and determine the deformation strength as four levels when the number of repeated reproductions is 300 to 400 times. have.

그리고, 변형 강도가 1단계인 경우, 적응형 음악 생성 장치(110)는 인트로(intro), 아우트로(outro)를 생략하고, 핵심 주제(Chorus)가 선행되도록 제1 음원을 변형하여 제2 음원을 생성할 수 있다. 이때, 제2 음원은 Chorus0 + Verse1 + Chorus1 + Verse2 + Chorus2 + Bridge + Chorus3의 구조로 생성됨으로써, 사용자가 음원을 재생한 시간 안에 핵심 주제인 Chorus0가 재생되도록 할 수 있다.And, when the deformation strength is level 1, the adaptive music generating apparatus 110 omits an intro and an outro, and transforms the first sound source so that the core theme (Chorus) precedes the second sound source can create In this case, the second sound source is generated in the structure of Chorus0 + Verse1 + Chorus1 + Verse2 + Chorus2 + Bridge + Chorus3, so that Chorus0, a core theme, can be played back within the time the user plays the sound source.

또한, 변형 강도가 2단계인 경우, 적응형 음악 생성 장치(110)는 인트로(intro)를 생략하도록 제1 음원을 변형하여 제2 음원을 생성할 수 있다. 이때, 제2 음원은 Verse1 + Chorus1 + Verse2 + Chorus2 + Bridge + Chorus3 + Outro 의 구조로 생성될 수 있다.In addition, when the deformation intensity is two steps, the adaptive music generating apparatus 110 may generate the second sound source by deforming the first sound source so as to omit the intro. In this case, the second sound source may be generated in a structure of Verse1 + Chorus1 + Verse2 + Chorus2 + Bridge + Chorus3 + Outro.

그리고, 변형 강도가 3단계인 경우, 적응형 음악 생성 장치(110)는 Chorus 1과 동일한 Chorus 2가 생략되도록 제1 음원을 변형하여 제2 음원을 생성할 수 있다. 이때, 제2 음원은 Intro + Verse1 + Chorus1 + Verse2 + Bridge + Chorus3 + Outro 의 구조로 생성될 수 있다.And, when the deformation intensity is 3 steps, the adaptive music generating apparatus 110 may generate the second sound source by deforming the first sound source so that Chorus 2, which is the same as Chorus 1, is omitted. In this case, the second sound source may be generated in the structure of Intro + Verse1 + Chorus1 + Verse2 + Bridge + Chorus3 + Outro.

또한, 변형 강도가 4단계인 경우, 적응형 음악 생성 장치(110)는 제1 음원의 구조를 그대로 유지한 음원을 단말(120)로 전송할 수 있다. 이때, 제1 음원은 Intro + Verse1 + Chorus1 + Verse2 + Chorus2 + Bridge + Chorus3 + Outro 의 구조로 생성된 곡일 수 있다.Also, when the deformation strength is level 4, the adaptive music generating apparatus 110 may transmit the sound source maintaining the structure of the first sound source to the terminal 120 . In this case, the first sound source may be a song generated in the structure of Intro + Verse1 + Chorus1 + Verse2 + Chorus2 + Bridge + Chorus3 + Outro.

도 5는 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 사용자 선호 악기에 따른 적응형 음악 생성 방법의 일례이다.5 is an example of an adaptive music generating method according to a user's preferred musical instrument of the adaptive music generating apparatus according to an embodiment of the present invention.

적응형 음악 생성 장치(110)는 맥락 정보에 포함된 사용자의 선호 악기에 따라 음원에 포함된 곡을 연주하는 악기를 상호 교체하거나, 또는 선호 악기로 대체하여 제2 음원을 생성할 수 있다.The adaptive music generating apparatus 110 may generate a second sound source by replacing or replacing an instrument playing a song included in the sound source with a preferred instrument according to the user's preferred instrument included in the context information.

이때, 적응형 음악 생성 장치(110)는 연주 방식 및 곡 구조에서 주로 등장하는 악구(clause)이 동일한 악기들을 분류할 수 있다. 그리고, 적응형 음악 생성 장치(110)는 사용자의 선호 악기와 동일한 카테고리로 분류된 악기들의 트랙을 사용자의 선호 악기의 트랙으로 교체, 또는 대체함으로써, 제1 음원에서 의도된 전체적인 기조는 유지되도록 할 수 있다.In this case, the adaptive music generating apparatus 110 may classify musical instruments having the same phrase mainly appearing in a performance method and a song structure. And, the adaptive music generating apparatus 110 replaces or replaces tracks of instruments classified into the same category as the user's preferred instrument with tracks of the user's preferred instrument, so that the overall tone intended in the first sound source is maintained. can

예를 들어, 도 4에 도시된 바와 같이 사용자의 선호 악기가 Piano/EP, Synth Key인 경우, 적응형 음악 생성 장치(110)는 제1 음원에 포함된 악기의 트랙들 중에서 Piano와 EP, Synth Key를 서로 교체할 수 있다. 그리고, 제1 음원에서 Verse의 Main Motive가 Guitar/Pluck으로 연주되어 있는 경우, 적응형 음악 생성 장치(110)는 Verse의 Main Motive를 Piano/ EP, Synth Key로 대체할 수 있다.For example, as shown in FIG. 4 , when the user's preferred instrument is Piano/EP or Synth Key, the adaptive music generating apparatus 110 sets Piano, EP, and Synth among the tracks of the instrument included in the first sound source. Keys are interchangeable. And, when the main motive of Verse is played by Guitar/Pluck in the first sound source, the adaptive music generating apparatus 110 may replace the Main Motive of Verse with Piano/EP and Synth Key.

또한, 사용자의 선호 악기가 Guitar /Synth Pluck인 경우, 적응형 음악 생성 장치(110)는 제1 음원에 포함된 악기의 트랙들 중에서 Guitar와 Synth Pluck을 서로 교체할 수 있다. 그리고, 제1 음원에서 Verse의 Main Motive가 Piano/EP, Synth Key로 연주되어 있는 경우, 적응형 음악 생성 장치(110)는 Verse의 Main Motive를 Guitar/Synth Pluck로 대체할 수 있다.Also, when the user's preferred instrument is Guitar/Synth Pluck, the adaptive music generating apparatus 110 may exchange Guitar and Synth Pluck among tracks of instruments included in the first sound source. Also, when the main motive of Verse is played by Piano/EP and Synth Key in the first sound source, the adaptive music generating apparatus 110 may replace the Main Motive of Verse with Guitar/Synth Pluck.

또한, 사용자의 선호 악기가 String/Synth Pad 인 경우, 적응형 음악 생성 장치(110)는 제1 음원에 포함된 악기의 트랙들 중에서 String와 Synth Pad를 서로 교체할 수 있다. 그리고, 제1 음원에서 Chorus의 Main Motive가 Brass/Lead로 연주되어 있는 경우, 적응형 음악 생성 장치(110)는 Chorus의 Main Motive를 String/Pad로 대체할 수 있다.Also, when the user's preferred musical instrument is the String/Synth Pad, the adaptive music generating apparatus 110 may replace the String and the Synth Pad among the tracks of the musical instrument included in the first sound source. And, when the main motive of the chorus is played with Brass/Lead in the first sound source, the adaptive music generating apparatus 110 may replace the main motive of the chorus with String/Pad.

또한, 사용자의 선호 악기가 Brass/Synth Lead 인 경우, 적응형 음악 생성 장치(110)는 제1 음원에 포함된 악기의 트랙들 중에서 Brass와 Synth Lead를 서로 교체할 수 있다. 그리고, 제1 음원에서 Chorus의 Main Motive가 String / Pad로 연주되어 있는 경우, 적응형 음악 생성 장치(110)는 Chorus의 Main Motive를 Brass / Lead로 대체할 수 있다.Also, when the user's preferred instrument is the brass/synth lead, the adaptive music generating apparatus 110 may replace the brass and the synth lead among the tracks of the instrument included in the first sound source. In addition, when the main motive of the chorus is played with String / Pad in the first sound source, the adaptive music generating apparatus 110 may replace the main motive of the chorus with Brass / Lead.

또한, 사용자의 선호 악기가 Bass/Synth Bass 인 경우, 적응형 음악 생성 장치(110)는 제1 음원에 포함된 악기의 트랙들 중에서 Bridge의 Main Motive를 Bass, Synth Bass로 대체할 수 있다.Also, when the user's preferred instrument is Bass/Synth Bass, the adaptive music generating apparatus 110 may replace the Main Motive of the Bridge with Bass and Synth Bass among the tracks of the instrument included in the first sound source.

도 6은 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 사용자 선호 멤버에 따른 적응형 음악 생성 방법의 일례이다.6 is an example of an adaptive music generating method according to a user preference member of the adaptive music generating apparatus according to an embodiment of the present invention.

음원에 포함된 곡을 부르는 복수의 멤버로 구성된 그룹에 대하여 사용자가 선호하는 특정 선호 멤버가 있는 경우, 적응형 음악 생성 장치(110)는 해당 그룹의 멤버에 대한 보컬 파트의 비중 및 순서를 제어하여 제2 음원을 생성함으로써, 사용자가 선호 멤버의 보컬을 보다 많이 듣도록 할 수 있다.When there is a specific preferred member preferred by the user for a group consisting of a plurality of members who sing a song included in the sound source, the adaptive music generating device 110 controls the weight and order of vocal parts for the members of the corresponding group. By generating the second sound source, it is possible for the user to listen to the vocal of the preferred member more.

이때, 적응형 음악 생성 장치(110)는 그룹에 포함된 전체 멤버를 선호도에 따라 순위화한 데이터에 따라 곡의 핵심 주제인 Chorus를 우선 배정하고, 곡 구조에서 먼저 등장하도록 재배치할 수 있다.In this case, the adaptive music generating apparatus 110 may prioritize chorus, which is a core theme of a song, according to data ranking all members included in the group according to their preferences, and rearrange them so that they appear first in the song structure.

예를 들어, 적응형 음악 생성 장치는 도 5에 도시된 바와 같이 멤버들 각각에 대한 보컬 파트의 비중 및 순서를 제어할 수 있다.For example, the adaptive music generating apparatus may control the weight and order of vocal parts for each of the members as shown in FIG. 5 .

도 7은 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 날씨에 따른 적응형 음악 생성 방법이다.7 is a method for generating adaptive music according to weather of an apparatus for generating adaptive music according to an embodiment of the present invention.

적응형 음악 생성 장치(110)는 음원 소비 정보에 포함된 음원이 사용자에게 재생된 시간의 날씨에 따라 음원의 음색을 제어하여 제2 음원을 생성할 수 있다. The adaptive music generating apparatus 110 may generate the second sound source by controlling the tone of the sound source according to the weather at the time when the sound source included in the sound source consumption information is reproduced to the user.

예를 들어, 적응형 음악 생성 장치(110)는 도 6에 도시된 바와 같이 각 날씨에 적합한 음색(Timbre)을 미세한 이펙팅(Effecting)으로 차별화하여 표현하도록 제2 음원을 생성함으로써, 제2 음원을 청취한 사용자가 청취 환경과 사운드의 정서적 일치감을 경험하도록 할 수 있다.For example, as shown in FIG. 6 , the adaptive music generating apparatus 110 generates a second sound source to differentiate and express a timbre suitable for each weather through fine effecting, thereby generating the second sound source. It is possible to allow the listening user to experience an emotional match between the listening environment and the sound.

도 8은 본 발명의 일실시예에 따른 적응형 음악 생성 장치의 시간대에 따른 적응형 음악 생성 방법이다.8 is an adaptive music generating method according to time of the adaptive music generating apparatus according to an embodiment of the present invention.

적응형 음악 생성 장치(110)는 음원 소비 정보에 포함된 음원이 사용자에게 재생된 시간대에 따라 음원의 템포를 제어하여 제2 음원을 생성할 수 있다.The adaptive music generating apparatus 110 may generate the second sound source by controlling the tempo of the sound source according to the time period in which the sound source included in the sound source consumption information is reproduced to the user.

예를 들어, 적응형 음악 생성 장치(110)는 도 7에 도시된 바와 같이 아침, 점심, 저녁, 새벽과 같은 시간대 별로 음원의 템포를 미세하게 변경함으로써, 해당 시간대의 분위기(mood)를 표현하는 제2 음원을 생성할 수 있다.For example, as shown in FIG. 7 , the adaptive music generating apparatus 110 finely changes the tempo of a sound source for each time zone such as morning, lunch, evening, and dawn, thereby expressing the mood of the corresponding time zone. A second sound source may be generated.

도 9는 본 발명의 일실시예에 따른 적응형 음악 생성 방법을 도시한 플로우차트이다.9 is a flowchart illustrating an adaptive music generation method according to an embodiment of the present invention.

단계(910)에서 적응형 음악 생성 장치(110)는 사용자의 제1 음원에 대한 사용자의 음원 소비 정보 및 맥락 정보를 수집할 수 있다.In operation 910 , the adaptive music generating apparatus 110 may collect the user's sound source consumption information and context information for the user's first sound source.

단계(920)에서 적응형 음악 생성 장치(110)의 프로세서는 단계(910)에서 수집한 음원 소비 정보에 따라 제1 음원에 대한 편곡의 변형 강도를 결정할 수 있다. 이때, 적응형 음악 생성 장치(110)는 사용자의 음원에 대한 반복 재생 회수가 일정 회수를 초과하거나, 사용자의 음원에 대한 평균 재생 시간이 일정 시간을 초과하는 경우, 변형 강도의 단계를 증가시킬 수 있다. In operation 920 , the processor of the adaptive music generating apparatus 110 may determine the deformation strength of the arrangement for the first sound source according to the sound source consumption information collected in operation 910 . In this case, the adaptive music generating apparatus 110 may increase the level of the deformation intensity when the number of repeated reproductions of the user's sound source exceeds a predetermined number of times or the average reproduction time of the user's sound source exceeds a predetermined time. have.

단계(930)에서 적응형 음악 생성 장치(110)는 사용자의 맥락 정보 및 단계(920)에서 결정된 변형 강도에 따라 제1 음원을 변형하여 제2 음원을 생성할 수 있다. 이때, 적응형 음악 생성 장치(110)의 프로세서는 사용자에게 제1 음원의 보컬 트랙과 반주 트랙 중 변형할 트랙을 입력하도록 요청할 수 있다. 그리고, 적응형 음악 생성 장치(110)의 프로세서는 사용자의 입력에 따라 제1 음원의 보컬 트랙과 반주 트랙 중 하나를 변형하여 제2 음원을 생성할 수 있다.In operation 930 , the adaptive music generating apparatus 110 may generate a second sound source by deforming the first sound source according to the user's context information and the deformation strength determined in operation 920 . In this case, the processor of the adaptive music generating apparatus 110 may request the user to input a track to be modified from among the vocal track and the accompaniment track of the first sound source. In addition, the processor of the adaptive music generating apparatus 110 may generate a second sound source by transforming one of a vocal track and an accompaniment track of the first sound source according to a user's input.

사용자가 보컬 트랙을 입력한 경우, 적응형 음악 생성 장치(110)의 프로세서는, 제1 음원의 반주 트랙은 보존하고, 제1 음원의 보컬 트랙에 사용자가 선호하는 가수를 추가하거나, 제1 음원의 가수를 사용자가 선호하는 가수로 대체하여 제2 음원을 생성할 수 있다. 또한, 사용자가 반주 트랙을 입력한 경우, 적응형 음악 생성 장치(110)의 프로세서는 제1 음원의 보컬 트랙은 보존하고, 제1 음원의 반주 트랙의 악기 구성, 악곡 구조, 템포 및 조성 중 적어도 하나를 변형하여 제2 음원을 생성할 수 있다. When the user inputs a vocal track, the processor of the adaptive music generating apparatus 110 preserves the accompaniment track of the first sound source, adds a singer preferred by the user to the vocal track of the first sound source, or the first sound source A second sound source may be created by replacing the singer of the user with a singer preferred by the user. In addition, when the user inputs an accompaniment track, the processor of the adaptive music generating apparatus 110 preserves the vocal track of the first sound source, and at least one of the instrument composition, music structure, tempo, and composition of the accompaniment track of the first sound source. A second sound source may be generated by modifying one.

단계(940)에서 적응형 음악 생성 장치(110)는 단계(930)에서 생성한 제2 음원을 사용자에게 제공할 수 있다. 이때, 적응형 음악 생성 장치(110)의 통신기는 생성한 제2 음원을 단말(120)로 전송할 수 있다.In operation 940 , the adaptive music generating apparatus 110 may provide the second sound source generated in operation 930 to the user. In this case, the communicator of the adaptive music generating apparatus 110 may transmit the generated second sound source to the terminal 120 .

본 발명은 사용자의 음원 소비 정보 및 맥락 정보에 따라 동일한 곡을 사용자 별로 다르게 변형하여 제공함으로써, 사용자에 최적화된 음원을 제공할 수 있다.The present invention can provide a sound source optimized for the user by providing the same song differently for each user according to the user's sound source consumption information and context information.

한편, 본 발명에 따른 적응형 음악 생성 장치 또는 적응형 음악 생성 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성되어 마그네틱 저장매체, 광학적 판독매체, 디지털 저장매체 등 다양한 기록 매체로도 구현될 수 있다.Meanwhile, the adaptive music generating apparatus or adaptive music generating method according to the present invention is written as a program that can be executed on a computer and can be implemented in various recording media such as magnetic storage media, optical reading media, and digital storage media.

본 명세서에 설명된 각종 기술들의 구현들은 디지털 전자 회로조직으로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어로, 또는 그들의 조합들로 구현될 수 있다. 구현들은 데이터 처리 장치, 예를 들어 프로그램가능 프로세서, 컴퓨터, 또는 다수의 컴퓨터들의 동작에 의한 처리를 위해, 또는 이 동작을 제어하기 위해, 컴퓨터 프로그램 제품, 예를 들어 기계 판독가능 저장 장치(컴퓨터 판독가능 매체)에서 유형적으로 구체화된 컴퓨터 프로그램으로서 구현될 수 있다. 상술한 컴퓨터 프로그램(들)과 같은 컴퓨터 프로그램은 컴파일된 또는 인터프리트된 언어들을 포함하는 임의의 형태의 프로그래밍 언어로 기록될 수 있고, 독립형 프로그램으로서 또는 모듈, 구성요소, 서브루틴, 또는 컴퓨팅 환경에서의 사용에 적절한 다른 유닛으로서 포함하는 임의의 형태로 전개될 수 있다. 컴퓨터 프로그램은 하나의 사이트에서 하나의 컴퓨터 또는 다수의 컴퓨터들 상에서 처리되도록 또는 다수의 사이트들에 걸쳐 분배되고 통신 네트워크에 의해 상호 연결되도록 전개될 수 있다.Implementations of the various techniques described herein may be implemented in digital electronic circuitry, or in computer hardware, firmware, software, or combinations thereof. Implementations may be implemented for processing by, or controlling the operation of, a data processing device, eg, a programmable processor, computer, or number of computers, in a computer program product, eg, a machine-readable storage device (computer readable available medium) as a computer program tangibly embodied in it. A computer program, such as the computer program(s) described above, may be written in any form of programming language, including compiled or interpreted languages, and may be written as a standalone program or in a module, component, subroutine, or computing environment. It can be deployed in any form, including as other units suitable for use in A computer program may be deployed to be processed on one computer or multiple computers at one site or to be distributed across multiple sites and interconnected by a communications network.

컴퓨터 프로그램의 처리에 적절한 프로세서들은 예로서, 범용 및 특수 목적 마이크로프로세서들 둘 다, 및 임의의 종류의 디지털 컴퓨터의 임의의 하나 이상의 프로세서들을 포함한다. 일반적으로, 프로세서는 판독 전용 메모리 또는 랜덤 액세스 메모리 또는 둘 다로부터 명령어들 및 데이터를 수신할 것이다. 컴퓨터의 요소들은 명령어들을 실행하는 적어도 하나의 프로세서 및 명령어들 및 데이터를 저장하는 하나 이상의 메모리 장치들을 포함할 수 있다. 일반적으로, 컴퓨터는 데이터를 저장하는 하나 이상의 대량 저장 장치들, 예를 들어 자기, 자기-광 디스크들, 또는 광 디스크들을 포함할 수 있거나, 이것들로부터 데이터를 수신하거나 이것들에 데이터를 송신하거나 또는 양쪽으로 되도록 결합될 수도 있다. 컴퓨터 프로그램 명령어들 및 데이터를 구체화하는데 적절한 정보 캐리어들은 예로서 반도체 메모리 장치들, 예를 들어, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 롬(ROM, Read Only Memory), 램(RAM, Random Access Memory), 플래시 메모리, EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 등을 포함한다. 프로세서 및 메모리는 특수 목적 논리 회로조직에 의해 보충되거나, 이에 포함될 수 있다.Processors suitable for processing a computer program include, by way of example, both general and special purpose microprocessors, and any one or more processors of any kind of digital computer. In general, a processor will receive instructions and data from read only memory or random access memory or both. Elements of a computer may include at least one processor that executes instructions and one or more memory devices that store instructions and data. In general, a computer may include one or more mass storage devices for storing data, for example magnetic, magneto-optical disks, or optical disks, receiving data from, sending data to, or both. may be combined to become Information carriers suitable for embodying computer program instructions and data are, for example, semiconductor memory devices, for example, magnetic media such as hard disks, floppy disks and magnetic tapes, Compact Disk Read Only Memory (CD-ROM). ), an optical recording medium such as a DVD (Digital Video Disk), a magneto-optical medium such as a floppy disk, a ROM (Read Only Memory), a RAM , Random Access Memory), flash memory, EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), and the like. Processors and memories may be supplemented by, or included in, special purpose logic circuitry.

또한, 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용매체일 수 있고, 컴퓨터 저장매체를 모두 포함할 수 있다.In addition, the computer-readable medium may be any available medium that can be accessed by a computer, and may include any computer storage medium.

본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.While this specification contains numerous specific implementation details, these should not be construed as limitations on the scope of any invention or claim, but rather as descriptions of features that may be specific to particular embodiments of particular inventions. should be understood Certain features that are described herein in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features that are described in the context of a single embodiment may also be implemented in multiple embodiments, either individually or in any suitable subcombination. Furthermore, although features operate in a particular combination and may be initially depicted as claimed as such, one or more features from a claimed combination may in some cases be excluded from the combination, the claimed combination being a sub-combination. or a variant of a sub-combination.

마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 장치 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 장치들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징 될 수 있다는 점을 이해하여야 한다.Likewise, although acts are depicted in the drawings in a particular order, it should not be construed that all acts shown must be performed or that such acts must be performed in the specific order or sequential order shown in order to achieve desirable results. In certain cases, multitasking and parallel processing may be advantageous. Further, the separation of the various device components of the above-described embodiments should not be construed as requiring such separation in all embodiments, and the program components and devices described may generally be integrated together into a single software product or packaged into multiple software products. You have to understand that you can.

한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, the embodiments of the present invention disclosed in the present specification and drawings are merely presented as specific examples to aid understanding, and are not intended to limit the scope of the present invention. It will be apparent to those of ordinary skill in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.

110: 적응형 음악 생성 장치
120: 단말
110: adaptive music generating device
120: terminal

Claims (15)

사용자의 제1 음원에 대한 사용자의 음원 소비 정보 및 맥락 정보를 수집하는 단계;
상기 음원 소비 정보에 따라 제1 음원에 대한 변형의 변형 강도를 결정하는 단계;
상기 맥락 정보 및 상기 변형 강도에 따라 상기 제1 음원을 변형하여 제2 음원을 생성하는 단계; 및
상기 제2 음원을 사용자에게 제공하는 단계
를 포함하는 적응형 음악 생성 방법.
collecting the user's sound source consumption information and context information for the user's first sound source;
determining a deformation strength of deformation of a first sound source according to the sound source consumption information;
generating a second sound source by deforming the first sound source according to the context information and the deformation strength; and
providing the second sound source to the user
An adaptive music generation method comprising:
제1항에 있어서,
사용자로부터 제1 음원의 보컬 트랙과 반주 트랙 중 변형할 트랙을 입력 받는 단계
를 더 포함하고,
상기 제2 음원을 생성하는 단계는,
사용자의 입력에 따라 상기 제1 음원의 보컬 트랙, 및 반주 트랙 중 하나를 변형하여 제2 음원을 생성하는 적응형 음악 생성 방법
According to claim 1,
Step of receiving an input of a track to be transformed among the vocal track and the accompaniment track of the first sound source from the user
further comprising,
The step of generating the second sound source comprises:
An adaptive music generating method for generating a second sound source by modifying one of a vocal track and an accompaniment track of the first sound source according to a user input
제1항에 있어서,
상기 제2 음원을 생성하는 단계는,
상기 제1 음원의 보컬 트랙을 변형하고, 상기 변형 강도가 제1 단계인 경우, 상기 제1 음원의 반주를 유지하고, 상기 제1 음원에서 원곡 가수가 부른 구간의 일부를 사용자의 선호 가수가 부른 구간으로 대체하여 제2 음원을 생성하는 적응형 음악 생성 방법.
According to claim 1,
The step of generating the second sound source comprises:
The vocal track of the first sound source is deformed, and when the deformation intensity is the first stage, the accompaniment of the first sound source is maintained, and a part of the section sung by the original singer in the first sound source is sung by the user's preferred singer. An adaptive music generation method for generating a second sound source by substituting a section.
제1항에 있어서,
상기 제2 음원을 생성하는 단계는,
상기 제1 음원의 보컬 트랙을 변형하고, 상기 변형 강도가 제2 단계인 경우, 사용자의 선호 가수가 상기 제1 음원을 부른 구간을 추가하고, 추가한 구간에 따라 상기 제1 음원의 반주를 연장하여 제2 음원을 생성하는 적응형 음악 생성 방법
According to claim 1,
The step of generating the second sound source comprises:
If the vocal track of the first sound source is deformed and the deformation strength is the second stage, a section in which the user's preferred singer sang the first sound source is added, and the accompaniment of the first sound source is extended according to the added section adaptive music generation method to generate a second sound source by
제1항에 있어서,
상기 제2 음원을 생성하는 단계는,
상기 제1 음원의 보컬 트랙을 변형하고, 상기 변형 강도가 제3 단계인 경우, 사용자의 선호 가수들이 각각 상기 제1 음원을 부른 구간들을 추가하고, 추가한 구간들에 따라 상기 제1 음원의 반주를 연장하여 제2 음원을 생성하는 적응형 음악 생성 방법
According to claim 1,
The step of generating the second sound source comprises:
When the vocal track of the first sound source is deformed and the deformation intensity is the third stage, sections in which the user's preferred singers sang the first sound source are added, respectively, and the accompaniment of the first sound source according to the added sections An adaptive music generation method for generating a second sound source by extending
제1항에 있어서,
상기 제2 음원을 생성하는 단계는,
상기 제1 음원의 보컬 트랙을 변형하고, 상기 변형 강도가 제4 단계인 경우, 제1음원의 가수를 사용자의 선호 가수로 대체하여 제2 음원을 생성하는 적응형 음악 생성 방법
According to claim 1,
The step of generating the second sound source comprises:
An adaptive music generation method for generating a second sound source by deforming the vocal track of the first sound source and replacing the singer of the first sound source with the user's preferred singer when the deformation intensity is the fourth step
제1항에 있어서,
상기 제2 음원을 생성하는 단계는,
상기 제1 음원의 반주 트랙을 변형하고, 상기 변형 강도가 제1 단계인 경우, 상기 제1 음원의 악기 구성을 사용자의 선호 악기로 대체하여 제2 음원을 생성하는 적응형 음악 생성 방법.
According to claim 1,
The step of generating the second sound source comprises:
An adaptive music generating method for generating a second sound source by deforming an accompaniment track of the first sound source, and replacing the instrument configuration of the first sound source with a user's preferred instrument when the deformation intensity is the first stage.
제1항에 있어서,
상기 제2 음원을 생성하는 단계는,
상기 제1 음원의 반주 트랙을 변형하고, 상기 변형 강도가 제2 단계인 경우, 상기 제1 음원의 악기 구성 및 악곡 구조를 사용자가 선호하는 악기 및 악곡 구조로 대체하여 제2 음원을 생성하는 적응형 음악 생성 방법.
According to claim 1,
The step of generating the second sound source comprises:
An adaptation of deforming the accompaniment track of the first sound source and, when the deformation intensity is the second stage, replacing the instrument configuration and music structure of the first sound source with the user's preferred instrument and music structure to generate a second sound source Brother how to create music.
제1항에 있어서,
상기 제2 음원을 생성하는 단계는,
상기 제1 음원의 반주 트랙을 변형하고, 상기 변형 강도가 제3 단계인 경우, 상기 제1 음원의 악기 구성, 악곡 구조, 및 템포를 사용자가 선호하는 악기, 악곡 구조, 및 템포로 대체하여 제2 음원을 생성하는 적응형 음악 생성 방법.
According to claim 1,
The step of generating the second sound source comprises:
The accompaniment track of the first sound source is deformed, and when the deformation strength is the third stage, the instrument configuration, music structure, and tempo of the first sound source are replaced with the user's preferred instrument, music structure, and tempo 2 Adaptive music creation methods that generate sound sources.
제1항에 있어서,
상기 제2 음원을 생성하는 단계는,
상기 제1 음원의 반주 트랙을 변형하고, 상기 변형 강도가 제4 단계인 경우, 상기 제1 음원의 악기 구성, 악곡 구조, 템포 및 조성을 사용자가 선호하는 악기 구성, 악곡 구조, 템포 및 조성으로 대체하여 제2 음원을 생성하는 적응형 음악 생성 방법.
According to claim 1,
The step of generating the second sound source comprises:
The accompaniment track of the first sound source is deformed, and when the deformation strength is the fourth stage, the instrument composition, music structure, tempo and composition of the first sound source are replaced with the user's preferred instrument composition, music structure, tempo, and composition to generate a second sound source.
제1항에 있어서,
상기 제2 음원을 생성하는 단계는,
상기 음원의 음악 장르 별로 변형된 곡들 중에서 상기 맥락 정보에 포함된 상기 사용자의 선호 장르에 대응하는 곡을 선택하여 상기 제2 음원을 생성하는 적응형 음악 생성 방법.
According to claim 1,
The step of generating the second sound source comprises:
An adaptive music generating method for generating the second sound source by selecting a song corresponding to the user's preferred genre included in the context information from among the songs modified for each music genre of the sound source.
제1항에 있어서,
상기 제2 음원을 생성하는 단계는,
상기 음원 소비 정보에 포함된 상기 음원이 재생된 시간의 날씨에 따라 상기 음원의 음색을 제어하여 상기 제2 음원을 생성하는 적응형 음악 생성 방법.
According to claim 1,
The step of generating the second sound source comprises:
An adaptive music generating method for generating the second sound source by controlling the tone of the sound source according to the weather at a time when the sound source included in the sound source consumption information is reproduced.
제1항에 있어서,
상기 제2 음원을 생성하는 단계는,
상기 음원 음원 소비 정보에 포함된 상기 음원이 재생된 시간대에 따라 상기 음원의 템포를 제어하여 상기 제2 음원을 생성하는 적응형 음악 생성 방법.
According to claim 1,
The step of generating the second sound source comprises:
An adaptive music generating method for generating the second sound source by controlling a tempo of the sound source according to a time period during which the sound source included in the sound source source consumption information is reproduced.
제1항 내지 제13항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체. A computer-readable recording medium in which a program for executing the method of any one of claims 1 to 13 is recorded. 사용자의 제1 음원에 대한 사용자의 음원 소비 정보 및 맥락 정보를 수집하고, 상기 음원 소비 정보에 따라 제1 음원에 대한 변형의 변형 강도를 결정하며, 상기 맥락 정보 및 상기 변형 강도에 따라 상기 제1 음원을 변형하여 제2 음원을 생성하는 프로세서; 및
상기 제2 음원을 사용자에게 제공하는 통신기
를 포함하는 적응형 음악 생성 장치.
Collecting the user's sound consumption information and context information for the user's first sound source, determining the deformation strength of the deformation of the first sound source according to the sound source consumption information, and the first according to the context information and the deformation strength a processor for generating a second sound source by transforming the sound source; and
A communicator providing the second sound source to a user
An adaptive music generating device comprising a.
KR1020210015486A 2021-02-03 2021-02-03 Apparatus and method for generating adaptive music based on user's consumption information and context information KR102556182B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210015486A KR102556182B1 (en) 2021-02-03 2021-02-03 Apparatus and method for generating adaptive music based on user's consumption information and context information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210015486A KR102556182B1 (en) 2021-02-03 2021-02-03 Apparatus and method for generating adaptive music based on user's consumption information and context information

Publications (2)

Publication Number Publication Date
KR20220112016A true KR20220112016A (en) 2022-08-10
KR102556182B1 KR102556182B1 (en) 2023-07-18

Family

ID=82846756

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210015486A KR102556182B1 (en) 2021-02-03 2021-02-03 Apparatus and method for generating adaptive music based on user's consumption information and context information

Country Status (1)

Country Link
KR (1) KR102556182B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053956A1 (en) 2022-09-05 2024-03-14 주식회사 엘지에너지솔루션 Battery pack

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060051377A (en) * 2004-09-17 2006-05-19 소니 가부시끼 가이샤 Information processing apparatus and method, recording medium, program, and information processing system
KR20200067382A (en) * 2018-12-04 2020-06-12 삼성전자주식회사 Electronic device for outputting sound and operating method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060051377A (en) * 2004-09-17 2006-05-19 소니 가부시끼 가이샤 Information processing apparatus and method, recording medium, program, and information processing system
KR20200067382A (en) * 2018-12-04 2020-06-12 삼성전자주식회사 Electronic device for outputting sound and operating method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053956A1 (en) 2022-09-05 2024-03-14 주식회사 엘지에너지솔루션 Battery pack

Also Published As

Publication number Publication date
KR102556182B1 (en) 2023-07-18

Similar Documents

Publication Publication Date Title
US12039959B2 (en) Automated music composition and generation system employing virtual musical instrument libraries for producing notes contained in the digital pieces of automatically composed music
US6528715B1 (en) Music search by interactive graphical specification with audio feedback
Pachet et al. Reflexive loopers for solo musical improvisation
CN106708894B (en) Method and device for configuring background music for electronic book
AU1276897A (en) Method and apparatus for interactively creating new arrangements for musical compositions
WO2020000751A1 (en) Automatic composition method and apparatus, and computer device and storage medium
Nunes et al. I like the way it sounds: The influence of instrumentation on a pop song’s place in the charts
Lerch The relation between music technology and music industry
KR102556182B1 (en) Apparatus and method for generating adaptive music based on user's consumption information and context information
Müller et al. Content-based audio retrieval
Müller et al. Computational methods for melody and voice processing in music recordings (Dagstuhl seminar 19052)
Boone Gendered power relationships in mashups
KR20140054810A (en) System and method for producing music recorded, and apparatus applied to the same
KR20220112005A (en) Apparatus and method for generating adaptive music based on user's consumption information and context information
JP7028942B2 (en) Information output device and information output method
EP2793222B1 (en) Method for implementing an automatic music jam session
US20240055024A1 (en) Generating and mixing audio arrangements
O'Connor et al. Determining the Composition
Travasso et al. New aspects regarding the instrumentalists' performance
Tutton A STUDY OF THE VARYING INTERPRETATIONS OF THE OPENING FLUTE SOLO IN DEBUSSY’S PRELUDE A L’APRES-MIDI D’UN FAUNE THROUGH 90 YEARS OF SOUND RECORDINGS; WITH SPECIAL CONSIDERATION FOR THE PERFORMANCES AND PEDAGOGY OF WILLIAM KINCAID
Wills The keyboard player's guide to (being) the orchestra
Johansson et al. The Gunnlod Dataset: Engineering a dataset for multi-modal music generation
Sukotjo Development of Music in Indonesia
Mogensen et al. The arpeggione and fortepiano of the 1820s in the context of current computer music
Kesjamras Technology Tools for Songwriter and Composer

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant