KR20220139675A - Apparatus and method for providing user interface for generating and contesting user's music sources - Google Patents

Apparatus and method for providing user interface for generating and contesting user's music sources Download PDF

Info

Publication number
KR20220139675A
KR20220139675A KR1020210045918A KR20210045918A KR20220139675A KR 20220139675 A KR20220139675 A KR 20220139675A KR 1020210045918 A KR1020210045918 A KR 1020210045918A KR 20210045918 A KR20210045918 A KR 20210045918A KR 20220139675 A KR20220139675 A KR 20220139675A
Authority
KR
South Korea
Prior art keywords
user
sound source
interface
value
terminal
Prior art date
Application number
KR1020210045918A
Other languages
Korean (ko)
Other versions
KR102507870B1 (en
Inventor
전이배
Original Assignee
주식회사 폰에어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 폰에어 filed Critical 주식회사 폰에어
Priority to KR1020210045918A priority Critical patent/KR102507870B1/en
Publication of KR20220139675A publication Critical patent/KR20220139675A/en
Application granted granted Critical
Publication of KR102507870B1 publication Critical patent/KR102507870B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis

Abstract

In accordance with one embodiment of the present invention, a method for providing a user interface for generating and contesting a user sound source, which is performed by a central server, includes the following steps of: (a) creating a user profile with user terminal received from a user terminal; (b) when receiving a user sound source generated by a sound source production interface from the user terminal, matching and storing the user sound source with the user profile; and (c) conducting a contest through a plurality of user sound sources received from different user terminal, wherein the sound source production interface can provide a mixing and mastering function necessary for reproducing an MR sound source selected by a user terminal, receiving voice information of a user and then generating a sound source in which the MR sound source is combined with the user voice, and the contest means the procedure of determining rankings by receiving preferences from listeners listening to a plurality of user sound sources for a predetermined period. Therefore, the present invention is capable of opening sound sources to the public and creating profits.

Description

사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 장치 및 방법{APPARATUS AND METHOD FOR PROVIDING USER INTERFACE FOR GENERATING AND CONTESTING USER'S MUSIC SOURCES}Apparatus and method for providing a user interface for creation and competition of user sound sources

본 발명은 사용자가 자신의 목소리와 MR음원을 손쉽게 믹싱 및 편집할 수 있는 인터페이스를 제공하기 위한 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for providing an interface through which a user can easily mix and edit his/her own voice and MR sound source, and a method therefor.

종래에는 유튜브(You tube)를 비롯한 개인이나 기업이 생성한 다양한 동영상을 공유하기 위한 플랫폼이 널리 이용되고 있다. 이러한, 플랫폼이 발달함에 따라, 콘텐츠 창작자는 자신이 생성한 동영상을 플랫폼을 통해 업로드하여 타인과의 공유를 수행하고 있는 상황이다.Conventionally, platforms for sharing various videos generated by individuals or companies, including YouTube (You Tube), are widely used. As such, as platforms develop, content creators upload their videos through the platform and share them with others.

또한, 동영상뿐만 아니라, 과거에는 가수들의 전유물이었던 음원을 개인이 동영상 플랫폼 등을 통해 커버(cover)곡으로 형성하여 업로드하는 콘텐츠 창작자가 늘어가고 있다.In addition, there is an increasing number of content creators who not only video, but also create and upload sound sources that were previously exclusive to singers through video platforms or the like as cover songs.

이때, 커버곡이란 음악 분야에서 특정 사람이 발표한 곡을 다른 사람이 연주 또는 가창한 곡을 뜻한다.In this case, the cover song refers to a song performed or sung by another person in a music field released by a specific person.

통상적인 콘텐츠 공유 플랫폼은 업로드한 콘텐츠를 재생하기 전이나, 재생되는 과정에 콘텐츠와 매핑된 광고를 일정 시간 의무적으로 노출시키게 된다. 이러한 과정을 통해, 업로드한 콘텐츠의 조회수에 따라 콘텐츠의 재생 시간과 함께 노출되는 광고의 노출 횟수 및 노출 시간에 맞게 콘텐츠 제작자에게 일정 수익이 지급되는 형태를 갖는다.In a typical content sharing platform, an advertisement mapped with the content is compulsorily exposed for a certain period of time before or during the playback of the uploaded content. Through this process, according to the number of views of the uploaded content, a certain amount of revenue is paid to the content creator according to the number of times and the exposure time of the advertisement exposed along with the playback time of the content.

앞서 설명한 커버곡의 경우 원저작자 사이에 저작권 문제가 발생할 수 있다. 예를 들어, 저작권법상 원곡 음악 MR을 사용하여 노래를 부르는 것은 복제권 침해에 해당할 수 있고, 편곡은 2차적 저작물 작성권 침해 등이 그것이다. 더 나아가 이러한 영상을 콘텐츠 공유 플랫폼에 업로드하는 행위는 전송권 침해에 해당될 수 있다.In the case of the cover songs described above, copyright issues may arise between the original authors. For example, under the Copyright Act, singing a song using the original music MR may constitute an infringement of the right to copy, and arranging is an infringement of the right to create a secondary work. Furthermore, uploading these videos to a content sharing platform may constitute a violation of the right to transmit.

이때, 유튜브의 경우 2008년부터 콘텐츠검증기술(Content ID, 이하 CID)를 도입하여 저작자의 저작권을 보호하고 있다. 이는, 유튜브의 콘텐츠검증기술은 저작권자로부터 제공받은 원본 콘텐츠 참조 파일로 구성된 데이터베이스를 바탕으로 콘텐츠 창작자가 올리는 콘텐츠가 저작권자의 원본 콘텐츠 참조 파일과 일치하는지 자동으로 대조하여 검증하는 시스템이다. At this time, in the case of YouTube, since 2008, the content verification technology (Content ID, hereinafter CID) has been introduced to protect the copyright of the author. This is a system that automatically verifies whether the content uploaded by the content creator matches the original content reference file of the copyright holder based on the database consisting of the original content reference file provided by the copyright holder.

유튜브는 이러한 콘텐츠검증기술을 통해 작권자의 저작물과 일치하는 업로드된 컨텐츠를 검색한 경우 저작권자는 이를 보고 받게 된다. 이때, 저작권자는 해당 컨텐츠에 대해 차단, 추적, 수익모델화 여부를 선택할 수 있게 된다. 즉, 업로드된 콘텐츠가 저작권 위반으로 판명되면 저작권자의 설정에 따라서 경고조치가 이루어지거나, 사용자들의 접근이 저절로 차단되거나, 해당 컨텐츠가 제거되거나, 컨텐츠 재생에 따라 발생하는 수익을 저작권자가 가져갈 수 있는 것이다. When YouTube searches for uploaded content that matches the copyright holder's work through this content verification technology, the copyright holder will receive a report. At this time, the copyright holder can choose whether to block, track, or model the content for the corresponding content. That is, if the uploaded content is found to be in violation of copyright, a warning action is taken according to the setting of the copyright holder, users' access is automatically blocked, the corresponding content is removed, or the copyright holder can take the revenue generated from content reproduction. .

한편, 유튜브는 저작권을 관리하기 위한 봇(bot)도 함께 이용하고 있다. 봇은 저작권자들이 동영상 공유 플랫폼에 저작권 신청을 하며, 저작권자를 제외한 다른 콘텐츠 창작자들이 저작권자가 신청한 저작물과 일치 또는 유사한 콘텐츠를 업로드하는 경우 관리 봇이 필터링하여 해당 저작물에 대한 권한을 저작권자에게 주고 해당 저작물에서 나오는 광고 수익을 전부 저작권자에게 할당하게 된다.Meanwhile, YouTube is also using bots to manage copyrights. When copyright holders apply for copyright to a video sharing platform by copyright holders, and other content creators other than the copyright holder upload content that matches or is similar to the work requested by the copyright holder, the management bot filters and gives permission to the copyright holder for the work All advertising revenues from this will be allocated to the copyright holder.

2019년 통계에 따르면 유튜브가 저작자나 음원업계에 지불한 음원 사용료가 무려 3조 5천 5백억원으로 추정된다. 이중에는 커버댄스나 커버곡을 부르는 유명 유튜버가 업로드한 동영상에 붙은 광고 수익이 상당 부분을 차지한다. According to 2019 statistics, it is estimated that YouTube paid a whopping 3.5 trillion won in music usage fees to authors or the music industry. Among them, advertising revenues attached to videos uploaded by famous YouTubers who sing cover dances or cover songs account for a significant portion.

결국, 음악이나 음원을 단순히 이용하는 경우에는 원저작권자의 저작권을 보다 보호할 필요성이 크다고 할 수 있겠지만, 커버곡과 같이 자신이 제작한 콘텐츠로 창출된 수익을 기존 저작자와 배분하는 새로운 사업 모델이 필요한 상황이다.In the end, it can be said that there is a great need to protect the copyright of the original copyright holder in the case of simply using music or sound sources, but a new business model is needed to distribute the profits generated from content created by oneself, such as cover songs, with existing authors. to be.

하지만, 커버곡과 같은 콘텐츠를 동영상 공유 플랫폼에 업로드하고자 하는 콘텐츠 창작자가 개인적으로 저작권자와 직접 연락을 취하는 것에는 한계가 있다. 설사, 콘텐츠 창작자와 저작권자 사이에 연락이 닿더라도 저작물의 사용 허락을 받기가 곤란하며 저작물에 대한 사용료 지급부터 사용승인 서류까지 완벽하게 준비하기가 쉽지 않다.However, there is a limit to the ability of a content creator who wants to upload content such as a cover song to a video sharing platform to personally contact the copyright holder directly. Even if there is contact between the content creator and the copyright holder, it is difficult to obtain permission to use the work, and it is not easy to prepare everything from payment of royalties to use approval documents.

본 발명은 상기한 문제점을 해결하기 위해, 사용자가 자신의 목소리를 녹음하고, 녹음된 목소리를 MR반주와 믹싱 및 편집을 수행할 수 있는 플랫폼의 구현을 목적으로 한다.In order to solve the above problems, an object of the present invention is to implement a platform in which a user can record his/her own voice, and mix and edit the recorded voice with MR accompaniment.

구체적으로 플랫폼은 사용자가 자신의 목소리를 녹음하고, 이를 MR반주에 맞게 싱크나 마스터링값 등의 편집을 수행할 수 있는 인터페이스를 제공하게 된다.Specifically, the platform provides an interface that allows users to record their own voice and edit the sync or mastering values to match the MR accompaniment.

또한, 사용자가 매뉴얼을 통해 사용법을 숙지하지 않더라도, 인터페이스가 제공하는 UI의 형태만으로도 손쉽게 자신만의 음원을 생성 및 관리할 수 있도록 지원하는 것을 목적으로 한다. In addition, even if the user does not know how to use it through the manual, the purpose is to support the user to easily create and manage his/her own sound source only in the form of the UI provided by the interface.

또한, 사용자가 자신이 생성한 음원을 대중에게 공개하고 수익을 창출할 수 있는 플랫폼의 구현을 목적으로 한다.In addition, it aims to implement a platform where users can open their own music sources to the public and generate revenue.

상기와 같은 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른, 중앙 서버에 의해 수행되는, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법에 있어서, (a) 사용자 단말로부터 수신된 사용자 정보로 사용자 프로필을 생성하는 단계; (b) 사용자 단말로부터 음원제작 인터페이스에 의해 생성된 사용자 음원을 수신하면 사용자 프로필과 매칭하여 저장하는 단계; 및 (c) 서로 다른 사용자 단말로부터 수신된 복수의 사용자 단말을 통해 경연을 수행하는 단계;를 포함하고, 음원제작 인터페이스는 사용자 단말이 선택한 MR음원을 재생하고, 사용자의 보이스 정보를 수신한 후 MR음원과 사용자 보이스가 결합된 사용자 음원을 생성하는데 필요한 믹싱 및 마스터링 기능을 제공하며, 경연은 소정의 기간 동안 복수의 사용자 음원을 청취한 청취자로부터 선호도를 수신하여 순위를 결정하는 과정을 뜻할 수 있다.In the method of providing a user interface for generation and competition of a user sound source, performed by a central server, according to an embodiment of the present invention for achieving the above technical problem, (a) user information received from a user terminal creating a user profile with (b) receiving the user sound source generated by the sound source production interface from the user terminal, matching the user profile and storing; and (c) performing a contest through a plurality of user terminals received from different user terminals, wherein the sound source production interface plays the MR sound source selected by the user terminal, and after receiving the user's voice information, MR It provides mixing and mastering functions necessary to create a user sound source that combines sound sources and user voices, and a contest may refer to a process of determining a ranking by receiving preferences from listeners who have listened to a plurality of user sound sources for a predetermined period. .

또한, 사용자 프로필은 프로필 인터페이스에 의해 사용자 단말로 표시되되, 사용자의 사진, 업로드한 사용자 음원 및 팔로워/팔로잉의 숫자 중 적어도 하나가 표시될 수 있다.In addition, the user profile may be displayed on the user terminal by the profile interface, and at least one of a user's photo, an uploaded user sound source, and a number of followers/following may be displayed.

또한, 프로필 인터페이스는 사용자 음원을 리스트화 하여 표시하고, 각각의 사용자 음원에 대한 조회수 및 사용자 음원에 의한 수익을 표시할 수 있다.In addition, the profile interface may list and display user sound sources, and display the number of views for each user sound source and revenue by user sound sources.

또한, (a) 단계 이전에 사용자 정보를 수신하기 위한 설문 인터페이스가 사용자 단말로 제공되고, 설문 인터페이스는 기 설정된 질문에 대한 선택지를 제공하고, 선택된 선택지에 따라 사용자의 노래에 대한 성향을 분류할 수 있다.In addition, before step (a), a questionnaire interface for receiving user information is provided to the user terminal, and the questionnaire interface provides options for preset questions, and can classify the user's propensity for songs according to the selected options. have.

또한, 음원제작 인터페이스는 보이스 수신 인터페이스, 믹싱설정 인터페이스 및 마스터링설정 인터페이스로 구성될 수 있다.In addition, the sound source production interface may be composed of a voice receiving interface, a mixing setting interface, and a mastering setting interface.

또한, 보이스 수신 인터페이스는 사용자의 음성 혹은 동영상 중 적어도 하나를 수신하며, 보이스 수신 인터페이스의 제 1 영역에는 실시간으로 녹화 중인 영상 정보가 제공되고, 제 2 영역에는 보이스 정보에 대응되는 노래의 가사가 제공되고, 인터페이스의 제 3 영역에는 보이스 수신 인터페이스를 조작하기 위한 적어도 하나 이상의 버튼이 제공될 수 있다.In addition, the voice receiving interface receives at least one of a user's voice or a video, and a first area of the voice receiving interface provides video information being recorded in real time, and a second area provides lyrics of a song corresponding to the voice information. and at least one button for operating the voice reception interface may be provided in the third area of the interface.

또한, 믹싱설정 인터페이스는 MR음원 및 보이스 정보를 믹싱하기 위한 믹싱 조정값을 수정하되, 믹싱 조정값은 보컬 싱크값, 마스터 볼륨 옵션값 및 편집값 중 적어도 하나가 포함될 수 있다.In addition, the mixing setting interface modifies a mixing adjustment value for mixing the MR sound source and voice information, and the mixing adjustment value may include at least one of a vocal sync value, a master volume option value, and an edit value.

또한, 믹싱설정 인터페이스는 제 1 영역에 보컬 싱크값, 마스터 볼륨값 및 편집값 중 어느 하나를 선택하여 편집하기 위한 선택지가 제공되고, 제 2 영역에 MR음원 및 보이스 정보의 파형이 매핑되어 배치되고, MR음원과 보이스 정보의 싱크를 결정하기 위한 시간값을 시각적인 정보로 제공하고, 제 3 영역에 보컬 싱크값, 마스터 볼륨값 및 편집값 중 어느 하나를 조절하기 위한 적어도 하나 이상의 버튼이 제공될 수 있다.In addition, in the mixing setting interface, an option for selecting and editing any one of a vocal sync value, a master volume value, and an edit value is provided in the first area, and the waveforms of the MR sound source and voice information are mapped and arranged in the second area, , a time value for determining the synchronization of the MR sound source and voice information is provided as visual information, and at least one button for adjusting any one of a vocal sync value, a master volume value, and an edit value is provided in the third area can

또한, 마스터링설정 인터페이스는 MR음원 및 보이스 정보 중 저겅도 하나를 마스터링하기 위한 마스터링 조정값을 수정하되, 마스터링 조정값은 더블링, 컴프레서, 이퀄라이져, 리버브, 딜레이 및 리미터값 중 적어도 하나가 포함될 수 있다.In addition, the mastering setting interface modifies the mastering adjustment value for mastering one of the MR sound sources and voice information, but the mastering adjustment value is at least one of doubling, compressor, equalizer, reverb, delay and limiter values. may be included.

또한, 마스터링설정 인터페이스는 제 1 영역에 더블링, 컴프레서, 이퀄라이져, 리버브, 딜레이 및 리미터값 중 어느 하나를 선택하여 편집하기 위한 선택지가 제공되고, 제 2 영역에 사용자 음원의 파형이 배치되고, 편집될 구간의 위치를 시각적으로 제공하거나, 특정 구간을 선택할 수 있도록 제공하고, 제 3 영역에 더블링, 컴프레서, 이퀄라이져, 리버브, 딜레이 및 리미터값 중 어느 하나를 조절하기 위한 적어도 하나 이상의 버튼이 제공될 수 있다.In addition, in the mastering setting interface, an option for selecting and editing any one of doubling, compressor, equalizer, reverb, delay and limiter values is provided in the first area, and the waveform of the user's sound source is arranged in the second area, and editing At least one or more buttons may be provided to visually provide the position of the section to be set or to allow a specific section to be selected, and to adjust any one of doubling, compressor, equalizer, reverb, delay and limiter values in the third area. have.

또한, (c) 단계 이전에 청취자 단말로 사용자 음원의 제공 및 경연을 수행하기 위한 경연 인터페이스를 제공하되, 청취자 단말은 사용자 음원을 청취 및 평가하는 단말일 수 있다.In addition, before the step (c), the user terminal provides a user sound source and provides a contest interface for performing a contest, but the listener terminal may be a terminal for listening and evaluating the user sound source.

또한, 경연 인터페이스는 경연이 진행 중인 적어도 하나 이상의 사용자 음원의 리스트를 표시하고, 청취자 단말이 사용자 음원의 리스트에 포함된 특정 사용자 음원을 선택하면, 특정 사용자 음원의 곡 정보 및 스트리밍이 제공되되, 곡 정보는 사용자 프로필, 원곡의 명칭, 원곡의 가수명, 원곡 설명, 섬네일, 영상 정보 및 특정 사용자 음원에 부여된 선호도의 수치 중 적어도 하나가 포함될 수 있다.In addition, the contest interface displays a list of at least one or more user sound sources in which a contest is in progress, and when the listener terminal selects a specific user sound source included in the list of user sound sources, song information and streaming of the specific user sound source are provided, The information may include at least one of a user profile, a name of an original song, a singer's name of the original song, a description of the original song, a thumbnail, image information, and a value of preference given to a specific user's sound source.

또한, 소정의 기간 동안 각각의 사용자 음원이 청취자 단말로부터 획득한 선호도에 기초하여 우승 음원을 선정되면, 우승 음원은 소정의 기간 동안 경연 인터페이스에 표시되되, 사용자 단말로부터 사용자의 프로필 정보 및 코멘트를 수신하여, 사용자가 생성한 다른 사용자 음원 및 우승 횟수와 함께 표시할 수 있다.In addition, when the winning sound source is selected based on the preference obtained from the listener terminal for each user sound source for a predetermined period, the winning sound source is displayed on the contest interface for a predetermined period, and the user's profile information and comments are received from the user terminal Thus, it can be displayed together with other user sound sources and the number of wins generated by the user.

또한, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 장치에 있어서, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 프로그램이 저장된 메모리 및 메모리에 저장된 프로그램을 실행하여 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 프로세서를 포함하되, 프로세서는 사용자 단말로부터 수신된 사용자 정보로 사용자 프로필을 생성하고, 사용자 단말로부터 음원제작 인터페이스에 의해 생성된 사용자 음원을 수신하면 사용자 프로필과 매칭하여 저장하고, 서로 다른 사용자 단말로부터 수신된 복수의 사용자 단말을 통해 경연을 수행하고, 음원제작 인터페이스는 사용자 단말이 선택한 MR음원을 재생하고, 사용자의 보이스 정보를 수신한 후 MR음원과 사용자 보이스가 결합된 사용자 음원을 생성하는데 필요한 믹싱 및 마스터링 기능을 제공하며, 경연은 소정의 기간 동안 복수의 사용자 음원을 청취한 청취자로부터 선호도를 수신하여 순위를 결정하는 과정을 뜻하는 장치일 수 있다.In addition, in the apparatus for providing a user interface for generation and competition of a user sound source, a memory in which a user interface providing program for generation and competition of a user sound source is stored and a program stored in the memory are executed to create and compete a user sound source user interface Including a providing processor, the processor creates a user profile with the user information received from the user terminal, and when receiving the user sound source generated by the sound source production interface from the user terminal is matched with the user profile and stored, from different user terminals The contest is performed through a plurality of received user terminals, and the sound source production interface plays the MR sound source selected by the user terminal, and after receiving the user's voice information, mixing necessary to create a user sound source in which the MR sound source and the user voice are combined and a mastering function, and the contest may be a device which means a process of determining a ranking by receiving preferences from listeners who have listened to a plurality of user sound sources for a predetermined period.

또한, 제 1 항에 의한 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독가능 저장매체일 수 있다.In addition, it may be a computer-readable storage medium in which a program for performing the method of providing a user interface for creation and competition of a user sound source according to claim 1 is recorded.

본 발명의 일 실시예에 따라, 사용자가 자신의 목소리를 녹음하고, 녹음된 목소리를 MR반주와 믹싱 및 편집을 수행할 수 있는 플랫폼을 구현하게 된다.According to an embodiment of the present invention, a platform is implemented in which a user can record his/her own voice, and mix and edit the recorded voice with MR accompaniment.

구체적으로 플랫폼은 사용자가 자신의 목소리를 녹음하고, 이를 MR반주에 맞게 싱크나 마스터링값 등의 편집을 수행할 수 있는 인터페이스를 제공하게 된다.Specifically, the platform provides an interface that allows users to record their own voice and edit the sync or mastering values to match the MR accompaniment.

또한, 사용자가 매뉴얼을 통해 사용법을 숙지하지 않더라도, 인터페이스가 제공하는 UI의 형태만으로도 손쉽게 자신만의 음원을 생성 및 관리할 수 있게 된다. In addition, even if the user is not familiar with the usage through the manual, it is possible to easily create and manage his/her own sound source only in the form of the UI provided by the interface.

또한, 사용자가 자신이 생성한 음원을 대중에게 공개하고, 수익을 창출할 수 있게 된다.In addition, the user can open the sound source created by the user to the public and generate revenue.

도 1은 본 발명의 일 실시예에 따른, 음원의 생성 및 수익을 창출하는 플랫폼을 구현하기 위한 시스템의 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른, 플랫폼을 제공하는 중앙 서버(100)의 구성을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른, 음원의 생성 및 경연을 진행되는 과정을 나타낸 동작흐름도이다.
도 4는 본 발명의 일 실시예에 따른, 사용자 음원을 제작하는 과정을 나타낸 동작흐름도이다.
도 5는 본 발명의 일 실시예에 따른, AI기반으로 음원을 믹싱하는 과정을 나타낸 동작흐름도이다.
도 6은 본 발명의 일 실시예에 따른, 플랫폼이 제공하는 인터페이스를 통해 음원의 믹싱 및 경연을 진행하는 과정을 나타낸 동작 흐름도이다.
도 7은 본 발명의 일 실시예에 따른, 음원을 통한 수익 창출 및 수익이 분배되는 과정을 나타낸 동작흐름도이다.
도 8 내지 도 13은 본 발명의 일 실시예에 따른, 플랫폼 인터페이스의 예시를 나타낸 도면이다.
1 is a diagram showing the configuration of a system for implementing a platform for generating a sound source and generating revenue, according to an embodiment of the present invention.
2 is a diagram showing the configuration of a central server 100 that provides a platform according to an embodiment of the present invention.
3 is an operation flowchart illustrating a process of generating a sound source and performing a contest according to an embodiment of the present invention.
4 is an operation flowchart illustrating a process of producing a user sound source according to an embodiment of the present invention.
5 is an operation flowchart illustrating a process of mixing a sound source based on AI, according to an embodiment of the present invention.
6 is an operation flowchart illustrating a process of mixing and contesting a sound source through an interface provided by a platform according to an embodiment of the present invention.
7 is an operation flowchart illustrating a process of generating revenue and distributing revenue through a sound source, according to an embodiment of the present invention.
8 to 13 are diagrams illustrating examples of a platform interface according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is "connected" with another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element interposed therebetween. . Also, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated, and one or more other features However, it is to be understood that the existence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded in advance.

이하의 실시예는 본 발명의 이해를 돕기 위한 상세한 설명이며, 본 발명의 권리 범위를 제한하는 것이 아니다. 따라서 본 발명과 동일한 기능을 수행하는 동일 범위의 발명 역시 본 발명의 권리 범위에 속할 것이다.The following examples are detailed descriptions to help the understanding of the present invention, and do not limit the scope of the present invention. Accordingly, an invention of the same scope performing the same function as the present invention will also fall within the scope of the present invention.

본 발명에서 구현하고자 하는 플랫폼은 사용자가 MR음원을 선택하고 그에 대한 노래를 부르는 경우 이를 AI알고리즘을 통해 결합하거나, 커스텀 음원 조정값을 적용하여 결합하여 고유의 사용자 음원을 생성하게 된다.The platform to be implemented in the present invention creates a unique user sound source by combining it through an AI algorithm when a user selects an MR sound source and sings a song about it, or by applying a custom sound source adjustment value.

또한, 본 발명에서 구현하고자 하는 플랫폼은 사용자 음원의 생성뿐만 아니라, 이를 외부에 공개하여 다른 사용자 음원과 경쟁하거나 수익을 창출하여 분배하는 역할까지 수행하게 된다.In addition, the platform to be implemented in the present invention not only generates a user sound source, but also opens it to the outside to compete with other user sound sources or to generate and distribute revenue.

이하의 본 명세서에서 음원이란 사운드 혹은 영상 중 적어도 하나를 포함하는 전자 파일을 뜻한다.Hereinafter, in the present specification, a sound source refers to an electronic file including at least one of a sound or an image.

또한, 본 명세서에서 MR음원(music recorded, 혹은 instrumental track)은 특정 가수들의 음원에 목소리만 제외한 사운드 파일을 뜻한다. 통상적으로 소리로만 이루어지나, 실시예에 따라 시각정보가 더 포함될 수 있다. 이때, MR음원은 창작곡이나 기성곡일 수 있으며, 기성곡인 경우 원저작자의 허락에 의해 2차 창작이 가능한 음원에 해당된다.Also, in the present specification, an MR sound source (music recorded, or instrumental track) refers to a sound file except for voices in the sound sources of specific singers. In general, only sound is provided, but according to embodiments, visual information may be further included. In this case, the MR sound source may be a creative song or a ready-made song, and in the case of a ready-made song, it corresponds to a sound source that can be created secondary with the permission of the original author.

또한, 본 명세서에서 보이스 정보는 플랫폼을 통한 서비스를 이용하는 사용자가 자신의 단말을 통해 생성하는 음성 정보이다. 즉, 상기 MR음원에 대응되는 노래(이는 노래 가사)를 단말을 통해 녹음한 정보에 대응된다. 이때, 보이스 정보는 실시예에 따라 사운드에만 한정되는 것이 아닌 동영상의 형태로 생성될 수도 있다.Also, in the present specification, voice information is voice information generated by a user using a service through a platform through his/her terminal. That is, it corresponds to the information recorded through the terminal of the song (the song lyrics) corresponding to the MR sound source. In this case, the voice information may be generated in the form of a moving picture, rather than being limited only to sound, according to an embodiment.

또한, 본 명세서에서 개시하는 기술에는 MR음원과 보이스 정보를 결합한다. 이때, MR음원과 보이스 정보를 믹싱하여 사용자 음원을 생성하고, 사용자 음원에 대한 믹싱 조건을 재설정하여 사용자 음원을 조정한 후 마스터링 작업을 수행하게 된다. 즉, 본 명세서에서 "MR음원과 보이스 정보의 결합"은 MR음원과 보이스 정보를 믹싱하고, 마스터링 작업을 수행했음을 포함한다.In addition, the technology disclosed in this specification combines the MR sound source and voice information. At this time, a user sound source is created by mixing the MR sound source and voice information, and the user sound source is adjusted by resetting the mixing conditions for the user sound source, and then the mastering operation is performed. That is, in this specification, "combination of MR sound source and voice information" includes mixing the MR sound source and voice information and performing a mastering operation.

도 1은 본 발명의 일 실시예에 따른, 음원의 생성 및 수익을 창출하는 플랫폼을 구현하기 위한 시스템의 구성을 나타낸 도면이다.1 is a diagram showing the configuration of a system for implementing a platform for generating a sound source and generating revenue, according to an embodiment of the present invention.

도 1을 참조하면, 시스템은 중앙 서버(100), 복수의 사용자 단말(200) 및 유통사 서버(300)로 구성될 수 있다. 이때, 도면상에 도시되지 않았으나, 각 장치는 통신망을 통해 유선 또는 무선으로 상호 연결될 수 있다.Referring to FIG. 1 , the system may include a central server 100 , a plurality of user terminals 200 , and a distributor server 300 . At this time, although not shown in the drawing, each device may be interconnected by wire or wirelessly through a communication network.

본 발명의 일 실시예에 따라, 중앙 서버(100)는 사용자 단말(200)로부터 수신한 사용자 정보를 저장하고, 이후 사용자 단말(200)이 음원제작 인터페이스를 통해 생성한 사용자 음원을 수신하면, 먼저 저장한 사용자 정보와 매칭하여 저장하게 된다.According to an embodiment of the present invention, the central server 100 stores the user information received from the user terminal 200, and then, when the user terminal 200 receives the user sound source generated through the sound source production interface, first The stored user information is matched and stored.

이후, 중앙 서버(100)는 복수의 사용자 단말(200)로부터 수신된 사용자 음원을 통해 경연을 수행하고, 우승한 사용자 음원을 유통사 서버(300)로 제공하여 수익을 창출하는 것을 특징으로 한다.Thereafter, the central server 100 performs a contest through the user sound source received from the plurality of user terminals 200 , and provides the winning user sound source to the distributor server 300 to generate revenue.

이때, 사용자 단말(200)은 중앙 서버(100)로부터 수신한 MR음원과 사용자가 녹음한 보이스 정보를 음원제작 인터페이스를 통해 결합하여 사용자 음원을 생성한다.At this time, the user terminal 200 generates a user sound source by combining the MR sound source received from the central server 100 and the voice information recorded by the user through the sound source production interface.

이때, 음원제작 인터페이스는 사용자 단말(200)이 중앙 서버(100)로부터 선택하여 수신한 MR음원을 재생하고, 사용자의 보이스 정보를 수신한 후 MR음원과 보이스 정보가 결합된 사용자 음원에 대해 믹싱 및 마스터링 기능을 제공하는 인터페이스를 뜻한다.At this time, the sound source production interface reproduces the MR sound source selected by the user terminal 200 from the central server 100, receives the user's voice information, and mixes and An interface that provides a mastering function.

한편, 플랫폼은 AI믹싱 알고리즘을 제공할 수 있다. 구체적으로 AI믹싱 알고리즘은 기 저장된 음원 조정값(이는 믹싱 조정값 및 마스터링 조정값이 포함될 수 있다.)에 따라 MR음원과 음성을 결합하게 된다. 따라서, 사용자가 앞서 설명한 음원제작 인터페이스를 통해 믹싱 및 마스터링 작업을 생략하게 된다.On the other hand, the platform may provide an AI mixing algorithm. Specifically, the AI mixing algorithm combines the MR sound source and the voice according to the pre-stored sound source adjustment value (which may include a mixing adjustment value and a mastering adjustment value). Accordingly, the user omits the mixing and mastering work through the sound source production interface described above.

또한, 경연은 소정의 기간 동안 복수의 상기 사용자 음원을 청취한 청취자로부터 선호도를 수신하여 순위를 결정하는 과정을 뜻하게 된다. 이때, 특정 사용자의 사용자 음원이 경연에서 승리하면, 중앙 서버(100)를 통해 유통사 서버(300)는 우승한 사용자 음원을 제공한다. 또한, 유튜브 같은 플랫폼 서버로도 사용자 음원을 제공할 수 있다. 이후, 유통사 서버(300)가 사용자 음원을 통해 얻게 되는 수익의 일정 비율을 중앙 서버(100)의 서비스 주체 및 사용자 단말(200)의 생산자가 가지게 된다.In addition, the contest refers to a process of determining a ranking by receiving preferences from listeners who have listened to the plurality of user sound sources for a predetermined period. At this time, if the user sound source of a specific user wins the contest, the distributor server 300 provides the winning user sound source through the central server 100 . In addition, a platform server such as YouTube can provide user music. Thereafter, the service principal of the central server 100 and the producer of the user terminal 200 have a certain percentage of the revenue that the distributor server 300 obtains through the user sound source.

이때, 사용자 단말(200)이 서비스를 이용하기 위한 플랫폼 애플리케이션은 사용자 단말(200)에 내장된 애플리케이션이거나, 애플리케이션 배포 서버로부터 다운로드되어 사용자 단말(200)에 설치된 애플리케이션일 수 있다.In this case, the platform application for the user terminal 200 to use the service may be an application built into the user terminal 200 or an application downloaded from an application distribution server and installed in the user terminal 200 .

한편, 사용자 단말(200)은 유무선 통신 환경에서 단말 애플리케이션을 이용할 수 있는 통신 단말기를 의미한다. 여기서 사용자 단말(200)은 사용자의 휴대용 단말기일 수 있다. 도 1에서는 사용자 단말(200)이 휴대용 단말기의 일종인 스마트폰(smart phone)으로 도시되었지만, 본 발명의 사상은 이에 제한되지 아니하며, 상술한 바와 같이 단말 애플리케이션을 탑재할 수 있는 단말에 대해서 제한 없이 차용될 수 있다.Meanwhile, the user terminal 200 refers to a communication terminal capable of using a terminal application in a wired/wireless communication environment. Here, the user terminal 200 may be a user's portable terminal. In FIG. 1, the user terminal 200 is illustrated as a smart phone, which is a type of a portable terminal, but the spirit of the present invention is not limited thereto. can be borrowed

이를 더욱 상세히 설명하면, 사용자 단말(200)은 핸드헬드 컴퓨팅 디바이스(예를 들면, PDA, 이메일 클라이언트 등), 핸드폰의 임의의 형태, 또는 다른 종류의 컴퓨팅 또는 커뮤니케이션 플랫폼의 임의의 형태를 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다.More specifically, user terminal 200 may include a handheld computing device (eg, PDA, email client, etc.), any form of a mobile phone, or any other type of computing or communication platform. However, the present invention is not limited thereto.

한편, 통신망은 사용자 단말(200)이 중앙 서버(100) 혹은 유통사 서버(300)에 접속(이는 반대의 경우로 차용될 수 있다.)한 후 데이터를 송수신할 수 있도록 접속 경로를 제공하는 통신망을 의미한다. 통신망은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.On the other hand, the communication network is a communication network that provides a connection path so that the user terminal 200 can transmit and receive data after accessing the central server 100 or the distributor server 300 (this can be borrowed in the opposite case). it means. The communication network is, for example, wired networks such as LANs (Local Area Networks), WANs (Wide Area Networks), MANs (Metropolitan Area Networks), ISDNs (Integrated Service Digital Networks), etc., or wireless networks such as wireless LANs, CDMA, Bluetooth, and satellite communication. However, the scope of the present invention is not limited thereto.

도 2는 본 발명의 일 실시예에 따른, 플랫폼을 제공하는 중앙 서버(100)의 구성을 나타낸 도면이다.2 is a diagram showing the configuration of a central server 100 that provides a platform according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 중앙 서버(100)는 통신 모듈(101), 메모리(102), 프로세서(103) 및 데이터베이스(104)를 포함한다.Referring to FIG. 2 , the central server 100 according to an embodiment of the present invention includes a communication module 101 , a memory 102 , a processor 103 , and a database 104 .

상세히, 통신 모듈(101)은 통신망과 연동하여 중앙 서버(100), 사용자 단말(200) 및 유통사 서버(300) 간의 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공한다. 나아가, 통신 모듈(101)은 사용자 단말(200)로부터 데이터 요청을 수신하고, 이에 대한 응답으로서 데이터를 송신하는 역할을 수행할 수 있다.In detail, the communication module 101 provides a communication interface necessary to provide a transmission/reception signal between the central server 100 , the user terminal 200 and the distribution company server 300 in the form of packet data by interworking with the communication network. Furthermore, the communication module 101 may perform a role of receiving a data request from the user terminal 200 and transmitting data in response thereto.

여기서, 통신 모듈(101)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. Here, the communication module 101 may be a device including hardware and software necessary for transmitting and receiving signals such as control signals or data signals through wired/wireless connection with other network devices.

메모리(102)는 플랫폼이 동작되기 위한 프로그램이 기록된다. 또한, 프로세서(103)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 여기서, 메모리(102)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.In the memory 102, a program for operating the platform is recorded. In addition, the processor 103 performs a function of temporarily or permanently storing the processed data. Here, the memory 102 may include magnetic storage media or flash storage media, but the scope of the present invention is not limited thereto.

프로세서(103)는 일종의 중앙처리장치로서 플랫폼이 동작하는 전체 과정을 제어한다. 프로세서(103)가 수행하는 각 단계에 대해서는 도 3 내지 도 7을 참조하여 후술하기로 한다.The processor 103 is a kind of central processing unit and controls the entire process of operating the platform. Each step performed by the processor 103 will be described later with reference to FIGS. 3 to 7 .

여기서, 프로세서(103)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Here, the processor 103 may include all kinds of devices capable of processing data, such as a processor. Here, the 'processor' may refer to a data processing device embedded in hardware, for example, having a physically structured circuit to perform a function expressed as a code or an instruction included in a program. As an example of the data processing device embedded in the hardware as described above, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated (ASIC) circuit) and a processing device such as a field programmable gate array (FPGA), but the scope of the present invention is not limited thereto.

데이터베이스(104)는 사용자 단말(200)로 제공될 MR음원(이는 경우에 따라 일반 음원도 포함될 수 있다.), 사용자 단말(200)로부터 수신된 보이스 정보 및 사용자 음원에 대한 데이터가 저장된다. 또한, 각각의 MR음원에 대응되는 음원 조정값과 AI알고리즘 등이 저장될 수 있다.The database 104 stores the MR sound source to be provided to the user terminal 200 (which may also include a general sound source in some cases), voice information received from the user terminal 200, and data about the user sound source. In addition, a sound source adjustment value and an AI algorithm corresponding to each MR sound source may be stored.

이때, 음원 조정값은 상기 MR음원과 사용자의 음성을 결합하는 과정에서 필요한 믹싱 조정값에 대응될 수 있는데, 예를 들면 싱크값, EQ값 등이 해당될 수 있다. In this case, the sound source adjustment value may correspond to a mixing adjustment value required in the process of combining the MR sound source and the user's voice, for example, a sync value and an EQ value.

비록 도 2에는 도시하지 아니하였으나, MR음원, 보이스 정보, 사용자 음원 및 음원 조정값에 대한 데이터 중 일부는 데이터베이스(104)와 물리적 또는 개념적으로 분리된 데이터베이스(미도시)에 저장될 수 있다. 즉, 선택적 실시예로 데이터베이스(104)가 생략되어, 사용자 단말(200)에 구비되는 데이터 베이스로부터 필요한 데이터를 수신하여 이용할 수도 있다.Although not shown in FIG. 2 , some of the data for the MR sound source, voice information, user sound source, and sound source adjustment value may be stored in a database (not shown) physically or conceptually separated from the database 104 . That is, in an optional embodiment, the database 104 may be omitted, and necessary data may be received and used from the database provided in the user terminal 200 .

도 3은 본 발명의 일 실시예에 따른, 음원의 생성 및 경연을 진행되는 과정을 나타낸 동작흐름도이다.3 is an operation flowchart illustrating a process of generating a sound source and performing a contest according to an embodiment of the present invention.

도 3을 참조하면, 중앙 서버(100)는 사용자 단말(200)로부터 수신된 사용자 정보 및 사용자 음원을 저장한다(S110).Referring to FIG. 3 , the central server 100 stores user information and a user sound source received from the user terminal 200 ( S110 ).

구체적으로 중앙 서버(100)는 사전에 사용자 정보를 저장하고, 추후 사용자 단말(200)로부터 음원제작 인터페이스에 의해 생성된 사용자 음원을 수신하게 되면, 사용자 정보와 매칭하여 저장하게 된다.Specifically, the central server 100 stores user information in advance, and when a user sound source generated by the sound source production interface is received from the user terminal 200 later, it is matched with the user information and stored.

이때, 중앙 서버(100)는 사용자 단말(200)로 프로필 인터페이스를 제공하게 된다. 프로필 인터페이스는 사용자 정보, 사용자 음원 및 팔로워/팔로잉의 숫자 중 적어도 하나가 표시될 수 있다.At this time, the central server 100 provides the profile interface to the user terminal 200 . In the profile interface, at least one of user information, a user sound source, and a number of followers/following may be displayed.

또한, 특정 사용자 단말(200)에 대응되는 사용자 음원이 복수로 존재하면, 이를 리스트화하여 표시할 수 있다. 이때, 리스트에 포함된 각각의 사용자 음원에 대한 조회수 및 유통사 서버(300)에 의해 창출된 수익을 더 표시하게 된다.In addition, if a plurality of user sound sources corresponding to the specific user terminal 200 exist, they may be listed and displayed. At this time, the number of hits for each user sound source included in the list and the revenue generated by the distributor server 300 are further displayed.

이때, 단계(S110)에서 개시된 사용자 단말(200)이 음원제작 인터페이스를 통해 사용자 음원을 생성하는 과정은 후술할 도 4를 통해 구체적으로 설명하도록 한다.In this case, the process of generating the user sound source by the user terminal 200 initiated in step S110 through the sound source production interface will be described in detail with reference to FIG. 4 to be described later.

다음으로 중앙 서버(100)는 서로 다른 사용자 단말(200)로부터 수신된 사용자 음원을 통해 경연을 수행한다(S120).Next, the central server 100 performs a contest through user sound sources received from different user terminals 200 (S120).

단계(S120) 이전에 중앙 서버(100)는 청취자 단말로 사용자 음원의 제공 및 경연을 수행하기 위한 경연 인터페이스를 제공하게 된다.Before the step (S120), the central server 100 provides the user's sound source to the listener terminal and provides a contest interface for performing the contest.

이때, 청취자 단말이란 사용자 음원을 청취하거나 평가하는 단말을 뜻하게 된다. 즉, 플랫폼의 서비스를 이용하게 되는 사용자에 대응될 수 있기에, 넓은 의미로 사용자 단말(200)도 청취자 단말에 포함될 수 있다.In this case, the listener terminal means a terminal that listens to or evaluates a user sound source. That is, since it can correspond to a user who will use the service of the platform, the user terminal 200 may also be included in the listener terminal in a broad sense.

또한, 중앙 서버(100)는 경연 인터페이스를 통해 사용자 음원을 수신한 청취자 단말이 특정 사용자 음원에 선호도를 부여하면, 소정의 기간 동안 복수의 사용자 음원이 획득한 선호도에 기초하여 우승 음원을 선별하게 된다.In addition, the central server 100 selects the winning sound source based on the preference acquired by a plurality of user sound sources for a predetermined period when the listener terminal receiving the user sound source through the contest interface gives preference to a specific user sound source. .

마지막으로 중앙 서버(100)는 우승한 사용자 음원을 유통사 서버(300)로 제공하고, 유통사 서버(300)는 수익 창출 및 분배를 수행한다(S130).Finally, the central server 100 provides the winning user sound source to the distributor server 300 , and the distributor server 300 performs revenue generation and distribution ( S130 ).

이때, 유통사 서버(300)가 우승 음원을 기초로 수익을 창출하여, 수익의 기 설정된 비율을 중앙 서버(100)의 서비스 주체 및 사용자 단말(200)의 창작자에게 제공하게 된다.At this time, the distribution company server 300 generates revenue based on the winning sound source, and provides a preset ratio of revenue to the service subject of the central server 100 and the creator of the user terminal 200 .

도 4는 본 발명의 일 실시예에 따른, 사용자 음원을 제작하는 과정을 나타낸 동작흐름도이다.4 is an operation flowchart illustrating a process of producing a user sound source according to an embodiment of the present invention.

도 4를 참고하면, 중앙 서버(100)는 사용자 단말(200)의 요청에 따라 MR음원을 제공한다(S210).Referring to FIG. 4 , the central server 100 provides the MR sound source according to the request of the user terminal 200 ( S210 ).

단계(S210) 이전에, 중앙 서버(100)는 보유한 MR음원에 대한 리스트를 사용자 단말(200)로 제공하고, 사용자 단말(200)이 특정 MR음원을 선택하면 특정 MR음원을 제공하게 된다.Before step S210 , the central server 100 provides a list of the MR sound sources it possesses to the user terminal 200 , and when the user terminal 200 selects a specific MR sound source, it provides a specific MR sound source.

다음으로 사용자 단말(200)이 음원제작 인터페이스를 통해 MR음원 및 사용자의 보이스 정보를 포함하는 음원을 결합하여 사용자 음원을 생성한다(S220).Next, the user terminal 200 generates a user sound source by combining the sound source including the MR sound source and the user's voice information through the sound source production interface (S220).

단계(S220) 이전에 중앙 서버(100)는 사용자 단말(200)로 보이스 수신 인터페이스를 제공하여, 사용자 단말(200)로부터 보이스 정보를 수신하게 된다. 이때, 보이스 수신 인터페이스는 단순히 음성 정보만을 수신할 수도 있고, 필요에 따라 카메라를 통한 동영상의 형태로 보이스 정보를 수신할 수도 있다. Before step S220 , the central server 100 provides a voice reception interface to the user terminal 200 to receive voice information from the user terminal 200 . In this case, the voice receiving interface may simply receive voice information or, if necessary, may receive voice information in the form of a video through a camera.

또한, 단계(S220)에서 중앙 서버(100)는 음원제작 인터페이스를 통해 상기 사용자 음원에 포함될 보이스 정보에 대한 믹싱 및 마스터링을 위한 인터페이스를 제공하게 된다.In addition, in step S220, the central server 100 provides an interface for mixing and mastering voice information to be included in the user sound source through the sound source production interface.

또한, 사용자 단말(200)은 사용자로부터 커스텀 음원 조정값을 수신하면 커스텀 음원 조정값에 기초하여 사용자 음원의 보이스 정보에 대한 믹싱 및 마스터링을 수행하게 된다.In addition, when receiving the custom sound source adjustment value from the user, the user terminal 200 performs mixing and mastering of the voice information of the user sound source based on the custom sound source adjustment value.

이때, 커스텀 음원 조정값은 믹싱 조정값과 마스터링 조정값을 포함할 수 있다. 구체적으로 믹싱 조정값은 보컬 싱크값, 마스터 볼륨값 및 편집값 중 적어도 하나가 포함될 수 있다. 또한, 마스터링 조정값은 더블링, 컴프레서, 이퀄라이져, 리버브, 딜레이 및 리미터값 중 적어도 하나가 포함될 수 있다.In this case, the custom sound source adjustment value may include a mixing adjustment value and a mastering adjustment value. Specifically, the mixing adjustment value may include at least one of a vocal sync value, a master volume value, and an edit value. Also, the mastering adjustment value may include at least one of doubling, compressor, equalizer, reverb, delay, and limiter values.

예를 들어, 보컬 싱크값은 상기 보이스 정보의 재생 시간을 변경하여 싱크를 수정하는 값에 대응될 수 있다. 또한, 마스터 볼륨값은 보이스 정보의 소정의 구간 별 볼륨을 각각 조절하고, 편집 옵션값은 상기 보이스 정보의 소정의 구간을 반복 녹음하거나 삭제하는 값에 대응될 수 있다.For example, the vocal sync value may correspond to a value for correcting the sync by changing the reproduction time of the voice information. In addition, the master volume value may adjust the volume for each predetermined section of the voice information, and the edit option value may correspond to a value for repeatedly recording or deleting a predetermined section of the voice information.

선택적 실시예로, 중앙 서버(100)는 사용자의 다른 단말(예를 들면, 데스크탑, 노트북 등)로부터 생성된 보이스 정보를 수신하여 저장할 수 있다. 이후 사용자 단말(200)-앞서 개시한 다른 단말과는 전혀 다른 단말-의 요청에 따라 보이스 정보를 제공할 수 있다. 즉, 사용자가 데스크탑으로 자신의 노래를 녹화하여 보이스 정보를 생성하여 중앙 서버(100)로 업로드하고, 사용자는 추후 중앙 서버(100)에 업로드 된 보이스 정보를 스마트폰으로 다운로드하여 편집을 수행할 수 있게 된다.In an optional embodiment, the central server 100 may receive and store the voice information generated from the user's other terminals (eg, desktop, notebook, etc.). Thereafter, voice information may be provided according to a request of the user terminal 200 - a terminal completely different from the other terminals disclosed above. That is, the user records his or her song on the desktop, creates voice information and uploads it to the central server 100, and the user later downloads the voice information uploaded to the central server 100 to the smartphone to perform editing. there will be

마지막으로 중앙 서버(100)가 사용자 단말(200)로부터 사용자 음원을 수신한다(S230).Finally, the central server 100 receives the user sound source from the user terminal 200 (S230).

선택적 실시예로, 단계(S210)에서 사용자 단말(200)이 수신하게 되는 MR음원은 기 설정된 음원 조정값이 매칭되어 저장될 수 있다.In an optional embodiment, the MR sound source received by the user terminal 200 in step S210 may be stored by matching a preset sound source adjustment value.

이러한 경우, 단계(S220)에서 진행되는 과정은 AI믹싱 알고리즘과 음원 조정값에 따라 MR음원 및 보이스 정보를 자동으로 결합될 수도 있다.In this case, the process performed in step S220 may automatically combine the MR sound source and voice information according to the AI mixing algorithm and the sound source adjustment value.

상기의 실시예의 구체적인 설명은 후술할 도 5를 통해 수행하도록 한다.A detailed description of the above embodiment will be performed with reference to FIG. 5 to be described later.

도 5는 본 발명의 일 실시예에 따른, AI기반으로 음원을 믹싱하는 과정을 나타낸 동작흐름도이다.5 is an operation flowchart illustrating a process of mixing a sound source based on AI, according to an embodiment of the present invention.

도 5를 참조하면, 사용자 단말(200)은 사용자로부터 보이스 정보를 수신한다(S310).Referring to FIG. 5 , the user terminal 200 receives voice information from the user ( S310 ).

이때, 앞서 설명한 바와 같이, 보이스 정보는 사용자가 직접 발성하여 생성한 음성 혹은 노래가 녹음된 정보를 뜻하게 된다.In this case, as described above, the voice information refers to information in which a voice or song generated by the user's own voice is recorded.

단계(S310) 에서, 사용자 단말(200)은 사용자의 보이스 정보를 수집한 후, 해당 보이스 정보에서 저음, 중음, 및 고음을 추출할 수 있다. 또는, 추가 실시예로, 사용자 단말(200)은 사용자에게 기 설정된 MR음원을 제공하고, 사용자가 MR음원을 통해 노래를 따라 부르도록 유도하여 각 저음, 중음, 고음 별로 보이스 정보를 수신할 수도 있다.In step S310 , the user terminal 200 may collect the user's voice information and then extract the low tone, the middle tone, and the high tone from the corresponding voice information. Alternatively, as an additional embodiment, the user terminal 200 may provide the user with a preset MR sound source and induce the user to sing along to the song through the MR sound source to receive voice information for each bass, middle, and treble. .

이후, 사용자 단말(200)은 보이스 정보에 대한 성별을 구분할 수 있다. Thereafter, the user terminal 200 may classify the gender of the voice information.

다음으로 사용자 단말(200)은 해당 성별 내에서의 보이스 정보와 유사한 비교 가수를 선정한다(S320).Next, the user terminal 200 selects a comparison singer similar to voice information within the corresponding gender (S320).

구체적으로 사용자 단말(200)은 보이스 정보와 기 저장된 적어도 하나 이상의 상기 비교 가수의 가수 보이스 정보와 비교하게 된다. 이때, 보이스 정보의 장르, 음색 및 높낮이 중 적어도 하나에 기초하여 상기 가수 보이스 정보와의 유사도를 산출하게 된다. 이때, 가수 보이스 정보란 실제 가수가 자신의 MR음원에 맞게 부른 노래의 육성 정보를 뜻한다.Specifically, the user terminal 200 compares the voice information with the previously stored singer voice information of at least one or more of the comparison singers. In this case, the similarity with the singer's voice information is calculated based on at least one of a genre, a tone, and a pitch of the voice information. In this case, the singer voice information refers to information on the upbringing of a song sung by an actual singer according to their MR sound source.

첫 번째로 장르에 기초하여 비교 가수를 선정하는 방법은 아래와 같다.First, the method of selecting a comparative singer based on the genre is as follows.

또한, 가수 보이스 정보의 각 장르마다 기 설정된 장르 정보가 부여되어 있는 경우, 사용자로부터 기 수신된 선호 장르 정보 또는 보이스 정보에 대응되는 장르 정보 중 어느 하나를 기준으로 사용자와 연관된 장르 정보를 수치화하게 된다. 또는, 사용자 단말(200)은 사용자로부터 기 수신된 선호 장르 정보(즉, 프로필 정보 입력단계에서 선호하는 장르로 입력한 값)를 참고하여 장르 정보를 수치화 할 수도 있다. In addition, when preset genre information is given to each genre of singer voice information, genre information associated with the user is digitized based on either preferred genre information received from the user or genre information corresponding to the voice information. . Alternatively, the user terminal 200 may digitize the genre information by referring to the preferred genre information previously received from the user (ie, a value input as a preferred genre in the profile information input step).

이후, 사용자 단말(200)은 가수 보이스 정보에 부여된 각각의 상기 장르 정보를 수치화 하여, 사용자의 장르 정보와 비교함으로써 비교 가수를 선택하게 된다. 예를 들면, 각 가수 별로 해당 가수가 보유한 곡들의 장르들을 식별한 후, 해당 장르에 대한 점수를 수치화한 후 평균한다면 해당 가수의 대표 장르값을 수치화 할 수 있다. 여기서, 사용자 단말(200)은 사용자의 장르 정보와 비교 가수의 장르 정보를 서로 비교함으로써, 가장 비교값이 적은 비교가수를 선택할 수 있다.Thereafter, the user terminal 200 digitizes each genre information given to the singer's voice information, and compares it with the user's genre information to select a comparison singer. For example, if genres of songs owned by a corresponding singer are identified for each singer, the scores for the corresponding genre are digitized, and then averaged, the representative genre value of the corresponding singer can be quantified. Here, the user terminal 200 may select the comparison singer with the smallest comparison value by comparing the genre information of the user with the genre information of the comparison singer.

두 번째로 음색에 기초하여 비교 가수를 선정하는 방법은 아래와 같다.Second, the method of selecting a comparative singer based on the tone is as follows.

사용자 단말(200)은 보이스 정보의 음색을 수치화하고, 비교 가수의 가수 보이스 정보에 포함된 음색값과 비교하여 차이가 가장 낮은 비교 가수를 선택하게 된다. 예를 들면, 허스키 음색, 부드러운 음색, 거친 음색 등 각 음색을 정의한 후, 해당 음색 별로 수치화를 수행할 수 있다. 이는 종래의 음색 수치화 프로그램을 통해 수치화될 수 있다. The user terminal 200 digitizes the timbre of the voice information, and selects the comparative singer having the lowest difference compared with the timbre value included in the singer's voice information of the comparative singer. For example, after defining each tone, such as a husky tone, a soft tone, and a rough tone, numerical value may be performed for each tone. This can be quantified through a conventional timbre digitization program.

세 번째로, 높낮이에 기초하여 비교 가수를 선정하는 방법은 아래와 같다.Third, the method of selecting a comparative singer based on the height is as follows.

사용자 단말(200)은 보이스 정보의 높낮이를 수치화하고, 상기 비교 가수의 가수 보이스 정보에 포함된 높낮이값과 비교하여 차이가 가장 낮은 상기 비교 가수를 선택하게 된다. 이때 높낮이 값은 하나의 가수 보이스 정보 내에서 표현되는 복수의 음의 높낮이들의 평균값일 수 있다. The user terminal 200 digitizes the height of the voice information, and selects the comparison singer having the lowest difference compared with the height value included in the singer voice information of the comparison singer. In this case, the pitch value may be an average value of the pitches of a plurality of sounds expressed in one singer voice information.

상술한 음색, 장르, 높낮이 중 적어도 하나의 수치를 기준으로 비교 가수를 선택할 수 있다. 만약 음색을 기준으로 예를 든다면, 사용자의 음색 수치와 가장 차이값이 적은 비교 가수를 적어도 3개 이상 선정하고, 차이값 별로 정렬할 수 있다. 이러한 방식으로 각 장르, 높낮이에 대해서도 동일한 방법을 수행할 수 있고, 이 중 음색, 장르, 높낮이 모두를 고려했을 때, 사용자의 수치와 가장 차이가 적은 비교가수를 선정할 수도 있다. 혹은, 3개 분야 중 어느 하나의 수치에 대해 가중치를 적용한 후, 비교가수를 선정할 수도 있다. 예를 들면, 장르, 높낮이에 대해서는 A가수가 도출되었으나, 음색부분에서 가장 차이값이 적은 가수가 B이고, 음색에 대한 가중치를 두게 된다면, 비교가수는 B로 선정될 수 있다. The comparison singer may be selected based on at least one of the above-described tone, genre, and pitch. If an example is given based on tone, at least three comparative singers with the smallest difference value from the user's tone value may be selected and sorted by difference value. In this way, the same method can be performed for each genre and pitch, and a comparison singer with the smallest difference from the user's number can be selected when all of the tone, genre, and pitch are considered. Alternatively, a comparison singer may be selected after applying a weight to any one of the three fields. For example, if singer A is derived for genre and pitch, but the singer with the smallest difference value in the tone part is B, and if weight is given for tone, the comparative singer may be selected as B.

또한, 사용자 단말(200)은 비교 가수의 선정 결과에 기초하여 보이스 정보의 카테고리를 분류하게 된다. 이후, 사용자 단말(200)은 분류된 카테고리에 대응되는 음원 조정값을 사용자의 음원 조정값으로 설정하여, 후술할 단계(S330)에서 적용하게 된다.Also, the user terminal 200 classifies the categories of voice information based on the selection result of the comparative singer. Thereafter, the user terminal 200 sets the sound source adjustment value corresponding to the classified category as the user's sound source adjustment value, and applies it in step S330 to be described later.

여기서 카테고리는 비교 가수별로 규정될 수도 있고, 별도의 기준으로 규정될 수도 있다. 예를 들면, 별도의 기준이란 발라드 카테고리, 힙합 카테고리 등과 같이 장르 별로 규정되거나, 10대, 20대, 30대와 같이 나이대로 규정되는 등 다양하게 규정될 수 있다. 각 카테고리 별로, 해당 카테고리에 포함될 수 있는 장르, 음색, 높낮이 중 적어도 하나에 대한 수치 범위에 대해 규정되어 있을 수 있고, 이러한 규정에 부합하는 경우, 사용자 음원은 해당 카테고리에 해당하는 것으로 규정될 수도 있다. Here, the category may be defined for each comparative singer or may be defined as a separate criterion. For example, the separate criteria may be defined in various ways, such as defined by genre, such as a ballad category or hip-hop category, or defined by age, such as teenagers, 20s, and 30s. For each category, a numerical range for at least one of genre, tone, and pitch that can be included in the corresponding category may be defined, and if these regulations are met, the user sound source may be defined as corresponding to the corresponding category .

그리고, 각 카테고리 별로 음원 조정값(믹싱 조건값, 마스터링 조정값)이 기 설정되어 있을 수 있다. 예를 들어, 카테고리가 비교가수 별로 규정되어 있어, 발라드 유형의 A가수 카테고리에 해당하는 사용자 음원이라면, 믹싱 조건값을 구성하는 마스터볼륨 비율(즉, 가수 보이스 정보(또는 MR음원)과 사용자 보이스 간의 불륨 비율), 보컬싱크 비율(즉, 시간 축 상의 가수 보이스 정보(또는 MR음원)의 재생위치와 시간 축 상의 보이스 정보의 재생위치 간의 정렬 시간차에 대한 비율) (단말에서 들리는 소리를 듣고 사용자가 목소리를 내어 녹음을 하므로, 사용자 입장에서는 동시에 녹음을 하는 것이지만, 실제로는 MR음원보다 느린 박자로 목소리가 녹음되는데, 이는 장르나 사용자 취향 등에 따라서 MR음원과 목소리 간 정렬 시간차는 다르게 규정될 수 있으므로 보컬 싱크 비율 조정이 필요함)에 대한 값이 기 설정되어 있을 수 있다. 또한, 마스터링 조정값 역시 더블링, 컴프레서, 이퀄라이저(EQ), 리버브, 딜레이, 리미터 등의 요소로 구성되는데, 각 요소 별로 조정이 필요한 수치가 기설정되어 있을 수 있다. In addition, sound source adjustment values (mixing condition values, mastering adjustment values) may be preset for each category. For example, if the category is defined for each comparative singer, so if it is a user sound source that falls under the A singer category of the ballad type, the master volume ratio (that is, singer voice information (or MR sound source)) and the user voice composing the mixing condition value. volume ratio), vocal sync ratio (that is, the ratio to the alignment time difference between the playback position of the singer's voice information (or MR sound source) on the time axis and the playback position of the voice information on the time axis) The user is recording simultaneously, but the voice is actually recorded at a slower beat than the MR sound source. ratio adjustment is required) may be preset. In addition, the mastering adjustment value is also composed of elements such as doubling, compressor, equalizer (EQ), reverb, delay, limiter, and a numerical value that needs to be adjusted for each element may be preset.

이러한 음원 조정값은 카테고리 별로 다르게 규정될 수 있다. 또는, 음원 조정값은 곡의 장르 별로 다르게 규정될 수 있다. 예를 들면, 사용자가 발라드 또는 힙합을 노래하였는지에 따라 다른 음원 조정값이 적용될 수 있다. 또한, 하나의 곡이라도 곡의 흐름(박자나 멜로디)에 따라, 중간에 음원 조정값이 다르게 설정될 수도 있다. 예를 들어, 2분 길이의 A라는 곡이 플레이 시간 1분을 기준으로 서로 다른 박자를 갖는 경우 음원 조정값도 각 구간에 맞게 서로 다르게 설정될 수 있다.These sound source adjustment values may be defined differently for each category. Alternatively, the sound source adjustment value may be defined differently for each genre of the song. For example, a different sound source adjustment value may be applied depending on whether the user sang a ballad or hip-hop. Also, even for one song, the sound source adjustment value may be set differently in the middle according to the flow (beat or melody) of the song. For example, when the song A, which is 2 minutes long, has different beats based on the play time of 1 minute, the sound source adjustment value may be set differently for each section.

추가 실시예로, 사용자 단말(200)은 중앙 서버(100)의 데이터베이스(104)에 기 저장된 복수의 음색 템플릿과 사용자의 보이스 정보를 비교하고, 가장 유사도가 높은 음색 템플릿을 선택하게 된다. 이때, 음색 템플릿은 소프라노, 메조소프라노, 알토, 카운터테너, 테너, 바리톤 또는 베이스 등으로 구분되거나, 다수의 레벨, 예를 들어 0 레벨(저음 음색)에서 10레벨(고음 음색)로 구분되되, 각각의 선택지에 대응되는 음원 조정값을 가진다. 따라서, 음색 템플릿에서 보이스 정보에 대응되는 음원 조정값을 적용하게 된다.In a further embodiment, the user terminal 200 compares the user's voice information with a plurality of tone templates pre-stored in the database 104 of the central server 100, and selects the tone template with the highest similarity. At this time, the tone template is divided into soprano, mezzo-soprano, alto, counter tenor, tenor, baritone, or bass, or a number of levels, for example, 0 level (low tone tone) to 10 level (treble tone), each It has the sound source adjustment value corresponding to the option of . Accordingly, the sound source adjustment value corresponding to the voice information in the tone template is applied.

마지막으로 사용자 단말(200)은 비교 가수와 매핑되어 기 저장된 음원 조정값에 기초하여 보이스 정보를 믹싱 및 마스터링 하여 사용자 음원을 생성한다(S330).Finally, the user terminal 200 generates a user sound source by mixing and mastering voice information based on a previously stored sound source adjustment value mapped with a comparative singer (S330).

단계(S330) 이후 사용자 단말(200)은 사용자로부터 새로운 사용자 음원을 수신할 수도 있다. 이 경우, 사용자 단말(200)은 상기의 단계(S330)까지의 과정을 반복 수행할 수 있다. 단계(S330)까지의 재수행결과에 따르는 음원 조정값은 앞선 음원 조정값과 같을 수도 있지만 다를 수도 있다. 예를 들어, 사용자가 선택한 MR음원의 장르가 다르거나, 사용자의 보이스 정보가 앞선 음원에서의 것과 약간 다르게 수신되고 분석될 수 있기 때문이다. 또는, 사용자가 음원 조정값을 수동으로 변경할 경우, 앞선 음원에서의 것과 다를 수 있다. After step S330, the user terminal 200 may receive a new user sound source from the user. In this case, the user terminal 200 may repeat the process up to step S330. The sound source adjustment value according to the result of re-performing up to step S330 may be the same as the previous sound source adjustment value, but may be different. For example, the genre of the MR sound source selected by the user may be different, or the user's voice information may be received and analyzed slightly differently from that of the previous sound source. Alternatively, when the user manually changes the sound source adjustment value, it may be different from that in the previous sound source.

이러한 방식으로, 하나의 사용자에 대해 수많은 보이스 정보(음색, 장르, 높낮이)가 수신될 수 있고, 해당 보이스 정보에 대해 각각 대응되는 음원 조정값이 발생될 수 있다. 여러 사용자에 대해서 확장해보면, 무수히 많은 보이스 정보에 대한 무수히 많은 음원 조정값이라는 훈련데이터가 있을 수 있다. 이러한 훈련데이터의 입력값을 보이스 정보(음색, 장르, 높낮이)로 설정하고 출력값을 음원 조정값으로 설정하여 기계학습모델에 적용시켜 훈련을 수행할 경우, AI 알고리즘을 통해 사용자 음원에 최적화된 음원 조정값을 추천해주는 알고리즘 학습이 완성될 수 있다. 이때, 기계학습 모델은, ANN, DNN, KNN, CNN 중 어느 하나의 모델이거나, 이들 중 적어도 둘을 조합한 앙상블 모델일 수 있다. 또는, 다양한 다른 인공지능학습모델이 될 수도 있다. In this way, a lot of voice information (tone, genre, pitch) may be received for one user, and a sound source adjustment value corresponding to each of the voice information may be generated. Expanding on multiple users, there may be training data of a myriad of sound source adjustment values for a myriad of voice information. When training is performed by setting the input value of these training data as voice information (tone, genre, pitch) and setting the output value as the sound source adjustment value to apply the training to the machine learning model, the sound source is optimized for the user's sound source through the AI algorithm. Algorithm learning that recommends values can be completed. In this case, the machine learning model may be any one of ANN, DNN, KNN, and CNN, or an ensemble model combining at least two of them. Alternatively, it may be a variety of other artificial intelligence learning models.

따라서, 사용자가 음원을 많이 만들어내면 많이 만들어낼수록, 음원 조정값이 조금씩 수정되어, 그 사용자에 맞는 음원 조정값이 더 정확하게 도출될 수 있다. 또한, 훈련이 이미 완성된 이후 접속하게 되는 사용자에게는 최초의 서비스에 대해서도 정확도 있는 음원 조정값 추천이 가능하다. Therefore, the more a user creates a sound source, the more the sound source adjustment value is slightly modified, so that a sound source adjustment value suitable for the user can be derived more accurately. In addition, it is possible to recommend accurate sound source adjustment values for the first service to users who access after training has already been completed.

만약, 상기의 값을 수신하면, 사용자 단말(200)은 수신된 장르, 음색 및 높낮이에 기초하여 커스텀 음원 조정값을 생성하여 사용자 보이스를 수정하게 된다.If the above value is received, the user terminal 200 modifies the user voice by generating a custom sound source adjustment value based on the received genre, tone, and pitch.

이때, 사용자 단말(200)은 커스텀 음원 조정값에 기초하여, 비교 가수의 가수 보이스 정보와 연동되어 기 저장된 음원 조정값을 보정할 수도 있다. 이를 통해, 사용자 취향에 맞도록 사용자 음원을 생성할 수 있게 된다.In this case, the user terminal 200 may correct the pre-stored sound source adjustment value by interworking with the singer voice information of the comparative singer based on the custom sound source adjustment value. Through this, it is possible to generate a user sound source to suit the user's taste.

이때, 사용자 음원을 생성하기 위한 믹싱 조건값과 마스터링 조건값을 출력값으로 설정하여, 신규 사용자의 보이스 정보를 통해 사용자 음원을 생성하는 과정에서 믹싱 조건값 및 마스터링 조건값에 대한 정확도를 높이게 된다. At this time, the mixing condition value and the mastering condition value for generating the user sound source are set as output values, and the accuracy of the mixing condition value and the mastering condition value is increased in the process of generating the user sound source through the voice information of the new user. .

이때, 상기의 머신러닝모델은 사용자 단말(200)에서 구축될 수 있으나, 필요한 경우 중앙 서버(100)에서도 구현될 수도 있다.At this time, the machine learning model may be built in the user terminal 200, but may also be implemented in the central server 100 if necessary.

한편, 다른 선택적 실시예로, 단계(S330) 이후 사용자 단말(200)은 사용자 음원을 중앙 서버로 업로드하여, 상기 사용자 음원을 다른 사용자 단말로 스트리밍하여 제공하게 된다.On the other hand, in another optional embodiment, after the step (S330), the user terminal 200 uploads the user sound source to the central server, and provides the user sound source by streaming to another user terminal.

도 6은 본 발명의 일 실시예에 따른, 플랫폼이 제공하는 인터페이스를 통해 음원의 믹싱 및 경연을 진행하는 과정을 나타낸 동작 흐름도이다.6 is an operation flowchart illustrating a process of mixing and contesting a sound source through an interface provided by a platform according to an embodiment of the present invention.

도 6을 참조하면, 중앙 서버(100)는 사용자 정보를 통해 사용자 프로필을 생성한다(S410).Referring to FIG. 6 , the central server 100 creates a user profile through user information (S410).

이때, 사용자 프로필은 프로필 인터페이스에 의해 상기 사용자 단말로 표시된다. At this time, the user profile is displayed on the user terminal by the profile interface.

프로필 인터페이스는 도 8에 도시된 바와 같이 프로필 인터페이스 제 1 영역(110)에 사용자의 사진 및 팔로워/팔로잉의 숫자 중 적어도 하나가 표시된다.In the profile interface, as shown in FIG. 8 , at least one of the user's photo and the number of followers/following is displayed in the profile interface first area 110 .

또한, 프로필 인터페이스 제 2 영역(120)에는 사용자 단말이 업로드한 상기 사용자 음원의 리스트가 표시된다. 각각의 사용자 음원에 대한 조회수 및 사용자 음원에 의한 수익을 표시함으로써, 사용자는 자신의 사용자 음원 중 어떤 음원이 가장 인기가 좋은지 혹은 수익률이 높은지 확인할 수 있게 된다.In addition, the list of the user sound source uploaded by the user terminal is displayed in the second area 120 of the profile interface. By displaying the number of views for each user sound source and the revenue generated by the user sound source, the user can check which sound source among his user sound sources is the most popular or has a high yield.

또한, 프로필 인터페이스 제 3 영역(140)에는 인터페이스를 선택할 수 있는 선택지가 주어진다.Also, in the third area 140 of the profile interface, an option for selecting an interface is given.

한편, 선택적 실시예로 단계(S410) 이전에 중앙 서버(100)는 사용자 정보를 수신하기 위한 설문 인터페이스가 사용자 단말(200)로 제공한다.Meanwhile, in an optional embodiment, before step S410 , the central server 100 provides a questionnaire interface for receiving user information to the user terminal 200 .

이때, 설문 인터페이스는 기 설정된 질문에 대한 선택지를 제공하고, 선택된 선택지에 따라 사용자의 노래에 대한 성향을 분류하게 된다. 분류된 성향을 바탕으로 추후 제공될 서비스에 대한 질을 높이게 된다.In this case, the questionnaire interface provides options for a preset question, and classifies the user's tendency toward songs according to the selected options. Based on the classified tendencies, the quality of services to be provided in the future will be improved.

다음으로 중앙 서버(100)는 사용자 단말(200)로부터 음원제작 인터페이스에 의해 생성된 사용자 음원을 수신하면 사용자 프로필과 매칭하여 저장한다(S420).Next, when the central server 100 receives the user sound source generated by the sound source production interface from the user terminal 200, it matches the user profile and stores it (S420).

이때, 음원제작 인터페이스는 보이스 수신 인터페이스, 믹싱설정 인터페이스 및 마스터링설정 인터페이스로 구성될 수 있다.In this case, the sound source production interface may be composed of a voice receiving interface, a mixing setting interface, and a mastering setting interface.

먼저, 보이스 수신 인터페이스는 용자의 음성 혹은 동영상 중 적어도 하나를 수신하기 위한 인터페이스에 해당된다.First, the voice receiving interface corresponds to an interface for receiving at least one of a user's voice or video.

이때, 필요에 따라 도 9에 도시된 바와 같이 MR리스트(210)를 제공하고, 사용자는 자신이 부를 노래에 대응되는 특정 MR음원(220)을 선택하여 입력하게 된다.At this time, if necessary, the MR list 210 is provided as shown in FIG. 9, and the user selects and inputs a specific MR sound source 220 corresponding to the song to be sung.

도 10을 참조하면, 보이스 수신 인터페이스의 제 1 영역(230)에는 실시간으로 녹화 중인 영상 정보가 제공될 수 있다.Referring to FIG. 10 , information about an image being recorded in real time may be provided to the first area 230 of the voice receiving interface.

보이스 수신 인터페이스의 제 2 영역(231)에는 보이스 정보에 대응되는 노래의 가사가 제공되어, 사용자가 가사를 보며 노래를 부를 수 있는 환경을 제공하게 된다.Lyrics of a song corresponding to the voice information are provided in the second area 231 of the voice reception interface, thereby providing an environment in which a user can sing a song while viewing the lyrics.

보이스 수신 인터페이스의 제 3 영역(240)에는 보이스 수신 인터페이스를 조작하기 위한 적어도 하나 이상의 버튼이 제공될 수 있다. 예를 들면, "녹음", "카메라 전환", "화면 효과 설정"등이 포함될 수 있고, 사용자가 손쉽게 알 수 있는 아이콘의 형태로 제공될 수 있다.At least one button for operating the voice reception interface may be provided in the third area 240 of the voice reception interface. For example, "recording", "camera switching", "screen effect setting", etc. may be included, and may be provided in the form of an icon that a user can easily recognize.

다음으로 믹싱설정 인터페이스는 상기 MR음원 및 보이스 정보를 믹싱하기 위한 믹싱 조정값을 수정할 수 있다.Next, the mixing setting interface may modify a mixing adjustment value for mixing the MR sound source and voice information.

이를 도 11a 및 도 11b를 통해 믹싱설정 인터페이스를 설명하면 아래와 같다.Hereinafter, the mixing setting interface will be described with reference to FIGS. 11A and 11B.

이때, 믹싱설정 인터페이스는 믹싱 조정값은 보컬 싱크값, 마스터 볼륨 옵션값 및 편집값 중 적어도 하나가 포함될 수 있다.In this case, in the mixing setting interface, the mixing adjustment value may include at least one of a vocal sync value, a master volume option value, and an edit value.

구체적으로 믹싱설정 인터페이스의 제 1 영역(250)에 보컬 싱크값, 마스터 볼륨 옵션값 및 편집값 중 어느 하나를 선택하여 편집하기 위한 선택지가 제공될 수 있다. 따라서, 사용자는 자신이 무엇을 수정할 것인지 여부에 따라 "보컬 싱크값", "마스터 볼륨값", "편집값" 중 어느 하나를 입력하여 선택하게 된다. Specifically, an option for selecting and editing any one of a vocal sync value, a master volume option value, and an edit value may be provided in the first area 250 of the mixing setting interface. Accordingly, the user selects by inputting any one of the “vocal sync value”, “master volume value”, and “edit value” according to whether or not the user intends to modify it.

믹싱설정 인터페이스의 제 2 영역(260)에는 MR음원 및 보이스 정보의 파형이 매핑되어 배치되고, MR음원과 보이스 정보의 싱크를 결정하기 위한 시간값을 시각적인 정보로 제공된다. In the second area 260 of the mixing setting interface, waveforms of the MR sound source and voice information are mapped and arranged, and a time value for determining the synchronization of the MR sound source and voice information is provided as visual information.

믹싱설정 인터페이스의 제 3 영역(251)에 보컬 싱크값, 마스터 볼륨값 및 편집값 중 어느 하나를 조절하기 위한 적어도 하나 이상의 버튼이 제공된다. 이때, 제공되는 버튼의 형태나 개수는 상기의 수치를 조절하기에 알맞은 형태로 제공될 수 있기에 본 발명의 범위를 제한하지 않는다.At least one button for adjusting any one of a vocal sync value, a master volume value, and an edit value is provided in the third area 251 of the mixing setting interface. In this case, the shape or number of buttons provided does not limit the scope of the present invention because it may be provided in a form suitable for adjusting the above numerical values.

예를 들어, 도 11a의 경우 음원의 싱크를 수정하기 위한 인터페이스이다. 그에 따라, 믹싱설정 인터페이스의 제 3 영역(251)에는 시간 단위로 음원의 싱크를 이동하거나 건너뛸 수 있는 형태의 입력 버튼이 구비된다. 한편, 도 11b의 경우 보이스 정보 및 MR음원의 마스터 볼륨을 조절하기 위한 인터페이스의 예시이다. 믹싱설정 인터페이스의 제 3 영역(251)에는 믹싱된 음원의 특정 구간에서 MR음원이나 보이스 음원의 볼륨을 조절할 수 있는 한 쌍의 회전식 버튼이 구비될 수도 있다. 이처럼, 본 발명의 믹싱값 및 마스터링값을 설정하기 위해 제공되는 입력버튼의 형태 및 개수는 사용자가 직관적으로 보고 판단할 수 있는 형태로 제공될 수 있다.For example, in the case of FIG. 11A, it is an interface for correcting the sync of the sound source. Accordingly, the third area 251 of the mixing setting interface is provided with an input button capable of moving or skipping the sync of the sound source in units of time. Meanwhile, in the case of FIG. 11B, it is an example of an interface for adjusting the master volume of voice information and MR sound source. A pair of rotary buttons for adjusting the volume of the MR sound source or the voice sound source in a specific section of the mixed sound source may be provided in the third area 251 of the mixing setting interface. As such, the shape and number of input buttons provided for setting the mixing value and the mastering value of the present invention may be provided in a form that the user can intuitively see and determine.

다음으로 마스터링설정 인터페이스는 MR음원 및 보이스 정보 중 적어도 하나를 마스터링하기 위한 마스터링 조정값을 수정할 수 있다.Next, the mastering setting interface may modify a mastering adjustment value for mastering at least one of the MR sound source and voice information.

이때, 마스터링 조정값은 예를 들어, 더블링, 컴프레서, 이퀄라이져, 리버브, 딜레이 및 리미터값 중 적어도 하나가 포함될 수 있다.In this case, the mastering adjustment value may include, for example, at least one of doubling, compressor, equalizer, reverb, delay, and limiter values.

도 11c을 통해 마스터링설정 인터페이스의 형태를 설명하면, 아래와 같다.The form of the mastering setting interface will be described with reference to FIG. 11C as follows.

마스터링설정 인터페이스의 제 1 영역(252)에 상기 더블링, 컴프레서, 이퀄라이져, 리버브, 딜레이 및 리미터값 중 어느 하나를 선택하여 편집하기 위한 선택지가 제공된다. 사용자는 자신이 수정하기 위한 마스터링 설정을 터치 입력하여 선택할 수 있다.An option for selecting and editing any one of the doubling, compressor, equalizer, reverb, delay and limiter values is provided in the first area 252 of the mastering setting interface. The user may select the mastering setting to be modified by touch input.

마스터링설정 인터페이스의 제 2 영역(261)은 사용자 음원의 파형이 배치되고, 편집될 구간의 위치를 시각적으로 제공하거나 특정 구간을 선택할 수 있도록 제공될 수 있다.The second area 261 of the mastering setting interface may be provided so that a waveform of a user sound source is arranged and a position of a section to be edited is visually provided or a specific section can be selected.

마스터링 인터페이스의 제 3 영역(253)에 상기 더블링, 컴프레서, 이퀄라이져, 리버브, 딜레이 및 리미터값 중 어느 하나를 조절하기 위한 적어도 하나 이상의 버튼이 제공될 수 있다.At least one button for adjusting any one of the doubling, compressor, equalizer, reverb, delay and limiter values may be provided in the third area 253 of the mastering interface.

이때, 제 3 영역(253)을 통해 제공되는 버튼은 수정하려는 값에 따라 형태와 개수가 달라질 수 있기에 발명의 범위를 제한하지 않는다. 예를 들어, 더블링 및 컴프레서를 조절하기 위해서는 마스터링 인터페이스의 제 3 영역(253)에는 도 11b에 도시된 회전식 버튼이 제공될 수도 있다.In this case, since the shape and number of buttons provided through the third area 253 may vary depending on the value to be modified, the scope of the invention is not limited. For example, a rotary button shown in FIG. 11B may be provided in the third area 253 of the mastering interface in order to adjust the doubling and the compressor.

마지막으로 다른 사용자 단말로부터 수신된 복수의 사용자 단말을 통해 경연을 수행한다(S430).Finally, a contest is performed through a plurality of user terminals received from other user terminals (S430).

이때, 중앙 서버(100)는 청취자 단말로 상기 사용자 음원의 제공 및 상기 경연을 수행하기 위한 경연 인터페이스를 제공하게 된다.In this case, the central server 100 provides the user's sound source to the listener terminal and provides a contest interface for performing the contest.

구체적으로, 도 12를 참조하여 경연 인터페이스를 설명하면, 경연 인터페이스는 경연이 진행 중인 적어도 하나 이상의 사용자 음원의 리스트(330)를 표시하게 된다.Specifically, when the contest interface is described with reference to FIG. 12 , the contest interface displays a list 330 of at least one user sound source in which a contest is in progress.

또한, 청취자 단말이 사용자 음원의 리스트에 포함된 특정 사용자 음원을 선택하면, 특정 사용자 음원의 곡 정보 및 스트리밍이 제공된다. 이때, 곡 정보는 사용자 프로필, 원곡의 명칭, 원곡의 가수명, 원곡 설명, 섬네일, 영상 정보 및 특정 사용자 음원에 부여된 선호도의 수치 중 적어도 하나가 포함하게 된다.In addition, when the listener terminal selects a specific user sound source included in the list of user sound sources, song information and streaming of the specific user sound source are provided. In this case, the song information includes at least one of a user profile, the name of the original song, the singer's name of the original song, a description of the original song, a thumbnail, image information, and a value of preference given to a specific user's sound source.

또한, 소정의 기간 동안 각각의 상기 사용자 음원이 상기 청취자 단말로부터 획득한 상기 선호도에 기초하여 우승 음원을 선정되면, 선정된 우승 음원은 소정의 기간 동안 경연 인터페이스에 표시(310, 320)하게 된다.In addition, when a winning sound source is selected based on the preference obtained from the listener terminal for each of the user sound sources for a predetermined period, the selected winning sound source is displayed (310, 320) on the contest interface for a predetermined period.

이때, 도 13에 도시된 바와 같이 사용자 단말(200)로부터 사용자의 프로필 정보(340) 및 코멘트(350)를 수신하여, 상기 사용자가 생성한 다른 사용자 음원 및 우승 횟수와 함께 표시(360)할 수 있다. At this time, as shown in FIG. 13 , the user's profile information 340 and comments 350 are received from the user terminal 200 and displayed 360 along with other user sound sources and the number of wins generated by the user. have.

도 7은 본 발명의 일 실시예에 따른, 음원을 통한 수익 창출 및 수익이 분배되는 과정을 나타낸 동작흐름도이다.7 is an operation flowchart illustrating a process of generating revenue and distributing revenue through a sound source, according to an embodiment of the present invention.

이하는 설명하려는 바는 수익의 창출 및 흐름을 설명하기 위한 예시이다. 종래의 경우 음원은 창출된 수익의 경우 음원 판매사가 30%, 저작권 협회 등에서 10%를 나누어 획득하며, 원래 창출 된 수익의 60%를 다시 음원 유통사가 20%의 수수료를, 기획사가 80%의 수수료를 각각 취하기에 음원의 창작자가 가지게 되는 수익은 많이 줄어들게 된다. 한편, 유튜브와 같은 동영상 콘텐츠의 경우에도 유튜브, 저작권협회, 음원(동영상) 유통사, 기획사 등이 수익의 일부를 갖게 됨으로 실제 콘텐츠 제작자가 가지게 되는 수익의 비율이 낮아진다는 한계를 가진다.The following is an example for explaining the generation and flow of revenue. In the case of the conventional sound source, in the case of the generated revenue, the music distributor divides 30% and the copyright association obtains 10%, and the music distributor pays 20% of the original revenue, and the agency pays 80% of the commission. By taking each of these, the revenue that the creator of the soundtrack has will be greatly reduced. On the other hand, even in the case of video content such as YouTube, YouTube, copyright associations, music (video) distributors, and entertainment companies have a portion of the revenue, so the ratio of revenue that the actual content creator has is lowered.

도 7을 참조하면, 유통사 서버(300)는 사용자 음원을 청취자에게 공개함으로써, 100만원의 수익을 창출한다(S510).Referring to FIG. 7 , the distribution company server 300 generates a profit of 1 million won by disclosing a user sound source to a listener (S510).

앞서 서술한 바와 같이, 단계(S510)에서 유통사 서버(300)로 전달되는 사용자 음원은 중앙 서버(100)가 기 설정된 기간 동안 복수의 다른 사용자 음원과의 경연을 수행하여 우승한 음원에 대응된다.As described above, the user sound source delivered to the distributor server 300 in step S510 corresponds to the sound source that the central server 100 wins by performing a contest with a plurality of other user sound sources for a preset period.

만약, 사용자 음원이 사운드로 구성된 미디어이면, 중앙 서버(100)는 음원 판매사에 대응되는 유통사 서버(300)로 전달하게 된다. 만약, 사용자 음원이 동영상에 구성된 미디어이면, 중앙 서버(100)는 동영상 스트리밍사에 대응되는 유통사 서버(300)로 전달하게 된다.If the user's sound source is media composed of sound, the central server 100 transmits it to the distribution company server 300 corresponding to the sound source sales company. If the user's sound source is media composed of a moving picture, the central server 100 transmits it to the distribution company server 300 corresponding to the moving picture streaming company.

다음으로, 유통사 서버(300)는 창출된 수익 중 30%(30만 원)를 수수료(혹은 유통 마진)로 획득한다(S520).Next, the distributor server 300 acquires 30% (300,000 won) of the generated revenue as a commission (or distribution margin) (S520).

이때, 선택적 실시예로 사용자 음원 생성에 사용된 MR음원 등이 이미 저작권이 등록된 경우 저작권협회 등이 수익의 10%(10만원)를 획득하게 된다(S5210). 하지만, 사용자 음원에 다른 저작권자의 자료가 이용되지 않은 사용자 음원이 유튜브 등을 통해 수익을 창출하는 경우 해당 과정이 생략될 수도 있다.At this time, as an optional embodiment, if the copyright of the MR sound source used to generate the user sound source has already been registered, the Copyright Association, etc. will acquire 10% of the revenue (100,000 won) (S5210). However, if a user sound source that does not use data from other copyright holders for the user sound source generates revenue through YouTube, the process may be omitted.

다음으로 유통사 서버(300)로부터 수수료를 제외한 60만원의 수익금을 전달 받은 중앙 서버(100)의 서비스 주체는 원곡 유통사에게 20%(12만원)을 제공하고 남은 수익금 중50%(24만원)의 수익을 획득하게 된다(S530).Next, the service subject of the central server 100, which received the proceeds of 600,000 won excluding the commission from the distributor server 300, provides 20% (120,000 won) to the original song distributor, and 50% (240,000 won) of the remaining profits is obtained (S530).

선택적 실시예로 단계(S520) 혹은 단계(S530)에서 특정 사용자 단말(200)이 생성한 적어도 하나 이상의 사용자 음원이 유통사 서버(300)로 제공되면, 단계(S540)에서 특성 사용자 단말(200)의 사용자 음원의 개수에 따라 수익의 분배 비율을 조정하게 된다. In an optional embodiment, when at least one user sound source generated by the specific user terminal 200 in step S520 or step S530 is provided to the distributor server 300, the characteristic user terminal 200 in step S540 The distribution ratio of revenue will be adjusted according to the number of user sound sources.

또한, 다른 선택적 실시예로 단계(S510)에서 특정 사용자 음원이 기 설정된 수치 이상의 수익을 창출하면, 단계(S540)에서 특성 사용자 음원의 조회에 따라 상기 수익의 분배 비율을 조정하게 된다. In addition, as another optional embodiment, if a specific user sound source generates revenue greater than or equal to a preset value in step S510 , the distribution ratio of the revenue is adjusted according to the inquiry of the characteristic user sound source in step S540 .

상기의 두 기능을 통해 중앙 서버(100)는 우수한 창작자를 지원함과 동시에 높은 수익을 보장해주기 위한 수단이 될 수 있다.Through the above two functions, the central server 100 can be a means to support excellent creators and at the same time guarantee high profits.

마지막으로, 사용자 단말(200)의 창작자는 수익의50%(24만 원)를 획득함으로써 수익의 분배가 마무리 된다(S540).Finally, the creator of the user terminal 200 obtains 50% (240,000 won) of the revenue, thereby completing the distribution of revenue (S540).

한편, 단계(S510)에서 특정 사용자 단말(200)의 요청에 의해 유통사 서버(300)로 전달된 특정 사용자 음원을 비공개 처리를 요청할 수 있다. 이후, 단계(S520)에서 특정 청취자 단말이 특정 사용자 단말(200)의 복수의 사용자 음원을 대상으로 창출된 수익의 기 설정된 비율 이상을 차지하면, 특정 청취자 단말로 특정 사용자 음원을 제공할 수도 있다. 즉, A라는 창작자에 대해서 B라는 청취자가 열성적으로 음악을 듣는 경우 A라는 창작자의 비공개 음원을 B라는 청취자에게만 제공할 수 있게 된다. Meanwhile, in step S510 , it is possible to request private processing of the specific user sound source delivered to the distributor server 300 by the request of the specific user terminal 200 . Thereafter, when the specific listener terminal occupies more than a preset ratio of revenue generated for a plurality of user sound sources of the specific user terminal 200 in step S520 , the specific user sound source may be provided to the specific listener terminal. In other words, if listener B enthusiastically listens to music with respect to creator A, the private sound source of creator A can only be provided to listener B.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

100: 중앙 서버
200: 사용자 단말
300: 유통사 서버
100: central server
200: user terminal
300: distributor server

Claims (15)

중앙 서버에 의해 수행되는, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법에 있어서,
(a) 사용자 단말로부터 수신된 사용자 정보로 사용자 프로필을 생성하는 단계;
(b) 상기 사용자 단말로부터 음원제작 인터페이스에 의해 생성된 사용자 음원을 수신하면 상기 사용자 프로필과 매칭하여 저장하는 단계; 및
(c) 서로 다른 사용자 단말로부터 수신된 복수의 사용자 단말을 통해 경연을 수행하는 단계;를 포함하고,
상기 음원제작 인터페이스는 상기 사용자 단말이 선택한 MR음원을 재생하고, 사용자의 보이스 정보를 수신한 후 상기 MR음원과 사용자 보이스가 결합된 사용자 음원을 생성하는데 필요한 믹싱 및 마스터링 기능을 제공하며, 상기 경연은 소정의 기간 동안 복수의 상기 사용자 음원을 청취한 청취자로부터 선호도를 수신하여 순위를 결정하는 과정을 뜻하는 것인, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법.
In the method of providing a user interface for the creation and competition of a user sound source, performed by a central server,
(a) generating a user profile with user information received from a user terminal;
(b) when receiving a user sound source generated by the sound source production interface from the user terminal, matching with the user profile and storing; and
(c) performing a contest through a plurality of user terminals received from different user terminals;
The sound source production interface reproduces the MR sound source selected by the user terminal, receives the user's voice information, and provides a mixing and mastering function necessary to create a user sound source in which the MR sound source and the user voice are combined, and the contest is a method of providing a user interface for generating and contesting a user sound source, which means a process of determining a ranking by receiving preferences from listeners who have listened to a plurality of the user sound sources for a predetermined period.
제 1 항에 있어서,
상기 사용자 프로필은 프로필 인터페이스에 의해 상기 사용자 단말로 표시되되, 사용자의 사진, 업로드한 상기 사용자 음원 및 팔로워/팔로잉의 숫자 중 적어도 하나가 표시되는 것인, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법.
The method of claim 1,
The user profile is displayed on the user terminal by the profile interface, and at least one of a user's photo, the uploaded user sound source, and the number of followers/following is displayed. User interface for creation and competition of user sound sources How to provide.
제 2 항에 있어서,
상기 프로필 인터페이스는 상기 사용자 음원을 리스트화 하여 표시하고,
각각의 상기 사용자 음원에 대한 조회수 및 상기 사용자 음원에 의한 수익을 표시하는 것인, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법.
3. The method of claim 2,
The profile interface lists and displays the user sound source,
A method of providing a user interface for generation and competition of a user sound source, which displays the number of views for each of the user sound sources and revenue by the user sound sources.
제 1 항에 있어서,
상기 (a) 단계 이전에
상기 사용자 정보를 수신하기 위한 설문 인터페이스가 상기 사용자 단말로 제공되고,
상기 설문 인터페이스는 기 설정된 질문에 대한 선택지를 제공하고, 선택된 상기 선택지에 따라 상기 사용자의 노래에 대한 성향을 분류하는 것인, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법.
The method of claim 1,
before step (a)
A questionnaire interface for receiving the user information is provided to the user terminal,
The questionnaire interface provides a choice for a preset question, and classifies the user's propensity for the song according to the selected option.
제 1 항에 있어서,
상기 음원제작 인터페이스는 보이스 수신 인터페이스, 믹싱설정 인터페이스 및 마스터링설정 인터페이스로 구성되는 것인, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법.
The method of claim 1,
The sound source production interface is composed of a voice receiving interface, a mixing setting interface and a mastering setting interface, a method of providing a user interface for the creation and competition of a user sound source.
제 5 항에 있어서,
상기 보이스 수신 인터페이스는 상기 사용자의 음성 혹은 동영상 중 적어도 하나를 수신하며,
상기 보이스 수신 인터페이스의 제 1 영역에는 실시간으로 녹화 중인 영상 정보가 제공되고, 제 2 영역에는 상기 보이스 정보에 대응되는 노래의 가사가 제공되고, 인터페이스의 제 3 영역에는 상기 보이스 수신 인터페이스를 조작하기 위한 적어도 하나 이상의 버튼이 제공되는 것인, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법.
6. The method of claim 5,
The voice receiving interface receives at least one of the user's voice or video,
Video information being recorded in real time is provided in a first area of the voice receiving interface, lyrics of a song corresponding to the voice information are provided in a second area, and a third area of the interface for operating the voice receiving interface. At least one or more buttons are provided, a method of providing a user interface for creation and competition of a user sound source.
제 5 항에 있어서,
상기 믹싱설정 인터페이스는 상기 MR음원 및 보이스 정보를 믹싱하기 위한 믹싱 조정값을 수정하되, 상기 믹싱 조정값은 보컬 싱크값, 마스터 볼륨 옵션값 및 편집값 중 적어도 하나가 포함되는 것인, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법.
6. The method of claim 5,
The mixing setting interface corrects a mixing adjustment value for mixing the MR sound source and voice information, wherein the mixing adjustment value includes at least one of a vocal sync value, a master volume option value, and an edit value. How to provide a user interface for creation and competition.
제 7 항에 있어서,
상기 믹싱설정 인터페이스는
제 1 영역에 상기 보컬 싱크값, 마스터 볼륨값 및 편집값 중 어느 하나를 선택하여 편집하기 위한 선택지가 제공되고,
제 2 영역에 상기 MR음원 및 보이스 정보의 파형이 매핑되어 배치되고, 상기 MR음원과 보이스 정보의 싱크를 결정하기 위한 시간값을 시각적인 정보로 제공하고,
제 3 영역에 상기 보컬 싱크값, 마스터 볼륨값 및 편집값 중 어느 하나를 조절하기 위한 적어도 하나 이상의 버튼이 제공되는 것인, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법.
8. The method of claim 7,
The mixing setting interface is
An option for selecting and editing any one of the vocal sync value, the master volume value, and the edit value is provided in the first area;
Waveforms of the MR sound source and voice information are mapped and arranged in a second area, and a time value for determining the synchronization of the MR sound source and voice information is provided as visual information;
At least one button for adjusting any one of the vocal sync value, the master volume value, and the edit value is provided in the third area, a method of providing a user interface for generating and contesting a user sound source.
제 5 항에 있어서,
상기 마스터링설정 인터페이스는 상기 MR음원 및 보이스 정보 중 적어도 하나를 마스터링하기 위한 마스터링 조정값을 수정하되, 상기 마스터링 조정값은 더블링, 컴프레서, 이퀄라이져, 리버브, 딜레이 및 리미터값 중 적어도 하나가 포함되는 것인, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법.
6. The method of claim 5,
The mastering setting interface modifies a mastering adjustment value for mastering at least one of the MR sound source and voice information, wherein the mastering adjustment value is at least one of doubling, compressor, equalizer, reverb, delay and limiter values. A method of providing a user interface for creation and competition of a user sound source, which is included.
제 8항에 있어서,
상기 마스터링설정 인터페이스는
제 1 영역에 상기 더블링, 컴프레서, 이퀄라이져, 리버브, 딜레이 및 리미터값 중 어느 하나를 선택하여 편집하기 위한 선택지가 제공되고,
제 2 영역에 상기 사용자 음원의 파형이 배치되고, 편집될 구간의 위치를 시각적으로 제공하거나, 특정 구간을 선택할 수 있도록 제공하고,
제 3 영역에 상기 더블링, 컴프레서, 이퀄라이져, 리버브, 딜레이 및 리미터값 중 어느 하나를 조절하기 위한 적어도 하나 이상의 버튼이 제공되는 것인, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법.
9. The method of claim 8,
The mastering setting interface is
An option for selecting and editing any one of the doubling, compressor, equalizer, reverb, delay and limiter values is provided in the first area,
The waveform of the user sound source is arranged in the second area, and the location of the section to be edited is visually provided or a specific section can be selected,
At least one or more buttons for adjusting any one of the doubling, compressor, equalizer, reverb, delay and limiter values are provided in the third area, a method of providing a user interface for creation and competition of a user sound source.
제 1 항에 있어서,
상기 (c) 단계 이전에
청취자 단말로 상기 사용자 음원의 제공 및 상기 경연을 수행하기 위한 경연 인터페이스를 제공하되,
상기 청취자 단말은 상기 사용자 음원을 청취 및 평가하는 단말인 것인, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법.
The method of claim 1,
before step (c)
Provide a contest interface for providing the user sound source and performing the contest to a listener terminal,
The listener terminal is a terminal for listening to and evaluating the user sound source, the user interface providing method for the creation and competition of the user sound source.
제 11 항에 있어서,
상기 경연 인터페이스는 상기 경연이 진행 중인 적어도 하나 이상의 상기 사용자 음원의 리스트를 표시하고, 상기 청취자 단말이 상기 사용자 음원의 리스트에 포함된 특정 사용자 음원을 선택하면, 상기 특정 사용자 음원의 곡 정보 및 스트리밍이 제공되되,
상기 곡 정보는 상기 사용자 프로필, 원곡의 명칭, 원곡의 가수명, 원곡 설명, 섬네일, 영상 정보 및 상기 특정 사용자 음원에 부여된 선호도의 수치 중 적어도 하나가 포함되는 것인, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법.
12. The method of claim 11,
The contest interface displays a list of at least one or more user sound sources in which the contest is in progress, and when the listener terminal selects a specific user sound source included in the list of user sound sources, song information and streaming of the specific user sound source provided,
The song information includes at least one of the user profile, the name of the original song, the singer's name of the original song, the original song description, thumbnail, image information, and the value of preference given to the specific user sound source. How to provide a user interface for
제 12 항에 있어서,
상기 소정의 기간 동안 각각의 상기 사용자 음원이 상기 청취자 단말로부터 획득한 상기 선호도에 기초하여 우승 음원을 선정되면,
상기 우승 음원은 소정의 기간 동안 상기 경연 인터페이스에 표시되되, 상기 사용자 단말로부터 상기 사용자의 프로필 정보 및 코멘트를 수신하여, 상기 사용자가 생성한 다른 사용자 음원 및 우승 횟수와 함께 표시하는 것인, 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법.
13. The method of claim 12,
When the winning sound source is selected based on the preference obtained from the listener terminal for each of the user sound sources during the predetermined period,
The winning sound source is displayed on the contest interface for a predetermined period, receiving the user's profile information and comments from the user terminal, and displaying it along with other user sound sources and the number of wins generated by the user. A method of providing a user interface for the creation and competition of
사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 장치에 있어서,
상기 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 프로그램이 저장된 메모리 및
상기 메모리에 저장된 프로그램을 실행하여 상기 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 프로세서를 포함하되,
상기 프로세서는 사용자 단말로부터 수신된 사용자 정보로 사용자 프로필을 생성하고, 상기 사용자 단말로부터 음원제작 인터페이스에 의해 생성된 사용자 음원을 수신하면 상기 사용자 프로필과 매칭하여 저장하고, 서로 다른 사용자 단말로부터 수신된 복수의 사용자 단말을 통해 경연을 수행하고,
상기 음원제작 인터페이스는 상기 사용자 단말이 선택한 MR음원을 재생하고, 사용자의 보이스 정보를 수신한 후 상기 MR음원과 사용자 보이스가 결합된 사용자 음원을 생성하는데 필요한 믹싱 및 마스터링 기능을 제공하며, 상기 경연은 소정의 기간 동안 복수의 상기 사용자 음원을 청취한 청취자로부터 선호도를 수신하여 순위를 결정하는 과정을 뜻하는, 플랫폼이 제공하는 인터페이스를 통해 음원의 믹싱 및 경연을 진행하는 장치.
In the user interface providing device for the creation and competition of the user sound source,
a memory in which a user interface providing program for creation and competition of the user sound source is stored; and
A user interface providing processor for generating and contesting the user sound source by executing the program stored in the memory,
The processor creates a user profile with the user information received from the user terminal, and when receiving the user sound source generated by the sound source production interface from the user terminal, matches and stores the user profile, and a plurality of received from different user terminals The contest is performed through the user terminal of
The sound source production interface reproduces the MR sound source selected by the user terminal, receives the user's voice information, and provides a mixing and mastering function necessary to create a user sound source in which the MR sound source and the user voice are combined, and the contest means a process of determining a ranking by receiving preferences from listeners who have listened to a plurality of the user sound sources for a predetermined period, and a device for mixing and contesting sound sources through an interface provided by a platform.
제 1 항에 의한 사용자 음원의 생성 및 경연을 위한 사용자 인터페이스 제공 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독가능 저장매체.A computer-readable storage medium in which a program is recorded for performing the method of providing a user interface for creation and competition of a user sound source according to claim 1 .
KR1020210045918A 2021-04-08 2021-04-08 Apparatus and method for providing user interface for generating and contesting user's music sources KR102507870B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210045918A KR102507870B1 (en) 2021-04-08 2021-04-08 Apparatus and method for providing user interface for generating and contesting user's music sources

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210045918A KR102507870B1 (en) 2021-04-08 2021-04-08 Apparatus and method for providing user interface for generating and contesting user's music sources

Publications (2)

Publication Number Publication Date
KR20220139675A true KR20220139675A (en) 2022-10-17
KR102507870B1 KR102507870B1 (en) 2023-03-08

Family

ID=83809793

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210045918A KR102507870B1 (en) 2021-04-08 2021-04-08 Apparatus and method for providing user interface for generating and contesting user's music sources

Country Status (1)

Country Link
KR (1) KR102507870B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130053718A (en) * 2011-11-16 2013-05-24 김치현 Mobile sound management system, open-market server, and providing method thereof
KR20130082965A (en) * 2011-12-26 2013-07-22 박정길 Audition system based on mobile

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130053718A (en) * 2011-11-16 2013-05-24 김치현 Mobile sound management system, open-market server, and providing method thereof
KR20130082965A (en) * 2011-12-26 2013-07-22 박정길 Audition system based on mobile

Also Published As

Publication number Publication date
KR102507870B1 (en) 2023-03-08

Similar Documents

Publication Publication Date Title
US11277216B2 (en) System and method for generating an audio file
TWI559778B (en) Digital jukebox device with karaoke and/or photo booth features, and associated methods
US8611563B2 (en) Method, a system and an apparatus for delivering media layers
KR101318015B1 (en) System and method for playlist generation based on similarity data
CN108268530B (en) Lyric score generation method and related device
EP2893472A1 (en) Multi-input playlist selection
KR101422772B1 (en) Online music service apparatus for generating music playlist considering user’s preferences and ratings and method thereof
US10762130B2 (en) Method and system for creating combined media and user-defined audio selection
US20190026366A1 (en) Method and device for playing video by each segment of music
US20070011279A1 (en) System and method for providing and displaying multimedia content in correlation with music files in an audio disc
KR102507870B1 (en) Apparatus and method for providing user interface for generating and contesting user's music sources
KR102472972B1 (en) Apparatus and method for mixing music sources based on artificial intelligence
KR102558167B1 (en) Apparatus and method for generating and distributing revenue of user's music sources
KR102570036B1 (en) Apparatus and method for generating user's music sorces and conducting contests
KR101790107B1 (en) Method and server of music comprehensive service
KR20130132719A (en) Audition system based on mobile
KR20200102190A (en) Sound management device, sound management method, and computer program
US20210334711A1 (en) System and methods for connecting content promoters and artists for content promotion transactions
CN117524179A (en) Song beat data processing method, device, equipment and storage medium
KR20240053019A (en) The individual contribution evaluation method system according to participation in sound source production and crowd-based sound source production collaboration system
KR20180036687A (en) Method of providing music based on mindmap and server performing the same
JP2002063383A (en) Method, system, and recording medium for centralized mediation in created musical work
JP2007087437A (en) Content reproducing apparatus, system, and program
JP2002222287A (en) Centralized intermediary method, system and record medium for created music piece

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right