KR102614220B1 - Method and apparatus for generating model for predicting sound source usage - Google Patents

Method and apparatus for generating model for predicting sound source usage Download PDF

Info

Publication number
KR102614220B1
KR102614220B1 KR1020220173305A KR20220173305A KR102614220B1 KR 102614220 B1 KR102614220 B1 KR 102614220B1 KR 1020220173305 A KR1020220173305 A KR 1020220173305A KR 20220173305 A KR20220173305 A KR 20220173305A KR 102614220 B1 KR102614220 B1 KR 102614220B1
Authority
KR
South Korea
Prior art keywords
sound source
data
usage
metadata
music
Prior art date
Application number
KR1020220173305A
Other languages
Korean (ko)
Inventor
조원영
Original Assignee
초록소프트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 초록소프트 주식회사 filed Critical 초록소프트 주식회사
Priority to KR1020220173305A priority Critical patent/KR102614220B1/en
Application granted granted Critical
Publication of KR102614220B1 publication Critical patent/KR102614220B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/65Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Human Resources & Organizations (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Library & Information Science (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명의 일 실시예는 본 발명의 제 1측면에 따라, 음원 이용량 예측 모델을 생성하는 방법이 제공된다. 본 방법은, 특정 기간의 음원 이용량을 포함하는 음원 로그 데이터, 음원 메타 데이터 및 음원 이슈 데이터를 포함하는 학습 데이터 세트를 획득하는 단계, 상기 학습 데이터 세트를 전처리 하여 학습 데이터를 생성하는 단계 및 상기 학습 데이터를 기초로, 분석 대상 음원에 대한 메타 데이터, 로그 데이터 및 이슈 데이터로부터 상기 분석 대상 음원에 대한 기 설정된 기간의 음원 이용량 예측 데이터를 출력하도록 훈련된 인공지능 모델을 생성하는 단계를 포함한다. One embodiment of the present invention provides a method for generating a sound source usage prediction model according to the first aspect of the present invention. The method includes the steps of obtaining a learning data set including sound source log data, sound source metadata, and sound source issue data including the amount of sound source usage in a specific period, preprocessing the learning data set to generate learning data, and Based on the learning data, it includes the step of generating an artificial intelligence model trained to output sound source usage prediction data for a preset period for the analysis target sound source from metadata, log data, and issue data for the analysis target sound source. .

Description

음원 이용량 예측 모델 생성 방법 및 장치 {METHOD AND APPARATUS FOR GENERATING MODEL FOR PREDICTING SOUND SOURCE USAGE}Method and device for generating sound source usage prediction model {METHOD AND APPARATUS FOR GENERATING MODEL FOR PREDICTING SOUND SOURCE USAGE}

본 발명은 음원 이용량 예측 모델 생성 방법 및 장치에 관한 것으로, 보다 상세하게는, 음원 메타 데이터, 음원 로그 데이터 및 음원 이슈 데이터를 포함하는 학습 데이터를 기초로 분석 대상 음원의 메타 데이터, 로그 데이터 및 이슈 데이터로부터 분석 대상 음원에 대한 기 설정된 기간의 음원 이용량 예측 데이터를 출력하도록 학습된 인공지능 모델을 생성하는 방법 및 장치에 관한 것이다. The present invention relates to a method and device for generating a music source usage prediction model. More specifically, the present invention relates to metadata, log data, and It relates to a method and device for generating an artificial intelligence model trained to output music source usage prediction data for a preset period for the sound source to be analyzed from issue data.

최근 들어, 음악 산업이 빠르게 발전함에 따라, 음원을 소비하는 사람들의 음원 소비 트랜드도 변화하고 있다. 디지털 기술의 발전과 스마트폰 및 무선 인터넷의 발달로 인해 기존의 음원 소비 방식인 음반의 구매 및 다운로드 방식에서 스트리밍 방식으로 음원 소비 방식이 변화하고 있다. 음원 소비 방식의 변화는 음원의 소비 방식이 소유에서 접근으로 변화되는 반증일 수 있다. Recently, as the music industry develops rapidly, the music consumption trends of people who consume music are also changing. Due to the advancement of digital technology and the development of smartphones and wireless internet, the way of consuming music is changing from the existing method of purchasing and downloading music records to streaming. Changes in the way music is consumed can be evidence that the way to consume music is changing from ownership to access.

종래에는 음원의 이용흐름에 대한 로그 데이터를 회귀분석, 시계열 군집분석 등의 방식을 통해 분석하여 해당 음원의 향후 이용량을 예측하기 위한 기술을 이용하고 있다. 하지만, 종래의 기술은 음원의 장르, 가수, 음원 제공 플랫폼별 음원 순위 등의 음원 이슈를 고려하고 있지 않으므로, 음원에 대한 정확한 향후 이용량을 제공하고 있지 못하는 실정이다. Conventionally, log data on the usage flow of sound sources is analyzed through methods such as regression analysis and time series cluster analysis, and technology is used to predict future usage of the sound source. However, the conventional technology does not consider sound source issues such as sound source genre, singer, and sound source ranking by sound source providing platform, and therefore does not provide accurate future usage of the sound source.

대한민국 공개특허공보 제10-2018-0064749호(2018.06.15.) (발명의 명칭: 음원 수익 예측/분석 시스템 및 방법)Republic of Korea Patent Publication No. 10-2018-0064749 (2018.06.15.) (Title of invention: Music revenue prediction/analysis system and method)

본 발명은 전술한 문제점을 해결하기 위한 것으로, 음원 메타 데이터, 음원 로그 데이터 및 음원 이슈 데이터를 포함하는 학습 데이터를 기초로 분석 대상 음원의 메타 데이터, 로그 데이터 및 이슈 데이터로부터 분석 대상 음원에 대한 기 설정된 기간의 음원 이용량 예측 데이터를 출력하도록 학습된 인공지능 모델을 생성하는 방법 및 장치를 제공하는 것을 일 기술적 과제로 한다. The present invention is intended to solve the above-mentioned problems, and is based on learning data including sound source metadata, sound source log data, and sound source issue data. One technical task is to provide a method and device for generating an artificial intelligence model trained to output predicted data on music source usage for a set period.

본 발명이 이루고하 하는 기술적 과제들은 상기한 기술적 과제로 제한되지 않으며, 이하의 설명으로부터 본 발명의 또 다른 기술적 과제들이 도출될 수 있다.The technical problems achieved by the present invention are not limited to the above-described technical problems, and other technical problems of the present invention can be derived from the following description.

상술한 기술적 과제를 해결하기 위한 기술적 수단으로서, 본 발명의 제1 측면에 따라, 음원 이용량 예측 모델을 생성하는 방법이 제공된다. 본 방법은, 각 단계가 프로세서에 의해 수행되는 방법으로서, 특정 기간의 음원 이용량을 포함하는 음원 로그 데이터, 음원 메타 데이터 및 음원 이슈 데이터 를 포함하는 학습 데이터 세트를 획득하는 단계, 상기 학습 데이터 세트를 전처리 하여 학습 데이터를 생성하는 단계 및 상기 학습 데이터를 기초로, 분석 대상 음원에 대한 메타 데이터, 로그 데이터 및 이슈 데이터로부터 상기 분석 대상 음원에 대한 기 설정된 기간의 음원 이용량 예측 데이터를 출력하도록 훈련된 인공지능 모델을 생성하는 단계를 포함한다.As a technical means for solving the above-mentioned technical problem, according to the first aspect of the present invention, a method for generating a sound source usage prediction model is provided. This method is a method in which each step is performed by a processor, including acquiring a learning data set including sound source log data, sound source metadata, and sound source issue data including the amount of sound source usage in a specific period, the learning data set A step of generating learning data by preprocessing, and based on the learning data, training to output sound source usage prediction data for a preset period for the sound source to be analyzed from metadata, log data, and issue data for the sound source to be analyzed. It includes the step of creating an artificial intelligence model.

또한, 상술한 기술적 과제를 해결하기 위한 기술적 수단으로서, 본 발명의 제2 측면에 따라, 음원 이용량 예측 모델을 생성하는 장치가 제공된다. 본 장치는, 적어도 하나의 프로세서 및 상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드가 저장되는 메모리를 포함하고, 상기 메모리는, 상기 프로세서를 통해 실행될 때 상기 프로세서가, 특정 기간의 음원 이용량을 포함하는 음원 로그 데이터, 음원 메타 데이터 및 음원 이슈 데이터를 포함하는 학습 데이터 세트를 획득하고, 상기 학습 데이터 세트를 전처리 하여 학습 데이터를 생성하고, 그리고, 상기 학습 데이터를 기초로, 분석 대상 음원의 메타 데이터, 로그 데이터 및 이슈 데이터로부터 상기 분석 대상 음원에 대한 기 설정된 기간의 음원 이용량 예측 데이터를 출력하도록 훈련된 인공지능 모델을 생성하도록 야기하는 코드를 저장한다. Additionally, as a technical means for solving the above-mentioned technical problem, according to the second aspect of the present invention, an apparatus for generating a sound source usage prediction model is provided. The device includes at least one processor and a memory electrically connected to the processor and storing at least one code to be executed by the processor, wherein the memory, when executed through the processor, causes the processor to run for a specific period of time. Obtain a learning data set including sound source log data, sound source metadata, and sound source issue data including the amount of sound source usage, preprocess the learning data set to generate learning data, and based on the learning data, Stores a code that generates an artificial intelligence model trained to output music source usage prediction data for a preset period for the analysis target sound source from metadata, log data, and issue data of the analysis target sound source.

전술한 본 발명의 과제 해결 수단들에 따르면, 음원의 로그 데이터만을 고려하여 음원의 향후 이용량을 예측하는 종래 기술과 다르게 음원의 메타 데이터, 로그 데이터 및 이슈 데이터를 고려하여 향후 음원 이용량을 예측하므로, 종래 기술보다 더 정확한 음원 이용량을 예측할 수 있다. According to the above-described problem-solving means of the present invention, unlike the prior art, which predicts the future usage of a sound source by considering only the log data of the sound source, the future usage of the sound source is predicted by considering the metadata, log data, and issue data of the sound source. Therefore, it is possible to predict the amount of sound source usage more accurately than the prior art.

도 1은 본 발명의 일 실시예에 따른 음원 이용량 예측 모델 생성 장치의 구성을 도시한 블록도이다.
도 2는 도 1에 도시된 음원 이용량 예측 모델 생성 장치에 의해 인공지능 모델을 훈련시키는 것에 대한 일례를 나타낸 도면이다.
도 3은 본 발명의 다른 실시예에 따른 음원 이용량 예측 모델 생성 방법을 설명하는 동작 흐름도이다.
도 4 및 도 5는 도 3에 도시된 음원 이용량 예측 모델 생성 방법의 단계들이 포함하는 세부 단계들을 나타낸 흐름도이다.
도 6은 본 발명의 또 다른 실시예에 따른 음원 시장성 예측 장치의 구성을 도시한 블록도이다.
도 7은 도 6에 도시된 음원 시장성 예측 장치에 의해 음원 시장성을 예측하는 것에 대한 일례를 나타낸 도면이다.
도 8은 본 발명의 또 다른 실시예에 따른 음원 시장성 예측 방법을 설명하는 동작 흐름도이다.
도 9 는 도 8에 도시된 음원 시장성 예측 방법의 단계들이 포함하는 세부 단계들을 나타낸 흐름도이다.
Figure 1 is a block diagram showing the configuration of an apparatus for generating a sound source usage prediction model according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of training an artificial intelligence model using the sound source usage prediction model generation device shown in FIG. 1.
Figure 3 is an operation flowchart explaining a method for generating a music source usage prediction model according to another embodiment of the present invention.
Figures 4 and 5 are flowcharts showing detailed steps included in the method for generating a music source usage prediction model shown in Figure 3.
Figure 6 is a block diagram showing the configuration of a sound source marketability prediction device according to another embodiment of the present invention.
FIG. 7 is a diagram illustrating an example of predicting the marketability of a sound source using the sound source marketability prediction device shown in FIG. 6.
Figure 8 is an operation flowchart explaining a method for predicting the marketability of a sound source according to another embodiment of the present invention.
FIG. 9 is a flowchart showing detailed steps included in the steps of the sound source marketability prediction method shown in FIG. 8.

이하에서는 첨부한 도면을 참조하여 본 발명을 상세히 설명하기로 한다. 다만, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시예들로 한정되는 것은 아니다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다. 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미로 해석되어야 한다. 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 추가적으로 갖는 것으로 해석되어야 하며, 별도로 정의되지 않는 한 매우 이상적이거나 제한적인 의미로 해석되지 않는다.Hereinafter, the present invention will be described in detail with reference to the attached drawings. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In addition, the attached drawings are only intended to facilitate understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings. All terms, including technical and scientific terms, used herein should be interpreted as meanings commonly understood by those skilled in the art in the technical field to which the present invention pertains. Terms defined in the dictionary should be interpreted as having additional meanings consistent with the related technical literature and currently disclosed content, and should not be interpreted in a very ideal or limited sense unless otherwise defined.

도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 도면에 나타난 각 구성요소의 크기, 형태, 형상은 다양하게 변형될 수 있다. 명세서 전체에 대하여 동일/유사한 부분에 대해서는 동일/유사한 도면 부호를 붙였다. In order to clearly explain the present invention in the drawings, parts not related to the description are omitted, and the size, shape, and shape of each component shown in the drawings may be modified in various ways. Throughout the specification, identical/similar parts are given identical/similar reference numerals.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 “부” 등은 명세서 작성의 용이함만이 고려되어 부여 되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략하였다. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions are omitted.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉 또는 결합)"되어 있다고 할 때, 이는 "직접적으로 연결(접속, 접촉 또는 결합)"되어 있는 경우뿐만 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결 (접속, 접촉 또는 결합)"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함(구비 또는 마련)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 "포함(구비 또는 마련)"할 수 있다는 것을 의미한다. Throughout the specification, when a part is said to be “connected (connected, contacted, or combined)” with another part, this means not only when it is “directly connected (connected, contacted, or combined),” but also when it has other members in between. It also includes cases where they are “indirectly connected (connected, contacted, or combined).” Additionally, when a part is said to "include (equip or provide)" a certain component, this does not exclude other components, unless specifically stated to the contrary, but rather "includes (provides or provides)" other components. It means that you can.

본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 나타내는 용어들은 하나의 구성 요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 구성 요소들의 순서나 관계를 제한하지 않는다. 예를 들어, 본 발명의 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소도 제1구성 요소로 명명될 수 있다. 본 명세서에서 사용되는 단수 표현의 형태들은 명백히 반대의 의미를 나타내지 않는 한 복수 표현의 형태들도 포함하는 것으로 해석되어야 한다. Terms representing ordinal numbers, such as first, second, etc., used in this specification are used only for the purpose of distinguishing one component from another component and do not limit the order or relationship of the components. For example, the first component of the present invention may be named a second component, and similarly, the second component may also be named a first component. As used herein, singular forms of expression should be construed to also include plural forms of expression, unless the contrary is clearly indicated.

이하에서 설명되는 통신 모듈은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치를 포함할 수 있다. 또한, 메모리는 통신 모듈로 입력되는 정보 및 데이터, 프로세서에 의해 수행되는 기능에 필요한 정보 및 데이터, 프로세서의 실행에 따라 생성된 데이터 중 적어도 어느 하나 이상을 저장할 수 있다. 메모리는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 저장된 정보를 유지하기 위하여 전력을 필요로 하는 휘발성 저장장치를 통칭하는 것으로 해석되어야 한다. 메모리는 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치 외에 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 프로세서는 데이터를 제어 및 처리하는 다양한 종류의 장치들을 포함할 수 있다. 프로세서는 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 일 예에서, 프로세서는 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 형태로 구현될 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. The communication module described below may include a device including hardware and software necessary to transmit and receive signals such as control signals or data signals through wired or wireless connections with other network devices. Additionally, the memory may store at least one of information and data input to the communication module, information and data required for functions performed by the processor, and data generated according to execution of the processor. Memory should be interpreted as a general term for non-volatile storage devices that retain stored information even when power is not supplied, and volatile storage devices that require power to maintain stored information. Memory may include magnetic storage media or flash storage media in addition to volatile storage devices that require power to maintain stored information, but the scope of the present invention is not limited thereto. A processor may include various types of devices that control and process data. A processor may refer to a data processing device built into hardware that has physically structured circuitry to perform functions expressed by codes or instructions included in a program. In one example, the processor may include a microprocessor, central processing unit (CPU), processor core, multiprocessor, application-specific integrated circuit (ASIC), or field programmable gate (FPGA). array), etc., but the scope of the present invention is not limited thereto.

도 1은 본 발명의 일 실시예에 따른 음원 이용량 예측 모델 생성 장치(100)의 구성을 도시한 블록도이고, 도 2는 음원 이용량 예측 모델 생성 장치(100)에 의해 인공지능 모델(400)을 훈련시키는 것에 대한 일례를 나타낸 도면이다. Figure 1 is a block diagram showing the configuration of the sound source usage prediction model generating device 100 according to an embodiment of the present invention, and Figure 2 is an artificial intelligence model 400 generated by the sound source usage prediction model generating device 100. ) This is a diagram showing an example of training.

도 1 및 도 2를 함께 참조하면, 음원 이용량 예측 모델 생성 장치(100)는 적어도 하나의 프로세서(130) 및 메모리(140)를 포함하고, 통신 모듈(110) 및 데이터베이스(120)를 더 포함할 수 있다. Referring to FIGS. 1 and 2 together, the sound source usage prediction model generating device 100 includes at least one processor 130 and a memory 140, and further includes a communication module 110 and a database 120. can do.

통신 모듈(110)은 외부 장치 또는 서버와 정보 송수신을 수행하여 음원 이용량 예측 모델 생성에 필요한 데이터를 송수신할 수 있다.The communication module 110 can transmit and receive information with an external device or server to transmit and receive data necessary to create a sound source usage prediction model.

데이터베이스(120)는 음원 이용량 예측 모델 생성에 필요한 데이터가 저장되는 곳일 수 있다. 데이터베이스(120)는 메모리(140)의 일부 영역에 구축되거나 별도의 하드웨어로 구현될 수 있다. The database 120 may be a place where data necessary for creating a music source usage prediction model is stored. The database 120 may be built in a portion of the memory 140 or may be implemented as separate hardware.

프로세서(130)는 메모리(140)에 저장된 코드에 따라 동작을 수행한다. The processor 130 performs operations according to the code stored in the memory 140.

메모리(140)는 프로세서(130)와 전기적으로 연결되고, 프로세서(130)에서 수행되는 적어도 하나의 코드가 저장된다. 메모리(140)는 프로세서(130)를 통해 실행될 때 프로세서(130)가 다음과 같은 기능 및 절차들을 수행하도록 야기하는 코드가 저장된다. The memory 140 is electrically connected to the processor 130 and stores at least one code executed by the processor 130. The memory 140 stores code that, when executed through the processor 130, causes the processor 130 to perform the following functions and procedures.

메모리(140)는 특정 기간의 음원 이용량을 포함하는 음원 로그 데이터(210), 음원 메타 데이터(220) 및 음원 이슈 데이터(230)를 포함하는 학습 데이터 세트(200)를 획득하도록 야기하는 코드가 저장된다. 음원 로그 데이터(210)는 가온 차트를 운영하는 한국음악콘텐츠협회(KMCA)로부터 획득하거나, 또는 멜론, 지니 등과 같은 온라인 서비스 제공자(Online Service Provider, OSP)로부터 획득할 수 있다. 한국음악콘텐츠협회로부터 획득되는 음원 로그 데이터(210)는 통합전산망 데이터일 수 있다. 음원 메타 데이터(220)는 멜론, 지니 등과 같은 온라인 서비스 제공자(Online Service Provider, OSP) 및 저작권협의회에 등록된 데이터를 웹크롤링을 통해 획득할 수 있다. 음원 이슈 데이터(230)는 소셜 미디어 및 유튜브 등에서 획득할 수 있다. 음원 메타 데이터(220)는 음원의 고유코드, 제목, 가수, 장르, 작곡가, 작사가, 프로듀싱, 발매일 및 피처링 중 적어도 하나 이상을 포함한다. 음원 로그 데이터(210)는, 음원의 고유 코드, 음원을 스트리밍하거나, 구매한 사용자의 수 및 음원이 스트리밍되거나 판매된 시간을 더 포함한다. 음원 이슈 데이터(230)는, 음원의 고유 코드, 플랫폼별 음원 순위, 뮤직비디오 조회수 및 가수의 소셜 미디어 데이터 중 적어도 하나 이상을 포함한다. 음원 이용량은 음원의 판매 수단, 결제 수단, 이용 플랫폼 및 날짜 중 적어도 하나 이상으로 분류된다. The memory 140 has a code that causes the acquisition of a learning data set 200 including sound source log data 210, sound source metadata 220, and sound source issue data 230 including the amount of sound source usage in a specific period. It is saved. The sound source log data 210 can be obtained from the Korea Music Contents Association (KMCA), which operates the Gaon Chart, or from an online service provider (OSP) such as Melon, Genie, etc. The sound source log data 210 obtained from the Korea Music Contents Association may be integrated computer network data. Music source metadata 220 can be obtained through web crawling of data registered with the Copyright Council and an Online Service Provider (OSP) such as Melon, Genie, etc. Music issue data 230 can be obtained from social media, YouTube, etc. The sound source metadata 220 includes at least one of the sound source's unique code, title, singer, genre, composer, lyricist, producing, release date, and featuring. The sound source log data 210 further includes the unique code of the sound source, the number of users who streamed or purchased the sound source, and the time when the sound source was streamed or sold. The sound source issue data 230 includes at least one of the sound source's unique code, sound source ranking by platform, music video view count, and singer's social media data. Music source usage is classified into at least one of the following: sales method, payment method, usage platform, and date.

메모리(140)는 학습 데이터 세트(200)를 전처리 하여 학습 데이터(300)를 생성하도록 야기하는 코드가 저장된다. 보다 상세하게는, 메모리(140)는 음원 메타 데이터(220), 음원 로그 데이터(210) 및 음원 이슈 데이터(230)를 공통 키로 매핑하도록 야기하는 코드가 저장된다. 공통키는 음원의 고유 코드일 수 있다. 고유 코드는 음원 아이디 코드 등일 수 있다. 메모리(140)는 음원 로그 데이터(210) 및 음원 이슈 데이터(230)를 대상으로 데이터 스케일링을 수행하고, 음원 메타 데이터(220)를 대상으로 데이터 인코딩을 수행하여 1차 전처리 하도록 야기하는 코드가 저장된다. 메모리(140)는 데이터 스케일링으로 데이터 정규화(Normalization) 및 데이터 표준화(Standardization) 중 적어도 하나 이상을 수행하도록 야기하는 코드가 저장된다. 데이터 정규화는 Min-Max 정규화일 수 있다. 메모리(140)는 데이터 인코딩으로 레이블 인코딩 및 원 핫 인코딩 중 적어도 하나 이상을 수행하도록 야기하는 코드가 저장된다. 메모리(140)는 1차 전처리 된 음원 메타 데이터(220), 음원 로그 데이터(210) 및 음원 이슈 데이터(230) 중 적어도 하나 이상의 데이터 각각의 복수의 피처들 각각에 기반하여 이상치를 탐지하고, 제거하도록 야기하는 코드가 저장된다. 보다 상세하게는, 메모리(140)는 1차 전처리된 음원 메타 데이터(220), 음원 로그 데이터(210) 및 음원 이슈 데이터(230) 중 적어도 하나 이상의 데이터 각각의 복수의 피처들 중 제1 기준값 보다 작거나, 또는 제2 기준값 보다 큰 값을 갖는 피처들을 이상치로 선택하도록 야기하는 코드가 저장된다. 제1 기준값은 복수의 피처들 각각에 대응되는 제1 사분위수(Q1)와 사분범위(IQR)의 1.5배에 해당하는 값의 차이에 기반한 값이다. 제2 기준값은 복수의 피처들 각각에 대응되는 제3 사분위수(Q3)와 사분범위(IQR)의 1.5배에 해당하는 값의 합에 기반한 값이다. 제1 사분위수(Q1)는 피처에서 25%에 대응되는 데이터 값을 의미할 수 있다. 제3 사분위수(Q3)는 피처에서 75%에 대응되는 데이터 값을 의미할 수 있다. 사분범위(IQR)는 제3 사분위수(Q3)를 제1 사분위수(Q1)로 뺀 값일 수 있다. The memory 140 stores a code that causes the training data set 200 to be preprocessed to generate the training data 300. More specifically, the memory 140 stores a code that causes the sound source metadata 220, sound source log data 210, and sound source issue data 230 to be mapped to a common key. The common key may be a unique code of the sound source. The unique code may be a sound source ID code, etc. The memory 140 stores a code that performs data scaling on the sound source log data 210 and sound source issue data 230, performs data encoding on the sound source metadata 220, and performs primary preprocessing. do. The memory 140 stores code that causes at least one of data normalization and data standardization to be performed through data scaling. Data normalization may be Min-Max normalization. The memory 140 stores a code that causes at least one of label encoding and one-hot encoding to be performed as data encoding. The memory 140 detects and removes outliers based on each of a plurality of features of at least one of the first preprocessed sound source metadata 220, sound source log data 210, and sound source issue data 230. The code that causes it to do this is stored. More specifically, the memory 140 is configured to store at least one of the first preprocessed sound source metadata 220, sound source log data 210, and sound source issue data 230 by exceeding the first reference value among the plurality of features. A code that causes features with values that are smaller than or greater than a second reference value to be selected as outliers is stored. The first reference value is a value based on the difference between the first quartile (Q1) corresponding to each of the plurality of features and a value corresponding to 1.5 times the interquartile range (IQR). The second reference value is a value based on the sum of the third quartile (Q3) and 1.5 times the interquartile range (IQR) corresponding to each of the plurality of features. The first quartile (Q1) may mean a data value corresponding to 25% of the feature. The third quartile (Q3) may mean a data value corresponding to 75% of the feature. The interquartile range (IQR) may be the third quartile (Q3) minus the first quartile (Q1).

이와 같이 메모리(140)는 사분범위(InterQuartile Range, IQR)를 통해 이상치를 선택하도록 야기하는 코드가 저장된다. 예를 들면, 특정 피처의 데이터가 [1, 1, 2, 2, 3, 4, 5, 6, 7]일 경우, 평균은 3.4이고, 데이터 개수는 9개이다. 그리고, 해당 특정 피처의 데이터를 오름차순으로 정리한 데이터에서 5번째 데이터의 값인 3이 중앙값이다. 또 다른 특정 피처의 데이터가 [1, 1, 2, 2, 3, 4, 5, 6, 100]인 경우에는, 평균은 13.7이고, 데이터 개수는 9개이며, 중앙값은 3이다. 이와 같이 데이터 패턴에서 크게 벗어나 데이터 평균값에 큰 영향을 미치는 이상치가 데이터에 포함되면, 데이터 분석 및 예측 결과 산출에 큰 영향을 미치므로, 사분범위를 통해 이상치를 선택하고 제거하는 것이 필요하다. In this way, the memory 140 stores a code that causes selection of an outlier through an interquartile range (IQR). For example, if the data of a specific feature is [1, 1, 2, 2, 3, 4, 5, 6, 7], the average is 3.4 and the number of data is 9. And, in the data of the specific feature organized in ascending order, the 5th data value, 3, is the median value. If the data for another specific feature is [1, 1, 2, 2, 3, 4, 5, 6, 100], the average is 13.7, the number of data is 9, and the median is 3. In this way, if outliers that deviate greatly from the data pattern and have a large impact on the data average are included in the data, it will have a significant impact on data analysis and prediction results, so it is necessary to select and remove the outliers using the interquartile range.

메모리(140)는 1차 전처리 된 음원 메타 데이터(220), 음원 로그 데이터(210) 및 음원 이슈 데이터(230)에서 이상치를 제거하도록 야기하는 코드가 저장된다. The memory 140 stores codes that cause outliers to be removed from the first preprocessed sound source metadata 220, sound source log data 210, and sound source issue data 230.

메모리(140)는 학습 데이터(300)를 기초로, 분석 대상 음원의 메타 데이터, 로그 데이터 및 이슈 데이터로부터 분석 대상 음원에 대한 기 설정된 기간의 음원 이용량 예측 데이터(500)를 출력하도록 훈련된 인공지능 모델(400)을 생성하도록 야기하는 코드가 저장된다. 음원 이용량 예측 데이터(500)는 음원의 판매 수단, 결제 수단, 이용 플랫폼 및 날짜 중 적어도 하나 이상으로 분류된 음원 이용량이다. 기 설정된 기간은 분석 대상 음원의 로그 데이터가 특정 기간의 음원 이용량을 포함하고 있을 경우, 해당 특정 기간 이후의 기간이다. 인공지능 모델(400)은 인공 신경망 모델(Neual Network Model)일 수 있다. 보다 상세하게는, 인공지능 모델(400)은 다층 퍼셉트론(Multi-Layer Perceptron) 모델일 수 있다. 인공지능 모델은 학습 데이터(300)의 음원 메타 데이터 및 음원 이슈 데이터와 학습 데이터(300)의 음원 로그 데이터 간의 변수 상관관계를 토대로 음원 이용량 예측 데이터(500)를 출력하도록 훈련된 모델이다. The memory 140 is an artificial intelligence trained to output sound source usage prediction data 500 for a preset period for the sound source to be analyzed from the metadata, log data, and issue data of the sound source to be analyzed, based on the learning data 300. The code that causes the intelligence model 400 to be created is stored. The music source usage prediction data 500 is the music source usage classified by at least one of the sales method of the music source, payment method, usage platform, and date. The preset period is the period after the specific period when the log data of the sound source to be analyzed includes the amount of sound source usage during a specific period. The artificial intelligence model 400 may be an artificial neural network model. More specifically, the artificial intelligence model 400 may be a multi-layer perceptron model. The artificial intelligence model is a model trained to output music source usage prediction data 500 based on the variable correlation between the sound source metadata and sound source issue data of the learning data 300 and the sound source log data of the learning data 300.

도 3은 본 발명의 다른 실시예에 따른 음원 이용량 예측 모델 생성 방법을 설명하는 동작 흐름도이고, 도 4 및 도 5는 음원 이용량 예측 모델 생성 방법의 단계들이 포함하는 세부 단계들을 나타낸 흐름도이다. 이하에서 도 3 내지 도 5를 참조하여, 음원 이용량 예측 모델 생성 방법을 설명하도록 한다. 이하에서 설명될 음원 이용량 예측 모델 생성 방법의 각 단계들은 앞서 도 1 및 도 2를 참조하여 설명한 음원 이용량 예측 모델 생성 장치(100)에 의해 수행될 수 있다. 따라서, 앞서 도 1 및 도 2를 참조하여 설명한 본 발명의 실시예에 대한 내용은 이하에서 설명될 실시예에도 동일하게 적용될 수 있으며, 이하에서 상술한 설명과 중복는 내용은 생략하도록 한다. 이하에서 설명되는 단계들은 반드시 순서대로 수행되어야 하는 것은 아니고, 단계들의 순서는 다양하게 설정될 수 있으며, 단계들은 거의 동시에 수행될 수도 있다.Figure 3 is an operation flowchart explaining a method for generating a music source usage prediction model according to another embodiment of the present invention, and Figures 4 and 5 are flowcharts showing detailed steps included in the steps of the method for creating a sound source usage prediction model. Hereinafter, a method for generating a sound source usage prediction model will be described with reference to FIGS. 3 to 5. Each step of the method for generating a sound source usage prediction model to be described below may be performed by the sound source usage prediction model generating apparatus 100 previously described with reference to FIGS. 1 and 2 . Therefore, the contents of the embodiments of the present invention previously described with reference to FIGS. 1 and 2 can be equally applied to the embodiments to be described below, and any content that overlaps with the description described above will be omitted below. The steps described below do not necessarily have to be performed in order, the order of the steps may be set in various ways, and the steps may be performed almost simultaneously.

도 3을 참조하면, 음원 이용량 예측 모델 생성 방법은 학습 데이터 세트 획득 단계(S1100), 학습 데이터 생성 단계(S1200) 및 인공지능 모델 생성 단계(S1300)를 포함한다. Referring to FIG. 3, the method for generating a music source usage prediction model includes a learning data set acquisition step (S1100), a learning data generation step (S1200), and an artificial intelligence model creation step (S1300).

학습 데이터 세트 획득 단계(S1100)는 특정 기간의 음원 이용량을 포함하는 음원 로그 데이터, 음원 메타 데이터 및 음원 이슈 데이터를 포함하는 학습 데이터 세트를 획득하는 단계이다. 음원 메타 데이터는, 음원의 고유코드, 제목, 가수, 장르, 작곡가, 작사가, 프로듀싱, 발매일 및 피처링 중 적어도 하나 이상을 포함한다. 음원 로그 데이터는, 음원의 고유 코드, 음원을 스트리밍하거나, 구매한 사용자의 수 및 음원이 스트리밍되거나 판매된 시간을 더 포함한다. 음원 이슈 데이터는, 음원의 고유 코드, 플랫폼별 음원 순위, 뮤직비디오 조회수 및 가수의 소셜 미디어 데이터 중 적어도 하나 이상을 포함한다. 플랫폼은 유튜브, 멜론 등이 있을 수 있다. 소셜 미디어는, 트위터, 인스타그램, 페이스북 등이 있을 수 있다. The learning data set acquisition step (S1100) is a step of acquiring a learning data set including sound source log data including the amount of sound source usage in a specific period, sound source metadata, and sound source issue data. The sound source metadata includes at least one of the sound source's unique code, title, singer, genre, composer, lyricist, producing, release date, and featuring. The sound source log data further includes the unique code of the sound source, the number of users who streamed or purchased the sound source, and the time when the sound source was streamed or sold. The sound source issue data includes at least one of the unique code of the sound source, sound source ranking by platform, number of music video views, and singer's social media data. Platforms may include YouTube, Melon, etc. Social media may include Twitter, Instagram, Facebook, etc.

학습 데이터 생성 단계(S1200)는 학습 데이터 세트를 전처리 하여 학습 데이터를 생성하는 단계이다. 인공지능 모델 생성 단계(S1300)는 학습 데이터를 기초로, 분석 대상 음원에 대한 메타 데이터, 로그 데이터 및 이슈 데이터로부터 분석 대상 음원에 대한 기 설정된 기간의 음원 이용량 예측 데이터를 출력하도록 훈련된 인공지능 모델을 생성하는 단계이다. 음원 이용량 예측 데이터는 음원의 판매 수단, 결제 수단, 이용 플랫폼 및 날짜 중 적어도 하나 이상으로 분류된 음원 이용량이다. 인공지능 모델은 학습 데이터의 음원 메타 데이터 및 음원 이슈 데이터와 학습 데이터의 음원 로그 데이터 간의 변수 상관관계를 토대로 음원 이용량 예측 데이터를 출력하도록 훈련된 인공지능 모델이다. The learning data generation step (S1200) is a step of generating learning data by preprocessing the learning data set. The artificial intelligence model creation step (S1300) is an artificial intelligence trained to output music source usage prediction data for a preset period for the sound source to be analyzed from meta data, log data, and issue data for the sound source to be analyzed, based on the learning data. This is the step of creating a model. Music source usage prediction data is the amount of music source usage classified by at least one of the following: sales method, payment method, usage platform, and date. The artificial intelligence model is an artificial intelligence model trained to output music source usage prediction data based on the variable correlation between the sound source metadata and sound source issue data of the learning data and the sound source log data of the learning data.

도 4를 참조하면, 학습 데이터 생성 단계(S1200)는 데이터 매핑 단계(S1210), 1차 전처리 단계(S1220) 및 이상치 데이터 제거 단계(S1230)를 포함한다. Referring to FIG. 4, the learning data generation step (S1200) includes a data mapping step (S1210), a first preprocessing step (S1220), and an outlier data removal step (S1230).

데이터 매핑 단계(S1210)는 음원 메타 데이터, 음원 로그 데이터 및 음원 이슈 데이터를 공통 키로 매핑하는 단계이다. 공통 키는 음원에 대한 고유코드일 수 있다. 1차 전처리 단계(S1220)는 음원 로그 데이터 및 음원 이슈 데이터를 대상으로 데이터 스케일링을 수행하고, 음원 메타 데이터를 대상으로 데이터 인코딩을 수행하는 단계이다. 이상치 데이터 제거 단계(S1230)는 1차 전처리 된 음원 메타 데이터, 음원 로그 데이터 및 음원 이슈 데이터 중 적어도 하나 이상의 데이터 각각의 복수의 피처들 각각에 기반하여 이상치를 탐지하고, 제거하는 단계이다. The data mapping step (S1210) is a step of mapping sound source metadata, sound source log data, and sound source issue data to a common key. The common key may be a unique code for the sound source. The first preprocessing step (S1220) is a step in which data scaling is performed on sound source log data and sound source issue data, and data encoding is performed on sound source metadata. The outlier data removal step (S1230) is a step of detecting and removing outliers based on each of a plurality of features of at least one of the first preprocessed sound source metadata, sound source log data, and sound source issue data.

도 5를 참조하면, 이상치 데이터 제거 단계(S1230)는 이상치 선택 단계(S1231) 및 이상치 제거 단계(S1232)를 포함한다. Referring to FIG. 5, the outlier data removal step (S1230) includes an outlier selection step (S1231) and an outlier removal step (S1232).

이상치 선택 단계(S1231)는 복수의 피처들 중 제1 기준값 보다 작거나, 또는 제2 기준값 보다 큰 값을 갖는 피처들을 이상치로 선택하는 단계이다. 제1 기준값은 복수의 피처들 각각에 대응되는 제1 사분위수와 사분범위의 1.5배에 해당하는 값의 차이에 기반한 값이다. 제2 기준값은 복수의 피처들 각각에 대응되는 제3 사분위수와 사분범위의 1.5배에 해당하는 값의 합에 기반한 값이다. 이상치 제거 단계(S1232)는 1차 전처리 된 음원 데이터, 음원 데이터 및 음원 이슈 데이터에서 이상치를 제거하는 단계이다. The outlier selection step (S1231) is a step of selecting features with a value smaller than a first reference value or larger than a second reference value among a plurality of features as outliers. The first reference value is a value based on the difference between the first quartile corresponding to each of the plurality of features and a value corresponding to 1.5 times the interquartile range. The second reference value is a value based on the sum of the third quartile corresponding to each of the plurality of features and a value corresponding to 1.5 times the interquartile range. The outlier removal step (S1232) is a step of removing outliers from the first preprocessed sound source data, sound source data, and sound source issue data.

도 6은 본 발명의 또 다른 실시예에 따른 음원 시장성 예측 장치(600)을 나타낸 도면이고, 도 7은 음원 시장성 예측 장치(600)에 의해 음원 시장성을 예측하는 것에 대한 일례를 나타낸 도면이다. FIG. 6 is a diagram showing a sound source marketability prediction device 600 according to another embodiment of the present invention, and FIG. 7 is a diagram showing an example of predicting the sound source marketability by the sound source marketability prediction device 600.

도 6 및 도 7을 함께 참조하면, 음원 시장성 예측 장치(600)은 적어도 하나의 프로세서(630) 및 메모리(640)를 포함하고, 통신 모듈(610) 및 데이터베이스(620)를 더 포함할 수 있다. Referring to FIGS. 6 and 7 together, the sound source marketability prediction device 600 includes at least one processor 630 and a memory 640, and may further include a communication module 610 and a database 620. .

통신 모듈(610)은 외부 장치 또는 서버와 정보 송수신을 수행하여 음원 시장성 예측에 필요한 데이터를 송수신할 수 있다.The communication module 610 can transmit and receive data necessary for predicting the marketability of sound sources by transmitting and receiving information with an external device or server.

데이터베이스(620)는 음원 시장성 예측에 필요한 데이터가 저장되는 곳일 수 있다. 데이터베이스(620)는 메모리(640)의 일부 영역에 구축되거나 별도의 하드웨어로 구현될 수 있다. The database 620 may be a place where data necessary for predicting the marketability of sound sources is stored. The database 620 may be built in a portion of the memory 640 or may be implemented as separate hardware.

프로세서(630)는 메모리(640)에 저장된 코드에 따라 동작을 수행한다. 메모리(640)는 프로세서(630)와 전기적으로 연결되고, 프로세서(630)에서 수행되는 적어도 하나의 코드가 저장된다. 메모리(640)는 프로세서(630)를 통해 실행될 때 프로세서(640)가 다음과 같은 기능 및 절차들을 수행하도록 야기하는 코드가 저장된다. The processor 630 performs operations according to the code stored in the memory 640. The memory 640 is electrically connected to the processor 630 and stores at least one code executed by the processor 630. The memory 640 stores code that, when executed through the processor 630, causes the processor 640 to perform the following functions and procedures.

메모리(640)는 하나 이상의 음원에 대한 메타 데이터(710) 및 로그 데이터(720)를 포함하는 음원 정보(700) 및 하나 이상의 음원에 대한 이슈 데이터(800)를 획득하고, 전처리(900)하도록 야기하는 코드가 저장된다. 보다 상세하게는, 메모리(640)는 메타 데이터(710) 및 로그 데이터(720) 및 이슈 데이터(800)를 공통 키로 매핑하도록 야기하는 코드가 저장된다. 메모리(640)는 로그 데이터(720) 및 이슈 데이터(800)를 대상으로 데이터 스케일링을 수행하고, 메타 데이터(710)를 대상으로 데이터 인코딩을 수행하는 1차 전처리를 수행하도록 야기하는 코드가 저장된다. 메모리(640)는 1차 전처리 된 메타 데이터(710), 로그 데이터(720) 및 이슈 데이터(800) 중 적어도 하나 이상의 데이터 각각의 복수의 피처들 각각에 기반하여 이상치를 탐지하고, 제거하도록 야기하는 코드가 저장된다. The memory 640 acquires sound source information 700 including metadata 710 and log data 720 for one or more sound sources and issue data 800 for one or more sound sources, and causes preprocessing 900. The code is saved. More specifically, the memory 640 stores meta data 710 and code that causes the log data 720 and issue data 800 to be mapped to a common key. The memory 640 stores a code that causes data scaling to be performed on the log data 720 and issue data 800 and primary preprocessing to perform data encoding on the meta data 710. . The memory 640 causes outliers to be detected and removed based on each of a plurality of features of at least one of the first preprocessed meta data 710, log data 720, and issue data 800. The code is saved.

메타 데이터(710)는 음원의 고유코드, 제목, 가수, 장르, 작곡가, 작사가, 프로듀싱, 발매일 및 피처링 중 적어도 하나 이상을 포함한다. 로그 데이터(720)는 음원의 고유 코드, 특정 기간의 음원 이용량, 음원을 스트리밍하거나, 구매한 사용자의 수 및 음원이 스트리밍되거나 판매된 시간을 포함한다. 특정 기간의 음원 이용량은 음원의 판매 수단, 결제 수단, 이용 플랫폼 및 날짜 중 적어도 하나 이상으로 분류된다. 이슈 데이터(800)는 음원의 고유코드, 플랫폼별 음원 순위, 뮤직비디오 조회수 및 가수의 소셜 미디어 데이터 중 적어도 하나 이상을 포함한다. The metadata 710 includes at least one of the sound source's unique code, title, singer, genre, composer, lyricist, producing, release date, and featuring. Log data 720 includes the unique code of the sound source, the amount of sound source usage in a specific period, the number of users who streamed or purchased the sound source, and the time when the sound source was streamed or sold. The amount of music usage during a specific period is classified by at least one of the sales method of the music source, payment method, usage platform, and date. Issue data 800 includes at least one of the unique code of the sound source, sound source ranking by platform, number of music video views, and singer's social media data.

메모리(640)는 음원 이용량 예측 모델(1000)을 이용하여, 전처리(900)된 음원 정보(700) 및 전처리(900)된 이슈 데이터(800)를 토대로 하나 이상의 음원에 대한 기 설정된 기간의 음원 이용량 예측 데이터(1100)를 도출하도록 야기하는 코드가 저장된다. 음원 이용량 예측 데이터(1100)는, 음원의 판매 수단, 결제 수단, 이용 플랫폼 및 날짜 중 적어도 하나 이상으로 분류되는 음원 이용량이다. 기 설정된 기간은, 로그 데이터(720)에 포함된 특정 기간의 음원 이용량에서 특정 기간 이후의 기간일 수 있다. 음원 이용량 예측 모델(1000)은 음원 메타 데이터, 특정 기간의 음원 이용량을 포함하는 음원 로그 데이터 및 음원 이슈 데이터를 포함하는 학습 데이터를 기초로 분석 대상 음원의 메타 데이터, 로그 데이터 및 이슈 데이터로부터 분석 대상 음원에 대한 기 설정된 기간의 음원 이용량 예측 데이터(1100)를 출력하도록 훈련된 인공지능 모델이다. The memory 640 uses the sound source usage prediction model 1000 to record sound sources for a preset period for one or more sound sources based on preprocessed (900) sound source information (700) and preprocessed (900) issue data (800). Code that causes usage prediction data 1100 to be derived is stored. The music source usage prediction data 1100 is the music source usage amount classified by at least one of the sales method of the music source, payment method, usage platform, and date. The preset period may be a period after a specific period in the amount of sound source usage for a specific period included in the log data 720. The music source usage prediction model (1000) is based on learning data including sound source metadata, sound source log data including sound source usage in a specific period, and sound source issue data. It is an artificial intelligence model trained to output music source usage prediction data (1100) for a preset period for the sound source subject to analysis.

메모리(640)는 음원 이용량 예측 데이터(1100)를 기초로 하나 이상의 음원에 대한 시장성을 예측하도록 야기하는 코드가 저장된다. The memory 640 stores a code that causes the marketability of one or more sound sources to be predicted based on the sound source usage prediction data 1100.

도 8은 본 발명의 또 다른 실시예에 따른 음원 시장성 예측 방법을 설명하는 동작 흐름도이고, 도 9는 음원 시장성 예측 방법의 단계들이 포함하는 세부 단계들을 나타낸 흐름도이다. 이하에서 도 8 및 도 9를 참조하여, 음원 시장성 예측 방법을 설명하도록 한다. 이하에서 설명될 음원 시장성 예측 방법의 각 단계들은 앞서 도 6 및 도 7을 참조하여 설명한 음원 시장성 예측 장치(600)에 의해 수행될 수 있다. 따라서, 앞서 도 6 및 도 7을 참조하여 설명한 본 발명의 실시예에 대한 내용은 이하에서 설명될 실시예에도 동일하게 적용될 수 있으며, 이하에서 상술한 설명과 중복되는 내용은 생략하도록 한다. 이하에서 설명되는 단계들은 반드시 순서대로 수행되어야 하는 것은 아니고, 단계들의 순서는 다양하게 설정될 수 있으며, 단계들은 거의 동시에 수행될 수도 있다.FIG. 8 is an operation flowchart explaining a method for predicting the marketability of a sound source according to another embodiment of the present invention, and FIG. 9 is a flowchart showing detailed steps included in the method for predicting the marketability of a sound source. Hereinafter, a method for predicting the marketability of sound sources will be described with reference to FIGS. 8 and 9. Each step of the sound source marketability prediction method to be described below can be performed by the sound source marketability prediction device 600 previously described with reference to FIGS. 6 and 7. Accordingly, the contents of the embodiments of the present invention previously described with reference to FIGS. 6 and 7 can be equally applied to the embodiments described below, and any content that overlaps with the description described above will be omitted below. The steps described below do not necessarily have to be performed in order, the order of the steps may be set in various ways, and the steps may be performed almost simultaneously.

도 8을 참조하면, 음원 시장성 예측 방법은 데이터 획득 및 전처리 단계(S2100), 음원 이용량 예측 단계(S2200) 및 음원 시장성 예측 단계(S2300)를 포함한다. Referring to FIG. 8, the method for predicting the marketability of a sound source includes a data acquisition and preprocessing step (S2100), a sound source usage prediction step (S2200), and a sound source marketability prediction step (S2300).

데이터 획득 및 전처리 단계(S2100)는 하나 이상의 음원에 대한 메타 데이터 및 로그 데이터를 포함하는 음원 정보 및 하나 이상의 음원에 대한 이슈 데이터를 획득하고, 전처리 하는 단계이다. 메타 데이터는, 음원의 고유코드, 제목, 가수, 장르, 작곡가, 작사가, 프로듀싱, 발매일 및 피처링 중 적어도 하나 이상을 포함한다. 로그 데이터는, 음원의 고유 코드, 특정 기간의 음원 이용량, 음원을 스트리밍하거나, 구매한 사용자의 수 및 음원이 스트리밍되거나 판매된 시간 중 적어도 하나 이상을 포함한다. 이슈 데이터는, 음원의 고유코드, 플랫폼별 음원 순위, 뮤직비디오 조회수 및 가수의 소셜 미디어 데이터 중 적어도 하나 이상을 포함한다. 특정 기간의 음원 이용량은 음원의 판매 수단, 결제 수단, 이용 플랫폼 및 날짜 중 적어도 하나 이상으로 분류된다. The data acquisition and preprocessing step (S2100) is a step of acquiring and preprocessing sound source information including metadata and log data for one or more sound sources and issue data for one or more sound sources. Metadata includes at least one of the sound source's unique code, title, singer, genre, composer, lyricist, producing, release date, and featuring. Log data includes at least one of the following: the unique code of the sound source, the amount of sound source usage in a specific period, the number of users who streamed or purchased the sound source, and the time the sound source was streamed or sold. Issue data includes at least one of the unique code of the sound source, sound source ranking by platform, number of music video views, and singer's social media data. The amount of music usage during a specific period is classified by at least one of the sales method of the music source, payment method, usage platform, and date.

음원 이용량 예측 단계(S2200)는 음원 이용량 예측 모델을 이용하여, 전처리 된 음원 정보 및 이슈 데이터를 토대로 하나 이상의 음원에 대한 기 설정된 기간의 음원 이용량 예측 데이터를 도출하는 단계이다. 음원 이용량 예측 데이터는, 음원의 판매 수단, 결제 수단, 이용 플랫폼 및 날짜 중 적어도 하나 이상으로 분류되는 음원 이용량이다. 기 설정된 기간은 로그 데이터에 포함된 특정 기간의 음원 이용량에서 해당 특정 기간 이후의 기간이다. 음원 이용량 예측 모델은 음원 메타 데이터, 특정 기간의 음원 이용량을 포함하는 음원 로그 데이터 및 음원 이슈 데이터를 포함하는 학습 데이터를 기초로 분석 대상 음원의 메타 데이터, 로그 데이터 및 이슈 데이터로부터 분석 대상 음원에 대한 기 설정된 기간의 음원 이용량 예측 데이터를 출력하도록 훈련된 인공지능 모델이다. The sound source usage prediction step (S2200) is a step of deriving music source usage prediction data for a preset period for one or more sound sources based on preprocessed sound source information and issue data using a sound source usage prediction model. The music source usage prediction data is the music source usage amount classified by at least one of the sales method of the music source, payment method, usage platform, and date. The preset period is the period after that specific period in the amount of music source usage for a specific period included in the log data. The music source usage prediction model is based on learning data including sound source metadata, music source log data including music source usage in a specific period, and sound source issue data. It is an artificial intelligence model trained to output music source usage prediction data for a preset period.

음원 시장성 예측 단계(S2300)는 음원 이용량 예측 데이터를 기초로 하나 이상의 음원에 대한 시장성을 예측하는 단계이다. The music source marketability prediction step (S2300) is a step of predicting the marketability of one or more sound sources based on music source usage prediction data.

도 9를 참조하면, 데이터 획득 및 전처리 단계(S2100)는 데이터 매핑 단계(S2110), 1차 전처리 단계(S2120) 및 이상치 데이터 제거 단계(S2130)를 포함한다. 데이터 전처리는 음원 이용량 예측 모델 생성 방법의 데이터 전처리와 동일할 수 있다. Referring to FIG. 9, the data acquisition and preprocessing step (S2100) includes a data mapping step (S2110), a first preprocessing step (S2120), and an outlier data removal step (S2130). Data preprocessing may be the same as the data preprocessing of the method for generating a music source usage prediction model.

데이터 매핑 단계(S2110)는 메타 데이터, 로그 데이터 및 이슈 데이터를 공통 키로 매핑하는 단계이다. 1차 전처리 단계(S2120)는 로그 데이터 및 이슈 데이터를 대상으로 데이터 스케일링을 수행하고, 메타 데이터를 대상으로 데이터 인코딩을 수행하는 1차 전처리 단계이다. 이상치 데이터 제거 단계(S2130)는 1차 전처리 된 메타 데이터, 로그 데이터 및 이슈 데이터 중 적어도 하나 이상의 데이터 각각의 복수의 피처들 각각에 기반하여 이상치를 탐지하고, 해당 이상치를 제거하는 단계이다. The data mapping step (S2110) is a step of mapping meta data, log data, and issue data to a common key. The first preprocessing step (S2120) is a first preprocessing step that performs data scaling on log data and issue data and data encoding on metadata. The outlier data removal step (S2130) is a step of detecting outliers based on each of a plurality of features of at least one data among primary preprocessed metadata, log data, and issue data, and removing the corresponding outliers.

이상 지금까지 설명한 본 발명의 실시예들에 따른 음원 이용량 예측 모델 생성 방법 및 음원 시장성 예측 방법은, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The method for generating a music source usage prediction model and the sound source marketability prediction method according to the embodiments of the present invention described so far may be in the form of a recording medium containing instructions executable by a computer, such as a program module executed by a computer. It can be implemented. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include computer storage media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 상술한 설명을 기초로 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해되어야만 한다. 본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. 본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.Those of ordinary skill in the technical field to which the present invention pertains will be able to understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention based on the above description. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. The scope of the present invention is indicated by the patent claims described below, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. The scope of the present application is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present application.

100: 음원 이용량 예측 모델 생성 장치
110: 통신 모듈 120: 데이터베이스
130: 프로세서 140: 메모리
200: 학습 데이터 세트
210: 음원 로그 데이터 220: 음원 메타 데이터
230: 음원 이슈 데이터
300: 학습 데이터
400: 인공지능 모델
500: 음원 이용량 예측 데이터
600: 음원 시장성 예측 장치
610: 통신 모듈 620: 데이터베이스
630: 프로세서 640: 메모리
700: 음원 정보
710: 메타 데이터 720: 로그 데이터
800: 이슈 데이터
900: 전처리
1000: 음원 이용량 예측 모델
100: Sound source usage prediction model generation device
110: communication module 120: database
130: Processor 140: Memory
200: training data set
210: Sound source log data 220: Sound source metadata
230: Sound source issue data
300: training data
400: Artificial intelligence model
500: Music source usage prediction data
600: Sound source marketability prediction device
610: Communication module 620: Database
630: Processor 640: Memory
700: Sound source information
710: Metadata 720: Log data
800: Issue data
900: Pretreatment
1000: Music source usage prediction model

Claims (10)

각 단계가 프로세서에 의해 수행되는 방법으로서,
a) 음원의 고유코드, 플랫폼별 음원 순위, 뮤직비디오 조회수 및 가수의 소셜 미디어 데이터 중 적어도 하나 이상을 포함하는 음원 이슈 데이터, 특정 기간의 음원 이용량을 포함하는 음원 로그 데이터 및 음원 메타 데이터를 포함하는 학습 데이터 세트를 획득하는 단계;
b) 상기 학습 데이터 세트를 전처리 하여 학습 데이터를 생성하는 단계; 및
c) 상기 학습 데이터를 기초로, 분석 대상 음원에 대한 메타 데이터, 로그 데이터 및 이슈 데이터로부터 상기 분석 대상 음원에 대한 기 설정된 기간의 음원 이용량 예측 데이터를 출력하도록 훈련된 인공지능 모델을 생성하는 단계를 포함하고,
상기 음원 이용량 예측 데이터는, 음원의 판매 수단, 결제 수단, 이용 플랫폼 및 날짜 중 적어도 하나 이상으로 분류된 음원 이용량이고,
상기 음원 메타 데이터는, 음원의 고유코드, 제목, 가수, 장르, 작곡가, 작사가, 프로듀싱, 발매일 및 피처링 중 적어도 하나 이상을 포함하고,
상기 음원 로그 데이터는, 음원의 고유코드, 음원을 스트리밍하거나, 구매한 사용자의 수 및 음원이 스트리밍되거나 판매된 시간을 더 포함하고,
상기 음원 이용량은 음원의 판매 수단, 결제 수단, 이용 플랫폼 및 날짜 중 적어도 하나 이상으로 분류되고,
상기 b) 단계는,
b-1) 상기 음원 메타 데이터, 상기 음원 로그 데이터 및 상기 음원 이슈 데이터를 공통 키로 매핑하는 단계;
b-2) 상기 음원 로그 데이터 및 상기 음원 이슈 데이터를 대상으로 데이터 스케일링을 수행하고, 상기 음원 메타 데이터를 대상으로 데이터 인코딩을 수행하는 1차 전처리 단계; 및
b-3) 상기 1차 전처리 된 음원 메타 데이터, 음원 로그 데이터 및 음원 이슈 데이터 중 적어도 하나 이상의 데이터 각각의 복수의 피처들 각각에 기반하여 이상치를 탐지하고, 제거하는 단계를 포함하고,
상기 b-3) 단계는,
상기 복수의 피처들 중 제1 기준값 보다 작거나, 또는 제2 기준값 보다 큰 값을 갖는 피처들을 이상치로 선택하는 단계; 및
상기 1차 전처리 된 음원 메타 데이터, 음원 로그 데이터 및 음원 이슈 데이터에서 상기 이상치를 제거하는 단계를 포함하는, 음원 이용량 예측 모델 생성 방법.
How each step is performed by a processor, comprising:
a) Includes sound source issue data including at least one of the unique code of the sound source, sound source ranking by platform, number of music video views, and singer's social media data, sound source log data including sound source usage during a specific period, and sound source metadata. Obtaining a learning data set that:
b) preprocessing the learning data set to generate learning data; and
c) Based on the learning data, generating an artificial intelligence model trained to output sound source usage prediction data for a preset period for the sound source to be analyzed from meta data, log data, and issue data for the sound source to be analyzed. Including,
The music source usage prediction data is the music source usage classified by at least one of the sales method of the sound source, payment method, usage platform, and date,
The sound source metadata includes at least one of the sound source's unique code, title, singer, genre, composer, lyricist, producing, release date, and featuring,
The sound source log data further includes the unique code of the sound source, the number of users who streamed or purchased the sound source, and the time when the sound source was streamed or sold,
The amount of music source usage is classified into at least one of the sound source sales method, payment method, usage platform, and date,
In step b),
b-1) mapping the sound source metadata, the sound source log data, and the sound source issue data to a common key;
b-2) a first preprocessing step of performing data scaling on the sound source log data and the sound source issue data and performing data encoding on the sound source metadata; and
b-3) detecting and removing outliers based on each of a plurality of features of at least one of the first preprocessed sound source metadata, sound source log data, and sound source issue data,
In step b-3),
selecting features having a value smaller than a first reference value or larger than a second reference value among the plurality of features as outliers; and
A method for generating a music source usage prediction model, comprising the step of removing the outliers from the first preprocessed sound source metadata, sound source log data, and sound source issue data.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 제1 기준값은, 상기 복수의 피처들 각각에 대응되는 제1 사분위수와 사분범위의 1.5배에 해당하는 값의 차이에 기반한 값이고, 그리고,
상기 제2 기준값은, 상기 복수의 피처들 각각에 대응되는 제3 사분위수와 사분범위의 1.5배에 해당하는 값의 합에 기반한 값인, 음원 이용량 예측 모델 생성 방법.
According to paragraph 1,
The first reference value is a value based on the difference between the first quartile corresponding to each of the plurality of features and a value corresponding to 1.5 times the interquartile range, and
The second reference value is a value based on the sum of the third quartile corresponding to each of the plurality of features and a value corresponding to 1.5 times the interquartile range.
제1항에 있어서,
상기 인공지능 모델은,
상기 학습 데이터의 음원 메타 데이터 및 음원 이슈 데이터와 상기 학습 데이터의 음원 로그 데이터 간의 변수 상관관계를 토대로 상기 음원 이용량 예측 데이터를 출력하도록 훈련된 것인, 음원 이용량 예측 모델 생성 방법.
According to paragraph 1,
The artificial intelligence model is,
A method for generating a sound source usage prediction model, wherein the sound source usage prediction model is trained to output the sound source usage prediction data based on variable correlation between the sound source metadata and sound source issue data of the learning data and the sound source log data of the learning data.
적어도 하나의 프로세서; 및
상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드가 저장되는 메모리를 포함하고,
상기 메모리는, 상기 프로세서를 통해 실행될 때 상기 프로세서가,
음원의 고유코드, 플랫폼별 음원 순위, 뮤직비디오 조회수 및 가수의 소셜 미디어 데이터 중 적어도 하나 이상을 포함하는 음원 이슈 데이터, 특정 기간의 음원 이용량을 포함하는 음원 로그 데이터 및 음원 메타 데이터를 포함하는 학습 데이터 세트를 획득하고,
상기 학습 데이터 세트를 전처리 하여 학습 데이터를 생성하고, 그리고,
상기 학습 데이터를 기초로, 분석 대상 음원의 메타 데이터, 로그 데이터 및 이슈 데이터로부터 상기 분석 대상 음원에 대한 기 설정된 기간의 음원 이용량 예측 데이터를 출력하도록 훈련된 인공지능 모델을 생성하도록 야기하는 코드를 저장하고,
상기 음원 이용량 예측 데이터는, 음원의 판매 수단, 결제 수단, 이용 플랫폼 및 날짜 중 적어도 하나 이상으로 분류된 음원 이용량이고,
상기 음원 메타 데이터는, 음원의 고유코드, 제목, 가수, 장르, 작곡가, 작사가, 프로듀싱, 발매일 및 피처링 중 적어도 하나 이상을 포함하고,
상기 음원 로그 데이터는, 음원의 고유코드, 음원을 스트리밍하거나, 구매한 사용자의 수 및 음원이 스트리밍되거나 판매된 시간을 더 포함하고,
상기 음원 이용량은 음원의 판매 수단, 결제 수단, 이용 플랫폼 및 날짜 중 적어도 하나 이상으로 분류되고,
상기 메모리는 상기 프로세서로 하여금,
상기 음원 메타 데이터, 상기 음원 로그 데이터 및 상기 음원 이슈 데이터를 공통 키로 매핑하고,
상기 음원 로그 데이터 및 상기 음원 이슈 데이터를 대상으로 데이터 스케일링을 수행하고, 상기 음원 메타 데이터를 대상으로 데이터 인코딩을 수행하여 1차 전처리 하고,
상기 1차 전처리 된 음원 메타 데이터, 음원 로그 데이터 및 음원 이슈 데이터 중 적어도 하나 이상의 데이터 각각의 복수의 피처들 각각에 기반하여 이상치를 탐지하고, 상기 이상치를 제거하고,
상기 복수의 피처들 중 제1 기준값 보다 작거나, 또는 제2 기준값 보다 큰 값을 갖는 피처들을 이상치로 선택하고, 그리고,
상기 1차 전처리 된 음원 메타 데이터, 음원 로그 데이터 및 음원 이슈 데이터에서 상기 이상치를 제거하도록 야기하는 코드를 저장하는, 음원 이용량 예측 모델 생성 장치.
at least one processor; and
A memory electrically connected to the processor and storing at least one code executed by the processor,
The memory, when executed through the processor, causes the processor to:
Learning includes sound source issue data including at least one of the unique code of the sound source, sound source ranking by platform, music video view count, and singer's social media data, sound source log data including sound source usage during a specific period, and sound source metadata. obtain a data set,
Preprocess the learning data set to generate learning data, and
Based on the learning data, a code that generates an artificial intelligence model trained to output sound source usage prediction data for a preset period for the analysis target sound source from metadata, log data, and issue data of the analysis target sound source. Save it,
The music source usage prediction data is the music source usage classified by at least one of the sales method of the sound source, payment method, usage platform, and date,
The sound source metadata includes at least one of the sound source's unique code, title, singer, genre, composer, lyricist, producing, release date, and featuring,
The sound source log data further includes the unique code of the sound source, the number of users who streamed or purchased the sound source, and the time when the sound source was streamed or sold,
The amount of music source usage is classified into at least one of the sound source sales method, payment method, usage platform, and date,
The memory allows the processor to:
Map the sound source metadata, the sound source log data, and the sound source issue data to a common key,
Perform data scaling on the sound source log data and the sound source issue data, perform data encoding on the sound source metadata, and perform primary preprocessing,
Detecting outliers based on each of a plurality of features of at least one of the first preprocessed sound source metadata, sound source log data, and sound source issue data, and removing the outliers,
Among the plurality of features, features with values less than a first reference value or greater than a second reference value are selected as outliers, and
A sound source usage prediction model generating device that stores a code that causes the outliers to be removed from the first preprocessed sound source metadata, sound source log data, and sound source issue data.
삭제delete 삭제delete 제7항에 있어서,
상기 인공지능 모델은,
상기 학습 데이터의 음원 메타 데이터 및 음원 이슈 데이터와 상기 학습 데이터의 음원 로그 데이터 간의 변수 상관관계를 토대로 상기 음원 이용량 예측 데이터를 출력하도록 학습된 것인, 음원 이용량 예측 모델 생성 장치.
In clause 7,
The artificial intelligence model is,
A sound source usage prediction model generating device that is trained to output the sound source usage prediction data based on variable correlation between sound source metadata and sound source issue data of the learning data and sound source log data of the learning data.
KR1020220173305A 2022-12-13 2022-12-13 Method and apparatus for generating model for predicting sound source usage KR102614220B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220173305A KR102614220B1 (en) 2022-12-13 2022-12-13 Method and apparatus for generating model for predicting sound source usage

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220173305A KR102614220B1 (en) 2022-12-13 2022-12-13 Method and apparatus for generating model for predicting sound source usage

Publications (1)

Publication Number Publication Date
KR102614220B1 true KR102614220B1 (en) 2023-12-20

Family

ID=89376829

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220173305A KR102614220B1 (en) 2022-12-13 2022-12-13 Method and apparatus for generating model for predicting sound source usage

Country Status (1)

Country Link
KR (1) KR102614220B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150000952A (en) * 2013-06-25 2015-01-06 에스케이플래닛 주식회사 Music recommendation system based on user preference and method thereof, and server and device applied to the same
KR20180064749A (en) 2016-12-06 2018-06-15 뮤지코인 주식회사 System and method for forecasting and analysis of revenues from sound sources
KR20180114856A (en) * 2017-04-11 2018-10-19 주식회사 스페이스오디티 Method and apparatus for monitoring musition contents
KR102068715B1 (en) * 2019-06-05 2020-01-21 (주)위세아이텍 Outlier detection device and method which weights are applied according to feature importance degree
KR20200055828A (en) * 2018-11-09 2020-05-22 주식회사 한컴엠디에스 Artificial Intelligence Platform Service System and Method
KR20200120340A (en) * 2019-04-12 2020-10-21 주식회사 타키온 Method for sound source mediation, server for sound source mediation and sound source mediation system
KR102320482B1 (en) * 2019-11-29 2021-11-02 김하미 System for sound revenue settlement forecasting using artificail intelligence and method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150000952A (en) * 2013-06-25 2015-01-06 에스케이플래닛 주식회사 Music recommendation system based on user preference and method thereof, and server and device applied to the same
KR20180064749A (en) 2016-12-06 2018-06-15 뮤지코인 주식회사 System and method for forecasting and analysis of revenues from sound sources
KR20180114856A (en) * 2017-04-11 2018-10-19 주식회사 스페이스오디티 Method and apparatus for monitoring musition contents
KR20200055828A (en) * 2018-11-09 2020-05-22 주식회사 한컴엠디에스 Artificial Intelligence Platform Service System and Method
KR20200120340A (en) * 2019-04-12 2020-10-21 주식회사 타키온 Method for sound source mediation, server for sound source mediation and sound source mediation system
KR102068715B1 (en) * 2019-06-05 2020-01-21 (주)위세아이텍 Outlier detection device and method which weights are applied according to feature importance degree
KR102320482B1 (en) * 2019-11-29 2021-11-02 김하미 System for sound revenue settlement forecasting using artificail intelligence and method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
전종석, 김승호, 한나은, 오주희, "사용자 생성 컨텐츠를 활용한 머신러닝 기반 K-POP 음악흥행 예측", 대한산업공학회 2022 춘계공동학술대회(2022.06.)* *

Similar Documents

Publication Publication Date Title
Briot et al. Deep learning for music generation: challenges and directions
Pentreath Machine learning with spark
US20210256543A1 (en) Predictive Analytics Diagnostic System and Results on Market Viability and Audience Metrics for Scripted Media
US20230066853A1 (en) Method and apparatus for training information prediction models, method and apparatus for predicting information, and storage medium and device thereof
CN112231563A (en) Content recommendation method and device and storage medium
US20210097372A1 (en) Co-Informatic Generative Adversarial Networks for Efficient Data Co-Clustering
Lee et al. Predicting process behavior meets factorization machines
Ayyadevara Neural Networks with Keras Cookbook: Over 70 recipes leveraging deep learning techniques across image, text, audio, and game bots
US20190295110A1 (en) Performance analytics system for scripted media
US20170236056A1 (en) Automated predictive modeling and framework
KR102675005B1 (en) Method and Apparatus for Providing Knowledge Compass Service
KR102614220B1 (en) Method and apparatus for generating model for predicting sound source usage
KR20230152629A (en) Method, system, and computer readable record medium for generating reformulated query
Camargo et al. Learning business process simulation models: A Hybrid process mining and deep learning approach
KR20240091365A (en) Method and apparatus for predicting marketability of sound source using sound source usage prediction model
US10311361B1 (en) Media theme propagation using decretization of continuous variables
CN116955777A (en) Method, device, equipment, medium and computer program product for auditing content
Wickham Practical Java Machine Learning
Li et al. Metadata representations for queryable repositories of machine learning models
Matharaarachchi et al. Minimizing features while maintaining performance in data classification problems
US11790296B1 (en) Machine learning predictive modeling with natural language processing of end-user communications
US20240201957A1 (en) Neural network model definition code generation and optimization
US20230401570A1 (en) Determining an optimum quantity of fractional non-fungible tokens to generate for content and a content exchange
JP2023128760A (en) Identification program, identification method and information processing apparatus
Bhoite et al. Predictive analytics model of an engineering and technology campus placement

Legal Events

Date Code Title Description
GRNT Written decision to grant