KR102623449B1 - User vocal evaluation result customized vocal training service providing method, apparatus and system - Google Patents

User vocal evaluation result customized vocal training service providing method, apparatus and system Download PDF

Info

Publication number
KR102623449B1
KR102623449B1 KR1020230114213A KR20230114213A KR102623449B1 KR 102623449 B1 KR102623449 B1 KR 102623449B1 KR 1020230114213 A KR1020230114213 A KR 1020230114213A KR 20230114213 A KR20230114213 A KR 20230114213A KR 102623449 B1 KR102623449 B1 KR 102623449B1
Authority
KR
South Korea
Prior art keywords
vocal
user
content
trainer
data
Prior art date
Application number
KR1020230114213A
Other languages
Korean (ko)
Inventor
김민석
Original Assignee
케이팝팩토리 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 케이팝팩토리 주식회사 filed Critical 케이팝팩토리 주식회사
Priority to KR1020230114213A priority Critical patent/KR102623449B1/en
Application granted granted Critical
Publication of KR102623449B1 publication Critical patent/KR102623449B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063112Skill-based matching of a person or a group to a task
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance

Abstract

일실시예에 따른 장치는 사용자의 단말로부터 사용자의 가창 데이터를 획득하고, 가창 데이터에 대한 항목별 평가 정보를 수신하고, 평가 정보를 가공하여 입력 데이터를 생성하고, 입력 데이터를 인공 신경망에 입력하여 사용자의 보컬 등급을 획득하고, 보컬 등급에 매칭된 보컬 트레이닝 정보를 제공할 수 있다.The device according to one embodiment acquires the user's song data from the user's terminal, receives evaluation information for each item of the song data, processes the evaluation information to generate input data, and inputs the input data into an artificial neural network. The user's vocal grade can be obtained and vocal training information matched to the vocal grade can be provided.

Description

사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스 제공 방법, 장치 및 시스템{USER VOCAL EVALUATION RESULT CUSTOMIZED VOCAL TRAINING SERVICE PROVIDING METHOD, APPARATUS AND SYSTEM}Method, device and system for providing customized vocal training service as a result of user vocal evaluation {USER VOCAL EVALUATION RESULT CUSTOMIZED VOCAL TRAINING SERVICE PROVIDING METHOD, APPARATUS AND SYSTEM}

아래 실시예들은 사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스를 제공하는 기술에 관한 것이다.The following embodiments relate to technology that provides customized vocal training services as a result of user vocal evaluation.

최근 들어 방송통신기술의 발전으로 연예인들의 활동폭이 넓어지고 그들의 일상 생활이 방송 프로그램을 통해 많이 노출되면서 연예인 지망자가 늘어나고 있다. 일반인이 연예인이 되기 위해서는 전문 학원을 다니거나 기획사의 오프라인 오디션에 참가하는 등의 노력을 들여야 한다. 기획사들은 연예인 지망생을 선발하기 위해 일반인을 길거리에서 캐스팅하거나 주기적으로 오디션을 하여 연예인 지망생을 선발한다. 연예인 지망자가 스스로 노력을 할 때나, 기획사들이 직접 연예인 지망자를 물색하여 캐스팅할 때 등, 어느 경우에나 많은 시간과 비용 그리고 노력이 필요하다.Recently, with the development of broadcasting and communication technology, the scope of celebrities' activities has expanded and their daily lives have been exposed through broadcasting programs, leading to an increase in the number of aspiring celebrities. In order for an ordinary person to become a celebrity, they must put in effort, such as attending a specialized academy or participating in an agency's offline audition. To select aspiring celebrities, agencies cast ordinary people on the street or conduct periodic auditions to select aspiring celebrities. In both cases, a lot of time, money, and effort are required, such as when aspiring celebrities make efforts on their own or when agencies directly search for and cast aspiring celebrities.

한편, 유튜브와 같은 온라인 동영상 서비스 기술이 발전하면서 연예인 지망자들이 자기의 끼와 실력을 발휘할 수 있는 기회가 많아졌다. 연예인 지망자들은 모바일 폰이나 캠코더 등으로 자신이 노래하는 모습이나 춤추는 모습을 동영상으로 촬영한 후 유튜브 등에 올려 대중의 관심을 유도하는 방식으로 연예인이 되기 위해 노력하고 있다. 그러나, 이러한 온라인 오디션은 노래하는 모습 또는 춤추는 모습을 촬영한 동영상을 올려 놓은 후 단순히 클릭 수만으로 대중의 관심을 유도하는 것으로 참가자의 실력을 정확하게 평가하기 어렵다.Meanwhile, as online video service technology such as YouTube has developed, opportunities for aspiring celebrities to demonstrate their talents and skills have increased. Aspiring celebrities are trying to become celebrities by recording videos of themselves singing or dancing using mobile phones or camcorders and uploading them to YouTube to attract public attention. However, in these online auditions, it is difficult to accurately evaluate the participants' skills because they upload videos of themselves singing or dancing and then attract the public's interest simply by clicking on them.

또한, 포털 사이트 등에서 제공하는 키워드 검색 등에 의한 인기순위는 오버추어와 같은 광고 기능에 의해 객관적이지 못한 문제점이 있다. 아울러 온라인에서 인기가 있는 사람이라도 기획사에 캐스팅될 경우 여전히 다년간의 전문 트레이닝을 받아야 하고 기획사는 많은 비용과 시간을 투자해야 한다.In addition, there is a problem in that popularity rankings based on keyword searches provided by portal sites, etc. are not objective due to advertising functions such as Overture. In addition, even if a person is popular online, if he or she is cast by an agency, he or she must still undergo years of professional training and the agency must invest a lot of money and time.

이러한 환경에서, 소위 K-POP이라고 불리는 한류 열풍에 따라 한국의 음악 산업은 급속도로 발전하였다. 이에 따라, 가수 또는 아이돌을 지망하는 지망생들이 증가하였고, 이들 가수 지망생들을 대상으로 하는 시장 또한 급상승하고 있다. 그러나, 연예인 지망생의 급증에도 불구하고 연예인 지망생이 연예인으로 데뷔할 수 있는 무대(즉, 오디션 또는 기획사)는 한정되어 있고, 따라서 성공적인 데뷔를 위해서는 자신의 발성과 잘 맞는 기획사를 찾는 것이 중요하게 된다.In this environment, the Korean music industry developed rapidly following the Korean Wave, the so-called K-POP. Accordingly, the number of aspiring singers or idols has increased, and the market for these aspiring singers is also rapidly rising. However, despite the rapid increase in the number of aspiring celebrities, the stages (i.e., auditions or agencies) where aspiring celebrities can debut as celebrities are limited, and therefore, for a successful debut, it is important to find an agency that suits one's voice.

하지만, 지망생들 대부분은 연예 기획사들 각각에 대한 정보를 얻기가 어려울 뿐더러, 자신의 발성 또는 목소리에 관한 적절한 지표가 없어 자신에게 적합한 보컬 트레이닝을 선정하는데 어려움이 있었다.However, most of the aspirants had difficulty selecting the vocal training that was right for them because it was difficult to obtain information about each entertainment agency and there were no appropriate indicators regarding their vocalization or voice.

나아가, 기획사에서도 급증하고 있는 다양한 지망생들 중 실질적으로 기획사에서 계획한 컨셉에 맞게 경쟁력 있는 맞춤형 지망생을 찾아내기 위한 시간 및 비용은 과도하게 소요되고 있는 문제점이 있다.Furthermore, there is a problem that agencies are spending excessive time and money to find competitive and customized candidates according to the concept planned by the agency among the rapidly increasing number of aspirants.

대한민국 등록특허 제10-2259612호(2021.06.01 공고)Republic of Korea Patent No. 10-2259612 (announced on June 1, 2021) 대한민국 등록특허 제10-2107588 호(2020.05.07 공고)Republic of Korea Patent No. 10-2107588 (announced on May 7, 2020) 대한민국 등록특허 제10-1917216 호(2018.11.09 공고)Republic of Korea Patent No. 10-1917216 (announced on November 9, 2018) 대한민국 등록특허 제10-2139889 호(2020.07.30 공고)Republic of Korea Patent No. 10-2139889 (announced on July 30, 2020)

실시예들은 사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스를 제공하고자 한다.Embodiments seek to provide a customized vocal training service as a result of user vocal evaluation.

실시예들은 가창 데이터에 대한 항목별 평가 정보를 인공 신경망에 입력하여 사용자의 보컬 등급을 평가하는 과정에서 입력 데이터를 추가 가공하는 과정을 통해 정확한 보컬 평가 결과를 획득하고자 한다.Embodiments seek to obtain accurate vocal evaluation results through a process of additionally processing the input data in the process of evaluating the user's vocal grade by inputting evaluation information for each item of singing data into an artificial neural network.

실시예들은 사용자의 가창 데이터를 기반으로 연습 콘텐츠를 추천하고자 한다.Embodiments seek to recommend practice content based on the user's singing data.

일실시예에 따르면, 장치에 의해 수행되는 방법은, 사용자의 단말로부터 상기 사용자의 가창 데이터를 획득하는 단계; 상기 가창 데이터에 대한 항목별 평가 정보를 수신하는 단계; 상기 평가 정보를 가공하여 입력 데이터를 생성하는 단계; 상기 입력 데이터를 인공 신경망에 입력하여 상기 사용자의 보컬 등급을 획득하는 단계; 및 상기 보컬 등급에 매칭된 보컬 트레이닝 정보를 제공하는 단계;를 포함할 수 있다.According to one embodiment, the method performed by the device includes obtaining the user's song data from the user's terminal; Receiving evaluation information for each item about the song data; Processing the evaluation information to generate input data; Obtaining the user's vocal rating by inputting the input data into an artificial neural network; and providing vocal training information matched to the vocal grade.

상기 평가 정보에 포함된 평가 항목은, O또는 X로 평가되는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도와 하이톤 또는 로우톤으로 평가되는 음역대와 4가지 유형 중 하나로 평가되는 목소리 유형과, 1 내지 8의 숫자 중 하나로 평가되는 레벨을 포함한다.The evaluation items included in the above evaluation information include pitch, tempo, breathing, rhythm, high pitch, expressiveness, and completeness evaluated as O or Includes levels rated as one of the numbers 1 to 8.

상기 평가 정보를 가공하여 입력 데이터를 생성하는 단계는, 상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 중 O를 받은 항목에 대해서는 상기 레벨과 동일한 값을 입력하고, X를 받은 항목에 대해서는 상기 레벨에 -2를 적용한 값을 입력하되 1이하인 경우에는 1을 입력하는 단계, 상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도에 입력된 숫자에 따라 등급을 결정하는 단계, 및 상기 입력 데이터를 상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급과, 하이톤 또는 로우톤으로 평가된 음역대 및 4가지 유형 중 하나로 평가되는 목소리 유형으로 결정하는 단계를 포함할 수 있다.In the step of processing the evaluation information and generating input data, the same value as the level is input for the items that received an O among the pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness, and for the items that received an Entering a value of -2 applied to the level, but entering 1 if it is less than 1; determining a grade according to the numbers entered for the pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness; and It may include determining the data into grades of pitch, tempo, breathing, rhythm, high pitch, expressiveness, and completeness, a vocal range evaluated as high tone or low tone, and a voice type evaluated as one of four types.

상기 장치에 의해 수행되는 방법은, 음역 정보를 이용하여 상기 입력 데이터를 추가 가공하는 단계;를 더 포함하고, 상기 입력 데이터를 추가 가공하는 단계는, 상기 사용자의 단말로부터 상기 사용자의 음성 데이터를 획득하는 단계, 상기 음성 데이터를 이용하여, 상기 사용자의 음성 평균 음역을 확인하는 단계, 상기 가창 데이터를 이용하여, 상기 사용자의 가창 평균 음역을 확인하는 단계, 및 상기 음성 평균 음역과 상기 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우, 상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급을 한단계 하락시키고, 음역 보정 항목을 상기 입력 데이터에 항목에 추가하는 단계,를 포함할 수 있다.The method performed by the device further includes the step of further processing the input data using transliteration information, and the step of further processing the input data includes obtaining the user's voice data from the user's terminal. A step of confirming the average vocal range of the user's voice using the voice data, a step of confirming the average vocal range of the user's singing using the song data, and the average vocal range of the voice and the average vocal range of the song. If the difference exceeds a preset standard, the step of lowering the grade of the pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness by one level and adding a pitch correction item to the input data may be included. .

상기 장치에 의해 수행되는 방법은, 상기 가창 데이터를 기반으로 사용자의 연습 콘텐츠를 추천하는 단계를 더 포함하고, 상기 연습 콘텐츠를 추천하는 단계는, 상기 가창 데이터로부터 상기 사용자의 보컬 장르를 확인하는 단계, 상기 가창 데이터로부터 주요 키워드를 추출하는 단계, 보컬 데이터베이스로부터 상기 보컬 장르에 해당하는 관심 보컬 콘텐츠를 수집하는 단계, 상기 관심 보컬 콘텐츠 중 상기 주요 키워드를 포함하는 보컬 콘텐츠가 포함되어 있는지 여부를 판단하는 단계, 상기 관심 보컬 콘텐츠 중 상기 주요 키워드를 포함하는 보컬 콘텐츠가 포함된 경우, 상기 주요 키워드를 포함하는 보컬 콘텐츠를 연습 콘텐츠로 결정하는 단계, 상기 관심 보컬 콘텐츠 중 상기 주요 키워드를 포함하는 보컬 콘텐츠가 포함되지 않은 경우, 상기 주요 키워드와 관련된 유사 키워드를 확인하는 단계, 상기 관심 보컬 콘텐츠 중 상기 유사 키워드를 포함하는 보컬 콘텐츠가 포함된 경우, 상기 유사 키워드를 포함하는 보컬 콘텐츠를 연습 콘텐츠로 결정하는 단계, 상기 관심 보컬 콘텐츠 중 상기 유사 키워드를 포함하는 보컬 콘텐츠가 포함되지 않은 경우, 상기 사용자와 평가 정보가 동일한 사용자가 가장 많이 등록한 보컬 콘텐츠를 연습 콘텐츠로 결정하는 단계를 포함할 수 있다.The method performed by the device further includes recommending practice content for the user based on the song data, and the step of recommending the practice content includes confirming the vocal genre of the user from the song data. , extracting main keywords from the song data, collecting vocal content of interest corresponding to the vocal genre from a vocal database, and determining whether vocal content containing the main keyword is included among the vocal content of interest. Step, if the vocal content containing the main keyword is included among the vocal content of interest, determining the vocal content containing the main keyword as practice content, the vocal content containing the main keyword among the vocal content of interest If not included, checking similar keywords related to the main keyword; if vocal content including the similar keyword is included among the vocal content of interest, determining the vocal content including the similar keyword as practice content , If vocal content including the similar keyword is not included among the vocal content of interest, determining the vocal content most registered by users with the same evaluation information as the user as practice content may be included.

상기 장치에 의해 수행되는 방법은, 상기 평가 정보에 기반하여, 상기 연습 콘텐츠를 수정하는 단계를 더 포함하고, 상기 연습 콘텐츠를 수정하는 단계는, 상기 평가 정보로부터, 평가 항목 중 X를 받은 항목의 개수를 확인하는 단계, 상기 X를 받은 항목의 개수가 미리 설정된 제1 기준 미만인 경우, 상기 연습 콘텐츠를 유지하는 단계, 상기 X를 받은 항목의 개수가 동일하면서, 사용자 중 상기 사용자가 X를 받은 항목에 대응하는 평가 항목이 O를 받은 것에 해당하는 유사 사용자를 추출하는 단계, 상기 X를 받은 항목의 개수가 미리 설정된 제1 기준 이상이면서, 미리 설정된 제2 기준 미만인 경우, 상기 연습 콘텐츠에 해당되는 유사 사용자의 보컬 콘텐츠를 추출하여 상기 연습 콘텐츠의 앞부분에 추가하는 단계, 상기 X를 받은 항목의 개수가 상기 제2 기준 이상인 경우, 전체 평가 항목의 개수와 상기 사용자의 X를 받은 항목의 개수의 차이 값에 대응하는 X를 받은 항목의 개수에 해당하는 우수 사용자를 추출하는 단계, 및 상기 연습 콘텐츠에 해당되는 상기 유사 사용자의 보컬 콘텐츠 및 상기 우수 사용자의 보컬 콘텐츠를 추출하여, 상기 연습 콘텐츠의 앞부분 및 뒷부분에 각각 추가하는 단계를 포함할 수 있다.The method performed by the device further includes the step of modifying the practice content based on the evaluation information, and the step of modifying the practice content includes selecting an item that received an Checking the number, if the number of items receiving X is less than a preset first standard, maintaining the practice content, while the number of items receiving Extracting similar users whose evaluation items correspond to those that received O, if the number of items that received X is more than a preset first standard but less than a preset second standard, Extracting the user's vocal content and adding it to the front of the practice content, if the number of items receiving the Extracting a good user corresponding to the number of items that received an It may include steps to add each.

상기 장치에 의해 수행되는 방법은, 상기 사용자의 단말로부터 상기 사용자가 원하는 노래를 포함하는 콘텐츠를 수신하는 단계; 상기 콘텐츠가 제1 노래를 포함한 콘텐츠로 분석되면, 상기 제1 노래를 트레이닝한 이력이 있는 트레이너를 매칭 후보 그룹으로 분류하는 단계; 상기 매칭 후보 그룹으로 분류된 트레이너가 트레이너 하나 있는 것으로 확인된 경우, 상기 트레이너를 상기 사용자의 매칭 상대로 설정하는 단계; 상기 매칭 후보 그룹으로 분류된 트레이너가 둘 이상 있는 것으로 확인된 경우, 상기 제1 노래를 트레이닝한 트레이닝 횟수 및 상기 제1 노래를 포함하는 콘텐츠의 업로드량을 고려하여, 상기 매칭 후보 그룹으로 분류된 트레이너 별로 매칭 점수를 산출하고, 상기 매칭 후보 그룹으로 분류된 트레이너들 중 트레이너의 매칭 점수가 가장 높은 것으로 확인되면, 상기 트레이너를 상기 사용자의 매칭 상대로 설정하는 단계; 및 상기 트레이너가 상기 사용자의 매칭 상대로 설정되면, 상기 트레이너에 대한 추천 정보와 상기 노래를 포함하는 트레이닝 페이지의 링크 정보를 상기 사용자의 단말로 제공하는 단계를 더 포함할 수 있다.The method performed by the device includes receiving content including a song desired by the user from the user's terminal; When the content is analyzed as content including a first song, classifying trainers with a history of training the first song into a matching candidate group; When it is confirmed that there is one trainer classified into the matching candidate group, setting the trainer as a matching partner for the user; When it is confirmed that there are two or more trainers classified into the matching candidate group, the trainer classified into the matching candidate group takes into account the number of training sessions for training the first song and the upload amount of content including the first song. Calculating a matching score for each individual, and if it is confirmed that the trainer has the highest matching score among the trainers classified into the matching candidate group, setting the trainer as a matching partner for the user; And when the trainer is set as a matching partner of the user, it may further include providing recommendation information about the trainer and link information of a training page including the song to the user's terminal.

상기 장치에 의해 수행되는 방법은, 트레이너의 위치를 확인하는 단계를 더 포함하고, 상기 트레이너의 위치를 확인하는 단계는, 상기 사용자가 상기 가창 데이터를 업로드한 가창 이력을 획득하는 단계, 상기 가창 이력을 기초로, 상기 사용자의 가창 주기를 생성하는 단계, 현재 날짜 및 상기 사용자의 가창 주기를 기초로, 상기 사용자의 다음 가창 예정일인 제1 날짜를 확인하는 단계, 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 상기 제1 날짜인 트레이너가 존재하는지 여부를 판단하는 단계, 트레이너의 레슨가능기간이 상기 제1 날짜인 트레이너가 제1 트레이너로 존재한다고 확인되면, 상기 제1 트레이너를 사용자에게 매칭할 것으로 판단하고, 상기 제1 트레이너의 위치를 확인하는 단계, 트레이너의 레슨가능기간이 상기 제1 날짜인 트레이너가 존재하지 않는다고 확인되면, 상기 제1 날짜를 기준으로 미리 설정된 범위 이전에 속한 제2 날짜들을 생성하는 단계, 상기 트레이너의 레슨가능기간이 상기 제2 날짜인 트레이너가 존재하는지 여부를 판단하는 단계, 상기 트레이너의 레슨가능기간이 상기 제2 날짜인 트레이너가 제2 트레이너로 존재한다고 확인되면, 상기 제2 트레이너를 사용자에게 매칭할 것으로 판단하고, 상기 제2 트레이너의 위치를 확인하는 단계, 및 상기 트레이너의 레슨가능기간이 상기 제2 날짜인 트레이너가 존재하지 않는다고 확인되면, 트레이너 중 레슨가능기간이 상기 제1 날짜 이후의 날짜 중 가장 빠른 날짜의 트레이너인 제3 트레이너를 확인하고, 상기 제3 트레이너를 사용자에게 매칭할 것으로 판단하고, 상기 제3 트레이너의 위치를 확인하는 단계를 포함할 수 있다.The method performed by the device further includes the step of confirming the location of the trainer, wherein the step of confirming the location of the trainer includes obtaining a song history in which the user uploads the song data, the song history Based on this, generating the user's singing cycle, based on the current date and the user's singing cycle, confirming the first date, which is the user's next scheduled singing date, lessons from one of the trainers through the trainer database. Determining whether a trainer whose lesson availability period is the first date exists; if it is confirmed that a trainer whose lesson availability period is the first date exists as a first trainer, matching the first trainer to the user; Determining and confirming the location of the first trainer, if it is confirmed that there is no trainer whose lesson availability period is the first date, the second dates that fall before the preset range based on the first date are selected. A step of generating, determining whether a trainer whose lesson availability period of the trainer is the second date exists, if it is confirmed that a trainer whose lesson availability period of the trainer is the second date exists as a second trainer, determining that a second trainer will be matched to the user, and confirming the location of the second trainer, and if it is confirmed that there is no trainer whose lesson availability period is the second date, the lesson availability period among the trainers is It may include confirming a third trainer that is the trainer with the earliest date among the dates after the first date, determining that the third trainer will be matched to the user, and confirming the location of the third trainer.

일실시예에 따른 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.The device according to one embodiment may be combined with hardware and controlled by a computer program stored in a medium to execute any one of the above-described methods.

실시예들은 사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스를 제공할 수 있다.Embodiments may provide a customized vocal training service as a result of a user's vocal evaluation.

실시예들은 가창 데이터에 대한 항목별 평가 정보를 인공 신경망에 입력하여 사용자의 보컬 등급을 평가하는 과정에서 입력 데이터를 추가 가공하는 과정을 통해 정확한 보컬 평가 결과를 획득할 수 있다.In embodiments, accurate vocal evaluation results can be obtained through a process of additionally processing the input data in the process of evaluating the user's vocal grade by inputting evaluation information for each item of singing data into an artificial neural network.

실시예들은 사용자의 가창 데이터를 기반으로 연습 콘텐츠를 추천할 수 있다.Embodiments may recommend practice content based on the user's singing data.

도 1은 일실시예에 따른 시스템의 구성을 설명하기 위한 도면이다.
도 2는 일실시예에 따른 사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스를 제공하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 평가 정보를 가공하여 입력 데이터를 생성하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 입력 데이터를 인공 신경망에 입력하여 사용자의 보컬 등급을 획득하는 과정을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 인공 신경망의 학습 및 평가 프로세스를 설명하기 위한 도면이다.
도 6은 일실시예에 따른 음역대 및 목소리 유형을 결정하는 과정을 설명하기 위한 도면이다.
도 7은 일실시예에 따른 사용자의 단말의 출력 인터페이스를 설명하기 위한 도면이다.
도 8은 일실시예에 따른 입력 데이터를 추가 가공하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 연습 콘텐츠를 추천하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 연습 콘텐츠를 수정하는 과정을 설명하기 위한 순서도이다.
도 11은 일실시예에 따른 트레이너를 사용자의 매칭 상대로 결정하는 과정을 설명하기 위한 순서도이다.
도 12는 일실시예에 따른 트레이너의 위치를 확인하는 과정을 설명하기 위한 순서도이다.
도 13은 일실시예에 따른 장치의 구성의 예시도이다.
1 is a diagram for explaining the configuration of a system according to an embodiment.
Figure 2 is a flowchart illustrating a process for providing a customized vocal training service as a result of a user's vocal evaluation according to an embodiment.
Figure 3 is a flow chart to explain a process for generating input data by processing evaluation information according to an embodiment.
FIG. 4 is a diagram illustrating a process for obtaining a user's vocal rating by inputting input data into an artificial neural network according to an embodiment.
Figure 5 is a diagram for explaining the learning and evaluation process of an artificial neural network according to an embodiment.
FIG. 6 is a diagram illustrating a process for determining a sound range and voice type according to an embodiment.
Figure 7 is a diagram for explaining an output interface of a user's terminal according to an embodiment.
Figure 8 is a flowchart for explaining a process of additionally processing input data according to an embodiment.
Figure 9 is a flowchart for explaining a process for recommending practice content according to an embodiment.
Figure 10 is a flowchart for explaining the process of modifying practice content according to one embodiment.
Figure 11 is a flow chart to explain the process of determining a trainer as a matching partner for a user according to an embodiment.
Figure 12 is a flow chart to explain the process of confirming the location of the trainer according to one embodiment.
Figure 13 is an exemplary diagram of the configuration of a device according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. However, various changes can be made to the embodiments, so the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents, or substitutes for the embodiments are included in the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be modified and implemented in various forms. Accordingly, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected or connected to the other component, but that other components may exist in between.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are for descriptive purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the embodiments belong. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, when describing with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiments, if it is determined that detailed descriptions of related known technologies may unnecessarily obscure the gist of the embodiments, the detailed descriptions are omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.Embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices.

인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 규칙(Rule) 기반의 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반의 스마트 시스템은 점차 심층 학습(Deep Learning) 기반 인공지능 시스템으로 대체되고 있다.An artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike existing rule-based smart systems, it is a system in which machines learn and make decisions on their own. As artificial intelligence systems are used, their recognition rates improve and they can more accurately understand user preferences, and existing rule-based smart systems are gradually being replaced by deep learning-based artificial intelligence systems.

인공지능 기술은 기계 학습 및 기계 학습을 활용한 요소기술들로 구성된다. 기계 학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 심층 학습 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Artificial intelligence technology consists of machine learning and element technologies using machine learning. Machine learning is an algorithmic technology that classifies/learns the characteristics of input data on its own, and elemental technology is a technology that mimics the functions of the human brain such as cognition and judgment by utilizing machine learning algorithms such as deep learning, including linguistic understanding and visual It consists of technical areas such as understanding, reasoning/prediction, knowledge expression, and motion control.

인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.The various fields where artificial intelligence technology is applied are as follows. Linguistic understanding is a technology that recognizes and applies/processes human language/characters and includes natural language processing, machine translation, conversation systems, question and answer, and voice recognition/synthesis. Visual understanding is a technology that recognizes and processes objects like human vision, and includes object recognition, object tracking, image search, person recognition, scene understanding, spatial understanding, and image improvement. Inferential prediction is a technology that judges information to make logical inferences and predictions, and includes knowledge/probability-based reasoning, optimization prediction, preference-based planning, and recommendations. Knowledge expression is a technology that automatically processes human experience information into knowledge data, and includes knowledge construction (data creation/classification) and knowledge management (data utilization). Motion control is a technology that controls the autonomous driving of vehicles and the movement of robots, and includes motion control (navigation, collision, driving), operation control (behavior control), etc.

일반적으로 기계 학습 알고리즘을 실생활에 적용하기 위해서는 기계 학습의 기본 방법론의 특성상 Trial and Error 방식으로 학습을 수행하게 된다. 특히, 심층 학습의 경우 수십만 번의 반복 실행을 필요로 한다. 이를 실제 물리적인 외부 환경에서 실행하기는 불가능하여 대신 실제 물리적인 외부 환경을 컴퓨터상에서 가상으로 구현하여 시뮬레이션을 통해 학습을 수행한다.Generally, in order to apply machine learning algorithms to real life, learning is performed using a trial and error method due to the nature of the basic methodology of machine learning. In particular, deep learning requires hundreds of thousands of iterations. It is impossible to execute this in an actual physical external environment, so instead, the actual physical external environment is virtually implemented on a computer and learning is performed through simulation.

도 1은 일실시예에 따른 시스템의 구성을 설명하기 위한 도면이다.1 is a diagram for explaining the configuration of a system according to an embodiment.

도 1을 참조하면, 일실시예에 따른 시스템은 통신망을 통해 서로 통신 가능한 장치(100), 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500)을 포함할 수 있다.Referring to Figure 1, the system according to one embodiment includes a device 100, a user's terminal 200, an agency's terminal 300, an evaluator's terminal 400, and a trainer's terminal 500 that can communicate with each other through a communication network. ) may include.

먼저, 통신망은 유선 및 무선 등과 같이 그 통신 양태를 가리지 않고 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.First, a communication network can be configured regardless of the communication mode, such as wired or wireless, and can be implemented in various forms to enable communication between servers and between servers and terminals.

장치(100)는 사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스를 제공할 수 있다.The device 100 may provide a customized vocal training service as a result of the user's vocal evaluation.

장치(100)는 사용자 보컬을 평가하고 사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스를 위한 플랫폼을 제공할 수 있으며, 해당 플랫폼을 통해 보컬 평가 결과 및 보컬 트레이닝 서비스 제공에 대한 히스토리를 관리할 수 있다.The device 100 can evaluate user vocals and provide a platform for customized vocal training services as a result of the user vocal evaluation, and manage the history of vocal evaluation results and vocal training service provision through the platform.

장치(100)는 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(100)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다.The device 100 may be its own server owned by a person or organization that provides services using the device 100, a cloud server, or a p2p (peer-to-peer) set of distributed nodes. It may be possible. The device 100 may be configured to perform all or part of the calculation function, storage/reference function, input/output function, and control function of a typical computer.

장치(100)는 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500)과 유무선으로 통신하도록 구성될 수 있으며, 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500)의 동작을 제어하고, 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500)의 화면에 어느 정보를 표시할 것인지에 대해 제어할 수 있다.The device 100 may be configured to communicate wired or wirelessly with the user's terminal 200, the agency's terminal 300, the evaluator's terminal 400, and the trainer's terminal 500. Controls the operations of the terminal 300, the evaluator's terminal 400, and the trainer's terminal 500, and controls the user's terminal 200, the agency's terminal 300, the evaluator's terminal 400, and the trainer's terminal ( You can control which information is displayed on the screen 500).

일실시예에 따르면, 장치(100) 내에는 데이터베이스가 구비될 수 있으며, 이에 한정되지 않고, 장치(100)와 별도로 데이터베이스가 구성될 수 있다. 장치(100)는 기계 학습 알고리즘의 수행을 위한 다수의 인공 신경망을 포함할 수 있다.According to one embodiment, a database may be provided within the device 100, but the present invention is not limited to this, and the database may be configured separately from the device 100. Device 100 may include multiple artificial neural networks for performing machine learning algorithms.

사용자의 단말(200)은 본 발명에 따른 보컬을 평가받고 맞춤형 보컬 트레이닝 서비스를 제공받고자 하는 사용자가 사용하는 단말일 수 있다. 사용자의 단말(200)은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 사용자의 단말(200)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.The user's terminal 200 may be a terminal used by a user who wishes to receive a vocal evaluation and a customized vocal training service according to the present invention. The user's terminal 200 may be a desktop computer, laptop, tablet, smartphone, etc. For example, as shown in FIG. 1, the user's terminal 200 may be a smartphone, and may be employed differently depending on the embodiment.

사용자의 단말(200)은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 사용자의 단말(200)은 장치(100)와 유무선으로 통신하도록 구성될 수 있다.The user's terminal 200 may be configured to perform all or part of the calculation function, storage/reference function, input/output function, and control function of a typical computer. The user's terminal 200 may be configured to communicate with the device 100 wired or wirelessly.

사용자의 단말(200)은 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 페이지에 접속되거나, 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 사용자의 단말(200)은 웹 페이지 또는 애플리케이션을 통해 장치(100)와 연동될 수 있다.The user's terminal 200 is connected to a web page operated by a person or organization that provides services using the device 100, or an application developed and distributed by a person or organization that provides services using the device 100. This can be installed. The user's terminal 200 may be linked to the device 100 through a web page or application.

사용자의 단말(200)은 장치(100)에서 제공하는 웹 페이지, 애플리케이션을 등을 통해 장치(100)에 접속할 수 있다.The user's terminal 200 can access the device 100 through a web page or application provided by the device 100.

기획사의 단말(300)은 본 발명에 따른 연예 기획사에 근무하는 근무자가 사용하는 단말일 수 있다. 기획사의 단말(300)은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 기획사의 단말(300)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.The agency's terminal 300 may be a terminal used by workers at the entertainment agency according to the present invention. The agency's terminal 300 may be a desktop computer, laptop, tablet, smartphone, etc. For example, as shown in FIG. 1, the agency's terminal 300 may be a smartphone and may be employed differently depending on the embodiment.

기획사의 단말(300)은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 기획사의 단말(300)은 장치(100)와 유무선으로 통신하도록 구성될 수 있다.The agency's terminal 300 may be configured to perform all or part of the calculation function, storage/reference function, input/output function, and control function of a typical computer. The agency's terminal 300 may be configured to communicate with the device 100 in a wired or wireless manner.

기획사의 단말(300)은 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 페이지에 접속되거나, 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 기획사의 단말(300)은 웹 페이지 또는 애플리케이션을 통해 장치(100)와 연동될 수 있다.The agency's terminal 300 is connected to a web page operated by a person or organization providing services using the device 100, or an application developed and distributed by a person or organization providing services using the device 100. This can be installed. The agency's terminal 300 may be linked to the device 100 through a web page or application.

기획사의 단말(300)은 장치(100)에서 제공하는 웹 페이지, 애플리케이션을 등을 통해 장치(100)에 접속할 수 있다.The agency's terminal 300 can access the device 100 through a web page or application provided by the device 100.

평가자의 단말(400)은 본 발명에 따른 사용자의 가창 능력을 평가하는 평가자가 사용하는 단말일 수 있다. 평가자의 단말(400)은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 평가자의 단말(400)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.The evaluator's terminal 400 may be a terminal used by an evaluator to evaluate the user's singing ability according to the present invention. The evaluator's terminal 400 may be a desktop computer, laptop, tablet, smartphone, etc. For example, as shown in FIG. 1, the evaluator's terminal 400 may be a smartphone and may be employed differently depending on the embodiment.

평가자의 단말(400)은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 평가자의 단말(400)은 장치(100)와 유무선으로 통신하도록 구성될 수 있다.The evaluator's terminal 400 may be configured to perform all or part of the calculation function, storage/reference function, input/output function, and control function of a typical computer. The evaluator's terminal 400 may be configured to communicate with the device 100 wired or wirelessly.

평가자의 단말(400)은 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 페이지에 접속되거나, 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 평가자의 단말(400)은 웹 페이지 또는 애플리케이션을 통해 장치(100)와 연동될 수 있다.The evaluator's terminal 400 is connected to a web page operated by a person or organization providing services using the device 100, or an application developed and distributed by a person or organization providing services using the device 100. This can be installed. The evaluator's terminal 400 may be linked to the device 100 through a web page or application.

평가자의 단말(400)은 장치(100)에서 제공하는 웹 페이지, 애플리케이션을 등을 통해 장치(100)에 접속할 수 있다.The evaluator's terminal 400 can access the device 100 through a web page or application provided by the device 100.

트레이너의 단말(500)은 본 발명에 따른 보컬 트레이닝 서비스를 제공하고자 하는 트레이너가 사용하는 단말일 수 있다. 트레이너의 단말(500)은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 트레이너의 단말(500)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.The trainer's terminal 500 may be a terminal used by a trainer who wishes to provide vocal training services according to the present invention. The trainer's terminal 500 may be a desktop computer, laptop, tablet, smartphone, etc. For example, as shown in FIG. 1, the trainer's terminal 500 may be a smartphone and may be employed differently depending on the embodiment.

트레이너의 단말(500)은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 트레이너의 단말(500)은 장치(100)와 유무선으로 통신하도록 구성될 수 있다.The trainer's terminal 500 may be configured to perform all or part of the calculation function, storage/reference function, input/output function, and control function of a typical computer. The trainer's terminal 500 may be configured to communicate with the device 100 wired or wirelessly.

트레이너의 단말(500)은 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 페이지에 접속되거나, 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 트레이너의 단말(500)은 웹 페이지 또는 애플리케이션을 통해 장치(100)와 연동될 수 있다.The trainer's terminal 500 is connected to a web page operated by a person or organization providing services using the device 100, or an application developed and distributed by a person or organization providing services using the device 100. This can be installed. The trainer's terminal 500 may be linked to the device 100 through a web page or application.

트레이너의 단말(500)은 장치(100)에서 제공하는 웹 페이지, 애플리케이션을 등을 통해 장치(100)에 접속할 수 있다.The trainer's terminal 500 can access the device 100 through a web page or application provided by the device 100.

청구항에 기재된 단수의 표현은 복수를 포함하는 것으로 이해될 수 있다.The singular expressions recited in the claims may be understood to include the plural.

한편, 설명의 편의를 위해 도 1에서는 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500)만을 도시하였으나, 단말들의 수는 실시예에 따라 얼마든지 달라질 수 있다. 장치(100)의 처리 용량이 허용하는 한, 단말들의 수는 특별한 제한이 없다.Meanwhile, for convenience of explanation, only the user's terminal 200, the agency's terminal 300, the evaluator's terminal 400, and the trainer's terminal 500 are shown in FIG. 1, but the number of terminals varies depending on the embodiment. Anything can change. As long as the processing capacity of the device 100 allows, the number of terminals is not particularly limited.

도 2는 일실시예에 따른 사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스를 제공하는 과정을 설명하기 위한 순서도이다.Figure 2 is a flowchart illustrating a process for providing a customized vocal training service as a result of a user's vocal evaluation according to an embodiment.

도 2를 참조하면, 먼저, S201 단계에서, 장치(100)는 사용자의 단말(200)로부터 사용자의 가창 데이터를 획득할 수 있다.Referring to Figure 2, first, in step S201, the device 100 may obtain the user's song data from the user's terminal 200.

구체적으로, 장치(100)는 사용자가 노래를 부른 가창 데이터가 생성된 사용자의 단말(200)로부터 가창 데이터를 수신할 수 있으며, 데이터베이스에 사용자와 매칭하여 사용자의 가창 데이터를 저장할 수 있다.Specifically, the device 100 may receive song data from the user's terminal 200 where song data in which the user sang a song was generated, and may store the user's song data by matching it with the user in a database.

사용자의 단말(200)은 사용자가 노래를 부른 영상 또는 음성 데이터를 기록하고, 기록 결과에 따라 사용자의 가창 데이터를 생성할 수 있다. 이때, 가창 데이터는 영상 파일 또는 음성 파일일 수 있으나, 이에 한정되는 것은 아니다.The user's terminal 200 may record video or audio data of the user singing a song, and generate the user's singing data according to the recording results. At this time, the song data may be a video file or a voice file, but is not limited thereto.

장치(100)는 사용자의 단말(200)로부터 직접 음성, 동영상 등을 수집하거나, 사용자의 단말(200)에서 SNS 서비스 등에 업로드 및 등록한 데이터를 수집 처리하여 가창 데이터를 획득할 수도 있다.The device 100 may collect voice, video, etc. directly from the user's terminal 200, or may obtain song data by collecting and processing data uploaded and registered to SNS services, etc. from the user's terminal 200.

또한, 사용자의 단말(200)은 사용자와 관련된 사용자 정보를 가창 데이터에 포함시킬 수 있다. 이때, 사용자 정보는 사용자 식별 정보, 사용자의 성별, 나이 및 신체 특징 정보 등을 포함할 수 있으나, 이에 한정되지는 않는다. 사용자 정보는 메타버스(metaverse) 세계에서의 가상의 인물 정보도 포함될 수 있다.Additionally, the user's terminal 200 may include user information related to the user in the song data. At this time, the user information may include, but is not limited to, user identification information, user gender, age, and physical characteristic information. User information may also include information about virtual people in the metaverse world.

장치(100)는 사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스 제공을 위한 플랫폼 서비스 또는 웹 사이트를 제공할 수 있으며, 사용자는 해당 플랫폼 서비스 또는 웹 사이트에 가창 데이터를 업로드할 수도 있다.The device 100 may provide a platform service or website for providing a customized vocal training service as a result of the user's vocal evaluation, and the user may upload singing data to the corresponding platform service or website.

S202 단계에서, 장치(100)는 가창 데이터에 대한 항목별 평가 정보를 수신할 수 있다.In step S202, the device 100 may receive evaluation information for each item about the song data.

이때, 평가 정보에 포함된 평가 항목은 O또는 X로 평가되는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도와 하이톤(H) 또는 로우톤(L)으로 평가되는 음역대와 4가지 유형(FMSO) 중 하나로 평가되는 목소리 유형과, 1 내지 8의 숫자 중 하나로 평가되는 레벨을 포함할 수 있다.At this time, the evaluation items included in the evaluation information include pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness evaluated as O or ) may include a voice type evaluated as one of the voices, and a level evaluated as one of the numbers 1 to 8.

일실시예에 따르면, 장치(100)는 사용자의 단말(200)로부터 수신한 가창 데이터로부터 사용자의 보컬 레벨, 포지션 및 발성 속성을 포함하는 발성 분류 분석을 수행하며, 발성 분류 분석 결과를 사전 구축된 인공지능 학습 기반 평가 모델 데이터베이스에 적용하여 직관 레벨 및 항목 레벨을 산출할 수 있다.According to one embodiment, the device 100 performs a vocalization classification analysis including the user's vocal level, position, and vocalization properties from the song data received from the user's terminal 200, and converts the vocalization classification analysis results into a pre-built Intuition level and item level can be calculated by applying it to the artificial intelligence learning-based evaluation model database.

그리고, 장치(100)는 산출된 직관 레벨 및 항목 레벨을 포함하는 보컬 등급에 기초하여, 보컬 트레이닝 서비스를 위한 보컬 트레이닝 정보를 생성할 수 있으며, 생성된 보컬 트레이닝 정보를 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500) 중 적어도 하나로 전송할 수 있다.In addition, the device 100 may generate vocal training information for a vocal training service based on the vocal grade including the calculated intuition level and item level, and send the generated vocal training information to the user's terminal 200, It can be transmitted to at least one of the agency's terminal 300, the evaluator's terminal 400, and the trainer's terminal 500.

보다 구체적으로, 장치(100)는 먼저 가창 데이터로부터 사전 설정된 발성 분류 분석 알고리즘에 기초하여, 사용자의 보컬 레벨, 포지션 및 발성 속성을 포함하는 발성 분류 분석을 수행할 수 있다.More specifically, the device 100 may first perform a vocalization classification analysis including the user's vocal level, position, and vocalization attributes based on a vocalization classification analysis algorithm preset from the song data.

장치(100)는 이러한 발성 분류 분석에 따른 분석 결과 데이터를 기반으로 하는 직관 레벨 및 항목 레벨의 산출을 위하여, 사전 학습 데이터의 라벨링 데이터를 이용한 인공지능 학습 처리를 수행하여 인공지능 학습 기반 평가 모델을 사전 구축 처리할 수 있다.The device 100 performs artificial intelligence learning processing using the labeling data of the pre-learning data to calculate the intuition level and item level based on the analysis result data according to this speech classification analysis, and creates an artificial intelligence learning-based evaluation model. Pre-construction can be processed.

이러한, 인공지능 학습 기반 평가 모델의 구축에 따라, 장치(100)는 발성 분류 분석 결과를 기반으로 하는 사용자별 직관 레 벨 및 항목 레벨을 포함하는 보컬 등급을 산출할 수 있으며, 이러한 이중 레벨 산출 프로세서에 의한 정확한 평가가 가능하게 된다.According to the construction of this artificial intelligence learning-based evaluation model, the device 100 can calculate a vocal rating including the intuitive level and item level for each user based on the vocalization classification analysis result, and this dual-level calculation processor Accurate evaluation becomes possible.

여기서, 직관 레벨 및 항목 레벨을 포함하는 보컬 등급을 위한 인공지능 학습 기반 평가 모델은, 학습 데이터에 포함된 각 가창 데이터에 대응하는 직관 판정 정보와 항목 평가 정보의 학습에 의해 구축된 인공지능 학습 기반 평가 모델에 의해 결정될 수 있다.Here, the artificial intelligence learning-based evaluation model for vocal rating including intuition level and item level is an artificial intelligence learning-based evaluation model built by learning intuition judgment information and item evaluation information corresponding to each singing data included in the learning data. It can be determined by the evaluation model.

직관 판정 정보는 평가자의 단말(400)을 사용하는 평가자가 가창 데이터를 청취 또는 시청함에 따라 입력된 학습 데이터로부터 라벨링 처리될 수 있으며, 예를 들어, 하기와 같은 각 판정 기준 별 직관 판정 정보가 학습 데이터로서 라벨링되는 것이 예시될 수 있다.Intuitive judgment information can be labeled from learning data input as the evaluator using the evaluator's terminal 400 listens to or watches the song data. For example, intuitive judgment information for each judgment criterion as follows is learned. Labeling as data may be exemplified.

예를 들어, 직관 판정 정보는 1부터 8내지의 숫자를 포함할 수 있다. For example, intuition judgment information may include numbers from 1 to 8.

8: 모든 요소를 충족하면서 흠잡을 데 없이 탄탄한 느낌을 줌,8: It ticks all the boxes and feels impeccably solid;

7: 부르면 부를수록 노래에 경청하게 되며, 딱 들어도 순간적으로 잘한다는 생각이 듦,7: The more I sing, the more I listen to the song, and even when I just hear it, I instantly feel like I'm good at it.

6: 많은 연습량이 느껴지는 레벨로, 전반적으로 안정적인 가창을 보여줌,6: A level where a lot of practice is felt, showing overall stable singing,

5: 가요, 혹은 케이팝 느낌이 능숙하지만 다소 불안한 요소들로 느껴짐,5: The song or K-pop feel is good, but it feels like it has some unsettling elements,

4: 가요, 케이팝처럼 느낌이 나타내기 시작함,4: Gayo, starting to feel like K-pop,

3: 최소한의 기본기는 갖고 있지만 가요, 케이팝적인 느낌은 어려운 상태,3: I have the minimum basic skills, but it is difficult to get a K-Pop feel.

2: 노래로써 역할은 하지만 기본기가 아직 부족한 상태,2: It plays a role as a singer, but the basic skills are still lacking,

1: 노래보다는 말에 가까운 상태1: Closer to speaking than to singing

또한, 항목 판정 정보는 사전 설정된 평가 항목을 가창 데이터에 적용함에 따라 기술적으로 결정될 수 있다.Additionally, item judgment information can be technically determined by applying preset evaluation items to song data.

여기서, 항목 판정 정보의 평가 항목은 하기와 같이 예시될 수 있다.Here, the evaluation items of the item judgment information may be exemplified as follows.

음감: 음과 음 사이의 거리, 음의 높이를 정확하게 표현하는 지 여부,Pitch: the distance between notes, whether the pitch of the sound is expressed accurately,

템포감: BPM을 일정하게 유지하는 감각이 있는지 여부,Sense of tempo: Whether there is a sense of keeping the BPM constant;

호흡: 호흡을 기반으로 한 비브라토로서, 기본기 없을 때의 비브라토 포함하며, 가창 시 2회 이상 표현되어야 인정됨,Breathing: Vibrato based on breathing, including vibrato when there is no basic technique, and must be expressed more than twice when singing to be recognized.

리듬감: 다양한 벤딩 표현, 리듬에 맞는 바이브레이션이 있는지 여부,Sense of rhythm: various bending expressions, whether there is vibration that matches the rhythm,

고음 안정감: 음역대 안에서의 고음 안정감이 있는지 여부,Treble stability: Whether there is treble stability within the sound range,

표현력: 노래의 전체적인 다이내믹, 볼륨의 다이나믹 조절 능력, 흉식적 딕션의 강세, 끝음 처리, 목소리의 질감 변화(성대 접지와 호흡의 조절 능력), 감정 표현력 중 일정 비율 이상이 존재하는 지 여부,Expressive power: The overall dynamics of the song, the ability to control volume dynamics, the emphasis of sarcasm diction, handling of end notes, changes in voice texture (ability to control vocal cords and breathing), whether a certain percentage of emotional expressiveness is present,

완성도: 모든 조건을 충족함과 동시에 임팩트 있는 부분이 확실한 경우 체크되는 항목 기준으로서, 흠잡을 데 없는 실력을 나타냄Completeness: This is a standard for items that are checked when all conditions are met and impactful parts are clear, indicating flawless skills.

장치(100)는, 이와 같이 예시된 직관 판정 정보와 항목 판정 정보의 인공지능 딥러닝 기반의 학습을 통해 평가 모델 데이터베이스를 구축할 수 있으며, 이에 기초한 직관 레벨 및 항목 레벨을 산출하고, 정확한 판정에 의한 보컬 관련 다양한 서비스를, 각 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500) 등으로 제공할 수 있다The device 100 can build an evaluation model database through artificial intelligence deep learning-based learning of the intuition judgment information and item judgment information exemplified in this way, calculate the intuition level and item level based on this, and make accurate judgments. Various services related to vocals can be provided through each user's terminal (200), the agency's terminal (300), the evaluator's terminal (400), and the trainer's terminal (500).

S203 단계에서, 장치(100)는 평가 정보를 가공하여 입력 데이터를 생성할 수 있다. 이때, 평가 정보를 가공하여 입력 데이터를 생성하는 과정은 도 3을 참조하여 후술하기로 한다.In step S203, the device 100 may process the evaluation information to generate input data. At this time, the process of processing the evaluation information to generate input data will be described later with reference to FIG. 3.

한편, 장치(100)는 음역 정보를 이용하여 입력 데이터를 추가 가공하는 과정을 수행할 수 있다. 이때, 입력 데이터를 추가 가공하는 과정에 대한 자세한 설명은 도 8을 참조하여 후술하기로 한다.Meanwhile, the device 100 may perform a process of further processing input data using transliteration information. At this time, a detailed description of the process of further processing the input data will be described later with reference to FIG. 8.

S204 단계에서, 장치(100)는 입력 데이터를 인공 신경망에 입력하여 사용자의 보컬 등급을 획득할 수 있다.In step S204, the device 100 may input the input data into an artificial neural network to obtain the user's vocal rating.

장치(100)는 사용자의 단말(200)로부터 사용자의 가창 데이터를 획득할 수 있다. 여기서, 장치(100)는 사용자의 단말(200)로부터 직접 음성, 동영상 등을 수집하거나, 사용자의 단말(200)에서 SNS 서비스 등에 업로드한 데이터를 수집 처리할 수 있다.The device 100 may obtain the user's song data from the user's terminal 200. Here, the device 100 can collect voice, video, etc. directly from the user's terminal 200, or collect and process data uploaded to SNS services, etc. from the user's terminal 200.

또한, 장치(100)는 인공지능 학습 기반 평가 모델 데이터베이스로부터 수집된 데이터를 전달하여 학습 데이터로서 이용되도록 할 수 있다. 여기서, 학습 데이터에는 각 평가자의 단말(400)에서 입력되거나, 전문가 등에 의해 입력되거나, 기술 기반으로 판정된 직관 판정 정보와 항목 판정 정보가 라벨링 정보로서 할당될 수 있다. 또한, 장치(100)는 각 수집된 가창 데이터와 라벨링 데이터 간 연관성을 체크하여, 데이터의 라벨링 노이즈를 제거할 수도 있다.Additionally, the device 100 may transmit data collected from an artificial intelligence learning-based evaluation model database to be used as learning data. Here, intuitive judgment information and item judgment information input from each evaluator's terminal 400, input by an expert, etc., or determined based on technology may be assigned to the learning data as labeling information. Additionally, the device 100 may check the correlation between each collected song data and labeling data and remove labeling noise from the data.

그리고, 장치(100)는 수집된 가창 데이터의 길이와 특성이 모두 상이하기 때문에, 이를 전처리할 수 있다. 전처리 과정은 예를 들어, 일정 길이(5~10초)로 크롭(crop) 처리하는 과정을 포함할 수 있다.And, since the length and characteristics of the collected song data are all different, the device 100 can preprocess the collected song data. For example, the preprocessing process may include cropping to a certain length (5 to 10 seconds).

또한, 장치(100)는 전처리된 데이터를 이용하여, 반주가 있는 데이터와, 반주가 없는 데이터, 노이즈가 있는 데이터와 같이, 다양한 데이터로 확장시키는 증식(AUGMENTATION) 처리 등이 예시될 수 있다. 증식(AUGMENTATION) 처리에는, 딥러닝 기법을 사용할 수 있고, 룸 임펄스 반응(RoomImpulse Response)과 같은 전통적인 방법을 사용할 수 있으며, 더 나아가 스펙트럼(Spectrogram)을 통해 음성에서 효율적인 정보 추출을 하여, 가창 데이터를 전처리할 수도 있다.Additionally, the device 100 may perform augmentation processing to expand the preprocessed data into various data, such as data with accompaniment, data without accompaniment, and data with noise. For AUGMENTATION processing, deep learning techniques can be used, traditional methods such as RoomImpulse Response can be used, and furthermore, efficient information extraction from the voice through the spectrum can be used to analyze the singing data. It can also be preprocessed.

그리고, 장치(100)는 가창 데이터로부터, 사용자의 보컬 레벨, 포지션 및 발성 속성을 포함하는 발성 분류 분석을 수행하고, 발성 분류 분석 결과를, 사전 구축된 인공지능 학습 기반 평가 모델 데이터베이스에 적용하여, 직관 레벨 및 항목 레벨을 포함하는 보컬 등급을 산출할 수 있다.Then, the device 100 performs a vocalization classification analysis including the user's vocal level, position, and vocalization properties from the song data, and applies the vocalization classification analysis result to a pre-built artificial intelligence learning-based evaluation model database, A vocal rating including intuition level and item level can be calculated.

여기서, 발성 분류 분석 알고리즘은, 가창 데이터로부터 각 사용자의 보컬 레벨, 포지션 및 발성 속성을 분류하는 프로세스로서, 인공지능 학습 기반 평가 모델 데이터베이스를 이용하여 수행되는 것이 바람직한 바, 이에 대하여는 보다 구체적으로 후술하도록 한다.Here, the vocalization classification analysis algorithm is a process of classifying each user's vocal level, position, and vocalization attributes from singing data, and is preferably performed using an artificial intelligence learning-based evaluation model database, which will be described in more detail later. do.

그리고, 인공지능 학습 기반 평가 모델 데이터베이스는, 전술한 가창 데이터에서 전처리된 학습 데이터와, 라벨링 데이터 및 평가자의 단말(400)의 입력 데이터로부터 구축될 수 있으며, 사전 설정된 음성 유형 라벨링 알고리즘에 따라, 구성될 수 있다.In addition, the artificial intelligence learning-based evaluation model database can be constructed from learning data preprocessed from the above-described song data, labeling data, and input data of the evaluator's terminal 400, and is configured according to a preset voice type labeling algorithm. It can be.

예를 들어, 인공지능 학습 기반 평가 모델 데이터베이스는, 스펙트럼(Spectrogram)으로 변형된 보컬 콘텐츠 데이터를, 통상적으로 이미지에 사용되는 합성곱 신경망(Convolutional neural network, CNN)에 적용하여 학습 데이터베이스를 구축할 수 있다. 이를 위해, 인공지능 학습 기반 평가 모델 데이터베이스는, 가창 데이터에 특화되도록 사전 학습된 가중치(pre-trained weight)를 사용하여 적은 데이터에서도 최고의 효율을 얻을 수 있다.For example, an artificial intelligence learning-based evaluation model database can build a learning database by applying vocal content data transformed into a spectrum to a convolutional neural network (CNN) commonly used for images. there is. To this end, the artificial intelligence learning-based evaluation model database can achieve the highest efficiency even with small data by using pre-trained weights that are specialized for song data.

나아가, 인공지능 학습 기반 평가 모델 데이터베이스는, 발성 분류 분석 알고리즘을 효과적으로 처리하기 위한 분류 모델로서, softmax와 Cross Entropy Loss를 사용할 수 있으며, 직관 레벨 및 항목 레벨을 결정하는 학습을 위해, Mean Squared Loss를 사용한 역전파(back propagation) 알고리즘을 이용할 수 있다Furthermore, the artificial intelligence learning-based evaluation model database can use softmax and Cross Entropy Loss as classification models to effectively process speech classification analysis algorithms, and Mean Squared Loss for learning to determine intuition level and item level. You can use the back propagation algorithm used

본 발명의 실시예에 따른 인공지능 학습 기반 평가 모델 데이터베이스는 데이터 흐름 파이프라인을 구축하여 프라이버시를 보존하고 계속적 학습(continual learning)을 통해 모델의 성능을 꾸준히 업데이트 할 수 있으며, 범용적으로 다양한 서비스에 적용할 수 있는 API가 구성될 수 있다. 이에 따라, 휴대폰 어플리케이션 서비스, 메타버스 서비스 등 다양한 서비스를 통해 인공지능 학습 기반 평가 모델 데이터베이스를 이용한 평가 프로세스가 제공될 수 있게 된다.The artificial intelligence learning-based evaluation model database according to an embodiment of the present invention preserves privacy by building a data flow pipeline and can continuously update the performance of the model through continuous learning, and can be used universally for various services. An applicable API may be configured. Accordingly, an evaluation process using an artificial intelligence learning-based evaluation model database can be provided through various services such as mobile phone application services and metaverse services.

인공지능 학습 기반 평가 모델 데이터베이스는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도, 1 내지 9의 숫자 중 하나로 평가되는 레벨, 하이톤(H) 또는 로우톤(L)으로 평가되는 음역대 및 4가지 유형(FMSO) 중 하나로 평가되는 목소리 유형이 라벨링 데이터로 구성되어, 인공지능 학습 기반 평가 모델 데이터베이스가 구축될 수 있다.The artificial intelligence learning-based evaluation model database includes four categories: pitch, tempo, breathing, rhythm, treble, expressiveness, completeness, level evaluated as one of the numbers 1 to 9, vocal range evaluated as high tone (H) or low tone (L), and The voice type evaluated as one of the types (FMSO) is composed of labeling data, and an artificial intelligence learning-based evaluation model database can be built.

이와 같은 모델 구축 및 분석 프로세스에 따라 사용자의 단말(200)에서 업로드한 영상 등에서의 보컬 분석이 자동화 처리될 수 있으며, 장치(100)는 AI 알고리즘을 통해 빅데이터를 분석하여 보컬 등급 분류 및 평가 결과를 도출할 수 있고, 각 음성의 음역대와 목소리 유형별 인공지능 학습 기반 평가 모델 데이터베이스 기반 평가를 통해 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도를 기준으로 보컬 등급과 이에 기반한 보컬 트레이닝 서비스를 제공할 수 있다.According to this model building and analysis process, vocal analysis from videos uploaded from the user's terminal 200 can be automated, and the device 100 analyzes big data through an AI algorithm to classify and evaluate vocal grades. can be derived, and through an artificial intelligence learning-based evaluation model database-based evaluation for each voice range and voice type, vocal grades and vocal training services based on these are provided based on pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness. can do.

본 발명에 따른 보컬 분류 체계는 하이톤(H) 또는 로우톤(L)으로 평가되는 음역대와 4가지 유형(FMSO) 중 하나로 평가되는 목소리 유형을 포함할 수 있으나, 이에 한정되지는 않는다. 본 발명에 따른 보컬 분류 체계는 본 발명의 실시예에 따른 효과적인 보컬 유형 분류를 위해 제안된 것으로, 성대 접지와 호흡의 암 정도를 기준으로 목소리 유형을 크게 4가지의 유형(FMSO)으로 분류하는 FMSO 체계와 목소리의 톤의 높고 낮음에 따라 하이톤(H) 또는 로우톤(L)를 할당하여 8가지 유형으로 소분류하는 HL 체계를 혼합하여 구성될 수 있다.The vocal classification system according to the present invention may include, but is not limited to, a vocal range evaluated as high tone (H) or low tone (L) and a voice type evaluated as one of four types (FMSO). The vocal classification system according to the present invention is proposed for effective vocal type classification according to an embodiment of the present invention. FMSO largely classifies voice types into four types (FMSO) based on the degree of vocal cord grounding and breathing. It can be composed by mixing the HL system, which is subclassified into eight types by assigning high tone (H) or low tone (L) depending on the high and low tone of the system and voice.

이에 따라, 아래와 같은 보컬 유형 분류 및 유형별 가이드 정보가 가창 데이터로부터 분석 처리될 수 있다.Accordingly, the following vocal type classification and guide information for each type can be analyzed and processed from the song data.

HF: 가장 강한 힘으로 호흡을 뱉어내는 타입으로, 큰 볼륨의 호흡이 섞여있는 하이톤톤의 허스키한 목소리를 가지고 있다.HF: This is the type that breathes with the strongest force, and has a high-pitched, husky voice mixed with loud breathing.

LF: 가장 많은 호흡량을 사용하며 큰 볼륨의 묵직 로우톤으로 허스키하고, 강렬한 감정 표현을 할 수 있다.LF: It uses the largest amount of breathing and can express husky and strong emotions with a heavy low tone at high volume.

HM: 아이돌에 있어서 가장 완성도가 높은 발성을 지녔으며 가장 높은 음역을 소화할 수 있는 유형으로 하이톤의 또렷하고 단단한 목소리를 가지고 있다.HM: He has the highest level of vocalization among idols and is the type that can handle the highest register, with a high-pitched, clear and solid voice.

LM: 로우톤의 큰 볼륨의 또렷한 목소리로 낮은 음에 강점을 보이며 저음부터 고음까지 넓은 음역의 소화가 가능한 유형이다LM: This type of voice is low-toned, loud and clear, showing strength in low notes and capable of digesting a wide range of sounds from low to high notes.

HS: 가장 약한 호흡의 힘을 사용하는 타입으로 작은 볼륨에 호흡이 실린 하이톤의 청아한 목소리가 매력적이다.HS: This is the type that uses the weakest breathing power, and the high-pitched, clear voice with breathing at a low volume is attractive.

LS: 가벼운 힘으로 목소리를 만들어내지만 호흡이 가장 많이 실려있는 로우톤의 목소리를 지녔으며 순수하고 아련한 감성적인 톤을 지닌다.LS: Although the voice is produced with light force, it has a low tone voice with the most breathing and a pure and faint emotional tone.

HO: 작은 호흡의 힘으로 명확하며 또렷한 하이톤의 소리를 낼 수 있다. 맑고 청량한 미성을 소유한 경우가 많다.HO: A clear, high-pitched sound can be produced with the power of small breathing. They often have a clear and refreshing voice.

LO: 나지막한 로우톤의 목소리를 만들어내는 타입으로 가볍게 호흡을 쓰며 성대를 효율적으로 사용하여 명확한 소리가 난다.LO: This is a type that produces a soft, low-tone voice. It uses light breathing and uses the vocal cords efficiently to produce a clear sound.

이에 따라, 보컬 유형이 분류되면, 장치(100)는 보컬 유형 분류에 대응하는 보컬 등급을 결정할 수 있으며, 그 결정을 위한 학습 데이터 또한 동일한 라벨링이 처리 및 학습되어, 인공지능 학습 기반 평가 모델 데이터베이스 상에 미리 구축될 수 있다.Accordingly, when the vocal type is classified, the device 100 can determine the vocal grade corresponding to the vocal type classification, and the same labeling is also processed and learned in the learning data for the determination, so that it is displayed on the artificial intelligence learning-based evaluation model database. It can be built in advance.

S205 단계에서, 장치(100)는 보컬 등급에 매칭된 보컬 트레이닝 정보를 제공할 수 있다.In step S205, the device 100 may provide vocal training information matched to the vocal grade.

장치(100)는 직관 레벨 및 항목 레벨을 포함하는 보컬 등급에 기초한 보컬 트레이닝 서비스를 제공할 수 있다.Apparatus 100 may provide vocal training services based on vocal ratings, including intuition level and entry level.

예를 들어, 보컬 등급이 1부터 5등급인 경우, 장치(100)의 데이터베이스에는 각 보컬 등급에 따른 A, B, C, D, E 단계의 보컬 트레이닝을 위한 커리큘럼의 정보가 매칭되어 미리 저장되어 있을 수 있다. 이때, 보컬 등급 및 보컬 트레이닝을 위한 커리큘럼의 단계의 개수는 예시일 뿐, 이에 한정되지 않는다.For example, if the vocal grade is from 1 to 5, the database of the device 100 matches and stores information on the curriculum for vocal training in stages A, B, C, D, and E according to each vocal grade. There may be. At this time, the vocal grade and the number of steps in the curriculum for vocal training are only examples and are not limited thereto.

예를 들어, 사용자의 보컬 등급이 3등급인 경우, 장치(100)는 C 단계에 해당하는 커리큘럼을 포함하는 보컬 트레이닝 정보를 추출하여 사용자에게 제공할 수 있다.For example, if the user's vocal level is level 3, the device 100 may extract vocal training information including a curriculum corresponding to level C and provide it to the user.

이때, 각 단계별 보컬 트레이닝을 위한 커리큘럼에 대한 정보는 보컬 커리큘럼의 트레이너명, 강의명, 트레이닝에 사용될 노래, 트레이닝 기간, 트레이닝 장소, 트레이닝 비용 등에 대한 정보를 포함할 수 있으나, 이에 한정되지는 않는다.At this time, information about the curriculum for vocal training at each stage may include, but is not limited to, information about the trainer name of the vocal curriculum, the name of the lecture, the song to be used for training, the training period, the training location, and the training cost.

보컬 트레이닝 서비스는 각 사용자의 보컬 등급에 따라 각 사용자의 유형별 약한 부분이나 강점 등을 가이드하는 가이드 정보 제공 서비스를 포함할 수 있다.The vocal training service may include a guide information provision service that guides each user's weak points or strengths according to each user's vocal level.

또한, 보컬 트레이닝 서비스는, 각 사용자의 보컬 유형 및 보컬 등급에 기초하여, 적절한 기획사 정보를 매칭하여 제공하는 매칭 서비스를 포함할 수 있다.Additionally, the vocal training service may include a matching service that matches and provides appropriate agency information based on each user's vocal type and vocal grade.

보컬 트레이닝 서비스는, 각 사용자의 보컬 유형 및 보컬 등급에 기초하여, 적절한 강의 정보를 매칭하여 제공하는 매칭 서비스를 포함할 수 있다The vocal training service may include a matching service that matches and provides appropriate lecture information based on each user's vocal type and vocal grade.

또한, 보컬 트레이닝 서비스는 각 사용자의 보컬 유형 및 보컬 등급에 기초하여, 적절한 트레이너 정보를 매칭하여 제공하는 매칭 서비스를 포함할 수 있다.Additionally, the vocal training service may include a matching service that matches and provides appropriate trainer information based on each user's vocal type and vocal grade.

이를 위해, 장치(100)는, 보컬 등급에 기초한 유형 가이드 서비스 데이터를 구성하고, 유형 가이드 서비스 데이터를 사용자의 단말(200)로 제공할 수 있다.To this end, the device 100 may configure type guide service data based on the vocal rating and provide the type guide service data to the user's terminal 200.

또한, 장치(100)는 기획사의 단말(300)로부터 사전 수집된 기획사 정보에 기초하여, 보컬 등급에 기초한 기획사 매칭 서비스 데이터를 구성하고 기획사 매칭 서비스 데이터를 기획사의 단말(300) 또는 사용자의 단말(200)로 제공할 수 있다.In addition, the device 100 configures agency matching service data based on vocal ratings based on agency information pre-collected from the agency's terminal 300 and sends the agency matching service data to the agency's terminal 300 or the user's terminal ( 200).

장치(100)는, 네트워크를 통해 사전 구축된 강의 정보 데이터베이스에 기초하여, 보컬 등급에 기초한 강의 정보 서비스 데이터를 구성하고, 강의 정보 서비스 데이터를 사용자의 단말(200)로 제공할 수 있다.The device 100 may configure lecture information service data based on vocal grades based on a lecture information database pre-established through a network and provide the lecture information service data to the user's terminal 200.

또한, 장치(100)는 트레이너의 단말(500) 로부터 수집된 트레이너 정보에 기초하여, 보컬 등급에 기초한 트레이너 매칭 서비스 데이터를 구성하고, 트레이너 매칭 서비스 데이터를 사용자의 단말(200) 또는 트레이너의 단말(500)로 제공할 수 있다.In addition, the device 100 configures trainer matching service data based on vocal grade based on the trainer information collected from the trainer's terminal 500, and sends the trainer matching service data to the user's terminal 200 or the trainer's terminal ( 500).

한편, 장치(100)는 서비스를 제공함에 있어서, 사전 설정된 오디션 이벤트에 참여한 사용자의 단말(200)로부터 오디션 이벤트에 응시한 사용자의 가창 데이터를 획득하며, 사용자의 가창 데이터로부터 산출되는 각 사용자별 보컬 등급에 기초하여, 사용자 보컬 평가 기반의 오디션 서비스 데이터를 사용자의 단말(200)로 제공할 수도 있다.Meanwhile, in providing the service, the device 100 acquires singing data of users who participated in the audition event from the terminal 200 of the user who participated in the preset audition event, and vocals for each user calculated from the user's singing data. Based on the grade, audition service data based on user vocal evaluation may be provided to the user's terminal 200.

보컬 트레이닝 서비스는 사용자의 보컬 실력 향상을 위한 연습 콘텐츠를 추천하는 서비스를 포함할 수 있다. 일실시예에 따르면, 장치(100)는 가창 데이터를 기반으로 사용자의 연습 콘텐츠를 추천할 수 있다. 이때, 연습 콘텐츠를 추천하는 과정에 대한 자세한 설명은 도 9 내지 도 10을 참조하여 후술하기로 한다.The vocal training service may include a service that recommends practice content to improve the user's vocal skills. According to one embodiment, the device 100 may recommend practice content for the user based on song data. At this time, a detailed description of the process of recommending practice content will be described later with reference to FIGS. 9 and 10.

도 3은 일실시예에 따른 평가 정보를 가공하여 입력 데이터를 생성하는 과정을 설명하기 위한 순서도이고, 도 4는 일실시예에 따른 입력 데이터를 인공 신경망에 입력하여 사용자의 보컬 등급을 획득하는 과정을 설명하기 위한 도면이고, 도 5는 일실시예에 따른 인공 신경망의 학습 및 평가 프로세스를 설명하기 위한 도면이다.FIG. 3 is a flowchart illustrating a process for generating input data by processing evaluation information according to an embodiment, and FIG. 4 is a process for obtaining a user's vocal rating by inputting input data into an artificial neural network according to an embodiment. is a diagram for explaining, and FIG. 5 is a diagram for explaining the learning and evaluation process of an artificial neural network according to an embodiment.

도 3을 참조하면, 먼저, S301 단계에서, 장치(100)는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 중 O를 받은 항목에 대해서는 레벨과 동일한 값을 입력하고, X를 받은 항목에 대해서는 레벨에 -2를 적용한 값을 입력하되 1이하인 경우에는 1을 입력할 수 있다.Referring to FIG. 3, first, in step S301, the device 100 inputs the same value as the level for the items that received an O among the sense of pitch, sense of tempo, breathing, sense of rhythm, treble, expressiveness, and completeness, and inputs the same value as the level for the item that received an X. For this, enter a value of -2 applied to the level, but if it is less than 1, you can enter 1.

예를 들어, 각 레벨은 HL 및 FMSO 체계에 대응하는 [음감], [템포감], [호흡 컨트롤], [리듬감], [고음 안정감], [표현력], [완성도] 기준으로 판정되어 1에서 8레벨 수준으로 분류될 수 있다. 그리고, [O를 받은 항목 개수]+1 은 보컬 등급으로서 정의될 수 있으며, [완성도] 항목은 다른 6가지 항목이 전부 긍정인 상태에서 완벽한 수준으로 판단될 때 부여가능한 임의의 항목일 수 있다.For example, each level is judged based on [Pitch], [Tempo], [Breathing Control], [Rhythm], [Treble Stability], [Expression], and [Completeness] that correspond to the HL and FMSO systems and are rated from 1 to 8. Level It can be classified into levels. In addition, [Number of items receiving O] + 1 can be defined as a vocal grade, and the [Completeness] item can be an arbitrary item that can be given when the other 6 items are all positive and judged to be at a perfect level.

예를 들어, 사용자가 음감, 템포감, 표현력, 리듬감, 고음에 O를 받은 상황이라면 O의 개수+1(0레벨이 존재하지 않기에+1을 모든 레벨에 기본적으로 적용되어야 함)=6레벨의 보컬 등급에 대한 판정을 받게 되며, O가 부여된 항목에는 판정받은 레벨 값인 6이 산출되고, X가 부여된 항목에는 레벨 값의 -2값이 산출될 수 있다.For example, if the user received O in pitch, tempo, expression, rhythm, and high notes, the number of O + 1 (since there is no level 0, +1 should be applied to all levels by default) = 6 levels. You will be judged on your vocal grade, and for items given O, the judged level value of 6 may be calculated, and for items given X, a level value of -2 may be calculated.

각 평가 항목별 레벨 부여에 따라, 평가자의 단말(400)에서는 직관 판정 정보를 입력할 수 있으며, 장치(100)는 인공지능 학습 기반 평가 모델 데이터베이스 기반의 평가에 따른 항목 판정 정보를 입력할 수 있다.Depending on the level assigned to each evaluation item, the evaluator's terminal 400 can input intuition judgment information, and the device 100 can input item judgment information based on an evaluation based on an artificial intelligence learning-based evaluation model database. .

장치(100)는 직관 판정 정보에 기초한 직관 레벨과, 항목 판정 정보에 기초한 항목 레벨을 산출하고, 직관 레벨 및 항목 레벨 간 모순 제거 등이 세부 항목 데이터 조정을 수행하여, 최종적인 보컬 등급을 결정할 수 있다.The device 100 calculates an intuition level based on intuition judgment information and an item level based on item judgment information, performs detailed item data adjustment such as removing contradictions between intuition levels and item levels, and determines a final vocal grade. there is.

직관 판정 정보의 경우에는 평가자의 단말(400)에서 들리는 그대로의 수준을 직관으로 판정하여 입력한 입력 정보로서 산출되며, 아래와 같이 구성될 수 있다.In the case of intuition judgment information, it is calculated as input information input by intuitively determining the level as heard at the evaluator's terminal 400, and may be configured as follows.

8 Level: 모든 요소를 충족하면서 흠잡을 데 없이 탄탄한 느낌을 줌8 Level: It ticks all the boxes and feels impeccably solid.

7 Level: 부르면 부를수록 노래에 경청하게 되며, 딱 들어도 순간적으로 잘한다는 생각이 듦7 Level: The more you sing, the more you listen to the song, and even when you just listen to it, you instantly feel like you're good at it.

6 Level: 많은 연습량이 느껴지는 레벨로, 전반적으로 안정적인 가창을 보여줌6 Level: This is a level where a lot of practice is felt, showing overall stable singing.

5 Level: 가요, 혹은 케이팝 느낌이 능숙하지만 다소 불안한 요소들로 느껴짐5 Level: The song or K-pop feel is good, but it feels like it has some unsettling elements.

4 Level: 가요, 케이팝처럼 느낌이 나타내기 시작함4 Level: Starting to feel like pop music and K-pop

3 Level: 최소한의 기본기는 갖고 있지만 가요, 케이팝적인 느낌은 어려운 상태Level 3: Possesses the minimum basic skills, but has difficulty in feeling the K-Pop style.

2 Level: 노래로써 역할은 하지만 기본기가 아직 부족한 상태2 Level: The song plays a role, but the basic skills are still lacking.

1 Level: 노래보다는 말에 가까운 상태1 Level: Closer to speaking than singing

또한, 항목 판정의 경우에는, 직관 판정 레벨에 대응하여, 하기 기준에 맞는 각 항목들을 O/X로 평가함에 따라 평가될 수 있다.Additionally, in the case of item judgment, each item that meets the following criteria can be evaluated as O/X, corresponding to the intuitive judgment level.

음감: 음과 음 사이의 거리, 음의 높이를 정확하게 표현할 수 있는 능력Pitch: The ability to accurately express the distance between notes and the pitch of the sound.

템포감: BPM을 일정하게 유지하는 감각Sense of tempo: The sense of keeping the BPM constant

호흡 컨트롤: 호흡을 기반으로 한 비브라토(기본기가 잘 이뤄지지 은 상태에서 비브라토를 할 경우를 포함, 노래하는 부분에서 2회 이상 표현되어야 인정)Breathing control: Vibrato based on breathing (including when vibrato is used when the basic technique is not well developed, it must be expressed more than twice during the singing part to be recognized)

리듬감: 다양한 벤딩 표현, 리듬에 맞는 바이브레이션.Sense of rhythm: Various bending expressions, vibration that matches the rhythm.

고음 안정감: 그 사람의 음역대 안에서의 고음 안정감, 고음 부분의 발성과 안정감에서 판단됨.High-pitched stability: Judged by high-pitched stability within the person's vocal range, vocalization and stability in the high-pitched region.

표현력: 노래의 전체적인 다이내믹, 볼륨의 다이나믹 조절 능력, 흉식적 딕션의 강세, 끝음 처리, 목소리의 질감 변화(성대 접지와 호흡의 조절 능력), 감정 표현력 중 일정 개수 이상 존재하는 경우Expressive power: When a certain number of the following are present: the overall dynamics of the song, the ability to control volume dynamics, the emphasis of negative diction, handling of end notes, changes in voice texture (ability to control vocal cords and breathing), and emotional expressiveness.

완성도: 모든 조건을 충족함과 동시에 임팩트 있는 부분이 확실하여, 흠잡을 데 없는 실력이 있는 경우Completeness: When all conditions are met and at the same time the impact is clear and the skills are flawless.

즉, 인공지능 학습 기반 평가 모델 데이터베이스의 학습에 필요한 라벨링 데이터는 아래와 같이 예시된다.In other words, the labeling data required for learning the artificial intelligence learning-based evaluation model database is exemplified as follows.

음감, 템포감, 호흡 컨트롤, 리듬감, 고음 안정감, 표현력, 완성도 (O): 7가지 항목,Sense of pitch, sense of tempo, breathing control, sense of rhythm, stability of high notes, expressiveness, completeness (O): 7 items,

음감, 템포감, 호흡 컨트롤, 리듬감, 고음 안정감, 표현력, 완성도 (X): 7가지 항목,Sense of pitch, sense of tempo, breathing control, sense of rhythm, stability of high notes, expressiveness, completeness (X): 7 items,

HL: 2가지 분류 항목,HL: 2 categories;

FMSO: 4가지 분류 항목FMSO: 4 categories

레벨 측정 결과 데이터는, 전술한 레벨 판정에 이용되는 항목별 (O), (X) 데이터들을 이용하여 산출되는 레벨 숫자 또는 등급 정보를 포함할 수 있다.The level measurement result data may include a level number or grade information calculated using (O) and (X) data for each item used in the above-described level determination.

S302 단계에서, 장치(100)는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도에 입력된 숫자에 따라 등급을 결정할 수 있다. In step S302, the device 100 may determine the grade according to the numbers entered for pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness.

이때, 도 4를 참조하면, 장치(100)는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도를 포함하는 각 평가 항목에 입력된 숫자를 등급으로 치환할 수 있다.At this time, referring to FIG. 4, the device 100 may replace the numbers entered for each evaluation item including pitch, tempo, breathing, rhythm, high pitch, expressiveness, and completeness with a grade.

이때, 최저 레벨(예컨대, 1레벨)부터 최고 레벨(예컨대, 8레벨)로 구분될 수 있으므로, 최저 레벨에 해당하는 값은 F 등급으로, 최고 레벨에 해당하는 값은 SS등급으로 치환할 수 있다.At this time, since it can be classified from the lowest level (e.g., level 1) to the highest level (e.g., level 8), the value corresponding to the lowest level can be replaced with an F grade, and the value corresponding to the highest level can be replaced with an SS grade. .

즉, 장치(100)는 1레벨에 해당하는 항목은 F, 2 레벨에 해당하는 항목은 E, 3레벨에 해당하는 항목은 D, 4 레벨에 해당하는 항목은 C, 5 레벨에 해당하는 항목은 B, 6 레벨에 해당하는 항목은 A, 7 레벨에 해당하는 항목은 S, 8 레벨에 해당하는 항목은 SS로 각 평가 항목에 입력된 숫자를 등급으로 치환할 수 있다.That is, the device 100 has F for items corresponding to level 1, E for items corresponding to level 2, D for items corresponding to level 3, C for items corresponding to level 4, and C for items corresponding to level 5. The numbers entered for each evaluation item can be replaced with a grade, with A for items corresponding to levels B and 6, S for items corresponding to level 7, and SS for items corresponding to level 8.

S303 단계에서, 장치(100)는 입력 데이터를 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급과, 하이톤(H) 또는 로우톤(L)으로 평가된 음역대 및 4가지 유형(FMSO) 중 하나로 평가되는 목소리 유형으로 결정할 수 있다.In step S303, the device 100 divides the input data into grades of pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness, a sound range evaluated as high tone (H) or low tone (L), and four types (FMSO). It can be determined by the type of voice evaluated as one of the following.

도 6은 일실시예에 따른 음역대 및 목소리 유형을 결정하는 과정을 설명하기 위한 도면이다.FIG. 6 is a diagram illustrating a process for determining a sound range and voice type according to an embodiment.

도 6을 참조하면, 본 발명에 따른 보컬 분류 체계는 하이톤(H) 또는 로우톤(L)으로 평가되는 음역대와 4가지 유형(FMSO) 중 하나로 평가되는 목소리 유형을 포함할 수 있으나, 이에 한정되지는 않는다. 본 발명에 따른 보컬 분류 체계는 본 발명의 실시예에 따른 효과적인 보컬 유형 분류를 위해 제안된 것으로, 성대 접지와 호흡의 암 정도를 기준으로 목소리 유형을 크게 4가지의 유형(FMSO)으로 분류하는 FMSO 체계와 목소리의 톤의 높고 낮음에 따라 하이톤(H) 또는 로우톤(L)를 할당하여 8가지 유형으로 소분류하는 HL 체계를 혼합하여 구성될 수 있다.Referring to Figure 6, the vocal classification system according to the present invention may include a vocal range evaluated as high tone (H) or low tone (L) and a voice type evaluated as one of four types (FMSO), but is not limited to this. does not The vocal classification system according to the present invention is proposed for effective vocal type classification according to an embodiment of the present invention. FMSO largely classifies voice types into four types (FMSO) based on the degree of vocal cord grounding and breathing. It can be composed by mixing the HL system, which is subclassified into eight types by assigning high tone (H) or low tone (L) depending on the high and low tone of the system and voice.

이에 따라, 아래와 같은 보컬 유형 분류 및 유형별 가이드 정보가 가창 데이터로부터 분석 처리될 수 있다.Accordingly, the following vocal type classification and guide information for each type can be analyzed and processed from the song data.

HF: 가장 강한 힘으로 호흡을 뱉어내는 타입으로, 큰 볼륨의 호흡이 섞여있는 하이톤톤의 허스키한 목소리를 가지고 있다.HF: This is the type that breathes with the strongest force, and has a high-pitched, husky voice mixed with loud breathing.

LF: 가장 많은 호흡량을 사용하며 큰 볼륨의 묵직 로우톤으로 허스키하고, 강렬한 감정 표현을 할 수 있다.LF: It uses the largest amount of breathing and can express husky and strong emotions with a heavy low tone at high volume.

HM: 아이돌에 있어서 가장 완성도가 높은 발성을 지녔으며 가장 높은 음역을 소화할 수 있는 유형으로 하이톤의 또렷하고 단단한 목소리를 가지고 있다.HM: He has the highest level of vocalization among idols and is the type that can handle the highest register, with a high-pitched, clear and solid voice.

LM: 로우톤의 큰 볼륨의 또렷한 목소리로 낮은 음에 강점을 보이며 저음부터 고음까지 넓은 음역의 소화가 가능한 유형이다LM: This type of voice is low-toned, loud and clear, showing strength in low notes and capable of digesting a wide range of sounds from low to high notes.

HS: 가장 약한 호흡의 힘을 사용하는 타입으로 작은 볼륨에 호흡이 실린 하이톤의 청아한 목소리가 매력적이다.HS: This is the type that uses the weakest breathing power, and the high-pitched, clear voice with breathing at a low volume is attractive.

LS: 가벼운 힘으로 목소리를 만들어내지만 호흡이 가장 많이 실려있는 로우톤의 목소리를 지녔으며 순수하고 아련한 감성적인 톤을 지닌다.LS: Although the voice is produced with light force, it has a low tone voice with the most breathing and a pure and faint emotional tone.

HO: 작은 호흡의 힘으로 명확하며 또렷한 하이톤의 소리를 낼 수 있다. 맑고 청량한 미성을 소유한 경우가 많다.HO: A clear, high-pitched sound can be produced with the power of small breathing. They often have a clear and refreshing voice.

LO: 나지막한 로우톤의 목소리를 만들어내는 타입으로 가볍게 호흡을 쓰며 성대를 효율적으로 사용하여 명확한 소리가 난다.LO: This is a type that produces a soft, low-tone voice. It uses light breathing and uses the vocal cords efficiently to produce a clear sound.

이에 따라, 보컬 유형이 분류되면, 장치(100)는 보컬 유형 분류에 대응하는 보컬 등급을 결정할 수 있으며, 그 결정을 위한 학습 데이터 또한 동일한 라벨링이 처리 및 학습되어, 인공지능 학습 기반 평가 모델 데이터베이스 상에 미리 구축될 수 있다.Accordingly, when the vocal type is classified, the device 100 can determine the vocal grade corresponding to the vocal type classification, and the same labeling is also processed and learned in the learning data for the determination, so that it is displayed on the artificial intelligence learning-based evaluation model database. It can be built in advance.

도 7은 일실시예에 따른 사용자의 단말의 출력 인터페이스를 설명하기 위한 도면이다.Figure 7 is a diagram for explaining an output interface of a user's terminal according to an embodiment.

사용자의 단말(200)은 애플리케이션을 실행함으로써, 사용자의 가창 데이터의 분석 결과와 이에 따른 보컬 트레이닝 정보를 디스플레이를 통해 출력할 수 있다.By executing the application, the user's terminal 200 can output the analysis results of the user's singing data and the resulting vocal training information through the display.

본 발명의 실시 예에 따른 항목 레벨 기준표는 가장 왼쪽에 위치한 항목일수록 보다 보컬 기본능력 가중치가 높은 항목으로 배치 구성될 수 있는 바, 보컬 실력 기본기를 갖출 때 필요한 좌측 항목부터 우선적으로 가이드가 제공되도록 처리하면, 보다 효과적 가이드 및 팁을 제공할 수 있는 장점이 있다.The item level standard table according to an embodiment of the present invention can be arranged so that the leftmost items have a higher basic vocal ability weight, so guides are provided preferentially starting from the left items necessary for acquiring basic vocal skills. This has the advantage of providing more effective guides and tips.

도 8은 일실시예에 따른 입력 데이터를 추가 가공하는 과정을 설명하기 위한 순서도이다.Figure 8 is a flowchart for explaining a process of additionally processing input data according to an embodiment.

장치(100)는 음역 정보를 이용하여 입력 데이터를 추가 가공하는 과정을 수행할 수 있다. 음역 정보는 사용자의 음성 데이터 및 사용자의 가창 데이터를 포함할 수 있으나, 이에 한정되지는 않는다.The device 100 may perform a process of further processing input data using transliteration information. The sound range information may include, but is not limited to, the user's voice data and the user's singing data.

도 8을 참조하면, 먼저, S801 단계에서, 장치(100)는 사용자의 단말(200)로부터 사용자의 음성 데이터를 획득할 수 있다.Referring to FIG. 8, first, in step S801, the device 100 may obtain the user's voice data from the user's terminal 200.

이때, 가창 데이터는 사용자의 보컬 표현을 포함하는 음악 활동에서 생성되는 음성 데이터의 일종으로서, 노래를 부르거나 가창을 하는 과정에서 녹음된 음성 데이터를 포함할 수 있다.At this time, the song data is a type of voice data generated from musical activities including the user's vocal expression, and may include voice data recorded in the process of singing or singing.

음성 데이터는 사용자가 말하는 과정에서 녹음된 음성 데이터를 포함할 수 있다. 통상적으로, 가창 데이터는 음성 데이터의 하위 집합으로서 노래 부르기와 같은 음악적인 활동에 특화되어 있다. 하지만, 본 발명에서는 음성 데이터 중 가창 데이터를 제외한 데이터를 음성 데이터로서 설정될 수 있다.Voice data may include voice data recorded while the user is speaking. Typically, song data is a subset of voice data and is specialized for musical activities such as singing. However, in the present invention, data excluding song data among voice data may be set as voice data.

일실시예에 따르면, 사용자의 단말(200)로부터 가창 데이터 및 음성 데이터를 획득하는 과정에서, 장치(100)는 사용자의 단말(200)로부터 가창 데이터인지 음성 데이터인지 데이터의 유형을 선택하도록 하는 선택 페이지를 생성하여 사용자의 단말(200)로 제공할 수 있으며, 선택 페이지를 통해 가창 데이터인지 음성 데이터인지 여부가 선택되면, 가창 데이터의 경우 'vocal'의 태그를 추가하고, 음성 데이터의 경우 'voice'의 태그를 추가하여 데이터베이스에 저장할 수 있다.According to one embodiment, in the process of acquiring song data and voice data from the user's terminal 200, the device 100 selects the type of data, whether song data or voice data, from the user's terminal 200. A page can be created and provided to the user's terminal 200, and when whether it is song data or voice data is selected through the selection page, the tag 'vocal' is added for song data, and 'voice' is added for voice data. You can save it to the database by adding the tag '.

S802 단계에서, 장치(100)는 음성 데이터를 이용하여, 사용자의 음성 평균 음역을 확인할 수 있다.In step S802, the device 100 may check the average vocal range of the user's voice using voice data.

일실시예에 따르면, 장치(100)는 사용자의 음성 데이터를 노이즈 제거, 정규화 과정 등을 수행하고, 음성 데이터를 시간-주파수 영역으로 변환할 수 있다. 음성 데이터를 시간-주파수 영역으로 변환하는 과정은 예를 들어, Short-time Fourier Transform (STFT) 또는 Mel-Frequency Cepstral Coefficients (MFCC) 등의 방법을 포함할 수 있으나, 이에 한정되지는 않는다.According to one embodiment, the device 100 may perform noise removal and normalization processes on the user's voice data and convert the voice data into the time-frequency domain. The process of converting voice data into the time-frequency domain may include, but is not limited to, methods such as Short-time Fourier Transform (STFT) or Mel-Frequency Cepstral Coefficients (MFCC).

장치(100)는 주파수 영역에서 음성이 주로 발생하는 주요 주파수 대역을 파악하고, 주요 주파수 대역을 이용하여 사용자의 음성 평균 음역을 계산할 수 있다. 이때, 장치(100)는 주파수 대역의 중심 주파수를 평균내는 방식으로 음성 평균 음역을 계산할 수 있으나, 이에 한정되지는 않는다.The device 100 can determine the main frequency band in which speech is mainly generated in the frequency domain and calculate the average vocal range of the user's voice using the main frequency band. At this time, the device 100 may calculate the average voice range by averaging the center frequency of the frequency band, but is not limited to this.

사용자의 음성 평균 음역은 사용자가 말하거나 대화하는 경우 등의 일상생활에서 주로 사용하는 음성의 음역대를 반영할 수 있다.The user's average vocal range may reflect the vocal range mainly used by the user in daily life, such as when speaking or having a conversation.

S803 단계에서, 장치(100)는 가창 데이터를 이용하여, 사용자의 가창 평균 음역을 확인할 수 있다.In step S803, the device 100 may check the average vocal range of the user's singing using the singing data.

일실시예에 따르면, 장치(100)는 사용자의 가창 데이터를 노이즈 제거, 정규화 과정 등을 수행하고, 가창 데이터를 시간-주파수 영역으로 변환할 수 있다. 가창 데이터를 시간-주파수 영역으로 변환하는 과정은 예를 들어, Short-time Fourier Transform (STFT) 또는 Mel-Frequency Cepstral Coefficients (MFCC) 등의 방법을 포함할 수 있으나, 이에 한정되지는 않는다.According to one embodiment, the device 100 may perform noise removal and normalization processes on the user's song data and convert the song data into the time-frequency domain. The process of converting singing data into the time-frequency domain may include, but is not limited to, methods such as Short-time Fourier Transform (STFT) or Mel-Frequency Cepstral Coefficients (MFCC).

장치(100)는 주파수 영역에서 가창이 주로 발생하는 주요 주파수 대역을 파악하고, 주요 주파수 대역을 이용하여 사용자의 가창 평균 음역을 계산할 수 있다. 이때, 장치(100)는 주파수 대역의 중심 주파수를 평균내는 방식으로 가창 평균 음역을 계산할 수 있으나, 이에 한정되지는 않는다.The device 100 can identify the main frequency band in which singing mainly occurs in the frequency domain and calculate the user's average singing range using the main frequency band. At this time, the device 100 may calculate the average singing range by averaging the center frequency of the frequency band, but is not limited to this.

사용자의 가창 평균 음역은 사용자가 가창하는 경우에 주로 사용하는 가창의 음역대를 반영할 수 있다.The user's average vocal range may reflect the vocal range of the song that the user mainly uses when singing.

S804 단계에서, 장치(100)는 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우, 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급을 한단계 하락시키고, 음역 보정 항목을 입력 데이터에 항목에 추가할 수 있다. 이때, 미리 설정된 기준은 실시예에 따라 상이하게 설정될 수 있다.In step S804, if the difference between the average vocal range of the voice and the average vocal range of the song exceeds a preset standard, the device 100 lowers the grade of pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness by one level, and adjusts the vocal range correction items. You can add items to the input data. At this time, the preset standard may be set differently depending on the embodiment.

장치(100)는 음성 평균 음역과 가창 평균 음역을 비교하여, 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는지 여부를 판단할 수 있다.The device 100 may compare the average voice range and the average singing range to determine whether the difference between the average voice range and the average singing range exceeds a preset standard.

사용자의 목소리 특성, 음역 능력, 발성 습관 등의 다양한 요인에 따라 음성 평균 음역과 가창 평균 음역 사이에 차이가 발생할 수 있다. Depending on various factors such as the user's voice characteristics, vocal range ability, and vocal habits, differences may occur between the average voice range and the average singing range.

음성 평균 음역과 가창 평균 음역이 차이가 많이 나는 경우에는 사용자의 음성과 가창 능력을 정확하게 평가하기 어려울 수 있으며, 보컬 평가의 기준이 불명확하거나 음성 능력과 가창 능력의 차이를 반영하지 못하는 경우, 사용자의 실제 보컬 능력이 정확하게 평가되지 않을 수 있다.If there is a large difference between the average voice range and the average singing range, it may be difficult to accurately evaluate the user's voice and singing ability. If the criteria for vocal evaluation are unclear or do not reflect the difference between voice ability and singing ability, the user's voice and singing ability may be difficult to evaluate. Actual vocal ability may not be assessed accurately.

또한, 정확하게 평가되지 않은 보컬 평가 결과에 따라 보컬 트레이닝 정보를 제공하는 경우, 사용자의 보컬 능력과 개별적인 음성 특성에 맞지 않은 보컬 트레이닝 정보를 제공할 수 있다는 문제점이 발생한다. 보컬 트레이닝 정보는 사용자의 보컬 평가에 따라 다른 방법이 요구됨으로, 사용자의 보컬 능력에 맞지 않는 보컬 트레이닝 서비스를 제공받을 수 있어, 사용자가 제공받는 서비스의 유용성과 만족도가 저하될 수 있다는 문제점이 발생한다.Additionally, when vocal training information is provided based on vocal evaluation results that are not accurately evaluated, a problem arises in that vocal training information that does not fit the user's vocal ability and individual voice characteristics may be provided. Since vocal training information requires different methods depending on the user's vocal evaluation, a problem arises in that the user may be provided with a vocal training service that does not suit the user's vocal ability, which may reduce the usefulness and satisfaction of the service provided to the user. .

이에, 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우, 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급을 한 단계 하락시키고, 음역 보정 항목을 입력 데이터에 추가하는 것은 사용자의 보컬 평가를 정확하게 반영하고 개인화된 보컬 트레이닝을 위해 반드시 필요한 과정이다.Accordingly, if the difference between the average voice range and the average singing range exceeds the preset standard, the grade of pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness is lowered by one level, and a range correction item is added to the input data. This is a necessary process to accurately reflect the user's vocal evaluation and provide personalized vocal training.

음성 평균 음역과 가창 평균 음역의 차이가 기준을 초과한다는 것은 사용자의 음성과 가창할 때의 목소리가 불일치할 확률이 높으므로, 장치(100)는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 등급을 하락시키는 것으로, 사용자의 실제 보컬 능력을 보다 정확하게 평가할 수 있다.If the difference between the average voice range and the average singing range exceeds the standard, there is a high probability that the user's voice and the voice when singing will not match, so the device 100 measures the pitch, tempo, breathing, rhythm, high pitch, expressiveness, and completeness. By lowering the rating, the user's actual vocal ability can be assessed more accurately.

장치(100)는 음성 데이터와 가창 데이터의 차이를 고려하여 평가 결과를 보완할 수 있다. 장치(100)는 음역 보정 항목을 통해 사용자의 음성 능력과 가창 능력 간의 불일치를 보다 정확히 반영하여 보컬 등급과 평가 등급을 조정함으로써, 사용자의 실제 보컬 능력에 기반하여 보다 정확한 평가 결과를 제공하는 데에 도움을 줄 수 있다.The device 100 can supplement the evaluation results by considering the difference between voice data and song data. The device 100 adjusts the vocal grade and evaluation grade to more accurately reflect the discrepancy between the user's vocal ability and singing ability through the vocal range correction item, thereby providing more accurate evaluation results based on the user's actual vocal ability. can help

장치(100)는 음성 평균 음역과 가창 평균 음역의 차이를 파악하여 개인화된 보컬 트레이닝을 제공할 수 있다. 장치(100)는 음역 보정 항목을 입력 데이터에 추가하여 사용자의 음역을 개선하고, 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 등의 등급을 조정하여 보다 정확하고 효과적인 보컬 트레이닝을 제공할 수 있다.The device 100 can provide personalized vocal training by determining the difference between the average voice range and the average singing range. The device 100 can improve the user's vocal range by adding a vocal range correction item to the input data, and provide more accurate and effective vocal training by adjusting grades such as pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness. there is.

장치(100)는 음성 평균 음역과 가창 평균 음역의 차이를 고려하여 음역 보정 항목을 입력 데이터에 추가하면, 보다 적절하고 효과적인 보컬 트레이닝을 제공할 수 있으며, 사용자의 개별적인 능력과 목표에 맞는 훈련을 제공할 수 있다.The device 100 can provide more appropriate and effective vocal training by adding a pitch correction item to the input data in consideration of the difference between the average voice range and the average singing range, and provides training tailored to the user's individual abilities and goals. can do.

즉, 장치(100)는 사용자의 보컬 능력을 보다 정확하게 평가하고 개인화된 보컬 트레이닝을 제공하여 보컬 능력 향상에 도움을 주기 위한 과정을 수행할 수 있다. 음성과 가창 능력의 차이를 고려한 정확한 평가와 개인화된 트레이닝은 사용자가 보다 효과적인 보컬 향상을 이룰 수 있도록 도와준다.In other words, the device 100 can perform a process to more accurately evaluate the user's vocal ability and provide personalized vocal training to help improve vocal ability. Accurate evaluation and personalized training that take into account differences in voice and singing ability help users achieve more effective vocal improvement.

인공신경망을 통해 결과를 도출하기 위해서는 올바르고 잘 정의된 입력 데이터셋이 필수적이다. 특히 보컬 트레이닝과 평가와 같이 음성과 가창 능력을 다루는 경우, 입력 데이터셋은 보컬의 성향과 특성을 잘 포함해야 한다. 장치(100)는 입력 데이터셋을 올바르게 정의함으로써 인공신경망은 더욱 정확하고 효과적인 결과를 도출할 수 있도록 할 수 있다.In order to derive results from artificial neural networks, a correct and well-defined input dataset is essential. Especially when dealing with voice and singing ability, such as vocal training and evaluation, the input dataset must well include the vocalist's tendencies and characteristics. The device 100 can enable the artificial neural network to produce more accurate and effective results by correctly defining the input data set.

장치(100)는 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하면, 이는 사용자의 음성과 가창할 때의 차이가 상대적으로 큰 것으로, 이러한 차이를 반영하여 평가 항목에서의 등급을 하락시킴으로써 평가 결과가 보다 공정하고 정확하게 이루어지도록 할 수 있다.If the difference between the average voice range and the average singing range exceeds a preset standard, the device 100 indicates that the difference between the user's voice and singing is relatively large, and reflects this difference to lower the rating in the evaluation item. By doing so, the evaluation results can be made more fair and accurate.

또한, 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우에는 사용자의 보컬 능력과 발화 성향이 서로 다를 수 있기 때문에, 평가 항목의 등급을 한단계 하락시킴으로써 보다 정확하게 사용자의 보컬 성향을 반영하고, 개인화된 평가를 제공할 수 있다.In addition, if the difference between the average voice range and the average singing range exceeds a preset standard, the user's vocal ability and speaking tendency may be different, so the rating of the evaluation item is lowered by one level to more accurately reflect the user's vocal tendency. and provide personalized evaluation.

또한, 장치(100)는 등급 하락을 통해 특정 항목들에 대한 더 정확한 트레이닝과 피드백을 제공할 수 있으며, 사용자는 보다 전문화된 트레이닝을 받을 수 있으며, 개인의 니즈와 요구에 맞는 보컬 훈련을 받을 수 있도록 할 수 있다.Additionally, the device 100 can provide more accurate training and feedback on specific items through grade downgrading, and users can receive more specialized training and vocal training tailored to their individual needs and demands. It can be done.

음역 보정 항목은 보컬 트레이닝에서 사용자의 음역을 개선하기 위해 추가되는 항목을 의미할 수 있다. 장치(100)는 입력 데이터를 이용하여 사용자의 보컬 등급을 획득하는 과정에서, 사용자의 음성 평균 음역과 가창 평균 음역의 차이를 고려하여 음역 보정이 필요한 지 여부에 대한 정보인 음역 보정 항목을 입력 데이터에서의 항목에 추가할 수 있다.The vocal range correction item may refer to an item added to improve the user's vocal range in vocal training. In the process of obtaining the user's vocal grade using input data, the device 100 enters a vocal range correction item, which is information about whether vocal range correction is necessary, by considering the difference between the average vocal range of the user's voice and the average vocal range of the singing input data. It can be added to the items in .

이때, 음역 보정 항목은 O또는 X로 표시될 수 있으며, 장치(100)는 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우, 음역 보정 항목을 X로, 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하지 않는 경우, 음역 보정 항목을 O로 표시하여 입력 데이터에 항목에 추가할 수 있다.At this time, the vocal range correction item may be displayed as O or If the difference in the average pitch range does not exceed the preset standard, the pitch correction item can be marked as O and added to the input data.

보컬 트레이닝에서 음역은 사용자가 부를 수 있는 음의 범위를 나타내는데, 높은 음과 낮은 음을 포함한다. 음역 보정 항목은 사용자가 특정 음역에서 어려움을 겪고 있거나, 개선이 필요한 부분에 대해 훈련을 제공하기 위해 사용될 수 있다. 예를 들어, 사용자가 높은 음역에서 어려움을 겪고 있다면, 음역 보정 항목은 높은 음역에 대한 훈련과 개선을 도와줄 수 있다.In vocal training, vocal range refers to the range of notes a user can sing, including high and low notes. The vocal range correction item can be used to provide training if the user is having difficulty with a specific vocal range or needs improvement. For example, if a user is having difficulty with high vocal ranges, the vocal range correction item can help them train and improve their higher vocal ranges.

또한, 장치(100)는 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우, 사용자의 음성 평균 음역에 대응하는 사용자가 편하게 가창할 수 있는 음역대로 치환하여 보컬 평가를 진행하도록 할 수 있다. 이는, 사용자는 자연스럽고 편안한 표현으로 노래를 부를 수 있도록 하고, 사용자가 보컬 능력을 더욱 자유롭게 발휘할 수 있게 하며, 감정과 표현력을 더욱 풍부하게 전달할 수 있도록 한다.In addition, if the difference between the average voice range and the average singing range exceeds a preset standard, the device 100 replaces the user's average voice range with a range in which the user can comfortably sing to perform vocal evaluation. You can. This allows users to sing with natural and comfortable expression, allows users to exercise their vocal abilities more freely, and conveys emotions and expressiveness more richly.

또한, 보컬 평가하는 과정에서 사용자가 편하게 부를 수 있는 음역대로 평가를 진행하면, 사용자가 자주 부르는 음역대에 초점을 맞추면서 평가를 진행하게 되므로, 보다 현실적으로 보컬 평가를 진행할 수 있다.In addition, in the process of evaluating vocals, if the evaluation is conducted in a range that the user can sing comfortably, the evaluation will focus on the range that the user frequently sings, so vocal evaluation can be conducted more realistically.

사용자가 편안한 음역대에서 평가를 받을 경우, 그 음역대에서의 보컬 능력을 강조하고 살려낼 수 있다. 이는 사용자가 가장 자신감을 갖고 부를 수 있는 영역에 집중하여 보다 효과적인 보컬 평가를 가능케 한다.If the user is evaluated in a comfortable vocal range, vocal abilities in that vocal range can be emphasized and brought to life. This allows for more effective vocal evaluation by focusing on the areas where the user can sing with the most confidence.

또한, 음역대를 개인에 맞게 치환하여 평가를 진행하면, 사용자의 개인적인 성향과 스타일을 반영하는 보컬 평가가 이루어질 수 있으며, 개인화된 보컬 트레이닝과 평가를 가능케 하며, 사용자의 능력과 목표에 맞는 훈련이 이루어지도록 할 수 있다.In addition, by performing an evaluation by replacing the vocal range to suit the individual, a vocal evaluation that reflects the user's personal tendency and style can be made, personalized vocal training and evaluation is possible, and training tailored to the user's abilities and goals is provided. You can let it go.

장치(100)는 사용자가 편안한 음역대에서 평가를 받도록 하여, 긍정적인 경험을 제공할 수 있으며, 사용자의 자신감을 높이고 보컬 트레이닝에 대한 긍정적인 동기부여를 도모하며, 지속적인 훈련과 발전에 기여할 수 있다.The device 100 can provide a positive experience by allowing the user to be evaluated in a comfortable vocal range, increase the user's confidence, promote positive motivation for vocal training, and contribute to continuous training and development.

도 9는 일실시예에 따른 연습 콘텐츠를 추천하는 과정을 설명하기 위한 순서도이다.Figure 9 is a flowchart for explaining a process for recommending practice content according to an embodiment.

도 9를 참조하면, 먼저, S901 단계에서, 장치(100)는 가창 데이터로부터 사용자의 보컬 장르를 확인할 수 있다.Referring to Figure 9, first, in step S901, the device 100 may check the user's vocal genre from the song data.

일실시예에 따르면, 장치(100)는 가창 데이터를 기반으로 사용자의 연습 콘텐츠를 추천하는 서비스를 포함하는 사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스를 제공할 수 있다.According to one embodiment, the device 100 may provide a vocal training service customized as a result of the user's vocal evaluation, including a service that recommends the user's practice content based on singing data.

가창 데이터는 보컬 장르, 가창 시점, 노래 제목, 노래 가사 등을 포함할 수 있으며, 장치(100)는 사용자의 단말(200)로부터 가창 데이터를 수신하고 데이터베이스에 저장할 수 있다.The song data may include vocal genre, singing time, song title, song lyrics, etc., and the device 100 may receive the song data from the user's terminal 200 and store it in a database.

장치(100)는 가창 데이터로부터 사용자의 가창 데이터가 어떤 보컬 장르에 해당하는지를 확인할 수 있다. 예를 들어, 보컬 장르는 팝, 재즈, 클래식, 락, R&B, 힙합, 발라드 등을 포함할 수 있으나, 이에 한정되지는 않는다.The device 100 can determine which vocal genre the user's song data corresponds to from the song data. For example, vocal genres may include, but are not limited to, pop, jazz, classical, rock, R&B, hip hop, ballad, etc.

S902 단계에서, 장치(100)는 가창 데이터로부터 주요 키워드를 추출할 수 있다.In step S902, the device 100 may extract main keywords from the song data.

일실시예에 따르면, 장치(100)는 자연어 처리 기술을 활용하여 가창 데이터로부터 주요 키워드를 추출할 수 있다. 장치(100)는 가창 데이터에서 텍스트를 추출하고, 가창 데이터에서 불필요한 정보를 제거하는 텍스트 전처리 과정을 수행할 수 있으며, 텍스트 전처리 과정은 문장 부호, 불용어(Stop words), 노이즈 등을 제거하는 과정을 포함할 수 있다.According to one embodiment, the device 100 may extract key keywords from song data using natural language processing technology. The device 100 can extract text from song data and perform a text pre-processing process to remove unnecessary information from the song data. The text pre-processing process includes a process of removing punctuation marks, stop words, noise, etc. It can be included.

장치(100)는 형태소 분석을 통해 문장을 단어 단위로 나누어 가창 데이터로부터 키워드를 추출할 수 있으며, 추출된 키워드 중 미리 설정된 기준 이상으로 언급된 키워드를 주요 키워드로 설정할 수 있다. 이때, 미리 설정된 기준은 실시예에 따라 상이하게 설정될 수 있다. 가창 데이터로부터 주요 키워드를 추출하는 과정은 이에 한정되지 않고 다양한 방법으로 수행될 수 있다.The device 100 can extract keywords from song data by dividing sentences into words through morphological analysis, and among the extracted keywords, keywords mentioned above a preset standard can be set as main keywords. At this time, the preset standard may be set differently depending on the embodiment. The process of extracting main keywords from song data is not limited to this and can be performed in various ways.

S903 단계에서, 장치(100)는 보컬 데이터베이스로부터 보컬 장르에 해당하는 관심 보컬 콘텐츠를 수집할 수 있다.In step S903, the device 100 may collect vocal content of interest corresponding to a vocal genre from the vocal database.

구체적으로, 장치(100)는 보컬 데이터베이스를 추가로 포함하거나 보컬 데이터베이스와 유무선으로 통신할 수 있으며, 장치(100)는 보컬 콘텐츠를 보컬 데이터베이스로부터 추출할 수 있다.Specifically, the device 100 may additionally include a vocal database or communicate with the vocal database wired or wirelessly, and the device 100 may extract vocal content from the vocal database.

이때, 보컬 데이터베이스는 보컬 콘텐츠와 보컬 콘텐츠의 제목, 보컬 장르, 포함된 노래, 가사, 형태, 시간, 출처 등에 대한 정보를 포함하는 보컬 콘텐츠 정보가 매칭되어 저장되어 있는 데이터베이스를 의미할 수 있다.At this time, the vocal database may refer to a database in which vocal content information is matched and stored, including information on the title of the vocal content, vocal genre, included songs, lyrics, form, time, source, etc.

장치(100)는 사용자의 가창 데이터로부터 사용자가 가창한 노래의 보컬 장르를 확인하고, 보컬 데이터베이스로부터 보컬 장르에 해당하는 관심 보컬 콘텐츠를 수집할 수 있다.The device 100 may check the vocal genre of the song sung by the user from the user's singing data and collect vocal content of interest corresponding to the vocal genre from the vocal database.

예를 들어, 사용자의 가창 데이터로부터 노래 장르가 발라드인 경우, 장치(100)는 발라드에 해당하는 보컬 콘텐츠인 관심 보컬 콘텐츠를 보컬 데이터베이스로부터 추출할 수 있다.For example, if the song genre from the user's song data is a ballad, the device 100 may extract vocal content of interest, which is vocal content corresponding to the ballad, from the vocal database.

S904 단계에서, 장치(100)는 관심 보컬 콘텐츠 중 주요 키워드를 포함하는 보컬 콘텐츠가 포함된 것인지 여부를 판단할 수 있다.In step S904, the device 100 may determine whether vocal content including a main keyword is included among the vocal content of interest.

S905 단계에서, 장치(100)는 관심 보컬 콘텐츠 중 주요 키워드를 포함하는 보컬 콘텐츠가 포함된 경우, 주요 키워드를 포함하는 보컬 콘텐츠를 연습 콘텐츠로 결정할 수 있다.In step S905, if vocal content including a main keyword is included among the vocal content of interest, the device 100 may determine the vocal content including the main keyword as practice content.

즉, 장치(100)는 사용자의 보컬 장르에 해당하면서 주요 키워드를 포함하는 보컬 콘텐츠가 존재하는 경우, 사용자의 보컬 장르에 해당하면서 주요 키워드를 포함하는 보컬 콘텐츠를 연습 콘텐츠로 결정할 수 있다.That is, if there is vocal content that corresponds to the user's vocal genre and includes the main keyword, the device 100 may determine the vocal content that corresponds to the user's vocal genre and includes the main keyword as practice content.

장치(100)는 사용자가 이미 관심을 가지고 있는 보컬 장르에 속하면서 주요 키워드를 포함하는 연습 콘텐츠를 추천함으로써, 사용자의 개인적인 음악적 취향과 필요에 맞는 맞춤형 연습 콘텐츠를 사용자에게 제공할 수 있으며, 이로 인해 사용자는 연습 콘텐츠로 결정된 보컬 콘텐츠를 통해 보다 만족감을 느끼고 연습에 더욱 열정적이고 유익하게 진행하게 할 수 있도록 할 수 있다.The device 100 can provide the user with customized practice content tailored to the user's personal musical tastes and needs by recommending practice content that includes key keywords and belongs to a vocal genre in which the user is already interested, thereby allowing the user to Vocal content determined as practice content can help you feel more satisfied and practice more passionately and fruitfully.

또한, 사용자가 연습을 위한 보컬 콘텐츠를 찾는 데에는 많은 시간과 노력이 소요될 수 있는데, 사용자의 보컬 장르에 해당하면서 주요 키워드를 포함하는 보컬 콘텐츠를 미리 선별하여 연습 콘텐츠로 결정하면, 사용자가 보다 효율적으로 학습하고 연습할 수 있고, 시간을 절약하면서도 원하는 음악적 경험을 얻을 수 있게 된다.In addition, it may take a lot of time and effort for users to find vocal content for practice. If vocal content that corresponds to the user's vocal genre and contains key keywords is selected in advance and determined as practice content, the user can use it more efficiently. You can learn and practice and get the musical experience you want while saving time.

즉, 사용자의 보컬 장르에 해당하면서 주요 키워드를 포함하는 보컬 콘텐츠를 연습 콘텐츠로 결정하는 것은 사용자의 학습 경험을 개선하고 보다 효과적인 학습을 이끌어내는 데에 도움을 줄 수 있고, 사용자가 보컬 실력을 향상시키고, 음악적인 즐거움을 더욱 극대화할 수 있다.In other words, determining vocal content that corresponds to the user's vocal genre and contains key keywords as practice content can help improve the user's learning experience and lead to more effective learning, and helps users improve their vocal skills. You can further maximize your musical enjoyment.

S906 단계에서, 장치(100)는 관심 보컬 콘텐츠 중 주요 키워드를 포함하는 보컬 콘텐츠가 포함되지 않은 경우, 주요 키워드와 관련된 유사 키워드를 확인하고, 관심 보컬 콘텐츠 중 유사 키워드를 포함하는 보컬 콘텐츠가 포함된 것인지 여부를 판단할 수 있다.In step S906, if the vocal content of interest does not include vocal content including the main keyword, the device 100 checks similar keywords related to the main keyword, and determines whether vocal content containing the similar keyword is included among the vocal content of interest. You can judge whether it is or not.

장치(100)는 관심 보컬 콘텐츠 중 주요 키워드를 포함하는 보컬 콘텐츠가 포함되지 않은 경우, 주요 키워드와 관련된 유사 키워드를 확인할 수 있다. 예를 들어, 장치(100)는 주요 키워드를 포털 사이트에 검색하고, 포털 사이트를 검색하였을 때 함께 표시되는 연관 검색어를 주요 키워드의 유사 키워드로 결정할 수 있다. 포털 사이트를 검색하였을 때 함께 표시되는 연관 검색들은 주요 키워드와 유사하거나 관련된 다른 키워드들을 나타낼 수 있다.If vocal content including a main keyword is not included among the vocal content of interest, the device 100 may check similar keywords related to the main keyword. For example, the device 100 may search a portal site for a main keyword and determine related search words that are displayed together when searching the portal site as similar keywords to the main keyword. Related searches that appear together when searching a portal site may indicate other keywords that are similar to or related to the main keyword.

예를 들어, 장치(100)는 주요 키워드가 사랑인 경우, 네이버, 구글, 다음 등을 포함하는 포털 사이트에 접속하여, '사랑'을 포털 사이트에서 검색할 수 있으며, 포털 사이트의 검색 결과 페이지에 '사랑'과 관련하여 자동으로 생성되어 표시된 연관 검색어들을 확인하여 유사 키워드로 결정할 수 있다.For example, if the main keyword is love, the device 100 can access portal sites including Naver, Google, Daum, etc., search for 'love' on the portal site, and display it on the search results page of the portal site. You can check the automatically generated and displayed related search terms related to 'love' and determine them as similar keywords.

이때, 주요 키워드와 관련된 유사 키워드를 결정하는 과정은 이에 한정되지 않고, 다양한 방법으로 수행될 수 있다.At this time, the process of determining similar keywords related to the main keyword is not limited to this and can be performed in various ways.

S907 단계에서, 장치(100)는 관심 보컬 콘텐츠 중 유사 키워드를 포함하는 보컬 콘텐츠가 포함된 경우, 유사 키워드를 포함하는 보컬 콘텐츠를 연습 콘텐츠로 결정할 수 있다.In step S907, if vocal content including a similar keyword is included among the vocal content of interest, the device 100 may determine the vocal content including the similar keyword as practice content.

장치(100)는 관심 보컬 콘텐츠 중 유사 키워드를 포함하는 보컬 콘텐츠를 연습 콘텐츠로 결정할 수 있다.The device 100 may determine vocal content including similar keywords among vocal content of interest as practice content.

장치(100)는 관심 보컬 콘텐츠 중 주요 키워드를 포함하는 보컬 콘텐츠가 포함되지 않은 경우, 주요 키워드와 관련된 유사 키워드를 포함하는 보컬 콘텐츠를 연습 콘텐츠로 결정함으로써, 사용자의 관심사에 관련이 있으면서도 연습 범위가 확장된 연습 콘텐츠를 사용자에게 제공하여, 사용자의 음악적 호기심을 자극하고 흥미를 유발하는 연습 경험을 제공할 수 있다.If vocal content containing a main keyword is not included among the vocal contents of interest, the device 100 determines vocal content containing similar keywords related to the main keyword as practice content, thereby ensuring that the practice content is relevant to the user's interests and has a scope of practice. By providing expanded practice content to users, it is possible to provide a practice experience that stimulates the user's musical curiosity and arouses interest.

S908 단계에서, 장치(100)는 관심 보컬 콘텐츠 중 유사 키워드를 포함하는 보컬 콘텐츠가 포함되지 않은 경우, 사용자와 평가 정보가 동일한 사용자가 가장 많이 등록한 보컬 콘텐츠를 연습 콘텐츠로 결정할 수 있다.In step S908, if vocal content containing similar keywords is not included among the vocal content of interest, the device 100 may determine the vocal content most frequently registered by users with the same evaluation information as the user as practice content.

일실시예에 따르면, 장치(100)는 관심 보컬 콘텐츠 중 유사 키워드를 포함하는 보컬 콘텐츠가 포함되지 않은 경우, 사용자의 평가 정보를 확인하고, 사용자의 평가 정보 중 X를 받은 항목의 개수가 동일하거나, 음역대가 동일하거나, 목소리 유형이 동일한 어느 하나의 사용자가 가장 많이 등록한 보컬 콘텐츠를 연습 콘텐츠로 결정할 수 있다.According to one embodiment, the device 100 checks the user's evaluation information when vocal content including similar keywords is not included among the vocal content of interest, and the number of items receiving X among the user's evaluation information is the same or , Vocal content registered the most by a user with the same vocal range or voice type can be determined as practice content.

도 10은 일실시예에 따른 연습 콘텐츠를 수정하는 과정을 설명하기 위한 순서도이다.Figure 10 is a flowchart for explaining the process of modifying practice content according to one embodiment.

도 10을 참조하면, 먼저, S1001 단계에서, 장치(100)는 평가 정보로부터, 평가 항목 중 X를 받은 항목의 개수를 확인할 수 있다.Referring to FIG. 10, first, in step S1001, the device 100 can check the number of evaluation items that received an X from the evaluation information.

장치(100)는 평가 정보로부터 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도를 포함하는 평가 항목 중 X를 받은 항목의 개수를 확인할 수 있다.From the evaluation information, the device 100 can check the number of items that received an

S1002 단계에서, 장치(100)는 X를 받은 항목의 개수가 미리 설정된 제1 기준 미만인지를 판단할 수 있다. 이때, 미리 설정된 제1 기준은 실시예에 따라 상이하게 설정될 수 있다.In step S1002, the device 100 may determine whether the number of items receiving X is less than a preset first standard. At this time, the preset first standard may be set differently depending on the embodiment.

S1003 단계에서, 장치(100)는 X를 받은 항목의 개수가 미리 설정된 제1 기준 미만인 경우, 연습 콘텐츠를 유지할 수 있다.In step S1003, the device 100 may maintain practice content when the number of items receiving X is less than a preset first standard.

S1004 단계에서, 장치(100)는X를 받은 항목의 개수가 미리 설정된 제1 기준 이상인 경우, X를 받은 항목의 개수가 미리 설정된 제2 기준 미만인지 여부를 판단할 수 있다. 이때, 미리 설정된 제2 기준은 실시예에 따라 상이하게 설정될 수 있다.In step S1004, if the number of items receiving X is greater than or equal to a preset first standard, the device 100 may determine whether the number of items receiving At this time, the preset second standard may be set differently depending on the embodiment.

S1005 단계에서, 장치(100)는 X를 받은 항목의 개수가 미리 설정된 제1 기준 이상이면서, 미리 설정된 제2 기준 미만인 경우, 연습 콘텐츠에 해당되는 유사 사용자의 보컬 콘텐츠를 추출하여 연습 콘텐츠의 앞부분에 추가할 수 있다.In step S1005, if the number of items receiving You can add

장치(100)는 전체 사용자 중 사용자와 X를 받은 항목의 개수가 동일하면서, 사용자가 X를 받은 항목에 대응하는 평가 항목이 O를 받은 것에 해당하는 유사 사용자를 추출할 수 있다.The apparatus 100 may extract similar users among all users who have the same number of items for which the user received an

예를 들어, 사용자가 X를 받은 항목의 개수가 2개이고, X를 받은 항목이 템포감, 호흡, 리듬감인 경우, 장치(100)는 전체 사용자 중 X를 받은 항목의 개수가 2개이면서, 템포감, 호흡, 리듬감의 평가 항목이 O를 받은 것에 해당하는 유사 사용자를 추출할 수 있다.For example, if the number of items for which a user received an Similar users who received O in the evaluation items of breathing and rhythm can be extracted.

장치(100)는 유사 사용자의 보컬 콘텐츠를 추출하여 연습 콘텐츠의 앞부분에 추가할 수 있다.The device 100 may extract vocal content from similar users and add it to the front of the practice content.

장치(100)는 평가 항목 중 X를 받은 항목의 개수가 동일하면서, 사용자가 X를 받은 항목에 대해서는 O를 받은 유사 사용자의 보컬 콘텐츠를 추출하여 사용자의 연습 콘텐츠의 앞부분에 추가함으로써, 사용자와 보컬 수준이 비슷하면서도 사용자의 실력이 부족한 부분에 대해서는 배울 점이 있는 사용자의 보컬 콘텐츠를 참고하도록 하여 자신의 부족한 부분을 인식하도록 할 수 있으며, 다른 사용자의 보컬 콘텐츠를 참고하도록 하여 새로운 음악적 시각을 얻을 수 있다.The device 100 extracts the vocal content of similar users who received an O for the items in which the user received an X while the number of items receiving an You can help users recognize their own shortcomings by referring to the vocal content of users who are at a similar level but have something to learn about areas where their skills are lacking, and by referring to the vocal content of other users, you can gain a new musical perspective. .

또한, 자신보다 월등히 우수한 사용자의 보컬 콘텐츠를 제공하였을 때와 비교하여 유사 사용자의 보컬 콘텐츠를 제공하였을 때, 음악적인 자신감을 키울 수 있고, 음악적인 동기를 얻을 수 있도록 하여 사용자가 보다 풍부하고 효과적인 음악 학습 경험을 제공받을 수 있다.In addition, compared to providing vocal content from users who are much better than themselves, when providing vocal content from similar users, users can develop musical confidence and gain musical motivation, allowing users to create richer and more effective music. Learning experiences can be provided.

S1006 단계에서, 장치(100)는 X를 받은 항목의 개수가 제2 기준 이상인 경우, 연습 콘텐츠에 해당되는 유사 사용자의 보컬 콘텐츠 및 우수 사용자의 보컬 콘텐츠를 추출하여, 연습 콘텐츠의 앞부분 및 뒷부분에 각각 추가할 수 있다.In step S1006, if the number of items receiving You can add

장치(100)는 X를 받은 항목의 개수가 제2 기준 이상인 경우, 연습 콘텐츠에 해당되는 유사 사용자의 보컬 콘텐츠 및 우수 사용자의 보컬 콘텐츠를 추출하여, 연습 콘텐츠의 앞부분 및 뒷부분에 각각 추가하는 과정을 통해 연습 콘텐츠를 수정함으로써, 실력이 상대적으로 많이 부족한 사용자가 다양한 보컬 콘텐츠를 경험하고 참고할 수 있도록 하는 연습 콘텐츠를 제공할 수 있다.If the number of items receiving an By modifying the practice content, it is possible to provide practice content that allows users with relatively limited skills to experience and refer to a variety of vocal content.

도 11은 일실시예에 따른 트레이너를 사용자의 매칭 상대로 결정하는 과정을 설명하기 위한 순서도이다.Figure 11 is a flow chart to explain the process of determining a trainer as a matching partner for a user according to an embodiment.

일실시예에 따르면, 장치(100)는 제1 노래가 사용자의 니즈로 파악되면, 해당 노래를 포함하는 트레이닝 페이지를 제공하면서, 해당 노래를 트레이닝한 트레이너를 찾아 매칭한 후, 매칭된 트레이너를 사용자에게 추천해줄 수 있다. 여기서, 트레이너는 노래를 트레이닝하는 트레이너를 의미할 수 있다.According to one embodiment, when the first song is identified as the user's needs, the device 100 provides a training page including the song, finds and matches a trainer who trained the song, and then transfers the matched trainer to the user. I can recommend it to you. Here, the trainer may mean a trainer who trains a song.

도 11을 참조하면, 먼저, S1101 단계에서, 장치(100)는 사용자의 단말(200)로부터 사용자가 원하는 노래를 포함하는 콘텐츠를 수신할 수 있다. 여기서, 콘텐츠는 사용자의 단말(200)을 통해 촬영되어 생성된 콘텐츠일 수 있고, 외부에서 획득되어 사용자의 단말(200)의 메모리에 저장된 콘텐츠일 수도 있다.Referring to FIG. 11, first, in step S1101, the device 100 may receive content including a song desired by the user from the user's terminal 200. Here, the content may be content created by being photographed through the user's terminal 200, or may be content acquired externally and stored in the memory of the user's terminal 200.

구체적으로, 사용자는 사용자의 단말(200)을 통해 자신이 원하는 노래를 포함하는 콘텐츠를 선택할 수 있으며, 사용자의 단말(200)은 콘텐츠가 선택되면, 콘텐츠를 장치(100)로 전송할 수 있다.Specifically, the user can select content including a song he or she wants through the user's terminal 200, and when the content is selected, the user's terminal 200 can transmit the content to the device 100.

S1102 단계에서, 장치(100)는 콘텐츠를 제1 노래를 포함하는 콘텐츠로 분석할 수 있다.In step S1102, the device 100 may analyze the content as content including the first song.

즉, 장치(100)는 콘텐츠가 수신되면, 콘텐츠가 어떤 노래를 포함하는 콘텐츠인지 분석할 수 있다. 예를 들어, 장치(100)는 노래 별로 학습된 콘텐츠와 콘텐츠를 비교한 결과, 제1 노래의 콘텐츠들과 콘텐츠가 어느 정도 일치하는 것으로 확인되면, 콘텐츠를 제1 노래를 포함하는 콘텐츠로 분석할 수 있다.That is, when the device 100 receives content, it can analyze which song the content includes. For example, as a result of comparing the content learned for each song with the content, if it is confirmed that the content matches to some extent the content of the first song, the device 100 analyzes the content as content including the first song. You can.

또한, 장치(100)는 노래 별로 학습된 콘텐츠와 콘텐츠를 비교한 결과, 제1 노래 콘텐츠들과 콘텐츠가 어느 정도 일치하는 것으로 확인되면, 콘텐츠를 제1 노래를 포함하는 콘텐츠로 분석할 수 있다.Additionally, the device 100 may compare the content with the content learned for each song, and if it is confirmed that the content matches the content of the first song to some extent, it may analyze the content as content including the first song.

상술한 바와 같이, 장치(100)는 미리 학습된 콘텐츠에 기초하여, 콘텐츠가 제1 노래를 포함하는 콘텐츠인지 분석할 수 있다.As described above, the device 100 may analyze whether the content includes the first song based on the content learned in advance.

또한, 장치(100)는 콘텐츠를 분석한 결과, 콘텐츠 내에서 제1 노래가 인식되면, 콘텐츠를 제1 노래를 포함하는 콘텐츠로 분석할 수 있다.Additionally, if the first song is recognized in the content as a result of analyzing the content, the device 100 may analyze the content as content including the first song.

S1103 단계에서, 장치(100)는 콘텐츠가 제1 노래를 포함하는 콘텐츠로 분석되면, 제1 노래를 트레이닝한 이력이 있는 트레이너를 매칭 후보 그룹으로 분류할 수 있다. 이를 위해, 트레이너들은 노래 트레이닝 시 트레이닝한 노래를 트레이닝 이력에 등록할 수 있으며, 장치(100)는 데이터베이스에 트레이너 별로 구분된 트레이닝 이력을 저장하여 관리할 수 있다. 트레이닝 이력은 트레이너가 수행하여 완료된 트레이닝 업무 내역이 누적된 정보로, 트레이닝한 노래, 노래 트레이닝 날짜, 트레이닝 장소, 트레이닝 사이트, 트레이닝 결과물 등을 포함하는 정보가 리스트로 구성될 수 있다.In step S1103, if the content is analyzed as content including the first song, the device 100 may classify trainers with a history of training the first song into the matching candidate group. To this end, trainers can register the songs they trained on during song training in the training history, and the device 100 can store and manage the training history classified by trainer in the database. The training history is accumulated information on the details of training tasks performed and completed by the trainer, and may consist of a list of information including the trained song, song training date, training location, training site, and training results.

예를 들어, 제1 트레이너가 제1 노래를 트레이닝한 경우, 트레이너는 단말을 통해 노래의 트레이닝이 완료된 영상을 촬영하여 트레이닝 결과물인 제1 결과물을 생성할 수 있고, 생성된 제1 결과물의 등록 요청을 장치(100)로 전송할 수 있으며, 장치(100)는 제1 결과물에서 제1 노래를 인식한 후, 제1 노래를 트레이닝 시 트레이닝한 노래로 트레이닝 이력에 등록할 수 있다.For example, when the first trainer trains the first song, the trainer can generate the first training result by shooting a video of the song training completed through the terminal, and request registration of the generated first result. can be transmitted to the device 100, and the device 100 can recognize the first song in the first result and then register the first song in the training history as the song trained during training.

상술한 바와 같이, 트레이너가 노래 트레이닝을 완료하면, 노래 트레이닝이 완료된 영상을 촬영하여 트레이닝 결과물이 생성될 수 있고, 생성된 트레이닝 결과물을 통해 트레이닝 시 사용된 노래가 인식되어 인식된 노래가 트레이닝 시 사용한 노래로 트레이닝 이력에 등록될 수 있으며, 이와 같은 과정이 트레이너 별로 수행되면, 트레이너들의 트레이닝 이력이 각각 갱신될 수 있다.As described above, when the trainer completes song training, a training result can be generated by shooting a video of the song training completed, and the song used during training is recognized through the generated training result, and the recognized song is used during training. A song can be registered in the training history, and when this process is performed for each trainer, each trainer's training history can be updated.

장치(100)는 트레이너들의 트레이닝 이력을 기반으로, 트레이너의 트레이닝 이력에 제1 노래가 트레이닝 시 사용한 노래로 등록되어 있는지 여부를 확인하여, 제1 노래를 이용하여 트레이닝을 수행한 이력이 있는지 여부를 확인할 수 있으며, 제1 노래를 이용하여 트레이닝을 수행한 이력이 있는 트레이너를 매칭 후보 그룹으로 분류할 수 있다.Based on the trainers' training history, the device 100 checks whether the first song is registered as a song used during training in the trainer's training history and determines whether there is a history of training using the first song. This can be confirmed, and trainers who have a history of performing training using the first song can be classified into the matching candidate group.

S1104 단계에서, 장치(100)는 매칭 후보 그룹으로 분류된 트레이너가 있는지 여부를 확인할 수 있다.In step S1104, the device 100 may check whether there is a trainer classified into the matching candidate group.

S1104 단계에서 매칭 후보 그룹으로 분류된 트레이너가 없는 것으로 확인되면, 장치(100)는 콘텐츠를 통해 사용자 및 트레이너 매칭 서비스가 제공될 수 없으므로, 다른 콘텐츠의 선택을 요청하는 알림 메시지를 사용자의 단말(200)로 전송할 수 있으며, 알림 메시지의 확인을 통해 콘텐츠를 대체하는 다른 콘텐츠가 선택되면, S1101 단계로 되돌아가, 장치(100)는 선택된 다른 콘텐츠를 수신하는 과정부터 다시 수행할 수 있다.If it is confirmed in step S1104 that there is no trainer classified as a matching candidate group, the device 100 sends a notification message requesting selection of other content to the user's terminal (200) because the user and trainer matching service cannot be provided through the content. ), and if other content replacing the content is selected through confirmation of the notification message, the process returns to step S1101 and the device 100 can perform the process again from receiving the other selected content.

S1104 단계에서 매칭 후보 그룹으로 분류된 트레이너가 있는 것으로 확인되면, S1105 단계에서, 장치(100)는 매칭 후보 그룹으로 분류된 트레이너가 한 명만 있는지 여부를 확인할 수 있다.If it is confirmed in step S1104 that there is a trainer classified as a matching candidate group, in step S1105, the device 100 may check whether there is only one trainer classified as a matching candidate group.

S1105 단계에서 매칭 후보 그룹으로 분류된 트레이너가 제1 트레이너 하나만 있는 것으로 확인되면, S1107 단계에서, 장치(100)는 제1 트레이너를 사용자의 매칭 상대로 설정할 수 있다.If it is confirmed in step S1105 that the first trainer is the only trainer classified as a matching candidate group, in step S1107, the device 100 may set the first trainer as the user's matching partner.

즉, 장치(100)는 매칭 후보 그룹으로 분류된 트레이너가 제1 트레이너 하나 있는 것으로 확인된 경우, 제1 트레이너를 사용자의 매칭 상대로 설정할 수 있다.That is, when it is confirmed that there is only one trainer classified into the matching candidate group, the device 100 may set the first trainer as the user's matching partner.

S1105 단계에서 매칭 후보 그룹으로 분류된 트레이너가 하나가 아닌 둘 이상 있는 것으로 확인되면, S1106 단계에서, 장치(100)는 매칭 후보 그룹으로 분류된 트레이너 별로 매칭 점수를 산출할 수 있다. 이때, 장치(100)는 제1 노래를 이용하여 트레이닝을 수행한 트레이닝 횟수 및 제1 노래를 포함하는 콘텐츠의 업로드량을 고려하여, 매칭 후보 그룹으로 분류된 트레이너 별로 매칭 점수를 산출할 수 있다. 제1 노래를 이용하여 트레이닝을 수행한 트레이닝 횟수는 트레이닝 이력을 통해 확인될 수 있고, 제1 노래를 포함하는 콘텐츠의 업로드량은 업로드 내역을 통해 확인될 수 있다. 이를 위해, 장치(100)는 데이터베이스에 트레이너 별로 구분된 업로드 내역을 저장하여 보유할 수 있다. 업로드 내역은 트레이너의 SNS나 웹사이트 등에 업로드되어 있는 노래들 각각의 업로드 현황을 나타낼 수 있으며, 트레이너 요청에 의해 갱신될 수 있다.If it is confirmed in step S1105 that there are two or more trainers classified into the matching candidate group instead of one, the device 100 may calculate a matching score for each trainer classified into the matching candidate group in step S1106. At this time, the device 100 may calculate a matching score for each trainer classified into the matching candidate group by considering the number of training sessions performed using the first song and the upload amount of content including the first song. The number of training sessions performed using the first song can be confirmed through the training history, and the upload amount of content including the first song can be confirmed through the upload history. To this end, the device 100 may store and retain upload details classified by trainer in a database. The upload history can indicate the upload status of each song uploaded to the trainer's SNS or website, and can be updated at the trainer's request.

구체적으로, 장치(100)는 제1 노래를 이용하여 트레이닝을 수행한 트레이닝 횟수가 많을수록 제1 점수를 높은 점수로 설정하고, 제1 노래를 포함하는 콘텐츠의 업로드량이 많을수록 제2 점수를 높은 점수로 설정한 후, 제1 점수 및 제2 점수를 합산하여 매칭 점수를 산출할 수 있다.Specifically, the device 100 sets the first score to a higher score as the number of training sessions using the first song increases, and sets the second score to a higher score as the upload amount of content including the first song increases. After setting, the matching score can be calculated by adding the first score and the second score.

예를 들어, 제1 트레이너 및 제2 트레이너가 매칭 후보 그룹으로 분류되어 있고, 제1 트레이너의 트레이닝 이력에 제1 노래를 이용하여 트레이닝을 수행한 횟수가 5회 등록되어 있고, 제1 트레이너의 업로드 내역에 제1 노래의 업로드량이 10개로 등록되어 있고, 제2 트레이너의 트레이닝 이력에 제1 노래를 이용하여 트레이닝을 수행한 횟수가 3회 등록되어 있고, 제2 트레이너의 업로드 내역에 제1 노래의 업로드량이 8개로 등록되어 있는 경우, 장치(100)는 제1 트레이너에 대해서 제1 노래를 이용하여 트레이닝을 수행한 트레이닝 횟수 5회를 통해 제1 점수를 50점으로 산출하고 제1 노래의 업로드량 10개를 통해 제2 점수를 100점으로 산출한 후, 50점 및 100점을 합산하여 제2 트레이너의 매칭 점수를 150점으로 산출할 수 있으며, 제2 트레이너에 대해서 제1 노래를 이용하여 트레이닝을 수행한 트레이닝 횟수 3회를 통해 제1 점수를 30점으로 산출하고 제1 노래의 업로드량 8개를 통해 제2 점수를 80점으로 산출한 후, 30점 및 80점을 합산하여 제2 트레이너의 매칭 점수를 110점으로 산출할 수 있다.For example, the first trainer and the second trainer are classified as a matching candidate group, the number of times training was performed using the first song is registered in the first trainer's training history 5 times, and the first trainer's upload The upload amount of the first song is registered as 10 in the history, the number of times training was performed using the first song is registered as 3 in the training history of the second trainer, and the number of uploads of the first song is registered in the upload history of the second trainer. If the upload amount is registered as 8, the device 100 calculates the first score as 50 points through the number of trainings performed 5 times using the first song for the first trainer and calculates the upload amount of the first song After calculating the second score as 100 points through 10, you can calculate the second trainer's matching score as 150 points by adding 50 points and 100 points, and train the second trainer using the first song. The first score is calculated as 30 points through the number of training performed 3 times, and the second score is calculated as 80 points through the upload amount of 8 songs of the first song, and then the 30 points and 80 points are added together to determine the second trainer. The matching score can be calculated as 110 points.

즉, 장치(100)는 매칭 후보 그룹으로 분류된 트레이너가 둘 이상 있는 것으로 확인된 경우, 제1 노래를 이용하여 트레이닝을 수행한 트레이닝 횟수 및 제1 노래를 포함하는 콘텐츠의 업로드량을 고려하여, 매칭 후보 그룹으로 분류된 트레이너 별로 매칭 점수를 산출할 수 있다.That is, when it is confirmed that there are two or more trainers classified into the matching candidate group, the device 100 takes into account the number of training sessions performed using the first song and the upload amount of content including the first song, Matching scores can be calculated for each trainer classified into a matching candidate group.

장치(100)는 매칭 후보 그룹으로 분류된 트레이너 별로 매칭 점수가 산출되면, 산출된 매칭 점수를 비교하여 어느 트레이너의 매칭 점수가 가장 높은지 확인할 수 있다.When the matching score is calculated for each trainer classified into the matching candidate group, the device 100 can compare the calculated matching scores to check which trainer's matching score is the highest.

매칭 후보 그룹으로 분류된 트레이너들 중 제1 트레이너의 매칭 점수가 가장 높은 것으로 확인되면, S1107 단계에서, 장치(100)는 제1 트레이너를 사용자의 매칭 상대로 설정할 수 있다.If it is confirmed that the first trainer has the highest matching score among the trainers classified into the matching candidate group, in step S1107, the device 100 may set the first trainer as the user's matching partner.

S1108 단계에서, 장치(100)는 제1 트레이너가 사용자의 매칭 상대로 설정되면, 제1 트레이너에 대한 추천 정보와 제1 노래를 포함하는 트레이닝 페이지의 링크 정보를 사용자의 단말(200)로 제공할 수 있다.In step S1108, if the first trainer is set as the user's matching partner, the device 100 may provide recommendation information about the first trainer and link information of a training page including the first song to the user's terminal 200. there is.

제1 트레이너가 사용자의 매칭 상대로 설정되면, 제1 트레이너에 대한 추천 정보와 해당 노래를 포함하는 트레이닝 페이지의 링크 정보를 사용자의 단말(200)로 제공하는 과정은 사용자의 편의성과 개인화된 경험을 개선하여 노래의 트레이너 선택 과정을 원활하게 수행되도록 할 수 있다.When the first trainer is set as the user's matching partner, the process of providing recommendation information about the first trainer and link information to the training page including the song to the user's terminal 200 improves the user's convenience and personalized experience. This allows the song's trainer selection process to be performed smoothly.

장치(100)의 트레이너에 대한 추천 정보와 제1 노래의 트레이닝 페이지의 링크 정보를 제공하는 과정은 사용자에게 편의성과 접근성을 개선해줄 수 있으며, 사용자는 제1 트레이너와 관련된 추천 정보와 노래를 쉽게 얻을 수 있으며, 이를 통해 더욱 신속하고 효율적으로 원하는 노래를 구매할 수 있다.The process of providing recommended information about the trainer of the device 100 and link information to the training page of the first song can improve convenience and accessibility for the user, and the user can easily obtain recommended information and songs related to the first trainer. This allows you to purchase the songs you want more quickly and efficiently.

또한, 장치(100)는 추천 정보를 제공함으로써 사용자에게 맞는 제1 노래와 관련된 트레이너를 발견하고 선택할 수 있는 기회를 제공할 수 있으며, 사용자는 자신의 선호도를 더욱 정확하게 반영한 트레이너를 선택할 수 있다.Additionally, the device 100 may provide an opportunity to discover and select a trainer related to the first song that suits the user by providing recommendation information, and the user can select a trainer that more accurately reflects the user's preferences.

또한, 장치(100)는 트레이닝 페이지의 링크 정보를 제공함으로써 사용자는 제1 노래의 트레이닝 페이지로 바로 이동하여 트레이너의 정보를 확인할 수 있다. 더불어, 노래의 트레이닝이 활발하도록 유도하는 효과가 있다.Additionally, the device 100 provides link information for the training page so that the user can directly go to the training page of the first song and check the trainer's information. In addition, it has the effect of encouraging active singing training.

도 12는 일실시예에 따른 트레이너의 위치를 확인하는 과정을 설명하기 위한 순서도이다.Figure 12 is a flow chart to explain the process of confirming the location of the trainer according to one embodiment.

도 12를 참조하면, 먼저, S1201 단계에서, 장치(100)는 사용자의 단말(200)로부터 사용자가 가창 데이터를 업로드한 가창 이력을 획득할 수 있다. 여기서, 가창 이력은 사용자가 가창 데이터를 과거에 언제 업로드하였고, 얼마나 가창 데이터를 업로드하였는지에 대한 이력이다.Referring to FIG. 12, first, in step S1201, the device 100 may obtain a song history in which the user uploads song data from the user's terminal 200. Here, the song history is a history of when the user uploaded song data in the past and how much song data was uploaded.

장치(100)는 사용자의 단말(200)로부터 가창 이력을 수신하고, 수신한 가창 이력을 사용자와 매칭하여 데이터베이스에 저장할 수 있다.The device 100 may receive a singing history from the user's terminal 200, match the received singing history with the user, and store it in a database.

구체적으로, 장치(100)는 사용자가 트레이너를 구하여, 사용자에게 트레이너를 매칭하고자 하는 경우, 사용자가 과거에 노래를 가창하여 가창 데이터를 업로드한 이력인 가창 이력을 획득할 수 있다. 이때, 장치(100)는 사용자의 단말(200)로부터 가창 이력을 획득할 수도 있고, 장치(100)는 장치(100)가 구비한 사용자 데이터베이스를 통해 가창 이력을 획득할 수도 있다. Specifically, when the user seeks a trainer and wants to match the trainer to the user, the device 100 can obtain a singing history, which is a history of the user singing a song in the past and uploading singing data. At this time, the device 100 may obtain the singing history from the user's terminal 200, and the device 100 may obtain the singing history through a user database provided by the device 100.

사용자 데이터베이스에는 사용자와 매칭하여 사용자가 과거에 가창 데이터를 업로드했던 이력인 가창 이력이 저장되어 있으며, 즉, 사용자 데이터베이스에는 어떤 사용자가 과거에 어떤 노래를 언제, 얼마나 가창하여 업로드하였고, 트레이너에 대한 후기 콘텐츠를 언제, 얼마나 작성하였는지에 대한 정보가 저장되어 있다. The user database stores the singing history, which is the history of the user uploading singing data in the past by matching with the user. That is, the user database stores which users uploaded which songs, when and how much they sang in the past, and reviews about trainers. Information about when and how much content was created is stored.

즉, 장치(100)는 사용자의 단말(200) 또는 사용자 데이터베이스를 통해 사용자가 어떤 사용자가 과거에 어떤 노래를 언제, 얼마나 가창하여 업로드하였고, 트레이너에 대한 후기 콘텐츠를 언제, 얼마나 작성하였는지에 대한 정보인 가창 이력을 획득할 수 있다.That is, the device 100 provides information about which users uploaded which songs, when and how much they sang in the past, and when and how much review content about the trainer was written through the user's terminal 200 or the user database. You can obtain singing history.

S1202 단계에서, 장치(100)는 가창 이력을 기초로, 사용자의 가창 주기를 생성할 수 있다.In step S1202, the device 100 may generate the user's singing cycle based on the singing history.

구체적으로, 장치(100)는 가창 이력을 기초로, 가창 데이터가 업로드된 날짜를 확인하여, 사용자의 가창 주기를 생성할 수 있다.Specifically, the device 100 may check the date on which the song data was uploaded based on the song history and generate the user's song cycle.

예를 들어, 사용자가 트레이너를 구하여 트레이너를 매칭하고자 하는 경우, 장치(100)는 사용자의 단말(200) 또는 사용자 데이터베이스를 통해 사용자가 가창 데이터를 업로드한 이력인 가창 이력을 획득할 수 있고, 가창 이력을 통해 가창 데이터가 업로드된 날짜가 각각 2023년 2월 3일, 2023년 3월 3일, 2023년 4월 3일 및 현재 날짜인 2023년 5월 3일인 것을 확인할 수 있고, 작성된 날짜를 기초로, 가창 콘텐츠의 업로드 주기인 가창 주기를 한달로 생성할 수 있다.For example, when a user seeks a trainer and wants to match the trainer, the device 100 can obtain a song history, which is a history of the user uploading song data, through the user's terminal 200 or a user database, and Through the history, you can see that the date the song data was uploaded is February 3, 2023, March 3, 2023, April 3, 2023, and the current date, May 3, 2023, respectively, and based on the created date As a result, the song cycle, which is the upload cycle of song content, can be created as a month.

S1203 단계에서, 장치(100)는 현재 날짜 및 사용자의 가창 주기를 기초로, 사용자의 다음 가창 예정일인 제1 날짜를 확인할 수 있다.In step S1203, the device 100 may check the first date, which is the user's next scheduled singing date, based on the current date and the user's singing cycle.

예를 들어, 사용자가 트레이너를 매칭하고자 하고, 현재 날짜가 2023년 5월 3일이고, 사용자의 가창 주기가 한달일 경우, 장치(100)는 사용자의 다음 가창 예정일인 제1 날짜로 2023년 6월 3일을 확인할 수 있다. For example, if the user wants to match a trainer, the current date is May 3, 2023, and the user's singing cycle is one month, the device 100 selects 6, 2023 as the first date, which is the user's next scheduled singing date. You can check the 3rd day of the month.

S1204 단계에서, 장치(100)는 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 존재하는지 여부를 판단할 수 있다.In step S1204, the device 100 may determine whether a trainer exists whose lesson availability period is the first date.

구체적으로, 장치(100)는 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 존재하는지 여부를 판단할 수 있다. Specifically, the device 100 may determine whether there is a trainer whose lesson availability period is the first date among trainers through the trainer database.

장치(100)는 트레이너 데이터베이스를 통해 트레이너의 위치를 확인할 수 있다.The device 100 can check the trainer's location through the trainer database.

구체적으로, 장치(100)는 사용자의 단말(200)로부터 획득한 사용자가 매칭하고자 하는 트레이너의 이름, 트레이너의 명수를 포함하는 사용자의 트레이너 매칭 정보를 기초로, 트레이너 데이터베이스를 통해 트레이너 중 사용자가 매칭하고자 하는 트레이너가 어디에 위치하였는지에 대한 정보인 트레이너의 위치를 확인할 수 있다. Specifically, the device 100 matches the user among the trainers through the trainer database based on the user's trainer matching information including the name of the trainer the user wishes to match and the number of trainers obtained from the user's terminal 200. You can check the location of the trainer, which is information about where the trainer you want to use is located.

여기서, 장치(100)는 트레이너 데이터베이스를 구비하거나, 별개의 트레이너 데이터베이스와 유무선으로 통신할 수 있으며, 트레이너 데이터베이스에는 트레이너와 매칭하여 트레이너에 대한 정보가 저장되어 있을 수 있으며, 트레이너에 대한 정보에는 트레이너의 이름, 트레이너의 레슨가능기간, 트레이너의 명수, 트레이너의 위치, 트레이너의 트레이닝 장소, 트레이너의 보컬 장르 등이 포함될 수 있다.Here, the device 100 may be provided with a trainer database or may communicate with a separate trainer database wired or wirelessly. The trainer database may store information about the trainer by matching with the trainer, and the information about the trainer includes the trainer's information. This may include the name, the trainer's lesson availability period, the number of trainers, the trainer's location, the trainer's training location, and the trainer's vocal genre.

S1204 단계에서 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 제1 트레이너로 존재한다고 확인되면, S1205 단계에서, 장치(100)는 제1 트레이너를 사용자에게 매칭할 것으로 판단하고, 제1 트레이너의 위치를 확인할 수 있다.If it is confirmed in step S1204 that the trainer whose lesson availability period is the first date exists as the first trainer, in step S1205, the device 100 determines to match the first trainer to the user, and determines the location of the first trainer. You can check.

구체적으로, 장치(100)는 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 존재하는지 여부를 판단한 결과, 트레이너 중 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 제1 트레이너로 존재한다고 확인되면, 제1 트레이너를 사용자에게 매칭할 것으로 판단하고, 트레이너 데이터베이스를 통해 제1 트레이너의 위치를 확인할 수 있다.Specifically, the device 100 determines whether there is a trainer whose lesson availability period is the first date among the trainers through the trainer database. As a result, the trainer whose lesson availability period is the first date among the trainers is the first trainer. If it is confirmed that it exists, it is determined that the first trainer will be matched to the user, and the location of the first trainer can be confirmed through the trainer database.

예를 들어, 사용자가 트레이너를 매칭하고자 하고, 현재 날짜가 2023년 5월 3일이고, 가창 주기가 한달일 경우, 장치(100)는 사용자의 다음 가창 예정일인 제1 날짜로 2023년 6월 3일을 확인할 수 있고, 트레이너 데이터베이스를 통해 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 있는지 여부를 확인하고, 레슨가능기간이 2023년 6월 3일인 트레이너가 제1 트레이너로 존재하는 것으로 확인되면, 제1 트레이너를 사용자에게 매칭할 것으로 판단하고, 트레이너 데이터베이스를 통해 제1 트레이너의 위치를 확인할 수 있다.For example, if the user wants to match a trainer, the current date is May 3, 2023, and the singing cycle is one month, the device 100 selects June 3, 2023 as the first date, which is the user's next scheduled singing date. You can check the work, and through the trainer database, check whether there is a trainer whose lesson available period is June 3, 2023, and confirm that the trainer whose lesson available period is June 3, 2023 exists as the first trainer. If so, it is determined that the first trainer will be matched to the user, and the location of the first trainer can be confirmed through the trainer database.

S1204 단계에서 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 존재하지 않는다고 확인되면, S1206 단계에서, 장치(100)는 제1 날짜를 기준으로 미리 설정된 범위 이전에 속한 제2 날짜들을 생성할 수 있다. 여기서, 미리 설정된 범위는 실시 예에 따라 달라질 수 있으며, 범위는 사용자의 가창 주기에 따라 사용자의 가창 주기가 길수록 넓어질 수 있고, 사용자의 가창 주기가 짧을수록 좁아질 수 있다.If it is confirmed in step S1204 that there is no trainer whose lesson availability period is the first date, in step S1206, the device 100 may generate second dates that fall before a preset range based on the first date. . Here, the preset range may vary depending on the embodiment, and the range may become wider as the user's singing cycle becomes longer, and may become narrower as the user's singing cycle becomes shorter, depending on the user's singing cycle.

구체적으로, 장치(100)는 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 존재하는지 여부를 판단한 결과, 트레이너 중 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 존재하지 않는다고 확인되면, 제1 날짜에서 미리 설정된 범위 이전에 속한 제2 날짜들을 생성할 수 있다.Specifically, the device 100 determines whether there is a trainer whose lesson availability period is the first date among the trainers through the trainer database, and determines that there is no trainer among the trainers whose lesson availability period is the first date. Once confirmed, second dates that fall before the preset range from the first date can be generated.

예를 들어, 사용자가 트레이너를 매칭하고자 하고, 현재 날짜가 2023년 5월 3일이고, 가창 주기가 한달이고, 미리 설정된 범위가 3일인 경우, 장치(100)는 사용자의 다음 가창 예정일인 제1 날짜로 2023년 6월 3일을 확인할 수 있고, 트레이너 데이터베이스를 통해 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 있는지 여부를 확인하고, 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 존재하지 않는다고 확인되면, 제1 날짜인 2023년 6월 3일을 기준으로 미리 설정된 범위인 3일 이내에 속한 제2 날짜들로 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일을 생성할 수 있다.For example, if the user wants to match a trainer, the current date is May 3, 2023, the singing cycle is one month, and the preset range is 3 days, the device 100 selects the first scheduled singing date of the user. You can check the date as June 3, 2023, and check through the trainer database whether there are any trainers whose lesson availability period is June 3, 2023. Among the trainers, which trainers have the lesson availability period on June 3, 2023? If it is confirmed that does not exist, the second dates that fall within 3 days, a preset range based on the first date, June 3, 2023, are May 31, 2023, June 1, 2023, and June 6, 2023. You can create 2 days in a month.

S1207 단계에서, 장치(100)는 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 존재하는지 여부를 판단할 수 있다.In step S1207, the device 100 may determine whether a trainer exists whose lesson availability period is the second date.

구체적으로, 장치(100)는 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 제2 날짜들 중 하나인 제2 날짜인 트레이너가 존재하는지 여부를 판단할 수 있다. Specifically, the device 100 may determine whether there is a trainer whose lesson availability period is a second date, one of the second dates, among trainers through the trainer database.

S1207 단계에서 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 제2 트레이너로 존재한다고 확인되면, S1208 단계에서, 장치(100)는 제2 트레이너를 사용자에게 매칭할 것으로 판단하고, 제2 트레이너의 위치를 확인할 수 있다.If it is confirmed in step S1207 that the trainer whose lesson availability period is the second date exists as a second trainer, in step S1208, the device 100 determines to match the second trainer to the user, and determines the location of the second trainer. You can check.

구체적으로, 장치(100)는 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 존재하는지 여부를 판단한 결과, 트레이너 중 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 제2 트레이너로 존재한다고 확인되면, 제2 트레이너를 사용자에게 매칭할 것으로 판단하고, 트레이너 데이터베이스를 통해 제2 트레이너의 위치를 확인할 수 있다.Specifically, the device 100 determines whether there is a trainer whose lesson availability period is the second date among the trainers through the trainer database, and as a result, the trainer whose lesson availability period is the second date among the trainers is the second trainer. If it is confirmed that it exists, it is determined that the second trainer will be matched to the user, and the location of the second trainer can be confirmed through the trainer database.

예를 들어, 사용자가 트레이너를 매칭하고자 하고, 현재 날짜가 2023년 5월 3일이고, 가창 주기가 한달이고, 미리 설정된 범위가 3일인 경우, 장치(100)는 사용자의 다음 가창 예정일인 제1 날짜로 2023년 6월 3일을 확인할 수 있고, 트레이너 데이터베이스를 통해 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 있는지 여부를 확인하고, 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 존재하지 않는다고 확인되면, 제1 날짜인 2023년 6월 3일을 기준으로 미리 설정된 범위인 3일 이내에 속한 제2 날짜들로 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일을 생성할 수 있고, 트레이너 데이터베이스를 통해 트레이너 중 레슨가능기간이 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일 중 하나인 트레이너가 있는지 여부를 확인하고, 레슨가능기간이 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일 중 하나인 트레이너가 제2 트레이너로 존재한다고 확인되면, 제2 트레이너를 사용자에게 매칭할 것으로 판단하고, 트레이너 데이터베이스를 통해 제2 트레이너의 위치를 확인할 수 있다. 이 과정에서, 장치(100)는 트레이너 중 레슨가능기간이 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일인 트레이너가 모두 존재한다고 확인되면, 레슨가능기간이 가장 빠른 2023년 5월 31일인 트레이너를 사용자에게 매칭할 수 있지만, 이에 한정되는 것은 아니다.For example, if the user wants to match a trainer, the current date is May 3, 2023, the singing cycle is one month, and the preset range is 3 days, the device 100 selects the first scheduled singing date of the user. You can check the date as June 3, 2023, and check through the trainer database whether there are any trainers whose lesson availability period is June 3, 2023. Among the trainers, which trainers have the lesson availability period on June 3, 2023? If it is confirmed that does not exist, the second dates that fall within 3 days, a preset range based on the first date, June 3, 2023, are May 31, 2023, June 1, 2023, and June 6, 2023. You can create 2 days per month, and check through the trainer database whether there is a trainer whose lesson availability period is one of May 31, 2023, June 1, 2023, or June 2, 2023. If it is confirmed that a trainer with a lesson availability period of May 31, 2023, June 1, 2023, or June 2, 2023 exists as a second trainer, it is determined that the second trainer will be matched to the user. You can check the location of the second trainer through the trainer database. In this process, the device 100 determines that there are all trainers whose lesson availability periods are May 31, 2023, June 1, 2023, and June 2, 2023. It is possible to match a trainer to a user as of May 31, but is not limited to this.

S1207 단계에서 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 존재하지 않는다고 확인되면, S1209 단계에서, 장치(100)는 트레이너 중 레슨가능기간이 제1 날짜 이후의 날짜 중 가장 빠른 날짜의 트레이너인 제3 트레이너를 확인하고, 제3 트레이너를 사용자에게 매칭할 것으로 판단하고, 제3 트레이너의 위치를 확인할 수 있다.If it is confirmed in step S1207 that there is no trainer whose lesson availability period is the second date, in step S1209, the device 100 selects the trainer whose lesson availability period is the earliest of the dates after the first date among the trainers. 3 trainers can be checked, it is determined that a third trainer will be matched to the user, and the location of the third trainer can be confirmed.

구체적으로, 장치(100)는 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 존재하는지 여부를 판단한 결과, 트레이너 중 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 존재하지 않는다고 확인되면, 트레이너 중 레슨가능기간이 제1 날짜 이후의 날짜 중 가장 빠른 날짜의 트레이너인 제3 트레이너를 확인하고, 제3 트레이너를 사용자에게 매칭할 것으로 판단하고, 제3 트레이너의 위치를 확인할 수 있다.Specifically, the device 100 determines whether there is a trainer whose lesson availability period is the second date among the trainers through the trainer database, and determines that there is no trainer among the trainers whose lesson availability period is the second date. Once confirmed, the third trainer whose lesson availability period is the earliest after the first date among the trainers is confirmed, it is determined that the third trainer will be matched to the user, and the location of the third trainer can be confirmed. .

예를 들어, 사용자가 트레이너를 매칭하고자 하고, 현재 날짜가 2023년 5월 3일이고, 가창 주기가 한달이고, 미리 설정된 범위가 3일인 경우, 장치(100)는 사용자의 다음 가창 예정일인 제1 날짜로 2023년 6월 3일을 확인할 수 있고, 트레이너 데이터베이스를 통해 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 있는지 여부를 확인하고, 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 존재하지 않는다고 확인되면, 제1 날짜인 2023년 6월 3일을 기준으로 미리 설정된 범위인 3일 이내에 속한 제2 날짜들로 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일을 생성할 수 있고, 트레이너 데이터베이스를 통해 트레이너 중 레슨가능기간이 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일 중 하나인 트레이너가 있는지 여부를 확인하고, 트레이너 중 레슨가능기간이 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일 중 하나인 트레이너가 존재하지 않는다고 확인되면, 트레이너 중 레슨가능기간이 2023년 6월 3일 이후의 날짜 중 가장 빠른 날짜의 트레이너인 제3 트레이너를 확인하고, 제3 트레이너를 사용자에게 매칭할 것으로 판단하고, 트레이너 데이터베이스를 통해 제3 트레이너의 위치를 확인할 수 있다.For example, if the user wants to match a trainer, the current date is May 3, 2023, the singing cycle is one month, and the preset range is 3 days, the device 100 selects the first scheduled singing date of the user. You can check the date as June 3, 2023, and check through the trainer database whether there are any trainers whose lesson availability period is June 3, 2023. Among the trainers, which trainers have the lesson availability period on June 3, 2023? If it is confirmed that does not exist, the second dates that fall within 3 days, a preset range based on the first date, June 3, 2023, are May 31, 2023, June 1, 2023, and June 6, 2023. You can create 2 days per month, and check through the trainer database whether there is a trainer whose lesson availability period is one of May 31, 2023, June 1, 2023, or June 2, 2023. If it is confirmed that there is no trainer whose lesson availability period is one of May 31, 2023, June 1, 2023, or June 2, 2023, among the trainers, the lesson availability period is after June 3, 2023. The third trainer, which is the trainer with the earliest date among the dates, is checked, it is determined that the third trainer will be matched to the user, and the location of the third trainer can be confirmed through the trainer database.

또한, 장치(100)는 이 과정에서 트레이너 중 레슨가능기간이 제1 날짜 이후의 날짜인 트레이너가 없다고 확인되면, 레슨가능기간이 제1 날짜 이전의 트레이너 중 레슨가능기간이 가장 긴 트레이너를 사용자에게 제공할 수 있다.In addition, if it is determined in this process that there is no trainer whose lesson available period is after the first date, the device 100 selects the trainer with the longest lesson available period among trainers whose lesson available period is before the first date to the user. can be provided.

이로 인해, 장치(100)는 사용자의 가창 주기를 통해 사용자가 다음에 트레이너를 매칭하고자 하는 날짜를 확인하고, 해당 날짜까지의 레슨가능기간인 트레이너를 매칭함으로써, 사용자에게 적합한 레슨가능기간의 트레이너를 매칭할 수 있는 효과가 있다.For this reason, the device 100 determines the date on which the user next wants to match a trainer through the user's singing cycle, and matches the trainer with a lesson availability period up to that date, thereby providing a trainer with a lesson availability period suitable for the user. There is a matching effect.

도 13은 일실시예에 따른 장치(100)의 구성의 예시도이다.Figure 13 is an exemplary diagram of the configuration of the device 100 according to one embodiment.

일실시예에 따른 장치(100)는 프로세서(101) 및 메모리(102)를 포함한다. 일실시예에 따른 장치(100)는 상술한 서버 또는 단말일 수 있다. 프로세서(101)는 도 1 내지 도 12를 통하여 전술한 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 12를 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 메모리(102)는 상술한 방법과 관련된 정보를 저장하거나 상술한 방법이 구현된 프로그램을 저장할 수 있다. 메모리(102)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다. Device 100 according to one embodiment includes a processor 101 and memory 102. Device 100 according to one embodiment may be the server or terminal described above. The processor 101 may include at least one device described above with reference to FIGS. 1 to 12 or may perform at least one method described with reference to FIGS. 1 to 12 . The memory 102 may store information related to the above-described method or store a program in which the above-described method is implemented. Memory 102 may be volatile memory or non-volatile memory.

프로세서(101)는 프로그램을 실행하고, 장치(100)를 제어할 수 있다. 프로세서(101)에 의하여 실행되는 프로그램의 코드는 메모리(102)에 저장될 수 있다. 장치(100)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.The processor 101 can execute programs and control the device 100. The code of the program executed by the processor 101 may be stored in the memory 102. The device 100 is connected to an external device (eg, a personal computer or a network) through an input/output device (not shown) and can exchange data.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using one or more general-purpose or special-purpose computers, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with limited drawings as described above, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the following claims.

Claims (3)

장치에 의해 수행되는 방법에 있어서,
사용자의 단말로부터 상기 사용자의 가창 데이터를 획득하는 단계;
상기 가창 데이터에 대한 항목별 평가 정보를 수신하는 단계;
상기 평가 정보를 가공하여 입력 데이터를 생성하는 단계;
상기 입력 데이터를 인공 신경망에 입력하여 상기 사용자의 보컬 등급을 획득하는 단계; 및
상기 보컬 등급에 매칭된 보컬 트레이닝 정보를 제공하는 단계;를 포함하고,
상기 평가 정보에 포함된 평가 항목은,
O또는 X로 평가되는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도와 하이톤 또는 로우톤으로 평가되는 음역대와 4가지 유형 중 하나로 평가되는 목소리 유형과, 1 내지 8의 숫자 중 하나로 평가되는 레벨을 포함하고,
상기 가창 데이터를 기반으로 사용자의 연습 콘텐츠를 추천하는 단계를 더 포함하고,
상기 연습 콘텐츠를 추천하는 단계는,
상기 가창 데이터로부터 상기 사용자의 보컬 장르를 확인하는 단계,
상기 가창 데이터로부터 주요 키워드를 추출하는 단계,
보컬 데이터베이스로부터 상기 보컬 장르에 해당하는 관심 보컬 콘텐츠를 수집하는 단계,
상기 관심 보컬 콘텐츠 중 상기 주요 키워드를 포함하는 보컬 콘텐츠가 포함되어 있는지 여부를 판단하는 단계,
상기 관심 보컬 콘텐츠 중 상기 주요 키워드를 포함하는 보컬 콘텐츠가 포함된 경우, 상기 주요 키워드를 포함하는 보컬 콘텐츠를 연습 콘텐츠로 결정하는 단계,
상기 관심 보컬 콘텐츠 중 상기 주요 키워드를 포함하는 보컬 콘텐츠가 포함되지 않은 경우, 상기 주요 키워드와 관련된 유사 키워드를 확인하는 단계,
상기 관심 보컬 콘텐츠 중 상기 유사 키워드를 포함하는 보컬 콘텐츠가 포함된 경우, 상기 유사 키워드를 포함하는 보컬 콘텐츠를 연습 콘텐츠로 결정하는 단계,
상기 관심 보컬 콘텐츠 중 상기 유사 키워드를 포함하는 보컬 콘텐츠가 포함되지 않은 경우, 상기 사용자와 평가 정보가 동일한 사용자가 가장 많이 등록한 보컬 콘텐츠를 연습 콘텐츠로 결정하는 단계를 포함하고,
상기 평가 정보에 기반하여, 상기 연습 콘텐츠를 수정하는 단계를 더 포함하고,
상기 연습 콘텐츠를 수정하는 단계는,
상기 평가 정보로부터, 평가 항목 중 X를 받은 항목의 개수를 확인하는 단계,
상기 X를 받은 항목의 개수가 미리 설정된 제1 기준 미만인 경우, 상기 연습 콘텐츠를 유지하는 단계,
상기 X를 받은 항목의 개수가 동일하면서, 사용자 중 상기 사용자가 X를 받은 항목에 대응하는 평가 항목이 O를 받은 것에 해당하는 유사 사용자를 추출하는 단계,
상기 X를 받은 항목의 개수가 미리 설정된 제1 기준 이상이면서, 미리 설정된 제2 기준 미만인 경우, 상기 연습 콘텐츠에 해당되는 유사 사용자의 보컬 콘텐츠를 추출하여 상기 연습 콘텐츠의 앞부분에 추가하는 단계,
상기 X를 받은 항목의 개수가 상기 제2 기준 이상인 경우, 전체 평가 항목의 개수와 상기 사용자의 X를 받은 항목의 개수의 차이 값에 대응하는 X를 받은 항목의 개수에 해당하는 우수 사용자를 추출하는 단계, 및
상기 연습 콘텐츠에 해당되는 상기 유사 사용자의 보컬 콘텐츠 및 상기 우수 사용자의 보컬 콘텐츠를 추출하여, 상기 연습 콘텐츠의 앞부분 및 뒷부분에 각각 추가하는 단계를 포함하는,
사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스 제공 방법.
In a method performed by a device,
Obtaining the user's song data from the user's terminal;
Receiving evaluation information for each item about the song data;
Processing the evaluation information to generate input data;
Obtaining the user's vocal rating by inputting the input data into an artificial neural network; and
Including; providing vocal training information matched to the vocal grade,
The evaluation items included in the above evaluation information are:
Pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness evaluated as O or Including,
Further comprising recommending practice content for the user based on the singing data,
The step of recommending the practice content is,
Confirming the user's vocal genre from the song data,
Extracting main keywords from the song data,
Collecting vocal content of interest corresponding to the vocal genre from a vocal database,
determining whether vocal content including the main keyword is included among the vocal content of interest;
If vocal content including the main keyword is included among the vocal content of interest, determining the vocal content including the main keyword as practice content;
If vocal content including the main keyword is not included among the vocal content of interest, checking similar keywords related to the main keyword,
If vocal content including the similar keyword is included among the vocal content of interest, determining the vocal content including the similar keyword as practice content;
If vocal content including the similar keyword is not included among the vocal content of interest, determining vocal content most frequently registered by users with the same evaluation information as the user as practice content,
Based on the evaluation information, further comprising modifying the practice content,
The step of modifying the practice content is,
From the evaluation information, confirming the number of evaluation items that received X,
If the number of items receiving X is less than a first preset standard, maintaining the practice content;
Extracting similar users among users whose evaluation items corresponding to the items for which the user received
If the number of items receiving the
If the number of items receiving X is greater than the second standard, extracting excellent users corresponding to the number of items receiving step, and
Comprising the step of extracting the vocal content of the similar user and the vocal content of the excellent user corresponding to the practice content and adding them to the front and back of the practice content, respectively.
Method of providing customized vocal training service as a result of user vocal evaluation.
제1항에 있어서,
상기 평가 정보를 가공하여 입력 데이터를 생성하는 단계는,
상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 중 O를 받은 항목에 대해서는 상기 레벨과 동일한 값을 입력하고, X를 받은 항목에 대해서는 상기 레벨에 -2를 적용한 값을 입력하되 1이하인 경우에는 1을 입력하는 단계,
상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도에 입력된 숫자에 따라 등급을 결정하는 단계, 및
상기 입력 데이터를 상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급과, 하이톤 또는 로우톤으로 평가된 음역대 및 4가지 유형 중 하나로 평가되는 목소리 유형으로 결정하는 단계를 포함하고,
음역 정보를 이용하여 상기 입력 데이터를 추가 가공하는 단계;를 더 포함하고,
상기 입력 데이터를 추가 가공하는 단계는,
상기 사용자의 단말로부터 상기 사용자의 음성 데이터를 획득하는 단계,
상기 음성 데이터를 이용하여, 상기 사용자의 음성 평균 음역을 확인하는 단계,
상기 가창 데이터를 이용하여, 상기 사용자의 가창 평균 음역을 확인하는 단계, 및
상기 음성 평균 음역과 상기 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우, 상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급을 한단계 하락시키고, 음역 보정 항목을 상기 입력 데이터에 항목에 추가하는 단계,를 포함하는,
사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스 제공 방법.
According to paragraph 1,
The step of processing the evaluation information to generate input data is,
Among the above-mentioned pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness, enter the same value as the level for the items that received an O, and for the items that received an Entering 1,
A step of determining a grade according to the numbers entered for the pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness, and
A step of determining the input data into grades of pitch, tempo, breathing, rhythm, high pitch, expressiveness, and completeness, a vocal range evaluated as high tone or low tone, and a voice type evaluated as one of four types,
Further comprising the step of further processing the input data using transliteration information,
The step of further processing the input data is,
Obtaining the user's voice data from the user's terminal,
Confirming the average vocal range of the user's voice using the voice data,
Using the song data, confirming the user's average singing range, and
If the difference between the average vocal range of the voice and the average vocal range of the song exceeds a preset standard, the grade of the pitch, tempo, breathing, rhythm, treble, expressiveness, and completeness is lowered by one level, and a vocal range correction item is added to the input data. steps of adding to, including,
Method of providing customized vocal training service as a result of user vocal evaluation.
삭제delete
KR1020230114213A 2023-08-30 2023-08-30 User vocal evaluation result customized vocal training service providing method, apparatus and system KR102623449B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230114213A KR102623449B1 (en) 2023-08-30 2023-08-30 User vocal evaluation result customized vocal training service providing method, apparatus and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230114213A KR102623449B1 (en) 2023-08-30 2023-08-30 User vocal evaluation result customized vocal training service providing method, apparatus and system

Publications (1)

Publication Number Publication Date
KR102623449B1 true KR102623449B1 (en) 2024-01-11

Family

ID=89533581

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230114213A KR102623449B1 (en) 2023-08-30 2023-08-30 User vocal evaluation result customized vocal training service providing method, apparatus and system

Country Status (1)

Country Link
KR (1) KR102623449B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140041266A (en) * 2012-09-27 2014-04-04 이보람 System and method for providing dance and song studying service using mobile content
KR101917216B1 (en) 2017-08-08 2018-11-09 (주)엠더블유스토리 Vocal Evaluating System
KR102107588B1 (en) 2018-10-31 2020-05-07 미디어스코프 주식회사 Method for evaluating about singing and apparatus for executing the method
KR102139889B1 (en) 2019-08-12 2020-07-30 박지선 A Real-Time Collaboration and Evaluation System for a Music Creation Activities on an online Platform
KR102259612B1 (en) 2020-07-15 2021-06-01 김영균 Music platform system for online training and online audition
KR20220036717A (en) * 2020-09-16 2022-03-23 한양대학교 산학협력단 Method for providing vocal learning information, server and program using the same
KR20220115157A (en) * 2021-02-10 2022-08-17 케이팝팩토리 주식회사 Method of analyzing vocalization of user and device of performing the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140041266A (en) * 2012-09-27 2014-04-04 이보람 System and method for providing dance and song studying service using mobile content
KR101917216B1 (en) 2017-08-08 2018-11-09 (주)엠더블유스토리 Vocal Evaluating System
KR102107588B1 (en) 2018-10-31 2020-05-07 미디어스코프 주식회사 Method for evaluating about singing and apparatus for executing the method
KR102139889B1 (en) 2019-08-12 2020-07-30 박지선 A Real-Time Collaboration and Evaluation System for a Music Creation Activities on an online Platform
KR102259612B1 (en) 2020-07-15 2021-06-01 김영균 Music platform system for online training and online audition
KR20220036717A (en) * 2020-09-16 2022-03-23 한양대학교 산학협력단 Method for providing vocal learning information, server and program using the same
KR20220115157A (en) * 2021-02-10 2022-08-17 케이팝팩토리 주식회사 Method of analyzing vocalization of user and device of performing the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
(네이버 블로그)"[튠잼] 내 손안의 보컬 분석 어플리케이션"(2022.07.26.), 인터넷: <https://blog.naver.com/k-popfactory/222829787219>* *

Similar Documents

Publication Publication Date Title
US11334804B2 (en) Cognitive music selection system and method
KR102222451B1 (en) An apparatus for predicting the status of user&#39;s psychology and a method thereof
US8112418B2 (en) Generating audio annotations for search and retrieval
Kaminskas et al. Contextual music information retrieval and recommendation: State of the art and challenges
CN109086408A (en) Document creation method, device, electronic equipment and computer-readable medium
Wei et al. College music education and teaching based on AI techniques
EP1840764A1 (en) Hybrid audio-visual categorization system and method
US10296959B1 (en) Automated recommendations of audio narrations
CN111275401A (en) Intelligent interviewing method and system based on position relation
US9747927B2 (en) System and method for multifaceted singing analysis
Wilks et al. A prototype for a conversational companion for reminiscing about images
Roy et al. iMusic: a session-sensitive clustered classical music recommender system using contextual representation learning
Sarin et al. SentiSpotMusic: a music recommendation system based on sentiment analysis
KR20210131892A (en) Device and Method Of Providing Interactive Audience Simulation
KR102623431B1 (en) A method of matching users and trainers based on user vocal ratings
KR102623449B1 (en) User vocal evaluation result customized vocal training service providing method, apparatus and system
KR102623459B1 (en) Method, apparatus and system for providing audition event service based on user&#39;s vocal evaluation
KR102623467B1 (en) Method, apparatus and system for providing agency recommendation service based on user vocal evaluation information
KR102623462B1 (en) Method, apparatus and system for providing vocal academy information based on user vocal evaluation information
Navarro-Cáceres et al. A user controlled system for the generation of melodies applying case based reasoning
KR102623424B1 (en) A method of providing customized vocal evaluation reports
KR102623419B1 (en) A method of collecting vocal data using a user&#39;s terminal and performing vocal evaluation using it
Sauer et al. Recommending audio mixing workflows
KR102623446B1 (en) A method for selecting user-customized audition songs based on user vocal evaluation
Tulisalmi-Eskola Automatic Music Genre Classification-Supervised Learning Approach

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant