KR102623459B1 - 사용자의 보컬 평가에 기반한 오디션 이벤트 서비스 제공 방법, 장치 및 시스템 - Google Patents

사용자의 보컬 평가에 기반한 오디션 이벤트 서비스 제공 방법, 장치 및 시스템 Download PDF

Info

Publication number
KR102623459B1
KR102623459B1 KR1020230114214A KR20230114214A KR102623459B1 KR 102623459 B1 KR102623459 B1 KR 102623459B1 KR 1020230114214 A KR1020230114214 A KR 1020230114214A KR 20230114214 A KR20230114214 A KR 20230114214A KR 102623459 B1 KR102623459 B1 KR 102623459B1
Authority
KR
South Korea
Prior art keywords
user
audition
vocal
data
information
Prior art date
Application number
KR1020230114214A
Other languages
English (en)
Inventor
김민석
Original Assignee
케이팝팩토리 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 케이팝팩토리 주식회사 filed Critical 케이팝팩토리 주식회사
Priority to KR1020230114214A priority Critical patent/KR102623459B1/ko
Application granted granted Critical
Publication of KR102623459B1 publication Critical patent/KR102623459B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature or perspiration; Biometric information
    • G10H2220/386Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature or perspiration; Biometric information using genetic information [DNA] or unique characterizing features of individuals, e.g. fingerprints, iris, facial or vocal features

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Molecular Biology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Evolutionary Computation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Primary Health Care (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

일실시예에 따른 장치는 사용자의 단말로부터 사용자의 가창 데이터를 획득하고, 가창 데이터에 대한 항목별 평가 정보를 수신하고, 평가 정보를 가공하여 입력 데이터를 생성하고, 입력 데이터를 인공 신경망에 입력하여 사용자의 보컬 등급을 획득하고, 보컬 등급에 매칭된 추천 오디션 정보를 제공할 수 있다.

Description

사용자의 보컬 평가에 기반한 오디션 이벤트 서비스 제공 방법, 장치 및 시스템{METHOD, APPARATUS AND SYSTEM FOR PROVIDING AUDITION EVENT SERVICE BASED ON USER'S VOCAL EVALUATION}
아래 실시예들은 사용자의 보컬 평가에 기반하여 오디션 이벤트 서비스를 제공하는 기술에 관한 것이다.
최근 들어 방송통신기술의 발전으로 연예인들의 활동폭이 넓어지고 그들의 일상 생활이 방송 프로그램을 통해 많이 노출되면서 연예인 지망자가 늘어나고 있다. 일반인이 연예인이 되기 위해서는 전문 학원을 다니거나 기획사의 오프라인 오디션에 참가하는 등의 노력을 들여야 한다. 기획사들은 연예인 지망생을 선발하기 위해 일반인을 길거리에서 캐스팅하거나 주기적으로 오디션을 하여 연예인 지망생을 선발한다. 연예인 지망자가 스스로 노력을 할 때나, 기획사들이 직접 연예인 지망자를 물색하여 캐스팅할 때 등, 어느 경우에나 많은 시간과 비용 그리고 노력이 필요하다.
한편, 유튜브와 같은 온라인 동영상 서비스 기술이 발전하면서 연예인 지망자들이 자기의 끼와 실력을 발휘할 수 있는 기회가 많아졌다. 연예인 지망자들은 모바일 폰이나 캠코더 등으로 자신이 노래하는 모습이나 춤추는 모습을 동영상으로 촬영한 후 유튜브 등에 올려 대중의 관심을 유도하는 방식으로 연예인이 되기 위해 노력하고 있다. 그러나, 이러한 온라인 오디션은 노래하는 모습 또는 춤추는 모습을 촬영한 동영상을 올려 놓은 후 단순히 클릭 수만으로 대중의 관심을 유도하는 것으로 참가자의 실력을 정확하게 평가하기 어렵다.
또한, 포털 사이트 등에서 제공하는 키워드 검색 등에 의한 인기순위는 오버추어와 같은 광고 기능에 의해 객관적이지 못한 문제점이 있다. 아울러 온라인에서 인기가 있는 사람이라도 기획사에 캐스팅될 경우 여전히 다년간의 전문 트레이닝을 받아야 하고 기획사는 많은 비용과 시간을 투자해야 한다.
이러한 환경에서, 소위 K-POP이라고 불리는 한류 열풍에 따라 한국의 음악 산업은 급속도로 발전하였다. 이에 따라, 가수 또는 아이돌을 지망하는 지망생들이 증가하였고, 이들 가수 지망생들을 대상으로 하는 시장 또한 급상승하고 있다. 그러나, 연예인 지망생의 급증에도 불구하고 연예인 지망생이 연예인으로 데뷔할 수 있는 무대(즉, 오디션 또는 기획사)는 한정되어 있고, 따라서 성공적인 데뷔를 위해서는 자신의 발성과 잘 맞는 기획사를 찾는 것이 중요하게 된다.
하지만, 지망생들 대부분은 연예 기획사들 각각에 대한 정보를 얻기가 어려울 뿐더러, 자신의 발성 또는 목소리에 관한 적절한 지표가 없어 자신에게 적합한 오디션을 선정하는데 어려움이 있었다.
나아가, 기획사에서도 급증하고 있는 다양한 지망생들 중 실질적으로 기획사에서 계획한 컨셉에 맞게 경쟁력 있는 맞춤형 지망생을 찾아내기 위한 시간 및 비용은 과도하게 소요되고 있는 문제점이 있다.
대한민국 등록특허 제10-2259612호(2021.06.01 공고) 대한민국 등록특허 제10-2107588 호(2020.05.07 공고) 대한민국 등록특허 제10-1917216 호(2018.11.09 공고) 대한민국 등록특허 제10-2139889 호(2020.07.30 공고)
실시예들은 사용자의 보컬 평가에 기반하여 오디션 이벤트 서비스를 제공하고자 한다.
실시예들은 가창 데이터에 대한 항목별 평가 정보를 인공 신경망에 입력하여 사용자의 보컬 등급을 평가하는 과정에서 입력 데이터를 추가 가공하는 과정을 통해 정확한 보컬 평가 결과를 획득하고자 한다.
실시예들은 사용자의 가창 데이터를 기반으로 추천 오디션 정보를 제공하고자 한다.
일실시예에 따르면, 장치에 의해 수행되는 방법은, 사용자의 단말로부터 상기 사용자의 가창 데이터를 획득하는 단계; 상기 가창 데이터에 대한 항목별 평가 정보를 수신하는 단계; 상기 평가 정보를 가공하여 입력 데이터를 생성하는 단계; 상기 입력 데이터를 인공 신경망에 입력하여 상기 사용자의 보컬 등급을 획득하는 단계; 및 상기 보컬 등급에 매칭된 추천 오디션 정보를 제공하는 단계;를 포함할 수 있다.
상기 평가 정보에 포함된 평가 항목은, O또는 X로 평가되는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도와 하이톤 또는 로우톤으로 평가되는 음역대와 4가지 유형 중 하나로 평가되는 목소리 유형과, 1 내지 8의 숫자 중 하나로 평가되는 레벨을 포함한다.
상기 평가 정보를 가공하여 입력 데이터를 생성하는 단계는, 상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 중 O를 받은 항목에 대해서는 상기 레벨과 동일한 값을 입력하고, X를 받은 항목에 대해서는 상기 레벨에 -2를 적용한 값을 입력하되 1이하인 경우에는 1을 입력하는 단계, 상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도에 입력된 숫자에 따라 등급을 결정하는 단계, 및 상기 입력 데이터를 상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급과, 하이톤 또는 로우톤으로 평가된 음역대 및 4가지 유형 중 하나로 평가되는 목소리 유형으로 결정하는 단계를 포함할 수 있다.
상기 장치에 의해 수행되는 방법은, 음역 정보를 이용하여 상기 입력 데이터를 추가 가공하는 단계;를 더 포함하고, 상기 입력 데이터를 추가 가공하는 단계는, 상기 사용자의 단말로부터 상기 사용자의 음성 데이터를 획득하는 단계, 상기 음성 데이터를 이용하여, 상기 사용자의 음성 평균 음역을 확인하는 단계, 상기 가창 데이터를 이용하여, 상기 사용자의 가창 평균 음역을 확인하는 단계, 및 상기 음성 평균 음역과 상기 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우, 상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급을 한단계 하락시키고, 음역 보정 항목을 상기 입력 데이터에 항목에 추가하는 단계,를 포함할 수 있다.
상기 추천 오디션 정보를 제공하는 단계는, 오디션 모집 사이트로부터 오디션 정보를 수집하는 단계, 상기 가창 데이터로부터 주요 키워드를 추출하는 단계, SNS로부터 좋아요 수, 조회수, 팔로워 수, 댓글 수, 공유 수를 기반으로 결정된 SNS 지수가 미리 설정된 기간 동안 미리 설정된 기준 이상으로 증가한 트렌드 사용자를 추출하는 단계, 상기 트렌드 사용자가 기획사에 소속된 경우, 상기 트렌드 사용자가 소속된 기획사의 오디션을 후보 오디션으로 분류하는 단계, 상기 트렌드 사용자로부터 등록된 SNS 콘텐츠에 포함된 트렌드 키워드를 추출하는 단계, 상기 주요 키워드 중에서 상기 트렌드 키워드에 포함된 키워드의 개수를 추출하는 단계, 상기 추출된 키워드의 개수를 기반으로 상기 사용자의 트렌드 지수를 결정하는 단계, 상기 평가 정보에 포함된 평가 항목 중 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 중 O를 받은 항목의 개수에 기반하여 오디션 응시 필요도를 결정하는 단계, 상기 사용자의 단말로부터 상기 사용자의 오디션 응시 이력을 획득하는 단계, 상기 오디션 응시 이력으로부터, 상기 사용자가 오디션에 응시한 응시 횟수 및 오디션 준비 기간을 확인하는 단계, 상기 응시 횟수 및 상기 오디션 준비 기간을 기반으로 상기 사용자의 오디션 경력 지수를 산출하는 단계, 상기 트렌드 지수, 상기 응시 필요도 및 상기 오디션 경력 지수를 기반으로 상기 사용자의 오디션 난이도를 결정하는 단계, 상기 후보 오디션 중 상기 오디션 난이도와 가장 근접한 오디션을 상기 사용자의 추천 오디션으로 결정하는 단계, 상기 추천 오디션에 합격한 합격 사용자의 가창 데이터인 합격 가창 데이터를 수집하는 단계, 상기 합격 가창 데이터 및 상기 사용자의 가창 데이터를 비교하여, 상기 합격 가창 데이터 및 상기 사용자의 가창 데이터의 유사도를 산출하는 단계, 상기 보컬 등급에 상기 유사도에 기반하여 결정된 가중치를 적용하여, 상기 추천 오디션 정보에 해당되는 오디션의 예상 합격율을 결정하는 단계, 및 상기 추천 오디션 및 상기 추천 오디션의 예상 합격률을 포함하는 추천 오디션 정보를 생성하는 단계를 포함할 수 있다.
상기 장치에 의해 수행되는 방법은, 트레이너의 위치를 확인하는 단계를 더 포함하고, 상기 트레이너의 위치를 확인하는 단계는, 상기 사용자가 상기 가창 데이터를 업로드한 가창 이력을 획득하는 단계, 상기 가창 이력을 기초로, 상기 사용자의 가창 주기를 생성하는 단계, 현재 날짜 및 상기 사용자의 가창 주기를 기초로, 상기 사용자의 다음 가창 예정일인 제1 날짜를 확인하는 단계, 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 상기 제1 날짜인 트레이너가 존재하는지 여부를 판단하는 단계, 트레이너의 레슨가능기간이 상기 제1 날짜인 트레이너가 제1 트레이너로 존재한다고 확인되면, 상기 제1 트레이너를 사용자에게 매칭할 것으로 판단하고, 상기 제1 트레이너의 위치를 확인하는 단계, 트레이너의 레슨가능기간이 상기 제1 날짜인 트레이너가 존재하지 않는다고 확인되면, 상기 제1 날짜를 기준으로 미리 설정된 범위 이전에 속한 제2 날짜들을 생성하는 단계, 상기 트레이너의 레슨가능기간이 상기 제2 날짜인 트레이너가 존재하는지 여부를 판단하는 단계, 상기 트레이너의 레슨가능기간이 상기 제2 날짜인 트레이너가 제2 트레이너로 존재한다고 확인되면, 상기 제2 트레이너를 사용자에게 매칭할 것으로 판단하고, 상기 제2 트레이너의 위치를 확인하는 단계, 및 상기 트레이너의 레슨가능기간이 상기 제2 날짜인 트레이너가 존재하지 않는다고 확인되면, 트레이너 중 레슨가능기간이 상기 제1 날짜 이후의 날짜 중 가장 빠른 날짜의 트레이너인 제3 트레이너를 확인하고, 상기 제3 트레이너를 사용자에게 매칭할 것으로 판단하고, 상기 제3 트레이너의 위치를 확인하는 단계를 포함할 수 있다.
상기 장치에 의해 수행되는 방법은, 상기 추천 오디션 정보로부터, 상기 추천 오디션의 오디션 지역을 확인하는 단계; 상기 오디션 지역과 제1 오디션을 소개하는 콘텐츠인 제1 콘텐츠가 제작되어 상기 제1 콘텐츠가 오디션 모집 사이트에 업로드 된 것을 확인하는 단계; 상기 오디션 지역 내에 설치되어 있는 제1 디스플레이 기기에서 상기 제1 콘텐츠가 재생되어 표시되도록 제어하는 단계; 상기 오디션 지역 내에 위치한 기획사들 중 제1 기획사를 소개하는 콘텐츠인 제2 콘텐츠가 오디션 모집 사이트에 업로드 된 경우, 상기 제1 디스플레이 기기에서 상기 제1 콘텐츠에 이어서 상기 제2 콘텐츠가 재생되어 표시되도록 제어하는 단계; 상기 오디션 지역 내에 위치한 기획사들 중 제2 기획사를 소개하는 콘텐츠인 제3 콘텐츠가 오디션 모집 사이트에 업로드 된 경우, 상기 제1 디스플레이 기기에서 상기 제2 콘텐츠에 이어서 상기 제3 콘텐츠가 재생되어 표시되도록 제어하는 단계; 상기 제1 디스플레이 기기에서 상기 제3 콘텐츠에 이어서 상기 제1 콘텐츠가 재생되어 표시되도록 제어하는 단계; 및 상기 제1 디스플레이 기기에서 상기 제1 콘텐츠에 이어서 상기 제2 콘텐츠 및 상기 제3 콘텐츠가 함께 재생되어 표시되도록 제어하는 단계를 더 포함할 수 있다.
일실시예에 따른 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.
실시예들은 사용자의 보컬 평가에 기반하여 오디션 이벤트 서비스를 제공할 수 있다.
실시예들은 가창 데이터에 대한 항목별 평가 정보를 인공 신경망에 입력하여 사용자의 보컬 등급을 평가하는 과정에서 입력 데이터를 추가 가공하는 과정을 통해 정확한 보컬 평가 결과를 획득할 수 있다.
실시예들은 사용자의 가창 데이터를 기반으로 추천 오디션 정보를 제공할 수 있다.
도 1은 일실시예에 따른 시스템의 구성을 설명하기 위한 도면이다.
도 2는 일실시예에 따른 사용자의 보컬 평가에 기반한 오디션 이벤트 서비스를 제공하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 평가 정보를 가공하여 입력 데이터를 생성하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 입력 데이터를 인공 신경망에 입력하여 사용자의 보컬 등급을 획득하는 과정을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 인공 신경망의 학습 및 평가 프로세스를 설명하기 위한 도면이다.
도 6은 일실시예에 따른 음역대 및 목소리 유형을 결정하는 과정을 설명하기 위한 도면이다.
도 7은 일실시예에 따른 사용자의 단말의 출력 인터페이스를 설명하기 위한 도면이다.
도 8은 일실시예에 따른 입력 데이터를 추가 가공하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 후보 오디션을 분류하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 추천 오디션을 결정하는 과정을 설명하기 위한 순서도이다.
도 11은 일실시예에 따른 추천 오디션의 예상 합격률을 결정하는 과정을 설명하기 위한 순서도이다.
도 12는 트레이너의 위치를 확인하는 과정을 설명하기 위한 순서도이다.
도 13은 디스플레이 기기에서 표시되는 기획사를 소개하는 콘텐츠의 재생 순서를 설정하는 과정을 설명하기 위한 순서도이다.
도 14는 일실시예에 따른 장치의 구성의 예시도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.
인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 규칙(Rule) 기반의 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반의 스마트 시스템은 점차 심층 학습(Deep Learning) 기반 인공지능 시스템으로 대체되고 있다.
인공지능 기술은 기계 학습 및 기계 학습을 활용한 요소기술들로 구성된다. 기계 학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 심층 학습 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.
인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.
일반적으로 기계 학습 알고리즘을 실생활에 적용하기 위해서는 기계 학습의 기본 방법론의 특성상 Trial and Error 방식으로 학습을 수행하게 된다. 특히, 심층 학습의 경우 수십만 번의 반복 실행을 필요로 한다. 이를 실제 물리적인 외부 환경에서 실행하기는 불가능하여 대신 실제 물리적인 외부 환경을 컴퓨터상에서 가상으로 구현하여 시뮬레이션을 통해 학습을 수행한다.
도 1은 일실시예에 따른 시스템의 구성을 설명하기 위한 도면이다.
도 1을 참조하면, 일실시예에 따른 시스템은 통신망을 통해 서로 통신 가능한 장치(100), 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500)을 포함할 수 있다.
먼저, 통신망은 유선 및 무선 등과 같이 그 통신 양태를 가리지 않고 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.
장치(100)는 사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스를 제공할 수 있다.
장치(100)는 사용자 보컬을 평가하고 사용자 보컬 평가 결과 기반 오디션 이 벤트 서비스 제공을 위한 플랫폼을 제공할 수 있으며, 해당 플랫폼을 통해 보컬 평가 결과 및 오디션 이벤트 서비스 제공에 대한 히스토리를 관리할 수 있다.
장치(100)는 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(100)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다.
장치(100)는 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500)과 유무선으로 통신하도록 구성될 수 있으며, 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500)의 동작을 제어하고, 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500)의 화면에 어느 정보를 표시할 것인지에 대해 제어할 수 있다.
일실시예에 따르면, 장치(100) 내에는 데이터베이스가 구비될 수 있으며, 이에 한정되지 않고, 장치(100)와 별도로 데이터베이스가 구성될 수 있다. 장치(100)는 기계 학습 알고리즘의 수행을 위한 다수의 인공 신경망을 포함할 수 있다.
사용자의 단말(200)은 본 발명에 따른 보컬을 평가받고 오디션 이벤트 서비스를 제공받고자 하는 사용자가 사용하는 단말일 수 있다. 사용자의 단말(200)은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 사용자의 단말(200)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.
사용자의 단말(200)은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 사용자의 단말(200)은 장치(100)와 유무선으로 통신하도록 구성될 수 있다.
사용자의 단말(200)은 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 페이지에 접속되거나, 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 사용자의 단말(200)은 웹 페이지 또는 애플리케이션을 통해 장치(100)와 연동될 수 있다.
사용자의 단말(200)은 장치(100)에서 제공하는 웹 페이지, 애플리케이션을 등을 통해 장치(100)에 접속할 수 있다.
기획사의 단말(300)은 본 발명에 따른 연예 기획사에 근무하는 근무자가 사용하는 단말일 수 있다. 기획사의 단말(300)은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 기획사의 단말(300)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.
기획사의 단말(300)은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 기획사의 단말(300)은 장치(100)와 유무선으로 통신하도록 구성될 수 있다.
기획사의 단말(300)은 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 페이지에 접속되거나, 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 기획사의 단말(300)은 웹 페이지 또는 애플리케이션을 통해 장치(100)와 연동될 수 있다.
기획사의 단말(300)은 장치(100)에서 제공하는 웹 페이지, 애플리케이션을 등을 통해 장치(100)에 접속할 수 있다.
평가자의 단말(400)은 본 발명에 따른 사용자의 가창 능력을 평가하는 평가자가 사용하는 단말일 수 있다. 평가자의 단말(400)은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 평가자의 단말(400)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.
평가자의 단말(400)은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 평가자의 단말(400)은 장치(100)와 유무선으로 통신하도록 구성될 수 있다.
평가자의 단말(400)은 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 페이지에 접속되거나, 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 평가자의 단말(400)은 웹 페이지 또는 애플리케이션을 통해 장치(100)와 연동될 수 있다.
평가자의 단말(400)은 장치(100)에서 제공하는 웹 페이지, 애플리케이션을 등을 통해 장치(100)에 접속할 수 있다.
트레이너의 단말(500)은 본 발명에 따른 보컬 트레이닝 서비스를 제공하고자 하는 트레이너가 사용하는 단말일 수 있다. 트레이너의 단말(500)은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 트레이너의 단말(500)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.
트레이너의 단말(500)은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 트레이너의 단말(500)은 장치(100)와 유무선으로 통신하도록 구성될 수 있다.
트레이너의 단말(500)은 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 페이지에 접속되거나, 장치(100)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 트레이너의 단말(500)은 웹 페이지 또는 애플리케이션을 통해 장치(100)와 연동될 수 있다.
트레이너의 단말(500)은 장치(100)에서 제공하는 웹 페이지, 애플리케이션을 등을 통해 장치(100)에 접속할 수 있다.
청구항에 기재된 단수의 표현은 복수를 포함하는 것으로 이해될 수 있다.
한편, 설명의 편의를 위해 도 1에서는 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500)만을 도시하였으나, 단말들의 수는 실시예에 따라 얼마든지 달라질 수 있다. 장치(100)의 처리 용량이 허용하는 한, 단말들의 수는 특별한 제한이 없다.
도 2는 일실시예에 따른 사용자의 보컬 평가에 기반한 오디션 이벤트 서비스를 제공하는 과정을 설명하기 위한 순서도이다.
도 2를 참조하면, 먼저, S201 단계에서, 장치(100)는 사용자의 단말(200)로부터 사용자의 가창 데이터를 획득할 수 있다.
구체적으로, 장치(100)는 사용자가 노래를 부른 가창 데이터가 생성된 사용자의 단말(200)로부터 가창 데이터를 수신할 수 있으며, 데이터베이스에 사용자와 매칭하여 사용자의 가창 데이터를 저장할 수 있다.
사용자의 단말(200)은 사용자가 노래를 부른 영상 또는 음성 데이터를 기록하고, 기록 결과에 따라 사용자의 가창 데이터를 생성할 수 있다. 이때, 가창 데이터는 영상 파일 또는 음성 파일일 수 있으나, 이에 한정되는 것은 아니다.
장치(100)는 사용자의 단말(200)로부터 직접 음성, 동영상 등을 수집하거나, 사용자의 단말(200)에서 SNS 서비스 등에 업로드 및 등록한 데이터를 수집 처리하여 가창 데이터를 획득할 수도 있다.
또한, 사용자의 단말(200)은 사용자와 관련된 사용자 정보를 가창 데이터에 포함시킬 수 있다. 이때, 사용자 정보는 사용자 식별 정보, 사용자의 성별, 나이 및 신체 특징 정보 등을 포함할 수 있으나, 이에 한정되지는 않는다. 사용자 정보는 메타버스(metaverse) 세계에서의 가상의 인물 정보도 포함될 수 있다.
장치(100)는 사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스 제공을 위한 플랫폼 서비스 또는 웹 사이트를 제공할 수 있으며, 사용자는 해당 플랫폼 서비스 또는 웹 사이트에 가창 데이터를 업로드할 수도 있다.
S202 단계에서, 장치(100)는 가창 데이터에 대한 항목별 평가 정보를 수신할 수 있다.
이때, 평가 정보에 포함된 평가 항목은 O또는 X로 평가되는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도와 하이톤(H) 또는 로우톤(L)으로 평가되는 음역대와 4가지 유형(FMSO) 중 하나로 평가되는 목소리 유형과, 1 내지 8의 숫자 중 하나로 평가되는 레벨을 포함할 수 있다.
일실시예에 따르면, 장치(100)는 사용자의 단말(200)로부터 수신한 가창 데이터로부터 사용자의 보컬 레벨, 포지션 및 발성 속성을 포함하는 발성 분류 분석을 수행하며, 발성 분류 분석 결과를 사전 구축된 인공지능 학습 기반 평가 모델 데이터베이스에 적용하여 직관 레벨 및 항목 레벨을 산출할 수 있다.
그리고, 장치(100)는 산출된 직관 레벨 및 항목 레벨을 포함하는 보컬 등급에 기초하여, 보컬 트레이닝 서비스를 위한 보컬 트레이닝 정보를 생성할 수 있으며, 생성된 보컬 트레이닝 정보를 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500) 중 적어도 하나로 전송할 수 있다.
보다 구체적으로, 장치(100)는 먼저 가창 데이터로부터 사전 설정된 발성 분류 분석 알고리즘에 기초하여, 사용자의 보컬 레벨, 포지션 및 발성 속성을 포함하는 발성 분류 분석을 수행할 수 있다.
장치(100)는 이러한 발성 분류 분석에 따른 분석 결과 데이터를 기반으로 하는 직관 레벨 및 항목 레벨의 산출을 위하여, 사전 학습 데이터의 라벨링 데이터를 이용한 인공지능 학습 처리를 수행하여 인공지능 학습 기반 평가 모델을 사전 구축 처리할 수 있다.
이러한, 인공지능 학습 기반 평가 모델의 구축에 따라, 장치(100)는 발성 분류 분석 결과를 기반으로 하는 사용자별 직관 레 벨 및 항목 레벨을 포함하는 보컬 등급을 산출할 수 있으며, 이러한 이중 레벨 산출 프로세서에 의한 정확한 평가가 가능하게 된다.
여기서, 직관 레벨 및 항목 레벨을 포함하는 보컬 등급을 위한 인공지능 학습 기반 평가 모델은, 학습 데이터에 포함된 각 가창 데이터에 대응하는 직관 판정 정보와 항목 평가 정보의 학습에 의해 구축된 인공지능 학습 기반 평가 모델에 의해 결정될 수 있다.
직관 판정 정보는 평가자의 단말(400)을 사용하는 평가자가 가창 데이터를 청취 또는 시청함에 따라 입력된 학습 데이터로부터 라벨링 처리될 수 있으며, 예를 들어, 하기와 같은 각 판정 기준 별 직관 판정 정보가 학습 데이터로서 라벨링되는 것이 예시될 수 있다.
예를 들어, 직관 판정 정보는 1부터 8내지의 숫자를 포함할 수 있다.
8: 모든 요소를 충족하면서 흠잡을 데 없이 탄탄한 느낌을 줌,
7: 부르면 부를수록 노래에 경청하게 되며, 딱 들어도 순간적으로 잘한다는 생각이 듦,
6: 많은 연습량이 느껴지는 레벨로, 전반적으로 안정적인 가창을 보여줌,
5: 가요, 혹은 케이팝 느낌이 능숙하지만 다소 불안한 요소들로 느껴짐,
4: 가요, 케이팝처럼 느낌이 나타내기 시작함,
3: 최소한의 기본기는 갖고 있지만 가요, 케이팝적인 느낌은 어려운 상태,
2: 노래로써 역할은 하지만 기본기가 아직 부족한 상태,
1: 노래보다는 말에 가까운 상태
또한, 항목 판정 정보는 사전 설정된 평가 항목을 가창 데이터에 적용함에 따라 기술적으로 결정될 수 있다.
여기서, 항목 판정 정보의 평가 항목은 하기와 같이 예시될 수 있다.
음감: 음과 음 사이의 거리, 음의 높이를 정확하게 표현하는 지 여부,
템포감: BPM을 일정하게 유지하는 감각이 있는지 여부,
호흡: 호흡을 기반으로 한 비브라토로서, 기본기 없을 때의 비브라토 포함하며, 가창 시 2회 이상 표현되어야 인정됨,
리듬감: 다양한 벤딩 표현, 리듬에 맞는 바이브레이션이 있는지 여부,
고음 안정감: 음역대 안에서의 고음 안정감이 있는지 여부,
표현력: 노래의 전체적인 다이내믹, 볼륨의 다이나믹 조절 능력, 흉식적 딕션의 강세, 끝음 처리, 목소리의 질감 변화(성대 접지와 호흡의 조절 능력), 감정 표현력 중 일정 비율 이상이 존재하는 지 여부,
완성도: 모든 조건을 충족함과 동시에 임팩트 있는 부분이 확실한 경우 체크되는 항목 기준으로서, 흠잡을 데 없는 실력을 나타냄
장치(100)는, 이와 같이 예시된 직관 판정 정보와 항목 판정 정보의 인공지능 딥러닝 기반의 학습을 통해 평가 모델 데이터베이스를 구축할 수 있으며, 이에 기초한 직관 레벨 및 항목 레벨을 산출하고, 정확한 판정에 의한 보컬 관련 다양한 서비스를, 각 사용자의 단말(200), 기획사의 단말(300), 평가자의 단말(400) 및 트레이너의 단말(500) 등으로 제공할 수 있다
S203 단계에서, 장치(100)는 평가 정보를 가공하여 입력 데이터를 생성할 수 있다. 이때, 평가 정보를 가공하여 입력 데이터를 생성하는 과정은 도 3을 참조하여 후술하기로 한다.
한편, 장치(100)는 음역 정보를 이용하여 입력 데이터를 추가 가공하는 과정을 수행할 수 있다. 이때, 입력 데이터를 추가 가공하는 과정에 대한 자세한 설명은 도 8을 참조하여 후술하기로 한다.
S204 단계에서, 장치(100)는 입력 데이터를 인공 신경망에 입력하여 사용자의 보컬 등급을 획득할 수 있다.
장치(100)는 사용자의 단말(200)로부터 사용자의 가창 데이터를 획득할 수 있다. 여기서, 장치(100)는 사용자의 단말(200)로부터 직접 음성, 동영상 등을 수집하거나, 사용자의 단말(200)에서 SNS 서비스 등에 업로드한 데이터를 수집 처리할 수 있다.
또한, 장치(100)는 인공지능 학습 기반 평가 모델 데이터베이스로부터 수집된 데이터를 전달하여 학습 데이터로서 이용되도록 할 수 있다. 여기서, 학습 데이터에는 각 평가자의 단말(400)에서 입력되거나, 전문가 등에 의해 입력되거나, 기술 기반으로 판정된 직관 판정 정보와 항목 판정 정보가 라벨링 정보로서 할당될 수 있다. 또한, 장치(100)는 각 수집된 가창 데이터와 라벨링 데이터 간 연관성을 체크하여, 데이터의 라벨링 노이즈를 제거할 수도 있다.
그리고, 장치(100)는 수집된 가창 데이터의 길이와 특성이 모두 상이하기 때문에, 이를 전처리할 수 있다. 전처리 과정은 예를 들어, 일정 길이(5~10초)로 크롭(crop) 처리하는 과정을 포함할 수 있다.
또한, 장치(100)는 전처리된 데이터를 이용하여, 반주가 있는 데이터와, 반주가 없는 데이터, 노이즈가 있는 데이터와 같이, 다양한 데이터로 확장시키는 증식(AUGMENTATION) 처리 등이 예시될 수 있다. 증식(AUGMENTATION) 처리에는, 딥러닝 기법을 사용할 수 있고, 룸 임펄스 반응(RoomImpulse Response)과 같은 전통적인 방법을 사용할 수 있으며, 더 나아가 스펙트럼(Spectrogram)을 통해 음성에서 효율적인 정보 추출을 하여, 가창 데이터를 전처리할 수도 있다.
그리고, 장치(100)는 가창 데이터로부터, 사용자의 보컬 레벨, 포지션 및 발성 속성을 포함하는 발성 분류 분석을 수행하고, 발성 분류 분석 결과를, 사전 구축된 인공지능 학습 기반 평가 모델 데이터베이스에 적용하여, 직관 레벨 및 항목 레벨을 포함하는 보컬 등급을 산출할 수 있다.
여기서, 발성 분류 분석 알고리즘은, 가창 데이터로부터 각 사용자의 보컬 레벨, 포지션 및 발성 속성을 분류하는 프로세스로서, 인공지능 학습 기반 평가 모델 데이터베이스를 이용하여 수행되는 것이 바람직한 바, 이에 대하여는 보다 구체적으로 후술하도록 한다.
그리고, 인공지능 학습 기반 평가 모델 데이터베이스는, 전술한 가창 데이터에서 전처리된 학습 데이터와, 라벨링 데이터 및 평가자의 단말(400)의 입력 데이터로부터 구축될 수 있으며, 사전 설정된 음성 유형 라벨링 알고리즘에 따라, 구성될 수 있다.
예를 들어, 인공지능 학습 기반 평가 모델 데이터베이스는, 스펙트럼(Spectrogram)으로 변형된 보컬 콘텐츠 데이터를, 통상적으로 이미지에 사용되는 합성곱 신경망(Convolutional neural network, CNN)에 적용하여 학습 데이터베이스를 구축할 수 있다. 이를 위해, 인공지능 학습 기반 평가 모델 데이터베이스는, 가창 데이터에 특화되도록 사전 학습된 가중치(pre-trained weight)를 사용하여 적은 데이터에서도 최고의 효율을 얻을 수 있다.
나아가, 인공지능 학습 기반 평가 모델 데이터베이스는, 발성 분류 분석 알고리즘을 효과적으로 처리하기 위한 분류 모델로서, softmax와 Cross Entropy Loss를 사용할 수 있으며, 직관 레벨 및 항목 레벨을 결정하는 학습을 위해, Mean Squared Loss를 사용한 역전파(back propagation) 알고리즘을 이용할 수 있다
본 발명의 실시예에 따른 인공지능 학습 기반 평가 모델 데이터베이스는 데이터 흐름 파이프라인을 구축하여 프라이버시를 보존하고 계속적 학습(continual learning)을 통해 모델의 성능을 꾸준히 업데이트 할 수 있으며, 범용적으로 다양한 서비스에 적용할 수 있는 API가 구성될 수 있다. 이에 따라, 휴대폰 어플리케이션 서비스, 메타버스 서비스 등 다양한 서비스를 통해 인공지능 학습 기반 평가 모델 데이터베이스를 이용한 평가 프로세스가 제공될 수 있게 된다.
인공지능 학습 기반 평가 모델 데이터베이스는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도, 1 내지 8의 숫자 중 하나로 평가되는 레벨, 하이톤(H) 또는 로우톤(L)으로 평가되는 음역대 및 4가지 유형(FMSO) 중 하나로 평가되는 목소리 유형이 라벨링 데이터로 구성되어, 인공지능 학습 기반 평가 모델 데이터베이스가 구축될 수 있다.
이와 같은 모델 구축 및 분석 프로세스에 따라 사용자의 단말(200)에서 업로드한 영상 등에서의 보컬 분석이 자동화 처리될 수 있으며, 장치(100)는 AI 알고리즘을 통해 빅데이터를 분석하여 보컬 등급 분류 및 평가 결과를 도출할 수 있고, 각 음성의 음역대와 목소리 유형별 인공지능 학습 기반 평가 모델 데이터베이스 기반 평가를 통해 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도를 기준으로 보컬 등급과 이에 기반한 보컬 트레이닝 서비스를 제공할 수 있다.
본 발명에 따른 보컬 분류 체계는 하이톤(H) 또는 로우톤(L)으로 평가되는 음역대와 4가지 유형(FMSO) 중 하나로 평가되는 목소리 유형을 포함할 수 있으나, 이에 한정되지는 않는다. 본 발명에 따른 보컬 분류 체계는 본 발명의 실시예에 따른 효과적인 보컬 유형 분류를 위해 제안된 것으로, 성대 접지와 호흡의 암 정도를 기준으로 목소리 유형을 크게 4가지의 유형(FMSO)으로 분류하는 FMSO 체계와 목소리의 톤의 높고 낮음에 따라 하이톤(H) 또는 로우톤(L)를 할당하여 8가지 유형으로 소분류하는 HL 체계를 혼합하여 구성될 수 있다.
이에 따라, 아래와 같은 보컬 유형 분류 및 유형별 가이드 정보가 가창 데이터로부터 분석 처리될 수 있다.
HF: 가장 강한 힘으로 호흡을 뱉어내는 타입으로, 큰 볼륨의 호흡이 섞여있는 하이톤톤의 허스키한 목소리를 가지고 있다.
LF: 가장 많은 호흡량을 사용하며 큰 볼륨의 묵직 로우톤으로 허스키하고, 강렬한 감정 표현을 할 수 있다.
HM: 아이돌에 있어서 가장 완성도가 높은 발성을 지녔으며 가장 높은 음역을 소화할 수 있는 유형으로 하이톤의 또렷하고 단단한 목소리를 가지고 있다.
LM: 로우톤의 큰 볼륨의 또렷한 목소리로 낮은 음에 강점을 보이며 저음부터 고음까지 넓은 음역의 소화가 가능한 유형이다
HS: 가장 약한 호흡의 힘을 사용하는 타입으로 작은 볼륨에 호흡이 실린 하이톤의 청아한 목소리가 매력적이다.
LS: 가벼운 힘으로 목소리를 만들어내지만 호흡이 가장 많이 실려있는 로우톤의 목소리를 지녔으며 순수하고 아련한 감성적인 톤을 지닌다.
HO: 작은 호흡의 힘으로 명확하며 또렷한 하이톤의 소리를 낼 수 있다. 맑고 청량한 미성을 소유한 경우가 많다.
LO: 나지막한 로우톤의 목소리를 만들어내는 타입으로 가볍게 호흡을 쓰며 성대를 효율적으로 사용하여 명확한 소리가 난다.
이에 따라, 보컬 유형이 분류되면, 장치(100)는 보컬 유형 분류에 대응하는 보컬 등급을 결정할 수 있으며, 그 결정을 위한 학습 데이터 또한 동일한 라벨링이 처리 및 학습되어, 인공지능 학습 기반 평가 모델 데이터베이스 상에 미리 구축될 수 있다.
S205 단계에서, 장치(100)는 보컬 등급에 매칭된 추천 오디션 정보를 제공할 수 있다.
장치(100)는 직관 레벨 및 항목 레벨을 포함하는 보컬 등급에 기초한 보컬 트레이닝 서비스를 제공할 수 있다. 이때, 보컬 트레이닝 서비스는 각 사용자의 보컬 등급에 따라 추천 오디션 정보를 제공하는 오디션 이벤트 서비스를 포함할 수 있다.
장치(100)는 서비스를 제공함에 있어서, 사전 설정된 오디션 이벤트에 참여한 사용자의 단말(200)로부터 오디션 이벤트에 응시한 사용자의 가창 데이터를 획득하며, 사용자의 가창 데이터로부터 산출되는 각 사용자별 보컬 등급에 기초하여, 사용자 보컬 평가 기반의 오디션 서비스 데이터를 사용자의 단말(200)로 제공할 수도 있다.
보컬 트레이닝 서비스는 각 사용자의 보컬 등급에 따라 각 사용자의 유형별 약한 부분이나 강점 등을 가이드하는 가이드 정보 제공 서비스를 포함할 수 있다.
또한, 보컬 트레이닝 서비스는, 각 사용자의 보컬 유형 및 보컬 등급에 기초하여, 적절한 기획사 정보를 매칭하여 제공하는 매칭 서비스를 포함할 수 있다.
보컬 트레이닝 서비스는, 각 사용자의 보컬 유형 및 보컬 등급에 기초하여, 적절한 강의 정보를 매칭하여 제공하는 매칭 서비스를 포함할 수 있다
또한, 보컬 트레이닝 서비스각 사용자의 보컬 유형 및 보컬 등급에 기초하여, 적절한 트레이너 정보를 매칭하여 제공하는 매칭 서비스를 포함할 수 있다.
이를 위해, 장치(100)는, 보컬 등급에 기초한 유형 가이드 서비스 데이터를 구성하고, 유형 가이드 서비스 데이터를 사용자의 단말(200)로 제공할 수 있다.
또한, 장치(100)는 기획사의 단말(300)로부터 사전 수집된 기획사 정보에 기초하여, 보컬 등급에 기초한 기획사 매칭 서비스 데이터를 구성하고 기획사 매칭 서비스 데이터를 기획사의 단말(300) 또는 사용자의 단말(200)로 제공할 수 있다.
장치(100)는, 네트워크를 통해 사전 구축된 강의 정보 데이터베이스에 기초하여, 보컬 등급에 기초한 강의 정보 서비스 데이터를 구성하고, 강의 정보 서비스 데이터를 사용자의 단말(200)로 제공할 수 있다.
또한, 장치(100)는 트레이너의 단말(500) 로부터 수집된 트레이너 정보에 기초하여, 보컬 등급에 기초한 트레이너 매칭 서비스 데이터를 구성하고, 트레이너 매칭 서비스 데이터를 사용자의 단말(200) 또는 트레이너의 단말(500)로 제공할 수 있다.
도 3은 일실시예에 따른 평가 정보를 가공하여 입력 데이터를 생성하는 과정을 설명하기 위한 순서도이고, 도 4는 일실시예에 따른 입력 데이터를 인공 신경망에 입력하여 사용자의 보컬 등급을 획득하는 과정을 설명하기 위한 도면이고, 도 5는 일실시예에 따른 인공 신경망의 학습 및 평가 프로세스를 설명하기 위한 도면이다.
도 3을 참조하면, 먼저, S301 단계에서, 장치(100)는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 중 O를 받은 항목에 대해서는 레벨과 동일한 값을 입력하고, X를 받은 항목에 대해서는 레벨에 -2를 적용한 값을 입력하되 1이하인 경우에는 1을 입력할 수 있다.
예를 들어, 각 레벨은 HL 및 FMSO 체계에 대응하는 [음감], [템포감], [호흡 컨트롤], [리듬감], [고음 안정감], [표현력], [완성도] 기준으로 판정되어 1에서 8레벨 수준으로 분류될 수 있다. 그리고, [O를 받은 항목 개수]+1 은 보컬 등급으로서 정의될 수 있으며, [완성도] 항목은 다른 6가지 항목이 전부 긍정인 상태에서 완벽한 수준으로 판단될 때 부여가능한 임의의 항목일 수 있다.
예를 들어, 사용자가 음감, 템포감, 표현력, 리듬감, 고음에 O를 받은 상황이라면 O의 개수+1(0레벨이 존재하지 않기에+1을 모든 레벨에 기본적으로 적용되어야 함)=6레벨의 보컬 등급에 대한 판정을 받게 되며, O가 부여된 항목에는 판정받은 레벨 값인 6이 산출되고, X가 부여된 항목에는 레벨 값의 -2값이 산출될 수 있다.
각 평가 항목별 레벨 부여에 따라, 평가자의 단말(400)에서는 직관 판정 정보를 입력할 수 있으며, 장치(100)는 인공지능 학습 기반 평가 모델 데이터베이스 기반의 평가에 따른 항목 판정 정보를 입력할 수 있다.
장치(100)는 직관 판정 정보에 기초한 직관 레벨과, 항목 판정 정보에 기초한 항목 레벨을 산출하고, 직관 레벨 및 항목 레벨 간 모순 제거 등이 세부 항목 데이터 조정을 수행하여, 최종적인 보컬 등급을 결정할 수 있다.
직관 판정 정보의 경우에는 평가자의 단말(400)에서 들리는 그대로의 수준을 직관으로 판정하여 입력한 입력 정보로서 산출되며, 아래와 같이 구성될 수 있다.
8 Level: 모든 요소를 충족하면서 흠잡을 데 없이 탄탄한 느낌을 줌
7 Level: 부르면 부를수록 노래에 경청하게 되며, 딱 들어도 순간적으로 잘한다는 생각이 듦
6 Level: 많은 연습량이 느껴지는 레벨로, 전반적으로 안정적인 가창을 보여줌
5 Level: 가요, 혹은 케이팝 느낌이 능숙하지만 다소 불안한 요소들로 느껴짐
4 Level: 가요, 케이팝처럼 느낌이 나타내기 시작함
3 Level: 최소한의 기본기는 갖고 있지만 가요, 케이팝적인 느낌은 어려운 상태
2 Level: 노래로써 역할은 하지만 기본기가 아직 부족한 상태
1 Level: 노래보다는 말에 가까운 상태
또한, 항목 판정의 경우에는, 직관 판정 레벨에 대응하여, 하기 기준에 맞는 각 항목들을 O/X로 평가함에 따라 평가될 수 있다.
음감: 음과 음 사이의 거리, 음의 높이를 정확하게 표현할 수 있는 능력
템포감: BPM을 일정하게 유지하는 감각
호흡 컨트롤: 호흡을 기반으로 한 비브라토(기본기가 잘 이뤄지지 은 상태에서 비브라토를 할 경우를 포함, 노래하는 부분에서 2회 이상 표현되어야 인정)
리듬감: 다양한 벤딩 표현, 리듬에 맞는 바이브레이션.
고음 안정감: 그 사람의 음역대 안에서의 고음 안정감, 고음 부분의 발성과 안정감에서 판단됨.
표현력: 노래의 전체적인 다이내믹, 볼륨의 다이나믹 조절 능력, 흉식적 딕션의 강세, 끝음 처리, 목소리의 질감 변화(성대 접지와 호흡의 조절 능력), 감정 표현력 중 일정 개수 이상 존재하는 경우
완성도: 모든 조건을 충족함과 동시에 임팩트 있는 부분이 확실하여, 흠잡을 데 없는 실력이 있는 경우
즉, 인공지능 학습 기반 평가 모델 데이터베이스의 학습에 필요한 라벨링 데이터는 아래와 같이 예시된다.
음감, 템포감, 호흡 컨트롤, 리듬감, 고음 안정감, 표현력, 완성도 (O): 7가지 항목,
음감, 템포감, 호흡 컨트롤, 리듬감, 고음 안정감, 표현력, 완성도 (X): 7가지 항목,
HL: 2가지 분류 항목,
FMSO: 4가지 분류 항목
레벨 측정 결과 데이터는, 전술한 레벨 판정에 이용되는 항목별 (O), (X) 데이터들을 이용하여 산출되는 레벨 숫자 또는 등급 정보를 포함할 수 있다.
S302 단계에서, 장치(100)는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도에 입력된 숫자에 따라 등급을 결정할 수 있다.
이때, 도 4를 참조하면, 장치(100)는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도를 포함하는 각 평가 항목에 입력된 숫자를 등급으로 치환할 수 있다.
이때, 최저 레벨(예컨대, 1레벨)부터 최고 레벨(예컨대, 8레벨)로 구분될 수 있으므로, 최저 레벨에 해당하는 값은 F 등급으로, 최고 레벨에 해당하는 값은 SS등급으로 치환할 수 있다.
즉, 장치(100)는 1레벨에 해당하는 항목은 F, 2 레벨에 해당하는 항목은 E, 3레벨에 해당하는 항목은 D, 4 레벨에 해당하는 항목은 C, 5 레벨에 해당하는 항목은 B, 6 레벨에 해당하는 항목은 A, 7 레벨에 해당하는 항목은 S, 8 레벨에 해당하는 항목은 SS로 각 평가 항목에 입력된 숫자를 등급으로 치환할 수 있다.
S303 단계에서, 장치(100)는 입력 데이터를 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급과, 하이톤(H) 또는 로우톤(L)으로 평가된 음역대 및 4가지 유형(FMSO) 중 하나로 평가되는 목소리 유형으로 결정할 수 있다.
도 6은 일실시예에 따른 음역대 및 목소리 유형을 결정하는 과정을 설명하기 위한 도면이다.
도 6을 참조하면, 본 발명에 따른 보컬 분류 체계는 하이톤(H) 또는 로우톤(L)으로 평가되는 음역대와 4가지 유형(FMSO) 중 하나로 평가되는 목소리 유형을 포함할 수 있으나, 이에 한정되지는 않는다. 본 발명에 따른 보컬 분류 체계는 본 발명의 실시예에 따른 효과적인 보컬 유형 분류를 위해 제안된 것으로, 성대 접지와 호흡의 암 정도를 기준으로 목소리 유형을 크게 4가지의 유형(FMSO)으로 분류하는 FMSO 체계와 목소리의 톤의 높고 낮음에 따라 하이톤(H) 또는 로우톤(L)를 할당하여 8가지 유형으로 소분류하는 HL 체계를 혼합하여 구성될 수 있다.
이에 따라, 아래와 같은 보컬 유형 분류 및 유형별 가이드 정보가 가창 데이터로부터 분석 처리될 수 있다.
HF: 가장 강한 힘으로 호흡을 뱉어내는 타입으로, 큰 볼륨의 호흡이 섞여있는 하이톤톤의 허스키한 목소리를 가지고 있다.
LF: 가장 많은 호흡량을 사용하며 큰 볼륨의 묵직 로우톤으로 허스키하고, 강렬한 감정 표현을 할 수 있다.
HM: 아이돌에 있어서 가장 완성도가 높은 발성을 지녔으며 가장 높은 음역을 소화할 수 있는 유형으로 하이톤의 또렷하고 단단한 목소리를 가지고 있다.
LM: 로우톤의 큰 볼륨의 또렷한 목소리로 낮은 음에 강점을 보이며 저음부터 고음까지 넓은 음역의 소화가 가능한 유형이다
HS: 가장 약한 호흡의 힘을 사용하는 타입으로 작은 볼륨에 호흡이 실린 하이톤의 청아한 목소리가 매력적이다.
LS: 가벼운 힘으로 목소리를 만들어내지만 호흡이 가장 많이 실려있는 로우톤의 목소리를 지녔으며 순수하고 아련한 감성적인 톤을 지닌다.
HO: 작은 호흡의 힘으로 명확하며 또렷한 하이톤의 소리를 낼 수 있다. 맑고 청량한 미성을 소유한 경우가 많다.
LO: 나지막한 로우톤의 목소리를 만들어내는 타입으로 가볍게 호흡을 쓰며 성대를 효율적으로사용하여 명확한 소리가 난다.
이에 따라, 보컬 유형이 분류되면, 장치(100)는 보컬 유형 분류에 대응하는 보컬 등급을 결정할 수 있으며, 그 결정을 위한 학습 데이터 또한 동일한 라벨링이 처리 및 학습되어, 인공지능 학습 기반 평가 모델 데이터베이스 상에 미리 구축될 수 있다.
도 7은 일실시예에 따른 사용자의 단말의 출력 인터페이스를 설명하기 위한 도면이다.
사용자의 단말(200)은 애플리케이션을 실행함으로써, 사용자의 가창 데이터의 분석 결과와 이에 따른 보컬 트레이닝 정보를 디스플레이를 통해 출력할 수 있다.
본 발명의 실시 예에 따른 항목 레벨 기준표는 가장 왼쪽에 위치한 항목일수록 보다 보컬 기본능력 가중치가 높은 항목으로 배치 구성될 수 있는 바, 보컬 실력 기본기를 갖출 때 필요한 좌측 항목부터 우선적으로 가이드가 제공되도록 처리하면, 보다 효과적 가이드 및 팁을 제공할 수 있는 장점이 있다.
도 8은 일실시예에 따른 입력 데이터를 추가 가공하는 과정을 설명하기 위한 순서도이다.
장치(100)는 음역 정보를 이용하여 입력 데이터를 추가 가공하는 과정을 수행할 수 있다. 음역 정보는 사용자의 음성 데이터 및 사용자의 가창 데이터를 포함할 수 있으나, 이에 한정되지는 않는다.
도 8을 참조하면, 먼저, S801 단계에서, 장치(100)는 사용자의 단말(200)로부터 사용자의 음성 데이터를 획득할 수 있다.
이때, 가창 데이터는 사용자의 보컬 표현을 포함하는 음악 활동에서 생성되는 음성 데이터의 일종으로서, 노래를 부르거나 가창을 하는 과정에서 녹음된 음성 데이터를 포함할 수 있다.
음성 데이터는 사용자가 말하는 과정에서 녹음된 음성 데이터를 포함할 수 있다. 통상적으로, 가창 데이터는 음성 데이터의 하위 집합으로서 노래 부르기와 같은 음악적인 활동에 특화되어 있다. 하지만, 본 발명에서는 음성 데이터 중 가창 데이터를 제외한 데이터를 음성 데이터로서 설정될 수 있다.
일실시예에 따르면, 사용자의 단말(200)로부터 가창 데이터 및 음성 데이터를 획득하는 과정에서, 장치(100)는 사용자의 단말(200)로부터 가창 데이터인지 음성 데이터인지 데이터의 유형을 선택하도록 하는 선택 페이지를 생성하여 사용자의 단말(200)로 제공할 수 있으며, 선택 페이지를 통해 가창 데이터인지 음성 데이터인지 여부가 선택되면, 가창 데이터의 경우 ‘vocal’의 태그를 추가하고, 음성 데이터의 경우 ‘voice’의 태그를 추가하여 데이터베이스에 저장할 수 있다.
S802 단계에서, 장치(100)는 음성 데이터를 이용하여, 사용자의 음성 평균 음역을 확인할 수 있다.
일실시예에 따르면, 장치(100)는 사용자의 음성 데이터를 노이즈 제거, 정규화 과정 등을 수행하고, 음성 데이터를 시간-주파수 영역으로 변환할 수 있다. 음성 데이터를 시간-주파수 영역으로 변환하는 과정은 예를 들어, Short-time Fourier Transform (STFT) 또는 Mel-Frequency Cepstral Coefficients (MFCC) 등의 방법을 포함할 수 있으나, 이에 한정되지는 않는다.
장치(100)는 주파수 영역에서 음성이 주로 발생하는 주요 주파수 대역을 파악하고, 주요 주파수 대역을 이용하여 사용자의 음성 평균 음역을 계산할 수 있다. 이때, 장치(100)는 주파수 대역의 중심 주파수를 평균내는 방식으로 음성 평균 음역을 계산할 수 있으나, 이에 한정되지는 않는다.
사용자의 음성 평균 음역은 사용자가 말하거나 대화하는 경우 등의 일상생활에서 주로 사용하는 음성의 음역대를 반영할 수 있다.
S803 단계에서, 장치(100)는 가창 데이터를 이용하여, 사용자의 가창 평균 음역을 확인할 수 있다.
일실시예에 따르면, 장치(100)는 사용자의 가창 데이터를 노이즈 제거, 정규화 과정 등을 수행하고, 가창 데이터를 시간-주파수 영역으로 변환할 수 있다. 가창 데이터를 시간-주파수 영역으로 변환하는 과정은 예를 들어, Short-time Fourier Transform (STFT) 또는 Mel-Frequency Cepstral Coefficients (MFCC) 등의 방법을 포함할 수 있으나, 이에 한정되지는 않는다.
장치(100)는 주파수 영역에서 가창이 주로 발생하는 주요 주파수 대역을 파악하고, 주요 주파수 대역을 이용하여 사용자의 가창 평균 음역을 계산할 수 있다. 이때, 장치(100)는 주파수 대역의 중심 주파수를 평균내는 방식으로 가창 평균 음역을 계산할 수 있으나, 이에 한정되지는 않는다.
사용자의 가창 평균 음역은 사용자가 가창하는 경우에 주로 사용하는 가창의 음역대를 반영할 수 있다.
S804 단계에서, 장치(100)는 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우, 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급을 한단계 하락시키고, 음역 보정 항목을 입력 데이터에 항목에 추가할 수 있다. 이때, 미리 설정된 기준은 실시예에 따라 상이하게 설정될 수 있다.
장치(100)는 음성 평균 음역과 가창 평균 음역을 비교하여, 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는지 여부를 판단할 수 있다.
사용자의 목소리 특성, 음역 능력, 발성 습관 등의 다양한 요인에 따라 음성 평균 음역과 가창 평균 음역 사이에 차이가 발생할 수 있다.
음성 평균 음역과 가창 평균 음역이 차이가 많이 나는 경우에는 사용자의 음성과 가창 능력을 정확하게 평가하기 어려울 수 있으며, 보컬 평가의 기준이 불명확하거나 음성 능력과 가창 능력의 차이를 반영하지 못하는 경우, 사용자의 실제 보컬 능력이 정확하게 평가되지 않을 수 있다.
또한, 정확하게 평가되지 않은 보컬 평가 결과에 따라 보컬 트레이닝 정보를 제공하는 경우, 사용자의 보컬 능력과 개별적인 음성 특성에 맞지 않은 보컬 트레이닝 정보를 제공할 수 있다는 문제점이 발생한다. 보컬 트레이닝 정보는 사용자의 보컬 평가에 따라 다른 방법이 요구됨으로, 사용자의 보컬 능력에 맞지 않는 보컬 트레이닝 서비스를 제공받을 수 있어, 사용자가 제공받는 서비스의 유용성과 만족도가 저하될 수 있다는 문제점이 발생한다.
이에, 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우, 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급을 한 단계 하락시키고, 음역 보정 항목을 입력 데이터에 추가하는 것은 사용자의 보컬 평가를 정확하게 반영하고 개인화된 보컬 트레이닝을 위해 반드시 필요한 과정이다.
음성 평균 음역과 가창 평균 음역의 차이가 기준을 초과한다는 것은 사용자의 음성과 가창할 때의 목소리가 불일치할 확률이 높으므로, 장치(100)는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 등급을 하락시키는 것으로, 사용자의 실제 보컬 능력을 보다 정확하게 평가할 수 있다.
장치(100)는 음성 데이터와 가창 데이터의 차이를 고려하여 평가 결과를 보완할 수 있다. 장치(100)는 음역 보정 항목을 통해 사용자의 음성 능력과 가창 능력 간의 불일치를 보다 정확히 반영하여 보컬 등급과 평가 등급을 조정함으로써, 사용자의 실제 보컬 능력에 기반하여 보다 정확한 평가 결과를 제공하는 데에 도움을 줄 수 있다.
장치(100)는 음성 평균 음역과 가창 평균 음역의 차이를 파악하여 개인화된 보컬 트레이닝을 제공할 수 있다. 장치(100)는 음역 보정 항목을 입력 데이터에 추가하여 사용자의 음역을 개선하고, 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 등의 등급을 조정하여 보다 정확하고 효과적인 보컬 트레이닝을 제공할 수 있다.
장치(100)는 음성 평균 음역과 가창 평균 음역의 차이를 고려하여 음역 보정 항목을 입력 데이터에 추가하면, 보다 적절하고 효과적인 보컬 트레이닝을 제공할 수 있으며, 사용자의 개별적인 능력과 목표에 맞는 훈련을 제공할 수 있다.
즉, 장치(100)는 사용자의 보컬 능력을 보다 정확하게 평가하고 개인화된 보컬 트레이닝을 제공하여 보컬 능력 향상에 도움을 주기 위한 과정을 수행할 수 있다. 음성과 가창 능력의 차이를 고려한 정확한 평가와 개인화된 트레이닝은 사용자가 보다 효과적인 보컬 향상을 이룰 수 있도록 도와준다.
인공신경망을 통해 결과를 도출하기 위해서는 올바르고 잘 정의된 입력 데이터셋이 필수적이다. 특히 보컬 트레이닝과 평가와 같이 음성과 가창 능력을 다루는 경우, 입력 데이터셋은 보컬의 성향과 특성을 잘 포함해야 한다. 장치(100)는 입력 데이터셋을 올바르게 정의함으로써 인공신경망은 더욱 정확하고 효과적인 결과를 도출할 수 있도록 할 수 있다.
장치(100)는 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하면, 이는 사용자의 음성과 가창할 때의 차이가 상대적으로 큰 것으로, 이러한 차이를 반영하여 평가 항목에서의 등급을 하락시킴으로써 평가 결과가 보다 공정하고 정확하게 이루어지도록 할 수 있다.
또한, 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우에는 사용자의 보컬 능력과 발화 성향이 서로 다를 수 있기 때문에, 평가 항목의 등급을 한단계 하락시킴으로써 보다 정확하게 사용자의 보컬 성향을 반영하고, 개인화된 평가를 제공할 수 있다.
또한, 장치(100)는 등급 하락을 통해 특정 항목들에 대한 더 정확한 트레이닝과 피드백을 제공할 수 있으며, 사용자는 보다 전문화된 트레이닝을 받을 수 있으며, 개인의 니즈와 요구에 맞는 보컬 훈련을 받을 수 있도록 할 수 있다.
음역 보정 항목은 보컬 트레이닝에서 사용자의 음역을 개선하기 위해 추가되는 항목을 의미할 수 있다. 장치(100)는 입력 데이터를 이용하여 사용자의 보컬 등급을 획득하는 과정에서, 사용자의 음성 평균 음역과 가창 평균 음역의 차이를 고려하여 음역 보정이 필요한 지 여부에 대한 정보인 음역 보정 항목을 입력 데이터에서의 항목에 추가할 수 있다.
이때, 음역 보정 항목은 O또는 X로 표시될 수 있으며, 장치(100)는 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우, 음역 보정 항목을 X로, 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하지 않는 경우, 음역 보정 항목을 O로 표시하여 입력 데이터에 항목에 추가할 수 있다.
보컬 트레이닝에서 음역은 사용자가 부를 수 있는 음의 범위를 나타내는데, 높은 음과 낮은 음을 포함한다. 음역 보정 항목은 사용자가 특정 음역에서 어려움을 겪고 있거나, 개선이 필요한 부분에 대해 훈련을 제공하기 위해 사용될 수 있다. 예를 들어, 사용자가 높은 음역에서 어려움을 겪고 있다면, 음역 보정 항목은 높은 음역에 대한 훈련과 개선을 도와줄 수 있다.
또한, 장치(100)는 음성 평균 음역과 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우, 사용자의 음성 평균 음역에 대응하는 사용자가 편하게 가창할 수 있는 음역대로 치환하여 보컬 평가를 진행하도록 할 수 있다. 이는, 사용자는 자연스럽고 편안한 표현으로 노래를 부를 수 있도록 하고, 사용자가 보컬 능력을 더욱 자유롭게 발휘할 수 있게 하며, 감정과 표현력을 더욱 풍부하게 전달할 수 있도록 한다.
또한, 보컬 평가하는 과정에서 사용자가 편하게 부를 수 있는 음역대로 평가를 진행하면, 사용자가 자주 부르는 음역대에 초점을 맞추면서 평가를 진행하게 되므로, 보다 현실적으로 보컬 평가를 진행할 수 있다.
사용자가 편안한 음역대에서 평가를 받을 경우, 그 음역대에서의 보컬 능력을 강조하고 살려낼 수 있다. 이는 사용자가 가장 자신감을 갖고 부를 수 있는 영역에 집중하여 보다 효과적인 보컬 평가를 가능케 한다.
또한, 음역대를 개인에 맞게 치환하여 평가를 진행하면, 사용자의 개인적인 성향과 스타일을 반영하는 보컬 평가가 이루어질 수 있으며, 개인화된 보컬 트레이닝과 평가를 가능케 하며, 사용자의 능력과 목표에 맞는 훈련이 이루어지도록 할 수 있다.
장치(100)는 사용자가 편안한 음역대에서 평가를 받도록 하여, 긍정적인 경험을 제공할 수 있으며, 사용자의 자신감을 높이고 보컬 트레이닝에 대한 긍정적인 동기부여를 도모하며, 지속적인 훈련과 발전에 기여할 수 있다.
도 9는 일실시예에 따른 후보 오디션을 분류하는 과정을 설명하기 위한 순서도이다.
도 9를 참조하면, 먼저, S901 단계에서, 장치(100)는 오디션 모집 사이트로부터 오디션 정보를 수집할 수 있다.
오디션 모집 사이트는 기획사가 연예인 지망생을 대상으로 하는 오디션 모집을 위한 오디션 정보를 업로드하는 사이트를 포함할 수 있으며, 예를 들어, 연예 기획사의 오디션 모집을 위한 홈페이지 등을 포함할 수 있으나, 이에 한정되지는 않는다.
오디션 정보는 오디션 지역, 시기, 대상, 참가 자격, 방식, 심사 기준, 기획사 정보, 오디션 난이도, 경쟁률 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 이때, 장치(100)는 오디션 정보를 수집하고, 수집한 오디션 정보를 데이터베이스에 저장할 수 있다.
S902 단계에서, 장치(100)는 가창 데이터로부터 주요 키워드를 추출할 수 있다.
일실시예에 따르면, 장치(100)는 자연어 처리 기술을 활용하여 가창 데이터로부터 주요 키워드를 추출할 수 있다. 장치(100)는 가창 데이터에서 텍스트를 추출하고, 가창 데이터에서 불필요한 정보를 제거하는 텍스트 전처리 과정을 수행할 수 있으며, 텍스트 전처리 과정은 문장 부호, 불용어(Stop words), 노이즈 등을 제거하는 과정을 포함할 수 있다.
장치(100)는 형태소 분석을 통해 문장을 단어 단위로 나누어 가창 데이터로부터 키워드를 추출할 수 있으며, 추출된 키워드 중 미리 설정된 기준 이상으로 언급된 키워드를 주요 키워드로 설정할 수 있다. 이때, 미리 설정된 기준은 실시예에 따라 상이하게 설정될 수 있다. 가창 데이터로부터 주요 키워드를 추출하는 과정은 이에 한정되지 않고 다양한 방법으로 수행될 수 있다.
S903 단계에서, 장치(100)는 SNS 지수가 미리 설정된 기간 동안 미리 설정된 기준 이상으로 증가한 트렌드 사용자를 추출할 수 있다. 이때, 미리 설정된 기간은 실시예에 따라 상이하게 설정될 수 있다. 이때, 미리 설정된 기준은 실시예에 따라 상이하게 설정될 수 있다.
구체적으로, 장치(100)는 사용자와 연동된 SNS로부터 좋아요 수, 조회수, 팔로워 수, 댓글 수, 공유 수를 산출하고, 좋아요 수, 조회수, 팔로워 수, 댓글 수, 공유 수가 각각 많을수록 SNS 지수를 높게 결정하고, 좋아요 수, 조회수, 팔로워 수, 댓글 수, 공유 수가 각각 적을수록 SNS 지수를 낮게 결정할 수 있다. 장치(100)는 결정된 SNS 지수가 미리 설정된 기간 동안 미리 설정된 기준 이상으로 증가한 사용자를 트렌드 사용자로 결정할 수 있다.
예를 들어, 미리 설정된 기간이 3개월인 경우, 장치(100)는 전체 사용자 중 3개월동안 SNS 지수가 미리 설정된 기준 이상으로 증가한 사용자를 트렌드 사용자로 결정할 수 있다.
S904 단계에서, 장치(100)는 트렌드 사용자가 기획사에 소속된 경우, 트렌드 사용자가 소속된 기획사의 오디션을 후보 오디션으로 분류할 수 있다.
장치(100)는 기획사가 운영하는 기획사 사이트를 통해 트렌드 사용자의 이름 또는 활동명을 검색하여, 트렌드 사용자가 기획사에 소속되었는지 여부를 판단할 수 있으며, 트렌드 사용자가 제1 기획사에 소속된 경우, 제1 기획사의 기획사 사이트로부터 제1 기획사가 주최하는 오디션을 추출하여 후보 오디션으로 분류할 수 있다.
장치(100)는 SNS로부터 활동과 인기도를 나타내는 좋아요 수, 조회수, 팔로워 수, 댓글 수, 공유 수를 포함하는 지표들을 종합하여 SNS 지수를 산출하고, 특정 기간 동안 SNS 지수가 증가한 트렌드 사용자는 이미 일정 수준의 인기와 인지도를 갖고 있으며, 해당 트렌드 사용자가 속한 기획사는 상대적으로 더 많은 지원과 다양한 기회를 사용자에게 제공할 확률이 높다고 판단하여, 해당 기획사가 주최하는 오디션을 사용자의 오디션 추천을 위한 후보 오디션으로 분류할 수 있다.
도 10은 일실시예에 따른 추천 오디션을 결정하는 과정을 설명하기 위한 순서도이다.
도 10을 참조하면, 먼저, S1001 단계에서, 장치(100)는 트렌드 사용자로부터 등록된 SNS 콘텐츠에 포함된 트렌드 키워드를 추출할 수 있다.
장치(100)는 트렌드 사용자로부터 등록된 SNS 콘텐츠에 포함된 트렌드 키워드를 추출함으로써, 현재 음악 시장에서의 트렌드에 해당하는 키워드를 파악할 수 있으며, 트렌드 키워드를 통해 음악 시장의 동향을 파악하고 인기 있는 키워드를 파악할 수 있다.
장치(100)는 SNS 서버로부터 트렌드 사용자오로부터 등록된 SNS 콘텐츠를 추출하고, 추출된 SNS 콘텐츠에 포함된 키워드인 트렌드 키워드를 추출할 수 있다.
S1002 단계에서, 장치(100)는 주요 키워드 중에서 트렌드 키워드에 포함된 키워드의 개수를 추출할 수 있다. 즉, 장치(100)는 트렌드 키워드에서 주요 키워드가 몇 개나 해당되는지에 대한 키워드의 개수를 추출할 수 있다.
장치(100)는 주요 키워드 중에서 트렌드 키워드에 포함된 키워드의 개수를 추출함으로써 사용자가 현재 트렌드와 얼마나 일치하고 있는지를 분석할 수 있으며, 사용자의 음악 스타일과 트렌드와의 유사성을 확인할 수 있다.
S1003 단계에서, 장치(100)는 추출된 키워드의 개수를 기반으로 사용자의 트렌드 지수를 결정할 수 있다.
일실시예에 따르면, 장치(100)는 추출된 키워드의 개수가 많을수록 사용자의 트렌드 지수를 높게 결정하고, 키워드의 개수가 적을수록 사용자의 트렌드 지수를 낮게 결정할 수 있다.
장치(100)는 사용자의 트렌드 지수를 기반으로 사용자의 음악적 특성과 현재 음악 트렌드와의 유사성을 확인할 수 있다.
S1004 단계에서, 장치(100)는 평가 정보에 포함된 평가 항목 중 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 중 O를 받은 항목의 개수에 기반하여 오디션 응시 필요도를 결정할 수 있다.
장치(100)는 사용자의 가창 데이터의 평가 항목들을 개별적으로 평가하여 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 등의 역량을 파악할 수 있다.
일실시예에 따르면, 장치(100)는 O를 받은 항목의 개수가 많을수록 오디션 응시 필요도를 높게 결정하고, O를 받은 항목의 개수가 적을수록 오디션 응시 필요도를 낮게 결정할 수 있다. 이때, 장치(100)는 O를 받은 항목의 개수가 많을수록 응시 필요도가 높을수록 오디션의 응시가 필요한 수준의 실력이 있는 것으로 사용자를 판단할 수 있다.
장치(100)는 O를 받은 항목의 개수를 기반으로 오디션 응시 필요도를 결정함으로써, 오디션 참가자들을 적절하게 선정할 수 있도록 한다. 장치(100)는 상대적으로 높은 실력을 보유한 사용자들에게는 오디션 참가에 있어서 더욱 높은 우선 순위를 부여할 수 있으며, 이는 시간과 비용을 절감할 수 있으며, 높은 O 항목 수를 보유한 사용자들에게는 더욱 많은 지원과 기회를 제공하여 음악적 성장과 활동을 지원하도록 하여 효율적인 관리와 적절한 응시자 선정이 가능하도록 한다.
S1005 단계에서, 장치(100)는 사용자의 단말(200)로부터 사용자의 오디션 응시 이력을 획득할 수 있다. 이때, 오디션 응시 이력은 사용자가 응시한 오디션의 오디션 정보, 응시 횟수, 오디션 준비 기간에 대한 정보 등을 포함할 수 있으나, 이에 한정되지는 않는다.
장치(100)는 사용자의 단말(200)로부터 사용자의 오디션 응시 이력을 획득하고, 획득한 오디션 응시 이력을 사용자와 매칭하여 데이터베이스에 저장할 수 있다.
S1006 단계에서, 장치(100)는 오디션 응시 이력으로부터, 사용자가 오디션에 응시한 응시 횟수 및 오디션 준비 기간을 확인할 수 있다.
장치(100)는 오디션 응시 이력으로부터, 사용자가 오디션에 얼마나 많이 응시하였는지에 대한 응시 횟수 및 오디션을 얼마나 오래 준비하였는지에 대한 오디션 준비 기간을 확인할 수 있다.
예를 들어, 오디션 준비 기간은 사용자가 처음 오디션을 응시한 시점으로부터 현재 시점 까지의 기간을 의미할 수 있으나, 실시예에 따라 상이하게 설정될 수도 있다.
S1007 단계에서, 장치(100)는 응시 횟수 및 오디션 준비 기간을 기반으로 사용자의 오디션 경력 지수를 산출할 수 있다.
일실시예에 따르면, 장치(100)는 응시 횟수가 많을수록, 오디션 준비 기간이 길수록 사용자의 오디션 경력 지수를 높게 산출하고, 응시 횟수가 적을수록, 오디션 준비 기간이 짧을수록 사용자의 오디션 경력 지수를 낮게 산출할 수 있다. 장치(100)는 오디션 경력 지수를 기반으로 사용자가 오디션에 지속적으로 참가하고 노력하는 정도를 반영하여 수치로서 나타낼 수 있다.
S1008 단계에서, 장치(100)는 트렌드 지수, 응시 필요도 및 오디션 경력 지수를 기반으로 사용자의 오디션 난이도를 결정할 수 있다.
일실시예에 따르면, 장치(100)는 트렌드 지수, 응시 필요도 및 오디션 경력 지수를 결합하여 사용자의 오디션 난이도를 결정할 수 있다.
S1009 단계에서, 장치(100)는 후보 오디션 중 오디션 난이도와 가장 근접한 오디션을 사용자의 추천 오디션으로 결정할 수 있다.
장치(100)는 데이터베이스로부터 후보 오디션에 해당되는 오디션의 오디션 난이도를 확인할 수 있으며, 후보 오디션 중에서 사용자의 오디션 난이도 및 후보 오디션의 오디션 난이도가 가장 근접한 오디션을 추천 오디션으로 결정할 수 있다.
장치(100)는 트렌드 지수, 응시 필요도, 오디션 경력 지수 등을 종합적으로 고려하여 오디션 난이도를 결정하고, 오디션 난이도를 활용하여, 사용자에게 적합한 오디션을 추천할 수 있다. 예를 들어, 사용자가 높은 음악적 실력을 가지고 있고 트렌드와 잘 부합하는 경우 더 도전적인 난이도가 높은 오디션을 추천할 수 있으며, 반대로 사용자가 오디션 경력이 적고 음악적 실력이 부족한 경우에는 난이도가 보다 낮은 오디션을 추천할 수 있다.
장치(100)는 오디션 난이도 및 응시 필요도를 고려하여 사용자에게 적합한 오디션을 추천함으로써, 사용자는 더 많은 음악적 경험과 기회를 얻을 수 있고, 오디션을 주최하는 기획사의 입장에서도 더욱 효율적으로 오디션 참가자들을 선정할 수 있어, 기획사의 오디션 수준에 맞는 참가자들과 작업할 수 있으며, 오디션의 질을 높일 수도 있다.
도 11은 일실시예에 따른 추천 오디션의 예상 합격률을 결정하는 과정을 설명하기 위한 순서도이다.
도 11을 참조하면, 먼저, S1101 단계에서, 장치(100)는 추천 오디션에 합격한 합격 사용자의 가창 데이터인 합격 가창 데이터를 수집할 수 있다.
장치(100)는 추천 오디션을 주최한 기획사의 단말(300)로부터 추천 오디션에 합격한 합격 사용자의 가창 데이터를 획득하거나, 추천 오디션을 주최한 기획사의 기획사 웹 사이트로부터 추천 오디션에 합격한 합격 사용자의 합격 가창 데이터를 수집하고, 데이터베이스에 합격 가창 데이터를 저장할 수 있다. 이때, 합격 가창 데이터는 합격 사용자들의 음성 파일, 오디션 영상 등을 포함할 수 있으나, 이에 한정되지는 않는다.
S1102 단계에서, 장치(100)는 합격 가창 데이터 및 사용자의 가창 데이터를 비교하여, 합격 가창 데이터 및 사용자의 가창 데이터의 유사도를 산출할 수 있다.
일실시예에 따르면, 장치(100)는 가창 데이터 및 합격 가창 데이터의 주파수, 음의 강도, 음의 세기, 주파수 변화, 진폭 등을 포함하는 음성 특징을 비교하여 가창 데이터 및 합격 가창 데이터의 유사도를 산출할 수 있다. 예를 들어, 음성 특징 벡터 간의 거리나 유사도를 계산하여 두 가창 데이터 간의 유사성을 측정할 수 있으나, 이는 예시일 뿐 이에 한정되지는 않는다.
S1103 단계에서, 장치(100)는 사용자의 보컬 등급에 유사도에 기반하여 결정된 가중치를 적용하여, 추천 오디션 정보에 해당되는 오디션의 예상 합격율을 결정할 수 있다.
일실시예에 따르면, 장치(100)는 유사도가 높을수록 가중치를 높게 결정하고, 유사도가 낮을수록 가중치를 낮게 결정할 수 있으며, 사용자의 보컬 등급에 유사도에 기반하여 결정된 가중치를 적용하여, 추천 오디션 정보에 해당하는 오디션의 예상 합격율을 결정할 수 있다.
추가로, 장치(100)는 합격 사용자의 합격 시점에 대한 정보를 해당 기획사의 단말(300)로부터 수신하고, 합격 사용자의 합격 시점이 최근일수록 추가 가중치를 높게 생성하고, 합격 시점이 오래됐을 수록 추가 가중치를 낮게 생성하고, 사용자의 보컬 급에 유사도에 기반하여 결정된 가중치 및 추가 가중치를 적용하여 추천 오디션 정보에 해당하는 오디션의 합격 예상율을 결정할 수도 있다.
장치(100)는 추천 오디션에 합격한 합격 사용자의 가창 데이터와 사용자의 가창 데이터를 비교하여 추천 오디션에 대한 예상 합격율을 결정함으로써, 실제 합격한 사용자들의 가창 데이터를 기반으로 더욱 정확한 오디션의 합격율을 예측할 수 있다.
사용자는 개인 맞춤형 예상 합격율을 통해 음악적 실력과 오디션 난이도를 적절히 평가할 수 있으며, 높은 합격 가능성을 가진 오디션에 더욱 집중할 수 있도록 하여 사용자의 음악적 발전에 더욱 도움을 받을 수 있다.
S1104 단계에서, 장치(100)는 추천 오디션 및 추천 오디션의 예상 합격률을 포함하는 추천 오디션 정보를 생성할 수 있다.
장치(100)는 사용자에게 추천 오디션에 대한 정보뿐만 아니라 해당 오디션에 대한 사용자의 예상 합격률을 함께 제공함으로써, 사용자는 오디션 참가 의사 결정할 때 더욱 신중한 판단을 할 수 있도록 한다.
도 12는 트레이너의 위치를 확인하는 과정을 설명하기 위한 순서도이다.
도 12를 참조하면, 먼저, S1201 단계에서, 장치(100)는 사용자의 단말(200)로부터 사용자가 가창 데이터를 업로드한 가창 이력을 획득할 수 있다. 여기서, 가창 이력은 사용자가 가창 데이터를 과거에 언제 업로드하였고, 얼마나 가창 데이터를 업로드하였는지에 대한 이력이다.
장치(100)는 사용자의 단말(200)로부터 가창 이력을 수신하고, 수신한 가창 이력을 사용자와 매칭하여 데이터베이스에 저장할 수 있다.
구체적으로, 장치(100)는 사용자가 트레이너를 구하여, 사용자에게 트레이너를 매칭하고자 하는 경우, 사용자가 과거에 노래를 가창하여 가창 데이터를 업로드한 이력인 가창 이력을 획득할 수 있다. 이때, 장치(100)는 사용자의 단말(200)로부터 가창 이력을 획득할 수도 있고, 장치(100)는 장치(100)가 구비한 사용자 데이터베이스를 통해 가창 이력을 획득할 수도 있다.
사용자 데이터베이스에는 사용자와 매칭하여 사용자가 과거에 가창 데이터를 업로드했던 이력인 가창 이력이 저장되어 있으며, 즉, 사용자 데이터베이스에는 어떤 사용자가 과거에 어떤 노래를 언제, 얼마나 가창하여 업로드하였고, 트레이너에 대한 후기 콘텐츠를 언제, 얼마나 작성하였는지에 대한 정보가 저장되어 있다.
즉, 장치(100)는 사용자의 단말(200) 또는 사용자 데이터베이스를 통해 사용자가 어떤 사용자가 과거에 어떤 노래를 언제, 얼마나 가창하여 업로드하였고, 트레이너에 대한 후기 콘텐츠를 언제, 얼마나 작성하였는지에 대한 정보인 가창 이력을 획득할 수 있다.
S1202 단계에서, 장치(100)는 가창 이력을 기초로, 사용자의 가창 주기를 생성할 수 있다.
구체적으로, 장치(100)는 가창 이력을 기초로, 가창 데이터가 업로드된 날짜를 확인하여, 사용자의 가창 주기를 생성할 수 있다.
예를 들어, 사용자가 트레이너를 구하여 트레이너를 매칭하고자 하는 경우, 장치(100)는 사용자의 단말(200) 또는 사용자 데이터베이스를 통해 사용자가 가창 데이터를 업로드한 이력인 가창 이력을 획득할 수 있고, 가창 이력을 통해 가창 데이터가 업로드된 날짜가 각각 2023년 2월 3일, 2023년 3월 3일, 2023년 4월 3일 및 현재 날짜인 2023년 5월 3일인 것을 확인할 수 있고, 작성된 날짜를 기초로, 가창 콘텐츠의 업로드 주기인 가창 주기를 한달로 생성할 수 있다.
S1203 단계에서, 장치(100)는 현재 날짜 및 사용자의 가창 주기를 기초로, 사용자의 다음 가창 예정일인 제1 날짜를 확인할 수 있다.
예를 들어, 사용자가 트레이너를 매칭하고자 하고, 현재 날짜가 2023년 5월 3일이고, 사용자의 가창 주기가 한달일 경우, 장치(100)는 사용자의 다음 가창 예정일인 제1 날짜로 2023년 6월 3일을 확인할 수 있다.
S1204 단계에서, 장치(100)는 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 존재하는지 여부를 판단할 수 있다.
구체적으로, 장치(100)는 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 존재하는지 여부를 판단할 수 있다.
장치(100)는 트레이너 데이터베이스를 통해 트레이너의 위치를 확인할 수 있다.
구체적으로, 장치(100)는 사용자의 단말(200)로부터 획득한 사용자가 매칭하고자 하는 트레이너의 이름, 트레이너의 명수를 포함하는 사용자의 트레이너 매칭 정보를 기초로, 트레이너 데이터베이스를 통해 트레이너 중 사용자가 매칭하고자 하는 트레이너가 어디에 위치하였는지에 대한 정보인 트레이너의 위치를 확인할 수 있다.
여기서, 장치(100)는 트레이너 데이터베이스를 구비하거나, 별개의 트레이너 데이터베이스와 유무선으로 통신할 수 있으며, 트레이너 데이터베이스에는 트레이너와 매칭하여 트레이너에 대한 정보가 저장되어 있을 수 있으며, 트레이너에 대한 정보에는 트레이너의 이름, 트레이너의 레슨가능기간, 트레이너의 명수, 트레이너의 위치, 트레이너의 트레이닝 장소, 트레이너의 보컬 장르 등이 포함될 수 있다.
S1204 단계에서 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 제1 트레이너로 존재한다고 확인되면, S1205 단계에서, 장치(100)는 제1 트레이너를 사용자에게 매칭할 것으로 판단하고, 제1 트레이너의 위치를 확인할 수 있다.
구체적으로, 장치(100)는 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 존재하는지 여부를 판단한 결과, 트레이너 중 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 제1 트레이너로 존재한다고 확인되면, 제1 트레이너를 사용자에게 매칭할 것으로 판단하고, 트레이너 데이터베이스를 통해 제1 트레이너의 위치를 확인할 수 있다.
예를 들어, 사용자가 트레이너를 매칭하고자 하고, 현재 날짜가 2023년 5월 3일이고, 가창 주기가 한달일 경우, 장치(100)는 사용자의 다음 가창 예정일인 제1 날짜로 2023년 6월 3일을 확인할 수 있고, 트레이너 데이터베이스를 통해 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 있는지 여부를 확인하고, 레슨가능기간이 2023년 6월 3일인 트레이너가 제1 트레이너로 존재하는 것으로 확인되면, 제1 트레이너를 사용자에게 매칭할 것으로 판단하고, 트레이너 데이터베이스를 통해 제1 트레이너의 위치를 확인할 수 있다.
S1204 단계에서 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 존재하지 않는다고 확인되면, S1206 단계에서, 장치(100)는 제1 날짜를 기준으로 미리 설정된 범위 이전에 속한 제2 날짜들을 생성할 수 있다. 여기서, 미리 설정된 범위는 실시 예에 따라 달라질 수 있으며, 범위는 사용자의 가창 주기에 따라 사용자의 가창 주기가 길수록 넓어질 수 있고, 사용자의 가창 주기가 짧을수록 좁아질 수 있다.
구체적으로, 장치(100)는 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 존재하는지 여부를 판단한 결과, 트레이너 중 트레이너의 레슨가능기간이 제1 날짜인 트레이너가 존재하지 않는다고 확인되면, 제1 날짜에서 미리 설정된 범위 이전에 속한 제2 날짜들을 생성할 수 있다.
예를 들어, 사용자가 트레이너를 매칭하고자 하고, 현재 날짜가 2023년 5월 3일이고, 가창 주기가 한달이고, 미리 설정된 범위가 3일인 경우, 장치(100)는 사용자의 다음 가창 예정일인 제1 날짜로 2023년 6월 3일을 확인할 수 있고, 트레이너 데이터베이스를 통해 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 있는지 여부를 확인하고, 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 존재하지 않는다고 확인되면, 제1 날짜인 2023년 6월 3일을 기준으로 미리 설정된 범위인 3일 이내에 속한 제2 날짜들로 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일을 생성할 수 있다.
S1207 단계에서, 장치(100)는 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 존재하는지 여부를 판단할 수 있다.
구체적으로, 장치(100)는 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 제2 날짜들 중 하나인 제2 날짜인 트레이너가 존재하는지 여부를 판단할 수 있다.
S1207 단계에서 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 제2 트레이너로 존재한다고 확인되면, S1208 단계에서, 장치(100)는 제2 트레이너를 사용자에게 매칭할 것으로 판단하고, 제2 트레이너의 위치를 확인할 수 있다.
구체적으로, 장치(100)는 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 존재하는지 여부를 판단한 결과, 트레이너 중 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 제2 트레이너로 존재한다고 확인되면, 제2 트레이너를 사용자에게 매칭할 것으로 판단하고, 트레이너 데이터베이스를 통해 제2 트레이너의 위치를 확인할 수 있다.
예를 들어, 사용자가 트레이너를 매칭하고자 하고, 현재 날짜가 2023년 5월 3일이고, 가창 주기가 한달이고, 미리 설정된 범위가 3일인 경우, 장치(100)는 사용자의 다음 가창 예정일인 제1 날짜로 2023년 6월 3일을 확인할 수 있고, 트레이너 데이터베이스를 통해 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 있는지 여부를 확인하고, 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 존재하지 않는다고 확인되면, 제1 날짜인 2023년 6월 3일을 기준으로 미리 설정된 범위인 3일 이내에 속한 제2 날짜들로 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일을 생성할 수 있고, 트레이너 데이터베이스를 통해 트레이너 중 레슨가능기간이 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일 중 하나인 트레이너가 있는지 여부를 확인하고, 레슨가능기간이 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일 중 하나인 트레이너가 제2 트레이너로 존재한다고 확인되면, 제2 트레이너를 사용자에게 매칭할 것으로 판단하고, 트레이너 데이터베이스를 통해 제2 트레이너의 위치를 확인할 수 있다. 이 과정에서, 장치(100)는 트레이너 중 레슨가능기간이 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일인 트레이너가 모두 존재한다고 확인되면, 레슨가능기간이 가장 빠른 2023년 5월 31일인 트레이너를 사용자에게 매칭할 수 있지만, 이에 한정되는 것은 아니다.
S1207 단계에서 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 존재하지 않는다고 확인되면, S1209 단계에서, 장치(100)는 트레이너 중 레슨가능기간이 제1 날짜 이후의 날짜 중 가장 빠른 날짜의 트레이너인 제3 트레이너를 확인하고, 제3 트레이너를 사용자에게 매칭할 것으로 판단하고, 제3 트레이너의 위치를 확인할 수 있다.
구체적으로, 장치(100)는 트레이너 데이터베이스를 통해 트레이너 중 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 존재하는지 여부를 판단한 결과, 트레이너 중 트레이너의 레슨가능기간이 제2 날짜인 트레이너가 존재하지 않는다고 확인되면, 트레이너 중 레슨가능기간이 제1 날짜 이후의 날짜 중 가장 빠른 날짜의 트레이너인 제3 트레이너를 확인하고, 제3 트레이너를 사용자에게 매칭할 것으로 판단하고, 제3 트레이너의 위치를 확인할 수 있다.
예를 들어, 사용자가 트레이너를 매칭하고자 하고, 현재 날짜가 2023년 5월 3일이고, 가창 주기가 한달이고, 미리 설정된 범위가 3일인 경우, 장치(100)는 사용자의 다음 가창 예정일인 제1 날짜로 2023년 6월 3일을 확인할 수 있고, 트레이너 데이터베이스를 통해 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 있는지 여부를 확인하고, 트레이너 중 레슨가능기간이 2023년 6월 3일인 트레이너가 존재하지 않는다고 확인되면, 제1 날짜인 2023년 6월 3일을 기준으로 미리 설정된 범위인 3일 이내에 속한 제2 날짜들로 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일을 생성할 수 있고, 트레이너 데이터베이스를 통해 트레이너 중 레슨가능기간이 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일 중 하나인 트레이너가 있는지 여부를 확인하고, 트레이너 중 레슨가능기간이 2023년 5월 31일, 2023년 6월 1일, 2023년 6월 2일 중 하나인 트레이너가 존재하지 않는다고 확인되면, 트레이너 중 레슨가능기간이 2023년 6월 3일 이후의 날짜 중 가장 빠른 날짜의 트레이너인 제3 트레이너를 확인하고, 제3 트레이너를 사용자에게 매칭할 것으로 판단하고, 트레이너 데이터베이스를 통해 제3 트레이너의 위치를 확인할 수 있다.
또한, 장치(100)는 이 과정에서 트레이너 중 레슨가능기간이 제1 날짜 이후의 날짜인 트레이너가 없다고 확인되면, 레슨가능기간이 제1 날짜 이전의 트레이너 중 레슨가능기간이 가장 긴 트레이너를 사용자에게 제공할 수 있다.
이로 인해, 장치(100)는 사용자의 가창 주기를 통해 사용자가 다음에 트레이너를 매칭하고자 하는 날짜를 확인하고, 해당 날짜까지의 레슨가능기간인 트레이너를 매칭함으로써, 사용자에게 적합한 레슨가능기간의 트레이너를 매칭할 수 있는 효과가 있다.
도 13은 디스플레이 기기에서 표시되는 기획사를 소개하는 콘텐츠의 재생 순서를 설정하는 과정을 설명하기 위한 순서도이다.
먼저, 장치(100)는 추천 오디션 정보로부터, 추천 오디션의 오디션 지역을 확인하고, 오디션 지역과 제1 오디션을 소개하는 콘텐츠인 제1 콘텐츠가 제작되어 제1 콘텐츠가 오디션 모집 사이트에 업로드 것을 확인할 수 있다.
구체적으로, 기획사는 오디션 지역과 제1 오디션을 소개하는 콘텐츠인 제1 콘텐츠를 제작하여 오디션 모집 사이트에 업로드 할 수 있으며, 장치(100)는 오디션 모집 사이트에 업로드 되어 있는 제1 콘텐츠를 확인하여, 제1 콘텐츠가 오디션 모집 사이트에 업로드 된 것을 확인할 수 있다. 이를 위해, 장치(100)는 오디션 모집 사이트를 운영하는 서버와 연결될 수 있다.
도 13을 참조하면, 먼저, S1301 단계에서, 장치(100)는 제1 디스플레이 기기에서 제1 콘텐츠가 재생되어 표시되도록 제어할 수 있다. 여기서, 제1 디스플레이 기기는 오디션 지역 내에 설치되어 있는 디스플레이 기기이다.
구체적으로, 장치(100)는 제1 콘텐츠가 오디션 모집 사이트에 업로드 것으로 확인되면, 오디션 모집 사이트를 운영하는 서버로부터 제1 콘텐츠 정보를 획득하고, 제1 콘텐츠 정보를 제1 디스플레이 기기로 전송할 수 있고, 이를 통해, 제1 디스플레이 기기에서 제1 콘텐츠가 재생되어, 제1 디스플레이 기기의 화면에 제1 콘텐츠가 표시되도록 제어할 수 있다.
S1302 단계에서, 장치(100)는 오디션 지역 내에 위치한 기획사들 중 제1 기획사를 소개하는 콘텐츠인 제2 콘텐츠가 오디션 모집 사이트에 업로드 된 경우, 제1 디스플레이 기기에서 제1 콘텐츠에 이어서 제2 콘텐츠가 재생되어 표시되도록 제어할 수 있다.
구체적으로, 장치(100)는 제2 콘텐츠가 오디션 모집 사이트에 업로드 것으로 확인되면, 오디션 모집 사이트를 운영하는 서버로부터 제2 콘텐츠 정보를 획득하고, 제2 콘텐츠 정보를 제1 디스플레이 기기로 전송할 수 있고, 이를 통해, 제1 디스플레이 기기에서 제1 콘텐츠의 재생이 완료되면 이어서 제2 콘텐츠가 재생되어, 제1 디스플레이 기기의 화면에 제2 콘텐츠가 표시되도록 제어할 수 있다.
장치(100)는 제1 디스플레이 기기에서 제1 콘텐츠를 재생하고, 제2 콘텐츠가 업로드되었다면 제1 콘텐츠 재생 후 제2 콘텐츠가 재생되도록 제어함으로써, 사용자는 자연스럽게 다양한 기획사 소개를 접할 수 있도록 할 수 있다.
S1303 단계에서, 장치(100)는 오디션 지역 내에 위치한 기획사들 중 제2 기획사를 소개하는 콘텐츠인 제3 콘텐츠가 오디션 모집 사이트에 업로드 된 경우, 제1 디스플레이 기기에서 제2 콘텐츠에 이어서 제3 콘텐츠가 재생되어 표시되도록 제어할 수 있다.
구체적으로, 장치(100)는 제3 콘텐츠가 오디션 모집 사이트에 업로드 것으로 확인되면, 오디션 모집 사이트를 운영하는 서버로부터 제3 콘텐츠 정보를 획득하고, 제3 콘텐츠 정보를 제1 디스플레이 기기로 전송할 수 있고, 이를 통해, 제1 디스플레이 기기에서 제2 콘텐츠의 재생이 완료되면 이어서 제3 콘텐츠가 재생되어, 제1 디스플레이 기기의 화면에 제3 콘텐츠가 표시되도록 제어할 수 있다.
즉, 장치(100)는 오디션 지역 내에 위치한 여러 기획사들의 소개 콘텐츠를 제어하여 사용자에게 다양한 기획사 정보를 제공할 수 있으며, 제2, 제3 콘텐츠를 재생하는 것으로 기획사들의 다양성과 다양한 기회를 보여줄 수 있다.
S1304 단계에서, 장치(100)는 제1 디스플레이 기기에서 제3 콘텐츠에 이어서 제1 콘텐츠가 재생되어 표시되도록 제어할 수 있다.
구체적으로 장치(100)는 제1 디스플레이 기기에서 제3 콘텐츠의 재생이 완료되면 이어서 제1 콘텐츠가 재생되어, 제1 디스플레이 기기의 화면에 제1 콘텐츠가 다시 표시되도록 제어할 수 있다.
장치(100)는 제1 디스플레이 기기에서 제1, 제2, 제3 콘텐츠를 순서대로 재생하는 것으로, 사용자에게 오디션 정보와 기획사 소개를 차례로 보여줄 수 있으므로, 제1, 제2, 제3 콘텐츠를 순차적으로 재생함으로써 사용자에게 점진적으로 오디션 정보와 기획사 소개를 전달할 수 있고, 이러한 접근 방식은 정보를 순차적으로 전달하면서 사용자의 관심을 유지시키고 정보를 숙지시킬 수 있다.
S1305 단계에서, 장치(100)는 제1 디스플레이 기기에서 제1 콘텐츠에 이어서 제2 콘텐츠 및 제3 콘텐츠가 함께 재생되어 표시되도록 제어할 수 있다.
구체적으로 장치(100)는 제1 디스플레이 기기에서 제1 콘텐츠의 재생이 완료되면 이어서 제2 콘텐츠 및 제3 콘텐츠가 함께 재생되어, 제1 디스플레이 기기의 화면에 제2 콘텐츠 및 제3 콘텐츠가 분할되어 표시되도록 제어할 수 있다.
장치(100)는 디스플레이 기기를 통해 제공되는 콘텐츠들이 시각적으로 효과적으로 전달되므로 사용자는 다양한 정보를 놓치지 않고 접할 수 있도록 하고, 사용자는 오디션 정보와 기획사 소개에 대한 흥미를 높이고, 더 많은 오디션 참가 기회를 얻을 수 있다. 또한 기획사들에 대한 정보도 쉽게 접하면서 음악적 활동에 대한 선택과 의사 결정에 도움을 줄 수 있다.
도 14는 일실시예에 따른 장치(100)의 구성의 예시도이다.
일실시예에 따른 장치(100)는 프로세서(101) 및 메모리(102)를 포함한다. 일실시예에 따른 장치(100)는 상술한 서버 또는 단말일 수 있다. 프로세서(101)는 도 1 내지 도 13을 통하여 전술한 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 13을 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 메모리(102)는 상술한 방법과 관련된 정보를 저장하거나 상술한 방법이 구현된 프로그램을 저장할 수 있다. 메모리(102)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(101)는 프로그램을 실행하고, 장치(100)를 제어할 수 있다. 프로세서(101)에 의하여 실행되는 프로그램의 코드는 메모리(102)에 저장될 수 있다. 장치(100)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (3)

  1. 장치에 의해 수행되는 방법에 있어서,
    사용자의 단말로부터 상기 사용자의 가창 데이터를 획득하는 단계;
    상기 가창 데이터에 대한 항목별 평가 정보를 수신하는 단계;
    상기 평가 정보를 가공하여 입력 데이터를 생성하는 단계;
    상기 입력 데이터를 인공 신경망에 입력하여 상기 사용자의 보컬 등급을 획득하는 단계; 및
    상기 보컬 등급에 매칭된 추천 오디션 정보를 제공하는 단계;를 포함하고,
    상기 추천 오디션 정보를 제공하는 단계는,
    오디션 모집 사이트로부터 오디션 정보를 수집하는 단계,
    상기 가창 데이터로부터 주요 키워드를 추출하는 단계,
    SNS로부터 좋아요 수, 조회수, 팔로워 수, 댓글 수, 공유 수를 기반으로 결정된 SNS 지수가 미리 설정된 기간 동안 미리 설정된 기준 이상으로 증가한 트렌드 사용자를 추출하는 단계,
    상기 트렌드 사용자가 기획사에 소속된 경우, 상기 트렌드 사용자가 소속된 기획사의 오디션을 후보 오디션으로 분류하는 단계,
    상기 트렌드 사용자로부터 등록된 SNS 콘텐츠에 포함된 트렌드 키워드를 추출하는 단계,
    상기 주요 키워드 중에서 상기 트렌드 키워드에 포함된 키워드의 개수를 추출하는 단계,
    상기 추출된 키워드의 개수를 기반으로 상기 사용자의 트렌드 지수를 결정하는 단계,
    상기 평가 정보에 포함된 평가 항목 중 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 중 O를 받은 항목의 개수에 기반하여 오디션 응시 필요도를 결정하는 단계,
    상기 사용자의 단말로부터 상기 사용자의 오디션 응시 이력을 획득하는 단계,
    상기 오디션 응시 이력으로부터, 상기 사용자가 오디션에 응시한 응시 횟수 및 오디션 준비 기간을 확인하는 단계,
    상기 응시 횟수 및 상기 오디션 준비 기간을 기반으로 상기 사용자의 오디션 경력 지수를 산출하는 단계,
    상기 트렌드 지수, 상기 응시 필요도 및 상기 오디션 경력 지수를 기반으로 상기 사용자의 오디션 난이도를 결정하는 단계,
    상기 후보 오디션 중 상기 오디션 난이도와 가장 근접한 오디션을 상기 사용자의 추천 오디션으로 결정하는 단계,
    상기 추천 오디션에 합격한 합격 사용자의 가창 데이터인 합격 가창 데이터를 수집하는 단계,
    상기 합격 가창 데이터 및 상기 사용자의 가창 데이터를 비교하여, 상기 합격 가창 데이터 및 상기 사용자의 가창 데이터의 유사도를 산출하는 단계,
    상기 보컬 등급에 상기 유사도에 기반하여 결정된 가중치를 적용하여, 상기 추천 오디션 정보에 해당되는 오디션의 예상 합격율을 결정하는 단계, 및
    상기 추천 오디션 및 상기 추천 오디션의 예상 합격률을 포함하는 추천 오디션 정보를 생성하는 단계를 포함하는,
    사용자의 보컬 평가에 기반한 오디션 이벤트 서비스 제공 방법.
  2. 제1항에 있어서,
    상기 평가 정보에 포함된 평가 항목은,
    O또는 X로 평가되는 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도와 하이톤 또는 로우톤으로 평가되는 음역대와 4가지 유형 중 하나로 평가되는 목소리 유형과, 1 내지 8의 숫자 중 하나로 평가되는 레벨을 포함하고,
    상기 평가 정보를 가공하여 입력 데이터를 생성하는 단계는,
    상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도 중 O를 받은 항목에 대해서는 상기 레벨과 동일한 값을 입력하고, X를 받은 항목에 대해서는 상기 레벨에 -2를 적용한 값을 입력하되 1이하인 경우에는 1을 입력하는 단계,
    상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도에 입력된 숫자에 따라 등급을 결정하는 단계, 및
    상기 입력 데이터를 상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급과, 하이톤 또는 로우톤으로 평가된 음역대 및 4가지 유형 중 하나로 평가되는 목소리 유형으로 결정하는 단계를 포함하고,
    음역 정보를 이용하여 상기 입력 데이터를 추가 가공하는 단계;를 더 포함하고,
    상기 입력 데이터를 추가 가공하는 단계는,
    상기 사용자의 단말로부터 상기 사용자의 음성 데이터를 획득하는 단계,
    상기 음성 데이터를 이용하여, 상기 사용자의 음성 평균 음역을 확인하는 단계,
    상기 가창 데이터를 이용하여, 상기 사용자의 가창 평균 음역을 확인하는 단계, 및
    상기 음성 평균 음역과 상기 가창 평균 음역의 차이가 미리 설정된 기준을 초과하는 경우, 상기 음감, 템포감, 호흡, 리듬감, 고음, 표현력, 완성도의 등급을 한단계 하락시키고, 음역 보정 항목을 상기 입력 데이터에 항목에 추가하는 단계,를 포함하는,
    사용자의 보컬 평가에 기반한 오디션 이벤트 서비스 제공 방법.
  3. 삭제
KR1020230114214A 2023-08-30 2023-08-30 사용자의 보컬 평가에 기반한 오디션 이벤트 서비스 제공 방법, 장치 및 시스템 KR102623459B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230114214A KR102623459B1 (ko) 2023-08-30 2023-08-30 사용자의 보컬 평가에 기반한 오디션 이벤트 서비스 제공 방법, 장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230114214A KR102623459B1 (ko) 2023-08-30 2023-08-30 사용자의 보컬 평가에 기반한 오디션 이벤트 서비스 제공 방법, 장치 및 시스템

Publications (1)

Publication Number Publication Date
KR102623459B1 true KR102623459B1 (ko) 2024-01-11

Family

ID=89533562

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230114214A KR102623459B1 (ko) 2023-08-30 2023-08-30 사용자의 보컬 평가에 기반한 오디션 이벤트 서비스 제공 방법, 장치 및 시스템

Country Status (1)

Country Link
KR (1) KR102623459B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101917216B1 (ko) 2017-08-08 2018-11-09 (주)엠더블유스토리 보컬 평가 시스템
KR102107588B1 (ko) 2018-10-31 2020-05-07 미디어스코프 주식회사 가창 평가 방법 및 이를 수행하기 위한 컴퓨팅 장치
KR102139889B1 (ko) 2019-08-12 2020-07-30 박지선 온라인 플랫폼상에서의 음악 창작활동을 위한 실시간 공동작업 및 평가시스템
KR102259612B1 (ko) 2020-07-15 2021-06-01 김영균 온라인 트레이닝 및 온라인 오디션이 가능한 뮤직 플랫폼 시스템
KR20220036717A (ko) * 2020-09-16 2022-03-23 한양대학교 산학협력단 발성 학습 정보를 제공하는 방법, 이를 이용하는 서버 및 프로그램
KR20220115157A (ko) * 2021-02-10 2022-08-17 케이팝팩토리 주식회사 사용자의 발성을 분석하는 방법 및 이를 수행하는 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101917216B1 (ko) 2017-08-08 2018-11-09 (주)엠더블유스토리 보컬 평가 시스템
KR102107588B1 (ko) 2018-10-31 2020-05-07 미디어스코프 주식회사 가창 평가 방법 및 이를 수행하기 위한 컴퓨팅 장치
KR102139889B1 (ko) 2019-08-12 2020-07-30 박지선 온라인 플랫폼상에서의 음악 창작활동을 위한 실시간 공동작업 및 평가시스템
KR102259612B1 (ko) 2020-07-15 2021-06-01 김영균 온라인 트레이닝 및 온라인 오디션이 가능한 뮤직 플랫폼 시스템
KR20220036717A (ko) * 2020-09-16 2022-03-23 한양대학교 산학협력단 발성 학습 정보를 제공하는 방법, 이를 이용하는 서버 및 프로그램
KR20220115157A (ko) * 2021-02-10 2022-08-17 케이팝팩토리 주식회사 사용자의 발성을 분석하는 방법 및 이를 수행하는 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
(네이버 블로그)"[튠잼] 내 손안의 보컬 분석 어플리케이션"(2022.07.26.), 인터넷: <https://blog.naver.com/k-popfactory/222829787219>* *

Similar Documents

Publication Publication Date Title
US10902841B2 (en) Personalized custom synthetic speech
EP3803846B1 (en) Autonomous generation of melody
Wei et al. College music education and teaching based on AI techniques
US11334804B2 (en) Cognitive music selection system and method
US12032620B2 (en) Identifying media content
KR20190125153A (ko) 텍스트 기반 사용자심리상태예측 및 콘텐츠추천 장치 및 그 방법
EP1840764A1 (en) Hybrid audio-visual categorization system and method
KR102354592B1 (ko) 스트리밍 데이터 기반 영상 편집점 추천 방법, 서버 및 컴퓨터프로그램
US9747927B2 (en) System and method for multifaceted singing analysis
CN113748439A (zh) 电影的成功商数的预测
Roy et al. iMusic: a session-sensitive clustered classical music recommender system using contextual representation learning
Russo et al. Cochleogram-based approach for detecting perceived emotions in music
Brunkan Relationships of a circular singer arm gesture to acoustical and perceptual measures of singing: A motion capture study
Sarin et al. SentiSpotMusic: a music recommendation system based on sentiment analysis
KR102623431B1 (ko) 사용자 보컬 평가 기반 트레이너 매칭 방법
KR102354593B1 (ko) 사용자 데이터베이스 구축과 머신러닝을 통한 영상 편집 타입 구분 및 편집점 추천 알고리즘 고도화 방법, 서버 및 컴퓨터프로그램
KR102623459B1 (ko) 사용자의 보컬 평가에 기반한 오디션 이벤트 서비스 제공 방법, 장치 및 시스템
Kai Automatic recommendation algorithm for video background music based on deep learning
KR102623449B1 (ko) 사용자 보컬 평가 결과 맞춤형 보컬 트레이닝 서비스 제공 방법, 장치 및 시스템
KR102623462B1 (ko) 사용자 보컬 평가 정보 기반 보컬 학원 정보 제공 방법, 장치 및 시스템
KR102623467B1 (ko) 사용자 보컬 평가 정보에 기반한 기획사 추천 서비스 제공 방법, 장치 및 시스템
KR102623419B1 (ko) 사용자의 단말을 이용한 보컬 데이터 수집 및 이를 이용한 보컬 평가 방법
KR102623424B1 (ko) 사용자 맞춤형 보컬 평가 보고서 제공 방법
Sauer et al. Recommending audio mixing workflows
KR102623446B1 (ko) 사용자 보컬 평가 기반 사용자 맞춤 오디션 곡 선정 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant