WO2022085814A1 - Artificial-intelligence-recommended educational music mixing streaming service - Google Patents

Artificial-intelligence-recommended educational music mixing streaming service Download PDF

Info

Publication number
WO2022085814A1
WO2022085814A1 PCT/KR2020/014427 KR2020014427W WO2022085814A1 WO 2022085814 A1 WO2022085814 A1 WO 2022085814A1 KR 2020014427 W KR2020014427 W KR 2020014427W WO 2022085814 A1 WO2022085814 A1 WO 2022085814A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
music video
user
melody
music
Prior art date
Application number
PCT/KR2020/014427
Other languages
French (fr)
Korean (ko)
Inventor
양재훈
박종길
Original Assignee
송계순
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 송계순 filed Critical 송계순
Priority to PCT/KR2020/014427 priority Critical patent/WO2022085814A1/en
Publication of WO2022085814A1 publication Critical patent/WO2022085814A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof

Definitions

  • the present invention relates to a music video mixing streaming service for education recommended by artificial intelligence, and more particularly, to a service for mixing and providing educational music videos suitable for a user's learning purpose and learning level in a medley song format.
  • the purpose of the present invention is to analyze the learning level of the child with the continuous viewing time, video clicks, and problem solving level test for watching educational music videos for children through computer streaming services on the web and on the app.
  • artificial intelligence provides a music video that mixes multiple music videos into one.
  • the music video mixing streaming service for AI recommendation education generates and transmits user information, a user terminal that receives and outputs a recommended or selected music video, extracts audio information of a music video image to generate music video analysis information,
  • the pre-process includes an image DB that stores music video image information and music video analysis information, user basic information including user age, gender, regional information, occupation, and grade, user learning information, and skipping and repeating of arbitrary images.
  • an image DB that stores music video image information and music video analysis information, user basic information including user age, gender, regional information, occupation, and grade, user learning information, and skipping and repeating of arbitrary images.
  • an audio analysis unit that extracts audio information from the music video image information to generate text information and melody pattern information
  • a deep learning algorithm a similarity measurement unit that analyzes the melody information to generate similarity information, quantifies and stores the similarity between each music video based on the similarity information, and a user having a similar learning type based on the user basic information and the user analysis information It may include a user analysis unit for grouping and storing them.
  • the music video analysis information includes music video difficulty information, the initial difficulty information for any music video is set by the administrator, and the difficulty can be adjusted by the user's correct rate of a test having a topic similar to the arbitrary music video. there is.
  • the audio analysis unit extracts lyric information from the audio information, converts the lyric information into text, generates text information by naturalizing it, extracts melody information from the audio information, and analyzes the melody information to store melody pattern information can
  • the main process includes a list generator for generating a music video list by randomly extracting music video images corresponding to the user information, the melody information at the end of the music video output based on the music video analysis information, and the next to be output.
  • a melody generator that analyzes the pattern of melody information in the front part of a music video to generate a section melody similar to the progress of two pieces of melody information, and a problem DB that stores problem information output to a test that can determine the user's learning level, the user It may include an image setting unit for outputting various functions on the screen of the user terminal based on the image setting information received from the terminal.
  • It may further include a quiz output unit for extracting a quiz question similar to the learning topic of the music video output to the user terminal from the question DB, and outputting the quiz question on the screen of the user terminal together with the section melody.
  • the list generating unit may list the randomly extracted music video images by arranging them in the order of the images with the higher difficulty from the images with the lower difficulty.
  • the list generator additionally extracts a candidate music video image, and when a user bookmarks a currently output music video, determines that the user has a high preference, and outputs a music video having a high similarity to the output music video next, and the user is currently outputting a music video.
  • a music video is skipped, it is determined that the preference is low, and a music video with a low similarity to the output music video can be output next.
  • the image setting unit may generate a caption based on the text information, highlight the keyword caption corresponding to the learning topic, and output it on the screen of the user terminal.
  • the image setting unit may include a bookmark function capable of moving to the start point of each music video on the play bar formed at the bottom of the music video image.
  • a list generation step of generating the list receiving the melody pattern information of the music video corresponding to the list information, analyzing the melody pattern information at the end of the first output music video and the melody pattern information in the front of the music video output next to the section
  • the method may further include a list regeneration step of regenerating the music video list by selecting an arbitrary music video having similarity information to the music video.
  • the method may further include a bookmark creation step of creating a bookmark for displaying each music video start point on the play bar.
  • artificial intelligence provides the child with a single medley song through a computer streaming service with such segmented detailed songs according to the child's learning attitude and level. can use the learning time efficiently and by repeatedly learning the medley song has the effect of memorizing the learning contents needed for the child easily and quickly.
  • FIG. 1 is a conceptual diagram of a music video system for artificial intelligence education according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a pre-process of a data server according to an embodiment of the present invention.
  • FIG. 3 is a block diagram of a main process of a data server according to an embodiment of the present invention.
  • FIG. 4 is a flowchart of a music video analysis method of a pre-process according to an embodiment of the present invention.
  • FIG. 5 is a flowchart of a music video similarity analysis method of a pre-process according to an embodiment of the present invention.
  • FIG. 6 is a flowchart of a user analysis method of a pre-process according to an embodiment of the present invention.
  • FIG. 7 is a flowchart of a method for generating a music video list in the main process according to an embodiment of the present invention.
  • FIG. 8 is a flowchart of a method for regenerating a music video list in the main process according to an embodiment of the present invention.
  • 9 is an example of a technology platform of a music video providing program for artificial intelligence education according to an embodiment of the present invention.
  • FIG. 10 is an example of a music video image according to an embodiment of the present invention.
  • FIG. 1 is a conceptual diagram schematically illustrating a network structure of a music video system for artificial intelligence education according to an embodiment of the present invention.
  • the present invention consists of a user terminal 100 and a data server 200 .
  • the user terminal 100 is a device in which a user installs and uses a music video mixing system for artificial intelligence education.
  • the artificial intelligence education music video mixing system may include a test function that can identify educational music video mixing, user-customized music video recommendation, and user learning ability through deep learning and big data analysis using artificial intelligence.
  • the user terminal 100 may generate basic user information directly input by the user, such as the user's age, gender, region, occupation, and educational background, and transmit it to the data server 200 .
  • the music video image and list information may be received from the data server 200 and output to the screen.
  • the user terminal 100 is a computing terminal device having one or more processors and one or more memories that can connect to the test server 200 and the member management server in a wired or wireless manner.
  • Such terminal devices include a smart phone and a tablet, a personal computer (PC), a mobile phone, a video phone, an e-book reader, a desktop PC, and a laptop.
  • HMD head-mounted device
  • electronic clothing electronic bracelet
  • electronic necklace electronic accessory
  • electronic tattoo electronic tattoo
  • the terminal in the present invention should be interpreted as a concept including all devices capable of transmitting data or signals that have been developed and commercialized or will be developed in the future in addition to the above-described examples.
  • the data server 200 analyzes and mixes music videos for education to generate a music video list, and the user analysis information extracted based on the user basic information received from the user terminal 100 and music video viewing and test information
  • a music video list may be transmitted to the user terminal 100 by extracting a corresponding user-customized music video.
  • the data server 200 extracts audio information of a music video image to generate music video analysis information, determines the similarity between each music video based on the music video analysis information, and determines a similar learning type based on user information Based on the pre-process 210 for grouping and storing users with It may include a main process 220 that
  • FIG. 2 is a block diagram of the pre-process 210 of the data server 200 according to the present invention.
  • the pre-process 210 may include an image DB 211 , a user DB 212 , an audio analysis unit 213 , a similarity measurement unit 214 , and a user analysis unit 215 . there is.
  • the image DB 211 may store music video image information and music video analysis information generated by analyzing the music video.
  • the music video image information is an image obtained by extracting a playback section having an arbitrary learning topic from any educational music video, and the playback section can be set by an administrator directly or by using deep learning artificial intelligence analysis.
  • the force that the deformed object tries to return to its original state Elasticity is increased and the bouncing rubber band It is an elastic object, block it, block it, block the motion.
  • the force to return, the elastic force The elastic force increased, and the bouncing rubber band, the video section corresponding to the elastic object and the sentence corresponding to the frictional force, “block, block, block the motion.
  • the more bumpy the greater the frictional force.
  • the music video image information can be created by dividing the video section corresponding to the "friction force in the opposite direction of the direction of the force.”
  • the music video analysis information may include difficulty information set based on the subject and content of the music video.
  • the difficulty information is initially set by the administrator directly or by artificial intelligence, and the difficulty level may be determined by the user's correct rate for a test or quiz similar to the learning content of the music video.
  • the user DB 212 may store basic user information received from the user terminal 100 and user analysis information obtained by analyzing the user learning type and test result information using the music video mixing system for artificial intelligence education.
  • the user basic information may include information that can be directly input by the user, such as the user's age, gender, region, occupation, and educational background.
  • the user learning type may be generated by analyzing behavioral information generated while using the music video mixing system for artificial intelligence education, such as the number of music video views, the number of repetitions, whether to skip, and registration of favorites.
  • the audio analyzer 213 may extract audio information from the music video image information to generate text information and melody pattern information.
  • the text information may include keywords extracted by extracting lyrics from the audio information using Speech to Text, converting the lyrics into text, and naturalizing the converted text.
  • the naturalization processing may correspond to a commonly used method such as tokenization, part of speech tagging, stopword processing, text extraction, and the like.
  • word information corresponding to a noun may be extracted from the converted text, and the word information may be determined as a word corresponding to a learning topic.
  • the text content is "The Bronze Age began around 2000 to 1500 B.C., but the materials for making the bronze were not widely used because there were not enough materials for making them"
  • 2000, 1500, Bronze Age, Bronze Age materials of the word information can be extracted, and the Bronze Age and Bronze Age corresponding to any learning subject history among the word information can be set as keywords.
  • the melody pattern information is obtained by extracting melody information constituting a melody such as a pitch and a time signature from the audio information, and analyzing frequency-domain data generated through Fourier transform on the melody information to obtain the music video of melody pattern information can be generated.
  • the similarity measurement unit 214 receives the melody pattern information from the audio analysis unit 213, extracts pattern features through deep learning with a specific algorithm, and compares the pattern features of each music video to generate similarity information.
  • melodic features are extracted from the melody pattern information, and each music video is vectorized and quantified based on the melody features, and the melody features are converted into numerical values and each It is possible to generate similarity information by comparing the numerical values of the music videos of
  • the deep learning in the present invention has been described as using an auto-encoder, it is not limited thereto, and a commonly used deep learning algorithm can be used to generate a melody feature.
  • the user analysis unit 215 may group and store users having similar user information by analyzing the basic user information and user analysis information received from the user DB 212 .
  • the user analysis unit 215 may group users using only the basic user information in the case of a first-time user of the music video mixing system for artificial intelligence education.
  • FIG. 3 is a block diagram of the main process 220 of the data server 200 according to the present invention.
  • the main process 220 may include a list generator 221 , a melody generator 222 , a problem DB 223 , an image setting unit 224 , and a quiz output unit 225 . there is.
  • the list generating unit 221 may receive data of a group to which the user belongs from the user analysis unit 215 and randomly extract it from among music videos with high preference to generate a user-customized music video list.
  • the music video list playback time is set based on the average viewing time and the number of music videos viewed by users belonging to the same group as the user, and a music video suitable for the user is selected based on the group's favorite and skip setting information. You can set the difficulty of the music video based on the user's test result information.
  • the playback time of the music video list of the present invention is preferably set to 2 minutes and 30 seconds to 3 minutes 30 seconds, but is not limited thereto, and the music video playback time may be changed by an administrator or user setting.
  • a list may be generated by arranging the randomly extracted music videos in the order of the music videos having the high difficulty in the music videos having the low difficulty.
  • the list generator 221 further extracts a preliminary music video having a difficulty similar to the extracted music video, and a music video output next according to user behavior information on the music video output to the user terminal 100 can be set.
  • the user behavior information may include information about a user's favorite music video, skipping, and repeating play.
  • the music video played next is set as a music video with high similarity to the music video, and the music video the user is currently watching is selected as a favorite.
  • a music video played next may be set as a music video having a low similarity to the music video.
  • the list generator 221 extracts and lists MV-01, MV-02, MV-07, MV-22, and MV-12 corresponding to column A, and lists A Columns B and C are created by extracting music videos similar to the difficulty level of the music videos corresponding to each order of the column. If a music video with a high similarity to MV-02 is selected from among MV-67 and played, and the user skips MV-02, the similarity to MV-02 from MV-07, MV-44, and MV-67 in the following order is displayed. You can select and play a low music video.
  • the melody generation unit 222 receives the melody pattern information from the audio analysis unit 213 and analyzes the patterns of the melody information at the end of the output music video and the melody information at the beginning of the music video to be output next, to find two melodies. A section melody similar to the progress of information can be created.
  • the melody information is information stored by digitizing components of a melody, such as a pitch and a time signature, and a section melody can be generated through sequence probability analysis using a Markov model for the melody information.
  • the melody generating unit 222 may generate by further adding chords or pitches based on the section melody.
  • the melody generator 222 in the present invention generates a section melody using a Markov model, it is not limited thereto and can generate a section melody using a commonly used melody analysis algorithm. .
  • the question DB 223 may store question information provided to tests and quizzes that can determine the user's learning level.
  • the image setting unit may output various additional functions to the screen of the user terminal 100 based on the image setting information and music video analysis information received from the user terminal 100 .
  • the image setting unit may additionally output subtitles, bookmarks, illustrations, and character images corresponding to the music video output on the screen of the user terminal 100 to the user terminal.
  • the image setting unit may receive text information corresponding to an arbitrary music video, generate subtitles, highlight subtitles corresponding to keywords, and output them on the screen of the user terminal 100 .
  • foreign language subtitles can be generated and outputted on the screen of the user terminal 100 like the subtitles.
  • the caption may be highlighted in accordance with audio information of an arbitrary music video output to the user terminal 100 .
  • the text information is "The Bronze Age began around 2000 to 1500 B.C., but the materials for making the bronze ware were not widely used because there were not enough materials"
  • the text information is converted into subtitles and the screen size of the user terminal 100
  • the subtitle is divided and output on the screen, and the background color of the bronze device, which is a keyword, is highlighted in yellow or fluorescent color, or the background color of the subtitle is highlighted in yellow or fluorescent color in accordance with the audio information output to the user terminal 100.
  • the image setting unit 224 may output a bookmark indicating the starting point of each music video included in the music video list on the screen of the user terminal 100 .
  • a play bar is formed at the lower end of the user terminal 100 to check the progress of the currently output music video list, and a bookmark indicating the start point of the music video can be displayed on the play bar.
  • a first playback section with a duration of 1 minute, a second playback section with a duration of 2 minutes, and a third playback section with a duration of 3 minutes have a playback length of 4 minutes.
  • the play bar displays the total duration of 10 minutes, and bookmarks using cut lines and arrows at the 0, 1, 3, and 6 minute points, which are the start points of each music video. can be displayed
  • FIG. 4 is a flowchart of a music video analysis method of the pre-process 210 according to an embodiment of the present invention.
  • the music video analysis method may include an audio extraction step (S110), a text information extraction step (S120), and a melody pattern information generation step (S130).
  • the audio analysis unit 213 may extract audio information from any music video image information stored in the image DB 211 .
  • lyrics may be extracted from the audio information using automatic speech recognition (Speech to Text) (S121) and converted into text (S122).
  • speech to Text S121
  • converted into text S122
  • the converted text is naturalized using tokenization, part fo speech tagging, stopword, and text extraction (S123) to extract noun words and corresponding learning topics.
  • a noun word it can be set as a keyword (S124).
  • the melody pattern information generation step (S130) extracts melody information from the audio information (S131) and analyzes frequency-domain data generated through a Fourier transform to obtain melody pattern information of the music video. can be generated (S133).
  • FIG. 5 is a flowchart of a music video similarity analysis method of a pre-process according to an embodiment of the present invention.
  • the music video similarity analysis method may include a similarity information generation step ( S140 ) of generating similarity information between music videos based on the melody pattern information.
  • the similarity information generation step (S140) is performed by receiving melody pattern information from the audio analysis unit 213, extracting pattern features through deep learning with a specific algorithm (S142), and comparing the pattern features of each music video to obtain similarity. information can be created.
  • FIG. 6 is a flowchart of a user analysis method of a pre-process according to an embodiment of the present invention.
  • the user analysis method may include a group information generation step consisting of user information analysis (S151), learning type information generation (S152), user group information generation (S153), and user group information storage steps. there is.
  • the user information analysis ( S151 ) may generate user learning type information ( S152 ) by receiving basic user information and user analysis information from the user DB 212 , and analyzing user result information for a provided test.
  • the user group information generation ( S153 ) may generate one group by extracting users having similar learning type information, and may generate user group information by analyzing user information of a user corresponding to the group.
  • FIG. 7 is a flowchart of a method for generating a music video list in the main process according to an embodiment of the present invention.
  • the music video list generation method includes a music video extraction step (S201), a list generation step (S202), a section melody generation step (S203), a problem extraction step, a section video generation step and a music video output.
  • S201 music video extraction step
  • S202 list generation step
  • S203 section melody generation step
  • problem extraction step a problem extraction step
  • section video generation step and a music video output.
  • a music video suitable for a user may be extracted from the image DB by analyzing the user information and user group information.
  • the list generation step ( S202 ) may generate a music video list arranged in order of music videos having a high difficulty from a music video having a low difficulty based on the extracted difficulty information of the music video.
  • the section melody generation step (S203) is a section melody that naturally connects the melody at the end of the output music video and the melody at the front of the next output music video by analyzing the melody pattern information of the music video included in the music video list. can create
  • the question extraction step (S204) may extract a quiz question similar to the learning topic of the currently output music video.
  • a section video is created by mixing two music videos that are sequentially played back and a section melody corresponding to a quiz question, and a section video is inserted at the connection part between the two music videos to create one music video.
  • a section video is inserted at the connection part between the two music videos to create one music video.
  • the method for regenerating a music video list of the main process may include a behavior information generation step (S211), a preference information generation step (S212), and a list regenerating step (S213).
  • the behavior information generating step (S211) may generate user behavior information by detecting a user behavior with respect to the currently output music video.
  • the user action may include registering a favorite, skipping, and repeating the music video being output.
  • the preference information generation step (S212) may set a high preference when the user registers and repeats the music video currently being output as a favorite, and sets a low preference when the user skips the currently output music video.
  • the list regenerating step (S213) based on the preference information, if the preference is high, a music video with a high similarity to the corresponding music video is selected and output, and if the preference is low, a music video with a low similarity to the corresponding music video can be selected and output. there is.
  • the image setting unit 244 may receive text information and translation information to generate local language and foreign language subtitles, and output a subtitle corresponding to the user screen setting information on the screen of the user terminal 100 .
  • the caption corresponding to the keyword information extracted from the text information may be highlighted and output on the screen of the user terminal 100 .
  • a play bar indicating the progress rate of the music video list may be output at the bottom of the screen of the user terminal 100 and a bookmark indicating the start point of each music video may be output on the play bar.
  • Embodiments of the subject matter described herein are one or more computer program products, ie, one or more modules directed to computer program instructions encoded on a tangible program medium for execution by or for controlling the operation of a data processing device.
  • a tangible program medium may be a radio wave signal or a computer-readable medium.
  • a radio wave signal is an artificially generated signal, eg a machine-generated electrical, optical or electromagnetic signal, that is generated to encode information for transmission to an appropriate receiver device for execution by a computer.
  • a computer-readable medium may be a machine-readable storage device, a machine-readable storage device, a machine-readable storage substrate, a memory device, a combination of materials that affect a machine-readable radio wave signal, or a combination of one or more thereof.
  • a computer program (also known as a program, software, software application, script or code) may be written in any form of programming language, including compiled or interpreted language or a priori or procedural language, and may be written as a stand-alone program or module; It can be deployed in any form, including components, subroutines, or other units suitable for use in a computer environment.
  • a computer program does not necessarily correspond to a file in a file system.
  • a program may be stored in a single file provided with the requested program, or in multiple interactive files (eg, one or more scripts stored within a markup language document).
  • the computer program may be deployed to be executed on a single computer or multiple computers located at one site or distributed over a plurality of sites and interconnected by a communication network.
  • processors suitable for the execution of computer programs include, for example, both general and special purpose microprocessors and any one or more processors of any kind of digital computer.
  • the processor will receive instructions and data from read-only memory, random access memory, or both.
  • a key element of a computer is one or more memory devices for storing instructions and data and a processor for executing instructions.
  • a computer is generally operably coupled to receive data from, or transmit data to, one or more mass storage devices for storing data, such as, for example, magnetic, magneto-optical disks or optical disks, or to perform both such operations. or will include However, the computer need not have such a device.
  • pre-process 211 image DB

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention provides an artificial-intelligence-recommended educational music mixing streaming service. In detail, the present invention is a service that compares music video analysis information with user information by using an artificial intelligence algorithm, mixes an educational music video corresponding to a user's learning type or learning ability, and provides the most suitable music video for the user's educational improvement.

Description

인공지능 추천 교육용 뮤직비디오 믹싱 스트리밍 서비스Music video mixing streaming service for education recommended by artificial intelligence
본 발명은 인공지능 추천 교육용 뮤직비디오 믹싱 스트리밍 서비스에 관한 것으로서, 더욱 상세하게는 사용자의 학습 목적과 학습 수준에 맞는 교육용 뮤직비디오를 메들리송 형식으로 믹싱하여 제공하는 서비스에 관한 것이다.The present invention relates to a music video mixing streaming service for education recommended by artificial intelligence, and more particularly, to a service for mixing and providing educational music videos suitable for a user's learning purpose and learning level in a medley song format.
일반적으로, 아이들은 공부할 때 노래를 스마트폰이나 PC컴퓨터를 활용하여 학습하는 경우가 많은데, 종래의 기술은 동요 수준의 단순한 멜로디 곡 전체를 청취해야 하기 때문에 학습 부담이 생기고 효율성이 떨어지는데 반해 본 발명은 노래를 절과 마디 등 내용별로 나눈 멜로디 내용을 학습 목적과 수준에 맞추어 인공지능 알고리즘이 메들리송 형식으로 혼합된 믹싱 뮤직비디오를 제공함으로써 아이들에게 핵심적인 부분만을 집중적으로 청취시키게 하여 학습효율성을 극대화 하는 기술이다.In general, children often learn songs by using smartphones or PC computers when studying, but the present invention provides a learning burden and low efficiency because the conventional technology has to listen to the entire simple melody song at the nursery rhyme level. By providing a mixing music video in which an artificial intelligence algorithm is mixed in the form of a medley song according to the purpose and level of the learning purpose and the melodic content of the song divided by content, such as verses and measures, it maximizes learning efficiency by allowing children to listen to only the core parts intensively. it is technology
본 발명의 목적은, 인공지능이 웹과 앱상의 컴퓨터 스트리밍 서비스로 아이에게 교육용 뮤직비디오를 시청하는 학습 지속 시청시간, 영상 클릭 수 등과 문제풀이 레벨 테스트로 학습 수준을 분석하여 아이가 필요한 다양한 노래의 필수적인 부분만을 추출하여 인공지능이 아이에게 다수의 뮤직비디오를 하나로 믹싱한 뮤직비디오를 제공함에 있다.The purpose of the present invention is to analyze the learning level of the child with the continuous viewing time, video clicks, and problem solving level test for watching educational music videos for children through computer streaming services on the web and on the app. By extracting only the essential parts, artificial intelligence provides a music video that mixes multiple music videos into one.
본 발명에 따른 인공지능 추천 교육용 뮤직비디오 믹싱 스트리밍 서비스는 사용자 정보를 생성 및 송신하며, 추천 또는 선택한 뮤직비디오을 수신하여 출력하는 사용자 단말기, 뮤직비디오 영상의 오디오 정보를 추출하여 뮤직비디오 분석정보를 생성하고 상기 뮤직비디오 분석정보를 바탕으로 각각의 뮤직비디오 영상의 유사도를 판단하며 사용자 정보를 바탕으로 유사한 학습유형을 가지는 사용자를 그룹화하는 프리 프로세스, 상기 프리 프로세스에서 분석된 정보를 바탕으로 사용자 맞춤형 뮤직비디오 영상을 추출하여 리스트화 하고 영상 믹싱시 연결부위에 삽입되는 영상 및 음악을 생성하는 메인 프로세스를 포함하는 데이터 서버로 구성될 수 있다.The music video mixing streaming service for AI recommendation education according to the present invention generates and transmits user information, a user terminal that receives and outputs a recommended or selected music video, extracts audio information of a music video image to generate music video analysis information, A pre-process for determining the similarity of each music video image based on the music video analysis information and grouping users with similar learning types based on user information, and a user-customized music video image based on the information analyzed in the pre-process It can be composed of a data server including a main process of extracting and listing, and generating images and music that are inserted into the connection part during image mixing.
상기 프리 프로세스는 뮤직비디오 영상정보 및 뮤직비디오 분석정보를 저장하는 영상DB와 사용자 나이, 성별, 지역정보, 직업, 학년을 포함하는 사용자 기본정보와 사용자 학습 정보, 임의의 영상에 대한 스킵, 반복재생, 즐겨찾기, 별점, 재생 횟수 정보를 포함하는 사용자 분석정보를 저장하는 사용자DB와 상기 뮤직비디오 영상정보로부터 오디오 정보를 추출하여 텍스트 정보 및 멜로디 패턴정보를 생성하는 오디오 분석부와 딥러닝 알고리즘을 이용하여 상기 멜로디 정보를 분석하여 유사도 정보를 생성하고 상기 유사도 정보를 바탕으로 각 뮤직비디오 간의 유사도를 수치화하여 저장하는 유사도 측정부 및 상기 사용자 기본정보와 상기 사용자 분석정보를 기반으로 유사한 학습유형을 가지는 사용자들을 그룹화하여 저장하는 사용자 분석부를 포함할 수 있다.The pre-process includes an image DB that stores music video image information and music video analysis information, user basic information including user age, gender, regional information, occupation, and grade, user learning information, and skipping and repeating of arbitrary images. , using a user DB that stores user analysis information including information on , favorites, asterisks, and number of plays, an audio analysis unit that extracts audio information from the music video image information to generate text information and melody pattern information, and a deep learning algorithm a similarity measurement unit that analyzes the melody information to generate similarity information, quantifies and stores the similarity between each music video based on the similarity information, and a user having a similar learning type based on the user basic information and the user analysis information It may include a user analysis unit for grouping and storing them.
상기 뮤직비디오 분석정보는 뮤직비디오 난이도 정보를 포함하며, 임의의 뮤직비디오에 대한 초기 난이도 정보는 관리자가 설정하고, 상기 임의의 뮤직비디오와 유사한 주제를 가지는 테스트의 사용자 정답률에 의해 난이도가 조절될 수 있다.The music video analysis information includes music video difficulty information, the initial difficulty information for any music video is set by the administrator, and the difficulty can be adjusted by the user's correct rate of a test having a topic similar to the arbitrary music video. there is.
상기 오디오 분석부는 상기 오디오 정보로부터 가사 정보를 추출하고 상기 가사 정보를 텍스트로 변환 후 자연화 처리하여 텍스트 정보를 생성 및 상기 오디오 정보로부터 멜로디 정보를 추출하고 상기 멜로디 정보를 분석하여 멜로디 패턴 정보를 저장할 수 있다.The audio analysis unit extracts lyric information from the audio information, converts the lyric information into text, generates text information by naturalizing it, extracts melody information from the audio information, and analyzes the melody information to store melody pattern information can
상기 메인 프로세스는 상기 사용자 정보에 대응되는 뮤직비디오 영상을 무작위로 추출하여 뮤직비디오 리스트를 생성하는 리스트 생성부, 상기 뮤직비디오 분석정보를 기반으로 출력된 뮤직비디오의 끝 부분 멜로디 정보와 다음에 출력될 뮤직비디오의 앞 부분 멜로디 정보의 패턴을 분석하여 두 멜로디 정보의 진행과 유사한 구간멜로디를 생성하는 멜로디 생성부 및 사용자의 학습수준을 파악할 수 있는 테스트에 출력되는 문제정보를 저장하는 문제DB, 상기 사용자 단말기로부터 수신받은 영상설정정보를 기반으로 다양한 기능을 상기 사용자 단말기 화면에 출력하는 영상 설정부를 포함할 수 있다.The main process includes a list generator for generating a music video list by randomly extracting music video images corresponding to the user information, the melody information at the end of the music video output based on the music video analysis information, and the next to be output. A melody generator that analyzes the pattern of melody information in the front part of a music video to generate a section melody similar to the progress of two pieces of melody information, and a problem DB that stores problem information output to a test that can determine the user's learning level, the user It may include an image setting unit for outputting various functions on the screen of the user terminal based on the image setting information received from the terminal.
상기 문제DB로부터 상기 사용자 단말기에 출력되는 뮤직비디오의 학습주제와 유사한 퀴즈 문제를 추출하고, 상기 구간멜로디와 함께 상기 사용자 단말기 화면에 퀴즈문제를 출력하는 퀴즈출력부를 더 포함할 수 있다.It may further include a quiz output unit for extracting a quiz question similar to the learning topic of the music video output to the user terminal from the question DB, and outputting the quiz question on the screen of the user terminal together with the section melody.
상기 리스트 생성부는 무작위로 추출된 뮤직비디오 영상을 난이도가 낮은 영상에서 난이도가 높은 영상 순서대로 정렬하여 리스트화 할 수 있다.The list generating unit may list the randomly extracted music video images by arranging them in the order of the images with the higher difficulty from the images with the lower difficulty.
상기 리스트 생성부는 후보 뮤직비디오 영상을 추가로 추출하여 사용자가 현재 출력되는 뮤직비디오를 즐겨찾기 할 경우 선호도가 높다고 판단하여 출력되는 뮤직비디오와 유사도가 높은 뮤직비디오를 다음으로 출력하고 사용자가 현재 출력되는 뮤직비디오를 스킵 할 경우 선호도가 낮다고 판단하여 출력되는 뮤직비디오와 유사도가 낮은 뮤직비디오를 다음으로 출력할 수 있다.The list generator additionally extracts a candidate music video image, and when a user bookmarks a currently output music video, determines that the user has a high preference, and outputs a music video having a high similarity to the output music video next, and the user is currently outputting a music video. When a music video is skipped, it is determined that the preference is low, and a music video with a low similarity to the output music video can be output next.
상기 영상설정부는 상기 텍스트 정보를 기반으로 자막을 생성하고, 학습주제에 대응되는 키워드 자막에 하이라이트 표시하여 상기 사용자 단말기 화면에 출력할 수 있다.The image setting unit may generate a caption based on the text information, highlight the keyword caption corresponding to the learning topic, and output it on the screen of the user terminal.
상기 영상설정부는 뮤직비디오 영상 하단부에 형성된 재생바에 각각의 뮤직비디오 시작지점으로 이동이 가능한 책갈피 기능을 포함할 수 있다.The image setting unit may include a bookmark function capable of moving to the start point of each music video on the play bar formed at the bottom of the music video image.
상기 영상DB에 저장된 임의의 뮤직비디오에 대하여 오디오 정보를 추출하는 오디오 추출단계, 상기 오디오 정보로부터 가사를 추출하여 텍스트로 변환하고 상기 텍스트를 기반으로 자연화 처리하여 명사형태의 키워드를 추출하는 텍스트 정보 추출단계, 상기 오디오 정보로부터 멜로디를 추출하여 멜로디 정보를 생성하고 상기 멜로디 정보 분석을 통해 멜로디 패턴 정보를 생성하는 멜로디 패턴 정보 생성단계, 상기 멜로디 패턴 정보를 수신하여 딥러닝 알고리즘을 적용한 분석을 통해 멜로디 특징을 추출하고 상기 멜로디 특징을 수치화하여 각각의 뮤직비디오 멜로디 특징을 분석하여 유사도 정보를 생성하는 유사도 정보 생성단계 및 임의의 사용자 정보를 분석하여 사용자 학습유형정보를 생성하고 동일하거나 유사한 학습유형정보를 가지는 사용자들을 그룹화하여 유저그룹정보를 생성하는 그룹정보 생성단계로 구성될 수 있다.An audio extraction step of extracting audio information for an arbitrary music video stored in the image DB, text information extracting a keyword in the form of a noun by extracting lyrics from the audio information, converting it into text, and naturalizing it based on the text Extracting step, generating melody information by extracting a melody from the audio information, and generating melody pattern information generating melody pattern information through analyzing the melody information, receiving the melody pattern information and applying a deep learning algorithm to analyze the melody A similarity information generation step of extracting features and quantifying the melody features to generate similarity information by analyzing the melody features of each music video, and generating user learning type information by analyzing arbitrary user information, and generating the same or similar learning type information It may be composed of a group information generation step of generating user group information by grouping users.
상기 사용자 정보를 바탕으로 임의의 뮤직비디오를 추출하는 뮤직비디오 추출단계, 추출된 뮤직비디오의 난이도 정보를 수신하여 낮은 난이도를 가지는 뮤직비디오에서 높은 난이도를 가지는 뮤직비디오 순서대로 정렬하여 뮤직비디오 리스트정보를 생성하는 리스트 생성단계, 상기 리스트정보에 해당하는 뮤직비디오의 멜로디 패턴정보를 수신하여 먼저 출력되는 뮤직비디오의 끝 부분의 멜로디 패턴정보와 다음에 출력되는 뮤직비디오의 앞 부분 멜로디 패턴정보를 분석하여 구간멜로디 정보를 생성하는 구간 멜로디 생성단계, 먼저 출력된 뮤직비디오에 대응되는 문제정보를 상기 문제정보DB에서 추출하는 문제추출단계 및 상기 구간멜로디 정보와 상기 문제정보를 기반으로 뮤직비디오 사이 연결부위에 삽입되는 구간영상을 생성할 수 있다.A music video extraction step of extracting an arbitrary music video based on the user information, receiving the difficulty information of the extracted music video, and sorting the music video with high difficulty from the music video with low difficulty in order of music video list information A list generation step of generating the list, receiving the melody pattern information of the music video corresponding to the list information, analyzing the melody pattern information at the end of the first output music video and the melody pattern information in the front of the music video output next to the section A section melody generation step of generating melody information, a problem extraction step of extracting problem information corresponding to the first outputted music video from the problem information DB, and inserting the section melody information and the problem information into a connection part between the music videos based on the problem information It is possible to create a segmented image.
출제된 뮤직비디오에 대응되는 사용자 행동정보를 생성하는 행동정보 생성단계, 상기 사용자 행동정보를 분석하여 출력된 뮤직비디오에 대한 선호도 정보를 생성하는 선호도 정보 생성단계, 상기 선호도 정보를 기반으로 선호도가 높은 뮤직비디오와 유사도 정보가 비슷한 임의의 뮤직비디오를 선정하여 뮤직비디오 리스트를 재생성하는 리스트 재생성단계를 더 포함할 수 있다.A behavior information generation step of generating user behavior information corresponding to the presented music video, a preference information generation step of analyzing the user behavior information to generate preference information for the output music video, a preference information high based on the preference information The method may further include a list regeneration step of regenerating the music video list by selecting an arbitrary music video having similarity information to the music video.
인공지능을 이용하여 상기 텍스트 정보를 내국어 및 외국어로 번역된 자막을 생성하는 자막생성단계, 사용자 단말기에 출력되는 뮤직비디오 리스트에 포함되는 뮤직비디오 영상정보를 수신하여 사용자 단말기 화면에 재생바를 생성하고 상기 재생바에 각각의 뮤직비디오 시작지점을 표시하는 책갈피를 생성하는 책갈피 생성단계를 더 포함할 수 있다.A subtitle generation step of generating subtitles translated into Korean and foreign languages using artificial intelligence, receiving music video image information included in a music video list output to a user terminal and creating a play bar on the user terminal screen, The method may further include a bookmark creation step of creating a bookmark for displaying each music video start point on the play bar.
본 발명은, 하나의 교육용 노래도 여러 개의 세부적인 내용으로 나눠지기 때문에 인공지능이 아이의 학습태도와 수준에 맞추어 그러한 분절된 세부 노래들을 컴퓨터 스트리밍 서비스를 통해 하나의 메들리송으로 아이에게 제공함으로써 아이는 학습 시간을 효율적으로 쓸 수 있고 반복적으로 메들리송 노래를 학습함으로써 아이에게 필요한 학습내용이 쉽고 빠르게 암기되는 효과를 갖는다.In the present invention, since a single educational song is divided into several detailed contents, artificial intelligence provides the child with a single medley song through a computer streaming service with such segmented detailed songs according to the child's learning attitude and level. can use the learning time efficiently and by repeatedly learning the medley song has the effect of memorizing the learning contents needed for the child easily and quickly.
도 1 은 본 발명의 실시예에 따른 인공지능 교육용 뮤직비디오 시스템 개념도이다.1 is a conceptual diagram of a music video system for artificial intelligence education according to an embodiment of the present invention.
도 2 는 본 발명의 실시예에 따른 데이터 서버의 프리 프로세스 블록구성도이다.2 is a block diagram of a pre-process of a data server according to an embodiment of the present invention.
도 3 은 본 발명의 실시예에 따른 데이터 서버의 메인 프로세스 블록구성도이다.3 is a block diagram of a main process of a data server according to an embodiment of the present invention.
도 4 는 본 발명의 실시예에 따른 프리 프로세스의 뮤직비디오 분석방법에 관한 플로차트이다.4 is a flowchart of a music video analysis method of a pre-process according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따른 프리 프로세스의 뮤직비디오 유사도 분석방법에 관한 플로차트이다.5 is a flowchart of a music video similarity analysis method of a pre-process according to an embodiment of the present invention.
도 6은 본 발명의 실시예에 따른 프리 프로세스의 사용자 분석방법에 관한 플로차트이다.6 is a flowchart of a user analysis method of a pre-process according to an embodiment of the present invention.
도 7은 본 발명의 실시예에 따른 메인 프로세스의 뮤직비디오 리스트 생성방법에 관한 플로차트이다.7 is a flowchart of a method for generating a music video list in the main process according to an embodiment of the present invention.
도 8은 본 발명의 실시예에 따른 메인 프로세스의 뮤직비디오 리스트 재생성방법에 관하 플로차트이다.8 is a flowchart of a method for regenerating a music video list in the main process according to an embodiment of the present invention.
도 9은 본 발명의 실시예에 따른 인공지능 교육용 뮤직비디오 제공 프로그램의 기술플랫폼 예시이다.9 is an example of a technology platform of a music video providing program for artificial intelligence education according to an embodiment of the present invention.
도 10은 본 발명의 실시예에 따른 뮤직비디오 영상의 예시이다.10 is an example of a music video image according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하면서 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 이점 및 특징, 그리고 그것을 달성하는 방법은 첨부된 도면과 함께 상세하게 후술 되어 있는 실시 예들을 참조하면 명확해질 것이다.Advantages and features of the present invention, and a method for achieving the same, will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.
그러나, 본 발명은 이하에 개시되는 실시 예들에 의해 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.However, the present invention is not limited by the embodiments disclosed below, but will be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.
또한, 본 발명을 설명함에 있어 관련된 공지 기술 등이 본 발명의 요지를 흐리게 할 수 있다고 판단되는 경우 그에 관한 자세한 설명은 생략하기로 한다.In addition, in the description of the present invention, when it is determined that related known techniques may obscure the gist of the present invention, a detailed description thereof will be omitted.
도 1은 본 발명의 실시예에 따른 인공지능 교육용 뮤직비디오 시스템의 네트워크 구조를 개략적으로 도시한 개념도이다.1 is a conceptual diagram schematically illustrating a network structure of a music video system for artificial intelligence education according to an embodiment of the present invention.
도 1에 도시된 바와 같이 본 발명은 사용자 단말기(100)와 데이터 서버(200)로 구성되어 있다.As shown in FIG. 1 , the present invention consists of a user terminal 100 and a data server 200 .
상기 사용자 단말기(100)은 사용자가 인공지능 교육용 뮤직비디오 믹싱 시스템을 설치 및 사용하는 장치이다.The user terminal 100 is a device in which a user installs and uses a music video mixing system for artificial intelligence education.
상기 인공지능 교육용 뮤직비디오 믹싱 시스템은 인공지능을 이용한 딥러닝 및 빅데이터 분석을 통해 교육용 뮤직비디오 믹싱, 사용자 맞춤형 뮤직비디오 추천 및 사용자 학습능력을 파악할 수 있는 테스트 기능을 포함할 수 있다.The artificial intelligence education music video mixing system may include a test function that can identify educational music video mixing, user-customized music video recommendation, and user learning ability through deep learning and big data analysis using artificial intelligence.
상기 사용자 단말기(100)는 상기 사용자의 나이, 성별, 지역, 직업, 학력 등 사용자가 직접 입력하는 사용자 기본정보를 생성하여 데이터 서버(200)에 송신할 수 있다.The user terminal 100 may generate basic user information directly input by the user, such as the user's age, gender, region, occupation, and educational background, and transmit it to the data server 200 .
또한, 상기 데이터 서버(200)로부터 뮤직비디오 영상 및 리스트 정보를 수신받아 화면에 출력할 수 있다.In addition, the music video image and list information may be received from the data server 200 and output to the screen.
상기 사용자단말기(100)는 유선 또는 무선 방식으로 테스트 서버(200) 및 회원관리서버에 접속할 수 있는, 1 이상의 프로세서 및 1 이상의 메모리를 갖는 컴퓨팅 단말 장치이다. 이와 같은 단말 장치로는 스마트폰(Smart Phone)과 태블릿(tablet), 개인용 컴퓨터(Personal Computer: PC), 이동 전화기, 화상 전화기, 전자책 리더(e-book reader), 데스크톱(Desktop) PC, 랩탑(Laptop) PC, 넷북(Netbook) PC, 개인용 복합 단말기(Personal Digital Assistant: PDA), 휴대용 멀티미디어 플레이어(Portable Multimedia Player: PMP), MP3 플레이어, 이동 의료디바이스, 카메라, 웨어러블 디바이스(Wearable device)의 예로, 헤드-마운티드 디바이스(head-mounted device: HMD), 전자 의류, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 워치(smart watch)) 등의 컴퓨팅 장치가 이에 해당될 수 있다.The user terminal 100 is a computing terminal device having one or more processors and one or more memories that can connect to the test server 200 and the member management server in a wired or wireless manner. Such terminal devices include a smart phone and a tablet, a personal computer (PC), a mobile phone, a video phone, an e-book reader, a desktop PC, and a laptop. (Laptop) PC, Netbook PC, Personal Digital Assistant (PDA), Portable Multimedia Player (PMP), MP3 player, mobile medical device, camera, wearable device as examples , a computing device, such as a head-mounted device (HMD), electronic clothing, electronic bracelet, electronic necklace, electronic accessory, electronic tattoo, or smart watch. there is.
어디까지나 이는 예시에 불과할 뿐이며, 본 발명에서의 단말은 상술한 예시들 이외에도 현재 개발되어 상용화되었거나 또는 향후 개발될 데이터 또는 신호 전송이 가능한 모든 장치를 포함하는 개념으로 해석되어야 한다.This is merely an example, and the terminal in the present invention should be interpreted as a concept including all devices capable of transmitting data or signals that have been developed and commercialized or will be developed in the future in addition to the above-described examples.
상기 데이터 서버(200)은 교육용 뮤직비디오를 분석 및 믹싱하여 뮤직비디오 리스트를 생성하고 상기 사용자 단말기(100)로부터 수신받은 상기 사용자 기본정보와 뮤직비디오 시청 및 테스트 정보를 바탕으로 추출된 사용자 분석정보에 대응되는 사용자 맞춤형 뮤직비디오를 추출하여 뮤직비디오 리스트를 상기 사용자 단말기(100)로 송신할 수 있다.The data server 200 analyzes and mixes music videos for education to generate a music video list, and the user analysis information extracted based on the user basic information received from the user terminal 100 and music video viewing and test information A music video list may be transmitted to the user terminal 100 by extracting a corresponding user-customized music video.
상기 데이터 서버(200)는 뮤직비디오 영상의 오디오 정보를 추출하여 뮤직비디오 분석정보를 생성하고, 상기 뮤직비디오 분석정보를 바탕으로 각각의 뮤직비디오 간의 유사도를 판단하며, 사용자 정보를 바탕으로 유사한 학습유형을 가지는 사용자를 그룹화하여 저장하는 프리 프로세스(210)와 상기 프리 프로세스(210)에서 분석된 정보를 바탕으로 뮤직비디오 영상을 추출하여 리스트화 하고, 영상 믹싱시 연결부위에 삽입되는 영상 및 음악을 생성하는 메인 프로세스(220)를 포함 할 수 있다.The data server 200 extracts audio information of a music video image to generate music video analysis information, determines the similarity between each music video based on the music video analysis information, and determines a similar learning type based on user information Based on the pre-process 210 for grouping and storing users with It may include a main process 220 that
도 2는 본 발명에 따른 데이터 서버(200)의 프리 프로세스(210) 블록구성도이다.2 is a block diagram of the pre-process 210 of the data server 200 according to the present invention.
도 2에 도시된 바와 같이 상기 프리 프로세스(210)는 영상DB(211), 사용자DB(212), 오디오 분석부(213), 유사도 측정부(214), 사용자 분석부(215)로 구성될 수 있다.As shown in FIG. 2 , the pre-process 210 may include an image DB 211 , a user DB 212 , an audio analysis unit 213 , a similarity measurement unit 214 , and a user analysis unit 215 . there is.
상기 영상DB(211)는 뮤직비디오 영상정보와 뮤직비디오를 분석하여 생성된 뮤직비디오 분석정보를 저장할 수 있다.The image DB 211 may store music video image information and music video analysis information generated by analyzing the music video.
상기 뮤직비디오 영상정보는 임의의 교육용 뮤직비디오로부터 임의의 학습주제를 가지는 재생구간을 추출한 영상으로 상기 재생구간은 관리자가 직접 설정하거나 딥러닝 인공지능 분석을 이용하여 설정할 수 있다.The music video image information is an image obtained by extracting a playback section having an arbitrary learning topic from any educational music video, and the playback section can be set by an administrator directly or by using deep learning artificial intelligence analysis.
예를 들어, 텍스트 내용이 "돌려라 돌려라 제자리로 돌려라 변형된 물체가 원래대로 돌아가려는 힘 탄성력 늘어났다 튕기는 고무줄 탄성을 지는 물체야 막아라 막아라 운동을 막아라 서로 닿은 물체의 운동을 방해하는 힘 마찰력 물체가 무거우면 무거울수록 닿은 면이 울퉁불퉁 할수록 마찰력은 점점 커지네 힘의 방향 반대 방향인 마찰력"일 경우 탄성력과 마찰력을 키워드로 설정할 수 있고 탄성력에 해당하는 문장인 "돌려라 돌려라 제자리로 돌려라 변형된 물체가 원래대로 돌아가려는 힘 탄성력 늘어났다 튕기는 고무줄 탄성을 지는 물체야"에 해당하는 영상 구간과 마찰력에 해당하는 문장인 "막아라 막아라 운동을 막아라 서로 닿은 물체의 운동을 방해하는 힘 마찰력 물체가 무거우면 무거울수록 닿은면이 울퉁불퉁 할수록 마찰력은 점점 커지네 힘의 방향 반대 방향인 마찰력"에 해당하는 영상 구간을 분할하여 뮤직비디오 영상정보를 생성할 수 있다.For example, if the content of the text is "Turn, turn, turn, return to original position, the force that the deformed object tries to return to its original state Elasticity is increased and the bouncing rubber band It is an elastic object, block it, block it, block the motion. The heavier it is, the more the frictional force gets bigger as the surface is bumpy The force to return, the elastic force The elastic force increased, and the bouncing rubber band, the video section corresponding to the elastic object and the sentence corresponding to the frictional force, “block, block, block the motion. The more bumpy, the greater the frictional force. The music video image information can be created by dividing the video section corresponding to the "friction force in the opposite direction of the direction of the force."
상기 뮤직비디오 분석정보는 뮤직비디오의 주제 및 내용을 기준으로 설정된 난이도정보를 포함할 수 있다.The music video analysis information may include difficulty information set based on the subject and content of the music video.
상기 난이도정보는 처음에는 관리자가 직접 설정하거나 인공지능에 의해 설정되며 뮤직비디오의 학습내용과 유사한 테스트 또는 퀴즈에 대한 사용자 정답률에 의해 난이도가 결정될 수 있다.The difficulty information is initially set by the administrator directly or by artificial intelligence, and the difficulty level may be determined by the user's correct rate for a test or quiz similar to the learning content of the music video.
상기 사용자DB(212)는 상기 사용자 단말기(100)로부터 수신된 사용자 기본정보와 인공지능 교육용 뮤직비디오 믹싱 시스템을 사용하는 사용자 학습유형 및 테스트 결과정보를 분석한 사용자 분석정보를 저장할 수 있다.The user DB 212 may store basic user information received from the user terminal 100 and user analysis information obtained by analyzing the user learning type and test result information using the music video mixing system for artificial intelligence education.
상기 사용자 기본정보는 사용자의 나이, 성별, 지역, 직업, 학력 등 사용자가 직접 입력 가능한 정보를 포함할 수 있다.The user basic information may include information that can be directly input by the user, such as the user's age, gender, region, occupation, and educational background.
상기 사용자 학습유형은 뮤직비디오 시청 회수, 반복 회수, 스킵여부 및 즐겨찾기 등록 등 인공지능 교육용 뮤직비디오 믹싱 시스템을 사용하면서 발생하는 행동 정보를 분석하여 생성될 수 있다.The user learning type may be generated by analyzing behavioral information generated while using the music video mixing system for artificial intelligence education, such as the number of music video views, the number of repetitions, whether to skip, and registration of favorites.
상기 오디오 분석부(213)는 상기 뮤직비디오 영상정보로부터 오디오 정보를 추출하여 텍스트 정보 및 멜로디 패턴정보를 생성할 수 있다.The audio analyzer 213 may extract audio information from the music video image information to generate text information and melody pattern information.
상기 텍스트 정보는 상기 오디오 정보로부터 자동음성인식(Speech to Text)을 이용하여 가사를 추출하고 상기 가사를 텍스트로 변환하여 변환된 텍스트를 자연화 처리하여 추출된 키워드를 포함할 수 있다.The text information may include keywords extracted by extracting lyrics from the audio information using Speech to Text, converting the lyrics into text, and naturalizing the converted text.
상기 자연화 처리는 토큰화(Tokenization), 형태소분석(Part of speech tagging), 불용어 처리(Stopword), 텍스트 추출(Extraction) 등의 통상적으로 사용하는 방법이 이에 해당할 수 있다.The naturalization processing may correspond to a commonly used method such as tokenization, part of speech tagging, stopword processing, text extraction, and the like.
자세히 설명하자면, 변환된 텍스트에서 명사에 해당하는 단어정보를 추출하고 상기 단어정보가 학습주제에 대응되는 단어인지 판단하며 대응될 경우 상기 단어정보를 키워드로 설정할 수 있다.In detail, word information corresponding to a noun may be extracted from the converted text, and the word information may be determined as a word corresponding to a learning topic.
예를들어, 텍스트 내용이 "기원전 2000년에서 1500년경에 청동기 시대가 시작되었지만 청동기를 만드는 재료가 충분하지 않아 널리 쓰이지 못했지"일 경우 상기 텍스트 내용 중에서 2000년, 1500년, 청동기 시대, 청동기, 재료의 단어정보를 추출하고, 상기 단어정보 중 임의의 학습주제 역사에 해당하는 청동기 시대, 청동기를 키워드로 설정 할 수 있다.For example, if the text content is "The Bronze Age began around 2000 to 1500 B.C., but the materials for making the bronze were not widely used because there were not enough materials for making them", among the above text contents, 2000, 1500, Bronze Age, Bronze Age, materials of the word information can be extracted, and the Bronze Age and Bronze Age corresponding to any learning subject history among the word information can be set as keywords.
상기 멜로디 패턴정보는 상기 오디오 정보로부터 음정, 박자 등 멜로디를 구성하는 멜로디 정보를 추출하고 상기 멜로디 정보를 푸리에 변환(Fourier transform)을 통해 생성된 주파수 정보(Frequency-domain data)을 분석하여 상기 뮤직비디오의 멜로디 패턴정보를 생성할 수 있다.The melody pattern information is obtained by extracting melody information constituting a melody such as a pitch and a time signature from the audio information, and analyzing frequency-domain data generated through Fourier transform on the melody information to obtain the music video of melody pattern information can be generated.
상기 유사도 측정부(214)는 상기 오디오 분석부(213)로부터 상기 멜로디 패턴정보를 수신하여 특정 알고리즘을 가지는 딥러닝을 통해 패턴특징을 추출하고 각각의 뮤직비디오의 패턴특징를 비교하여 유사도 정보를 생성할 수 있다.The similarity measurement unit 214 receives the melody pattern information from the audio analysis unit 213, extracts pattern features through deep learning with a specific algorithm, and compares the pattern features of each music video to generate similarity information. can
자세히 설명하면, 딥러닝을 통해 상기 멜로디 패턴정보에서 멜로디 특징을 추출하고 상기 멜로디 특징을 바탕으로 각 뮤직비디오를 벡터화(vectorization) 및 수치화(quantification)과정을 통해 상기 멜로디 특징을 수치값으로 변환하고 각각의 뮤직비디오의 수치값을 비교하여 유사도 정보를 생성할 수 있다.More specifically, through deep learning, melodic features are extracted from the melody pattern information, and each music video is vectorized and quantified based on the melody features, and the melody features are converted into numerical values and each It is possible to generate similarity information by comparing the numerical values of the music videos of
본 발명에서의 상기 딥러닝은 오토인코더(auto-encoder)를 사용하는 것으로 설명하였으나 이에 한정하지 않고 통상적으로 사용하는 딥러닝 알고리즘을 사용하여 멜로디 특징을 생성할 수 있다.Although the deep learning in the present invention has been described as using an auto-encoder, it is not limited thereto, and a commonly used deep learning algorithm can be used to generate a melody feature.
상기 사용자 분석부(215)는 상기 사용자DB(212)로부터 수신받은 사용자 기본정보와 사용자 분석정보를 분석하여 유사한 사용자 정보를 가지는 사용자들을 그룹화하여 저장할 수 있다.The user analysis unit 215 may group and store users having similar user information by analyzing the basic user information and user analysis information received from the user DB 212 .
상기 사용자 분석부(215)는 인공지능 교육용 뮤직비디오 믹싱 시스템을 처음 이용하는 사용자의 경우 상기 사용자 기본정보만 사용하여 그룹화 할 수 있다.The user analysis unit 215 may group users using only the basic user information in the case of a first-time user of the music video mixing system for artificial intelligence education.
도 3는 본 발명에 따른 데이터 서버(200)의 메인 프로세스(220) 블록구성도이다.3 is a block diagram of the main process 220 of the data server 200 according to the present invention.
도 3에 도시된 바와 같이 메인 프로세스(220)는 리스트 생성부(221), 멜로디 생성부(222), 문제DB(223), 영상 설정부(224) 및 퀴즈 출력부(225)를 포함할 수 있다.As shown in FIG. 3 , the main process 220 may include a list generator 221 , a melody generator 222 , a problem DB 223 , an image setting unit 224 , and a quiz output unit 225 . there is.
상기 리스트 생성부(221)는 상기 사용자 분석부(215)로부터 사용자가 속해있는 그룹의 데이터를 수신하여 선호도가 높은 뮤직비디오 중에서 무작위로 추출하여 사용자 맞춤형 뮤직비디오 리스트를 생성할 수 있다.The list generating unit 221 may receive data of a group to which the user belongs from the user analysis unit 215 and randomly extract it from among music videos with high preference to generate a user-customized music video list.
자세히 설명하면, 사용자와 같은 그룹에 속해있는 사용자의 뮤직비디오 시청횟수, 평균 시청 시간을 기반으로 뮤직비디오 리스트 재생시간을 설정하고 상기 그룹의 즐겨찾기, 스킵 설정정보를 기반으로 사용자에게 적합한 뮤직비디오를 선정하며 사용자의 테스트 결과 정보를 기반으로 뮤직비디오의 난이도를 설정할 수 있다.In detail, the music video list playback time is set based on the average viewing time and the number of music videos viewed by users belonging to the same group as the user, and a music video suitable for the user is selected based on the group's favorite and skip setting information. You can set the difficulty of the music video based on the user's test result information.
본 발명의 뮤직비디오 리스트의 재생시간은 2분30초~3분30초로 설정되는 것이 바람직하나 이에 한정하지 않고 관리자 또는 사용자 설정에 의해 뮤직비디오 재생시간은 변할 수 있다.The playback time of the music video list of the present invention is preferably set to 2 minutes and 30 seconds to 3 minutes 30 seconds, but is not limited thereto, and the music video playback time may be changed by an administrator or user setting.
또한, 무작위로 추출된 뮤직비디오를 낮은 난이도를 가지는 뮤직비디오에서 높은 난이도를 가지는 뮤직비디오 순서대로 정렬하여 리스트를 생성할 수 있다.In addition, a list may be generated by arranging the randomly extracted music videos in the order of the music videos having the high difficulty in the music videos having the low difficulty.
상기 리스트 생성부(221)는 추출된 뮤직비디오와 유사한 난이도를 가지는 예비 뮤직비디오를 추가로 더 추출하며 상기 사용자 단말기(100)에 출력되는 뮤직비디오에 대한 사용자 행동정보에 의해 다음에 출력되는 뮤직비디오를 설정할 수 있다.The list generator 221 further extracts a preliminary music video having a difficulty similar to the extracted music video, and a music video output next according to user behavior information on the music video output to the user terminal 100 can be set.
상기 사용자 행동정보는 사용자가 임의의 뮤직비디오에 대하여 즐겨찾기, 스킵, 반복 재생 정보를 포함할 수 있다.The user behavior information may include information about a user's favorite music video, skipping, and repeating play.
자세히 설명하면 상기 사용자가 현재 시청 중인 뮤직비디오를 즐겨찾기로 설정할 경우 선호도가 높다고 판단하여 다음으로 재생되는 뮤직비디오는 상기 뮤직비디오와 유사도가 높은 뮤직비디오로 설정되며 상기 사용자가 현재 시청 중인 뮤직비디오를 스킵할 경우 선호도가 낮다고 판단하여 다음으로 재생되는 뮤직비디오는 상기 뮤직비디오와 유사도가 낮은 뮤직비디오로 설정될 수 있다.In more detail, if the user sets the music video currently being viewed as a favorite, the music video played next is set as a music video with high similarity to the music video, and the music video the user is currently watching is selected as a favorite. In the case of skipping, it is determined that the preference is low, and a music video played next may be set as a music video having a low similarity to the music video.
예를 들어, 하기 표 1에 도시된 바와 같이 상기 리스트 생성부(221)는 A열에 해당하는 MV-01, MV-02, MV-07, MV-22, MV-12를 추출하여 리스트화 하고 A열의 각각의 순서에 해당하는 뮤직비디오의 난이도와 유사한 뮤직비디오를 추출하여 B열, C열을 생성하며 사용자가 MV-02를 즐겨찾기로 설정할 경우 다음 순서에 해당하는 MV-07, MV-44, MV-67 중에서 MV-02와 유사도가 높은 뮤직비디오를 선정하여 재생하고 사용자가 MV-02를 스킵할 경우 다음 순서에 해당하는 MV-07, MV-44, MV-67 중에서 MV-02와 유사도가 낮은 뮤직비디오를 선정하여 재생할 수 있다.For example, as shown in Table 1 below, the list generator 221 extracts and lists MV-01, MV-02, MV-07, MV-22, and MV-12 corresponding to column A, and lists A Columns B and C are created by extracting music videos similar to the difficulty level of the music videos corresponding to each order of the column. If a music video with a high similarity to MV-02 is selected from among MV-67 and played, and the user skips MV-02, the similarity to MV-02 from MV-07, MV-44, and MV-67 in the following order is displayed. You can select and play a low music video.
OrderOrder AA BB CC
1One MV-01MV-01
22 MV-02MV-02 MV-10MV-10 MV-17MV-17
33 MV-07MV-07 MV-44MV-44 MV-67MV-67
44 MV-22MV-22 MV-23MV-23 MV-04MV-04
55 MV-12MV-12 MV-46MV-46 MV-42MV-42
상기 멜로디 생성부(222)는 상기 오디오 분석부(213)로부터 멜로디 패턴정보를 수신받아 출력된 뮤직비디오의 끝 부분 멜로디 정보와 다음에 출력될 뮤직비디오의 앞 부분 멜로디 정보의 패턴을 분석하여 두 멜로디 정보의 진행과 유사한 구간멜로디를 생성할 수 있다.The melody generation unit 222 receives the melody pattern information from the audio analysis unit 213 and analyzes the patterns of the melody information at the end of the output music video and the melody information at the beginning of the music video to be output next, to find two melodies. A section melody similar to the progress of information can be created.
자세히 설명하면, 상기 멜로디 정보는 음정, 박자 등 멜로디의 구성요소를 수치화하여 저장된 정보로 상기 멜로디 정보를 마르코프 모델(Markov model)을 이용한 시퀀스 확률 분석을 통해 구간멜로디를 생성할 수 있다.More specifically, the melody information is information stored by digitizing components of a melody, such as a pitch and a time signature, and a section melody can be generated through sequence probability analysis using a Markov model for the melody information.
상기 멜로디 생성부(222)는 상기 구간멜로디를 기준으로 화음이나 음정을 더 추가하여 생성할 수 있다.The melody generating unit 222 may generate by further adding chords or pitches based on the section melody.
본 발명에서의 상기 멜로디 생성부(222)는 마르코프 모델(Markov model)을 이용하여 구간멜로디를 생성하는 것으로 설명하였으나 이에 한정하지 않고 통상적으로 사용하는 멜로디 분석 알고리즘을 사용하여 구간멜로디를 생성할 수 있다.Although it has been described that the melody generator 222 in the present invention generates a section melody using a Markov model, it is not limited thereto and can generate a section melody using a commonly used melody analysis algorithm. .
상기 문제DB(223)는 사용자의 학습수준을 파악할 수 있는 테스트 및 퀴즈에 제공되는 문제정보를 저장할 수 있다.The question DB 223 may store question information provided to tests and quizzes that can determine the user's learning level.
상기 영상설정부는 상기 사용자 단말기(100)로부터 수신받은 영상설정정보와 뮤직비디오 분석정보를 기반으로 다양한 추가 기능을 상기 사용자 단말기(100) 화면에 출력할 수 있다.The image setting unit may output various additional functions to the screen of the user terminal 100 based on the image setting information and music video analysis information received from the user terminal 100 .
자세히 설명하면 상기 영상설정부는 상기 사용자 단말기(100) 화면에 출력되는 뮤직비디오에 대응되는 자막, 책갈피, 삽화 및 캐릭터 영상을 추가로 상기 사용자 단말에 출력할 수 있다.In more detail, the image setting unit may additionally output subtitles, bookmarks, illustrations, and character images corresponding to the music video output on the screen of the user terminal 100 to the user terminal.
상기 영상설정부는 임의의 뮤직비디오에 대응되는 텍스트 정보를 수신하여 자막을 생성하고 키워드에 대응되는 자막을 하이라이트 표시하여 상기 사용자 단말기(100) 화면에 출력할 수 있다.The image setting unit may receive text information corresponding to an arbitrary music video, generate subtitles, highlight subtitles corresponding to keywords, and output them on the screen of the user terminal 100 .
그리고, 상기 텍스트 정보를 관리자 또는 인공지능을 이용한 번역정보를 수신하여 외국어 자막을 생성하고 상기 자막과 같이 상기 사용자 단말기(100) 화면에 출력할 수 있다.Then, by receiving the translation information using the manager or artificial intelligence for the text information, foreign language subtitles can be generated and outputted on the screen of the user terminal 100 like the subtitles.
또는, 상기 사용자 단말기(100)에 출력되는 임의의 뮤직비디오의 오디오 정보에 맞춰 자막에 하이라이트 표시를 할 수 있다.Alternatively, the caption may be highlighted in accordance with audio information of an arbitrary music video output to the user terminal 100 .
예를 들어, 텍스트 정보가"기원전 2000년에서 1500년경에 청동기 시대가 시작되었지만 청동기를 만드는 재료가 충분하지 않아 널리 쓰이지 못했지"일 경우 상기 텍스트 정보를 자막으로 변환하고 상기 사용자 단말기(100) 화면 크기에 대응되게 상기 자막을 분할하여 화면에 출력하고 키워드인 청동기의 바탕색을 노란색 또는 형광색으로 하이라이트 표시하거나 상기 사용자 단말기(100)로 출력되는 오디오 정보에 맞춰서 상기 자막의 바탕색을 노란색 또는 형광색으로 하이라이트 표시할 수 있다.For example, if the text information is "The Bronze Age began around 2000 to 1500 B.C., but the materials for making the bronze ware were not widely used because there were not enough materials", the text information is converted into subtitles and the screen size of the user terminal 100 The subtitle is divided and output on the screen, and the background color of the bronze device, which is a keyword, is highlighted in yellow or fluorescent color, or the background color of the subtitle is highlighted in yellow or fluorescent color in accordance with the audio information output to the user terminal 100. can
상기 영상설정부(224)는 상기 뮤직비디오 리스트에 포함되는 각각의 뮤직비디오 시작지점을 표시하는 책갈피를 상기 사용자 단말기(100) 화면에 출력할 수 있다.The image setting unit 224 may output a bookmark indicating the starting point of each music video included in the music video list on the screen of the user terminal 100 .
자세히 설명하면 상기 사용자 단말기(100) 하단부에 현재 출력되는 뮤직비디오 리스트의 진행상황을 확인 할 수 있는 재생바가 형성되고 상기 뮤직비디오의 시작지점을 표시하는 책갈피를 상기 재생바에 표시할 수 있다.In more detail, a play bar is formed at the lower end of the user terminal 100 to check the progress of the currently output music video list, and a bookmark indicating the start point of the music video can be displayed on the play bar.
예를 들면, 임의의 뮤직비디오가 1분의 재생길이를 가지는 제1 재생구간, 2분의 재생길이를 가지는 제2 재생구간, 3분의 재생길이를 가지는 제 3재생구간 4분의 재생길이를 가지는 제4 재생구간 순서대로 믹싱되었을 때 재생바는 총 10분의 재생길이를 표시하고 각각의 뮤직비디오 시작지점인 0분, 1분, 3분, 6분 지점에 절단선 및 화살표를 이용해 책갈피를 표시할 수 있다.For example, in an arbitrary music video, a first playback section with a duration of 1 minute, a second playback section with a duration of 2 minutes, and a third playback section with a duration of 3 minutes have a playback length of 4 minutes. When eggplant is mixed in the order of the 4th play section, the play bar displays the total duration of 10 minutes, and bookmarks using cut lines and arrows at the 0, 1, 3, and 6 minute points, which are the start points of each music video. can be displayed
도 4는 본 발명의 실시예에 따른 프리 프로세스(210)의 뮤직비디오 분석방법에 관한 플로차트이다.4 is a flowchart of a music video analysis method of the pre-process 210 according to an embodiment of the present invention.
도 4에 도시된 바와 같이 뮤직비디오 분석방법은 오디오 추출단계(S110), 텍스트 정보 추출단계(S120), 멜로디 패턴정보 생성단계(S130)를 포함할 수 있다.4 , the music video analysis method may include an audio extraction step (S110), a text information extraction step (S120), and a melody pattern information generation step (S130).
상기 오디오 분석단계(S110)는 상기 오디오 분석부(213)에서 상기 영상DB(211)에 저장된 임의의 뮤직비디오 영상정보로부터 오디오 정보를 추출할 수 있다.In the audio analysis step ( S110 ), the audio analysis unit 213 may extract audio information from any music video image information stored in the image DB 211 .
상기 텍스트 정보 추출단계(S120)는 자동음성인식(Speech to Text)을 이용하여 상기 오디오 정보로부터 가사를 추출(S121)하여 텍스트로 변환(S122)할 수 있다.In the text information extraction step (S120), lyrics may be extracted from the audio information using automatic speech recognition (Speech to Text) (S121) and converted into text (S122).
그리고 변환된 텍스트를 토큰화(tokenization),형태소분석(part fo speech tagging), 불용어 처리(stopword), 텍스트 추출(extraction)을 이용한 자연화 처리(S123)하여 명사 단어를 추출하고 학습주제에 대응되는 명사 단어의 경우 키워드로 설정(S124)할 수 있다.Then, the converted text is naturalized using tokenization, part fo speech tagging, stopword, and text extraction (S123) to extract noun words and corresponding learning topics. In the case of a noun word, it can be set as a keyword (S124).
상기 멜로디 패턴정보 생성단계(S130)는 상기 오디오 정보로부터 멜로디 정보를 추출(S131)하여 푸리에 변환(Fourier transform)을 통해 생성된 주파수 정보(Frequency-domain data)을 분석하여 상기 뮤직비디오의 멜로디 패턴정보를 생성(S133)할 수 있다.The melody pattern information generation step (S130) extracts melody information from the audio information (S131) and analyzes frequency-domain data generated through a Fourier transform to obtain melody pattern information of the music video. can be generated (S133).
도 5는 본 발명의 실시예에 따른 프리 프로세스의 뮤직비디오 유사도 분석방법에 관한 플로차트이다.5 is a flowchart of a music video similarity analysis method of a pre-process according to an embodiment of the present invention.
도 5에 도시된 바와 같이 뮤직비디오 유사도 분석방법은 상기 멜로디 패턴 정보를 기반으로 뮤직비디오 간의 유사도 정보를 생성하는 유사도 정보 생성단계(S140)를 포함할 수 있다.As shown in FIG. 5 , the music video similarity analysis method may include a similarity information generation step ( S140 ) of generating similarity information between music videos based on the melody pattern information.
상기 유사도 정보 생성단계(S140)는 상기 오디오 분석부(213)로부터 멜로디 패턴정보를 수신하여 특정 알고리즘을 가지는 딥러닝을 통해 패턴특징을 추출(S142)하고 각각의 뮤직비디오의 패턴특징을 비교하여 유사도 정보를 생성할 수 있다.The similarity information generation step (S140) is performed by receiving melody pattern information from the audio analysis unit 213, extracting pattern features through deep learning with a specific algorithm (S142), and comparing the pattern features of each music video to obtain similarity. information can be created.
도 6은 본 발명의 실시예에 따른 프리 프로세스의 사용자 분석방법에 관한 플로차트이다.6 is a flowchart of a user analysis method of a pre-process according to an embodiment of the present invention.
도 6에 도시된 바와 같이 사용자 분석 방법은 사용자 정보 분석(S151), 학습유형정보 생성(S152), 유저그룹정보 생성(S153) 및 유저그룹정보 저장단계로 구성되는 그룹정보 생성단계를 포함할 수 있다.As shown in FIG. 6 , the user analysis method may include a group information generation step consisting of user information analysis (S151), learning type information generation (S152), user group information generation (S153), and user group information storage steps. there is.
상기 사용자 정보 분석(S151)은 상기 사용자DB(212)로부터 사용자 기본정보와 사용자 분석정보를 수신하고 제공되는 테스트에 대한 사용자 결과 정보를 분석하여 사용자 학습유형정보를 생성(S152) 할 수 있다.The user information analysis ( S151 ) may generate user learning type information ( S152 ) by receiving basic user information and user analysis information from the user DB 212 , and analyzing user result information for a provided test.
상기 유저그룹정보 생성(S153)은 유사한 학습유형정보를 가지는 사용자를 추출하여 하나의 그룹을 생성하고 상기 그룹에 해당하는 사용자의 사용자 정보를 분석하여 사용자 그룹정보를 생성할 수 있다.The user group information generation ( S153 ) may generate one group by extracting users having similar learning type information, and may generate user group information by analyzing user information of a user corresponding to the group.
도 7는 본 발명의 실시예에 따른 메인 프로세스의 뮤직비디오 리스트 생성방법에 관한 플로차트이다.7 is a flowchart of a method for generating a music video list in the main process according to an embodiment of the present invention.
도 7에 도시된 바와 같이, 뮤직비디오 리스트 생성방법은 뮤직비디오 추출단계(S201), 리스트 생성단계(S202), 구간멜로디 생성단계(S203), 문제 추출단계, 구간영상 생성단계 및 뮤직비디오 출력을 포함할 수 있다.As shown in Fig. 7, the music video list generation method includes a music video extraction step (S201), a list generation step (S202), a section melody generation step (S203), a problem extraction step, a section video generation step and a music video output. may include
상기 뮤직비디오 추출단계(S201)는 상기 사용자 정보와 사용자 그룹정보를 분석하여 상기 영상DB로부터 사용자에게 적합한 뮤직비디오를 추출할 수 있다.In the music video extraction step (S201), a music video suitable for a user may be extracted from the image DB by analyzing the user information and user group information.
상기 리스트 생성단계(S202)는 추출된 뮤직비디오의 난이도 정보를 바탕으로 낮은 난이도를 가지는 뮤직비디오에서 높은 난이도를 가지는 뮤직비디오 순으로 정렬한 뮤직비디오 리스트를 생성할 수 있다.The list generation step ( S202 ) may generate a music video list arranged in order of music videos having a high difficulty from a music video having a low difficulty based on the extracted difficulty information of the music video.
상기 구간멜로디 생성단계(S203)는 상기 뮤직비디오 리스트에 포함되는 뮤직비디오의 멜로디 패턴정보를 분석하여 출력된 뮤직비디오의 끝 부분 멜로디와 다음에 출력되는 뮤직비디오의 앞 부분 멜로디를 자연스럽게 연결시키는 구간 멜로디를 생성할 수 있다.The section melody generation step (S203) is a section melody that naturally connects the melody at the end of the output music video and the melody at the front of the next output music video by analyzing the melody pattern information of the music video included in the music video list. can create
상기 문제 추출단계(S204)는 현재 출력되는 뮤직비디오의 학습주제와 유사한 퀴즈 문제를 추출할 수 있다.The question extraction step (S204) may extract a quiz question similar to the learning topic of the currently output music video.
상기 구간영상 생성단계(S205)는 순차적으로 재생되는 두 개의 뮤직비디오와 대응되는 구간 멜로디와 퀴즈 문제를 믹싱하여 구간영상을 생성하고 두 개의 뮤직비디오 사이 연결부위에 구간영상을 삽입하여 하나의 뮤직비디오로 믹싱할 수 있다.In the section video generation step (S205), a section video is created by mixing two music videos that are sequentially played back and a section melody corresponding to a quiz question, and a section video is inserted at the connection part between the two music videos to create one music video. can be mixed with
도 8에 도시된 바와 같이 메인 프로세스의 뮤직비디오 리스트 재생성방법은 행동정보 생성단계(S211), 선호도 정보 생성단계(S212), 리스트 재생성단계(S213)를 포함할 수 있다.As shown in FIG. 8 , the method for regenerating a music video list of the main process may include a behavior information generation step (S211), a preference information generation step (S212), and a list regenerating step (S213).
상기 행동정보 생성단계(S211)는 현재 출력중인 뮤직비디오에 대한 사용자 행동을 감지하여 사용자 행동정보를 생성할 수 있다.The behavior information generating step (S211) may generate user behavior information by detecting a user behavior with respect to the currently output music video.
상기 사용자 행동은 출력중인 뮤직비디오에 대한 즐겨찾기 등록, 스킵, 반복재생을 포함할 수 있다.The user action may include registering a favorite, skipping, and repeating the music video being output.
상기 선호도 정보 생성단계(S212)는 현재 출력중인 뮤직비디오를 사용자가 즐겨찾기 등록 및 반복재생 할 경우 선호도를 높게 설정하고 현재 출력중인 뮤직비디오를 사용자가 스킵 할 경우 선호도를 낮게 설정할 수 있다.The preference information generation step (S212) may set a high preference when the user registers and repeats the music video currently being output as a favorite, and sets a low preference when the user skips the currently output music video.
상기 리스트 재생성단계(S213)는 선호도 정보를 바탕으로 선호도가 높을 경우 해당 뮤직비디오와 유사도가 높은 뮤직비디오를 선정하여 출력하고 선호도가 낮을 경우 해당 뮤직비디오와 유사도가 낮은 뮤직비디오를 선정하여 출력할 수 있다.In the list regenerating step (S213), based on the preference information, if the preference is high, a music video with a high similarity to the corresponding music video is selected and output, and if the preference is low, a music video with a low similarity to the corresponding music video can be selected and output. there is.
자막생성단계는 영상설정부(244)에서 텍스트 정보 및 번역 정보를 수신하여 내국어 및 외국어 자막을 생성하고 사용자 화면 설정 정보에 대응되는 자막을 상기 사용자 단말기(100) 화면에 출력할 수 있다.In the caption generating step, the image setting unit 244 may receive text information and translation information to generate local language and foreign language subtitles, and output a subtitle corresponding to the user screen setting information on the screen of the user terminal 100 .
하이라이트 표시단계는 상기 텍스트정보로부터 추출된 키워드 정보에 대응되는 자막을 하이라이트 표시하여 사용자 단말기(100) 화면에 출력할 수 있다.In the highlight display step, the caption corresponding to the keyword information extracted from the text information may be highlighted and output on the screen of the user terminal 100 .
책갈피 출력단계는 뮤직비디오 리스트의 진행율을 알 수 있는 재생바를 상기 사용자 단말기(100) 화면 하단에 출력하고 상기 재생바에 각각의 뮤직비디오 시작지점을 표시하는 책갈피를 출력할 수 있다.In the bookmark output step, a play bar indicating the progress rate of the music video list may be output at the bottom of the screen of the user terminal 100 and a bookmark indicating the start point of each music video may be output on the play bar.
이상에서, 본 명세서에서 설명한 기능적 동작과 본 주제에 관한 실시형태들은 본 명세서에서 개시한 고조들 및 그들의 구조적인 등가물을 포함하여 디지털 전자 회로나 컴퓨터 소프트웨어, 펌웨어 또는 하드웨어에서 혹은 이들 중 하나 이상의 조합에서 구현 가능하다.In the above, the functional operation described herein and the embodiments related to the subject matter, including the features disclosed herein and structural equivalents thereof, may be implemented in digital electronic circuitry or computer software, firmware or hardware, or in a combination of one or more thereof. can be implemented
본 명세서에서 기술하는 주제의 실시형태는 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 데이터 처리 장치에 의한 실행을 위하여 혹은 그동작을 제어하기 위하여 유형의 프로그램 매체 상에 인코딩되는 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다. 유형의 프로그램 매체는 전파형 신호이거나 컴퓨터로 판독 가능한 매체일 수 있다. 전파형 신호는 컴퓨터에 의한 실행을 위하여 적절한 수신기 장치로 전송하기 위한 정보를 인코딩하기 위하여 생성되는 예컨대 기계가 생성한 전기적, 광학적 혹은 전자기 신호와 같은 인공적으로 생성된 신호이다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장장치, 기계로 판독 가능한 저장장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조합 혹은 이들 중 하나 이상의 조합일 수 있다.Embodiments of the subject matter described herein are one or more computer program products, ie, one or more modules directed to computer program instructions encoded on a tangible program medium for execution by or for controlling the operation of a data processing device. can be implemented. A tangible program medium may be a radio wave signal or a computer-readable medium. A radio wave signal is an artificially generated signal, eg a machine-generated electrical, optical or electromagnetic signal, that is generated to encode information for transmission to an appropriate receiver device for execution by a computer. A computer-readable medium may be a machine-readable storage device, a machine-readable storage device, a machine-readable storage substrate, a memory device, a combination of materials that affect a machine-readable radio wave signal, or a combination of one or more thereof. can be
컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일 되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다.A computer program (also known as a program, software, software application, script or code) may be written in any form of programming language, including compiled or interpreted language or a priori or procedural language, and may be written as a stand-alone program or module; It can be deployed in any form, including components, subroutines, or other units suitable for use in a computer environment.
컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트)내에 저장될 수 있다.A computer program does not necessarily correspond to a file in a file system. A program may be stored in a single file provided with the requested program, or in multiple interactive files (eg, one or more scripts stored within a markup language document).
컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.The computer program may be deployed to be executed on a single computer or multiple computers located at one site or distributed over a plurality of sites and interconnected by a communication network.
부가적으로, 본 특허문헌에서 기술하는 논리 흐름과 구조적인 블록도는 개시된 구조적인 수단의 지원을 받는 대응하는 기능과 단계의 지원을 받는 대응하는 행위 및/또는 특정한 방법을 기술하는 것으로, 대응하는 소프트웨어 구조와 알고리즘과 그 등가물을 구축하는 데에도 사용 가능하다.Additionally, the logic flows and structural block diagrams described in this patent document describe corresponding acts and/or specific methods supported by corresponding functions and steps supported by the disclosed structural means, and corresponding It can also be used to build software structures and algorithms and their equivalents.
본 명세서에서 기술하는 프로세스와 논리 흐름은 입력 데이터 상에서 동작하고 출력을 생성함으로써 기능을 수행하기 위하여 하나 이상의 컴퓨터 프로그램을 실행하는 하나 이상의 프로그래머블 프로세서에 의하여 수행 가능하다.The processes and logic flows described herein may be performed by one or more programmable processors executing one or more computer programs to perform functions by operating on input data and generating output.
컴퓨터 프로그램의 실행에 적합한 프로세서는, 예컨대 범용 및 특수 목적의 마이크로프로세서 양자 및 어떤 종류의 디지털 컴퓨터의 어떠한 하나 이상의 프로세서라도 포함한다. 일반적으로, 프로세서는 읽기 전용 메모리나 랜덤 액세스 메모리 혹은 양자로부터 명령어와 데이터를 수신할 것이다.Processors suitable for the execution of computer programs include, for example, both general and special purpose microprocessors and any one or more processors of any kind of digital computer. Typically, the processor will receive instructions and data from read-only memory, random access memory, or both.
컴퓨터의 핵심적인 요소는 명령어와 데이터를 저장하기 위한 하나 이상의 메모리 장치 및 명령을 수행하기 위한 프로세서이다. 또한, 컴퓨터는 일반적으로 예컨대 자기, 자기광학 디스크나 광학 디스크와 같은 데이터를 저장하기 위한 하나 이상의 대량 저장 장치로부터 데이터를 수신하거나 그것으로 데이터를 전송하거나 혹은 그러한 동작 둘 다를 수행하기 위하여 동작가능 하도록 결합되거나 이를 포함할 것이다. 그러나, 컴퓨터는 그러한 장치를 가질 필요가 없다.A key element of a computer is one or more memory devices for storing instructions and data and a processor for executing instructions. In addition, a computer is generally operably coupled to receive data from, or transmit data to, one or more mass storage devices for storing data, such as, for example, magnetic, magneto-optical disks or optical disks, or to perform both such operations. or will include However, the computer need not have such a device.
본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다.The present description sets forth the best mode of the invention, and provides examples to illustrate the invention, and to enable any person skilled in the art to make or use the invention. This written specification does not limit the present invention to the specific terms presented.
따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 요컨대 본 발명이 의도하는 효과를 달성하기 위해 도면에 도시된 모든 기능 블록을 별도로 포함하거나 도면에 도시된 모든 순서를 도시된 순서 그대로 따라야만 하는 것은 아니며, 그렇지 않더라도 얼마든지 청구항에 기재된 본 발명의 기술적 범위에 속할 수 있음에 주의한다.Accordingly, although the present invention has been described in detail with reference to the above-described examples, those skilled in the art can make modifications, changes and modifications to the examples without departing from the scope of the present invention. In short, in order to achieve the intended effect of the present invention, it is not necessary to separately include all the functional blocks shown in the drawings or follow all the orders shown in the drawings. Note that it may fall within the scope.
이상의 본 발명은 도면에 도시된 실시 예(들)를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형이 이루어질 수 있으며, 상기 설명된 실시 예(들)의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적 사상에 의해 정해여야 할 것이다.Although the present invention has been described with reference to the embodiment(s) shown in the drawings, this is only exemplary, and various modifications may be made thereto by those skilled in the art, and the above-described embodiment It will be understood that all or part of (s) may optionally be combined. Accordingly, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.
[부호의 설명][Explanation of code]
100 : 사용자단말기 200 : 데이터 서버100: user terminal 200: data server
210 : 프리 프로세스 211 : 영상DB210: pre-process 211: image DB
212 : 사용자DB 213 : 오디오 분석부212: user DB 213: audio analysis unit
214 : 유사도 측정부 215 : 사용자 분석부214: similarity measurement unit 215: user analysis unit
220 : 메인 프로세스 221 : 리스트 생성부220: main process 221: list generator
222 : 멜로디 생성부 223 : 문제DB222: melody generator 223: problem DB
224 : 영상 설정부 225 : 퀴즈 출력부224: video setting unit 225: quiz output unit

Claims (14)

  1. 사용자 정보를 생성 및 송신하며, 추천 또는 선택한 뮤직비디오을 수신하여 출력하는 사용자 단말기;a user terminal that generates and transmits user information, and receives and outputs a recommended or selected music video;
    뮤직비디오 영상의 오디오 정보를 추출하여 뮤직비디오 분석정보를 생성하고, 상기 뮤직비디오 분석정보를 바탕으로 각각의 뮤직비디오 영상의 유사도를 판단하며, 사용자 정보를 바탕으로 유사한 학습유형을 가지는 사용자를 그룹화하는 프리 프로세스; 상기 프리 프로세스에서 분석된 정보를 바탕으로 사용자 맞춤형 뮤직비디오 영상을 추출하여 리스트화 하고, 영상 믹싱시 연결부위에 삽입되는 영상 및 음악을 생성하는 메인 프로세스;를 포함하는 데이터 서버;로 구성되는 인공지능 교육용 뮤직비디오 믹싱 시스템.Extracting audio information of a music video image to generate music video analysis information, determining the similarity of each music video image based on the music video analysis information, and grouping users with similar learning types based on user information pre-process; A data server comprising; a main process of extracting and listing user-customized music video images based on the information analyzed in the pre-process, and generating images and music inserted into the connection part when mixing images; artificial intelligence comprising Educational music video mixing system.
  2. 제 1항에 있어서,The method of claim 1,
    상기 프리 프로세스 는,The pre-process is
    뮤직비디오 영상정보 및 뮤직비디오 분석정보를 저장하는 영상DB;an image DB for storing music video image information and music video analysis information;
    사용자 나이, 성별, 지역정보, 직업, 학년을 포함하는 사용자 기본정보와 사용자 학습 정보, 임의의 영상에 대한 스킵, 반복재생, 즐겨찾기, 별점, 재생 횟수 정보를 포함하는 사용자 분석정보를 저장하는 사용자DB;Users who store basic user information including user age, gender, regional information, occupation, and grade, user learning information, and user analysis information including skip, repeat playback, favorites, star ratings, and number of times information for arbitrary images DB;
    상기 뮤직비디오 영상정보로부터 오디오 정보를 추출하여 텍스트 정보 및 멜로디 패턴정보를 생성하는 오디오 분석부;an audio analysis unit extracting audio information from the music video image information to generate text information and melody pattern information;
    딥러닝 알고리즘을 이용하여 상기 멜로디 정보를 분석하여 유사도 정보를 생성하고 상기 유사도 정보를 바탕으로 각 뮤직비디오 간의 유사도를 수치화하여 저장하는 유사도 측정부;a similarity measurer for generating similarity information by analyzing the melody information using a deep learning algorithm, and quantifying and storing the similarity between each music video based on the similarity information;
    상기 사용자 기본정보와 상기 사용자 분석정보를 기반으로 유사한 학습유형을 가지는 사용자들을 그룹화하여 저장하는 사용자 분석부;를 포함하는 인공지능 교육용 뮤직비디오 믹싱 시스템.A music video mixing system for artificial intelligence education comprising a; a user analysis unit for grouping and storing users having a similar learning type based on the user basic information and the user analysis information.
  3. 제 2항에 있어서,3. The method of claim 2,
    상기 뮤직비디오 분석정보는 뮤직비디오 난이도 정보를 포함하며, 임의의 뮤직비디오에 대한 초기 난이도 정보는 관리자가 설정하고, 상기 임의의 뮤직비디오와 유사한 주제를 가지는 테스트의 사용자 정답률에 의해 난이도가 조절되는 인공지능 교육용 뮤직비디오 믹싱 시스템.The music video analysis information includes music video difficulty information, the initial difficulty information for an arbitrary music video is set by an administrator, and the difficulty is adjusted by the user's correct rate of a test having a topic similar to the arbitrary music video. Music video mixing system for intelligent education.
  4. 제 2항에 있어서,3. The method of claim 2,
    상기 오디오 분석부는,The audio analysis unit,
    상기 오디오 정보로부터 가사 정보를 추출하고 상기 가사 정보를 텍스트로 변환 후 자연화 처리하여 텍스트 정보를 생성 및Extracting lyric information from the audio information, converting the lyric information into text, and naturalizing it to generate text information and
    상기 오디오 정보로부터 멜로디 정보를 추출하고 상기 멜로디 정보를 분석하여 멜로디 패턴 정보를 저장하는 인공지능 교육용 뮤직비디오 믹싱 시스템.A music video mixing system for artificial intelligence education that extracts melody information from the audio information and stores the melody pattern information by analyzing the melody information.
  5. 제 1항에 있어서,The method of claim 1,
    상기 메인 프로세스는,The main process is
    상기 사용자 정보에 대응되는 뮤직비디오 영상을 무작위로 추출하여 뮤직비디오 리스트를 생성하는 리스트 생성부;a list generator for generating a music video list by randomly extracting a music video image corresponding to the user information;
    상기 뮤직비디오 분석정보를 기반으로 출력된 뮤직비디오의 끝 부분 멜로디 정보와 다음에 출력될 뮤직비디오의 앞 부분 멜로디 정보의 패턴을 분석하여 두 멜로디 정보의 진행과 유사한 구간멜로디를 생성하는 멜로디 생성부;a melody generator for generating a section melody similar to the progress of the two pieces of melody information by analyzing the patterns of the melody information at the end of the output music video and the melody information at the beginning of the music video to be output next based on the analysis information of the music video;
    사용자의 학습수준을 파악할 수 있는 테스트에 출력되는 문제정보를 저장하는 문제DB;a problem DB for storing problem information output to a test that can determine the user's learning level;
    상기 사용자 단말기로부터 수신받은 영상설정정보를 기반으로 다양한 기능을 상기 사용자 단말기 화면에 출력하는 영상 설정부;를 포함하는 인공지능 교육용 뮤직비디오 믹싱 시스템.A music video mixing system for artificial intelligence education comprising a; an image setting unit for outputting various functions on the screen of the user terminal based on the image setting information received from the user terminal.
  6. 제 5항에 있어서,6. The method of claim 5,
    상기 문제DB로부터 상기 사용자 단말기에 출력되는 뮤직비디오의 학습주제와 유사한 퀴즈 문제를 추출하고, 상기 구간멜로디와 함께 상기 사용자 단말기 화면에 퀴즈문제를 출력하는 퀴즈출력부를 포함하는 인공지능 교육용 뮤직비디오 믹싱 시스템.A music video mixing system for artificial intelligence education including a quiz output unit that extracts a quiz question similar to a learning topic of a music video output to the user terminal from the question DB, and outputs a quiz question on the screen of the user terminal together with the section melody .
  7. 제 5항에 있어서,6. The method of claim 5,
    상기 리스트 생성부는,The list generator,
    무작위로 추출된 뮤직비디오 영상을 난이도가 낮은 영상에서 난이도가 높은 영상 순서대로 정렬하여 리스트화하는 인공지능 교육용 뮤직비디오 믹싱 시스템.A music video mixing system for artificial intelligence education that lists randomly extracted music video videos by sorting them from low difficulty to high difficulty.
  8. 제 5항에 있어서,6. The method of claim 5,
    상기 리스트 생성부는,The list generator,
    후보 뮤직비디오 영상을 추가로 추출하여 사용자가 현재 출력되는 뮤직비디오를 즐겨찾기 할 경우 선호도가 높다고 판단하여 출력되는 뮤직비디오와 유사도가 높은 뮤직비디오를 다음으로 출력하고,When a candidate music video is additionally extracted and the user favorites the currently output music video, it is judged that the preference is high, and the music video with high similarity to the output music video is output next,
    사용자가 현재 출력되는 뮤직비디오를 스킵 할 경우 선호도가 낮다고 판단하여 출력되는 뮤직비디오와 유사도가 낮은 뮤직비디오를 다음으로 출력하는 인공지능 교육용 뮤직비디오 믹싱 시스템.If the user skips the currently output music video, it is judged that the preference is low and the music video with low similarity to the output music video is output next.
  9. 제 5항에 있어서,6. The method of claim 5,
    상기 영상설정부는,The video setting unit,
    상기 텍스트 정보를 기반으로 자막을 생성하고, 학습주제에 대응되는 키워드 자막에 하이라이트 표시하여 상기 사용자 단말기 화면에 출력하는 인공지능 교육용 뮤직비디오 믹싱 시스템.A music video mixing system for artificial intelligence education for generating subtitles based on the text information, highlighting the keyword subtitles corresponding to the learning topic, and outputting them on the screen of the user terminal.
  10. 제 5항에 있어서,6. The method of claim 5,
    상기 영상설정부는,The video setting unit,
    뮤직비디오 영상 하단부에 형성된 재생바에 각각의 뮤직비디오 시작지점으로 이동이 가능한 책갈피 기능을 포함하는 인공지능 교육용 뮤직비디오 믹싱 시스템.A music video mixing system for artificial intelligence education that includes a bookmark function that can move to the starting point of each music video on the play bar formed at the bottom of the music video video.
  11. 상기 영상DB에 저장된 임의의 뮤직비디오에 대하여 오디오 정보를 추출하는 오디오 추출단계;an audio extraction step of extracting audio information for an arbitrary music video stored in the image DB;
    상기 오디오 정보로부터 가사를 추출하여 텍스트로 변환하고 상기 텍스트를 기반으로 자연화 처리하여 명사형태의 키워드를 추출하는 텍스트 정보 추출단계;a text information extraction step of extracting lyrics from the audio information, converting them into text, and performing naturalization processing based on the text to extract a keyword in the form of a noun;
    상기 오디오 정보로부터 멜로디를 추출하여 멜로디 정보를 생성하고 상기 멜로디 정보 분석을 통해 멜로디 패턴 정보를 생성하는 멜로디 패턴 정보 생성단계;a melody pattern information generation step of extracting a melody from the audio information to generate melody information, and generating melody pattern information through analysis of the melody information;
    상기 멜로디 패턴 정보를 수신하여 딥러닝 알고리즘을 적용한 분석을 통해 멜로디 특징을 추출하고 상기 멜로디 특징을 수치화하여 각각의 뮤직비디오 멜로디 특징을 분석하여 유사도 정보를 생성하는 유사도 정보 생성단계;a similarity information generation step of receiving the melody pattern information, extracting melody features through analysis applied with a deep learning algorithm, quantifying the melody features, and analyzing the melody features of each music video to generate similarity information;
    임의의 사용자 정보를 분석하여 사용자 학습유형정보를 생성하고 동일하거나 유사한 학습유형정보를 가지는 사용자들을 그룹화하여 유저그룹정보를 생성하는 그룹정보 생성단계;로 구성되는 인공지능 교육용 뮤직비디오 믹싱 방법.A group information generation step of generating user learning type information by analyzing arbitrary user information, and grouping users having the same or similar learning type information to generate user group information; A music video mixing method for artificial intelligence education consisting of.
  12. 상기 사용자 정보를 바탕으로 임의의 뮤직비디오를 추출하는 뮤직비디오 추출단계;a music video extraction step of extracting an arbitrary music video based on the user information;
    추출된 뮤직비디오의 난이도 정보를 수신하여 낮은 난이도를 가지는 뮤직비디오에서 높은 난이도를 가지는 뮤직비디오 순서대로 정렬하여 뮤직비디오 리스트정보를 생성하는 리스트 생성단계;a list generation step of receiving the extracted difficulty information of the music video and arranging the music video having the high difficulty from the music video having the low difficulty in order to generate the music video list information;
    상기 리스트정보에 해당하는 뮤직비디오의 멜로디 패턴정보를 수신하여 먼저 출력되는 뮤직비디오의 끝 부분의 멜로디 패턴정보와 다음에 출력되는 뮤직비디오의 앞 부분 멜로디 패턴정보를 분석하여 구간멜로디 정보를 생성하는 구간 멜로디 생성단계;A section in which the melody pattern information of the music video corresponding to the list information is received and section melody information is generated by analyzing the melody pattern information at the end of the first output music video and the melody pattern information at the front of the music video output next melody generation step;
    먼저 출력된 뮤직비디오에 대응되는 문제정보를 상기 문제정보DB에서 추출하는 문제추출단계;a problem extraction step of extracting problem information corresponding to the first output music video from the problem information DB;
    상기 구간멜로디 정보와 상기 문제정보를 기반으로 뮤직비디오 사이 연결부위에 삽입되는 구간영상을 생성하는 구간영상 생성단계;를 포함하는 인공지능 교육용 뮤직비디오 믹싱 방법.A music video mixing method for artificial intelligence education, including; a section image generation step of generating a section image to be inserted into a connection part between the music videos based on the section melody information and the problem information.
  13. 제 12항에 있어서13. The method of claim 12
    출제된 뮤직비디오에 대응되는 사용자 행동정보를 생성하는 행동정보 생성단계;a behavior information generation step of generating user behavior information corresponding to the presented music video;
    상기 사용자 행동정보를 분석하여 출력된 뮤직비디오에 대한 선호도 정보를 생성하는 선호도 정보 생성단계;a preference information generation step of analyzing the user behavior information to generate preference information for the output music video;
    상기 선호도 정보를 기반으로 선호도가 높은 뮤직비디오와 유사도 정보가 비슷한 임의의 뮤직비디오를 선정하여 뮤직비디오 리스트를 재생성하는 리스트 재생성단계;를 더 포함하는 인공지능 교육용 뮤직비디오 믹싱 방법.A music video mixing method for artificial intelligence education, further comprising: a list regeneration step of regenerating a music video list by selecting an arbitrary music video having similarity information to a high preference music video based on the preference information.
  14. 제 12항에 있어서,13. The method of claim 12,
    인공지능을 이용하여 상기 텍스트 정보를 내국어 및 외국어로 번역된 자막을 생성하는 자막생성단계;a subtitle generation step of generating subtitles translated into a native language and a foreign language by using artificial intelligence;
    사용자 단말기에 출력되는 뮤직비디오 리스트에 포함되는 뮤직비디오 영상정보를 수신하여 사용자 단말기 화면에 재생바를 생성하고 상기 재생바에 각각의 뮤직비디오 시작지점을 표시하는 책갈피를 생성하는 책갈피 생성단계;를 더 포함하는 인공지능 교육용 뮤직비디오 믹싱 방법.A bookmark generating step of receiving music video image information included in the music video list output to the user terminal, creating a play bar on the screen of the user terminal, and creating a bookmark for displaying each music video start point on the play bar; further comprising How to mix music video for AI education.
PCT/KR2020/014427 2020-10-21 2020-10-21 Artificial-intelligence-recommended educational music mixing streaming service WO2022085814A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/014427 WO2022085814A1 (en) 2020-10-21 2020-10-21 Artificial-intelligence-recommended educational music mixing streaming service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/014427 WO2022085814A1 (en) 2020-10-21 2020-10-21 Artificial-intelligence-recommended educational music mixing streaming service

Publications (1)

Publication Number Publication Date
WO2022085814A1 true WO2022085814A1 (en) 2022-04-28

Family

ID=81290518

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/014427 WO2022085814A1 (en) 2020-10-21 2020-10-21 Artificial-intelligence-recommended educational music mixing streaming service

Country Status (1)

Country Link
WO (1) WO2022085814A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170068366A (en) * 2015-12-09 2017-06-19 박승원 Device for playing video based on the understanding of the contents
WO2020021376A1 (en) * 2018-07-26 2020-01-30 Global File Systems Holdings, Llc User-managed content and advertising delivery based on similarity cohorts
KR20200024541A (en) * 2018-08-28 2020-03-09 십일번가 주식회사 Providing Method of video contents searching and service device thereof
KR20200048717A (en) * 2018-10-30 2020-05-08 주식회사 크리에이티브마인드 Method and apparatus for composing bridge music that connect two music
US10789620B2 (en) * 2017-02-03 2020-09-29 Adobe Inc. User segment identification based on similarity in content consumption

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170068366A (en) * 2015-12-09 2017-06-19 박승원 Device for playing video based on the understanding of the contents
US10789620B2 (en) * 2017-02-03 2020-09-29 Adobe Inc. User segment identification based on similarity in content consumption
WO2020021376A1 (en) * 2018-07-26 2020-01-30 Global File Systems Holdings, Llc User-managed content and advertising delivery based on similarity cohorts
KR20200024541A (en) * 2018-08-28 2020-03-09 십일번가 주식회사 Providing Method of video contents searching and service device thereof
KR20200048717A (en) * 2018-10-30 2020-05-08 주식회사 크리에이티브마인드 Method and apparatus for composing bridge music that connect two music

Similar Documents

Publication Publication Date Title
US20070118519A1 (en) Question answering system, data search method, and computer program
CN110457673B (en) Method and device for converting natural language into sign language
WO2010150986A2 (en) Apparatus and method for the lifelong study of words in a foreign language
WO2020204655A1 (en) System and method for context-enriched attentive memory network with global and local encoding for dialogue breakdown detection
CN107015969A (en) Can self-renewing semantic understanding System and method for
CN113035199B (en) Audio processing method, device, equipment and readable storage medium
WO2020107761A1 (en) Advertising copy processing method, apparatus and device, and computer-readable storage medium
WO2011068284A1 (en) Language learning electronic device driving method, system, and simultaneous interpretation system applying same
US20140164296A1 (en) Chatbot system and method with entity-relevant content from entity
WO2021010744A1 (en) Method and device for analyzing sales conversation based on speech recognition
CN114339285B (en) Knowledge point processing method, video processing method, device and electronic equipment
WO2021157956A1 (en) Broadcast management server and broadcast management method using same
WO2022145946A1 (en) System and method for learning language based on artificial intelligence-recommended training images and illustrative sentences
CN111443890A (en) Reading assisting method and device, storage medium and electronic equipment
Hafiar et al. Internet Utilization by the Students with Visual Impairment Disabilities.
CN115580758A (en) Video content generation method and device, electronic equipment and storage medium
WO2022085814A1 (en) Artificial-intelligence-recommended educational music mixing streaming service
WO2014133334A1 (en) Device for providing game linked with electronic book
WO2021118050A1 (en) Computer program for automatically editing highlights video
CN111815274A (en) Information processing method and device and electronic equipment
Trippas et al. Data Sets for Spoken Conversational Search.
CN116567351A (en) Video processing method, device, equipment and medium
CN114170856A (en) Machine-implemented hearing training method, device and readable storage medium
WO2020226227A1 (en) Brain science-based learning memory method, system, and recording medium
CN112182179A (en) Entity question-answer processing method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20958766

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20958766

Country of ref document: EP

Kind code of ref document: A1