WO2023167496A1 - Method for composing music by using artificial intelligence - Google Patents

Method for composing music by using artificial intelligence Download PDF

Info

Publication number
WO2023167496A1
WO2023167496A1 PCT/KR2023/002837 KR2023002837W WO2023167496A1 WO 2023167496 A1 WO2023167496 A1 WO 2023167496A1 KR 2023002837 W KR2023002837 W KR 2023002837W WO 2023167496 A1 WO2023167496 A1 WO 2023167496A1
Authority
WO
WIPO (PCT)
Prior art keywords
situation
user
composition
music
expression
Prior art date
Application number
PCT/KR2023/002837
Other languages
French (fr)
Korean (ko)
Inventor
손다영
Original Assignee
손다영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 손다영 filed Critical 손다영
Publication of WO2023167496A1 publication Critical patent/WO2023167496A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments

Definitions

  • the present invention relates to a method for composing music through artificial intelligence, and more particularly, to a technology for supporting music composition through artificial intelligence so that a user's emotional state and everyday life can be expressed musically.
  • Music can be the most effective way to express people's emotions or current situations. In particular, it is possible to express one's feelings or situations through writing, but there are limitations in expressing subtle feelings or situations with vocabulary, so it is common that the feelings or situations are not accurately conveyed to the reader so that they can empathize. On the other hand, musical expression can reflect various and fine elements that cannot be expressed lexically, so the degree of empathy of the listener can be further improved.
  • the present invention has been made to solve the problems of the prior art as described above, and is intended to provide a method of supporting music composition so that a user's emotional state and daily life can be expressed musically.
  • An embodiment of a method for composing music using artificial intelligence includes a basic element extraction step of extracting a base rhythm according to a user's expression situation through artificial intelligence; Auxiliary element extraction step of extracting any one or more of a plurality of melodies or a plurality of harmonies corresponding to the expression situation through the artificial intelligence; an auxiliary element selection step in which one or more of a plurality of melodies or a plurality of harmonies extracted from the user is selected; and a composition generating step of generating a music composition by combining one or more melodies or harmonies selected based on the bass rhythm extracted through the artificial intelligence.
  • the basic element extraction step may include receiving text or humming from a user and determining the user's expression situation based on this; and extracting a bass rhythm corresponding to the user's expression situation from a database holding bass rhythms for each expression situation, wherein the extracting of auxiliary elements comprises a plurality of melodies or extracting a plurality of harmonies; and determining a plurality of melodies or a plurality of harmonies to be recommended based on the extracted bass rhythm.
  • the generating of the composition may include combining one or more melodies or one or more harmonies selected with the bass rhythm for each measure; and combining and arranging a plurality of measures to create a musical composition.
  • it may further include a context expression information generation step of providing a list of one or more instruments suitable for the musical composition to a user, selecting one or more instruments, and generating context expression information for playing the music composition with the selected instrument.
  • a context expression information generation step of providing a list of one or more instruments suitable for the musical composition to a user, selecting one or more instruments, and generating context expression information for playing the music composition with the selected instrument.
  • an emotion graph or an emotion image corresponding to the music composition may be generated and situation expression information including the emotional graph or emotion image may be generated.
  • the method may further include a step of storing the situation expression information by organizing the situation expression information by date corresponding to the user's expression situation and accumulatively storing the situation expression information or linking the situation expression information to the user's social networking service (SNS).
  • SNS social networking service
  • music can overcome the limitation that the feelings or situations cannot be conveyed in a sympathetic way to the reader.
  • composition results can be generated to suit the emotion or situation at the time, so that the user's emotion or expression of the situation can be faithfully reflected.
  • the user can feel the emotions felt at that time more effectively by replaying the musical results made by the user later.
  • FIG. 1 shows one embodiment of a music composition system according to the present invention.
  • FIG. 2 shows a configuration diagram of an embodiment of a composition support service device of a music composition system according to the present invention.
  • FIG. 3 shows a block diagram of an embodiment of a database of a music composition system according to the present invention.
  • Figure 4 shows a flow diagram of one embodiment of a music composition method according to the present invention.
  • Figure 5 shows a flow diagram of another embodiment of a music composition method according to the present invention.
  • FIG. 6 shows a flow diagram of another embodiment of a music composition method according to the present invention.
  • the present invention proposes a technology for supporting music composition through artificial intelligence so that a user's emotional state and daily life can be expressed musically.
  • FIG. 1 shows one embodiment of a music composition system according to the present invention.
  • a music composing system may include a user terminal 10 , a composition support service device 100 , a database 200 , and the like.
  • the user terminal 10 may connect to the composition support service device 100 and provide information about the user's emotional state and daily life to the composition support service device 100 and receive a music sub-grain based thereon.
  • various communication terminals that can access the composition support service device 100 and allow the user to input their own expression state may be applied.
  • a generally popular terminal such as a smart phone 10a, a laptop computer 10b, and a PC 10c may be applied.
  • the user may transmit various situations, such as his/her emotional state and daily life, to the composition support service device 100 through the user terminal 10 .
  • the user may input text such as a word or sentence corresponding to a situation to be expressed or humming.
  • you can also input an image such as a photo or video containing your situation.
  • the user may select or process various pieces of information provided from the composition support service device 100 through the user terminal 10 .
  • the composition support service device 100 receives various situational information such as the user's emotional state and daily life through the user terminal 10 and analyzes it through artificial intelligence to obtain musical basic elements and musical auxiliary elements suitable for the user's expression situation. can be extracted and combined or processed to create a musical composition.
  • the musical elements can include rhythm, melody, and harmony.
  • Rhythm the flow of beats
  • the melody, melody, and harmony added to it are auxiliary elements.
  • the composition support service device 100 may extract, process, and combine these musical elements to generate a music composition corresponding to the user's expression situation.
  • the composition support service device 100 may obtain various musical element information about rhythm, melody, harmony, and the like through the Internet network 30 .
  • the composition support service device 100 collects various music information and interpretation information present on the Internet network 30 and provides rhythm, melody, harmony, etc. through artificial intelligence learning. It is possible to distinguish which situation expression can correspond to.
  • the composition support service device 100 may classify music element information about rhythm, melody, harmony, and the like for each situation expression and store it in the database 200 .
  • composition support service device 100 may hold various instrument information and generate situational expression information in which the created music composition is played with the instrument.
  • composition support service device 100 may generate situation expression information by generating an emotion graph or an emotion image corresponding to a music composition and matching them.
  • the composition support service device 100 may generate an emotion graph that changes according to the performance of a music composition or an image corresponding to an emotional state, or a photograph input by a user corresponding to a performance state of a music composition.
  • Situational expression information may be generated by matching images or videos.
  • composition support service device 100 may organize and store the generated situational expression information in the database 200 .
  • the composition support service device 100 may store situation expression information for each date corresponding to the user's diary format.
  • the composition support service device 100 may classify the situation expression information according to situations felt by the user, classify the situation expression information according to categories, and store the situation expression information.
  • Situational expression information can be classified and stored in various ways. It can be classified and stored in categories by emotion, such as emotions felt by the user, or classified and stored in categories by period or date. It may be classified into categories for each subject and stored.
  • the user's situation expression information stored in this way may be later provided to the user terminal 10 by extracting the situation expression information stored in the database 200 from the composition support service device 100 according to the user's request.
  • the composition support service device 100 may provide corresponding situation expression information to the social networking service 50 in association with the social networking service (SNS) 50 .
  • SNS social networking service
  • the composition support service device 100 may provide corresponding situation expression information to the social networking service 50 in association with the social networking service (SNS) 50 .
  • SNS social networking service
  • FIG. 2 will be described in more detail with reference to a configuration diagram of an embodiment of the composition support service device of the music composition system according to the present invention. .
  • the composition support service apparatus 100 may include an expression situation recognition unit 110, a music element extraction unit 120, a composition generation unit 130, a situation expression information generation unit 140, and the like.
  • the expression situation recognition unit 110 may receive information about various users' emotional states, daily life, etc. through the user terminal 10 and analyze them to recognize a situation that the user wants to express.
  • the music element extractor 120 may extract a musical element corresponding to the analyzed expression situation of the user.
  • a bass rhythm according to the user's expression situation may be extracted, and various melodies and harmonies corresponding to the user's expression situation may be extracted based on the bass rhythm.
  • the music element extractor 120 may extract music element information corresponding to the corresponding expression situation from the music element information previously stored in the database 200, or search the Internet network 30 to respond to the corresponding expression situation. You can also extract the music elements that are.
  • the composition generator 130 may generate a music composition by combining and processing the musical elements extracted by the music element extractor 120 .
  • various bass rhythms suitable for the user's expression situation are presented to the user so that the user can select the rhythm desired by the user, and various melodies and harmonies suitable for the user's expression situation are presented to the user to select the melody and harmony desired by the user. may be selected.
  • the composition generator 130 creates music compositions by combining and processing various melodies and harmonies to the bass rhythm suitable for the user's expression situation through artificial intelligence without the user's selection. You may.
  • composition generator 130 provides the music composition as a sheet music to the user terminal 10 so that the user can check it, and when the user directly selects or processes the desired melody and harmony, dissonance, pitch, tempo It is also possible to evaluate the appropriateness of musical elements such as etc. and provide feedback on them.
  • composition generator 130 may receive lyrics for a corresponding music composition through the user terminal 10 and match them to the music composition.
  • the context expression information generating unit 140 may generate context expression information suitable for the user's expression situation by matching additional information to the music composition generated by the composition generator 130 .
  • the context expression information generating unit 140 may select an instrument suitable for playing a musical composition from among various instruments or provide a list of instruments to the user to generate context expression information in which the musical composition is played with the user's selected instrument. there is.
  • the situation expression information generation unit 140 may generate situation expression information by generating an emotion graph or an emotion image corresponding to a music composition and matching it to the music composition. For example, situational expression information in which a picture or video of a user is matched together with a performance of a musical composition may be generated.
  • the situation expression information generation unit 140 may arrange and store the generated situation expression information by date corresponding to the expression situation of the user in the database 200 .
  • the corresponding situation expression information may be maintained and stored in the database 200 in the form of a diary, or the corresponding situation expression information may be classified and stored in the database 200 for each category of situation expression.
  • the context expression information stored in the database 200 may be provided to the user terminal 10 by extracting the context expression information generation unit 140 upon a user's request later.
  • the context expression information generator 140 may provide context expression information in association with the social networking service 50 .
  • FIG. 3 shows a block diagram of an embodiment of a database of a music composition system according to the present invention.
  • the database 200 may include a music element information storage unit 210, a situation expression information storage unit 250, and the like.
  • the music element information storage unit 210 may store music element information about rhythm, melody, harmony, and the like.
  • rhythm information can be classified and stored according to various emotions or situations as basic element information
  • various melodies and harmonies can be classified and stored according to various emotions or situations as auxiliary element information.
  • the situation expression information storage unit 250 may classify and store music compositions or situation expression information.
  • the situation expression information storage unit 250 may classify and store only music compositions generated by the composition support service device 100 by emotion, situation, and date, or may classify and store situation expression information in which various information is added to music compositions. It can also be classified and stored by date, situation, and date.
  • the present invention proposes a method of supporting music composition using the music composition system according to the present invention described above.
  • Figure 4 shows a flow diagram of one embodiment of a music composition method according to the present invention.
  • the composition support service device 100 may receive information about a situation to be expressed by the user through the user terminal 10 (S110).
  • the user's expression situation information may be text information such as words and sentences, humming information, or image information such as photos and videos.
  • the composition support service device 100 may recognize a situation to be expressed by the user based on the provided information on the expression situation of the user (S120). For example, artificial intelligence can determine the emotional state or situational state and recognize the situation the user wants to express through word and sentence analysis for text information, rhythm and melody analysis for humming information, or video analysis for photos or videos. can
  • the composition support service device 100 may extract bass rhythm information as a basic musical element according to a situation that the user wants to express (S130).
  • the composition support service device 100 may extract bass rhythm information from the database 200 for each emotion or situation, or may extract bass rhythm information from the Internet network 30 .
  • composition support service device 100 may extract a plurality of pieces of melody information or a plurality of pieces of harmony information corresponding to a situation that the user wants to express (S140).
  • the composition support service device 100 may extract various melody rhythm information or harmony information from the database 200 for each emotion or situation through artificial intelligence, or extract various melody rhythm information or harmony information from the Internet network 30. may be
  • the extracted melody may be in the form of a minimalism patterned melody, and romantic music or modern musical harmony composed only of basic triads that are not too classical may be extracted by reflecting the latest trend.
  • the composition support service apparatus 100 may recommend melodies and harmonies suitable for the user's expression situation to the user by determining a plurality of melodies or a plurality of harmonies to be recommended to the user based on the basic bass rhythm.
  • composition support service device 100 may present the extracted plurality of melodies to the user through the user terminal 10 and support the user to set the tempo, notes, number of bars, instruments, and the number of melodies.
  • composition support service apparatus 100 may support a user to select a melody most similar to his or her feelings among a plurality of melodies.
  • the composition support service device 100 may create a music composition by combining and processing (S150) one or more melodies or harmonies selected based on the base rhythm extracted through artificial intelligence (S160).
  • the composition support service device 100 may generate a music composition by combining one or more melodies or one or more harmonies selected in a bass rhythm through artificial intelligence for each measure and combining and arranging a plurality of measures.
  • composition support service device 100 provides a musical composition as a sheet music to the user terminal 10 so that the user can check it, and when the user directly selects or processes a desired melody and harmony, dissonance, pitch, tempo It is also possible to evaluate the appropriateness of musical elements such as etc. and provide feedback on them.
  • composition support service device 100 may receive lyrics for a corresponding music composition through the user terminal 10 and match them to the music composition.
  • the composition support service device 100 may provide the user with a list of instruments suitable for the generated music composition through the user terminal 10 and may generate situational expression information in which the music composition is played with the user's selected instrument.
  • the musical composition and situation expression information generated in this way may be provided to the user through the user terminal 10 or the like.
  • situation expression information may be generated by reflecting various states of a user in addition to a music composition. let's take a look
  • the composition support service device 100 creates a music composition through the above-described embodiment (S210), additionally creates an emotion graph or emotion image corresponding to the music composition (S220), and converts the emotion graph or emotion image to the music composition.
  • Situational expression information reflected in the performance of water may be generated (S230).
  • an emotion graph that changes in various ways according to the playing state of the music composition or various images expressing emotions may be created and inserted along with the performance of the music composition.
  • situational expression information may be created by inserting a user's photo, video, or text so that it can be displayed together with the performance of the music composition.
  • composition support service device 100 may accumulate and store situational expression information in the form of a diary in the database 200 . At this time, a date or a user's comment may be matched with the situation expression information and stored in the database 200 .
  • composition support service device 100 may classify categories for each corresponding emotion or situation and store situational expression information in the database 200 .
  • Situational expression information can be classified and stored in various ways. It can be classified and stored in categories by emotion, such as emotions felt by the user, or classified and stored in categories by period or date. It may be classified into categories for each subject and stored.
  • composition support service device 100 may link the generated situational expression information or the situational expression information stored in the database 200 with the social networking service 50 (S250) and reflect them on the user's social network.
  • the user's situation expression information stored in this way may be provided to the user terminal 10 or the like according to the user's request in the future.
  • FIG. show
  • the composition support service device 100 organizes and stores the situation expression information reflecting the user's emotion or situation, and provides a category-by-category list of situation expression information upon a user's request through the user terminal 10 (S310).
  • a list may be provided by emotion category such as joy, anger, sadness, etc.
  • a list may be provided by category by period or date, or a category list by subject who feels emotion or situation may be provided.
  • the user may select a desired situation expression from the list provided to the user terminal 10 (S320), and the composition support service device 100 corresponds to the user's selection and corresponding situation expression information in the database 200. Can be selectively extracted (S330).
  • composition support service device 100 may provide the extracted context expression information to the user terminal 10 to reproduce the context expression information (S340).
  • the user can feel the emotion or situation felt at that time again as it is by displaying the text, photo, video, etc. together with the music.
  • music can overcome the limitation that the feelings or situations cannot be conveyed in a sympathetic way to the reader.
  • composition results can be generated to suit the emotion or situation at the time, so that the user's emotion or expression of the situation can be faithfully reflected.
  • the user can feel the emotions felt at that time more effectively by replaying the musical results made by the user later.
  • composition support service device 100: composition support service device
  • composition generation unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Primary Health Care (AREA)
  • Acoustics & Sound (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Educational Technology (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Educational Administration (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

Disclosed is a method for composing music through artificial intelligence so that the emotional state and daily life of a user can be expressed musically.

Description

인공지능을 이용한 음악 작곡 방법How to compose music using artificial intelligence
본 발명은 인공지능을 통한 음악 작곡 방법으로서, 보다 상세하게는 사용자의 감정 상태와 일상 생활 모습을 음악적으로 표현 가능하도록 인공지능을 통해 음악 작곡을 지원하는 기술에 대한 것이다.The present invention relates to a method for composing music through artificial intelligence, and more particularly, to a technology for supporting music composition through artificial intelligence so that a user's emotional state and everyday life can be expressed musically.
음악은 사람의 감정이나 현재 상황을 표현하는데 가장 효과적인 수단일 수 있다. 특히, 글로써 자신의 감정이나 상황 표현이 가능하지만 미세한 감정이나 상황을 어휘로 표현하는데 한계가 있기에 글을 읽는 사람에게 그 감정이나 상황이 공감 가능하도록 정확하게 전달되지 못하는 경우가 다반사이다. 이에 반해 음악적 표현은 어휘적으로 표현할 수 없는 다양하고 미세한 요소가 반영될 수 있기에 이를 듣는 사람의 공감 정도가 더욱 향상될 수 있다.Music can be the most effective way to express people's emotions or current situations. In particular, it is possible to express one's feelings or situations through writing, but there are limitations in expressing subtle feelings or situations with vocabulary, so it is common that the feelings or situations are not accurately conveyed to the reader so that they can empathize. On the other hand, musical expression can reflect various and fine elements that cannot be expressed lexically, so the degree of empathy of the listener can be further improved.
허나 일반인들은 음악 작곡 지식을 갖지 못하기에 자신의 감정이나 상황을 음악적 요소로 표현할 수 없는 문제가 있다. 하여 사용자가 보다 쉽게 작곡이 가능한 음악 작곡 어플리케이션이 다양하게 제시되고 있다.However, since ordinary people do not have music composition knowledge, there is a problem in that they cannot express their feelings or situations through musical elements. As a result, various music composing applications that allow users to compose more easily have been proposed.
최근에는 인공지능 기술 발달에 따라 인공지능을 통한 음악 작곡 기술이 제시되고 있다. 하지만 이러한 작곡 기술들은 단순히 정해진 패턴에 따라 작곡 결과물을 생성하기에 사용자의 감정이나 상황 표현이 충실히 반영되지 못하는 문제가 있다.Recently, with the development of artificial intelligence technology, music composition technology through artificial intelligence has been proposed. However, since these composition techniques simply generate composition results according to a predetermined pattern, there is a problem in that the user's emotion or expression of the situation is not faithfully reflected.
본 발명이 속하는 기술분야의 선행기술문헌에는 한국등록특허 제10-1886534호 등이 있다.Prior art documents in the technical field to which the present invention belongs include Korean Patent Registration No. 10-1886534 and the like.
본 발명은 상술한 바와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 사용자의 감정 상태와 일상 생활 모습을 음악적으로 표현 가능하도록 음악 작곡을 지원하는 방안을 제공하고자 한다.The present invention has been made to solve the problems of the prior art as described above, and is intended to provide a method of supporting music composition so that a user's emotional state and daily life can be expressed musically.
특히, 자신의 감정이나 상황을 글로써 표현하는 경우, 이를 읽는 사람에게 그 감정이나 상황이 공감 가능하도록 전달되지 못하는 한계를 음악으로 극복할 수 있는 기술을 제시하고자 한다.In particular, in the case of expressing one's feelings or situations in writing, I would like to present a technique that can overcome the limitation that the feelings or situations cannot be conveyed in a sympathetic way to the reader through music.
나아가서 종래 작곡을 지원하는 기술들의 경우, 단순히 정해진 패턴에 따라 작곡 결과물을 생성하기에 사용자의 감정이나 상황 표현이 충실히 반영되지 못하는 문제를 해결하고자 한다.Furthermore, in the case of conventional technologies supporting composition, a problem in which a user's emotion or situational expression is not faithfully reflected is intended to be solved simply because a composition result is generated according to a predetermined pattern.
본 발명의 목적은 전술한 바에 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있다. The object of the present invention is not limited to the above, and other objects and advantages of the present invention not mentioned can be understood by the following description.
본 발명에 따른 인공지능을 이용한 음악 작곡 방법의 일실시예는, 인공 지능을 통해 사용자의 표현 상황에 따른 베이스 리듬(Rhythm)를 추출하는 기본 요소 추출 단계; 상기 인공 지능을 통해 상기 표현 상황에 대응되는 복수의 멜로디(Melody) 또는 복수의 하모니(Harmony) 중 어느 하나 이상을 추출하는 보조 요소 추출 단계; 상기 사용자로부터 추출된 복수의 멜로디 또는 복수의 하모니 중 어느 하나 이상에 대하여 선택받는 보조 요소 선택 단계; 및 상기 인공 지능을 통해 추출된 베이스 리듬을 기초로 선택된 하나 이상의 멜로디 또는 하모니를 조합하여 음악 작곡물을 생성하는 작곡물 생성 단계를 포함할 수 있다.An embodiment of a method for composing music using artificial intelligence according to the present invention includes a basic element extraction step of extracting a base rhythm according to a user's expression situation through artificial intelligence; Auxiliary element extraction step of extracting any one or more of a plurality of melodies or a plurality of harmonies corresponding to the expression situation through the artificial intelligence; an auxiliary element selection step in which one or more of a plurality of melodies or a plurality of harmonies extracted from the user is selected; and a composition generating step of generating a music composition by combining one or more melodies or harmonies selected based on the bass rhythm extracted through the artificial intelligence.
일례로서, 상기 기본 요소 추출 단계는, 사용자로부터 텍스트(Text) 또는 허밍(Humming)을 입력받고 이를 기초로 사용자의 표현 상황을 판단하는 단계; 및 표현 상황별로 베이스 리듬이 보유된 데이터베이스에서 사용자의 표현 상황에 대응되는 베이스 리듬을 추출하는 단계를 포함하며, 상기 보조 요소 추출 단계는, 데이터베이스에 보유된 음악에서 표현 상황에 대응되는 복수의 멜로디 또는 복수의 하모니를 추출하는 단계; 및 추출한 베이스 리듬을 기초로 추천할 복수의 멜로디 또는 복수의 하모니를 판단하는 단계를 포함할 수 있다.As an example, the basic element extraction step may include receiving text or humming from a user and determining the user's expression situation based on this; and extracting a bass rhythm corresponding to the user's expression situation from a database holding bass rhythms for each expression situation, wherein the extracting of auxiliary elements comprises a plurality of melodies or extracting a plurality of harmonies; and determining a plurality of melodies or a plurality of harmonies to be recommended based on the extracted bass rhythm.
일례로서, 상기 작곡물 생성 단계는, 상기 베이스 리듬에 선택된 하나 이상의 멜로디 또는 하나 이상의 하모니를 마디별로 조합하는 단계; 및 복수의 마디를 조합 배열하여 음악 작곡물을 생성하는 단계를 포함할 수 있다.As an example, the generating of the composition may include combining one or more melodies or one or more harmonies selected with the bass rhythm for each measure; and combining and arranging a plurality of measures to create a musical composition.
바람직하게는 상기 음악 작곡물에 적합한 하나 이상의 악기 리스트를 사용자에게 제공하여 하나 이상의 악기를 선택받고, 선택된 악기로 상기 음악 작곡물을 연주한 상황 표현 정보를 생성하는 상황 표현 정보 생성 단계를 더 포함할 수 있다.Preferably, it may further include a context expression information generation step of providing a list of one or more instruments suitable for the musical composition to a user, selecting one or more instruments, and generating context expression information for playing the music composition with the selected instrument. can
나아가서 상기 상황 표현 정보 생성 단계는, 상기 음악 작곡물에 대응되는 감정 그래프 또는 감정 이미지를 생성하고 이를 포함하는 상황 표현 정보를 생성할 수 있다.Furthermore, in the generating of the situation expression information, an emotion graph or an emotion image corresponding to the music composition may be generated and situation expression information including the emotional graph or emotion image may be generated.
한걸음 더 나아가서 상기 상황 표현 정보를 사용자의 표현 상황에 대응되는 일자별로 정리하여 누적 보관하거나 사용자의 소셜 네트워킹 서비스(SNS)에 연계시키는 상황 표현 정보 보관 단계를 더 포함할 수 있다.Further, the method may further include a step of storing the situation expression information by organizing the situation expression information by date corresponding to the user's expression situation and accumulatively storing the situation expression information or linking the situation expression information to the user's social networking service (SNS).
이와 같은 본 발명에 의하면, 사용자의 감정 상태와 일상 생활 모습 등을 음악적으로 표현 가능하도록 음악 작곡을 지원할 수 있다.According to the present invention, it is possible to support music composition so that the user's emotional state and daily life can be expressed musically.
특히, 자신의 감정이나 상황을 글로써 표현하는 경우, 이를 읽는 사람에게 그 감정이나 상황이 공감 가능하도록 전달되지 못하는 한계를 음악으로 극복할 수 있게 된다.In particular, in the case of expressing one's feelings or situations in writing, music can overcome the limitation that the feelings or situations cannot be conveyed in a sympathetic way to the reader.
나아가서 당시 감정이나 상황에 적합하게 다양한 작곡 결과물을 생성할 수 있어 해당 사용자의 감정이나 상황 표현이 충실히 반영될 수 있다.Furthermore, various composition results can be generated to suit the emotion or situation at the time, so that the user's emotion or expression of the situation can be faithfully reflected.
또한 사용자가 특정 상황 또는 특정 기간에 느꼈던 감정을 음악적 결과물의 일기 형식으로 남길 수 있도록 지원함으로써 추후 사용자가 자신이 만든 음악적 결과물을 재생함으로써 그 당시 느꼈던 감정을 더욱 효과적으로 느낄 수 있게 된다.In addition, by supporting the user to leave the emotions felt in a specific situation or period in the form of a diary of musical results, the user can feel the emotions felt at that time more effectively by replaying the musical results made by the user later.
아울러 사용자의 감정 등을 표현한 음악적 결과물을 소셜 네트워킹 서비스(SNS)에 연계시킴으로써 말이나 글로 표현될 수 없는 감정 등이 상대방에게 효과적으로 전달될 수 있다.In addition, by linking the musical results expressing the user's emotions to a social networking service (SNS), emotions that cannot be expressed in words or writing can be effectively conveyed to the other party.
본 발명의 효과는 위에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명에 따른 음악 작곡 시스템의 일실시예를 도시한다.1 shows one embodiment of a music composition system according to the present invention.
도 2는 본 발명에 따른 음악 작곡 시스템의 작곡 지원 서비스 장치에 대한 일실시예의 구성도를 도시한다.2 shows a configuration diagram of an embodiment of a composition support service device of a music composition system according to the present invention.
도 3은 본 발명에 따른 음악 작곡 시스템의 데이터베이스에 대한 일실시예의 구성도를 도시한다.3 shows a block diagram of an embodiment of a database of a music composition system according to the present invention.
도 4은 본 발명에 따른 음악 작곡 방법의 일실시예에 대한 흐름도를 도시한다.Figure 4 shows a flow diagram of one embodiment of a music composition method according to the present invention.
도 5는 본 발명에 따른 음악 작곡 방법의 다른 실시예에 대한 흐름도를 도시한다.Figure 5 shows a flow diagram of another embodiment of a music composition method according to the present invention.
도 6은 본 발명에 따른 음악 작곡 방법의 또 다른 실시예에 대한 흐름도를 도시한다.6 shows a flow diagram of another embodiment of a music composition method according to the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세하게 설명하지만, 본 발명이 실시예들에 의해 한정되거나 제한되는 것은 아니다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the present invention is not limited or limited by the embodiments.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 설명하기 위하여 이하에서는 본 발명의 바람직한 실시예를 예시하고 이를 참조하여 살펴본다.In order to explain the present invention and the operational advantages of the present invention and the objects achieved by the practice of the present invention, the following describes a preferred embodiment of the present invention and references it.
먼저, 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 또한 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.First, the terms used in this application are used only to describe specific embodiments, and are not intended to limit the present invention, and singular expressions may include plural expressions unless the context clearly dictates otherwise. In addition, in this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other It should be understood that the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.
본 발명을 설명함에 있어서, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted.
본 발명은 사용자의 감정 상태와 일상 생활 모습을 음악적으로 표현 가능하도록 인공지능을 통해 음악 작곡을 지원하는 기술을 제시한다.The present invention proposes a technology for supporting music composition through artificial intelligence so that a user's emotional state and daily life can be expressed musically.
도 1은 본 발명에 따른 음악 작곡 시스템의 일실시예를 도시한다.1 shows one embodiment of a music composition system according to the present invention.
본 발명에 따른 음악 작곡 시스템은, 사용자 단말기(10), 작곡 지원 서비스 장치(100), 데이터 베이스(200) 등을 포함할 수 있다.A music composing system according to the present invention may include a user terminal 10 , a composition support service device 100 , a database 200 , and the like.
사용자 단말기(10)는 작곡 지원 서비스 장치(100)에 접속하여 사용자의 감정 상태와 일상 생활 모습 등에 대한 정보를 작곡 지원 서비스 장치(100)로 제공하고 이를 기초로 음악 자곡물을 제공받을 수 있다.The user terminal 10 may connect to the composition support service device 100 and provide information about the user's emotional state and daily life to the composition support service device 100 and receive a music sub-grain based thereon.
사용자 단말기(10)로서는 작곡 지원 서비스 장치(100)에 접속하여 사용자가 자신의 표현 상태를 입력할 수 있는 다양한 통신 단말기가 적용될 수 있다. 일례로서, 스마트폰(10a), 노트북(10b), PC(10c) 등 일반적으로 보급되는 단말기가 적용될 수 있다.As the user terminal 10, various communication terminals that can access the composition support service device 100 and allow the user to input their own expression state may be applied. As an example, a generally popular terminal such as a smart phone 10a, a laptop computer 10b, and a PC 10c may be applied.
사용자는 사용자 단말기(10)를 통해 자신의 감정 상태, 일상 생활 모습 등 다양한 상황을 작곡 지원 서비스 장치(100)로 전달할 수 있다. 일례로서, 사용자는 자신이 표현하고자 하는 상황에 대응되는 단어나 문장 등의 텍스트(Text)를 입력하거나 흥얼거리는 허밍(Humming)을 입력할 수 있다. 또는 자신의 상황이 담긴 사진이나 동영상 등의 이미지를 입력할 수도 있다.The user may transmit various situations, such as his/her emotional state and daily life, to the composition support service device 100 through the user terminal 10 . As an example, the user may input text such as a word or sentence corresponding to a situation to be expressed or humming. Alternatively, you can also input an image such as a photo or video containing your situation.
그리고 사용자는 사용자 단말기(10)를 통해 작곡 지원 서비스 장치(100)에서 제공되는 다양한 정보들을 선택하거나 가공할 수 있다.Also, the user may select or process various pieces of information provided from the composition support service device 100 through the user terminal 10 .
작곡 지원 서비스 장치(100)는 사용자 단말기(10)를 통해 사용자의 감정 상태, 일상 생활 모습 등 다양한 상황 정보를 제공받고 인공 지능을 통해 이를 분석하여 사용자의 표현 상황에 적합한 음악적 기본 요소와 음악적 보조 요소를 추출하고 이를 조합하거나 가공하여 음악 작곡물을 생성할 수 있다.The composition support service device 100 receives various situational information such as the user's emotional state and daily life through the user terminal 10 and analyzes it through artificial intelligence to obtain musical basic elements and musical auxiliary elements suitable for the user's expression situation. can be extracted and combined or processed to create a musical composition.
여기서 음악적 요소는 리듬(Rhythm), 멜로디(Melody), 하모니(Harmony)를 포함할 수 있으며, 박자의 흐름인 리듬을 기본 요소로 설정하고 여기에 추가되는 가락, 선율의 멜로디와 화성인 하모니를 보조 요소로 설정할 수 있다. 그리고 작곡 지원 서비스 장치(100)는 이들 음악적 요소들을 추출하고 가공 및 조합하여 사용자의 표현 상황에 대응되는 음악 작곡물을 생성할 수 있다.Here, the musical elements can include rhythm, melody, and harmony. Rhythm, the flow of beats, is set as the basic element, and the melody, melody, and harmony added to it are auxiliary elements. can be set to In addition, the composition support service device 100 may extract, process, and combine these musical elements to generate a music composition corresponding to the user's expression situation.
작곡 지원 서비스 장치(100)는 리듬(Rhythm), 멜로디(Melody), 하모니(Harmony) 등에 대한 다양한 음악적 요소 정보를 인터넷망(30)을 통해 획득할 수 있다.The composition support service device 100 may obtain various musical element information about rhythm, melody, harmony, and the like through the Internet network 30 .
가령, 작곡 지원 서비스 장치(100)는 인터넷망(30)에 존재하는 다양한 음악 정보와 이에 대한 해석 정보를 수집하고 인공 지능의 학습을 통해 리듬(Rhythm), 멜로디(Melody), 하모니(Harmony) 등에 대하여 어떤 상황 표현에 대응될 수 있는지를 구분할 수 있다. 아울러 작곡 지원 서비스 장치(100)는 상황 표현별로 리듬(Rhythm), 멜로디(Melody), 하모니(Harmony) 등에 대한 음악 요소 정보를 분류하여 데이터베이스(200)에 보관할 수 있다.For example, the composition support service device 100 collects various music information and interpretation information present on the Internet network 30 and provides rhythm, melody, harmony, etc. through artificial intelligence learning. It is possible to distinguish which situation expression can correspond to. In addition, the composition support service device 100 may classify music element information about rhythm, melody, harmony, and the like for each situation expression and store it in the database 200 .
나아가서 작곡 지원 서비스 장치(100)는 다양한 악기 정보를 보유하고 생성된 음악 작곡물을 악기로 연주한 상황 표현 정보를 생성할 수 있다.Furthermore, the composition support service device 100 may hold various instrument information and generate situational expression information in which the created music composition is played with the instrument.
여기에 더하여 작곡 지원 서비스 장치(100)는 음악 작곡물에 대응되는 감정 그래프 또는 감정 이미지를 생성하고 이를 매칭하여 상황 표현 정보를 생성할 수도 있다. In addition to this, the composition support service device 100 may generate situation expression information by generating an emotion graph or an emotion image corresponding to a music composition and matching them.
일례로서, 작곡 지원 서비스 장치(100)는 음악 작곡물의 연주에 따라 변화되는 감정 그래프를 생성하거나 감정 상태에 대응되는 이미지를 생성할 수도 있고, 또는 음악 작곡물의 연주 상태에 대응되는 사용자가 입력한 사진이나 동영상 등을 매칭하여 상황 표현 정보를 생성할 수 있다.As an example, the composition support service device 100 may generate an emotion graph that changes according to the performance of a music composition or an image corresponding to an emotional state, or a photograph input by a user corresponding to a performance state of a music composition. Situational expression information may be generated by matching images or videos.
그리고 작곡 지원 서비스 장치(100)는 생성된 상황 표현 정보를 데이터베이스(200)에 정리하여 보관할 수 있다. 작곡 지원 서비스 장치(100)는 사용자의 일기 형식에 대응되어 일자별로 상황 표현 정보를 보관할 수 있다. 또는 작곡 지원 서비스 장치(100)는 상황 표현 정보를 사용자가 느낀 상황별로 카테고리를 분류하고 상황 표현 정보를 카테고리별로 분류하여 보관할 수도 있다.In addition, the composition support service device 100 may organize and store the generated situational expression information in the database 200 . The composition support service device 100 may store situation expression information for each date corresponding to the user's diary format. Alternatively, the composition support service device 100 may classify the situation expression information according to situations felt by the user, classify the situation expression information according to categories, and store the situation expression information.
상황 표현 정보는 다양한 방식으로 분류되어 보관될 수 있는데, 사용자가 느낀 희로애락 등의 감정별 카테고리로 분류되어 보관될 수 있고, 또는 기간이나 일자별 카테고리로 분류되어 보관될 수도 있으며, 또는 감정이나 상황을 느낀 대상별 카테고리로 분류되어 보관될 수도 있다.Situational expression information can be classified and stored in various ways. It can be classified and stored in categories by emotion, such as emotions felt by the user, or classified and stored in categories by period or date. It may be classified into categories for each subject and stored.
이와 같이 보관된 사용자의 상황 표현 정보는 추후 사용자의 요청에 따라 작곡 지원 서비스 장치(100)는 데이터베이스(200)에 보관된 상황 표현 정보를 추출하여 사용자 단말기(10)로 제공할 수 있다.The user's situation expression information stored in this way may be later provided to the user terminal 10 by extracting the situation expression information stored in the database 200 from the composition support service device 100 according to the user's request.
한걸음 더 나아가서 작곡 지원 서비스 장치(100)는 소셜 네트워킹 서비스(SNS)(50)와 연계하여 해당 상황 표현 정보를 소셜 네트워킹 서비스(50)로 제공할 수도 있다. 가령, 사용자가 특정 대상에게 메시지를 전송하는 경우에 해당 상황 표현 정보를 함께 전송할 수 있으며, 사용자가 자신의 소셜 네트워크 상에 자신의 상태 정보로서 상황 표현 정보를 업로드할 수도 있다.Taking a step further, the composition support service device 100 may provide corresponding situation expression information to the social networking service 50 in association with the social networking service (SNS) 50 . For example, when a user transmits a message to a specific target, corresponding situation expression information may be transmitted together, and the user may upload the situation expression information as status information on his or her social network.
본 발명에 따른 음악 작곡 시스템의 작곡 지원 서비스 장치(100)와 관련하여, 도 2는 본 발명에 따른 음악 작곡 시스템의 작곡 지원 서비스 장치에 대한 일실시예의 구성도를 참조하여 좀더 자세히 살펴보기로 한다.In relation to the composition support service device 100 of the music composition system according to the present invention, FIG. 2 will be described in more detail with reference to a configuration diagram of an embodiment of the composition support service device of the music composition system according to the present invention. .
작곡 지원 서비스 장치(100)는 표현 상황 인식부(110), 음악 요소 추출부(120), 작곡물 생성부(130), 상황 표현 정보 생성부(140) 등을 포함할 수 있다.The composition support service apparatus 100 may include an expression situation recognition unit 110, a music element extraction unit 120, a composition generation unit 130, a situation expression information generation unit 140, and the like.
표현 상황 인식부(110)는 사용자 단말기(10)를 통해 다양한 사용자의 감정 상태, 일상 생활 등에 대한 정보를 제공받고, 이를 분석하여 사용자가 표현하고자 하는 상황을 인식할 수 있다.The expression situation recognition unit 110 may receive information about various users' emotional states, daily life, etc. through the user terminal 10 and analyze them to recognize a situation that the user wants to express.
가령, 텍스트 형태의 정보 경우, 인공지능을 통해 각 단어와 문장을 인식하고 이를 분석하여 사용자의 감정 상태에 따른 표현하고자 하는 상황을 인식할 수 있다. 또한 사진이나 동영상 등 이미지 형태의 정보 경우, 인공지능을 통해 이미지를 분석하여 사용자의 감정 상태에 따른 표현하고자 하는 상황을 인식할 수 있다.For example, in the case of information in the form of text, it is possible to recognize a situation to be expressed according to the user's emotional state by recognizing and analyzing each word and sentence through artificial intelligence. In addition, in the case of information in the form of images such as photos and videos, the image can be analyzed through artificial intelligence to recognize the situation to be expressed according to the user's emotional state.
음악 요소 추출부(120)는 분석된 사용자의 표현 상황에 대응되는 음악적 요소를 추출할 수 있다. 일례로서, 사용자의 표현 상황에 따른 베이스 리듬을 추출하고, 베이스 리듬을 기초로 사용자의 표현 상황에 대응되는 다양한 멜로디와 하모니를 추출할 수 있다.The music element extractor 120 may extract a musical element corresponding to the analyzed expression situation of the user. As an example, a bass rhythm according to the user's expression situation may be extracted, and various melodies and harmonies corresponding to the user's expression situation may be extracted based on the bass rhythm.
음악 요소 추출부(120)는 사전에 데이터베이스(200)에 보관된 음악 요소 정보에서 해당 표현 상황에 대응되는 음악 요소 정보를 추출할 수도 있고, 또는 인터넷망(30)을 검색하여 해당 표현 상황에 대응되는 음악 요소를 추출할 수도 있다. The music element extractor 120 may extract music element information corresponding to the corresponding expression situation from the music element information previously stored in the database 200, or search the Internet network 30 to respond to the corresponding expression situation. You can also extract the music elements that are.
작곡물 생성부(130)는 음악 요소 추출부(120)가 추출한 음악적 요소를 조합하고 가공하여 음악 작곡물을 생성할 수 있다. 바람직하게는 사용자의 표현 상황에 적합한 다양한 베이스 리듬을 사용자에게 제시하여 사용자가 원하는 리듬을 선택받을 수 있고, 아울러 사용자의 표현 상황에 적합한 다양한 멜로디와 하모니를 사용자에게 제시하여 사용자가 원하는 멜로디와 하모니를 선택받을 수도 있다. 물론, 음악적 지식이나 감각이 부족한 사용자를 위해 작곡물 생성부(130)는 사용자의 선택 없이도 인공 지능을 통해 사용자의 표현 상황에 적합한 베이스 리듬에 다양한 멜로디와 하모니를 조합 및 가공하여 음악 작곡물을 생성할 수도 있다.The composition generator 130 may generate a music composition by combining and processing the musical elements extracted by the music element extractor 120 . Preferably, various bass rhythms suitable for the user's expression situation are presented to the user so that the user can select the rhythm desired by the user, and various melodies and harmonies suitable for the user's expression situation are presented to the user to select the melody and harmony desired by the user. may be selected. Of course, for users who lack musical knowledge or sense, the composition generator 130 creates music compositions by combining and processing various melodies and harmonies to the bass rhythm suitable for the user's expression situation through artificial intelligence without the user's selection. You may.
나아가서 작곡물 생성부(130)는 음악 작곡물을 악보로 사용자 단말기(10)에 제공하여 사용자가 확인 가능하도록 지원하면서, 사용자가 직접 원하는 멜로디와 하모니를 선택하거나 가공하는 경우, 불협화음, 음높이, 템포 등과 같은 음악적 요소에 대한 적절성을 평가하여 이에 대한 피드백을 제공할 수도 있다.Furthermore, the composition generator 130 provides the music composition as a sheet music to the user terminal 10 so that the user can check it, and when the user directly selects or processes the desired melody and harmony, dissonance, pitch, tempo It is also possible to evaluate the appropriateness of musical elements such as etc. and provide feedback on them.
또한 작곡물 생성부(130)는 사용자 단말기(10)를 통해 해당 음악 작곡물에 대한 가사를 입력받아 음악 작곡물에 매칭시킬 수도 있다.In addition, the composition generator 130 may receive lyrics for a corresponding music composition through the user terminal 10 and match them to the music composition.
상황 표현 정보 생성부(140)는 작곡물 생성부(130)에서 생성한 음악 작곡물에 추가적인 정보를 매칭시켜 사용자의 표현 상황에 적합한 상황 표현 정보를 생성할 수 있다.The context expression information generating unit 140 may generate context expression information suitable for the user's expression situation by matching additional information to the music composition generated by the composition generator 130 .
일례로서, 상황 표현 정보 생성부(140)는 다양한 악기 중 음악 작곡물의 연주에 적합한 악기를 선택하거나 악기 리스트를 사용자에게 제공하여 사용자가 선택한 악기로 음악 작곡물을 연주한 상황 표현 정보를 생성할 수 있다.As an example, the context expression information generating unit 140 may select an instrument suitable for playing a musical composition from among various instruments or provide a list of instruments to the user to generate context expression information in which the musical composition is played with the user's selected instrument. there is.
다른 일례로서, 상황 표현 정보 생성부(140)는 음악 작곡물에 대응되는 감정 그래프 또는 감정 이미지 등을 생성하고 이를 음악 작곡물에 매칭시켜 상황 표현 정보를 생성할 수도 있다. 가령, 음악 작곡물에 대한 연주와 함께 사용자의 사진이나 동영상이 함께 매칭된 상황 표현 정보를 생성할 수 있다.As another example, the situation expression information generation unit 140 may generate situation expression information by generating an emotion graph or an emotion image corresponding to a music composition and matching it to the music composition. For example, situational expression information in which a picture or video of a user is matched together with a performance of a musical composition may be generated.
아울러 상황 표현 정보 생성부(140)는 생성된 상황 표현 정보를 사용자의 표현 상황에 대응되는 일자별로 정리하여 데이터베이스(200)에 정리 보관할 수 있다. 일례로서, 일기 형식으로 해당 상황 표현 정보를 데이터베이스(200)에 정비 보관하거나 상황 표현의 카테고리별로 해당 상황 표현 정보를 데이터베이스(200)에 분류하여 보관할 수 있다.In addition, the situation expression information generation unit 140 may arrange and store the generated situation expression information by date corresponding to the expression situation of the user in the database 200 . As an example, the corresponding situation expression information may be maintained and stored in the database 200 in the form of a diary, or the corresponding situation expression information may be classified and stored in the database 200 for each category of situation expression.
이와 같이 데이터베이스(200)에 보관된 상황 표현 정보는 추후 사용자의 요청시 상황 표현 정보 생성부(140)가 해당 상황 표현 정보를 추출하여 사용자 단말기(10)로 제공할 수도 있다.In this way, the context expression information stored in the database 200 may be provided to the user terminal 10 by extracting the context expression information generation unit 140 upon a user's request later.
나아가서 상황 표현 정보 생성부(140)는 상황 표현 정보를 소셜 네트워킹 서비스(50)와 연계하여 제공할 수도 있다.Furthermore, the context expression information generator 140 may provide context expression information in association with the social networking service 50 .
도 3은 본 발명에 따른 음악 작곡 시스템의 데이터베이스에 대한 일실시예의 구성도를 도시한다.3 shows a block diagram of an embodiment of a database of a music composition system according to the present invention.
데이터베이스(200)는 음악 요소 정보 저장부(210), 상황 표현 정보 저장부(250) 등을 포함할 수 있다.The database 200 may include a music element information storage unit 210, a situation expression information storage unit 250, and the like.
음악 요소 정보 저장부(210)는 리듬(Rhythm), 멜로디(Melody), 하모니(Harmony) 등에 대한 음악 요소 정보를 보관할 수 있다.The music element information storage unit 210 may store music element information about rhythm, melody, harmony, and the like.
일례로서, 기본 요소 정보로서 다양한 감정 또는 상황별로 구분하여 다양한 리듬 정보를 분류 보관할 수 있고, 보조 요소 정보로서 다양한 감정 또는 상황별로 구분하여 다양한 멜로디 및 하모니를 분류 보관할 수 있다.As an example, various rhythm information can be classified and stored according to various emotions or situations as basic element information, and various melodies and harmonies can be classified and stored according to various emotions or situations as auxiliary element information.
상황 표현 정보 저장부(250)는 음악 작곡물 또는 상황 표현 정보를 분류 보관할 수 있다. 상황 표현 정보 저장부(250)는 작곡 지원 서비스 장치(100)가 생성한 음악 작곡물만을 감정, 상황, 일자별로 분류하여 보관할 수도 있고, 또는 음악 작곡물에 다양한 정보가 부가된 상황 표현 정보를 감정, 상황, 일자별로 분류하여 보관할 수도 있다.The situation expression information storage unit 250 may classify and store music compositions or situation expression information. The situation expression information storage unit 250 may classify and store only music compositions generated by the composition support service device 100 by emotion, situation, and date, or may classify and store situation expression information in which various information is added to music compositions. It can also be classified and stored by date, situation, and date.
또한 본 발명에서는 상기에서 살펴본 본 발명에 따른 음악 작곡 시스템을 이용하여 음악 작곡을 지원하는 방법을 제시한다.In addition, the present invention proposes a method of supporting music composition using the music composition system according to the present invention described above.
이하에서는 앞서 살펴본 본 발명에 따른 음악 작곡 시스템의 실시예를 함께 참조하여 본 발명에 따른 음악 자곡 방법에 대하여 살펴보기로 한다.Hereinafter, a music self-composing method according to the present invention will be described with reference to the embodiment of the music composition system according to the present invention described above.
도 4은 본 발명에 따른 음악 작곡 방법의 일실시예에 대한 흐름도를 도시한다.Figure 4 shows a flow diagram of one embodiment of a music composition method according to the present invention.
작곡 지원 서비스 장치(100)는 사용자 단말기(10)를 통해 사용자의 표현하고자 하는 상황에 대한 정보를 입력(S110)받을 수 있다. 사용자의 표현 상황 정보는 단어, 문장 등의 텍스트 정보일 수도 있고, 흥얼거리는 허밍 정보일 수도 있으며, 또는 사진이나 동영상 등의 이미지 정보일 수도 있다.The composition support service device 100 may receive information about a situation to be expressed by the user through the user terminal 10 (S110). The user's expression situation information may be text information such as words and sentences, humming information, or image information such as photos and videos.
작곡 지원 서비스 장치(100)는 제공된 사용자의 표현 상황 정보를 기초로 사용자가 표현하고자 하는 상황을 인식(S120)할 수 있다. 가령, 인공지능이 텍스트 정보에 대한 단어와 문장 분석 또는 허밍 정보에 대한 리듬과 멜로디 분석 또는 사진이나 동영상에 대한 영상 분석을 통해 해당 감정 상태나 상황 상태를 판단하고 사용자가 표현하고자 하는 상황을 인식할 수 있다.The composition support service device 100 may recognize a situation to be expressed by the user based on the provided information on the expression situation of the user (S120). For example, artificial intelligence can determine the emotional state or situational state and recognize the situation the user wants to express through word and sentence analysis for text information, rhythm and melody analysis for humming information, or video analysis for photos or videos. can
작곡 지원 서비스 장치(100)는 사용자가 표현하고자 하는 상황에 따른 음악적 기본 요소로서 베이스 리듬 정보를 추출(S130)할 수 있다. 작곡 지원 서비스 장치(100)는 감정이나 상황별로 데이터베이스(200)에서 베이스 리듬(Rhythm) 정보를 추출할 수도 있고, 인터넷망(30)에서 베이스 리듬 정보를 추출할 수도 있다.The composition support service device 100 may extract bass rhythm information as a basic musical element according to a situation that the user wants to express (S130). The composition support service device 100 may extract bass rhythm information from the database 200 for each emotion or situation, or may extract bass rhythm information from the Internet network 30 .
그리고 작곡 지원 서비스 장치(100)는 사용자가 표현하고자 하는 상황에 대응되는 복수의 멜로디(Melody) 정보 또는 복수의 하모니(Harmony) 정보 등을 추출(S140)할 수 있다. 작곡 지원 서비스 장치(100)는 인공지능을 통해 감정이나 상황별로 데이터베이스(200)에서 다양한 멜로디 리듬 정보 또는 하모니 정보를 추출할 수도 있고, 인터넷망(30)에서 다양한 멜로디 리듬 정보 또는 하모니 정보를 추출할 수도 있다.In addition, the composition support service device 100 may extract a plurality of pieces of melody information or a plurality of pieces of harmony information corresponding to a situation that the user wants to express (S140). The composition support service device 100 may extract various melody rhythm information or harmony information from the database 200 for each emotion or situation through artificial intelligence, or extract various melody rhythm information or harmony information from the Internet network 30. may be
일례로서, 추출되는 멜로디는 미니멀리즘의 패턴적인 선율 형태일 수 있고, 최신 트랜드를 반영하여 너무 클래식하지 않은 기본 3화음으로만 구성된 낭만 음악이나 현대 음악적인 하모니를 추출할 수 있다.As an example, the extracted melody may be in the form of a minimalism patterned melody, and romantic music or modern musical harmony composed only of basic triads that are not too classical may be extracted by reflecting the latest trend.
바람직하게는 작곡 지원 서비스 장치(100)는 기본적인 베이스 리듬에 기초하여 사용자에게 추천할 복수의 멜로디 또는 복수의 하모니를 판단하여 사용자의 표현 상황에 적합한 멜로디와 하모니를 사용자에게 추천할 수 있다.Preferably, the composition support service apparatus 100 may recommend melodies and harmonies suitable for the user's expression situation to the user by determining a plurality of melodies or a plurality of harmonies to be recommended to the user based on the basic bass rhythm.
아울러 작곡 지원 서비스 장치(100)는 추출한 복수의 멜로디를 사용자 단말기(10)를 통해 사용자에게 제시하고 사용자가 템포, 음표, 마디 수, 악기, 멜로디 개수 등을 설정하도록 지원할 수 있다. 또한 작곡 지원 서비스 장치(100)는 복수의 멜로디 중 사용자가 자신이 느끼는 감정과 가장 비슷한 느낌의 선율을 선택 가능하도록 지원할 수 있다.In addition, the composition support service device 100 may present the extracted plurality of melodies to the user through the user terminal 10 and support the user to set the tempo, notes, number of bars, instruments, and the number of melodies. In addition, the composition support service apparatus 100 may support a user to select a melody most similar to his or her feelings among a plurality of melodies.
작곡 지원 서비스 장치(100)는 인공 지능을 통해 추출된 베이스 리듬을 기초로 선택된 하나 이상의 멜로디 또는 하모니를 조합 및 가공(S150)하여 음악 작곡물을 생성(S160)할 수 있다.The composition support service device 100 may create a music composition by combining and processing (S150) one or more melodies or harmonies selected based on the base rhythm extracted through artificial intelligence (S160).
일례로서, 작곡 지원 서비스 장치(100)는 인공 지능을 통해 베이스 리듬에 선택된 하나 이상의 멜로디 또는 하나 이상의 하모니를 마디별로 조합하고 복수의 마디를 조합 배열하여 음악 작곡물을 생성할 수 있다.As an example, the composition support service device 100 may generate a music composition by combining one or more melodies or one or more harmonies selected in a bass rhythm through artificial intelligence for each measure and combining and arranging a plurality of measures.
또한 작곡 지원 서비스 장치(100)는 음악 작곡물을 악보로 사용자 단말기(10)에 제공하여 사용자가 확인 가능하도록 지원하면서, 사용자가 직접 원하는 멜로디와 하모니를 선택하거나 가공하는 경우, 불협화음, 음높이, 템포 등과 같은 음악적 요소에 대한 적절성을 평가하여 이에 대한 피드백을 제공할 수도 있다.In addition, the composition support service device 100 provides a musical composition as a sheet music to the user terminal 10 so that the user can check it, and when the user directly selects or processes a desired melody and harmony, dissonance, pitch, tempo It is also possible to evaluate the appropriateness of musical elements such as etc. and provide feedback on them.
아울러 작곡 지원 서비스 장치(100)는 사용자 단말기(10)를 통해 해당 음악 작곡물에 대한 가사를 입력받아 음악 작곡물에 매칭시킬 수도 있다.In addition, the composition support service device 100 may receive lyrics for a corresponding music composition through the user terminal 10 and match them to the music composition.
작곡 지원 서비스 장치(100)는 생성된 음악 작곡물에 적합한 악기 리스트를 사용자 단말기(10)를 통해 사용자에게 제공하고, 사용자가 선택한 악기로 음악 작곡물을 연주한 상황 표현 정보를 생성할 수도 있다.The composition support service device 100 may provide the user with a list of instruments suitable for the generated music composition through the user terminal 10 and may generate situational expression information in which the music composition is played with the user's selected instrument.
이와 같이 생성된 음악 작곡물과 상황 표현 정보는 사용자 단말기(10) 등을 통해 사용자에게 제공될 수 있다. The musical composition and situation expression information generated in this way may be provided to the user through the user terminal 10 or the like.
나아가서 본 발명에서는 음악 작곡물에 추가적으로 사용자의 다양한 상태를 반영하여 상황 표현 정보를 생성할 수도 있는데, 이와 관련하여 도 5에 도시된 본 발명에 따른 음악 작곡 방법의 다른 실시예에 대한 흐름도를 참조하여 살펴보기로 한다.Furthermore, in the present invention, situation expression information may be generated by reflecting various states of a user in addition to a music composition. let's take a look
작곡 지원 서비스 장치(100)는 앞서 설명한 실시예를 통해 음악 작곡물을 생성(S210)하고, 음악 작곡물에 대응되는 감정 그래프 또는 감정 이미지를 추가적으로 생성(S220)하여 감정 그래프 또는 감정 이미지를 음악 작곡물의 연주에 반영한 상황 표현 정보를 생성(S230)할 수 있다.The composition support service device 100 creates a music composition through the above-described embodiment (S210), additionally creates an emotion graph or emotion image corresponding to the music composition (S220), and converts the emotion graph or emotion image to the music composition. Situational expression information reflected in the performance of water may be generated (S230).
가령, 음악 작곡물의 연주 상태에 따라 다양하게 변화하는 감정 그래프를 생성하거나 감정이 표현되는 다양한 이미지를 생성하여 이를 음악 작곡물의 연주와 함께 삽입할 수 있다.For example, an emotion graph that changes in various ways according to the playing state of the music composition or various images expressing emotions may be created and inserted along with the performance of the music composition.
또한 음악 작곡물의 연주와 함께 사용자의 사진이나 동영상 또는 글이 함께 시현될 수 있도록 삽입하여 상황 표현 정보를 생성할 수도 있다.In addition, situational expression information may be created by inserting a user's photo, video, or text so that it can be displayed together with the performance of the music composition.
그리고 작곡 지원 서비스 장치(100)는 일기 형상으로 상황 표현 정보를 데이터베이스(200)에 누적하여 보관할 수 있다. 이때 상황 표현 정보에 일자나 사용자의 코멘트를 매칭시켜 데이터베이스(200)에 보관할 수 있다. In addition, the composition support service device 100 may accumulate and store situational expression information in the form of a diary in the database 200 . At this time, a date or a user's comment may be matched with the situation expression information and stored in the database 200 .
또는 작곡 지원 서비스 장치(100)는 해당 감정이나 상황별로 카테고리를 분류하여 상황 표현 정보를 데이터베이스(200)에 보관할 수도 있다.Alternatively, the composition support service device 100 may classify categories for each corresponding emotion or situation and store situational expression information in the database 200 .
상황 표현 정보는 다양한 방식으로 분류되어 보관될 수 있는데, 사용자가 느낀 희로애락 등의 감정별 카테고리로 분류되어 보관될 수 있고, 또는 기간이나 일자별 카테고리로 분류되어 보관될 수도 있으며, 또는 감정이나 상황을 느낀 대상별 카테고리로 분류되어 보관될 수도 있다.Situational expression information can be classified and stored in various ways. It can be classified and stored in categories by emotion, such as emotions felt by the user, or classified and stored in categories by period or date. It may be classified into categories for each subject and stored.
나아가서 작곡 지원 서비스 장치(100)는 생성된 상황 표현 정보나 데이터베이스(200)에 보관된 상황 표현 정보를 소셜 네트워킹 서비스(50)와 연계(S250)하여 사용자의 소셜 네트워크에 반영시킬 수도 있다.Furthermore, the composition support service device 100 may link the generated situational expression information or the situational expression information stored in the database 200 with the social networking service 50 (S250) and reflect them on the user's social network.
이와 같이 보관된 사용자의 상황 표현 정보는 추후 사용자의 요청에 따라 사용자 단말기(10) 등으로 제공될 수 있는데, 이와 관련하여 도 6은 본 발명에 따른 음악 작곡 방법의 또 다른 실시예에 대한 흐름도를 도시한다.The user's situation expression information stored in this way may be provided to the user terminal 10 or the like according to the user's request in the future. In this regard, FIG. show
작곡 지원 서비스 장치(100)는 해당 사용자의 감정이나 상황이 반영된 상황 표현 정보를 정리하고 보관하면서, 사용자 단말기(10)를 통한 사용자의 요청시 상황 표현 정보에 대한 카테고리별 리스트를 제공(S310)할 수 있다. 가령, 희로애락 등의 감정별 카테고리로 리스트를 제공할 수도 있고, 기간이나 일자별 카테고리로 리스트를 제공할 수도 있으며, 감정이나 상황을 느낀 대상별 카테고리 리스트를 제공할 수도 있다.The composition support service device 100 organizes and stores the situation expression information reflecting the user's emotion or situation, and provides a category-by-category list of situation expression information upon a user's request through the user terminal 10 (S310). can For example, a list may be provided by emotion category such as joy, anger, sadness, etc., a list may be provided by category by period or date, or a category list by subject who feels emotion or situation may be provided.
사용자는 사용자 단말기(10)로 제공된 리스트에서 자신이 원하는 상황 표현을 선택(S320)할 수 있으며, 작곡 지원 서비스 장치(100)는 사용자가 선택한 사항에 대응되어 데이터베이스(200)에서 해당되는 상황 표현 정보를 선택적으로 추출(S330)할 수 있다.The user may select a desired situation expression from the list provided to the user terminal 10 (S320), and the composition support service device 100 corresponds to the user's selection and corresponding situation expression information in the database 200. Can be selectively extracted (S330).
그리고 작곡 지원 서비스 장치(100)는 추출한 상황 표현 정보를 사용자 단말기(10)로 제공하여 상황 표현 정보가 재생(S340)될 수 있다.In addition, the composition support service device 100 may provide the extracted context expression information to the user terminal 10 to reproduce the context expression information (S340).
본 발명에서는 해당 감정이나 상황이 반영된 상황 표현 정보를 재생할 수 있으므로 음악과 함께 글이나 사진, 동영상 등을 함께 시현하여 사용자가 그 당시 느낀 감정이나 상황을 그대로 다시 느낄 수 있게 된다.In the present invention, since the situation expression information reflecting the corresponding emotion or situation can be reproduced, the user can feel the emotion or situation felt at that time again as it is by displaying the text, photo, video, etc. together with the music.
이와 같은 본 발명에 의하면, 사용자의 감정 상태와 일상 생활 모습 등을 음악적으로 표현 가능하도록 음악 작곡을 지원할 수 있다.According to the present invention, it is possible to support music composition so that the user's emotional state and daily life can be expressed musically.
특히, 자신의 감정이나 상황을 글로써 표현하는 경우, 이를 읽는 사람에게 그 감정이나 상황이 공감 가능하도록 전달되지 못하는 한계를 음악으로 극복할 수 있게 된다.In particular, in the case of expressing one's feelings or situations in writing, music can overcome the limitation that the feelings or situations cannot be conveyed in a sympathetic way to the reader.
나아가서 당시 감정이나 상황에 적합하게 다양한 작곡 결과물을 생성할 수 있어 해당 사용자의 감정이나 상황 표현이 충실히 반영될 수 있다.Furthermore, various composition results can be generated to suit the emotion or situation at the time, so that the user's emotion or expression of the situation can be faithfully reflected.
또한 사용자가 특정 상황 또는 특정 기간에 느꼈던 감정을 음악적 결과물의 일기 형식으로 남길 수 있도록 지원함으로써 추후 사용자가 자신이 만든 음악적 결과물을 재생함으로써 그 당시 느꼈던 감정을 더욱 효과적으로 느낄 수 있게 된다.In addition, by supporting the user to leave the emotions felt in a specific situation or period in the form of a diary of musical results, the user can feel the emotions felt at that time more effectively by replaying the musical results made by the user later.
아울러 사용자의 감정 등을 표현한 음악적 결과물을 소셜 네트워킹 서비스(SNS)에 연계시킴으로써 말이나 글로 표현될 수 없는 감정 등이 상대방에게 효과적으로 전달될 수 있다.In addition, by linking the musical results expressing the user's emotions to a social networking service (SNS), emotions that cannot be expressed in words or writing can be effectively conveyed to the other party.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명에 기재된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상이 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의해서 해석되어야하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present invention, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments described in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
* 부호의 설명 ** Description of code *
10, 10a, 10b, 10c : 사용자 단말기,10, 10a, 10b, 10c: user terminal,
100 : 작곡 지원 서비스 장치,100: composition support service device,
110 : 표현 상황 인식부,110: expression situation recognition unit,
120 : 음악 요소 추출부,120: music element extraction unit,
130 : 작곡물 생성부,130: composition generation unit,
140 : 상황 표현 정보 생성부,140: situation expression information generation unit,
200 : 데이터베이스,200: database,
210 : 음악 요소 정보 저장부,210: music element information storage unit,
250 : 상황 표현 정보 저장부.250: situation expression information storage unit.

Claims (6)

  1. 인공 지능을 통해 사용자의 표현 상황에 따른 베이스 리듬(Rhythm)를 추출하는 기본 요소 추출 단계;A basic element extraction step of extracting a base rhythm according to a user's expression situation through artificial intelligence;
    상기 인공 지능을 통해 상기 표현 상황에 대응되는 복수의 멜로디(Melody) 또는 복수의 하모니(Harmony) 중 어느 하나 이상을 추출하는 보조 요소 추출 단계;Auxiliary element extraction step of extracting any one or more of a plurality of melodies or a plurality of harmonies corresponding to the expression situation through the artificial intelligence;
    상기 사용자로부터 추출된 복수의 멜로디 또는 복수의 하모니 중 어느 하나 이상에 대하여 선택받는 보조 요소 선택 단계; 및an auxiliary element selection step in which one or more of a plurality of melodies or a plurality of harmonies extracted from the user is selected; and
    상기 인공 지능을 통해 추출된 베이스 리듬을 기초로 선택된 하나 이상의 멜로디 또는 하모니를 조합하여 음악 작곡물을 생성하는 작곡물 생성 단계를 포함하는 것을 특징으로 하는 인공지능을 이용한 음악 작곡 방법.and a composition generating step of generating a music composition by combining one or more melodies or harmonies selected based on the bass rhythm extracted through the artificial intelligence.
  2. 제 1 항에 있어서,According to claim 1,
    상기 기본 요소 추출 단계는,The basic element extraction step,
    사용자로부터 텍스트(Text) 또는 허밍(Humming)을 입력받고 이를 기초로 사용자의 표현 상황을 판단하는 단계; 및Receiving text or humming from a user and determining an expression situation of the user based on the input; and
    표현 상황별로 베이스 리듬이 보유된 데이터베이스에서 사용자의 표현 상황에 대응되는 베이스 리듬을 추출하는 단계를 포함하며,Extracting a bass rhythm corresponding to a user's expression situation from a database holding bass rhythms for each expression situation;
    상기 보조 요소 추출 단계는,The auxiliary element extraction step,
    데이터베이스에 보유된 음악에서 표현 상황에 대응되는 복수의 멜로디 또는 복수의 하모니를 추출하는 단계; 및extracting a plurality of melodies or a plurality of harmonies corresponding to expression situations from music held in the database; and
    추출한 베이스 리듬을 기초로 추천할 복수의 멜로디 또는 복수의 하모니를 판단하는 단계를 포함하는 것을 특징으로 하는 인공지능을 이용한 음악 작곡 방법. A music composition method using artificial intelligence comprising the step of determining a plurality of melodies or a plurality of harmonies to be recommended based on the extracted bass rhythm.
  3. 제 1 항에 있어서,According to claim 1,
    상기 작곡물 생성 단계는,The step of generating the composition,
    상기 베이스 리듬에 선택된 하나 이상의 멜로디 또는 하나 이상의 하모니를 마디별로 조합하는 단계; 및combining one or more melodies or one or more harmonies selected with the bass rhythm for each measure; and
    복수의 마디를 조합 배열하여 음악 작곡물을 생성하는 단계를 포함하는 것을 특징으로 하는 인공지능을 이용한 음악 작곡 방법. A music composition method using artificial intelligence, comprising the step of generating a music composition by combining and arranging a plurality of measures.
  4. 제 1 항에 있어서,According to claim 1,
    상기 음악 작곡물에 적합한 하나 이상의 악기 리스트를 사용자에게 제공하여 하나 이상의 악기를 선택받고, 선택된 악기로 상기 음악 작곡물을 연주한 상황 표현 정보를 생성하는 상황 표현 정보 생성 단계를 더 포함하는 것을 특징으로 하는 인공지능을 이용한 음악 작곡 방법. Further comprising a situation expression information generation step of providing a list of one or more instruments suitable for the music composition to a user, receiving a selection of one or more instruments, and generating situation expression information for playing the music composition with the selected instrument. A method of composing music using artificial intelligence.
  5. 제 4 항에 있어서,According to claim 4,
    상기 상황 표현 정보 생성 단계는,In the step of generating the situation expression information,
    상기 음악 작곡물에 대응되는 감정 그래프 또는 감정 이미지를 생성하고 이를 포함하는 상황 표현 정보를 생성하는 것을 특징으로 하는 인공지능을 이용한 음악 작곡 방법. A music composition method using artificial intelligence, characterized in that for generating an emotion graph or an emotion image corresponding to the music composition and generating situation expression information including the emotional graph or emotion image.
  6. 제 5 항에 있어서,According to claim 5,
    상기 상황 표현 정보를 사용자의 표현 상황에 대응되는 일자별로 정리하여 누적 보관하거나 사용자의 소셜 네트워킹 서비스(SNS)에 연계시키는 상황 표현 정보 보관 단계를 더 포함하는 것을 특징으로 하는 인공지능을 이용한 음악 작곡 방법.The method of composing music using artificial intelligence, further comprising a step of storing the situation expression information by organizing and accumulatively storing the situation expression information by date corresponding to the user's expression situation, or linking the situation expression information to the user's social networking service (SNS). .
PCT/KR2023/002837 2022-03-02 2023-03-02 Method for composing music by using artificial intelligence WO2023167496A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0026904 2022-03-02
KR1020220026904A KR102492074B1 (en) 2022-03-02 2022-03-02 Method of composing music with artificial intelligence

Publications (1)

Publication Number Publication Date
WO2023167496A1 true WO2023167496A1 (en) 2023-09-07

Family

ID=85110153

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/002837 WO2023167496A1 (en) 2022-03-02 2023-03-02 Method for composing music by using artificial intelligence

Country Status (2)

Country Link
KR (1) KR102492074B1 (en)
WO (1) WO2023167496A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102492074B1 (en) * 2022-03-02 2023-01-26 손다영 Method of composing music with artificial intelligence

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011175006A (en) * 2010-02-23 2011-09-08 Sony Corp Information processing apparatus, automatic composition method, learning device, learning method and program
KR20120060085A (en) * 2010-12-01 2012-06-11 주식회사 싸일런트뮤직밴드 A system and a method for providing a composition and a record medium recorded program for realizing the same
KR20180130153A (en) * 2017-05-29 2018-12-07 한양대학교 에리카산학협력단 Automatic Composition Method Using Composition Processing History and Apparatus Therefor
KR20210033850A (en) * 2019-09-19 2021-03-29 주식회사 세미콘네트웍스 Output method for artificial intelligence speakers based on emotional values calculated from voice and face
KR102492074B1 (en) * 2022-03-02 2023-01-26 손다영 Method of composing music with artificial intelligence

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101886534B1 (en) 2016-12-16 2018-08-09 아주대학교산학협력단 System and method for composing music by using artificial intelligence

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011175006A (en) * 2010-02-23 2011-09-08 Sony Corp Information processing apparatus, automatic composition method, learning device, learning method and program
KR20120060085A (en) * 2010-12-01 2012-06-11 주식회사 싸일런트뮤직밴드 A system and a method for providing a composition and a record medium recorded program for realizing the same
KR20180130153A (en) * 2017-05-29 2018-12-07 한양대학교 에리카산학협력단 Automatic Composition Method Using Composition Processing History and Apparatus Therefor
KR20210033850A (en) * 2019-09-19 2021-03-29 주식회사 세미콘네트웍스 Output method for artificial intelligence speakers based on emotional values calculated from voice and face
KR102492074B1 (en) * 2022-03-02 2023-01-26 손다영 Method of composing music with artificial intelligence

Also Published As

Publication number Publication date
KR102492074B1 (en) 2023-01-26

Similar Documents

Publication Publication Date Title
WO2018030672A1 (en) Robot automation consultation method and system for consulting with customer according to predetermined scenario by using machine learning
WO2021054565A1 (en) Method for implementing online media service equipped with multiple voice system
JP5003125B2 (en) Minutes creation device and program
WO2023167496A1 (en) Method for composing music by using artificial intelligence
WO2013085320A1 (en) Method for providing foreign language acquirement and studying service based on context recognition using smart device
WO2011136425A1 (en) Device and method for resource description framework networking using an ontology schema having a combined named dictionary and combined mining rules
WO2020122331A1 (en) Advice information providing method
WO2019112145A1 (en) Method, device, and system for sharing photographs on basis of voice recognition
WO2016035970A1 (en) Advertisement system using search advertisement
WO2020253115A1 (en) Voice recognition-based product recommendation method, apparatus and device, and storage medium
WO2011162444A1 (en) Named entity dictionary combined with ontology schema and device and method for renewing named entity dictionary or mining rule database using mining rule
WO2022145946A1 (en) System and method for learning language based on artificial intelligence-recommended training images and illustrative sentences
WO2021167220A1 (en) Method and system for automatically generating table of contents for video on basis of contents
WO2016182400A1 (en) Mobile device and system provided with communication information display and access functions and method for same
WO2024101754A1 (en) Ai math tutoring service providing system capable of automatic unit and difficulty level classification and re-editing of math question , and method for implementing same
WO2022255850A1 (en) Chat system and providing method capable of supporting multilingual translation
WO2024111728A1 (en) User emotion interaction method and system for extended reality based on non-verbal elements
WO2023136644A1 (en) Patent document search server for providing user-customized file name generation function when downloading document, and patent document searching method using same
WO2018143490A1 (en) System for predicting mood of user by using web content, and method therefor
WO2022177372A1 (en) System for providing tutoring service by using artificial intelligence and method therefor
WO2022114322A1 (en) System and method for automatically generating image caption by using image object attribute-oriented model based on deep learning algorithm
WO2022103068A1 (en) Method and device for chat-based customer profile creation through multiple representatives
WO2011136454A1 (en) Sound source generation system and method using image
JP2008269072A (en) Dictionary preparation system and dictionary preparation method
WO2012102424A1 (en) Device and method for editing an electronic picture book

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23763695

Country of ref document: EP

Kind code of ref document: A1