KR102390950B1 - Method for generating user engagement music and apparatus therefor - Google Patents

Method for generating user engagement music and apparatus therefor Download PDF

Info

Publication number
KR102390950B1
KR102390950B1 KR1020200069841A KR20200069841A KR102390950B1 KR 102390950 B1 KR102390950 B1 KR 102390950B1 KR 1020200069841 A KR1020200069841 A KR 1020200069841A KR 20200069841 A KR20200069841 A KR 20200069841A KR 102390950 B1 KR102390950 B1 KR 102390950B1
Authority
KR
South Korea
Prior art keywords
music
motion information
control devices
track
control device
Prior art date
Application number
KR1020200069841A
Other languages
Korean (ko)
Other versions
KR20210152847A (en
Inventor
이종현
정재훈
Original Assignee
주식회사 크리에이티브마인드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 크리에이티브마인드 filed Critical 주식회사 크리에이티브마인드
Priority to KR1020200069841A priority Critical patent/KR102390950B1/en
Publication of KR20210152847A publication Critical patent/KR20210152847A/en
Application granted granted Critical
Publication of KR102390950B1 publication Critical patent/KR102390950B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument

Abstract

실시간 사용자 참여형 음악 생성 방법 및 그 장치가 개시된다. 음악재생장치는 음악 재생 중에 적어도 하나 이상의 제어장치로부터 움직임정보를 수신하고, 움직임정보를 기초로 재생 중인 음악의 음 진행을 변경하거나 연주 방식을 변경한다.Disclosed are a method and apparatus for generating real-time user participatory music. The music reproducing apparatus receives motion information from at least one or more control devices during music reproduction, and changes the tone progression or playing method of the music being reproduced based on the motion information.

Description

실시간 사용자 참여형 음악 생성 방법 및 그 장치{Method for generating user engagement music and apparatus therefor}Method for generating user engagement music and apparatus therefor in real time

본 발명의 실시 예는 음악 생성 방법 및 그 장치에 관한 것으로, 보다 상세하게는 사용자의 실시간 참여가 가능한 음악 생성 방법 및 그 장치에 관한 것이다.An embodiment of the present invention relates to a method and apparatus for generating music, and more particularly, to a method and apparatus for generating music in which a user can participate in real time.

작곡 이론에 대한 지식이 없어도 음악을 작곡할 수 있는 종래 다양한 자동작곡알고리즘이 존재한다. 자동작곡알고리즘은 음악 장르나 분위기 등과 같은 사용자 입력을 기초로 그에 맞는 음악을 자동 작곡한다. 자동작곡과 관련하여, 국내특허출원 제10-2018-0023898호 "음원 평가 방법 및 그 장치와 이를 이용한 음원 생성 방법 및 그 장치", 국내특허출원 제10-2018-0129339호 "자동자곡장치 및 그 방법" 등이 존재한다. There are various conventional automatic composition algorithms capable of composing music without knowledge of composition theory. The automatic composition algorithm automatically composes music according to the user input such as the music genre or atmosphere. Regarding automatic composition, Korean Patent Application No. 10-2018-0023898 "Sound source evaluation method and apparatus, sound source generation method using same, and apparatus therefor", Korean Patent Application No. 10-2018-0129339 "Automatic composition apparatus and method therefor" " etc exist.

본 발명의 실시 예가 이루고자 하는 기술적 과제는, 음악 재생 중에 사용자가 실시간으로 음을 변경하거나 연주 방식을 변경할 수 있도록 실시간 참여가 가능한 음악 생성 방법 및 그 장치를 제공하는 데 있다.SUMMARY An aspect of the present invention is to provide a method and apparatus for generating music in which real-time participation is possible so that a user can change a note or a playing method in real time while playing music.

상기의 기술적 과제를 달성하기 위한, 본 발명의 실시 예에 따른 실시간 사용자 참여형 음악 생성 방법의 일 예는, 음악 재생 중에 적어도 하나 이상의 제어장치로부터 움직임정보를 수신하는 단계; 및 상기 제어장치로부터 수신한 움직임정보를 기초로 재생 중인 음악의 음 진행을 변경하거나 연주 방식을 변경하는 단계;를 포함한다.In order to achieve the above technical object, an example of a method for generating real-time user participatory music according to an embodiment of the present invention includes: receiving motion information from at least one control device while playing music; and changing the tone progression of the music being reproduced or changing the playing method based on the motion information received from the control device.

상기의 기술적 과제를 달성하기 위한, 본 발명의 실시 예에 따른 음악생성장치의 일 예는, 적어도 하나 이상의 제어장치와 유선 또는 무선통신을 연결하는 통신부; 음악생성알고리즘이 저장된 저장부; 상기 음악생성알고리즘을 실행하는 프로세서; 및 상기 음악생성알고리즘에 의해 생성된 음악을 출력하는 스피커;를 포함하고, 상기 음악생성알고리즘은 음악 재생 중에 상기 적어도 하나 이상의 제어장치로부터 수신한 움직임정보를 기초로 재생 중인 음악의 음 진행을 변경하거나 연주 방식을 변경한다.In order to achieve the above technical object, an example of a music generating apparatus according to an embodiment of the present invention includes a communication unit for connecting at least one control device and wired or wireless communication; a storage unit storing the music generation algorithm; a processor executing the music generation algorithm; and a speaker for outputting music generated by the music generation algorithm, wherein the music generation algorithm changes the tone progression of the music being reproduced based on the motion information received from the at least one control device during music reproduction, or Change the way you play.

본 발명이 실시 예에 따르면, 재생 중인 음악의 리듬이나 음정, 음역대, 또는 연주 방법 등을 사용자가 실시간으로 변경할 수 있다. 재생 중인 음악이 자동작곡알고리즘을 통해 만들어지는 경우, 사용자는 작곡 이론에 대한 지식이 없어도 제어장치의 움직임만으로 작곡에 실시간으로 참여할 수 있다. 또한, 다수의 사용자가 동시에 음악 생성에 참여할 수 있다. 또한, 다수의 사용자가 재생 중인 음악의 악기 연주 주법이나 세기 등을 제어할 수 있다.According to an embodiment of the present invention, the user may change the rhythm, pitch, sound range, or performance method of the music being reproduced in real time. When the music being played is created through an automatic composition algorithm, the user can participate in composition in real time with only the movement of the control device without knowledge of composition theory. In addition, multiple users can participate in music creation at the same time. In addition, a plurality of users may control the playing method or intensity of the musical instrument being reproduced.

도 1은 본 발명의 실시 예에 따른 실시간 사용자 참여형 음악 생성을 위한 시스템을 개략적으로 도시한 도면,
도 2는 본 발명의 실시 예에 따른 제어장치의 일 예의 구성을 도시한 도면,
도 3은 본 발명의 실시 예에 따른 음악생성장치의 일 예의 구성을 도시한 도면,
도 4는 본 발명의 실시 예에 따른 음악의 트랙과 제어장치 사이의 맵핑관계의 일 예를 도시한 도면,
도 5는 본 발명의 실시 예에 따른 움직임정보와 작곡 요소 또는 연주 방식의 맵핑관계의 일 예를 도시한 도면,
도 6은 본 발명의 실시 예에 따른 사용자 참여를 반영한 실시간 작곡 방법의 일 예를 도시한 도면, 그리고,
도 7은 본 발명의 실시 예에 따른 사용자 참여형 음악 생성 방법의 일 예를 도시한 흐름도이다.
1 is a diagram schematically showing a system for real-time user participatory music generation according to an embodiment of the present invention;
2 is a view showing the configuration of an example of a control device according to an embodiment of the present invention;
3 is a view showing the configuration of an example of a music generating apparatus according to an embodiment of the present invention;
4 is a diagram illustrating an example of a mapping relationship between a music track and a control device according to an embodiment of the present invention;
5 is a diagram illustrating an example of a mapping relationship between motion information and a composition element or a performance method according to an embodiment of the present invention;
6 is a diagram illustrating an example of a real-time composition method reflecting user participation according to an embodiment of the present invention;
7 is a flowchart illustrating an example of a method for generating user-participating music according to an embodiment of the present invention.

이하에서, 첨부된 도면들을 참조하여 본 발명의 실시 예에 따른 실시간 사용자 참여형 음악 생성 방법 및 그 장치에 대해 상세히 살펴본다.Hereinafter, a method and apparatus for generating real-time user-participating music according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 실시간 사용자 참여형 음악 생성을 위한 시스템을 개략적으로 도시한 도면이다.1 is a diagram schematically illustrating a system for real-time user participatory music generation according to an embodiment of the present invention.

도 1을 참조하면, 음악생성장치(100)는 적어도 하나 이상의 제어장치(110,120,130)와 유선 또는 무선통신으로 연결된다. 음악생성장치(100)와 연결되는 제어장치(110,120,130)의 수는 다양하게 변형 가능하다. 예를 들어, 복수의 제어장치(110,120,130)가 존재하는 경우에, 음악생성장치(100)는 그 중 어느 하나의 제어장치(110)와 연결되거나, 또는 복수의 제어장치(110,120,130)와 동시에 모두 연결될 수 있다. Referring to FIG. 1 , the music generating device 100 is connected to at least one control device 110 , 120 , 130 through wired or wireless communication. The number of control devices 110 , 120 , 130 connected to the music generating device 100 can be variously modified. For example, when there are a plurality of control devices 110 , 120 , and 130 , the music generating device 100 is connected to any one control device 110 , or all of the plurality of control devices 110 , 120 , 130 are connected at the same time. can

제어장치(110,120,130)는 움직임센서를 포함하는 장치이며, 사용자가 제어장치(110,120,130)를 움직일 때 움직임센서를 통해 파악한 움직임정보를 음악생성장치(100)에 전송한다. 제어장치(110,120,130)에 대해서는 도 2에 다시 설명한다.The control devices 110 , 120 , and 130 are devices including a motion sensor, and when the user moves the control devices 110 , 120 , 130 , the motion information identified through the motion sensor is transmitted to the music generating device 100 . The control devices 110 , 120 , and 130 will be described again with reference to FIG. 2 .

음악생성장치(100)는 제어장치(110,120,130)로부터 수신한 움직임정보에 따라 재생 중인 음악의 음 진행을 변경하거나 연주 방식을 변경할 수 있다. 음악생성장치(100)의 구성에 대해서는 도 3 이하에서 구체적으로 살펴본다.The music generating apparatus 100 may change the sound progress of the music being reproduced or change the playing method according to the motion information received from the control apparatuses 110 , 120 , and 130 . The configuration of the music generating apparatus 100 will be described in detail below with reference to FIG. 3 .

도 2는 본 발명의 실시 예에 따른 제어장치의 일 예의 구성을 도시한 도면이다.2 is a diagram illustrating a configuration of an example of a control device according to an embodiment of the present invention.

도 2를 참조하면, 제어장치(110,120,130)는 움직임센서(200), 통신부(210) 및 제어부(220)를 포함한다. Referring to FIG. 2 , the control devices 110 , 120 , and 130 include a motion sensor 200 , a communication unit 210 , and a control unit 220 .

움직임센서(200)는 제어장치(110,120,130)의 위치, 방향, 속도 및 가속도 중 적어도 하나 이상을 측정하기 위한 센서로서, 가속도 센서, 지자기 센서 및 자이로 센서 중 적어도 하나 이상을 포함할 수 있다. The motion sensor 200 is a sensor for measuring at least one of the position, direction, speed, and acceleration of the control devices 110 , 120 , and 130 , and may include at least one or more of an acceleration sensor, a geomagnetic sensor, and a gyro sensor.

통신부(210)는 음악생성장치(100)와 통신연결을 수행한다. 예를 들어, 통신부(210)는 블루투스 등의 근거리 통신 방법을 이용하여 음악생성장치와 연결하거나, 인터넷을 통해 음악생성장치와 연결할 수 있는 등 종래의 다양한 통신 방법이 본 실시 예에 적용될 수 있다. 다른 실시 예로, 통신부(210)는 유선을 통해 음악생성장치(100)와 연결될 수도 있다.The communication unit 210 performs communication connection with the music generating apparatus 100 . For example, the communication unit 210 may connect to the music generating device using a short-range communication method such as Bluetooth, or connect to the music generating device through the Internet, and various conventional communication methods may be applied to this embodiment. In another embodiment, the communication unit 210 may be connected to the music generating apparatus 100 through a wire.

제어부(220)는 움직임센서(200)를 통해 측정한 값을 기초로 움직임정보를 생성한 후 이를 통신부(210)를 통해 음악생성장치(100)에 전송한다. 제어부(220)가 움직임정보를 전송하는 시점 등은 다양한 방법으로 구현할 수 있다. The controller 220 generates motion information based on a value measured by the motion sensor 200 and transmits it to the music generating device 100 through the communication unit 210 . The timing at which the controller 220 transmits the motion information may be implemented in various ways.

일 실시 예로, 제어부(220)는 음악생성장치(100)와 통신이 연결되면 움직임정보를 일정시간 단위(예를 들어, 0.5초 단위)로 음악생성장치(100)에 전송할 수 있다. As an example, when communication is established with the music generating apparatus 100 , the controller 220 may transmit the motion information to the music generating apparatus 100 in units of a predetermined time (eg, in units of 0.5 seconds).

다른 실시 예로, 제어부(220)는 사용자로부터 특정 동작이나 버튼 입력 등이 있는 경우에만 움직임정보를 음악생성장치(100)로 전송할 수 있다. 예를 들어, 제어장치에 버튼이 존재하는 경우에, 제어부(220)는 사용자가 버튼을 누르고 있는 동안에만 제어장치의 움직임정보를 음악생성장치로 전송할 수 있다. 다른 예로, 제어장치의 터치스크린 등에 시작버튼과 종료버튼이 존재한다면, 제어부(220)는 시작버튼을 누른 후 종료버튼이 눌러질 때까지 그 사이의 제어장치의 움직임정보를 음악생성장치로 전송할 수 있다. 또 다른 예로, 제어부(220)는 특정 동작 또는 특정 소리나 단어 등을 기초로 움직임정보의 전송시작시점과 전송종료시점을 제어할 수 있다. In another embodiment, the controller 220 may transmit the motion information to the music generating apparatus 100 only when there is a specific action or button input from the user. For example, when a button is present in the control device, the controller 220 may transmit motion information of the control device to the music generating device only while the user presses the button. As another example, if a start button and an end button exist on the touch screen of the control device, the controller 220 may transmit motion information of the control device to the music generating device between pressing the start button and until the end button is pressed. there is. As another example, the controller 220 may control the transmission start time and the transmission end time of the motion information based on a specific operation or a specific sound or word.

제어장치(110,120,130)는 막대 모양 등 다양한 형태로 구현될 수 있다. 또는 제어장치(110,120,130)는 스마트폰으로 구현될 수 있다. 예를 들어, 본 실시 예를 애플리케이션 형태로 구현한 후 이를 스마트폰에 탑재하여 스마트폰을 제어장치(110,120,130)로 활용할 수 있다.The control devices 110 , 120 , and 130 may be implemented in various shapes, such as a bar shape. Alternatively, the control devices 110 , 120 , and 130 may be implemented with a smart phone. For example, after implementing the present embodiment in the form of an application, it can be mounted on a smartphone to utilize the smartphone as the control devices 110 , 120 , and 130 .

도 3은 본 발명의 실시 예에 따른 음악생성장치의 일 예의 구성을 도시한 도면이다.3 is a diagram illustrating a configuration of an example of a music generating apparatus according to an embodiment of the present invention.

도 3을 참조하면, 음악생성장치(100)는 통신부(300), 프로세서(310), 스피커(320) 및 저장부(330)를 포함한다.Referring to FIG. 3 , the music generating apparatus 100 includes a communication unit 300 , a processor 310 , a speaker 320 , and a storage unit 330 .

통신부(300)는 적어도 하나 이상의 제어장치(110,120,130)와 유선 또는 무선 통신을 연결한다. 예를 들어, 통신부(300)는 블루투스를 통해 복수의 제어장치와 동시에 연결하거나, 인터넷을 통해 복수의 제어장치와 동시에 연결할 수 있다.The communication unit 300 connects at least one or more control devices 110 , 120 , 130 and wired or wireless communication. For example, the communication unit 300 may be simultaneously connected to a plurality of control devices via Bluetooth or may be simultaneously connected to a plurality of control devices via the Internet.

프로세서(310)는 저장부(330)에 저장된 음악생성알고리즘을 실행한다.The processor 310 executes the music generation algorithm stored in the storage 330 .

저장부(330)는 사용자 참여형 음악 생성 방법이 구현된 음악생성알고리즘 (340)을 포함한다. 저장부(330)는 메모리, SSD(Solid State Drive) 등 다양한 형태로 구현될 수 있다. 저장부(330)는 또한 이미 완성된 음악을 저장하거나, 실시간 작곡되는 음악을 저장할 수 있다. The storage unit 330 includes a music generation algorithm 340 in which a user participatory music generation method is implemented. The storage unit 330 may be implemented in various forms, such as a memory and a solid state drive (SSD). The storage unit 330 may also store already completed music or store music composed in real time.

스피커(320)는 저장부(330)에 저장된 음악 또는 실시간 작곡되는 음악을 출력할 수 있다. 실시 예에 따라 스피커(320)는 생략될 수 있다. 예를 들어, 제어장치(110,120,130)에 스피커가 존재한다면, 음악생성장치(100)는 음악을 통신부(300)를 통해 제어장치(110,120,130)로 전송하여 출력되도록 할 수 있다.The speaker 320 may output music stored in the storage 330 or music composed in real time. In some embodiments, the speaker 320 may be omitted. For example, if speakers are present in the control devices 110 , 120 , and 130 , the music generating device 100 may transmit music to the control devices 110 , 120 , and 130 through the communication unit 300 to be output.

저장부(330)에 저장된 음악생성알고리즘(340)을 좀 더 구체적으로 살펴보면, 맵핑부(350), 작곡부(360), 참여부(370) 및 재생부(380)를 포함한다. Looking at the music generation algorithm 340 stored in the storage unit 330 in more detail, it includes a mapping unit 350 , a composing unit 360 , a participating unit 370 , and a playback unit 380 .

맵핑부(350)는 음악의 각 트랙과 적어도 하나 이상의 제어장치 사이의 맵핑관계를 저장한다. 예를 들어, 음악은 멜로디, 반주, 베이스 등과 같이 복수 개의 트랙으로 구성될 수 있으며, 맵핑부(350)는 이러한 각 트랙과 각 제어장치 사이의 맵핑관계를 저장한다. 일 실시 예로, 음악생성장치(100)는 각 트랙과 각 제어장치 사이를 사용자가 맵핑할 수 있도록 다양한 형태의 인터페이스(예를 들어, 화면 인터페이스 등)를 제공할 수 있다. 다른 예로, 각 트랙과 각 제어장치 사이의 맵핑관계는 미리 고정되어 있을 수 있다. 트랙과 제어장치 사이의 맵핑관계의 일 예가 도 4에 도시되어 있다.The mapping unit 350 stores a mapping relationship between each track of music and at least one control device. For example, music may be composed of a plurality of tracks such as melody, accompaniment, and bass, and the mapping unit 350 stores a mapping relationship between each track and each control device. As an embodiment, the music generating apparatus 100 may provide various types of interfaces (eg, a screen interface, etc.) so that a user can map between each track and each control device. As another example, the mapping relationship between each track and each control device may be fixed in advance. An example of the mapping relationship between the track and the control device is shown in FIG. 4 .

작곡부(360)는 자동작곡알고리즘을 이용하여 음악을 자동작곡한다. 예를 들어, 작곡부(360)는 국내특허출원 제10-2018-0023898호 "음원 평가 방법 및 그 장치와 이를 이용한 음원 생성 방법 및 그 장치", 국내특허출원 제10-2018-0129339호 "자동자곡장치 및 그 방법"의 방법을 이용하여 작곡할 수 있다. 이 외에도 종래에 다양한 자동작곡알고리즘이 본 실시 예에 적용될 수 있다. 실시 예에 따라 작곡부(360)는 생략가능하다.The composition unit 360 automatically composes music using an automatic composition algorithm. For example, the composing unit 360 is configured in the domestic patent application No. 10-2018-0023898 "Method for evaluating sound source and apparatus, and method and apparatus for generating sound source using the same", domestic patent application No. 10-2018-0129339 "Automatic You can compose music using the method of "Own composition device and method therefor". In addition to this, various conventional automatic composition algorithms may be applied to this embodiment. According to an embodiment, the composing unit 360 may be omitted.

재생부(380)는 저장부(330)에 저장된 음악을 재생하거나 작곡부(360)에 의해 실시간 작곡되는 음악을 재생한다. 예를 들어, 재생부(380)는 이전에 이미 작곡되어 저장된 음악을 다시 재생할 수도 있다. The reproducing unit 380 reproduces music stored in the storage 330 or music composed in real time by the composing unit 360 . For example, the reproducing unit 380 may reproduce previously composed and stored music again.

참여부(370)는 적어도 하나 이상의 제어장치(110,120,130)로부터 움직임정보를 수신하면, 움직임정보에 해당하는 작곡 요소(리듬이나 음정, 음역대, 장르, 빠르기 등)를 결정한다. 예를 들어, 제어장치(110,120,130)의 움직임 속도나 빈도, 앞뒤 이동, 상하 이동 또는 좌우 이동 등에 따라 음악의 리듬밀도나 음정도약 크기 또는 음역대의 이동, 장르, 빠르기 등과 같은 다양한 작곡 요소를 결정할 수 있다. 움직임정보에 따른 작곡요소를 결정하는 방법의 일 예가 도 5에 도시되어 있다.When the participation unit 370 receives motion information from at least one or more control devices 110 , 120 , 130 , it determines a composition element (rhythm or pitch, pitch range, genre, speed, etc.) corresponding to the motion information. For example, according to the movement speed or frequency of the control device 110 , 120 , 130 , forward and backward movement, vertical movement, or left and right movement, various compositional elements such as rhythm density or pitch approximation of music or movement of sound range, genre, speed, etc. can be determined. . An example of a method of determining a composition element according to motion information is illustrated in FIG. 5 .

복수의 제어장치(110,120,130)와 동시에 연결되고 복수의 제어장치(110,120,130)로부터 움직임정보를 수신하는 경우에, 참여부(370)는 각 제어장치와 맵핑된 각 트랙에 대한 작곡 요소를 각각 생성할 수 있다. 예를 들어, 도 4를 참조하면, 음악의 제1 트랙(410)과 맵핑된 제1 제어장치(110)로부터 움직임정보를 수신하면, 참여부(370)는 제1 제어장치(110)의 움직임정보를 기초로 제1 트랙(410)에 대한 작곡요소를 결정하고, 제2 트랙(420)과 맵핑된 제2 제어장치(120)로부터 움직임정보를 수신하면, 참여부(370)는 제2 제어장치(120)의 움직임정보를 기초로 제2 트랙(420)에 대한 작곡요소를 결정한다. 즉, 각 트랙별 작곡요소는 각 제어장치(110,120,130)의 움직임정보를 기초로 서로 독립적으로 결정될 수 있다.When the plurality of control devices 110, 120, and 130 are simultaneously connected and motion information is received from the plurality of control devices 110, 120, 130, the participating unit 370 may generate a composition element for each track mapped to each control device, respectively. there is. For example, referring to FIG. 4 , when motion information is received from the first control device 110 mapped to the first track 410 of music, the participating unit 370 moves the first control device 110 . When a composition element for the first track 410 is determined based on the information and motion information is received from the second control device 120 mapped to the second track 420, the participating unit 370 controls the second A composition element for the second track 420 is determined based on the motion information of the device 120 . That is, the composition elements for each track may be determined independently of each other based on the motion information of the respective control devices 110 , 120 , and 130 .

참여부(370)가 생성한 작곡요소는 작곡부(360)에 입력되고, 작곡부(360)는 참여부(370)로부터 수신한 작곡요소에 따라 재생중인 음악의 음 진행을 변경한다. 참여부(370)가 생성한 작곡요소에 따라 재생 중인 음악의 음 진행을 변경하는 예에 대하여 도 6에서 다시 설명한다.The composition element generated by the participation unit 370 is input to the composition unit 360 , and the composition unit 360 changes the tone progression of the music being reproduced according to the composition element received from the participation unit 370 . An example of changing the tone progression of the music being reproduced according to the composition element generated by the participating unit 370 will be described again with reference to FIG. 6 .

도 4는 본 발명의 실시 예에 따른 음악의 트랙과 제어장치 사이의 맵핑관계의 일 예를 도시한 도면이다.4 is a diagram illustrating an example of a mapping relationship between a music track and a control device according to an embodiment of the present invention.

도 4를 참조하면, 음악(400)은 복수의 트랙(410,420,430)으로 구성될 수 있다. 예를 들어, 제1 트랙(410)은 멜로디, 제2 트랙(420)은 반주, 제3 트랙(430)은 베이스일 수 있다. 또한 제1 트랙(410)은 피아노로 연주되고, 제2 트랙(420)은 바이올린으로 연주되고, 제3 트랙(430)은 베이스기타로 연주될 수 있다. Referring to FIG. 4 , music 400 may be composed of a plurality of tracks 410 , 420 , and 430 . For example, the first track 410 may be a melody, the second track 420 may be accompaniment, and the third track 430 may be a bass. Also, the first track 410 may be played by a piano, the second track 420 may be played by a violin, and the third track 430 may be played by a bass guitar.

음악생성장치(100)는 제1 트랙(410)과 제1 제어장치(110) 사이를 맵핑하고, 제2 트랙(420)과 제2 제어장치(120) 사이를 맵핑하고, 제3 트랙(430)과 제3 제어장치(130) 사이를 맵핑할 수 있다. 본 실시 예는 이해를 돕기 위하여 트랙(410,420,430)과 제어장치(110,120,130) 사이의 1:1 맵핑관계를 도시하고 있으나, 트랙(410,420,430)과 제어장치(110,120,130) 사이의 맵핑관계는 n:1 또는 1:n(n은 2 이상의 자연수)이 될 수 있는 등 실시 예에 따라 다양하게 변형할 수 있다.The music generating device 100 maps between the first track 410 and the first control device 110 , maps between the second track 420 and the second control device 120 , and maps the third track 430 . ) and the third control device 130 may be mapped. Although this embodiment shows a 1:1 mapping relationship between the tracks 410, 420, and 430 and the controller 110, 120, and 130 for better understanding, the mapping relationship between the tracks 410, 420, 430 and the controller 110, 120, 130 is n:1 or 1 : n (n is a natural number greater than or equal to 2) may be variously modified according to an embodiment.

도 5는 본 발명의 실시 예에 따른 움직임정보와 작곡 요소 또는 연주 방식의 맵핑관계의 일 예를 도시한 도면이다.5 is a diagram illustrating an example of a mapping relationship between motion information and a composition element or a performance method according to an embodiment of the present invention.

도 5를 참조하면, 음직임정보는 움직임 속도/빈도(510), 앞뒤 이동(520), 상하 이동(530), 좌우 이동(540), 가속도 크기(550) 중 적어도 하나 이상의 값을 포함할 수 있다. 예를 들어, 사용자가 제어장치(110,120,130)를 상하, 좌우, 또는 앞뒤로 이동시키는 경우, 또는 제어장치(110,120,130)를 빠른 속도로 흔드는 경우에 그에 따른 움직임정보가 생성된다.Referring to FIG. 5 , sound movement information may include at least one or more values of movement speed/frequency 510 , forward and backward movement 520 , vertical movement 530 , left and right movement 540 , and acceleration magnitude 550 . there is. For example, when the user moves the control devices 110 , 120 , 130 up and down, left and right, or forwards and backwards, or when the user shakes the control devices 110 , 120 , 130 at a high speed, motion information is generated accordingly.

재생 중인 음악의 음 진행을 변경하는데 사용되는 작곡 요소의 일 예로, 리듬밀도(515), 음정도약(525), 음역대 이동(535) 등이 존재하고, 재생 중인 음악의 연주 방식의 변경의 예로, 연주 주법(545)(예를 들어, 바이올린이 레카도, 스타카토, 트레몰로 등의 연주 주법), 연주 세기(555) 등이 존재한다. As an example of a composition element used to change the tone progression of the music being reproduced, there are rhythm density 515, pitch weakness 525, range shift 535, etc. As an example of changing the playing method of the music being reproduced, There are a performance playing method 545 (for example, playing a violin recado, staccato, tremolo, etc.), a playing strength 555, and the like.

음악생성장치(100)는 움직임정보를 구성하는 각 정보를 기초로 여러 사용자가 작곡(500)에 참여하도록 하거나 재생 중인 음악의 연주(505) 방식을 다르게 할 수 있다. The music generating apparatus 100 may allow several users to participate in the composition 500 based on each piece of information constituting the motion information, or may vary the method of performing the playing 505 of the music being reproduced.

사용자가 제어장치(110,120,130)를 흔드는 경우에, 음악생성장치(100)는 제어장치(110,120,130)로부터 수신한 움직임 속도 또는 왕복 빈도에 해당하는 리듬 밀도(515)(즉, 한 마디에 존재하는 음표의 개수)를 결정한다. 예를 들어, 음악생성장치(100)는 움직임 속도/빈도가 빠르면 리듬밀도를 증가시키고 움직임 속도 또는 빈도가 느리면 리듬 밀도(515)를 줄일 수 있다. 움직임 속도 또는 빈도의 각 구간과 이에 해당하는 리듬 밀도(515의 정량적인 값을 미리 정해 놓은 후, 음악생성장치(100)는 제어장치(110,120,130)로부터 수신한 움직임 속도 또는 빈도가 속하는 구간의 리듬 밀도의 값을 파악할 수 있다. 또는 움직임 속도 또는 빈도가 일정 이상이면 리듬 밀도(515)의 상향, 일정 이하이면 리듬 밀도의 하향을 결정할 수 있다. 음악생성장치(100)는 움직임정보를 기초로 결정된 리듬 밀도의 작곡 요소를 자동작곡알고리즘에 입력하여 리듬 밀도(515)에 맞는 곡을 자동 자곡할 수 있다. 이때 자동작곡알고리즘은 화성학적으로 조화된 곡을 자동으로 작곡하는 알고리즘이므로, 사용자는 리듬을 더 조밀하게 할지 더 느슨하게 할지 제어장치를 통해 결정하면 될 뿐 작곡 이론에 대한 전문적인 지식 등이 필요하지 않는다. When the user shakes the control devices 110 , 120 , and 130 , the music generating device 100 controls the rhythm density 515 corresponding to the movement speed or the reciprocating frequency received from the control devices 110 , 120 and 130 (that is, the number of notes present in one measure). number) is determined. For example, the music generating apparatus 100 may increase the rhythm density when the movement speed/frequency is fast and decrease the rhythm density 515 when the movement speed or frequency is slow. After predetermining each section of the movement speed or frequency and the corresponding rhythm density (515), the music generating apparatus 100 sets the rhythm density of the section to which the movement speed or frequency received from the control devices 110, 120, and 130 belongs. Alternatively, if the movement speed or frequency is greater than or equal to a certain level, it is possible to determine an upward movement of the rhythm density 515, and when the movement speed or frequency is less than or equal to a certain amount, it may determine a downward movement of the rhythm density. By inputting the compositional elements of density into the automatic composition algorithm, a song suitable for the rhythm density 515 can be automatically composed. At this time, the automatic composition algorithm is an algorithm that automatically composes a harmonically harmonized song, so that the user can add more rhythm. You just need to decide whether to make it denser or looser through the control unit, and you don't need specialized knowledge in composition theory.

사용자가 제어장치(110,120,130)를 앞뒤로 이동하는 경우에, 음악생성장치(100)는 음정도약(525)의 크기를 변경할 수 있다. 예를 들어, 제어장치(110,120,130)가 앞쪽으로 이동하는 거리에 비례하여 음악생성장치(100)는 음정도약(525)의 크기를 결정할 수 있다.When the user moves the control devices 110 , 120 , and 130 back and forth, the music generating device 100 may change the size of the pitch 525 . For example, the music generating apparatus 100 may determine the magnitude of the pitch attenuation 525 in proportion to the distance that the control devices 110 , 120 , and 130 move forward.

사용자가 제어장치(110,120,130)를 상하로 이동하는 경우에, 음악생성장치(100)는 음역대(535)를 이동시킬 수 있다. 예를 들어, 제어장치(100)가 위쪽으로 이동하는 거리에 비례하여 음악생성장치(100)는 음역대(535)의 이동 거리를 결정할 수 있다.When the user moves the control devices 110 , 120 , and 130 up and down, the music generating apparatus 100 may move the sound range 535 . For example, the music generating apparatus 100 may determine the moving distance of the sound band 535 in proportion to the upward moving distance of the control device 100 .

도 4에서 살핀 바와 같이, 각 제어장치(110,120,130)는 음악의 각 트랙과 맵핑된다. 따라서 멜로디인 제1 트랙(410)과 맵핑된 제1 제어장치(110)로부터 움직임정보를 수신하면, 음악생성장치(100)는 제1 트랙(410)의 리듬밀도, 음정도약 크기, 음역대 이동 등을 변경할 수 있다. As shown in FIG. 4 , each control device 110 , 120 , 130 is mapped to each track of music. Accordingly, upon receiving the motion information from the first control device 110 mapped to the first track 410 that is the melody, the music generating device 100 controls the rhythm density, the pitch, and movement of the first track 410, etc. can be changed

다른 예로, 반주인 제2 트랙(420)과 맵핑된 제2 제어장치(120)로부터 움직임정보를 수신하면, 음악생성장치(100)는 움직임의 속도/빈도에 따라 리듬의 밀도를 변경할 수 있다. 반주가 아르페지오인 경우에, 음악생성장치9100)는 제2 제어장치(120)의 앞뒤 이동에 따라 음정도약 크기를 변화하고, 상하 이동에 따라 아르페지오의 음 움직임 방향을 변화시킬 수 있다. 반주가 코드 반주인 경우에, 음악생성장치(100)는 제2 제어장치(120)의 상하 이동에 따라 코드 구성음의 복잡도를 변경시킬 수 있다.As another example, when motion information is received from the second control device 120 mapped to the second track 420 as an accompaniment, the music generating device 100 may change the density of the rhythm according to the speed/frequency of the motion. When the accompaniment is an arpeggio, the music generating apparatus 9100 may change the pitch intensity according to the forward/backward movement of the second control device 120 , and may change the sound movement direction of the arpeggio according to the vertical movement. When the accompaniment is chord accompaniment, the music generating apparatus 100 may change the complexity of the chord composition sound according to the vertical movement of the second control apparatus 120 .

또 다른 예로, 베이스인 제3 트랙(430)과 맵핑된 제3 제어장치(130)로부터 움직임정보를 수신하면, 음악생성장치(100)는 움직임의 속도/빈도에 따라 리듬의 밀도를 변경한다. 또한 음악생성장치(100)는 앞뒤 이동에 따라 음정도약 크기를 변경하고, 상하 이동에 따라 음역대의 이동을 변경할 수 있다.As another example, when receiving motion information from the third control device 130 mapped to the third track 430 serving as a base, the music generating device 100 changes the density of the rhythm according to the speed/frequency of the motion. In addition, the music generating apparatus 100 may change the pitch change according to the forward and backward movement, and may change the movement of the sound range according to the vertical movement.

또 다른 예로, 음악생성장치(100)는 각 제어장치(110,120,130)로부터 수신한 움직임정보를 기초로 각 트랙의 연주방식(505)을 변경할 수 있다. 예를 들어, 제1 트랙(410)이 바이올린으로 연주되는 경우에, 음악생성장치(100)는 제1 제어장치(110)의 좌우 이동에 따라 바이올린의 주법을 레가토, 스타카토, 트레몰로 등으로 변경할 수 있다. 또는 음악생성장치(100)는 제1 제어장치(110)의 가속도 크기에 따라 연주세기를 변경할 수 있다.As another example, the music generating apparatus 100 may change the playing method 505 of each track based on the motion information received from each of the control apparatuses 110 , 120 , and 130 . For example, when the first track 410 is played by a violin, the music generating device 100 may change the playing method of the violin to legato, staccato, tremolo, etc. according to the left and right movement of the first control device 110 . there is. Alternatively, the music generating device 100 may change the playing strength according to the magnitude of the acceleration of the first control device 110 .

도 6은 본 발명의 실시 예에 따른 사용자 참여를 반영한 실시간 작곡 방법의 일 예를 도시한 도면이다.6 is a diagram illustrating an example of a real-time composition method reflecting user participation according to an embodiment of the present invention.

도 6을 참조하면, 음악생성장치는 음악의 재생 중에 적어도 하나 이상의 제어장치로부터 움직임정보를 수신한다. 본 실시 예는 설명의 편의를 위하여 음악의 한 트랙(600)만을 도시하여 설명한다.Referring to FIG. 6 , the music generating device receives motion information from at least one control device while playing music. In this embodiment, only one track 600 of music is shown and described for convenience of description.

제어장치(110)로부터 움직임정보를 수신하면, 음악생성장치(100)는 움직임정보에 따른 작곡 요소를 결정한다. 예를 들어, 도 5에서 살핀 바와 같이 제어장치(110)가 위로 이동하였다면, 음악생성장치(100)는 음역대 이동에 대한 작곡요소를 결정한다. Upon receiving the motion information from the control device 110 , the music generating device 100 determines a composition element according to the motion information. For example, if the control device 110 moves upward as shown in FIG. 5 , the music generating device 100 determines a composition element for the movement of the sound range.

음악생성장치(100)가 결정한 작곡 요소는 음악의 다음 마디에 반영된다. 예를 들어, 음악생성장치(100)는 음악의 첫 번째 마디(610)가 재생되는 동안 제어장치(110)로부터 수신한 제1 움직임정보를 기초로 변경할 작곡 요소를 결정하고, 이를 이용하여 두 번째 마디(620)를 자동 작곡한다. 그리고 음악생성장치(100)는 자동 작곡된 두 번째 마디(620)의 재생 중에 제어장치(110)로부터 수신한 제2 움직임정보를 기초로 결정된 작곡 요소를 이용하여 세 번째 마디(630)를 자동 작곡한다.The composition element determined by the music generating device 100 is reflected in the next measure of the music. For example, the music generating device 100 determines a composition element to be changed based on the first motion information received from the control device 110 while the first measure 610 of the music is being reproduced, and uses this to determine the second A measure 620 is automatically composed. And the music generating device 100 automatically composes the third measure 630 using a composition element determined based on the second motion information received from the control device 110 during reproduction of the automatically composed second measure 620 . do.

도 7은 본 발명의 실시 예에 따른 사용자 참여형 음악 생성 방법의 일 예를 도시한 흐름도이다.7 is a flowchart illustrating an example of a method for generating user-participating music according to an embodiment of the present invention.

도 7을 참조하면, 음악생성장치(100)는 음악의 트랙과 제어장치 사이를 맵핑한다(S700). 트랙과 제어장치 사이의 맵핑관계의 일 예가 도 4에 도시되어 있다. 음악생성장치(100)는 기 저장된 음악을 재생하거나 또는 실시간 음악을 작곡하여 재생한다(S710). 음악의 재생 동안, 음악생성장치(100)는 제어장치로부터 움직임정보를 수신하면(S720), 움직임정보를 기초로 결정한 작곡 요소를 반영하여 재생 중인 음악의 음 진행을 변경하거나 연주 방식을 변경한다(S730).Referring to FIG. 7 , the music generating device 100 maps music tracks and the control device ( S700 ). An example of the mapping relationship between the track and the control device is shown in FIG. 4 . The music generating apparatus 100 plays pre-stored music or composes and plays real-time music (S710). During music reproduction, when the music generating apparatus 100 receives motion information from the control device (S720), it reflects the composition element determined based on the motion information to change the tone progression of the music being reproduced or change the performance method ( S730).

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable program codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. In addition, the computer-readable recording medium is distributed in a network-connected computer system so that the computer-readable code can be stored and executed in a distributed manner.

이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at with respect to preferred embodiments thereof. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

Claims (7)

복수의 제어장치를 복수의 음악트랙과 각각 맵핑하는 단계;
음악 재생 중에 상기 복수의 제어장치로부터 움직임정보를 수신하는 단계; 및
상기 복수의 제어장치로부터 수신한 움직임정보를 기초로 결정한 작곡요소를 반영하여 재생 중인 음악의 각 트랙의 다음 마디를 자동작곡알고리즘을 이용하여 실시간 작곡하는 단계;를 포함하고,
상기 복수의 음악트랙은 멜로디, 반주, 베이스의 트랙을 포함하고,
상기 작곡요소는 한 마디에 존재하는 음표의 개수인 리듬밀도를 포함하고,
상기 작곡하는 단계는, 상기 다음 마디의 재생 중에 상기 복수의 제어장치로부터 수신한 움직임정보를 기초로 각 트랙의 그 다음 마디를 자동 작곡하는 단계를 포함하는 것을 특징으로 하는 실시간 사용자 참여형 음악 생성 방법.
mapping a plurality of control devices to a plurality of music tracks, respectively;
receiving motion information from the plurality of control devices during music reproduction; and
Composing in real time the next bar of each track of the music being reproduced by reflecting the composition element determined based on the motion information received from the plurality of control devices using an automatic composition algorithm;
The plurality of music tracks include tracks of melody, accompaniment, and bass,
The composition element includes rhythm density, which is the number of notes present in one measure,
The composing comprises automatically composing the next measure of each track based on the motion information received from the plurality of control devices while the next measure is being reproduced.
삭제delete 제 1항에 있어서,
상기 움직임정보는 제어장치의 움직임 속도나 빈도, 움직임 방향, 위치 또는 가속도를 포함하는 것을 특징으로 하는 실시간 사용자 참여형 음악 생성 방법.
The method of claim 1,
The motion information includes a movement speed or frequency of a control device, a movement direction, a position, or an acceleration.
삭제delete 삭제delete 적어도 하나 이상의 제어장치와 유선 또는 무선통신을 연결하는 통신부;
복수의 제어장치와 복수의 음악트랙 사이의 맵핑관계와 음악생성알고리즘이 저장된 저장부;
상기 음악생성알고리즘을 실행하는 프로세서; 및
상기 음악생성알고리즘에 의해 생성된 음악을 출력하는 스피커;를 포함하고,
상기 음악생성알고리즘은 음악 재생 중에 상기 복수의 제어장치로부터 수신한 움직임정보를 기초로 결정한 작곡요소를 반영하여 재생 중인 음악의 각 트랙의 다음 마디를 자동작곡알고리즘을 이용하여 실시간 작곡하고,
상기 복수의 음악트랙은 멜로디, 반주, 베이스의 트랙을 포함하고,
상기 작곡요소는 한 마디에 존재하는 음표의 개수인 리듬밀도를 포함하고,
상기 음악생성알고리즘은, 상기 다음 마디의 재생 중에 상기 복수의 제어장치로부터 수신한 움직임정보를 기초로 각 트랙의 그 다음 마디를 자동 작곡하는 것을 특징으로 하는 음악생성장치.
a communication unit connecting at least one control device and wired or wireless communication;
a storage unit in which a mapping relationship between a plurality of control devices and a plurality of music tracks and a music generation algorithm are stored;
a processor executing the music generation algorithm; and
Including; a speaker for outputting the music generated by the music generation algorithm;
The music generation algorithm reflects the composition element determined based on the motion information received from the plurality of control devices during music reproduction and composes the next bar of each track of the music being reproduced in real time using an automatic composition algorithm,
The plurality of music tracks include tracks of melody, accompaniment, and bass,
The composition element includes rhythm density, which is the number of notes present in one measure,
and the music generating algorithm automatically composes the next measure of each track based on the motion information received from the plurality of control devices during reproduction of the next measure.
제 1항에 기재된 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.

A computer-readable recording medium in which a program for performing the method according to claim 1 is recorded.

KR1020200069841A 2020-06-09 2020-06-09 Method for generating user engagement music and apparatus therefor KR102390950B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200069841A KR102390950B1 (en) 2020-06-09 2020-06-09 Method for generating user engagement music and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200069841A KR102390950B1 (en) 2020-06-09 2020-06-09 Method for generating user engagement music and apparatus therefor

Publications (2)

Publication Number Publication Date
KR20210152847A KR20210152847A (en) 2021-12-16
KR102390950B1 true KR102390950B1 (en) 2022-04-27

Family

ID=79033385

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200069841A KR102390950B1 (en) 2020-06-09 2020-06-09 Method for generating user engagement music and apparatus therefor

Country Status (1)

Country Link
KR (1) KR102390950B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230147296A (en) 2022-04-14 2023-10-23 전주대학교 산학협력단 Music feedback system using the removal or addition of music instrument for the purposed movement

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002341870A (en) * 2001-05-15 2002-11-29 Yamaha Corp Musical sound control system and musical sound control device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150072597A (en) * 2013-12-20 2015-06-30 삼성전자주식회사 Multimedia apparatus, Method for composition of music, and Method for correction of song thereof
KR102269591B1 (en) * 2018-10-26 2021-06-24 주식회사 크리에이티브마인드 Apparatus and method for automatically composing music

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002341870A (en) * 2001-05-15 2002-11-29 Yamaha Corp Musical sound control system and musical sound control device

Also Published As

Publication number Publication date
KR20210152847A (en) 2021-12-16

Similar Documents

Publication Publication Date Title
JP4306754B2 (en) Music data automatic generation device and music playback control device
JPWO2008004690A1 (en) Portable chord output device, computer program, and recording medium
JP2014217627A (en) Physical action evaluation device, karaoke system, and program
JP5377878B2 (en) Program, information storage medium, and game system
JP4496993B2 (en) Music control device
JP2007078751A (en) Concert system
JP2018534631A (en) Dynamic change of audio content
JP5313196B2 (en) Difficulty level calculation device, difficulty level calculation method, and computer program
KR102390950B1 (en) Method for generating user engagement music and apparatus therefor
JP6065703B2 (en) Reference data creation system and performance terminal device
JP7367835B2 (en) Recording/playback device, control method and control program for the recording/playback device, and electronic musical instrument
JP2006251376A (en) Musical sound controller
JPH07306687A (en) Sound reproducing processor and its system
JP5842383B2 (en) Karaoke system and karaoke device
KR102240872B1 (en) Method for composing music based on surrounding environment and apparatus therefor
US20090282965A1 (en) Musical sound device
JP5394301B2 (en) Timing designation device, music playback device, karaoke system, and timing designation method
US8294015B2 (en) Method and system for utilizing a gaming instrument controller
JP2737169B2 (en) Automatic accompaniment device
KR101842282B1 (en) Guitar playing system, playing guitar and, method for displaying of guitar playing information
WO2022172732A1 (en) Information processing system, electronic musical instrument, information processing method, and machine learning system
WO2021100742A1 (en) Reproduction control system, keyboard instrument, reproduction control method, and program
JP2010185973A (en) Sound generation control device
JP2007233078A (en) Evaluation device, control method, and program
JP2006251054A (en) Musical sound controller

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right