KR102640557B1 - Apparatus and method for composing music based on brain-computer interface with the theory of music - Google Patents

Apparatus and method for composing music based on brain-computer interface with the theory of music Download PDF

Info

Publication number
KR102640557B1
KR102640557B1 KR1020210131022A KR20210131022A KR102640557B1 KR 102640557 B1 KR102640557 B1 KR 102640557B1 KR 1020210131022 A KR1020210131022 A KR 1020210131022A KR 20210131022 A KR20210131022 A KR 20210131022A KR 102640557 B1 KR102640557 B1 KR 102640557B1
Authority
KR
South Korea
Prior art keywords
sound
sounds
classifier
bci
probability
Prior art date
Application number
KR1020210131022A
Other languages
Korean (ko)
Other versions
KR20230047772A (en
Inventor
정천기
김준식
신유민
권지이
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020210131022A priority Critical patent/KR102640557B1/en
Publication of KR20230047772A publication Critical patent/KR20230047772A/en
Application granted granted Critical
Publication of KR102640557B1 publication Critical patent/KR102640557B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/081Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/145Composing rules, e.g. harmonic or musical rules, for use in automatic composition; Rule generation algorithms therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 방법은 각 단계의 적어도 일부가 프로세서에 의해 수행되고, 뇌 신호 데이터를 입력 받는 단계, 뇌 신호 데이터를 머신 러닝 기반의 제1 분류기에 입력하여 뇌 신호 데이터가 획득된 대상자가 상상한 제1 음을 추정하는 단계, 복수 개의 과거 음을 머신 러닝 기반의 제2 분류기의 입력으로 하여 제2 음을 추정하는 단계 및 제1 음 및 제2 음을 기반으로 최종 음을 결정하는 단계를 포함할 수 있다.The BCI-based music composition method according to an embodiment of the present disclosure includes at least part of each step being performed by a processor, receiving brain signal data, and inputting the brain signal data into a first classifier based on machine learning to obtain a brain signal. A step of estimating the first sound imagined by the subject from whom the data was acquired, a step of estimating a second sound by using a plurality of past sounds as input to a second classifier based on machine learning, and Based on the first sound and the second sound It may include the step of determining the final note.

Description

음악 이론을 이용한 뇌-컴퓨터 인터페이스 기반 음악 작곡 방법 및 장치{APPARATUS AND METHOD FOR COMPOSING MUSIC BASED ON BRAIN-COMPUTER INTERFACE WITH THE THEORY OF MUSIC}Brain-computer interface-based music composition method and device using music theory {APPARATUS AND METHOD FOR COMPOSING MUSIC BASED ON BRAIN-COMPUTER INTERFACE WITH THE THEORY OF MUSIC}

본 개시는 뇌 신호를 디코딩(해독, 해석)하는 기술에 관한 것으로서, 더욱 상세하게는 뇌 신호의 디코딩을 통하여 대상자가 상상(imagination)한 음(音)을 추정하여 음악을 작곡하는 장치 및 방법에 관한 것이다.The present disclosure relates to a technology for decoding (deciphering, interpreting) brain signals, and more specifically, to an apparatus and method for composing music by estimating sounds imagined by a subject through decoding of brain signals. It's about.

뇌-컴퓨터 인터페이스(brain-computer interface: bci)는 뇌 신호를 이용하여 기기를 제어하거나 사용자의 의도, 감정 등을 판별하는 기술로서, 주로 뇌의 전기적 활동으로 생성되는 뇌 신호에 기반하여 사용자의 의도를 인식하는 기술이다. Brain-computer interface (BCI) is a technology that uses brain signals to control devices or determine the user's intentions and emotions. It mainly determines the user's intentions based on brain signals generated by the brain's electrical activity. It is a technology that recognizes.

종래 신체가 자유롭지 못하거나 마비된 환자들의 의도를 인식하기 위해 의료 분야에서 주로 연구되어 왔으나, 게임 등 일반인들의 주변 기기 제어 등 다양한 분야에 적용하기 위해 연구되고 있다. 뇌-컴퓨터 인터페이스의 작동 방식 중 내재적인 방식은 외부의 자극이 없는 상태에서 사용자의 상상을 통해서 유발되는 뇌파를 분석해 의도를 판별하는 방법이다. Conventionally, it has been mainly studied in the medical field to recognize the intentions of patients who are physically disabled or paralyzed, but is also being studied for application to various fields such as controlling peripheral devices of the general public, such as games. The inherent method of operating a brain-computer interface is to determine intent by analyzing brain waves triggered by the user's imagination in the absence of external stimulation.

특히, 사용자가 자신의 몸 또는 대상 피 제어 기기를 움직이는 상상을 통해 뇌 신호를 유발하고, 유발된 뇌 신호를 해석(디코딩)하는 동작 상상(motor imagery)이 많이 연구되고 있다.In particular, motor imagery, in which a user triggers brain signals by imagining moving his or her body or a controlled device, and interprets (decodes) the evoked brain signals, is being widely studied.

종래 인공신경망 등의 딥러닝 기술에 기반하여 음악을 자동으로 작곡하는 기술이 존재한다. There exists technology for automatically composing music based on deep learning technologies such as conventional artificial neural networks.

선행기술 1은 사용자로부터 특정한 스타일의 작곡 요청에 대하여, 복수의 음원들로부터 획득한 코드를 기초로 인공 신경망의 기계학습을 이용하여 곡의 화성 진행을 구성하는 기술이 존재한다. 하지만, 선행기술 1은 사용자가 의도한 곡 진행 등이 개입될 여지가 없다. Prior art 1 exists in response to a request for composing a specific style from a user, and there exists a technology that configures the harmonic progression of a song using machine learning of an artificial neural network based on codes obtained from a plurality of sound sources. However, in prior art 1, there is no room for intervention in the user's intended song progression.

다른 방식으로 선행기술 2의 사용자의 음성을 입력 받아 사용자의 음성에 상응하는 음계 또는 음계의 박자를 결정하여 작곡을 수행하는 기술이 존재한다. 하지만, 선행기술 2는 사용자가 음성을 발화해야만 하며 사용자의 상상만으로 작곡을 수행할 수 없다.In another way, there is a technology in Prior Art 2 that receives the user's voice and determines the scale or beat of the scale corresponding to the user's voice to perform composition. However, prior art 2 requires the user to utter a voice and cannot compose music using only the user's imagination.

따라서, 사용자의 상상으로 음악의 악보를 구현하면서, 뇌 신호 디코딩의 정확도를 보완하거나 음악 작곡에 지식이 부족한 사람의 상상을 보완할 수 있는 기술이 필요하다.Therefore, there is a need for a technology that can implement music scores using the user's imagination while complementing the accuracy of brain signal decoding or the imagination of people who lack knowledge of music composition.

선행기술 1: 대한민국 등록특허 제 10-1886534호 (2018.08.09. 공고)Prior Art 1: Republic of Korea Patent No. 10-1886534 (announced on August 9, 2018) 선행기술 2: 대한민국 공개특허 제 10-2012-0047077호 (2012.05.11. 공개)Prior Art 2: Republic of Korea Patent Publication No. 10-2012-0047077 (published on May 11, 2012)

본 개시의 일 실시 예는 음을 상상하는 뇌 신호를 디코딩하여 BCI 기반으로 음악을 작곡하는 장치 및 방법을 제공한다. An embodiment of the present disclosure provides an apparatus and method for composing music based on BCI by decoding brain signals imagining sounds.

본 개시의 다른 실시 예는 음을 상상하는 뇌 신호 디코딩의 해석 결과를 인공 지능에 기반한 음악 이론으로 보완하는 장치 및 방법을 제공한다.Another embodiment of the present disclosure provides an apparatus and method for supplementing the analysis results of decoding brain signals imagining sounds with music theory based on artificial intelligence.

본 개시의 일 실시 예는 BCI 기반의 음악 작곡 장치 및 방법을 제공한다.One embodiment of the present disclosure provides a BCI-based music composition device and method.

본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 방법은 각 단계의 적어도 일부가 프로세서에 의해 수행되고, 뇌 신호 데이터를 입력 받는 단계, 뇌 신호 데이터를 머신 러닝 기반의 제1 분류기에 입력하여 뇌 신호 데이터가 획득된 대상자가 상상한 제1 음을 추정하는 단계, 복수 개의 과거 음을 머신 러닝 기반의 제2 분류기의 입력으로 하여 제2 음을 추정하는 단계 및 제1 음 및 제2 음을 기반으로 최종 음을 결정하는 단계를 포함할 수 있다.The BCI-based music composition method according to an embodiment of the present disclosure includes at least part of each step being performed by a processor, receiving brain signal data, and inputting the brain signal data into a first classifier based on machine learning to obtain a brain signal. A step of estimating the first sound imagined by the subject from whom the data was acquired, a step of estimating a second sound by using a plurality of past sounds as input to a second classifier based on machine learning, and Based on the first sound and the second sound It may include the step of determining the final note.

본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 장치는 프로세서, 및 프로세서와 전기적으로 연결되고, 프로세서에서 수행되는 적어도 하나의 코드가 저장되는 메모리를 포함하고, 메모리는 프로세서에서 실행될 때 프로세서로 하여금 입력 받은 뇌 신호 데이터를 머신 러닝 기반의 제1 분류기에 입력하여 뇌 신호 데이터가 획득된 대상자가 상상한 제1 음을 추정하고, 복수 개의 과거 음을 머신 러닝 기반의 제2 분류기의 입력으로 하여 제2 음을 추정하고, 제1 음 및 상기 제2 음을 기반으로 최종 음을 결정하도록 야기하는 코드를 저장할 수 있다.A BCI-based music composition device according to an embodiment of the present disclosure includes a processor and a memory electrically connected to the processor and storing at least one code executed by the processor, and the memory allows the processor to input input when executed on the processor. The received brain signal data is input to a first classifier based on machine learning to estimate the first sound imagined by the subject for whom the brain signal data was acquired, and a plurality of past sounds are input to the second classifier based on machine learning to estimate the second sound. A code may be stored that causes the note to be estimated and the final note to be determined based on the first note and the second note.

본 개시의 실시 예에 따른 장치 및 방법은 음의 상상만으로 음악을 작곡할 수 있다. The device and method according to an embodiment of the present disclosure can compose music only by imagining sounds.

본 개시의 실시 예에 따른 장치 및 방법은 음을 상상한 뇌 신호의 디코딩 결과를 인공 지능에 기반한 음악 이론으로 보완함으로써, 디코딩 정확성을 향상시킬 수 있다.The device and method according to an embodiment of the present disclosure can improve decoding accuracy by supplementing the decoding results of brain signals imagining sounds with music theory based on artificial intelligence.

도 1은 본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 방법을 수행하거나 BCI 기반 음악 작곡 장치가 구동하기 위한 환경을 나타낸 도면이다.
도 2는 서로 다른 음을 상상한 뇌 신호의 디코딩 결과의 예시이다.
도 3은 본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 장치의 구성을 나타낸 블록도이다.
도 4는 본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 방법을 설명하기 위한 순서도이다.
도 5 및 6은 본 개시의 일 실시 예에 따른 최종 음을 결정하는 방법을 설명하기 위한 도면이다.
FIG. 1 is a diagram illustrating an environment for performing a BCI-based music composition method or driving a BCI-based music composition device according to an embodiment of the present disclosure.
Figure 2 is an example of decoding results of brain signals imagining different sounds.
Figure 3 is a block diagram showing the configuration of a BCI-based music composition device according to an embodiment of the present disclosure.
Figure 4 is a flowchart for explaining a BCI-based music composition method according to an embodiment of the present disclosure.
5 and 6 are diagrams for explaining a method of determining the final sound according to an embodiment of the present disclosure.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

도 1을 참조하여 본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 장치(이하 '작곡 장치'라 한다) 또는 방법을 수행하기 위한 환경을 설명한다. Referring to FIG. 1, an environment for performing a BCI-based music composition device (hereinafter referred to as 'composition device') or method according to an embodiment of the present disclosure will be described.

본 개시의 실시 예에 따른 뇌 신호를 디코딩하는 장치 또는 방법을 수행하기 위한 환경은 작곡 장치(100), 뇌 신호 측정 장치(200)를 포함할 수 있다.An environment for performing a device or method for decoding brain signals according to an embodiment of the present disclosure may include a composition device 100 and a brain signal measurement device 200.

뇌 신호 측정 장치(200)는 대상체로부터 뇌전도(electoencephalography: EEG)를 포함하는 뇌 신호를 측정할 수 있고, 신축성 있는 모자에 국제 10-20 체계(international 10-20 system)에 따라 일정 간격으로 분할된 위치에 다수의 전극을 규칙적으로 배치한 전극 캡(electrode cap)(210) 또는 국제 10-20 체계에 따라 대상체의 두부에 배치된 다수의 전극으로부터 뇌 신호를 수신할 수 있다. 국제 10-20 체계는 두피에 붙이거나 접착하는 전극의 배치에 관한 국제 표준으로서, 두부의 뼈 표식 사이의 거리를 사용하여 전극의 배치를 위한 선의 체계를 결정한 것이다. 뇌 신호를 측정하기 위한 전극은 이 선들의 전체 길이의 10% 또는 20% 간격으로 배치될 수 있다.The brain signal measurement device 200 is capable of measuring brain signals including electroencephalography (EEG) from a subject, and has a flexible cap divided at regular intervals according to the international 10-20 system. Brain signals can be received from an electrode cap 210 in which a plurality of electrodes are regularly arranged in a position or from a plurality of electrodes arranged on the head of a subject according to the international 10-20 system. The International 10-20 System is an international standard for the placement of electrodes that are attached or glued to the scalp. It uses the distance between bone marks on the head to determine the line system for electrode placement. Electrodes for measuring brain signals can be placed at intervals of 10% or 20% of the total length of these lines.

본 명세서에서는 뇌 신호를 뇌전도를 예로 들어 설명하지만, 뇌 신호는 뇌자도(Magnetoencephalography: MEG), 뇌파도(electrocorticogram: ECoG) 등 뇌의 신경세포에서 발생하는 전기적 자기적 신호 또는 뇌를 촬영한 영상을 모두 포함하는 개념이다.In this specification, brain signals are explained using an electroencephalogram as an example, but brain signals are electrical and magnetic signals generated from nerve cells in the brain, such as magnetoencephalography (MEG) and electrocorticogram (ECoG), or images taken of the brain. It is an all-inclusive concept.

뇌 신호 측정 장치(200)는 작곡 장치(100)에 포함되어 구현되거나 작곡 장치(100)와 별도로 구현되는 형태일 수 있다. 뇌 신호 측정 장치(200)가 작곡 장치(100)와 별도로 구현되는 경우 작곡 장치(100)는 뇌 신호 측정 장치(200)로부터 대상체에 장착된 다수의 전극에서 측정한 뇌 신호를 네트워크 또는 유/무선 인터페이스를 통해 수신할 수 있다.The brain signal measurement device 200 may be implemented as included in the composition device 100 or may be implemented separately from the composition device 100. If the brain signal measuring device 200 is implemented separately from the composing device 100, the composing device 100 receives brain signals measured from a plurality of electrodes mounted on the subject from the brain signal measuring device 200 through a network or wired/wireless network. It can be received through the interface.

다른 실시 예에서, 뇌 신호는 뇌 신호 측정 장치(200)에서 측정한 뇌 신호는 영상의 형태를 포함하는 개념일 수 있다. 예를 들어 뇌전도에 기반하여 생성된 뇌전도 토포그래피(topography)일 수 있다. 본 명세서에서 뇌 신호를 뇌전도, 뇌자도 등의 뇌의 신경세포에서 발생하는 전기적 자기적 신호 자체뿐만 아니라 그 전기적 자기적 신호에 기반하여 생성된 토포그래피를 포함하는 개념이다.In another embodiment, the brain signal measured by the brain signal measuring device 200 may be a concept that includes the form of an image. For example, it may be an electroencephalogram topography created based on an electroencephalogram. In this specification, brain signals are a concept that includes not only the electrical and magnetic signals themselves generated from nerve cells in the brain, such as electroencephalograms and magnetoencephalograms, but also topography generated based on the electrical and magnetic signals.

다른 실시 예에서, 뇌 신호는 fMRI 등의 뇌를 일정 시간 동안 촬영한 뇌 영상일 수 있다.In another embodiment, the brain signal may be a brain image captured over a certain period of time, such as fMRI.

작곡 장치(100)는 뇌 신호 측정 장치(200)가 획득한 뇌 신호를 제공 받고 처리하여 뇌 신호를 측정한 대상체가 상상한 음을 판별(디코딩)할 수 있다.The composition device 100 may receive and process the brain signals acquired by the brain signal measurement device 200 to determine (decode) the sound imagined by the subject whose brain signals were measured.

본 명세서에서 음(音)은 절대음(absolute pitch)뿐만 아니라, 상대음(relative pitch), 음의 흐름 또는 음향의 형태를 포함하는 멜로디, 음의 윤곽 또는 음고류 등 음의 높낮이, 박자, 이전 음과 대비한 음의 변화 등을 모두 포함한다. 따라서, 대상체가 음을 상상하는 경우, 이전 음과 대비한 음의 높낮이 변화를 상상하는 것일 수 있고, 머신 러닝에 기반한 분류기가 음을 추정하는 것은 이전 음과 대비한 음의 높낮이 변화를 추정하거나 절대음을 추정하거나 음의 윤곽 변화를 추정하는 음과 관련된 것을 추정하는 것을 포함한다. 최초의 음을 결정하고 순차적으로 상상된 음들이 계속해서 선택되면 이 음들의 시퀀스(sequence)는 어떤 맥락(context)을 형성할 것인데, 이는 예를들면 서양조성음악의 화성법에 기반해 음들의 시퀀스인 선율(melody)을 추정해나갈 수 있는 논리와 비교될 수 있다. 따라서 과거 음은 음악적 맥락을 형성할 수 있는 2개 이상의 기 선택된 모든 단계의 음들을 지시하며, 대상체가 상상한 현재 음은 과거 음들에 의해 결정될 수 있다.In this specification, sound refers to not only absolute pitch, but also relative pitch, melody including sound flow or sound shape, sound outline, or note flow, etc., and the pitch, beat, and movement of the sound. It includes all changes in sound compared to sound. Therefore, when an object imagines a sound, it may be imagining a change in pitch of the sound compared to the previous sound, and when a classifier based on machine learning estimates the sound, it may estimate the change in pitch of the sound compared to the previous sound or an absolute It involves estimating something related to a sound, estimating a sound or estimating a change in the contour of a sound. If the initial note is determined and sequentially imagined notes are selected continuously, the sequence of these notes will form a certain context, which is, for example, a sequence of notes based on the harmony of Western tonal music. It can be compared to the logic that can estimate a melody. Therefore, the past sound indicates two or more previously selected sounds that can form a musical context, and the current sound imagined by the subject can be determined by the past sounds.

작곡 장치(100)는 머신 러닝 기반의 학습 모델에 뇌 신호를 전 처리한 뇌 신호 데이터를 입력하여 대상체가 상상한 음을 디코딩할 수 있다.The composition device 100 may decode the sound imagined by the subject by inputting brain signal data obtained by pre-processing the brain signal into a machine learning-based learning model.

머신 러닝 기반의 학습 모델은 학습 모델은 CNN 또는 R-CNN(Region based CNN), C-RNN(Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, R-FCN(Region based Fully Convolutional Network), YOLO(You Only Look Once) 또는 SSD(Single Shot Multibox Detector)구조의 신경망을 포함하거나, SVM(Support Vector Machine) 분류기를 포함할 수 있고, 특별히 그 종류를 한정하지 않는다. 아래에서 설명하는 것처럼, 본 개시의 실시 예에 포함된 분류기 중 일부는 뇌 신호 데이터를 처리하는 것이므로, 학습 모델의 종류에 무관하게 적용 가능하다.Machine learning-based learning models include CNN or R-CNN (Region based CNN), C-RNN (Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, and R-FCN (Region based Fully Convolutional Network). ), a neural network with a YOLO (You Only Look Once) or SSD (Single Shot Multibox Detector) structure, or a SVM (Support Vector Machine) classifier, and the type is not particularly limited. As explained below, some of the classifiers included in the embodiments of the present disclosure process brain signal data and are therefore applicable regardless of the type of learning model.

학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있으며, 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어는 메모리에 저장될 수 있다.The learning model may be implemented in hardware, software, or a combination of hardware and software. If part or all of the learning model is implemented in software, one or more instructions constituting the learning model may be stored in memory.

작곡 장치(100)는 대상자로부터 측정한 뇌 신호 또는 뇌 신호를 전 처리한 뇌 신호 데이터를 제공 받아 머신 러닝 기반의 학습 모델에 입력하여 대상자가 상상한 음을 추정할 수 있다. The composition device 100 may receive brain signals measured from the subject or brain signal data pre-processed from the brain signal and input them into a machine learning-based learning model to estimate the sound imagined by the subject.

도 2를 참조하면, 대상자가 상상한 선율 진행이 3도 도약 상행/하행, 순차 상행/하행, 동음인 것에 대하여 각각 대상자의 측두엽 영역에서 측정한 뇌 신호의 FFT 진폭을 측정한 결과이다. 도 2에서 확인 가능한 것처럼 그룹 도약하행(neg2)와 도약상행(pos2)의 평균이 현저하게 달라 뇌 신호를 통해서 대상자가 상상한 음을 구분할 수 있음을 확인하였다.Referring to Figure 2, this is the result of measuring the FFT amplitude of the brain signal measured in the subject's temporal lobe area for the 3-degree jump ascending/descending, sequential ascending/descending, and homophonic melody progression imagined by the subject. As can be seen in Figure 2, the averages of the group's downward jump (neg2) and upward jump (pos2) were significantly different, confirming that the sound imagined by the subject could be distinguished through brain signals.

도 3를 참조하여 본 개시의 일 실시 예에 따른 작곡 장치(100)의 구성을 설명한다. The configuration of the composition device 100 according to an embodiment of the present disclosure will be described with reference to FIG. 3 .

작곡 장치(100)는 뇌 신호 측정 장치(200) 또는 뇌 신호를 측정하기 위한 전극들의 인터페이싱 또는 통신을 수행하기 위한 통신부(110)를 포함하고 통신부(110)는 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈을 네트워크 인터페이스(111)로서 포함할 수 있다.The composition device 100 includes a brain signal measurement device 200 or a communication unit 110 for interfacing or communicating with electrodes for measuring brain signals, and the communication unit 110 includes a mobile communication module, a wireless Internet module, and a short-range A communication module may be included as the network interface 111.

이동통신 모듈에서 사용하는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. Technical standards or communication methods for mobile communication used in mobile communication modules (e.g., GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution) Transmits and receives wireless signals with at least one of a base station, an external terminal, and a server on a mobile communication network built according to Term Evolution-Advanced, etc.).

무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 작곡 장치(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.The wireless Internet module refers to a module for wireless Internet access and may be built into or external to the composition device 100. The wireless Internet module is configured to transmit and receive wireless signals in a communication network according to wireless Internet technologies.

무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있다.Wireless Internet technologies include, for example, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), and WiMAX (Worldwide). These include Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), and LTE-A (Long Term Evolution-Advanced).

근거리 통신 모듈은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.The short-range communication module is for short-range communication and includes Bluetooth™, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, and NFC (Near Field). Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technology can be used to support short-distance communication.

작곡 장치(100)는 사용자의 입력 또는 사용자에게 알림을 제공하기 위한 인터페이스부(120)를 포함할 수 있고, 인터페이스부(120)는 버튼(121), 디스플레이(122), LED 등의 광 출력 모듈 또는 스피커 등의 음성 출력 모듈(123)을 포함할 수 있다. 인터페이스부(120)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다.The composition device 100 may include an interface unit 120 for providing user input or a notification to the user, and the interface unit 120 may include a button 121, a display 122, and an optical output module such as an LED. Alternatively, it may include an audio output module 123 such as a speaker. The interface unit 120 may include a mechanical input means (or a mechanical key, dome switch, jog wheel, jog switch, etc.) and a touch input means. As an example, the touch input means consists of a virtual key, soft key, or visual key displayed on the touch screen through software processing, or a part other than the touch screen. It can be done with a touch key placed in .

작곡 장치(100)는 메모리(130)를 포함하고, 메모리(130)는 뇌 신호 측정 장치(200)로부터 전송 받거나 대상체에서 측정한 뇌 신호 또는 뇌 신호를 전 처리한 뇌 신호 데이터를 저장할 수 있다. The composition device 100 includes a memory 130, and the memory 130 may store brain signals transmitted from the brain signal measurement device 200 or measured from the subject or brain signal data obtained by preprocessing the brain signals.

일 실시 예에서, 메모리(130)는 작곡 장치(100)는 훈련된 학습 모델에 포함된 인공 신경망의 최적화된 모델 파라미터들을 저장할 수 있다. In one embodiment, the memory 130 may store optimized model parameters of an artificial neural network included in a trained learning model of the composition device 100.

다른 실시 예에서, 메모리(130)는 머신 러닝 기반의 학습 모델을 훈련시키기 위한 훈련 데이터 및 코드(code)를 저장할 수 있다.In another embodiment, the memory 130 may store training data and code for training a machine learning-based learning model.

작곡 장치(100)는 훈련된 학습 모델을 특정 입력에 적용하여 결과 값을 추론하기 위해 프로세서(180)를 이용할 수 있다. 다른 실시 예에서, 머신 러닝 기반의 학습 모델을 훈련시키기 위해 프로세서(180)를 이용할 수 있다. 프로세서(180)는 다양한 학습 기법을 이용하여 인공 신경망을 반복적으로 학습시킴으로써, 인공 신경망의 최적화된 모델 파라미터들을 결정하거나, 학습된 인공 신경망의 모델 파라미터에 따라 학습 모델을 입력에 적용하여 결과 값을 추론할 수 있다.The composition device 100 may use the processor 180 to apply a trained learning model to a specific input and infer a result value. In another embodiment, the processor 180 may be used to train a machine learning-based learning model. The processor 180 determines optimized model parameters of the artificial neural network by repeatedly training the artificial neural network using various learning techniques, or infers the result value by applying the learning model to the input according to the model parameters of the learned artificial neural network. can do.

머신 러닝 기반의 학습 모델은 학습 모델은 CNN 또는 R-CNN(Region based CNN), C-RNN(Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, R-FCN(Region based Fully Convolutional Network), YOLO(You Only Look Once) 또는 SSD(Single Shot Multibox Detector)구조의 신경망을 포함하거나 SVN 기반의 분류기를 포함할 수 있다.Machine learning-based learning models include CNN or R-CNN (Region based CNN), C-RNN (Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, and R-FCN (Region based Fully Convolutional Network). ), a neural network with a YOLO (You Only Look Once) or SSD (Single Shot Multibox Detector) structure, or an SVN-based classifier.

학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있으며, 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어는 메모리(130)에 저장될 수 있다.The learning model may be implemented as hardware, software, or a combination of hardware and software. If part or all of the learning model is implemented as software, one or more instructions constituting the learning model may be stored in the memory 130.

작곡 장치(100)는 뇌 신호의 전처리(pre-processing)를 수행하는 뇌 신호 처리부(140)를 포함할 수 있고, 뇌 신호 처리부(140)는 프로세서(180)의 일부로서 구현되거나 별도로 구현될 수 있다. 일 실시 예에서, 뇌 신호 처리부(140)는 DSP 칩 또는 GPU로서 구현될 수 있다. The composition device 100 may include a brain signal processing unit 140 that performs pre-processing of brain signals, and the brain signal processing unit 140 may be implemented as part of the processor 180 or may be implemented separately. there is. In one embodiment, the brain signal processing unit 140 may be implemented as a DSP chip or GPU.

일 실시 예에서, 뇌 신호 처리부(140)는 뇌 신호가 뇌전도인 경우, 증폭 및 필터링(amplification and filtering), 노이즈 또는 잡파(artifacis)를 제거할 수 있다. 또는 뇌 신호 처리부(140)는 푸리에 분석, 웨이블릿 분석과 같은 알고리듬을 수행할 수 있고, 통상의 기술자에게 일반적인 구성으로서 본 명세서에서는 자세한 설명을 생략한다.In one embodiment, the brain signal processor 140 may perform amplification and filtering and remove noise or artifacts when the brain signal is an electroencephalogram. Alternatively, the brain signal processing unit 140 may perform algorithms such as Fourier analysis and wavelet analysis, and as it is a common configuration for those skilled in the art, detailed description is omitted herein.

뇌 신호 처리부(140)는 뇌 신호가 뇌 영상인 경우, 영상 처리 알고리듬을 통해 뇌 영상의 전 처리를 수행할 수 있다. When the brain signal is a brain image, the brain signal processing unit 140 may perform pre-processing of the brain image through an image processing algorithm.

작곡 장치(100)는 메모리(130)에 저장된 코드에 의해 대상체의 뇌 신호에 기반하여 대상체가 상상한 음을 판별하도록 야기되는 프로세서(180)를 포함한다. 프로세서(180)는 뇌 신호를 디코딩하는 알고리듬이 구현된 코드 또는 학습 모델에 기반하여 대상체가 상상한 음을 판별할 수 있다.The composition device 100 includes a processor 180 that is triggered to determine the sound imagined by the subject based on the subject's brain signals by a code stored in the memory 130. The processor 180 may determine the sound imagined by the subject based on a code or learning model that implements an algorithm for decoding brain signals.

다른 실시 예에서, 작곡 장치(100)는 메모리(130)에 저장된 코드 및 훈련 데이터에 기반하여 뇌 신호 데이터를 입력으로 하여 대상체가 상상한 음을 판별하는 학습 모델을 훈련하도록 야기되는 프로세서(180)를 포함할 수 있다.In another embodiment, the composition device 100 includes a processor 180 that is caused to train a learning model that determines the sound imagined by the subject by inputting brain signal data based on the code and training data stored in the memory 130. may include.

도 4를 참조하여 본 개시의 일 실시 예에 작곡 장치(100)의 BCI(Brain-Computer Interface) 기반 음악 작곡 방법을 설명한다. 아래의 설명은 뇌 신호 측정 장치(200)가 작곡 장치(100)와 별도로 구현된 것을 전제로 하여 설명하지만, 뇌 신호 측정 장치(200)가 작곡 장치(100)에 함께 구현되는 것을 배제하지 않는다. 또한, 아래의 설명은 뇌 신호가 뇌파인 것을 전제로 하여 설명하지만, 뇌로부터 발생하는 전기적 또는 자기적 신호에 기반하여 뇌의 활동 또는 상태를 측정 또는 기록한 신호는 모두 포함한다.With reference to FIG. 4 , a brain-computer interface (BCI)-based music composition method of the composition device 100 according to an embodiment of the present disclosure will be described. The description below assumes that the brain signal measuring device 200 is implemented separately from the composing device 100, but it does not exclude that the brain signal measuring device 200 is implemented together with the composing device 100. Additionally, the explanation below assumes that brain signals are brain waves, but includes all signals that measure or record brain activity or state based on electrical or magnetic signals generated from the brain.

작곡 장치(100)는 뇌 신호 측정 장치로부터 뇌 신호 데이터를 전송 받거나 대상체의 두부에 배치된 뇌 신호 측정용 전극으로부터 뇌 신호를 수신하고 전 처리하여 뇌 신호 데이터를 획득할 수 있다(S110). 또는 저장장치로부터 뇌 신호 데이터를 로딩하여 뇌 신호 데이터를 획득할 수 있다. 뇌 신호는 뇌전도, 뇌자도 등의 뇌의 신경세포에서 발생하는 전기적 자기적 신호를 측정한 신호이거나, 뇌전도 또는 뇌자도 등의 전기적 자기적 신호를 기반으로 생성된 토포그래피일 수 있다. 또는 Functional Near-infrared Spectroscopy(fNIRS)일 수 있다. 또는 뇌 신호는 뇌를 CT, MRI, fMRI 등의 영상 진단 장비로 촬영한 뇌 영상일 수 있다.The composition device 100 may receive brain signal data from a brain signal measurement device or receive brain signals from electrodes for measuring brain signals placed on the head of the subject and preprocess them to obtain brain signal data (S110). Alternatively, brain signal data can be obtained by loading the brain signal data from a storage device. The brain signal may be a signal that measures electrical and magnetic signals generated from nerve cells in the brain, such as an electroencephalogram or magnetoencephalogram, or a topography generated based on an electric and magnetic signal, such as an electroencephalogram or magnetoencephalogram. Or it may be Functional Near-infrared Spectroscopy (fNIRS). Alternatively, the brain signal may be a brain image obtained by imaging the brain with imaging diagnostic equipment such as CT, MRI, or fMRI.

뇌 신호가 뇌전도인 경우 국제 10-20 체계에 의해 대상체의 두부에 배치된 다수의 전극에서 측정된 전기적 신호일 수 있다. 뇌 신호는 Delta, Theta, Alpha, Beta 및/또는 Gamma 대역에서 측정된 신호일 수 있다.If the brain signal is an electroencephalogram, it may be an electrical signal measured from a plurality of electrodes placed on the subject's head according to the international 10-20 system. Brain signals may be signals measured in the Delta, Theta, Alpha, Beta and/or Gamma bands.

뇌 신호는 뇌의 측두엽에서 측정된 것일 수 있다. Brain signals may be measured in the temporal lobe of the brain.

아래의 설명은 뇌 신호가 뇌전도인 것을 전제로 하여 실시 예들을 설명하지만 통상의 기술자는 다른 경우에도 유사하게 적용 가능함을 알 수 있다.The following description describes embodiments on the premise that the brain signal is an electroencephalogram, but those skilled in the art will recognize that the present invention can be similarly applied to other cases.

작곡 장치(100)는 뇌 신호 데이터의 적어도 일 부분으로부터 특징점을 추출할 수 있다. 특징점은 ERP(Event Related Potential), 스펙트럼, FFT 진폭 크기일 수 있다. ERP는 Visual Evoked Potentials (VEP), Auditory Evoked Potentials (AEP), Somatosensory Evoked Potentials (SEP), Steady State Evoked Potentials (SSEP) 또는 P300일 수 있다.The composition device 100 may extract feature points from at least a portion of brain signal data. Feature points may be ERP (Event Related Potential), spectrum, or FFT amplitude size. ERP may be Visual Evoked Potentials (VEP), Auditory Evoked Potentials (AEP), Somatosensory Evoked Potentials (SEP), Steady State Evoked Potentials (SSEP) or P300.

일 실시 예에서, 작곡 장치(100)는 뇌 신호 데이터를 측정된 시간 축에 따라 미리 설정된 시간 길이의 타임 윈도우를 슬라이딩하면서 특징점을 추출할 수 있다.In one embodiment, the composition device 100 may extract feature points while sliding a time window of a preset time length along a time axis in which brain signal data is measured.

작곡 장치(100)는 뇌 신호 데이터(특징점일 수 있다, 이하에서는 뇌 신호 데이터는 뇌 신호 데이터 자체 또는 뇌 신호 데이터로부터 추출된 특징점을 포함하는 개념으로 전제하여 설명한다)를 머신 러닝 기반의 제1 분류기(520)에 입력하여 뇌 신호 데이터가 획득된 대상자가 상상한 제1 음을 추정할 수 있다(S120). The composition device 100 uses brain signal data (which may be a feature point; hereinafter, the brain signal data will be described on the premise that it includes the brain signal data itself or a feature point extracted from the brain signal data) as a first machine learning-based The first sound imagined by the subject for whom brain signal data was obtained can be estimated by inputting it into the classifier 520 (S120).

제1 분류기(520)는 뇌 신호의 특징점들 또는 뇌 신호의 측정 파라미터들을 대상자가 상상한 음(음정 및/또는 박자를 포함할 수 있다, 특정 음표일 수 있다, 이전 음과 비교한 음의 높낮이 차이일 수 있다)로 레이블링(labeling)한 훈련 데이터로 훈련된 CNN 등에 기반한 딥 러닝 모델 또는 Multi-class SVM, Quadratic Disciminant Analysis(QDA) 등 머신 러닝 모델을 포함할 수 있고 특별히 그 종류를 한정하지 않는다.The first classifier 520 uses the characteristic points of the brain signal or the measurement parameters of the brain signal to match the sound imagined by the subject (may include pitch and/or beat, may be a specific note, pitch of the sound compared to the previous sound) It may include deep learning models based on CNN, etc., trained with training data labeled with (may be differences), or machine learning models such as Multi-class SVM and Quadratic Disciminant Analysis (QDA), and the types are not particularly limited. .

일 실시 예에서, 제1 분류기(520)는 입력된 뇌 신호 데이터에 기반하여 복수의 후보 음에 대한 확률을 출력할 수 있다. 예를 들어, 시각 t에 특정 음을 상상한 대상자로부터 측정되어 입력된 뇌 신호 데이터가 복수의 음 C4, D4, E4를 상상하는 뇌 신호일지에 대한 각 확률 값을 출력할 수 있다.In one embodiment, the first classifier 520 may output probabilities for a plurality of candidate sounds based on input brain signal data. For example, each probability value for whether brain signal data measured and input from a subject imagining a specific sound at time t is a brain signal imagining multiple sounds C4, D4, and E4 can be output.

일 실시 예에서, 제1 분류기(520)는 입력된 뇌 신호 데이터에 기반하여 이전 음에 비교한 현재 상상하는 음의 음 높낮이(윤곽) 확률을 출력할 수 있다. 예를 들어, 시각 t에 특정 음을 상상한 대상자로부터 측정되어 입력된 뇌 신호 데이터가 이전 시각 t-1에 최종 음으로 결정된 음에 비하여 음정이 높을 확률(전음 대비 상행), 동음일 확률 및 낮은(전음 대비 하행) 각 확률 값을 출력할 수 있다. 따라서, 대상자는 이전 음에 대비한 음 윤곽을 상상하고 음악 화성 진행에 따라 적합한 음정의 확정은 머신 러닝에 기반한 제2 분류기(510)로 수행함으로써, 보다 쉽게 음악 작곡을 진행할 수 있다.In one embodiment, the first classifier 520 may output a pitch (contour) probability of the currently imagined sound compared to the previous sound based on the input brain signal data. For example, the brain signal data measured and input from a subject who imagined a specific sound at time t has the probability that the pitch is higher (rising compared to the previous pitch), the probability that it is the same pitch, and the probability that it is the same pitch compared to the sound that was determined as the final sound at the previous time t-1. (Descent compared to the preceding sound) Each probability value can be output. Therefore, the subject can more easily compose music by imagining the note outline compared to the previous note and determining the appropriate pitch according to the progress of the music harmony using the second classifier 510 based on machine learning.

일 실시 예에서, 제1 분류기(520)는 뇌 신호 데이터를 입력으로 하여, 음의 윤곽, 선율 진행, 상대 음계, 절대음, 음고류 등을 추정하도록 훈련된 분류기일 수 있다. 윤곽은 전음 대비 상행, 동음, 하행 등의 3가지일 수 있고, 음정은 동음, 순차 상행/하행, 3도 도약 상행/하행, 4도 도약 상행/하행 등일 수 있다. 상대 음계의 경우, 으뜸음인 도부터 시작하여 시까지 칭음 음계나, 또는 팔음 음계, 육음 음계 등일 수 있다. 절대음은 주파수에 따라 다른 음의 높낮이일 수 있고, 또는 음고류의 경우, C, D, E 등과 같은 음이름일 수 있다.In one embodiment, the first classifier 520 may be a classifier trained to estimate sound outline, melody progression, relative scale, absolute tone, pitch type, etc. by inputting brain signal data. The outline can be of three types, such as ascending, homophonic, and descending relative to the whole tone, and the pitch can be homogeneous, sequential ascending/descending, 3rd leap ascending/descending, and 4th leap ascending/descending, etc. In the case of a relative scale, it may be a euphonious scale, an octatonic scale, a hexatonic scale, etc., starting from the tonic tone, degrees, to o'clock. Absolute sounds can be pitches that vary depending on frequency, or in the case of pitch sounds, they can be note names such as C, D, E, etc.

작곡 장치(100)는 복수 개의 과거 음을 머신 러닝 기반의 제2 분류기(510)의 입력으로 하여 현재 시점에 적합한 제2 음을 추정할 수 있다(S130).The composition device 100 may estimate a second sound appropriate for the current time by using a plurality of past sounds as input to the second classifier 510 based on machine learning (S130).

제2 분류기(510)는 LSTM, RNN 등의 시 계열 기반 학습 모델이거나 강화학습에 기반할 수 있다. 강화학습의 경우, 특정 스타일 음악 악보의 통계적인 화음진행과 최종 완성된 악보의 화음진행의 유사도를 보상으로 설정할 수 있다.The second classifier 510 may be a time series-based learning model such as LSTM or RNN, or may be based on reinforcement learning. In the case of reinforcement learning, the similarity between the statistical chord progression of a specific style music score and the chord progression of the final completed score can be set as compensation.

제2 분류기(510)는 종래의 악보를 훈련 데이터로 하여 훈련될 수 있다. 일 실시 예에서, 제2 분류기(510)는 음악의 종류, 작곡가 등으로 분류된 분류별 악보를 훈련 데이터로 하여 훈련될 수 있다. 즉, 소정의 음악 분류에 따른 악보들에 기반하여 복수 개의 음을 입력으로 하여 그 다음 음을 출력하도록 훈련된 학습 모델일 수 있다.The second classifier 510 can be trained using conventional music scores as training data. In one embodiment, the second classifier 510 may be trained using music scores classified by type of music, composer, etc. as training data. In other words, it may be a learning model trained to input a plurality of sounds and output the next sound based on scores according to a predetermined music classification.

일 실시 예에서, 제2 분류기(510)는 사용자가 선택한 특정 음악의 종류 또는 작곡가에 기반한 학습 모델을 이용하여, 이전까지 확정된 복수의 음들에 기반하여 현재 시점에 적합한 제2 음을 추정할 수 있다. 따라서, 사용자가 원하는 음악 스타일로 음악을 작곡할 수 있다.In one embodiment, the second classifier 510 can estimate a second sound suitable for the current time based on a plurality of previously determined sounds using a learning model based on the type or composer of a specific music selected by the user. there is. Therefore, the user can compose music in the desired music style.

일 실시 예에서, 제2 분류기(510)는 현재 시점에 적합한 제2 음에 적합한 복수 개의 음들의 각 확률 값을 출력할 수 있다.In one embodiment, the second classifier 510 may output each probability value of a plurality of sounds suitable for the second sound suitable for the current time.

예를 들어, t 이전에 확정된 복수의 음을 제2 분류기(510)의 입력으로 하여 시각 t에 적합한 특정 음으로서 복수의 음들에 대한 각 확률 값을 출력할 수 있다. 즉, 현재 시점을 t라고 했을 때, 과거 음은 P(t-1), ..... P(t-n) 에 해당할 수 있다.(n >= 2)For example, a plurality of sounds confirmed before t can be input to the second classifier 510 and the probability values for each of the plurality of sounds can be output as specific sounds suitable for time t. In other words, when the current point is t, past sounds can correspond to P(t-1), ..... P(t-n). (n >= 2)

작곡 장치(100)는 제1 분류기(520) 및 제 2 분류기(510)에서 t 시각에 적합한 것으로 각각 추정한 제1 음 및 제2 음을 기반으로 최종 음을 결정한다(S140).The composition device 100 determines the final sound based on the first and second sounds estimated by the first classifier 520 and the second classifier 510 to be appropriate for time t (S140).

일 실시 예에서, 작곡 장치(100)는 t 시각에 적합한 것으로 추정된 복수의 제1 음의 음 높낮이에 따른 확률 및 제2 음에 적합한 복수의 음들의 확률에 각각 가중치를 반영한 후 합산하여 복수의 후보 음들의 확률을 산출하고, 복수의 상기 후보 음들 중 가장 높은 확률을 갖는 음을 최종 음으로 결정할 수 있다.In one embodiment, the composition device 100 reflects weights on the probabilities according to the pitches of a plurality of first sounds estimated to be suitable for time t and the probabilities of a plurality of sounds suitable for the second sound, respectively, and then adds them up to form a plurality of sounds. The probabilities of candidate sounds may be calculated, and the sound with the highest probability among the plurality of candidate sounds may be determined as the final sound.

도 5를 참조하여 설명하면, 제1 분류기(520)가 산출한 복수의 제1 음들에 대한 확률(k1..ki)에 각각 가중치(WB)를 반영하고, 제2 분류기(510)가 산출한 복수의 제2 음들에 대한 확률(y1..yi)에 각각 가중치(WM)를 반영한 후 동일한 음에 대해 이들을 각각 더한 값을 산출하고, 그 중 가장 높은 값을 갖는 음을 최종 음(540)로 결정할 수 있다.5, the weights (WB) are reflected in the probabilities (k1..ki) for the plurality of first sounds calculated by the first classifier 520, respectively, and the weights (WB) calculated by the second classifier 510 are reflected. After reflecting the weights (WM) on the probabilities (y1..yi) of a plurality of second notes, each of them is added for the same note, and the note with the highest value is selected as the final note (540). You can decide.

일 실시 예에서, 가중치는 사용자로부터 입력받을 수 있으며, 제1 음들에 대한 확률(k1..ki)에 대한 가중치(WB)와 제2 음들에 대한 확률(y1..yi)에 대한 가중치(WM)의 합은 1일 수 있다. 따라서, 사용자는 자신이 상상한 음에 대한 가중치(WB)를 더 반영하거나, 종래의 소정 분류의 악보에 기반하여 산출된 음에 대한 가중치(WM)를 더 반영하도록 하여 사용자가 원하는 방향으로 최종 음을 결정하도록 할 수 있다.In one embodiment, the weights may be input from the user, including a weight (WB) for the probabilities (k1..ki) for the first sounds and a weight (WM) for the probabilities (y1..yi) for the second sounds. ) may be 1. Therefore, the user can further reflect the weight (WB) for the sound imagined by the user, or the weight (WM) for the sound calculated based on the conventional music score of a certain classification, to adjust the final sound in the direction desired by the user. can be decided.

다른 실시 예에서, 가중치는 제1 분류기 및 제2 분류기의 정확도에 비례하도록 설정할 수 있다. 따라서, 특정 분류기의 성능이 낮은 경우 다른 분류기의 결과를 좀 더 반영하도록 설정함으로써 전체 곡의 완성도를 높일 수 있다. In another embodiment, the weights may be set to be proportional to the accuracies of the first classifier and the second classifier. Therefore, if the performance of a specific classifier is low, the completeness of the entire song can be improved by setting it to reflect the results of other classifiers more.

일 실시 예에서, 제1 음의 음 높낮이에 따른 확률 및 제2 음에 적합한 복수의 음들의 확률에 각각 가중치를 반영한 후 합산하여 복수의 후보 음들의 확률을 산출하고, 복수의 상기 후보 음들 중 가장 높은 확률을 갖는 음을 최종 음으로 결정할 수 있다.In one embodiment, the probability of a plurality of candidate sounds is calculated by reflecting weights on the probability according to the pitch of the first sound and the probability of a plurality of sounds suitable for the second sound, respectively, and then summing them, and calculating the probability of a plurality of candidate sounds, and calculating the probability of a plurality of candidate sounds. A note with a high probability can be determined as the final note.

도 6을 참조하여 설명하면, 시각 t 이전에 결정된 음들이 먼 시간 순서대로 D4, D4, C4, B3이고, 시각 t에 적합한 음으로 대상자가 직전 음인 B3 보다 음 윤곽이 높은 음으로 상상한 것을 전제로 하여 설명한다. 대상자가 음 윤곽이 높은 음으로 상상했을 때 측정된 뇌 신호로부터 제1 분류기(520)가 이전보다 낮은 음을 상상한 것으로 추정한 확률(), 동일한 음을 상상한 것으로 추정한 확률(), 높은 음을 상상한 것으로 추정한 확률()에 각각 가중치(WB)를 반영하고, 제2 분류기(510)가 B3보다 낮은 음들인 G3, A3가 적합할 확률들(, ), 동음인 B3가 적합할 확률(), 높은 음들인 C4~A5가 적합할 확률들(~) 각각에 가중치(WM)를 반영한 후 동일한 음들에 대하여 가중치가 반영된 확률들을 더하여 가장 높은 음을 최종 음으로 결정할 수 있다.To explain with reference to Figure 6, the sounds determined before time t are D4, D4, C4, and B3 in distant chronological order, and it is assumed that the subject imagined a note suitable for time t as having a higher note contour than B3, the previous note. It is explained as follows. The probability that the first classifier 520 estimated from the brain signal measured when the subject imagined a tone with a high tone contour that the subject imagined a tone lower than before ( ), the probability of imagining the same sound ( ), the estimated probability of imagining a high note ( ) are reflected in each weight (WB), and the probabilities that the second classifier 510 is suitable for G3 and A3, which are sounds lower than B3 ( , ), the probability that the homonym B3 is suitable ( ), the probabilities that high notes C4~A5 are suitable ( ~ ) After reflecting the weight (WM) on each, the probabilities reflecting the weight for the same notes can be added to determine the highest note as the final note.

전술한 본 개시는, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 각 장치의 프로세서를 포함할 수도 있다.The present disclosure described above can be implemented as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is. Additionally, the computer may include a processor for each device.

한편, 상기 프로그램은 본 개시를 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수 있다. 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the program may be specially designed and configured for the present disclosure, or may be known and usable by those skilled in the art of computer software. Examples of programs may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

본 개시의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 개시에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. In the specification (particularly in the claims) of the present disclosure, the use of the term “above” and similar referential terms may refer to both the singular and the plural. In addition, when a range is described in the present disclosure, the invention includes the application of individual values within the range (unless there is a statement to the contrary), and each individual value constituting the range is described in the detailed description of the invention. It's the same.

본 개시에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다. 본 개시에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 개시를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 개시의 범위가 한정되는 것은 아니다. 또한, 통상의 기술자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 인자(factor)에 따라 구성될 수 있음을 알 수 있다.Unless there is an explicit order or description to the contrary regarding the steps constituting the method according to the present disclosure, the steps may be performed in any suitable order. The present disclosure is not necessarily limited by the order of description of the steps above. The use of any examples or illustrative terms (e.g., etc.) in the present disclosure is merely to describe the present disclosure in detail, and unless limited by the claims, the scope of the present disclosure is limited by the examples or illustrative terms. It doesn't work. In addition, those skilled in the art will recognize that various modifications, combinations and changes may be made according to design conditions and factors within the scope of the appended claims or their equivalents.

따라서, 본 개시의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 개시의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present disclosure should not be limited to the above-described embodiments, and the scope of the patent claims described below as well as all scopes equivalent to or equivalently changed from the claims are within the scope of the spirit of the present disclosure. It will be said to belong to

본 연구는 삼성미래기술육성센터의 지원으로 수행된 연구(연구과제명: 뇌신호 해독을 통한 BCI-Musicing 시스템 개발")의 결과로 출원되었다.This study was submitted as a result of research (Research project title: “Development of BCI-Musicing system through brain signal decoding”) conducted with the support of Samsung Future Technology Development Center.

100: 작곡 장치
200: 뇌 신호 측정 장치
210: 전극 캡
510: 제2 분류기
520: 제1 분류기
100: Composition device
200: Brain signal measurement device
210: electrode cap
510: second classifier
520: first classifier

Claims (16)

각 단계의 적어도 일부가 프로세서에 의해 수행되고,
뇌 신호 데이터를 입력 받는 단계;
상기 뇌 신호 데이터를 머신 러닝 기반의 제1 분류기에 입력하여 상기 뇌 신호 데이터가 획득된 대상자가 상상한 시각 t에서의 제1 음(音)을 추정하는 단계;
시각 t 이전까지 확정된 복수 개의 과거 음을 입력받아 다음 음을 추정하는 머신 러닝 기반의 제2 분류기에서 시각 t에서의 제2 음을 추정하는 단계; 및
상기 제1 음 및 상기 제2 음을 기반으로 최종 음을 결정하는 단계를 포함하는,
BCI 기반 음악 작곡 방법.
At least a portion of each step is performed by a processor,
Receiving brain signal data as input;
Inputting the brain signal data into a first machine learning-based classifier to estimate a first sound at time t imagined by the subject at which the brain signal data was acquired;
Estimating the second sound at time t in a second machine learning-based classifier that receives a plurality of past sounds determined before time t and estimates the next sound; and
Comprising determining a final sound based on the first sound and the second sound,
BCI-based music composition method.
제1 항에 있어서,
상기 제1 음을 추정하는 단계는,
상기 제1 분류기에 의해 직전 음에 비교하여 상기 제1 음의 음 높낮이에 따른 확률을 출력하는 단계를 포함하는,
BCI 기반 음악 작곡 방법.
According to claim 1,
The step of estimating the first sound is,
Comprising the step of outputting a probability according to the pitch of the first sound by comparing it with the immediately preceding sound by the first classifier,
BCI-based music composition method.
제1 항에 있어서,
상기 제1 음을 추정하는 단계는,
상기 제1 분류기에 의해 상기 뇌 신호 데이터에 기반하여 복수의 후보 음에 대한 확률을 출력하는 단계를 포함하는,
BCI 기반 음악 작곡 방법.
According to claim 1,
The step of estimating the first sound is,
Comprising the step of outputting probabilities for a plurality of candidate sounds based on the brain signal data by the first classifier,
BCI-based music composition method.
제1 항에 있어서,
상기 제2 분류기는 소정의 음악 분류에 따른 악보들에 기반하여 복수 개의 음을 입력으로 하여 그 다음 음을 출력하도록 훈련된 학습 모델인,
BCI 기반 음악 작곡 방법.
According to claim 1,
The second classifier is a learning model trained to input a plurality of sounds and output the next sound based on scores according to a predetermined music classification,
BCI-based music composition method.
제1 항에 있어서,
상기 제2 음을 추정하는 단계는,
미리 설정된 악보들로 훈련된 상기 제2 분류기에 의해, 복수 개의 과거 음을 기반으로 상기 제2 음에 적합한 복수의 음들의 확률을 출력하는 단계를 포함하는,
BCI 기반 음악 작곡 방법.
According to claim 1,
The step of estimating the second sound is,
Comprising the step of outputting, by the second classifier trained with preset scores, a probability of a plurality of sounds suitable for the second sound based on a plurality of past sounds,
BCI-based music composition method.
제1 항에 있어서,
상기 최종 음을 결정하는 단계는,
상기 제1 음의 음 높낮이에 따른 확률 및 상기 제2 음에 적합한 복수의 음들의 확률에 각각 가중치를 반영한 후 합산하여 복수의 후보 음들의 확률을 산출하는 단계; 및
복수의 상기 후보 음들 중 가장 높은 확률을 갖는 음을 상기 최종 음으로 결정하는 단계를 포함하는,
BCI 기반 음악 작곡 방법.
According to claim 1,
The step of determining the final sound is,
Calculating the probability of a plurality of candidate sounds by reflecting weights on the probability according to the pitch of the first sound and the probability of a plurality of sounds suitable for the second sound and adding them together; and
Comprising the step of determining the sound with the highest probability among the plurality of candidate sounds as the final sound,
BCI-based music composition method.
제1 항에 있어서,
상기 최종 음을 결정하는 단계는,
상기 제1 음에 적합한 복수의 음들의 확률 및 상기 제2 음에 적합한 복수의 음들의 확률에 각각 가중치를 반영한 후 합산하여 복수의 후보 음들의 확률을 산출하는 단계; 및
복수의 상기 후보 음들 중 가장 높은 확률을 갖는 음을 상기 최종 음으로 결정하는 단계를 포함하는,
BCI 기반 음악 작곡 방법.
According to claim 1,
The step of determining the final sound is,
calculating the probabilities of a plurality of candidate sounds by adding weights to the probabilities of a plurality of sounds suitable for the first sound and the probabilities of a plurality of sounds suitable for the second sound; and
Comprising the step of determining the sound with the highest probability among the plurality of candidate sounds as the final sound,
BCI-based music composition method.
제6 항 또는 제7 항에 있어서,
상기 가중치는 각각 상기 제1 분류기 및 상기 제2 분류기의 정확도에 비례하는,
BCI 기반 음악 작곡 방법.
According to claim 6 or 7,
The weight is proportional to the accuracy of the first classifier and the second classifier, respectively.
BCI-based music composition method.
프로세서; 및
상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드가 저장되는 메모리를 포함하고,
상기 메모리는 상기 프로세서에서 실행될 때 상기 프로세서로 하여금 입력 받은 뇌 신호 데이터를 머신 러닝 기반의 제1 분류기에 입력하여 상기 뇌 신호 데이터가 획득된 대상자가 상상한 시각 t에서의 제1 음을 추정하고, 시각 t 이전까지 확정된 복수 개의 과거 음을 입력받아 다음 음을 추정하는 머신 러닝 기반의 제2 분류기에서 시각 t에서의 제2 음을 추정하고, 상기 제1 음 및 상기 제2 음을 기반으로 최종 음을 결정하도록 야기하는 코드를 저장하는,
BCI 기반 음악 작곡 장치.
processor; and
A memory electrically connected to the processor and storing at least one code executed by the processor,
When the memory is executed in the processor, it inputs the brain signal data received by the processor into a first classifier based on machine learning to estimate the first sound at time t imagined by the subject at which the brain signal data was acquired, A second classifier based on machine learning that receives a plurality of past sounds confirmed before time t and estimates the next sound estimates the second sound at time t, and makes a final sound based on the first sound and the second sound. storing the code that causes the note to be determined,
BCI-based music composition device.
제9 항에 있어서,
상기 메모리는 상기 프로세서로 하여금 상기 제1 분류기에 의해 직전 음에 비교하여 상기 제1 음의 음 높낮이에 따른 확률을 출력하도록 야기하는 코드를 더 저장하는,
BCI 기반 음악 작곡 장치.
According to clause 9,
The memory further stores a code that causes the processor to output a probability according to the pitch of the first sound compared to the previous sound by the first classifier,
BCI-based music composition device.
제9 항에 있어서,
상기 메모리는 상기 프로세서로 하여금 상기 제1 분류기에 의해 상기 뇌 신호 데이터에 기반하여 복수의 후보 음에 대한 확률을 출력하도록 야기하는 코드를 더 저장하는,
BCI 기반 음악 작곡 장치.
According to clause 9,
the memory further stores code that causes the processor to output probabilities for a plurality of candidate sounds based on the brain signal data by the first classifier,
BCI-based music composition device.
제9 항에 있어서,
상기 제2 분류기는 소정의 음악 분류에 따른 악보들에 기반하여 복수 개의 음을 입력으로 하여 그 다음 음을 출력하도록 훈련된 학습 모델인,
BCI 기반 음악 작곡 장치.
According to clause 9,
The second classifier is a learning model trained to input a plurality of sounds and output the next sound based on scores according to a predetermined music classification,
BCI-based music composition device.
제9 항에 있어서,
상기 메모리는 상기 프로세서로 하여금 미리 설정된 악보들로 훈련된 상기 제2 분류기에 의해, 복수 개의 과거 음을 기반으로 상기 제2 음에 적합한 복수의 음들의 확률을 출력하도록 야기하는 코드를 더 저장하는,
BCI 기반 음악 작곡 장치.
According to clause 9,
The memory further stores a code that causes the processor to output, by the second classifier trained with preset scores, a probability of a plurality of notes suitable for the second sound based on a plurality of past sounds,
BCI-based music composition device.
제9 항에 있어서,
상기 메모리는 상기 프로세서로 하여금 상기 제1 음의 음 높낮이에 따른 확률 및 상기 제2 음에 적합한 복수의 음들의 확률에 각각 가중치를 반영한 후 합산하여 복수의 후보 음들의 확률을 산출하고, 복수의 상기 후보 음들 중 가장 높은 확률을 갖는 음을 상기 최종 음으로 결정하도록 야기하는 코드를 더 저장하는,
BCI 기반 음악 작곡 장치.
According to clause 9,
The memory causes the processor to calculate the probability of a plurality of candidate sounds by reflecting weights on the probability according to the pitch of the first sound and the probability of a plurality of sounds suitable for the second sound, respectively, and adding them together. further storing a code that causes the sound with the highest probability among candidate sounds to be determined as the final sound,
BCI-based music composition device.
제9 항에 있어서,
상기 메모리는 상기 프로세서로 하여금 상기 제1 음에 적합한 복수의 음들의 확률 및 상기 제2 음에 적합한 복수의 음들의 확률에 각각 가중치를 반영한 후 합산하여 복수의 후보 음들의 확률을 산출하고, 복수의 상기 후보 음들 중 가장 높은 확률을 갖는 음을 상기 최종 음으로 결정하도록 야기하는 코드를 더 저장하는,
BCI 기반 음악 작곡 장치.
According to clause 9,
The memory causes the processor to calculate the probability of a plurality of candidate sounds by reflecting weights on the probabilities of a plurality of sounds suitable for the first sound and the probabilities of a plurality of sounds suitable for the second sound, respectively, and then summing them up. Further storing a code that causes the sound with the highest probability among the candidate sounds to be determined as the final sound,
BCI-based music composition device.
제14 항 또는 제15 항에 있어서,
상기 가중치는 각각 상기 제1 분류기 및 상기 제2 분류기의 정확도에 비례하는,
BCI 기반 음악 작곡 장치.
The method of claim 14 or 15,
The weight is proportional to the accuracy of the first classifier and the second classifier, respectively.
BCI-based music composition device.
KR1020210131022A 2021-10-01 2021-10-01 Apparatus and method for composing music based on brain-computer interface with the theory of music KR102640557B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210131022A KR102640557B1 (en) 2021-10-01 2021-10-01 Apparatus and method for composing music based on brain-computer interface with the theory of music

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210131022A KR102640557B1 (en) 2021-10-01 2021-10-01 Apparatus and method for composing music based on brain-computer interface with the theory of music

Publications (2)

Publication Number Publication Date
KR20230047772A KR20230047772A (en) 2023-04-10
KR102640557B1 true KR102640557B1 (en) 2024-02-23

Family

ID=85984672

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210131022A KR102640557B1 (en) 2021-10-01 2021-10-01 Apparatus and method for composing music based on brain-computer interface with the theory of music

Country Status (1)

Country Link
KR (1) KR102640557B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120047077A (en) 2010-11-03 2012-05-11 한양대학교 산학협력단 Music composition method and apparatus
KR101970700B1 (en) * 2016-09-30 2019-04-19 고려대학교 산학협력단 Apparatus and method of brain-computer interface for device controlling based on brain signal
KR101886534B1 (en) 2016-12-16 2018-08-09 아주대학교산학협력단 System and method for composing music by using artificial intelligence

Also Published As

Publication number Publication date
KR20230047772A (en) 2023-04-10

Similar Documents

Publication Publication Date Title
US20240236547A1 (en) Method and system for collecting and processing bioelectrical and audio signals
US20190138096A1 (en) Method for detecting facial expressions and emotions of users
Cui et al. Automatic Sleep Stage Classification Based on Convolutional Neural Network and Fine‐Grained Segments
KR20210045467A (en) Electronic device for recognition of mental behavioral properties based on deep neural networks
KR102197112B1 (en) Computer program and method for artificial neural network model learning based on time series bio-signals
US20200201435A1 (en) End-To-End Deep Neural Network For Auditory Attention Decoding
KR102208759B1 (en) Method for generating deep-learning model for diagnosing health status and pathology symptom based on biosignal
Piciucco et al. Biometric recognition using wearable devices in real-life settings
WO2019080734A1 (en) Wi-fi-signal-based method for identifying emotions
Wang et al. Speech neuromuscular decoding based on spectrogram images using conformal predictors with Bi-LSTM
Dagois et al. Transfer learning for a multimodal hybrid EEG-fTCD brain–computer interface
KR20140073294A (en) Apparatus and method for real-time emotion recognition using pulse rate change
Choi et al. Identification system based on resolution adjusted 2D spectrogram of driver’s ECG for intelligent vehicle
Chen et al. Deep convolutional generative adversarial network-based EMG data enhancement for hand motion classification
KR102640557B1 (en) Apparatus and method for composing music based on brain-computer interface with the theory of music
US20230372190A1 (en) Adaptive speech and biofeedback control of sexual stimulation devices
Abdeltawab et al. Classification of motor imagery eeg signals using machine learning
Tiwari et al. Classification of imagined speech of vowels from EEG signals using multi-headed CNNs feature fusion network
Kollia Personalization effect on emotion recognition from physiological data: An investigation of performance on different setups and classifiers
Tang et al. Eye movement prediction based on adaptive BP neural network
KR102635606B1 (en) Brain-computer interface apparatus based on feature extraction reflecting similarity between users using distance learning and task classification method using the same
US20220331196A1 (en) Biofeedback-based control of sexual stimulation devices
Vourvopoulos et al. Brain–computer interfacing with interactive systems—case study 2
KR102613879B1 (en) Apparatus and method for decoding brain signal based on a basis beat of brainwave
KR102208760B1 (en) Method for generating video data for diagnosing health status and pathology symptom based on biosignal

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant