KR102640557B1 - Apparatus and method for composing music based on brain-computer interface with the theory of music - Google Patents
Apparatus and method for composing music based on brain-computer interface with the theory of music Download PDFInfo
- Publication number
- KR102640557B1 KR102640557B1 KR1020210131022A KR20210131022A KR102640557B1 KR 102640557 B1 KR102640557 B1 KR 102640557B1 KR 1020210131022 A KR1020210131022 A KR 1020210131022A KR 20210131022 A KR20210131022 A KR 20210131022A KR 102640557 B1 KR102640557 B1 KR 102640557B1
- Authority
- KR
- South Korea
- Prior art keywords
- sound
- sounds
- classifier
- bci
- probability
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 210000004556 brain Anatomy 0.000 claims abstract description 119
- 239000000203 mixture Substances 0.000 claims abstract description 54
- 238000010801 machine learning Methods 0.000 claims abstract description 22
- 239000011295 pitch Substances 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 13
- 238000013527 convolutional neural network Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 238000012549 training Methods 0.000 description 7
- 230000001174 ascending effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000000763 evoking effect Effects 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000012876 topography Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001502 supplementing effect Effects 0.000 description 2
- 210000003478 temporal lobe Anatomy 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004497 NIR spectroscopy Methods 0.000 description 1
- 206010033799 Paralysis Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000537 electroencephalography Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000002582 magnetoencephalography Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000001256 tonic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/071—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/081—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/111—Automatic composing, i.e. using predefined musical rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/145—Composing rules, e.g. harmonic or musical rules, for use in automatic composition; Rule generation algorithms therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/341—Rhythm pattern selection, synthesis or composition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 방법은 각 단계의 적어도 일부가 프로세서에 의해 수행되고, 뇌 신호 데이터를 입력 받는 단계, 뇌 신호 데이터를 머신 러닝 기반의 제1 분류기에 입력하여 뇌 신호 데이터가 획득된 대상자가 상상한 제1 음을 추정하는 단계, 복수 개의 과거 음을 머신 러닝 기반의 제2 분류기의 입력으로 하여 제2 음을 추정하는 단계 및 제1 음 및 제2 음을 기반으로 최종 음을 결정하는 단계를 포함할 수 있다.The BCI-based music composition method according to an embodiment of the present disclosure includes at least part of each step being performed by a processor, receiving brain signal data, and inputting the brain signal data into a first classifier based on machine learning to obtain a brain signal. A step of estimating the first sound imagined by the subject from whom the data was acquired, a step of estimating a second sound by using a plurality of past sounds as input to a second classifier based on machine learning, and Based on the first sound and the second sound It may include the step of determining the final note.
Description
본 개시는 뇌 신호를 디코딩(해독, 해석)하는 기술에 관한 것으로서, 더욱 상세하게는 뇌 신호의 디코딩을 통하여 대상자가 상상(imagination)한 음(音)을 추정하여 음악을 작곡하는 장치 및 방법에 관한 것이다.The present disclosure relates to a technology for decoding (deciphering, interpreting) brain signals, and more specifically, to an apparatus and method for composing music by estimating sounds imagined by a subject through decoding of brain signals. It's about.
뇌-컴퓨터 인터페이스(brain-computer interface: bci)는 뇌 신호를 이용하여 기기를 제어하거나 사용자의 의도, 감정 등을 판별하는 기술로서, 주로 뇌의 전기적 활동으로 생성되는 뇌 신호에 기반하여 사용자의 의도를 인식하는 기술이다. Brain-computer interface (BCI) is a technology that uses brain signals to control devices or determine the user's intentions and emotions. It mainly determines the user's intentions based on brain signals generated by the brain's electrical activity. It is a technology that recognizes.
종래 신체가 자유롭지 못하거나 마비된 환자들의 의도를 인식하기 위해 의료 분야에서 주로 연구되어 왔으나, 게임 등 일반인들의 주변 기기 제어 등 다양한 분야에 적용하기 위해 연구되고 있다. 뇌-컴퓨터 인터페이스의 작동 방식 중 내재적인 방식은 외부의 자극이 없는 상태에서 사용자의 상상을 통해서 유발되는 뇌파를 분석해 의도를 판별하는 방법이다. Conventionally, it has been mainly studied in the medical field to recognize the intentions of patients who are physically disabled or paralyzed, but is also being studied for application to various fields such as controlling peripheral devices of the general public, such as games. The inherent method of operating a brain-computer interface is to determine intent by analyzing brain waves triggered by the user's imagination in the absence of external stimulation.
특히, 사용자가 자신의 몸 또는 대상 피 제어 기기를 움직이는 상상을 통해 뇌 신호를 유발하고, 유발된 뇌 신호를 해석(디코딩)하는 동작 상상(motor imagery)이 많이 연구되고 있다.In particular, motor imagery, in which a user triggers brain signals by imagining moving his or her body or a controlled device, and interprets (decodes) the evoked brain signals, is being widely studied.
종래 인공신경망 등의 딥러닝 기술에 기반하여 음악을 자동으로 작곡하는 기술이 존재한다. There exists technology for automatically composing music based on deep learning technologies such as conventional artificial neural networks.
선행기술 1은 사용자로부터 특정한 스타일의 작곡 요청에 대하여, 복수의 음원들로부터 획득한 코드를 기초로 인공 신경망의 기계학습을 이용하여 곡의 화성 진행을 구성하는 기술이 존재한다. 하지만, 선행기술 1은 사용자가 의도한 곡 진행 등이 개입될 여지가 없다.
다른 방식으로 선행기술 2의 사용자의 음성을 입력 받아 사용자의 음성에 상응하는 음계 또는 음계의 박자를 결정하여 작곡을 수행하는 기술이 존재한다. 하지만, 선행기술 2는 사용자가 음성을 발화해야만 하며 사용자의 상상만으로 작곡을 수행할 수 없다.In another way, there is a technology in Prior Art 2 that receives the user's voice and determines the scale or beat of the scale corresponding to the user's voice to perform composition. However, prior art 2 requires the user to utter a voice and cannot compose music using only the user's imagination.
따라서, 사용자의 상상으로 음악의 악보를 구현하면서, 뇌 신호 디코딩의 정확도를 보완하거나 음악 작곡에 지식이 부족한 사람의 상상을 보완할 수 있는 기술이 필요하다.Therefore, there is a need for a technology that can implement music scores using the user's imagination while complementing the accuracy of brain signal decoding or the imagination of people who lack knowledge of music composition.
본 개시의 일 실시 예는 음을 상상하는 뇌 신호를 디코딩하여 BCI 기반으로 음악을 작곡하는 장치 및 방법을 제공한다. An embodiment of the present disclosure provides an apparatus and method for composing music based on BCI by decoding brain signals imagining sounds.
본 개시의 다른 실시 예는 음을 상상하는 뇌 신호 디코딩의 해석 결과를 인공 지능에 기반한 음악 이론으로 보완하는 장치 및 방법을 제공한다.Another embodiment of the present disclosure provides an apparatus and method for supplementing the analysis results of decoding brain signals imagining sounds with music theory based on artificial intelligence.
본 개시의 일 실시 예는 BCI 기반의 음악 작곡 장치 및 방법을 제공한다.One embodiment of the present disclosure provides a BCI-based music composition device and method.
본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 방법은 각 단계의 적어도 일부가 프로세서에 의해 수행되고, 뇌 신호 데이터를 입력 받는 단계, 뇌 신호 데이터를 머신 러닝 기반의 제1 분류기에 입력하여 뇌 신호 데이터가 획득된 대상자가 상상한 제1 음을 추정하는 단계, 복수 개의 과거 음을 머신 러닝 기반의 제2 분류기의 입력으로 하여 제2 음을 추정하는 단계 및 제1 음 및 제2 음을 기반으로 최종 음을 결정하는 단계를 포함할 수 있다.The BCI-based music composition method according to an embodiment of the present disclosure includes at least part of each step being performed by a processor, receiving brain signal data, and inputting the brain signal data into a first classifier based on machine learning to obtain a brain signal. A step of estimating the first sound imagined by the subject from whom the data was acquired, a step of estimating a second sound by using a plurality of past sounds as input to a second classifier based on machine learning, and Based on the first sound and the second sound It may include the step of determining the final note.
본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 장치는 프로세서, 및 프로세서와 전기적으로 연결되고, 프로세서에서 수행되는 적어도 하나의 코드가 저장되는 메모리를 포함하고, 메모리는 프로세서에서 실행될 때 프로세서로 하여금 입력 받은 뇌 신호 데이터를 머신 러닝 기반의 제1 분류기에 입력하여 뇌 신호 데이터가 획득된 대상자가 상상한 제1 음을 추정하고, 복수 개의 과거 음을 머신 러닝 기반의 제2 분류기의 입력으로 하여 제2 음을 추정하고, 제1 음 및 상기 제2 음을 기반으로 최종 음을 결정하도록 야기하는 코드를 저장할 수 있다.A BCI-based music composition device according to an embodiment of the present disclosure includes a processor and a memory electrically connected to the processor and storing at least one code executed by the processor, and the memory allows the processor to input input when executed on the processor. The received brain signal data is input to a first classifier based on machine learning to estimate the first sound imagined by the subject for whom the brain signal data was acquired, and a plurality of past sounds are input to the second classifier based on machine learning to estimate the second sound. A code may be stored that causes the note to be estimated and the final note to be determined based on the first note and the second note.
본 개시의 실시 예에 따른 장치 및 방법은 음의 상상만으로 음악을 작곡할 수 있다. The device and method according to an embodiment of the present disclosure can compose music only by imagining sounds.
본 개시의 실시 예에 따른 장치 및 방법은 음을 상상한 뇌 신호의 디코딩 결과를 인공 지능에 기반한 음악 이론으로 보완함으로써, 디코딩 정확성을 향상시킬 수 있다.The device and method according to an embodiment of the present disclosure can improve decoding accuracy by supplementing the decoding results of brain signals imagining sounds with music theory based on artificial intelligence.
도 1은 본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 방법을 수행하거나 BCI 기반 음악 작곡 장치가 구동하기 위한 환경을 나타낸 도면이다.
도 2는 서로 다른 음을 상상한 뇌 신호의 디코딩 결과의 예시이다.
도 3은 본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 장치의 구성을 나타낸 블록도이다.
도 4는 본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 방법을 설명하기 위한 순서도이다.
도 5 및 6은 본 개시의 일 실시 예에 따른 최종 음을 결정하는 방법을 설명하기 위한 도면이다.FIG. 1 is a diagram illustrating an environment for performing a BCI-based music composition method or driving a BCI-based music composition device according to an embodiment of the present disclosure.
Figure 2 is an example of decoding results of brain signals imagining different sounds.
Figure 3 is a block diagram showing the configuration of a BCI-based music composition device according to an embodiment of the present disclosure.
Figure 4 is a flowchart for explaining a BCI-based music composition method according to an embodiment of the present disclosure.
5 and 6 are diagrams for explaining a method of determining the final sound according to an embodiment of the present disclosure.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.
도 1을 참조하여 본 개시의 일 실시 예에 따른 BCI 기반 음악 작곡 장치(이하 '작곡 장치'라 한다) 또는 방법을 수행하기 위한 환경을 설명한다. Referring to FIG. 1, an environment for performing a BCI-based music composition device (hereinafter referred to as 'composition device') or method according to an embodiment of the present disclosure will be described.
본 개시의 실시 예에 따른 뇌 신호를 디코딩하는 장치 또는 방법을 수행하기 위한 환경은 작곡 장치(100), 뇌 신호 측정 장치(200)를 포함할 수 있다.An environment for performing a device or method for decoding brain signals according to an embodiment of the present disclosure may include a
뇌 신호 측정 장치(200)는 대상체로부터 뇌전도(electoencephalography: EEG)를 포함하는 뇌 신호를 측정할 수 있고, 신축성 있는 모자에 국제 10-20 체계(international 10-20 system)에 따라 일정 간격으로 분할된 위치에 다수의 전극을 규칙적으로 배치한 전극 캡(electrode cap)(210) 또는 국제 10-20 체계에 따라 대상체의 두부에 배치된 다수의 전극으로부터 뇌 신호를 수신할 수 있다. 국제 10-20 체계는 두피에 붙이거나 접착하는 전극의 배치에 관한 국제 표준으로서, 두부의 뼈 표식 사이의 거리를 사용하여 전극의 배치를 위한 선의 체계를 결정한 것이다. 뇌 신호를 측정하기 위한 전극은 이 선들의 전체 길이의 10% 또는 20% 간격으로 배치될 수 있다.The brain
본 명세서에서는 뇌 신호를 뇌전도를 예로 들어 설명하지만, 뇌 신호는 뇌자도(Magnetoencephalography: MEG), 뇌파도(electrocorticogram: ECoG) 등 뇌의 신경세포에서 발생하는 전기적 자기적 신호 또는 뇌를 촬영한 영상을 모두 포함하는 개념이다.In this specification, brain signals are explained using an electroencephalogram as an example, but brain signals are electrical and magnetic signals generated from nerve cells in the brain, such as magnetoencephalography (MEG) and electrocorticogram (ECoG), or images taken of the brain. It is an all-inclusive concept.
뇌 신호 측정 장치(200)는 작곡 장치(100)에 포함되어 구현되거나 작곡 장치(100)와 별도로 구현되는 형태일 수 있다. 뇌 신호 측정 장치(200)가 작곡 장치(100)와 별도로 구현되는 경우 작곡 장치(100)는 뇌 신호 측정 장치(200)로부터 대상체에 장착된 다수의 전극에서 측정한 뇌 신호를 네트워크 또는 유/무선 인터페이스를 통해 수신할 수 있다.The brain
다른 실시 예에서, 뇌 신호는 뇌 신호 측정 장치(200)에서 측정한 뇌 신호는 영상의 형태를 포함하는 개념일 수 있다. 예를 들어 뇌전도에 기반하여 생성된 뇌전도 토포그래피(topography)일 수 있다. 본 명세서에서 뇌 신호를 뇌전도, 뇌자도 등의 뇌의 신경세포에서 발생하는 전기적 자기적 신호 자체뿐만 아니라 그 전기적 자기적 신호에 기반하여 생성된 토포그래피를 포함하는 개념이다.In another embodiment, the brain signal measured by the brain
다른 실시 예에서, 뇌 신호는 fMRI 등의 뇌를 일정 시간 동안 촬영한 뇌 영상일 수 있다.In another embodiment, the brain signal may be a brain image captured over a certain period of time, such as fMRI.
작곡 장치(100)는 뇌 신호 측정 장치(200)가 획득한 뇌 신호를 제공 받고 처리하여 뇌 신호를 측정한 대상체가 상상한 음을 판별(디코딩)할 수 있다.The
본 명세서에서 음(音)은 절대음(absolute pitch)뿐만 아니라, 상대음(relative pitch), 음의 흐름 또는 음향의 형태를 포함하는 멜로디, 음의 윤곽 또는 음고류 등 음의 높낮이, 박자, 이전 음과 대비한 음의 변화 등을 모두 포함한다. 따라서, 대상체가 음을 상상하는 경우, 이전 음과 대비한 음의 높낮이 변화를 상상하는 것일 수 있고, 머신 러닝에 기반한 분류기가 음을 추정하는 것은 이전 음과 대비한 음의 높낮이 변화를 추정하거나 절대음을 추정하거나 음의 윤곽 변화를 추정하는 음과 관련된 것을 추정하는 것을 포함한다. 최초의 음을 결정하고 순차적으로 상상된 음들이 계속해서 선택되면 이 음들의 시퀀스(sequence)는 어떤 맥락(context)을 형성할 것인데, 이는 예를들면 서양조성음악의 화성법에 기반해 음들의 시퀀스인 선율(melody)을 추정해나갈 수 있는 논리와 비교될 수 있다. 따라서 과거 음은 음악적 맥락을 형성할 수 있는 2개 이상의 기 선택된 모든 단계의 음들을 지시하며, 대상체가 상상한 현재 음은 과거 음들에 의해 결정될 수 있다.In this specification, sound refers to not only absolute pitch, but also relative pitch, melody including sound flow or sound shape, sound outline, or note flow, etc., and the pitch, beat, and movement of the sound. It includes all changes in sound compared to sound. Therefore, when an object imagines a sound, it may be imagining a change in pitch of the sound compared to the previous sound, and when a classifier based on machine learning estimates the sound, it may estimate the change in pitch of the sound compared to the previous sound or an absolute It involves estimating something related to a sound, estimating a sound or estimating a change in the contour of a sound. If the initial note is determined and sequentially imagined notes are selected continuously, the sequence of these notes will form a certain context, which is, for example, a sequence of notes based on the harmony of Western tonal music. It can be compared to the logic that can estimate a melody. Therefore, the past sound indicates two or more previously selected sounds that can form a musical context, and the current sound imagined by the subject can be determined by the past sounds.
작곡 장치(100)는 머신 러닝 기반의 학습 모델에 뇌 신호를 전 처리한 뇌 신호 데이터를 입력하여 대상체가 상상한 음을 디코딩할 수 있다.The
머신 러닝 기반의 학습 모델은 학습 모델은 CNN 또는 R-CNN(Region based CNN), C-RNN(Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, R-FCN(Region based Fully Convolutional Network), YOLO(You Only Look Once) 또는 SSD(Single Shot Multibox Detector)구조의 신경망을 포함하거나, SVM(Support Vector Machine) 분류기를 포함할 수 있고, 특별히 그 종류를 한정하지 않는다. 아래에서 설명하는 것처럼, 본 개시의 실시 예에 포함된 분류기 중 일부는 뇌 신호 데이터를 처리하는 것이므로, 학습 모델의 종류에 무관하게 적용 가능하다.Machine learning-based learning models include CNN or R-CNN (Region based CNN), C-RNN (Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, and R-FCN (Region based Fully Convolutional Network). ), a neural network with a YOLO (You Only Look Once) or SSD (Single Shot Multibox Detector) structure, or a SVM (Support Vector Machine) classifier, and the type is not particularly limited. As explained below, some of the classifiers included in the embodiments of the present disclosure process brain signal data and are therefore applicable regardless of the type of learning model.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있으며, 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어는 메모리에 저장될 수 있다.The learning model may be implemented in hardware, software, or a combination of hardware and software. If part or all of the learning model is implemented in software, one or more instructions constituting the learning model may be stored in memory.
작곡 장치(100)는 대상자로부터 측정한 뇌 신호 또는 뇌 신호를 전 처리한 뇌 신호 데이터를 제공 받아 머신 러닝 기반의 학습 모델에 입력하여 대상자가 상상한 음을 추정할 수 있다. The
도 2를 참조하면, 대상자가 상상한 선율 진행이 3도 도약 상행/하행, 순차 상행/하행, 동음인 것에 대하여 각각 대상자의 측두엽 영역에서 측정한 뇌 신호의 FFT 진폭을 측정한 결과이다. 도 2에서 확인 가능한 것처럼 그룹 도약하행(neg2)와 도약상행(pos2)의 평균이 현저하게 달라 뇌 신호를 통해서 대상자가 상상한 음을 구분할 수 있음을 확인하였다.Referring to Figure 2, this is the result of measuring the FFT amplitude of the brain signal measured in the subject's temporal lobe area for the 3-degree jump ascending/descending, sequential ascending/descending, and homophonic melody progression imagined by the subject. As can be seen in Figure 2, the averages of the group's downward jump (neg2) and upward jump (pos2) were significantly different, confirming that the sound imagined by the subject could be distinguished through brain signals.
도 3를 참조하여 본 개시의 일 실시 예에 따른 작곡 장치(100)의 구성을 설명한다. The configuration of the
작곡 장치(100)는 뇌 신호 측정 장치(200) 또는 뇌 신호를 측정하기 위한 전극들의 인터페이싱 또는 통신을 수행하기 위한 통신부(110)를 포함하고 통신부(110)는 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈을 네트워크 인터페이스(111)로서 포함할 수 있다.The
이동통신 모듈에서 사용하는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. Technical standards or communication methods for mobile communication used in mobile communication modules (e.g., GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution) Transmits and receives wireless signals with at least one of a base station, an external terminal, and a server on a mobile communication network built according to Term Evolution-Advanced, etc.).
무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 작곡 장치(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.The wireless Internet module refers to a module for wireless Internet access and may be built into or external to the
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있다.Wireless Internet technologies include, for example, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), and WiMAX (Worldwide). These include Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), and LTE-A (Long Term Evolution-Advanced).
근거리 통신 모듈은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.The short-range communication module is for short-range communication and includes Bluetooth™, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, and NFC (Near Field). Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technology can be used to support short-distance communication.
작곡 장치(100)는 사용자의 입력 또는 사용자에게 알림을 제공하기 위한 인터페이스부(120)를 포함할 수 있고, 인터페이스부(120)는 버튼(121), 디스플레이(122), LED 등의 광 출력 모듈 또는 스피커 등의 음성 출력 모듈(123)을 포함할 수 있다. 인터페이스부(120)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다.The
작곡 장치(100)는 메모리(130)를 포함하고, 메모리(130)는 뇌 신호 측정 장치(200)로부터 전송 받거나 대상체에서 측정한 뇌 신호 또는 뇌 신호를 전 처리한 뇌 신호 데이터를 저장할 수 있다. The
일 실시 예에서, 메모리(130)는 작곡 장치(100)는 훈련된 학습 모델에 포함된 인공 신경망의 최적화된 모델 파라미터들을 저장할 수 있다. In one embodiment, the
다른 실시 예에서, 메모리(130)는 머신 러닝 기반의 학습 모델을 훈련시키기 위한 훈련 데이터 및 코드(code)를 저장할 수 있다.In another embodiment, the
작곡 장치(100)는 훈련된 학습 모델을 특정 입력에 적용하여 결과 값을 추론하기 위해 프로세서(180)를 이용할 수 있다. 다른 실시 예에서, 머신 러닝 기반의 학습 모델을 훈련시키기 위해 프로세서(180)를 이용할 수 있다. 프로세서(180)는 다양한 학습 기법을 이용하여 인공 신경망을 반복적으로 학습시킴으로써, 인공 신경망의 최적화된 모델 파라미터들을 결정하거나, 학습된 인공 신경망의 모델 파라미터에 따라 학습 모델을 입력에 적용하여 결과 값을 추론할 수 있다.The
머신 러닝 기반의 학습 모델은 학습 모델은 CNN 또는 R-CNN(Region based CNN), C-RNN(Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, R-FCN(Region based Fully Convolutional Network), YOLO(You Only Look Once) 또는 SSD(Single Shot Multibox Detector)구조의 신경망을 포함하거나 SVN 기반의 분류기를 포함할 수 있다.Machine learning-based learning models include CNN or R-CNN (Region based CNN), C-RNN (Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, and R-FCN (Region based Fully Convolutional Network). ), a neural network with a YOLO (You Only Look Once) or SSD (Single Shot Multibox Detector) structure, or an SVN-based classifier.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있으며, 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어는 메모리(130)에 저장될 수 있다.The learning model may be implemented as hardware, software, or a combination of hardware and software. If part or all of the learning model is implemented as software, one or more instructions constituting the learning model may be stored in the
작곡 장치(100)는 뇌 신호의 전처리(pre-processing)를 수행하는 뇌 신호 처리부(140)를 포함할 수 있고, 뇌 신호 처리부(140)는 프로세서(180)의 일부로서 구현되거나 별도로 구현될 수 있다. 일 실시 예에서, 뇌 신호 처리부(140)는 DSP 칩 또는 GPU로서 구현될 수 있다. The
일 실시 예에서, 뇌 신호 처리부(140)는 뇌 신호가 뇌전도인 경우, 증폭 및 필터링(amplification and filtering), 노이즈 또는 잡파(artifacis)를 제거할 수 있다. 또는 뇌 신호 처리부(140)는 푸리에 분석, 웨이블릿 분석과 같은 알고리듬을 수행할 수 있고, 통상의 기술자에게 일반적인 구성으로서 본 명세서에서는 자세한 설명을 생략한다.In one embodiment, the
뇌 신호 처리부(140)는 뇌 신호가 뇌 영상인 경우, 영상 처리 알고리듬을 통해 뇌 영상의 전 처리를 수행할 수 있다. When the brain signal is a brain image, the brain
작곡 장치(100)는 메모리(130)에 저장된 코드에 의해 대상체의 뇌 신호에 기반하여 대상체가 상상한 음을 판별하도록 야기되는 프로세서(180)를 포함한다. 프로세서(180)는 뇌 신호를 디코딩하는 알고리듬이 구현된 코드 또는 학습 모델에 기반하여 대상체가 상상한 음을 판별할 수 있다.The
다른 실시 예에서, 작곡 장치(100)는 메모리(130)에 저장된 코드 및 훈련 데이터에 기반하여 뇌 신호 데이터를 입력으로 하여 대상체가 상상한 음을 판별하는 학습 모델을 훈련하도록 야기되는 프로세서(180)를 포함할 수 있다.In another embodiment, the
도 4를 참조하여 본 개시의 일 실시 예에 작곡 장치(100)의 BCI(Brain-Computer Interface) 기반 음악 작곡 방법을 설명한다. 아래의 설명은 뇌 신호 측정 장치(200)가 작곡 장치(100)와 별도로 구현된 것을 전제로 하여 설명하지만, 뇌 신호 측정 장치(200)가 작곡 장치(100)에 함께 구현되는 것을 배제하지 않는다. 또한, 아래의 설명은 뇌 신호가 뇌파인 것을 전제로 하여 설명하지만, 뇌로부터 발생하는 전기적 또는 자기적 신호에 기반하여 뇌의 활동 또는 상태를 측정 또는 기록한 신호는 모두 포함한다.With reference to FIG. 4 , a brain-computer interface (BCI)-based music composition method of the
작곡 장치(100)는 뇌 신호 측정 장치로부터 뇌 신호 데이터를 전송 받거나 대상체의 두부에 배치된 뇌 신호 측정용 전극으로부터 뇌 신호를 수신하고 전 처리하여 뇌 신호 데이터를 획득할 수 있다(S110). 또는 저장장치로부터 뇌 신호 데이터를 로딩하여 뇌 신호 데이터를 획득할 수 있다. 뇌 신호는 뇌전도, 뇌자도 등의 뇌의 신경세포에서 발생하는 전기적 자기적 신호를 측정한 신호이거나, 뇌전도 또는 뇌자도 등의 전기적 자기적 신호를 기반으로 생성된 토포그래피일 수 있다. 또는 Functional Near-infrared Spectroscopy(fNIRS)일 수 있다. 또는 뇌 신호는 뇌를 CT, MRI, fMRI 등의 영상 진단 장비로 촬영한 뇌 영상일 수 있다.The
뇌 신호가 뇌전도인 경우 국제 10-20 체계에 의해 대상체의 두부에 배치된 다수의 전극에서 측정된 전기적 신호일 수 있다. 뇌 신호는 Delta, Theta, Alpha, Beta 및/또는 Gamma 대역에서 측정된 신호일 수 있다.If the brain signal is an electroencephalogram, it may be an electrical signal measured from a plurality of electrodes placed on the subject's head according to the international 10-20 system. Brain signals may be signals measured in the Delta, Theta, Alpha, Beta and/or Gamma bands.
뇌 신호는 뇌의 측두엽에서 측정된 것일 수 있다. Brain signals may be measured in the temporal lobe of the brain.
아래의 설명은 뇌 신호가 뇌전도인 것을 전제로 하여 실시 예들을 설명하지만 통상의 기술자는 다른 경우에도 유사하게 적용 가능함을 알 수 있다.The following description describes embodiments on the premise that the brain signal is an electroencephalogram, but those skilled in the art will recognize that the present invention can be similarly applied to other cases.
작곡 장치(100)는 뇌 신호 데이터의 적어도 일 부분으로부터 특징점을 추출할 수 있다. 특징점은 ERP(Event Related Potential), 스펙트럼, FFT 진폭 크기일 수 있다. ERP는 Visual Evoked Potentials (VEP), Auditory Evoked Potentials (AEP), Somatosensory Evoked Potentials (SEP), Steady State Evoked Potentials (SSEP) 또는 P300일 수 있다.The
일 실시 예에서, 작곡 장치(100)는 뇌 신호 데이터를 측정된 시간 축에 따라 미리 설정된 시간 길이의 타임 윈도우를 슬라이딩하면서 특징점을 추출할 수 있다.In one embodiment, the
작곡 장치(100)는 뇌 신호 데이터(특징점일 수 있다, 이하에서는 뇌 신호 데이터는 뇌 신호 데이터 자체 또는 뇌 신호 데이터로부터 추출된 특징점을 포함하는 개념으로 전제하여 설명한다)를 머신 러닝 기반의 제1 분류기(520)에 입력하여 뇌 신호 데이터가 획득된 대상자가 상상한 제1 음을 추정할 수 있다(S120). The
제1 분류기(520)는 뇌 신호의 특징점들 또는 뇌 신호의 측정 파라미터들을 대상자가 상상한 음(음정 및/또는 박자를 포함할 수 있다, 특정 음표일 수 있다, 이전 음과 비교한 음의 높낮이 차이일 수 있다)로 레이블링(labeling)한 훈련 데이터로 훈련된 CNN 등에 기반한 딥 러닝 모델 또는 Multi-class SVM, Quadratic Disciminant Analysis(QDA) 등 머신 러닝 모델을 포함할 수 있고 특별히 그 종류를 한정하지 않는다.The
일 실시 예에서, 제1 분류기(520)는 입력된 뇌 신호 데이터에 기반하여 복수의 후보 음에 대한 확률을 출력할 수 있다. 예를 들어, 시각 t에 특정 음을 상상한 대상자로부터 측정되어 입력된 뇌 신호 데이터가 복수의 음 C4, D4, E4를 상상하는 뇌 신호일지에 대한 각 확률 값을 출력할 수 있다.In one embodiment, the
일 실시 예에서, 제1 분류기(520)는 입력된 뇌 신호 데이터에 기반하여 이전 음에 비교한 현재 상상하는 음의 음 높낮이(윤곽) 확률을 출력할 수 있다. 예를 들어, 시각 t에 특정 음을 상상한 대상자로부터 측정되어 입력된 뇌 신호 데이터가 이전 시각 t-1에 최종 음으로 결정된 음에 비하여 음정이 높을 확률(전음 대비 상행), 동음일 확률 및 낮은(전음 대비 하행) 각 확률 값을 출력할 수 있다. 따라서, 대상자는 이전 음에 대비한 음 윤곽을 상상하고 음악 화성 진행에 따라 적합한 음정의 확정은 머신 러닝에 기반한 제2 분류기(510)로 수행함으로써, 보다 쉽게 음악 작곡을 진행할 수 있다.In one embodiment, the
일 실시 예에서, 제1 분류기(520)는 뇌 신호 데이터를 입력으로 하여, 음의 윤곽, 선율 진행, 상대 음계, 절대음, 음고류 등을 추정하도록 훈련된 분류기일 수 있다. 윤곽은 전음 대비 상행, 동음, 하행 등의 3가지일 수 있고, 음정은 동음, 순차 상행/하행, 3도 도약 상행/하행, 4도 도약 상행/하행 등일 수 있다. 상대 음계의 경우, 으뜸음인 도부터 시작하여 시까지 칭음 음계나, 또는 팔음 음계, 육음 음계 등일 수 있다. 절대음은 주파수에 따라 다른 음의 높낮이일 수 있고, 또는 음고류의 경우, C, D, E 등과 같은 음이름일 수 있다.In one embodiment, the
작곡 장치(100)는 복수 개의 과거 음을 머신 러닝 기반의 제2 분류기(510)의 입력으로 하여 현재 시점에 적합한 제2 음을 추정할 수 있다(S130).The
제2 분류기(510)는 LSTM, RNN 등의 시 계열 기반 학습 모델이거나 강화학습에 기반할 수 있다. 강화학습의 경우, 특정 스타일 음악 악보의 통계적인 화음진행과 최종 완성된 악보의 화음진행의 유사도를 보상으로 설정할 수 있다.The
제2 분류기(510)는 종래의 악보를 훈련 데이터로 하여 훈련될 수 있다. 일 실시 예에서, 제2 분류기(510)는 음악의 종류, 작곡가 등으로 분류된 분류별 악보를 훈련 데이터로 하여 훈련될 수 있다. 즉, 소정의 음악 분류에 따른 악보들에 기반하여 복수 개의 음을 입력으로 하여 그 다음 음을 출력하도록 훈련된 학습 모델일 수 있다.The
일 실시 예에서, 제2 분류기(510)는 사용자가 선택한 특정 음악의 종류 또는 작곡가에 기반한 학습 모델을 이용하여, 이전까지 확정된 복수의 음들에 기반하여 현재 시점에 적합한 제2 음을 추정할 수 있다. 따라서, 사용자가 원하는 음악 스타일로 음악을 작곡할 수 있다.In one embodiment, the
일 실시 예에서, 제2 분류기(510)는 현재 시점에 적합한 제2 음에 적합한 복수 개의 음들의 각 확률 값을 출력할 수 있다.In one embodiment, the
예를 들어, t 이전에 확정된 복수의 음을 제2 분류기(510)의 입력으로 하여 시각 t에 적합한 특정 음으로서 복수의 음들에 대한 각 확률 값을 출력할 수 있다. 즉, 현재 시점을 t라고 했을 때, 과거 음은 P(t-1), ..... P(t-n) 에 해당할 수 있다.(n >= 2)For example, a plurality of sounds confirmed before t can be input to the
작곡 장치(100)는 제1 분류기(520) 및 제 2 분류기(510)에서 t 시각에 적합한 것으로 각각 추정한 제1 음 및 제2 음을 기반으로 최종 음을 결정한다(S140).The
일 실시 예에서, 작곡 장치(100)는 t 시각에 적합한 것으로 추정된 복수의 제1 음의 음 높낮이에 따른 확률 및 제2 음에 적합한 복수의 음들의 확률에 각각 가중치를 반영한 후 합산하여 복수의 후보 음들의 확률을 산출하고, 복수의 상기 후보 음들 중 가장 높은 확률을 갖는 음을 최종 음으로 결정할 수 있다.In one embodiment, the
도 5를 참조하여 설명하면, 제1 분류기(520)가 산출한 복수의 제1 음들에 대한 확률(k1..ki)에 각각 가중치(WB)를 반영하고, 제2 분류기(510)가 산출한 복수의 제2 음들에 대한 확률(y1..yi)에 각각 가중치(WM)를 반영한 후 동일한 음에 대해 이들을 각각 더한 값을 산출하고, 그 중 가장 높은 값을 갖는 음을 최종 음(540)로 결정할 수 있다.5, the weights (WB) are reflected in the probabilities (k1..ki) for the plurality of first sounds calculated by the
일 실시 예에서, 가중치는 사용자로부터 입력받을 수 있으며, 제1 음들에 대한 확률(k1..ki)에 대한 가중치(WB)와 제2 음들에 대한 확률(y1..yi)에 대한 가중치(WM)의 합은 1일 수 있다. 따라서, 사용자는 자신이 상상한 음에 대한 가중치(WB)를 더 반영하거나, 종래의 소정 분류의 악보에 기반하여 산출된 음에 대한 가중치(WM)를 더 반영하도록 하여 사용자가 원하는 방향으로 최종 음을 결정하도록 할 수 있다.In one embodiment, the weights may be input from the user, including a weight (WB) for the probabilities (k1..ki) for the first sounds and a weight (WM) for the probabilities (y1..yi) for the second sounds. ) may be 1. Therefore, the user can further reflect the weight (WB) for the sound imagined by the user, or the weight (WM) for the sound calculated based on the conventional music score of a certain classification, to adjust the final sound in the direction desired by the user. can be decided.
다른 실시 예에서, 가중치는 제1 분류기 및 제2 분류기의 정확도에 비례하도록 설정할 수 있다. 따라서, 특정 분류기의 성능이 낮은 경우 다른 분류기의 결과를 좀 더 반영하도록 설정함으로써 전체 곡의 완성도를 높일 수 있다. In another embodiment, the weights may be set to be proportional to the accuracies of the first classifier and the second classifier. Therefore, if the performance of a specific classifier is low, the completeness of the entire song can be improved by setting it to reflect the results of other classifiers more.
일 실시 예에서, 제1 음의 음 높낮이에 따른 확률 및 제2 음에 적합한 복수의 음들의 확률에 각각 가중치를 반영한 후 합산하여 복수의 후보 음들의 확률을 산출하고, 복수의 상기 후보 음들 중 가장 높은 확률을 갖는 음을 최종 음으로 결정할 수 있다.In one embodiment, the probability of a plurality of candidate sounds is calculated by reflecting weights on the probability according to the pitch of the first sound and the probability of a plurality of sounds suitable for the second sound, respectively, and then summing them, and calculating the probability of a plurality of candidate sounds, and calculating the probability of a plurality of candidate sounds. A note with a high probability can be determined as the final note.
도 6을 참조하여 설명하면, 시각 t 이전에 결정된 음들이 먼 시간 순서대로 D4, D4, C4, B3이고, 시각 t에 적합한 음으로 대상자가 직전 음인 B3 보다 음 윤곽이 높은 음으로 상상한 것을 전제로 하여 설명한다. 대상자가 음 윤곽이 높은 음으로 상상했을 때 측정된 뇌 신호로부터 제1 분류기(520)가 이전보다 낮은 음을 상상한 것으로 추정한 확률(), 동일한 음을 상상한 것으로 추정한 확률(), 높은 음을 상상한 것으로 추정한 확률()에 각각 가중치(WB)를 반영하고, 제2 분류기(510)가 B3보다 낮은 음들인 G3, A3가 적합할 확률들(, ), 동음인 B3가 적합할 확률(), 높은 음들인 C4~A5가 적합할 확률들(~) 각각에 가중치(WM)를 반영한 후 동일한 음들에 대하여 가중치가 반영된 확률들을 더하여 가장 높은 음을 최종 음으로 결정할 수 있다.To explain with reference to Figure 6, the sounds determined before time t are D4, D4, C4, and B3 in distant chronological order, and it is assumed that the subject imagined a note suitable for time t as having a higher note contour than B3, the previous note. It is explained as follows. The probability that the
전술한 본 개시는, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 각 장치의 프로세서를 포함할 수도 있다.The present disclosure described above can be implemented as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is. Additionally, the computer may include a processor for each device.
한편, 상기 프로그램은 본 개시를 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수 있다. 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the program may be specially designed and configured for the present disclosure, or may be known and usable by those skilled in the art of computer software. Examples of programs may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
본 개시의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 개시에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. In the specification (particularly in the claims) of the present disclosure, the use of the term “above” and similar referential terms may refer to both the singular and the plural. In addition, when a range is described in the present disclosure, the invention includes the application of individual values within the range (unless there is a statement to the contrary), and each individual value constituting the range is described in the detailed description of the invention. It's the same.
본 개시에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다. 본 개시에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 개시를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 개시의 범위가 한정되는 것은 아니다. 또한, 통상의 기술자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 인자(factor)에 따라 구성될 수 있음을 알 수 있다.Unless there is an explicit order or description to the contrary regarding the steps constituting the method according to the present disclosure, the steps may be performed in any suitable order. The present disclosure is not necessarily limited by the order of description of the steps above. The use of any examples or illustrative terms (e.g., etc.) in the present disclosure is merely to describe the present disclosure in detail, and unless limited by the claims, the scope of the present disclosure is limited by the examples or illustrative terms. It doesn't work. In addition, those skilled in the art will recognize that various modifications, combinations and changes may be made according to design conditions and factors within the scope of the appended claims or their equivalents.
따라서, 본 개시의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 개시의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present disclosure should not be limited to the above-described embodiments, and the scope of the patent claims described below as well as all scopes equivalent to or equivalently changed from the claims are within the scope of the spirit of the present disclosure. It will be said to belong to
본 연구는 삼성미래기술육성센터의 지원으로 수행된 연구(연구과제명: 뇌신호 해독을 통한 BCI-Musicing 시스템 개발")의 결과로 출원되었다.This study was submitted as a result of research (Research project title: “Development of BCI-Musicing system through brain signal decoding”) conducted with the support of Samsung Future Technology Development Center.
100: 작곡 장치
200: 뇌 신호 측정 장치
210: 전극 캡
510: 제2 분류기
520: 제1 분류기100: Composition device
200: Brain signal measurement device
210: electrode cap
510: second classifier
520: first classifier
Claims (16)
뇌 신호 데이터를 입력 받는 단계;
상기 뇌 신호 데이터를 머신 러닝 기반의 제1 분류기에 입력하여 상기 뇌 신호 데이터가 획득된 대상자가 상상한 시각 t에서의 제1 음(音)을 추정하는 단계;
시각 t 이전까지 확정된 복수 개의 과거 음을 입력받아 다음 음을 추정하는 머신 러닝 기반의 제2 분류기에서 시각 t에서의 제2 음을 추정하는 단계; 및
상기 제1 음 및 상기 제2 음을 기반으로 최종 음을 결정하는 단계를 포함하는,
BCI 기반 음악 작곡 방법.
At least a portion of each step is performed by a processor,
Receiving brain signal data as input;
Inputting the brain signal data into a first machine learning-based classifier to estimate a first sound at time t imagined by the subject at which the brain signal data was acquired;
Estimating the second sound at time t in a second machine learning-based classifier that receives a plurality of past sounds determined before time t and estimates the next sound; and
Comprising determining a final sound based on the first sound and the second sound,
BCI-based music composition method.
상기 제1 음을 추정하는 단계는,
상기 제1 분류기에 의해 직전 음에 비교하여 상기 제1 음의 음 높낮이에 따른 확률을 출력하는 단계를 포함하는,
BCI 기반 음악 작곡 방법.
According to claim 1,
The step of estimating the first sound is,
Comprising the step of outputting a probability according to the pitch of the first sound by comparing it with the immediately preceding sound by the first classifier,
BCI-based music composition method.
상기 제1 음을 추정하는 단계는,
상기 제1 분류기에 의해 상기 뇌 신호 데이터에 기반하여 복수의 후보 음에 대한 확률을 출력하는 단계를 포함하는,
BCI 기반 음악 작곡 방법.
According to claim 1,
The step of estimating the first sound is,
Comprising the step of outputting probabilities for a plurality of candidate sounds based on the brain signal data by the first classifier,
BCI-based music composition method.
상기 제2 분류기는 소정의 음악 분류에 따른 악보들에 기반하여 복수 개의 음을 입력으로 하여 그 다음 음을 출력하도록 훈련된 학습 모델인,
BCI 기반 음악 작곡 방법.
According to claim 1,
The second classifier is a learning model trained to input a plurality of sounds and output the next sound based on scores according to a predetermined music classification,
BCI-based music composition method.
상기 제2 음을 추정하는 단계는,
미리 설정된 악보들로 훈련된 상기 제2 분류기에 의해, 복수 개의 과거 음을 기반으로 상기 제2 음에 적합한 복수의 음들의 확률을 출력하는 단계를 포함하는,
BCI 기반 음악 작곡 방법.
According to claim 1,
The step of estimating the second sound is,
Comprising the step of outputting, by the second classifier trained with preset scores, a probability of a plurality of sounds suitable for the second sound based on a plurality of past sounds,
BCI-based music composition method.
상기 최종 음을 결정하는 단계는,
상기 제1 음의 음 높낮이에 따른 확률 및 상기 제2 음에 적합한 복수의 음들의 확률에 각각 가중치를 반영한 후 합산하여 복수의 후보 음들의 확률을 산출하는 단계; 및
복수의 상기 후보 음들 중 가장 높은 확률을 갖는 음을 상기 최종 음으로 결정하는 단계를 포함하는,
BCI 기반 음악 작곡 방법.
According to claim 1,
The step of determining the final sound is,
Calculating the probability of a plurality of candidate sounds by reflecting weights on the probability according to the pitch of the first sound and the probability of a plurality of sounds suitable for the second sound and adding them together; and
Comprising the step of determining the sound with the highest probability among the plurality of candidate sounds as the final sound,
BCI-based music composition method.
상기 최종 음을 결정하는 단계는,
상기 제1 음에 적합한 복수의 음들의 확률 및 상기 제2 음에 적합한 복수의 음들의 확률에 각각 가중치를 반영한 후 합산하여 복수의 후보 음들의 확률을 산출하는 단계; 및
복수의 상기 후보 음들 중 가장 높은 확률을 갖는 음을 상기 최종 음으로 결정하는 단계를 포함하는,
BCI 기반 음악 작곡 방법.
According to claim 1,
The step of determining the final sound is,
calculating the probabilities of a plurality of candidate sounds by adding weights to the probabilities of a plurality of sounds suitable for the first sound and the probabilities of a plurality of sounds suitable for the second sound; and
Comprising the step of determining the sound with the highest probability among the plurality of candidate sounds as the final sound,
BCI-based music composition method.
상기 가중치는 각각 상기 제1 분류기 및 상기 제2 분류기의 정확도에 비례하는,
BCI 기반 음악 작곡 방법.
According to claim 6 or 7,
The weight is proportional to the accuracy of the first classifier and the second classifier, respectively.
BCI-based music composition method.
상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드가 저장되는 메모리를 포함하고,
상기 메모리는 상기 프로세서에서 실행될 때 상기 프로세서로 하여금 입력 받은 뇌 신호 데이터를 머신 러닝 기반의 제1 분류기에 입력하여 상기 뇌 신호 데이터가 획득된 대상자가 상상한 시각 t에서의 제1 음을 추정하고, 시각 t 이전까지 확정된 복수 개의 과거 음을 입력받아 다음 음을 추정하는 머신 러닝 기반의 제2 분류기에서 시각 t에서의 제2 음을 추정하고, 상기 제1 음 및 상기 제2 음을 기반으로 최종 음을 결정하도록 야기하는 코드를 저장하는,
BCI 기반 음악 작곡 장치.
processor; and
A memory electrically connected to the processor and storing at least one code executed by the processor,
When the memory is executed in the processor, it inputs the brain signal data received by the processor into a first classifier based on machine learning to estimate the first sound at time t imagined by the subject at which the brain signal data was acquired, A second classifier based on machine learning that receives a plurality of past sounds confirmed before time t and estimates the next sound estimates the second sound at time t, and makes a final sound based on the first sound and the second sound. storing the code that causes the note to be determined,
BCI-based music composition device.
상기 메모리는 상기 프로세서로 하여금 상기 제1 분류기에 의해 직전 음에 비교하여 상기 제1 음의 음 높낮이에 따른 확률을 출력하도록 야기하는 코드를 더 저장하는,
BCI 기반 음악 작곡 장치.
According to clause 9,
The memory further stores a code that causes the processor to output a probability according to the pitch of the first sound compared to the previous sound by the first classifier,
BCI-based music composition device.
상기 메모리는 상기 프로세서로 하여금 상기 제1 분류기에 의해 상기 뇌 신호 데이터에 기반하여 복수의 후보 음에 대한 확률을 출력하도록 야기하는 코드를 더 저장하는,
BCI 기반 음악 작곡 장치.
According to clause 9,
the memory further stores code that causes the processor to output probabilities for a plurality of candidate sounds based on the brain signal data by the first classifier,
BCI-based music composition device.
상기 제2 분류기는 소정의 음악 분류에 따른 악보들에 기반하여 복수 개의 음을 입력으로 하여 그 다음 음을 출력하도록 훈련된 학습 모델인,
BCI 기반 음악 작곡 장치.
According to clause 9,
The second classifier is a learning model trained to input a plurality of sounds and output the next sound based on scores according to a predetermined music classification,
BCI-based music composition device.
상기 메모리는 상기 프로세서로 하여금 미리 설정된 악보들로 훈련된 상기 제2 분류기에 의해, 복수 개의 과거 음을 기반으로 상기 제2 음에 적합한 복수의 음들의 확률을 출력하도록 야기하는 코드를 더 저장하는,
BCI 기반 음악 작곡 장치.
According to clause 9,
The memory further stores a code that causes the processor to output, by the second classifier trained with preset scores, a probability of a plurality of notes suitable for the second sound based on a plurality of past sounds,
BCI-based music composition device.
상기 메모리는 상기 프로세서로 하여금 상기 제1 음의 음 높낮이에 따른 확률 및 상기 제2 음에 적합한 복수의 음들의 확률에 각각 가중치를 반영한 후 합산하여 복수의 후보 음들의 확률을 산출하고, 복수의 상기 후보 음들 중 가장 높은 확률을 갖는 음을 상기 최종 음으로 결정하도록 야기하는 코드를 더 저장하는,
BCI 기반 음악 작곡 장치.
According to clause 9,
The memory causes the processor to calculate the probability of a plurality of candidate sounds by reflecting weights on the probability according to the pitch of the first sound and the probability of a plurality of sounds suitable for the second sound, respectively, and adding them together. further storing a code that causes the sound with the highest probability among candidate sounds to be determined as the final sound,
BCI-based music composition device.
상기 메모리는 상기 프로세서로 하여금 상기 제1 음에 적합한 복수의 음들의 확률 및 상기 제2 음에 적합한 복수의 음들의 확률에 각각 가중치를 반영한 후 합산하여 복수의 후보 음들의 확률을 산출하고, 복수의 상기 후보 음들 중 가장 높은 확률을 갖는 음을 상기 최종 음으로 결정하도록 야기하는 코드를 더 저장하는,
BCI 기반 음악 작곡 장치.
According to clause 9,
The memory causes the processor to calculate the probability of a plurality of candidate sounds by reflecting weights on the probabilities of a plurality of sounds suitable for the first sound and the probabilities of a plurality of sounds suitable for the second sound, respectively, and then summing them up. Further storing a code that causes the sound with the highest probability among the candidate sounds to be determined as the final sound,
BCI-based music composition device.
상기 가중치는 각각 상기 제1 분류기 및 상기 제2 분류기의 정확도에 비례하는,
BCI 기반 음악 작곡 장치.
The method of claim 14 or 15,
The weight is proportional to the accuracy of the first classifier and the second classifier, respectively.
BCI-based music composition device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210131022A KR102640557B1 (en) | 2021-10-01 | 2021-10-01 | Apparatus and method for composing music based on brain-computer interface with the theory of music |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210131022A KR102640557B1 (en) | 2021-10-01 | 2021-10-01 | Apparatus and method for composing music based on brain-computer interface with the theory of music |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230047772A KR20230047772A (en) | 2023-04-10 |
KR102640557B1 true KR102640557B1 (en) | 2024-02-23 |
Family
ID=85984672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210131022A KR102640557B1 (en) | 2021-10-01 | 2021-10-01 | Apparatus and method for composing music based on brain-computer interface with the theory of music |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102640557B1 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120047077A (en) | 2010-11-03 | 2012-05-11 | 한양대학교 산학협력단 | Music composition method and apparatus |
KR101970700B1 (en) * | 2016-09-30 | 2019-04-19 | 고려대학교 산학협력단 | Apparatus and method of brain-computer interface for device controlling based on brain signal |
KR101886534B1 (en) | 2016-12-16 | 2018-08-09 | 아주대학교산학협력단 | System and method for composing music by using artificial intelligence |
-
2021
- 2021-10-01 KR KR1020210131022A patent/KR102640557B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20230047772A (en) | 2023-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240236547A1 (en) | Method and system for collecting and processing bioelectrical and audio signals | |
US20190138096A1 (en) | Method for detecting facial expressions and emotions of users | |
Cui et al. | Automatic Sleep Stage Classification Based on Convolutional Neural Network and Fine‐Grained Segments | |
KR20210045467A (en) | Electronic device for recognition of mental behavioral properties based on deep neural networks | |
KR102197112B1 (en) | Computer program and method for artificial neural network model learning based on time series bio-signals | |
US20200201435A1 (en) | End-To-End Deep Neural Network For Auditory Attention Decoding | |
KR102208759B1 (en) | Method for generating deep-learning model for diagnosing health status and pathology symptom based on biosignal | |
Piciucco et al. | Biometric recognition using wearable devices in real-life settings | |
WO2019080734A1 (en) | Wi-fi-signal-based method for identifying emotions | |
Wang et al. | Speech neuromuscular decoding based on spectrogram images using conformal predictors with Bi-LSTM | |
Dagois et al. | Transfer learning for a multimodal hybrid EEG-fTCD brain–computer interface | |
KR20140073294A (en) | Apparatus and method for real-time emotion recognition using pulse rate change | |
Choi et al. | Identification system based on resolution adjusted 2D spectrogram of driver’s ECG for intelligent vehicle | |
Chen et al. | Deep convolutional generative adversarial network-based EMG data enhancement for hand motion classification | |
KR102640557B1 (en) | Apparatus and method for composing music based on brain-computer interface with the theory of music | |
US20230372190A1 (en) | Adaptive speech and biofeedback control of sexual stimulation devices | |
Abdeltawab et al. | Classification of motor imagery eeg signals using machine learning | |
Tiwari et al. | Classification of imagined speech of vowels from EEG signals using multi-headed CNNs feature fusion network | |
Kollia | Personalization effect on emotion recognition from physiological data: An investigation of performance on different setups and classifiers | |
Tang et al. | Eye movement prediction based on adaptive BP neural network | |
KR102635606B1 (en) | Brain-computer interface apparatus based on feature extraction reflecting similarity between users using distance learning and task classification method using the same | |
US20220331196A1 (en) | Biofeedback-based control of sexual stimulation devices | |
Vourvopoulos et al. | Brain–computer interfacing with interactive systems—case study 2 | |
KR102613879B1 (en) | Apparatus and method for decoding brain signal based on a basis beat of brainwave | |
KR102208760B1 (en) | Method for generating video data for diagnosing health status and pathology symptom based on biosignal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |