KR102381117B1 - Method of music information retrieval based on brainwave and intuitive brain-computer interface therefor - Google Patents

Method of music information retrieval based on brainwave and intuitive brain-computer interface therefor Download PDF

Info

Publication number
KR102381117B1
KR102381117B1 KR1020200019508A KR20200019508A KR102381117B1 KR 102381117 B1 KR102381117 B1 KR 102381117B1 KR 1020200019508 A KR1020200019508 A KR 1020200019508A KR 20200019508 A KR20200019508 A KR 20200019508A KR 102381117 B1 KR102381117 B1 KR 102381117B1
Authority
KR
South Korea
Prior art keywords
music
sound
user
brain
unit
Prior art date
Application number
KR1020200019508A
Other languages
Korean (ko)
Other versions
KR102381117B9 (en
KR20210034459A (en
Inventor
이성환
이도연
정지훈
권병희
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Publication of KR20210034459A publication Critical patent/KR20210034459A/en
Application granted granted Critical
Publication of KR102381117B1 publication Critical patent/KR102381117B1/en
Publication of KR102381117B9 publication Critical patent/KR102381117B9/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/38Acoustic or auditory stimuli
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Engineering & Computer Science (AREA)
  • Psychiatry (AREA)
  • Artificial Intelligence (AREA)
  • Library & Information Science (AREA)
  • General Physics & Mathematics (AREA)
  • Psychology (AREA)
  • Physiology (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Human Computer Interaction (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 뇌파 기반 음악 검색방법 및 그를 위한 직관적 뇌-컴퓨터 인터페이스 장치에 관한 것으로, 특히 음악 상상을 통해 획득한 뇌파를 기반으로 사용자가 검색 및 재생하고 싶은 음악을 직관적으로 추론하여 음계 및 가사로 출력하는 뇌파 기반 음악 검색방법 및 그를 위한 직관적 뇌-컴퓨터 인터페이스 장치에 관한 것이다.The present invention relates to an EEG-based music search method and an intuitive brain-computer interface device for the same. In particular, based on EEG acquired through music imagination, the user intuitively infers the music that the user wants to search and reproduce, and outputs the music scale and lyrics. It relates to an EEG-based music search method and an intuitive brain-computer interface device for the same.

Description

뇌파 기반 음악 검색방법 및 그를 위한 직관적 뇌-컴퓨터 인터페이스 장치{METHOD OF MUSIC INFORMATION RETRIEVAL BASED ON BRAINWAVE AND INTUITIVE BRAIN-COMPUTER INTERFACE THEREFOR}EEG-based music search method and intuitive brain-computer interface device for the same

본 발명은 뇌파 기반 음악 검색방법 및 그를 위한 직관적 뇌-컴퓨터 인터페이스 장치에 관한 것으로, 더욱 상세하게는 음악 상상을 통해 획득한 뇌파를 기반으로 사용자가 검색 및 재생하고 싶은 음악을 직관적으로 추론하여 음계 및 가사로 출력하는 뇌파 기반 음악 검색방법 및 그를 위한 직관적 뇌-컴퓨터 인터페이스 장치에 관한 것이다.The present invention relates to an EEG-based music search method and an intuitive brain-computer interface device therefor, and more particularly, based on the EEG acquired through music imagination, intuitively infers the music that the user wants to search for and reproduce, thereby performing musical scale and It relates to an EEG-based music search method for outputting lyrics and an intuitive brain-computer interface device for the same.

뇌파(brain-wave)는 우리 몸의 신경계와 뇌신경 사이의 정보가 전달될 때 발현되는 전기적 신호로써, 특히 비침습적 방법을 활용하는 뇌파는 별도의 외과적 수술 없이 두피에 부착된 전극을 통해 측정 가능하고 뇌의 실시간 활동을 측정할 수 있어서 사용자의 의도를 파악할 수 있는 중요한 도구가 되고 있다.Brain-wave is an electrical signal that is expressed when information is transmitted between the nervous system and cranial nerves of our body. In particular, EEG using a non-invasive method can be measured through electrodes attached to the scalp without a separate surgical operation. And it can measure the real-time activity of the brain, so it is becoming an important tool to understand the intention of the user.

비침습 뇌-기계 인터페이스란 두피에서 측정된 뇌파를 통해 사용자의 의도를 인식하여 외부 기계를 제어하는 인터페이스 기술로, 보통은 의료 분야에서 신체가 자유롭지 못하거나 마비된 환자를 위한 기구제어나 의사소통에 사용되어 왔다.The non-invasive brain-machine interface is an interface technology that controls external machines by recognizing the user's intentions through brain waves measured from the scalp. It is usually used for device control or communication for patients who are not free or paralyzed in the medical field. has been used

그러나 최근에는 뇌파 분석 기술의 발달로 인하여 일반인들의 일상 생활 보조 서비스 개발을 비롯하여 다양한 분야에서도 상술한 비침습 뇌-기계 인터페이스가 적용되고 있는 추세이다.However, in recent years, due to the development of EEG analysis technology, the above-mentioned non-invasive brain-machine interface is being applied in various fields including the development of daily life assistance services for ordinary people.

특히 음악 상상(Music imagery) 기반의 뇌-컴퓨터 인터페이스는 별도의 외부 자극이 없이도 직관적으로 사용자가 음악을 검색 및 재생하고자 하는 바를 인식하는 것이 가능하여 그 활용도가 높다.In particular, the music imagery-based brain-computer interface is highly useful because it is possible to intuitively recognize what a user wants to search for and play music without a separate external stimulus.

이러한 음악 상상은 뇌의 좌측 하부 전두 피질, 좌측 측두 피질, 전 운동피질영역, 보조운동영역을 활성화시키며, 이를 이용하여 음악 상상에 따른 사용자의 의도를 파악하는 것이 가능하다.Such music imagination activates the lower left frontal cortex, left temporal cortex, premotor cortex, and auxiliary motor areas of the brain, and it is possible to grasp the user's intention according to the music imagination using this.

예컨대, 실제 소리를 내지 않고 가사를 말하는 것, 허밍 하는 것, 그리고 음악을 듣는 것을 상상하는 것으로 발생하는 뇌파를 이용하여 사용자가 검색 및 재생하고자 하는 바를 인식할 수 있게 한다.For example, by using brain waves generated by imagining, for example, saying lyrics, humming, and listening to music without actually making a sound, the user can recognize what he or she wants to search and play.

한편, 음악 정보 검색(Music Information Retrieval, MIR)은 다른 정보 없이 음악 파일만 가지고 장르, 리듬, 템포, 코드 등 그 음악이 가지고 있는 다양한 정보를 추출해내는 기술이다.On the other hand, music information retrieval (MIR) is a technology that extracts various information of the music, such as genre, rhythm, tempo, and chord, using only a music file without any other information.

최근의 음악 서비스는 디지털화된 상태로 제작, 유통 및 감상이 이루어지기 때문에 자연히 기존 소비자들이 원하는 음악 서비스의 양상이 달라졌다. 대표적인 예로 스트리밍, 음악 추천, 사용자 참여형 감상 및 편집 등이 있다. 결과적으로 음악 서비스의 양적 증가 및 다양화에 힘입어 음악 정보 검색도 주목받고 있다.Since recent music services are produced, distributed, and enjoyed in a digital state, the aspect of music services desired by existing consumers has naturally changed. Typical examples include streaming, music recommendation, and user-participatory listening and editing. As a result, music information retrieval is also attracting attention thanks to the quantitative increase and diversification of music services.

그럼에도 현재 사용되고 있는 뇌-컴퓨터 인터페이스 기반의 사용자 의도 인식 방식은 신체의 특정 부위의 움직임 상상(Motor Imagery, MI)이나 외부 자극에 의한 사건 관련 전위(Event Related Potential, ERP) 등 의사소통의 요소와 관련되지 않은 특징을 이용하여 다소 직관적이지 않은 양상을 지니는 문제가 있다.Nevertheless, the currently used brain-computer interface-based user intention recognition method is related to communication elements such as motion imagination (Motor Imagery, MI) of a specific part of the body or Event Related Potential (ERP) caused by external stimuli. There is a problem of having a rather non-intuitive aspect by using features that are not yet available.

대한민국 등록특허 제10-1633743호Republic of Korea Patent No. 10-1633743 대한민국 등록특허 제10-1553256호Republic of Korea Patent Registration No. 10-1553256

본 발명은 전술한 바와 같은 문제점을 해결하기 위한 것으로, 음악 상상을 통해 획득되며 사용자의 의도를 포함하는 뇌파를 기반으로 사용자가 검색 및 재생하고 싶은 음악을 직관적으로 추론하여 음계 및 가사로 출력하는 뇌파 기반 음악 검색방법 및 그를 위한 직관적 뇌-컴퓨터 인터페이스 장치를 제공하고자 한다.The present invention is to solve the above-mentioned problems, and based on the brain wave obtained through the music imagination and including the user's intention, the user intuitively infers the music that the user wants to search and play, and outputs it as a scale and lyrics. An object of the present invention is to provide an intuitive brain-computer interface device for a music retrieval method based on the same.

이를 위해, 본 발명에 따른 뇌파 기반 음악 검색방법은 사용자의 의도를 포함하는 뇌파를 기반으로 음악을 검색하는 것으로, 음악 샘플 제공부에서 음악 상상 의도를 포함하는 뇌파를 유발시키기 위한 음악 소리를 제공하는 음악 샘플 제공단계와; 측정 센서에서 상기 음악 소리를 듣고 발생하는 사용자의 음악 상상 뇌파를 측정하여 측정 데이터 저장부에 저장하는 뇌파 측정단계와; 모델 학습부에서 상기 음악 상상 뇌파 및 음악 소리의 음파에 대한 특징 분석을 통해 뇌파 분석모델을 학습하는 모델 학습단계와; 측정 센서에서 음악 검색을 요청하는 사용자의 의도가 포함된 뇌파를 측정하고, 실시간으로 사용자가 의도하는 음악을 인식하는 검색 뇌파 입력단계와; 음악 생성 의도 인식부에서 상기 뇌파 분석모델을 이용하여 상기 검색 뇌파 측정단계에서 측정된 음악 상상 관련 뇌파를 특정하는 검색 결정단계; 및 음악 정보 검색부에서 상기 특정된 음악 상상 관련 뇌파에 대응하는 사용자 의도 음악을 검색하는 음악 검색단계;를 포함하는 것을 특징으로 한다.To this end, the brain wave-based music search method according to the present invention is to search for music based on the brain wave including the user's intention, and the music sample providing unit provides a music sound for inducing the brain wave including the music imaginary intention. providing a music sample; an EEG measurement step of measuring a user's music imaginary EEG generated by listening to the music sound from a measurement sensor and storing the measured EEG in a measurement data storage unit; a model learning step of learning an EEG analysis model through feature analysis of the music imaginary EEG and sound waves of a music sound in the model learning unit; a search EEG input step of measuring an EEG including a user's intention to request a music search by a measurement sensor and recognizing the user's intended music in real time; a search decision step of specifying a music imagination-related brainwave measured in the search brainwave measurement step by using the brainwave analysis model in the music generation intention recognition unit; and a music search step of searching for user intention music corresponding to the specified brain wave associated with the music imagination in the music information search unit.

또한, 음악 재생부에서 상기 검색된 음악을 재생하는 음악 재생단계를 더 포함하는 것이 바람직하다.Preferably, the method further includes a music reproducing step of reproducing the searched music in the music reproducing unit.

또한, 상기 음악 재생단계에서 음악 재생 중 오류 관련 전위(Event-related Potential)가 발생하면 상기 검색 결정단계로 되돌아가 검색된 음악 중 후보군에 포함되어 있는 음악을 재생하는 것이 바람직하다.In addition, when an event-related potential occurs during music reproduction in the music reproduction step, it is preferable to return to the search determination step to reproduce music included in the candidate group among the searched pieces of music.

또한, 상기 음악 샘플 제공단계는 사용자에게 제시할 음악 소리 파일을 음악 소리 DB에 저장하는 샘플 저장단계; 및 음악 소리 생성부에서 상기 음악 소리 DB에 저장된 음악 소리를 생성하여 사용자에게 제공하는 샘플 재생단계;를 포함하되, 상기 샘플 저장단계에서 사용자에게 제공될 다수의 후보 음악 소리를 저장하되, 상기 후보 음악 소리는 사용자가 지정한 여러 음악 소리, 자주 사용되는 여러 음악 소리 및 임의로 설정된 여러 음악 소리 중 어느 하나 이상을 포함하는 것이 바람직하다.In addition, the music sample providing step may include: a sample storage step of storing a music sound file to be presented to a user in a music sound DB; and a sample reproducing step of generating the music sound stored in the music sound DB by the music sound generating unit and providing it to the user, wherein a plurality of candidate music sounds to be provided to the user in the sample storing step are stored, the candidate music It is preferable that the sound includes any one or more of several music sounds specified by the user, several frequently used music sounds, and several arbitrarily set music sounds.

또한, 상기 뇌파 측정단계는 사용자에게 제공된 음악 소리의 음파와 관련된 사용자의 뇌파로써, 음악 소리를 사용자가 들을 때 발생되는 뇌파 및 사용자가 음악을 직접 부를 때 발생되는 뇌파 중 어느 하나 이상이 측정되는 것이 바람직하다.In addition, the EEG measuring step is a user's EEG related to the sound wave of the music sound provided to the user, and at least one of the EEG generated when the user listens to the music sound and the EEG generated when the user directly sings music is measured. desirable.

또한, 상기 모델 학습단계는 입력된 음파 및 뇌파의 잡음을 제거하고 설정된 대역을 추출하는 전처리단계와; 상기 전처리된 음파 및 뇌파의 파형 특징을 추출하는 특징추출단계와; 상기 추출된 음파 및 뇌파의 파형 특징을 이용하여 특징별 분류를 하는 분류모델 학습단계; 및 음악 상상시의 뇌파와 유사한 파형을 가지는 음계 단위의 음파를 생성하는 생성모델 학습단계;를 포함하는 것이 바람직하다.In addition, the model learning step includes a pre-processing step of removing the noise of the input sound wave and brain wave and extracting a set band; a feature extraction step of extracting waveform features of the pre-processed sound waves and brain waves; a classification model learning step of classifying by features using the extracted waveform features of sound waves and brain waves; and a generating model learning step of generating a sound wave of a scale unit having a waveform similar to the brain wave at the time of imagining music.

또한, 상기 검색 결정단계는 사용자가 의도한 음악 상상 뇌파가 상기 학습된 분류모델의 데이터베이스에 존재하는지 판단하는 단계; 및 상기 사용자가 의도한 음악 상상 뇌파가 상기 학습된 분류모델의 데이터베이스에 존재하지 않는 경우 상기 생성모델을 통해 유사한 파형을 생성하는 단계;를 포함하는 것이 바람직하다.In addition, the search determining step may include: determining whether a music imaginary brain wave intended by the user exists in the database of the learned classification model; and generating a similar waveform through the generation model when the user's intended music imaginary brain wave does not exist in the database of the learned classification model.

한편, 본 발명에 따른 직관적 뇌-컴퓨터 인터페이스 장치는 이상과 같은 뇌파 기반 음악 검색방법을 위한 것으로, 음악 상상 의도를 포함하는 뇌파를 유발시키기 위한 음악 소리를 제공하는 음악 샘플 제공부와; 상기 음악 소리를 듣고 발생하는 사용자의 음악 상상 뇌파 데이터를 저장하는 측정 데이터 저장부와; 상기 음악 상상 뇌파 및 음악 소리의 음파에 대한 특징 분석을 통해 뇌파 분석모델을 학습하는 모델 학습부와; 상기 뇌파 분석모델을 이용하여 음악 검색을 요청하는 사용자의 의도가 포함된 뇌파를 특정하는 음악 생성 의도 인식부; 및 상기 특정된 음악 상상 관련 뇌파에 대응하는 사용자 의도 음악을 검색하는 음악 정보 검색부;를 포함하는 것을 특징으로 한다.On the other hand, the intuitive brain-computer interface device according to the present invention is for the EEG-based music search method as described above, comprising: a music sample providing unit providing a music sound for inducing an EEG including a music imaginative intention; a measurement data storage unit for storing the user's music imaginary brain wave data generated by listening to the music sound; a model learning unit for learning an EEG analysis model through feature analysis of the music imaginary EEG and sound waves of the music sound; a music generation intention recognition unit for specifying an EEG including a user's intention to request a music search by using the EEG analysis model; and a music information search unit that searches for user intention music corresponding to the specified music imagination-related brain waves.

이때, 상기 음악 샘플 제공부는 사용자에게 제시할 음악 소리 파일을 저장하는 음악 소리 DB; 및 상기 음악 소리 DB에 저장된 음악 소리를 생성하여 사용자에게 제공하는 음악 소리 생성부;를 포함하되, 상기 음악 소리 DB에는 사용자에게 제공될 다수의 후보 음악 소리를 저장하되, 상기 후보 음악 소리는 사용자가 지정한 여러 음악 소리, 자주 사용되는 여러 음악 소리 및 임의로 설정된 여러 음악 소리 중 어느 하나 이상을 포함하는 것이 바람직하다.In this case, the music sample providing unit includes: a music sound DB for storing a music sound file to be presented to the user; and a music sound generator for generating music sounds stored in the music sound DB and providing them to a user, wherein a plurality of candidate music sounds to be provided to the user are stored in the music sound DB, wherein the candidate music sounds are selected by the user. It is preferable to include any one or more of several specified music sounds, several frequently used music sounds, and several arbitrarily set music sounds.

또한, 상기 모델 학습부는 입력된 음파 및 뇌파의 잡음을 제거하고 설정된 대역을 추출하는 전처리부와; 상기 전처리된 음파 및 뇌파의 파형 특징을 추출하는 특징 추출부; 및 상기 추출된 음파 및 뇌파의 파형 특징을 이용하여 특징별 분류를 하는 분류모델과 음악 상상시의 뇌파와 유사한 파형을 가지는 음계 단위의 음파를 생성하는 생성모델의 학습을 위한 학습부;를 포함하는 것이 바람직하다.In addition, the model learning unit includes a pre-processing unit for removing the noise of the input sound wave and brain wave and extracting a set band; a feature extraction unit for extracting waveform features of the preprocessed sound waves and brain waves; and a learning unit for learning a classification model that classifies each feature by using the extracted sound waves and waveform features of brain waves and a generation model that generates sound waves in a scale unit having a waveform similar to the brain waves when imagining music. it is preferable

이상과 같은 본 발명은 뇌파로 음악 상상을 인식하고 사용자가 의도한 음악을 검색 및 재생함으로써 생각만으로 사용자의 의도 전달이 가능한 직관적 뇌-컴퓨터 인터페이스 장치 및 방법을 제공한다.As described above, the present invention provides an intuitive brain-computer interface device and method capable of transmitting a user's intention only by thinking by recognizing a music imagination using brain waves and searching for and playing music intended by the user.

또한 별도의 외부 자극 없이 음악을 상상할 때 발현되는 관련 뇌파만을 이용하기 때문에 높은 신뢰성과 정확도를 얻을 수 있으며, 인식된 가사 및 음계들의 조합으로 음악을 검색하므로 더욱 빠른 속도로 사용자의 의도를 인식할 수 있다. In addition, high reliability and accuracy can be obtained because only the relevant brain waves that are expressed when imagining music without extra external stimuli are used. there is.

또한 사용자 의도 인식 결과를 소리의 형태로 출력할 수 있기에 높은 자유도로 다방면에 활용될 수 있는 뉴럴 엔터테인먼트 뇌-컴퓨터 인터페이스 시스템을 제공하는 것이 가능하다.In addition, since the user intention recognition result can be output in the form of sound, it is possible to provide a neural entertainment brain-computer interface system that can be utilized in various fields with a high degree of freedom.

도 1은 본 발명에 따른 뇌파 기반 음악 검색을 위한 뇌-컴퓨터 인터페이스 장치를 나타낸 구성도이다.
도 2는 본 발명의 음악 샘플 제공부를 나타낸 구성도이다.
도 3은 본 발명의 모델 학습부를 나타낸 구성도이다.
도 4는 본 발명에 따른 뇌파 기반 음악 검색방법을 나타낸 흐름도이다.
도 5는 본 발명의 음악 샘플 제공단계에서 측정 대상을 나타낸 구성도이다.
1 is a block diagram showing a brain-computer interface device for EEG-based music search according to the present invention.
2 is a block diagram illustrating a music sample providing unit according to the present invention.
3 is a block diagram showing a model learning unit of the present invention.
4 is a flowchart illustrating an EEG-based music search method according to the present invention.
5 is a block diagram illustrating a measurement target in the step of providing a music sample according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 뇌파 기반 음악 검색방법 및 그를 위한 직관적 뇌-컴퓨터 인터페이스 장치에 대해 상세히 설명한다.Hereinafter, an EEG-based music search method and an intuitive brain-computer interface device therefor according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

먼저, 본 발명에 따른 뇌파 기반 음악 검색 방법에 대한 설명에 앞서 이를 구현하는 바람직한 일 실시예로써의 직관적 뇌-컴퓨터 인터페이스 장치에 대해 설명한다.First, prior to the description of the brain wave-based music search method according to the present invention, an intuitive brain-computer interface device as a preferred embodiment for implementing it will be described.

이러한 본 발명은 사용자의 의도를 포함한 뇌파를 기반으로 음악 검색 및 재생을 해주는 직관적 뇌-컴퓨터 인터페이스를 제공한다. 또한, 음악 상상을 통해 획득한 뇌파를 기반으로 사용자가 검색 및 재생하고 싶은 음악을 직관적으로 추론하여 음계 및 가사로 출력한다.The present invention provides an intuitive brain-computer interface for searching and playing music based on brain waves including the user's intention. In addition, based on the brain waves acquired through music imagination, the music that the user wants to search and play is intuitively inferred and output as scales and lyrics.

이를 위해, 도 1과 같이 본 발명에 따른 직관적 뇌-컴퓨터 인터페이스 장치(100)는 음악 샘플 제공부(110), 측정 데이터 저장부(120), 모델 학습부(130), 음악 생성 의도 인식부(140) 및 음악 정보 검색부(150)를 포함한다.To this end, as shown in FIG. 1 , the intuitive brain-computer interface device 100 according to the present invention includes a music sample providing unit 110 , a measurement data storage unit 120 , a model learning unit 130 , and a music generation intention recognition unit ( 140) and a music information search unit 150.

다른 실시예로 음악 재생부(160)를 더 포함하며, 음악 샘플 제공부(110)는 음악 소리 DB(111) 및 음악 소리 생성부(112)를 포함한다. 모델 학습부(130)는 전처리부(131), 특징 추출부(132) 및 분류모델과 생성모델을 위한 학습부(133)를 포함한다.In another embodiment, it further includes a music reproducing unit 160 , and the music sample providing unit 110 includes a music sound DB 111 and a music sound generating unit 112 . The model learning unit 130 includes a preprocessing unit 131 , a feature extraction unit 132 , and a learning unit 133 for a classification model and a generation model.

여기서, 음악 샘플 제공부(110)는 사용자가 음악 상상 의도를 포함하는 뇌파를 유발시킬 수 있도록 음악 소리를 제공한다. 데이터베이스 구축을 위해 사용자에는 뇌파를 이용한 검색 요청자 이외에 다른 제3자도 포함할 수 있다.Here, the music sample providing unit 110 provides the music sound so that the user can induce brain waves including the intention of imagining music. In order to build the database, the user may include other third parties in addition to the search requester using brain waves.

아래에서 다시 설명하는 바와 같이, 사용자의 의도를 포함하는 뇌파를 학습하여 이를 분류하고 음계 단위의 음파를 생성하기 위해 본 발명은 가사가 있는 음악, 허밍 하는 것 및 음악을 듣는 것 등을 상상할 때의 뇌파를 이용한다.As will be described again below, the present invention learns brain waves including the user's intentions, classifies them, and generates sound waves in scale units. use brain waves.

또한, 음악을 들을 때나 음악을 부를 때의 뇌파를 이용하여 이들 뇌파를 음악 소리의 음파와 대비하여 뇌파를 음파에 대응시키고, 음파와 유사한 유효 데이터를 생성하도록 디코딩한다.In addition, by using the brain waves when listening to music or singing music, these brain waves are compared with the sound waves of the music sound, the brain waves correspond to the sound waves, and decoded to generate effective data similar to the sound waves.

따라서, 음악 샘플 제공부(110)에서 제공되는 음악 소리는 그에 대응하는 뇌파를 유발시키고, 나아가 음악을 떠올리거나 음악을 검색하려는 유의미한 사용자의 의도와 직결되어 이를 학습할 수 있게 한다.Accordingly, the music sound provided by the music sample providing unit 110 induces brain waves corresponding thereto, and furthermore, it is directly connected with the meaningful user's intention to recall or search for music, so that it can be learned.

좀더 구체적으로, 도 2와 같이 음악 샘플 제공부(110)는 사용자에게 제시할 음악 소리 파일을 저장하는 음악 소리 DB(DataBase, 111) 및 상기 음악 소리 DB(111)에 저장된 음악 소리를 생성하여 사용자에게 제공하는 음악 소리 생성부(112)를 포함한다.More specifically, as shown in FIG. 2 , the music sample providing unit 110 generates a music sound DB (DataBase, 111) for storing a music sound file to be presented to the user, and a music sound stored in the music sound DB 111 for the user. and a music sound generating unit 112 provided to the user.

특히, 음악 소리 DB(111)에는 사용자에게 제공될 다수의 후보 음악 소리를 저장한다. 후보 음악 소리는 사용자가 지정한 여러개의 음악 소리, 자주 사용되는 여러 개의 음악 소리 및 임의로 설정된 여러개의 음악 소리가 저장될 수 있다.In particular, a plurality of candidate music sounds to be provided to the user are stored in the music sound DB 111 . As the candidate music sound, a plurality of music sounds designated by a user, several frequently used music sounds, and a plurality of arbitrarily set music sounds may be stored.

측정 데이터 저장부(120)는 음악 소리를 듣고 발생하는 사용자의 음악 상상 뇌파 데이터를 저장한다. 이를 위해 측정 데이터 저장부(120)는 인체의 두피에 부착되는 전극 센서와 같은 뇌파 측정기(121)에 연결되어 신호처리된 뇌파 데이터를 저장한다.The measurement data storage unit 120 stores the user's music imagination brain wave data generated by listening to the music sound. To this end, the measurement data storage unit 120 is connected to the brain wave measuring device 121 such as an electrode sensor attached to the scalp of the human body and stores the signal-processed brain wave data.

측정 데이터 저장부(120)에 저장되는 뇌파 데이터는 음악 샘플 제공부(110)에서 제공된 음악 소리의 음파와 함께 저장될 수 있으며, 저장된 뇌파 데이터는 해당 음파와 관련이 있거나 대응되는 뇌파로 기록된다.The brain wave data stored in the measurement data storage unit 120 may be stored together with the sound wave of the music sound provided by the music sample providing unit 110 , and the stored brain wave data is related to or recorded as an EEG corresponding to the sound wave.

따라서, 사용자의 음악 상상 뇌파와 더불어 사용자에게 제공한 음악 소리의 음파 및 해당 소리를 들을 때의 뇌파를 측정하고 디지털 신호로 변환하여 데이터베이스를 구축하게 된다. 다만, 뇌파 측정시 사용자가 직접 부를 때의 뇌파 역시 측정하여 디지털 신호로 변환 후 저장할 수도 있다.Therefore, along with the user's music imaginary brain wave, the sound wave of the music sound provided to the user and the brain wave when listening to the sound are measured and converted into a digital signal to build a database. However, when measuring the EEG, the EEG when the user directly calls it can also be measured, converted into a digital signal, and then stored.

모델 학습부(130)는 음악 상상 뇌파(brain wave) 및 음악 소리의 음파(sound wave)에 대한 특징 분석을 통해 뇌파 분석모델을 학습한다. 따라서 사용자에게서 발생된 뇌파가 음악 검색을 상상하여 발생된 뇌파인지 판독할 수 있게 한다.The model learning unit 130 learns the brain wave analysis model through feature analysis of a music imaginary brain wave and a sound wave of a music sound. Therefore, it is possible to read whether the brain wave generated by the user is a brain wave generated by imagining a music search.

획득한 음파와 뇌파의 특징 분석을 통하여 후술하는 사용자 음악 생성 의도 분류모델을 학습한다. 즉, 전처리된 음파와 뇌파로부터 특징을 추출하여 이를 기반으로 사용자의 음악 생성 의도 분류모델을 학습한다. A user music creation intention classification model, which will be described later, is learned through the characteristic analysis of the acquired sound waves and brain waves. That is, the user's music creation intention classification model is learned based on the extraction of features from preprocessed sound waves and brain waves.

이를 위해, 모델 학습부(130)는 도 3과 같이 획득한 뇌파와 음파의 특징 분석을 통하여 사용자의 단어 생성 의도 분류모델을 생성하도록 전처리부(131), 특징 추출부(132) 및 분류모델과 생성모델 학습을 위한 학습부(133)를 포함한다.To this end, the model learning unit 130 includes the preprocessing unit 131, the feature extracting unit 132 and the classification model to generate the user's word generation intention classification model through the feature analysis of the acquired EEG and sound waves as shown in FIG. and a learning unit 133 for generative model learning.

그 중 전처리부(131)는 입력된 음파 및 뇌파의 잡음을 제거하고 설정된 대역을 추출한다. 음파 및 뇌파의 잡음 제거를 위해 중요 정보가 포함된 대역 이외의 신호를 필터링하고, 유의미한 대역의 뇌파만을 추출한다.Among them, the preprocessor 131 removes noise of the input sound wave and brain wave and extracts a set band. In order to remove noise from sound waves and EEG, signals other than the band containing important information are filtered, and only EEG of a significant band is extracted.

특징 추출부(132)는 전처리된 음파 및 뇌파의 파형 특징을 추출하는 것으로, 공통공간패턴(CSP), 웨이블릿 변환(Wavelet Transform), 주성분분석법(PCA) 등의 특징 추출 기법을 통하여 음악 생성(검색) 의도를 포함한 뇌파에 대해 음악 소리의 음파와 관련 있는 특징을 추출한다.The feature extractor 132 extracts the waveform features of preprocessed sound waves and brain waves, and generates music (searching) through feature extraction techniques such as common space pattern (CSP), wavelet transform (Wavelet Transform), and principal component analysis (PCA). ) Extracts features related to sound waves of music sound from brain waves including intention.

학습부(133) 중 분류모델 학습부는 추출된 음파 및 뇌파의 파형 특징을 이용하여 특징별 분류를 한다. 예컨대 선형판별분석법(LDA), 랜덤 포레스트(Random Forest) 및 인공신경망(ANN) 등의 분류 방법을 통하여 분류기를 학습한다. 학습된 분류기는 음악 검색시 어느 음악을 검색하는 뇌파인지 분류할 수 있게 한다.The classification model learning unit of the learning unit 133 classifies for each characteristic by using the waveform characteristics of the extracted sound waves and brain waves. For example, the classifier is learned through classification methods such as linear discriminant analysis (LDA), random forest, and artificial neural network (ANN). The learned classifier makes it possible to classify which music is searched for when searching for music.

학습부(133) 중 생성모델 학습부는 음악 상상시의 뇌파와 유사한 파형을 가지는 음계(scale) 단위의 음파를 생성한다. 즉, 음악 상상 뇌파와 음악을 들을 때나 음악을 부를 때 발생하는 뇌파의 엔벨롭(Envelop)을 추출하여 이들 사이의 상관관계를 통해 유사한 파형을 생성한다. The generation model learning unit of the learning unit 133 generates a sound wave in a scale unit having a waveform similar to the brain wave when imagining music. That is, a similar waveform is generated through the correlation between the music imaginary brainwave and the envelope of the brainwave generated when listening to or singing music.

이와 같이 생성된 유사한 파형은 뇌파를 음악 소리의 음파에 대응하는 파형으로 치환 혹은 변환한 것으로, 본 발명은 음파와 유사하게 변환된 사용자 의도 뇌파 정보를 이용하여 음악을 검색하고 재생할 수 있게 한다.Similar waveforms generated in this way are replaced or converted by brainwaves into waveforms corresponding to sound waves of music sound, and the present invention allows music to be searched for and reproduced by using user intentional brainwave information converted similarly to sound waves.

음악 생성 의도 인식부(140)는 뇌파 분석모델을 이용하여 음악 검색을 요청하는 사용자의 의도가 포함된 뇌파를 특정하는 것으로, 뇌파 분석모델을 통해 측정된 뇌파로부터 가사 및 음계들을 인식한다.The music generation intention recognizing unit 140 uses an EEG analysis model to specify an EEG including a user's intention to request a music search, and recognizes lyrics and scales from the EEG measured through the EEG analysis model.

뇌파로부터 인식되는 가사 및 음계는 상술한 바와 같이 측정된 뇌파 파형들을 음파에 대응하는 유사 파형으로 변환하고 이로부터 대비 가능한 가사 및 음계를 추출하는 방법으로 인식이 가능하다.Lyrics and scales recognized from EEG can be recognized by converting the EEG waveforms measured as described above into similar waveforms corresponding to sound waves and extracting contrastable lyrics and scales from them.

이때, 음악 생성 의도 분류모델에서는 학습을 목적으로 제공 및 저장된 뇌파 뿐만 아니라 새로이 음악 검색을 위해 측정된 음악 상상 뇌파로부터 학습된 분류모델을 통해 단어 생성 의도를 검출한다.In this case, in the music generation intention classification model, the intention to create a word is detected through the classification model learned from not only the EEG provided and stored for the purpose of learning, but also the newly measured music imaginary EEG for music search.

그 결과 사용자가 의도한 음악 상상이 분류모델의 데이터베이스에 존재하지 않을 경우, 즉 뇌파로부터 인식된 가사 및 음계가 분류모델에 존재하지 않을 경우에는 해당 모델을 적용할 수 없으므로, 그 대신 파형 생성모델을 통해 유사한 파형을 생성하고, 생성된 유사 파형으로 검색을 한다.As a result, if the user's intended music imagination does not exist in the classification model database, that is, if the lyrics and scale recognized from the brain waves do not exist in the classification model, the model cannot be applied. A similar waveform is created through the search, and the generated similar waveform is searched.

음악 정보 검색부(150)는 특정된 음악 상상 관련 뇌파에 대응하는 사용자 의도 음악을 검색하는 것으로, 위와 같이 뇌파를 특정하여 인식된 가사 및 음계들을 이용하여 그에 대응하는 음악을 검색한다.The music information search unit 150 searches for user intention music corresponding to the specified brainwave related to the musical imagination, and searches for music corresponding thereto using the lyrics and scales recognized by specifying the brainwave as described above.

즉, 음악 상상 뇌파를 분류모델을 통해 분류하고 이를 바탕으로 사용자의 의도를 파악하여 DB(DataBase)에서 음악을 검색한다. DB는 자체에 구비된 것은 물론 외부의 제3 서버에 구비된 DB도 포함한다.In other words, music imaginary brain waves are classified through a classification model, and based on this, the user's intention is identified, and music is searched in the DB (DataBase). The DB includes not only the DB provided in itself, but also the DB provided in an external third server.

위와 같이 검색된 음악은 음악 재생부(160)에 의해 재생된다. 이를 위해 음악 재생부(160)는 검색된 음악을 출력하는 하드웨어를 포함할 수 있으며, 음악 상상 뇌파를 통해 사용자가 의도한 것을 음악으로 출력하여 제공한다. The music searched as above is reproduced by the music reproducing unit 160 . To this end, the music player 160 may include hardware for outputting the searched music, and outputs and provides music intended by the user through the music imagination brain wave.

또한 음악 출력에 있어서 음악 생성은 음악 선택부로부터 생성된 음악 출력 및 특징 분석된 음악 상상 뇌파를 기반으로 생성기를 거쳐 생성된 음악의 출력을 포함할 수 있다.In addition, in the music output, the music generation may include the music output generated by the music selection unit and the output of the music generated through the generator based on the analyzed music imaginary brain wave.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 뇌파 기반 음악 검색방법에 대해 상세히 설명한다.Hereinafter, an EEG-based music search method according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 사용자가 가사를 말하는 것을 상상할 때, 허밍 하는 것을 상상할 때 그리고 음악을 듣는 것을 상상할 때 발현되는 뇌파의 파형으로부터 이에 상응하는 소리의 파형을 추론한다.The present invention infers the corresponding sound waveform from the EEG waveform that is generated when the user imagines speaking lyrics, humming, and listening to music.

또한, 뇌파로부터 생성된 음계 및 가사를 분류 및 재구성하여 완성된 음악을 출력한다. 따라서 사용자 의도를 포함하는 뇌파를 디코딩하여 생각만으로 음악 검색 및 재생을 가능하게 한다.In addition, the completed music is output by classifying and reconstructing the scale and lyrics generated from the brain waves. Therefore, it is possible to search and play music with only thoughts by decoding the brain waves including the user's intention.

이를 위해, 본 발명에 따른 뇌파 기반 음악 검색방법은 음악 샘플 제공단계(S110), 뇌파 측정단계(S120), 모델 학습단계(S130), 검색 뇌파 입력단계(S140), 검색 결정단계(S150) 및 음악 검색단계(S160)를 포함하며, 바람직하게 사용자 의도에 적합한지 판단(S170)하고 음악을 재생하는 음악 재생단(S180)를 더 포함한다.To this end, the brain wave-based music search method according to the present invention includes a music sample providing step (S110), an EEG measurement step (S120), a model learning step (S130), a search EEG input step (S140), a search decision step (S150) and It includes a music search step (S160), and preferably further includes a music playback stage (S180) that determines whether it is suitable for the user's intention (S170) and plays music.

이때, 음악 샘플 제공단계(S110)에서는 음악 상상 의도를 포함하는 뇌파를 유발시키기 위한 음악 소리를 제공한다. 음악 소리의 제공은 검색 단말기이나 PC 등에 구현된 뇌-컴퓨터 인터페이스 장치의 음악 샘플 제공부(110)에서 제공된다.In this case, in the music sample providing step ( S110 ), a music sound for inducing brain waves including the intention of imagining music is provided. The music sound is provided by the music sample providing unit 110 of a brain-computer interface device implemented in a search terminal or a PC.

음악 소리로 인해 유발된 뇌파 측정은 사용자의 의도를 포함하는 뇌파를 학습하여 이를 분류하고 음계 단위의 음파를 생성한다. EEG measurement induced by the sound of music learns the EEG including the user's intention, classifies it, and generates sound waves in scale units.

이에, 도 5에 실시예로써 도시된 바와 같이 본 발명은 가사가 있는 음악, 허밍 하는 것 및 음악을 듣는 것 등을 상상할 때의 뇌파를 측정한다.Accordingly, as shown in FIG. 5 as an embodiment, the present invention measures EEG when imagining music with lyrics, humming, and listening to music.

또한, 음악을 들을 때나 음악을 부를 때의 뇌파를 측정하여, 위에서 설명한 상상할 때의 뇌파 및 음악 소리의 음파와 함께 저장한다. 다만, 소리내어 부르는 것이 어려운 환자들을 대상으로 사용되는 경우에는 직접 발화할 때의 뇌파는 선택적으로 적용할 수 있다.In addition, the brain waves when listening to music or singing music are measured and stored together with the brain waves of imagining described above and the sound waves of music sounds. However, if it is used for patients who find it difficult to sing aloud, EEG at the time of direct speech can be selectively applied.

따라서, 음악 샘플 제공부(110)에서 제공되는 음악 소리는 그에 대응하는 뇌파를 유발시키게 된다. 특히 음악을 떠올리거나 음악을 검색하려는 유의미한 사용자의 의도와 직결되어 이를 학습할 수 있게 한다.Accordingly, the music sound provided by the music sample providing unit 110 induces brain waves corresponding thereto. In particular, it is directly related to a meaningful user's intention to recall or search for music, so that it can be learned.

구체적으로, 음악 샘플 제공단계(S110)는 사용자에게 제시할 음악 소리 파일을 음악 소리 DB(111)에 저장하는 샘플 저장단계 및 음악 소리 생성부(112)에서 상기 음악 소리 DB(111)에 저장된 음악 소리를 생성하여 사용자에게 제공하는 샘플 재생단계를 포함한다.Specifically, the music sample providing step ( S110 ) includes a sample storage step of storing a music sound file to be presented to a user in the music sound DB 111 , and the music stored in the music sound DB 111 in the music sound generating unit 112 . and a sample playback step of generating a sound and providing it to a user.

샘플 저장단계에서는 사용자에게 제공될 다수의 후보 음악 소리를 저장한다. 후보 음악 소리는 사용자가 지정한 여러 음악 소리, 자주 사용되는 여러 음악 소리 및 임의로 설정된 여러 음악 소리를 포함할 수 있다.In the sample storage step, a plurality of candidate music sounds to be provided to the user are stored. The candidate music sounds may include several music sounds specified by the user, several frequently used music sounds, and several randomly set music sounds.

바람직하게는 사용자가 지정한 여러 음악 소리, 자주 사용되는 여러 음악 소리 및 임의로 설정된 여러 음악 소리 중 적어도 어느 하나 이상을 포함하여 제공하고, 이를 통해 뇌파를 유발시킬 수 있다.Preferably, at least any one or more of several music sounds designated by the user, several frequently used music sounds, and several arbitrarily set music sounds may be provided, thereby inducing brain waves.

다음, 뇌파 측정단계(S120)에서는 측정 센서(121)에서 음악 소리를 듣고 발생하는 사용자의 음악 상상 뇌파를 측정하여 측정 데이터 저장부(120)에 저장함으로써 데이터베이스를 구축할 수 있게 한다.Next, in the EEG measurement step (S120), the measurement sensor 121 measures the user's music imaginary EEG generated by listening to the music and stores it in the measurement data storage unit 120 to build a database.

제공된 음악 소리로 인해 유발된 사용자의 뇌파를 측정하기 위해, 사용자는 먼저 뇌파 측정 장치를 착용한 상태에서 음악 소리를 청취하고 사용자의 의도가 담겨 있는 음악 상상 관련 뇌파를 측정한다.In order to measure the user's EEG induced by the provided music sound, the user first listens to the music while wearing the EEG measurement device and measures the EEG related to the music imagination containing the user's intention.

위와 같은 음악 상상과 관련된 뇌파는 음악 소리를 듣고 발생하는 사용자의 음악 상상 뇌파에 해당하는 것으로 측정 데이터 저장부(120)에 저장된다.The brain waves related to the above music imagination are stored in the measurement data storage unit 120 as corresponding to the music imagination brain waves of the user generated by listening to the music sound.

측정 데이터 저장부(120)에 저장되는 뇌파 데이터는 음악 샘플 제공부(110)에서 제공된 음악 소리의 음파와 함께 저장되며, 저장된 뇌파 데이터는 해당 음파와 관련이 있거나 대응되는 뇌파로 기록된다.The brain wave data stored in the measurement data storage unit 120 is stored together with the sound wave of the music sound provided by the music sample providing unit 110 , and the stored brain wave data is related to or recorded as an EEG corresponding to the sound wave.

따라서, 사용자의 음악 상상 뇌파와 더불어 사용자에게 제공한 음악 소리의 음파와 해당 소리를 들을 때의 뇌파를 측정하고 디지털 신호로 변환하여 데이터베이스를 구축하게 된다. 이때, 사용자가 직접 부를 때의 뇌파 역시 측정하여 디지털 신호로 변환 후 저장할 수도 있다.Therefore, along with the user's music imaginary brain wave, the sound wave of the music sound provided to the user and the brain wave when listening to the sound are measured and converted into a digital signal to build a database. In this case, the EEG when the user directly calls may also be measured, converted into a digital signal, and then stored.

다음, 모델 학습단계(S130)에서는 음악 상상 뇌파 및 음악 소리의 음파에 대한 특징 분석을 통해 뇌파 분석모델을 학습한다. 학습은 뇌-컴퓨터 인터페이스 장치의 모델 학습부(130)에서 이루어진다. 따라서 사용자에게서 발생된 뇌파가 음악 검색을 상상하여 발생된 뇌파인지 판독할 수 있게 한다.Next, in the model learning step (S130), the brain wave analysis model is learned through feature analysis of the music imaginary brain wave and the sound wave of the music sound. Learning is performed in the model learning unit 130 of the brain-computer interface device. Therefore, it is possible to read whether the brain wave generated by the user is a brain wave generated by imagining a music search.

획득한 음파와 뇌파의 특징 분석을 통하여 후술하는 사용자의 음악 생성 의도 분류모델을 학습하고, 전처리된 음파와 뇌파로부터 특징을 추출하여 이를 기반으로 사용자의 음악 생성 의도 분류모델을 학습한다. The user's music generation intention classification model, which will be described later, is learned through the feature analysis of the acquired sound waves and brain waves, and features are extracted from the preprocessed sound waves and brain waves, and based on this, the user's music creation intention classification model is learned.

이를 위해, 모델 학습단계(S130)는 전처리단계, 특징추출단계, 분류모델 학습단계 및 생성모델 학습단계의 진행을 통해 구현도리 수 있다.To this end, the model learning step (S130) can be implemented through the pre-processing step, the feature extraction step, the classification model learning step, and the generating model learning step.

전처리단계에서는 입력된 음파 및 뇌파의 잡음을 제거하고 설정된 대역을 추출한다. 즉, 중요 정보가 포함된 대역 이외의 신호를 필터링하고 유의미한 대역의 뇌파만을 추출한다. 일 예로 주변 소음이나 DC 전원에 의해 잡음 등의 영향을 최소화하기 위해 0.5~50 Hz 대역으로 주파수 필터링한다.In the pre-processing step, the noise of the input sound wave and brain wave is removed and the set band is extracted. That is, signals other than the band containing important information are filtered and only the EEG of the meaningful band is extracted. As an example, frequency filtering is performed in a band of 0.5 to 50 Hz in order to minimize the influence of noise caused by ambient noise or DC power.

특징추출단계에서는 전처리된 음파 및 뇌파의 파형 특징을 추출한다. 특징 추출을 위해 공통공간패턴, 웨이블릿 변환, 주성분분석법 등의 특징 추출 기법을 통하여 음악 생성(검색) 의도를 포함한 뇌파에 대해 음악 소리의 음파와 관련 있는 특징을 추출한다.In the feature extraction step, waveform features of preprocessed sound waves and brain waves are extracted. For feature extraction, features related to sound waves of music sound are extracted from brain waves including the intention to create (search) music through feature extraction techniques such as common spatial pattern, wavelet transformation, and principal component analysis.

분류모델 학습단계에서는 추출된 음파 및 뇌파의 파형 특징을 이용하여 특징별 분류를 한다. 예컨대 선형판별분석법, 랜덤 포레스트 및 인공신경망 등의 분류 방법을 통하여 분류기를 학습한다. 학습된 분류기는 음악 검색시 어느 음악을 검색하는 뇌파인지 분류할 수 있게 한다.In the classification model learning step, classification by features is performed using the extracted sound wave and EEG waveform features. For example, a classifier is learned through a classification method such as a linear discriminant analysis method, a random forest, and an artificial neural network. The learned classifier makes it possible to classify which music is searched for when searching for music.

생성모델 학습단계에서는 음악 상상시의 뇌파와 유사한 파형을 가지는 음계 단위의 음파를 생성한다. 예컨대, 음악 상상 뇌파와 음악을 들을 때나 음악을 부를 때 발생하는 뇌파의 엔벨롭을 추출하여 이들 사이의 상관관계를 통해 유사한 파형을 생성한다. In the generative model learning stage, a sound wave of a scale unit having a waveform similar to the brain wave when imagining music is generated. For example, the envelope of the brain wave generated when listening to music or singing music is extracted and a similar waveform is generated through a correlation between them.

이와 같이 생성된 유사한 파형은 뇌파를 음악 소리의 음파에 대응하는 파형으로 치환 혹은 변환한 것으로, 본 발명은 음파와 유사하게 변환된 사용자 의도 뇌파 정보를 이용하여 음악을 검색하고 재생할 수 있게 한다.Similar waveforms generated in this way are replaced or converted by brainwaves into waveforms corresponding to sound waves of music sound, and the present invention allows music to be searched for and reproduced by using user intentional brainwave information converted similarly to sound waves.

다음, 검색 뇌파 입력단계(S140)에서는 측정 센서(121)로 음악 검색을 요청하는 사용자의 의도가 포함된 뇌파를 측정하고, 사용자가 의도하는 음악을 인식한다. 따라서, 후술하는 음악 생성 의도를 파악할 수 있게 한다.Next, in the search EEG input step ( S140 ), the EEG including the user's intention to request the music search is measured with the measurement sensor 121 , and the user's intended music is recognized. Accordingly, it is possible to grasp the intention of creating music, which will be described later.

이를 위해 사용자가 의도하는 음악 소리를 상상할 때 나타나는 뇌파를 실시간으로 측정하고, 이후 학습된 디코딩 모델(즉, 분석모델)을 기반으로 사용자가 의도하는 음악을 인식하는 단계를 거친다.To this end, the brain waves appearing when the user imagines the intended music sound are measured in real time, and then, the user's intended music is recognized based on the learned decoding model (ie, the analysis model).

다음, 검색 결정단계(S150)에서는 뇌파 분석모델을 이용하여 검색 뇌파 측정단계(S120)에서 측정된 음악 상상 관련 뇌파를 특정한다. 특정은 뇌-컴퓨터 인터페이스 장치의 음악 생성 의도 인식부(140)에서 진행되며, 뇌파로부터 검색 대상을 추출한다.Next, in the search determination step (S150), the brainwave related to the musical imagination measured in the search brainwave measurement step (S120) is specified using the EEG analysis model. The specification is performed in the music generation intention recognition unit 140 of the brain-computer interface device, and a search target is extracted from the brain waves.

뇌파의 특정은 학습을 통해 구축되는 분류모델에 따라 뇌파를 분류하거나 생성모듈을 통해 뇌파에 대응하는 유사한 파형의 음계 단위 음파를 생성하는 것을 통해 이루어진다. 즉, 분류 및/또는 생성을 통해 뇌파 특정이 이루어진다.EEG is specified by classifying EEG according to a classification model built through learning or generating sound waves in scale units of similar waveforms corresponding to EEGs through a generation module. That is, EEG specification is achieved through classification and/or generation.

이에 음악 생성 의도 인식부(140)는 뇌파 분석모델을 이용하여 음악 검색을 요청하는 사용자의 의도가 포함된 뇌파를 특정하며, 뇌파 분석모델을 통해 측정된 뇌파로부터 가사 및 음계들을 인식한다.Accordingly, the music generation intention recognizing unit 140 uses the EEG analysis model to specify an EEG including the user's intention to request a music search, and recognizes lyrics and scales from the EEG measured through the EEG analysis model.

이 단계에서 우선적으로 사용자가 의도했을 것이라 추정되는 음악들이 학습된 분류모델에 의해 분류된다. 이때 사용자가 의도한 음악이 학습된 분류모델의 데이터베이스에 존재하는지 판단(S151)하고, 그 결과 존재하지 않을 경우에는 학습된 음파 생성모델을 통해 사용자가 의도한 음악 상상 뇌파로부터 유사한 파형을 가진 음악을 생성(S152)한다.In this step, the music that is presumably intended by the user is first classified by the learned classification model. At this time, it is determined whether the music intended by the user exists in the database of the learned classification model (S151), and if it does not exist as a result, music having a similar waveform from the user's intended music imaginary brainwave through the learned sound wave generation model generated (S152).

뇌파로부터 인식되는 가사 및 음계는 상술한 바와 같이 측정된 뇌파 파형들을 음파에 대응하는 유사 파형으로 변환하고 이로부터 대비 가능한 가사 및 음계를 추출하는 방법으로 인식이 가능하다.Lyrics and scales recognized from EEG can be recognized by converting the EEG waveforms measured as described above into similar waveforms corresponding to sound waves and extracting contrastable lyrics and scales from them.

이를 위해 검색 결정단계(S150)는 사용자가 의도한 음악 상상 뇌파가 학습된 분류모델의 데이터베이스에 존재하는지 판단하는 단계 및 학습된 분류모델의 데이터베이스에 존재하지 않는 경우 생성모델을 통해 유사한 파형을 생성하는 단계를 포함하는 것이다.To this end, the search decision step (S150) is a step of determining whether the user's intended music imaginary EEG exists in the database of the learned classification model, and when it does not exist in the database of the learned classification model, generating a similar waveform through the generation model. It includes steps.

다음, 음악 검색단계(S160)에서는 검색 기능을 갖는 음악 정보 검색부(150)에서 위와 같이 특정된 음악 상상 관련 뇌파에 대응하는 사용자 의도 음악을 검색한다. 일 예로 검색은 음악 관련 어플리케이션이나 대용량 음악 DB 등을 통해 이루어질 수 있다.Next, in the music search step ( S160 ), the music information search unit 150 having a search function searches for user intention music corresponding to the brain wave related to the music imagination specified above. For example, the search may be performed through a music-related application or a large-capacity music DB.

이러한 음악 검색단계(S160)는 음악 정보 검색부(150)에서 실행된다. 음악 정보 검색부(150)는 특정된 음악 상상 관련 뇌파에 대응하는 사용자 의도 음악을 검색하기 위해 뇌파를 특정하여 인식된 가사 및 음계를 이용하여 그에 대응하는 음악을 검색한다.This music search step ( S160 ) is executed by the music information search unit 150 . The music information search unit 150 searches for music corresponding to the specified EEG by using the recognized lyrics and scale in order to search for the user's intended music corresponding to the specified EEG related to the specified musical imagination.

즉, 음악 상상 뇌파를 모델을 통해 분류하고 이를 바탕으로 사용자의 의도를 파악하여 DB에서 음악을 검색한다. DB는 자체에 구비된 것은 물론 외부의 제3 서버에 구비된 DB도 포함한다.In other words, music imaginary brain waves are classified through a model, and based on this, the user's intention is identified and music is searched in the DB. The DB includes not only the DB provided in itself, but also the DB provided in an external third server.

다음, 음악 재생단계(S180)에서는 음악 재생부(160)를 통해 검색된 음악을 재생한다. 이를 위해 음악 재생부(160)는 검색된 음악을 출력하는 하드웨어를 포함할 수 있으며, 음악 상상 뇌파를 통해 사용자가 의도한 것을 출력한다.\Next, in the music reproduction step ( S180 ), the music searched for through the music reproduction unit 160 is reproduced. To this end, the music player 160 may include hardware for outputting the searched music, and outputs what the user intends through the music imagination brain wave.\

음악 재생단계(S180)는 검색 결과가 사용자의 의도에 적합한지 판단(S170) 후 이루어질 수 있으며, 음악 생성은 음악 선택부로부터 생성된 음악 출력 및 특징 분석된 음악 상상 뇌파를 기반으로 생성기를 거쳐 생성된 음악의 출력을 포함할 수 있다.The music reproduction step (S180) may be performed after determining whether the search result is suitable for the user's intention (S170), and the music generation is generated through a generator based on the music output generated from the music selection unit and the analyzed music imaginary brain wave It may include the output of the music.

다만, 음악 재생단계(S180)에서 음악 재생 중 오류 관련 전위(Event-related Potential)가 발생하면 상기한 검색 결정단계(S150)로 되돌아가 검색된 음악 중 후보군에 포함되어 있는 음악을 재생하는 것이 바람직하다.However, if an error-related potential occurs during music reproduction in the music reproduction step S180, it is preferable to return to the search determination step S150 and reproduce the music included in the candidate group among the searched music. .

이러한 경우, 사용자에게 출력되고 있던 해당 음악이 후보로 검색된 음악으로 교체된다. 음악의 교체는 분류모델에서 사용자가 의도한 음악이라고 선택된 음악을 제외하고 두 번째로 높은 확률을 가진 음악으로 변경된다. In this case, the corresponding music being output to the user is replaced with the music found as a candidate. The music replacement is changed to the music with the second highest probability except for the music selected as the intended music by the user in the classification model.

이 때 베이즈 확률(bayes probability)에 의거하여 자연어처리 과정 중 앞, 뒤 음계 및 가사들의 관계를 고려하여 가장 적합한 음악으로 수정된다. 이러한 사용자 피드백을 통하여 음악 출력의 수정 및 보완 작업이 이루어진다. At this time, based on the Bayes probability, the most suitable music is modified by considering the relationship between the front and rear scales and lyrics during the natural language processing process. Through such user feedback, correction and supplementation of music output is performed.

다만 오류 관련 유발 전위를 이용하여 음악을 수정하는 단계는 본 발명에 있어 필수적인 구성 요소는 아니며, 선택적으로 적용될 수 있다. 이후 완성된 최종 음악은 검색 및 재생 단계를 거쳐 뇌-컴퓨터 인터페이스를 완성한다.However, the step of correcting the music using the error-related induced potential is not an essential component of the present invention and may be selectively applied. After that, the final music completes the brain-computer interface through the search and playback stages.

이상, 본 발명의 특정 실시예에 대하여 상술하였다. 그러나, 본 발명의 사상 및 범위는 이러한 특정 실시예에 한정되는 것이 아니라, 본 발명의 요지를 변경하지 않는 범위 내에서 다양하게 수정 및 변형 가능하다는 것을 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 것이다.In the above, specific embodiments of the present invention have been described above. However, the spirit and scope of the present invention is not limited to these specific embodiments, and various modifications and variations can be made within the scope that does not change the gist of the present invention. You will understand when you grow up.

따라서, 이상에서 기술한 실시예들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이므로, 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 하며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Therefore, since the embodiments described above are provided to fully inform those of ordinary skill in the art to which the present invention belongs the scope of the invention, it should be understood that they are exemplary in all respects and not limiting, The invention is only defined by the scope of the claims.

110: 음악 샘플 제공부
111: 음악 소리 DB
112: 음악 소리 생성부
120: 측정 데이터 저장부
130: 모델 학습부
131: 전처리부
132: 특징 추출부
133: 학습부(분류모델 학습부, 생성모델 학습부)
140: 음악 생성 의도 인식부
150: 음악 정보 검색부
160: 음악 재생부
110: music sample providing unit
111: music sound DB
112: music sound generation unit
120: measurement data storage unit
130: model learning unit
131: preprocessor
132: feature extraction unit
133: learning unit (classification model learning unit, generative model learning unit)
140: music generation intention recognition unit
150: music information search unit
160: music playback unit

Claims (10)

사용자의 의도를 포함하는 뇌파를 기반으로 음악을 검색하는 뇌파 기반 음악 검색방법에 있어서,
음악 샘플 제공부(110)에서 음악 상상 의도를 포함하는 뇌파를 유발시키기 위한 음악 소리를 제공하는 음악 샘플 제공단계(S110)와;
측정 센서(121)에서 상기 음악 소리를 듣고 발생하는 사용자의 음악 상상 뇌파를 측정하여 측정 데이터 저장부(120)에 저장하는 뇌파 측정단계(S120)와;
모델 학습부(130)에서 상기 음악 상상 뇌파 및 음악 소리의 음파에 대한 특징 분석을 통해 뇌파 분석모델을 학습하는 모델 학습단계(S130)와;
측정 센서(121)에서 음악 검색을 요청하는 사용자의 의도가 포함된 뇌파를 측정하고, 실시간으로 사용자가 의도하는 음악을 인식하는 검색 뇌파 입력단계(S140)와;
음악 생성 의도 인식부(140)에서 상기 뇌파 분석모델을 이용하여 상기 검색 뇌파 측정단계(S120)에서 측정된 음악 상상 관련 뇌파를 특정하는 검색 결정단계(S150); 및
음악 정보 검색부(150)에서 상기 특정된 음악 상상 관련 뇌파에 대응하는 사용자 의도 음악을 검색하는 음악 검색단계(S160);를 포함하고,
음악 재생부(160)에서 상기 검색된 음악을 재생하는 음악 재생단계(S180)를 더 포함하고,
상기 음악 재생단계(S180)에서 음악 재생 중 오류 관련 전위(Event-related Potential)가 발생하면 상기 검색 결정단계(S150)로 되돌아가 검색된 음악 중 후보군에 포함되어 있는 음악을 재생하는 것을 특징으로 하는 뇌파 기반 음악 검색방법.
In the brain wave-based music search method for searching music based on the brain wave including the user's intention,
A music sample providing step (S110) of providing a music sound for inducing an EEG including a music imaginary intention in the music sample providing unit 110;
an EEG measurement step (S120) of measuring the user's imaginary music brainwave generated by listening to the music sound in the measurement sensor 121 and storing it in the measurement data storage unit 120;
a model learning step (S130) of learning the brain wave analysis model through the feature analysis of the music imaginary brain wave and the sound wave of the music sound in the model learning unit 130;
a search EEG input step (S140) of measuring an EEG including the user's intention to request a music search by the measurement sensor 121, and recognizing the user's intended music in real time;
a search decision step (S150) of specifying the brainwave related to the music imagination measured in the search brainwave measurement step (S120) by using the brainwave analysis model in the music generation intention recognition unit 140; and
and a music search step (S160) of searching for user intended music corresponding to the specified brainwave related to the musical imagination in the music information search unit 150;
Further comprising a music playing step (S180) of playing the searched music in the music playback unit 160,
In the music reproduction step (S180), when an error-related potential occurs during music reproduction, the process returns to the search decision step (S150) to reproduce music included in the candidate group among the searched music EEG based music search method.
삭제delete 삭제delete 제1항에 있어서,
상기 음악 샘플 제공단계(S110)는,
사용자에게 제시할 음악 소리 파일을 음악 소리 DB(111)에 저장하는 샘플 저장단계; 및
음악 소리 생성부(112)에서 상기 음악 소리 DB(111)에 저장된 음악 소리를 생성하여 사용자에게 제공하는 샘플 재생단계;를 포함하되,
상기 샘플 저장단계에서 사용자에게 제공될 다수의 후보 음악 소리를 저장하되, 상기 후보 음악 소리는 사용자가 지정한 여러 음악 소리, 자주 사용되는 여러 음악 소리 및 임의로 설정된 여러 음악 소리 중 어느 하나 이상을 포함하는 것을 특징으로 하는 뇌파 기반 음악 검색방법.
According to claim 1,
The music sample providing step (S110),
a sample storage step of storing the music sound file to be presented to the user in the music sound DB (111); and
A sample playback step of generating the music sound stored in the music sound DB 111 in the music sound generating unit 112 and providing it to the user; including,
Storing a plurality of candidate music sounds to be provided to the user in the sample storage step, wherein the candidate music sounds include any one or more of several music sounds designated by the user, several frequently used music sounds, and several arbitrarily set music sounds. An EEG-based music retrieval method.
제1항에 있어서,
상기 뇌파 측정단계(S120)는,
사용자에게 제공된 음악 소리의 음파와 관련된 사용자의 뇌파로써, 음악 소리를 사용자가 들을 때 발생되는 뇌파 및 사용자가 음악을 직접 부를 때 발생되는 뇌파 중 어느 하나 이상이 측정되는 것을 특징으로 하는 뇌파 기반 음악 검색방법.
According to claim 1,
The EEG measurement step (S120) is,
EEG-based music search, characterized in that at least one of an EEG generated when a user listens to a music sound and an EEG generated when the user directly sings music is measured as the user's brainwave related to the sound wave of the music sound provided to the user method.
제1항에 있어서,
상기 모델 학습단계(S130)는,
입력된 음파 및 뇌파의 잡음을 제거하고 설정된 대역을 추출하는 전처리단계와;
상기 전처리된 음파 및 뇌파의 파형 특징을 추출하는 특징추출단계와;
상기 추출된 음파 및 뇌파의 파형 특징을 이용하여 특징별 분류를 하는 분류모델 학습단계); 및
음악 상상시의 뇌파와 유사한 파형을 가지는 음계 단위의 음파를 생성하는 생성모델 학습단계;를 포함하는 것을 특징으로 하는 뇌파 기반 음악 검색방법.
According to claim 1,
The model learning step (S130) is,
a pre-processing step of removing noise from input sound waves and brain waves and extracting a set band;
a feature extraction step of extracting waveform features of the pre-processed sound waves and brain waves;
a classification model learning step of classifying by features using the extracted waveform features of sound waves and brain waves); and
A brain wave-based music search method comprising: a generating model learning step of generating a sound wave in a scale unit having a waveform similar to the brain wave at the time of imagining music.
제6항에 있어서,
상기 검색 결정단계(S150)는,
사용자가 의도한 음악 상상 뇌파가 상기 학습된 분류모델의 데이터베이스에 존재하는지 판단하는 단계; 및
상기 사용자가 의도한 음악 상상 뇌파가 상기 학습된 분류모델의 데이터베이스에 존재하지 않는 경우 상기 생성모델을 통해 유사한 파형을 생성하는 단계;를 포함하는 것을 특징으로 하는 뇌파 기반 음악 검색방법.
7. The method of claim 6,
The search decision step (S150) is,
determining whether the user's intended music imaginary brain wave exists in the database of the learned classification model; and
and generating a similar waveform through the generation model when the user's intended music imaginary brainwave does not exist in the database of the learned classification model.
음악 상상 의도를 포함하는 뇌파를 유발시키기 위한 음악 소리를 제공하는 음악 샘플 제공부(110)와;
상기 음악 소리를 듣고 발생하는 사용자의 음악 상상 뇌파 데이터를 저장하는 측정 데이터 저장부(120)와;
상기 음악 상상 뇌파 및 음악 소리의 음파에 대한 특징 분석을 통해 뇌파 분석모델을 학습하는 모델 학습부(130)와;
상기 뇌파 분석모델을 이용하여 음악 검색을 요청하는 사용자의 의도가 포함된 뇌파를 특정하는 음악 생성 의도 인식부(140); 및
상기 특정된 음악 상상 관련 뇌파에 대응하는 사용자 의도 음악을 검색하는 음악 정보 검색부(150);를 포함하고,
검색된 음악을 재생하는 음악 재생부(160)를 더 포함하고,
상기 음악 재생부(160)는 음악 재생 중 오류 관련 전위(Event-related Potential)가 발생하면 검색된 음악 중 후보군에 포함되어 있는 음악을 재생하는 것을 특징으로 하는 직관적 뇌-컴퓨터 인터페이스 장치.
a music sample providing unit 110 that provides a music sound for inducing an EEG including a music imaginative intention;
a measurement data storage unit 120 for storing the user's music imaginary brain wave data generated by listening to the music sound;
a model learning unit 130 for learning the brain wave analysis model through the feature analysis of the music imaginary brain wave and the sound wave of the music sound;
a music generation intention recognition unit 140 for specifying an EEG including a user's intention to request a music search by using the EEG analysis model; and
and a music information search unit 150 that searches for user intention music corresponding to the specified music imagination-related brainwave.
Further comprising a music playback unit 160 for playing the searched music,
The music reproducing unit 160 is an intuitive brain-computer interface device, characterized in that when an error-related potential (Event-related Potential) occurs during music reproduction, the music included in the candidate group among the searched music.
제8항에 있어서,
상기 음악 샘플 제공부(110)는,
사용자에게 제시할 음악 소리 파일을 저장하는 음악 소리 DB(111); 및
상기 음악 소리 DB(111)에 저장된 음악 소리를 생성하여 사용자에게 제공하는 음악 소리 생성부(112);를 포함하되,
상기 음악 소리 DB(111)에는 사용자에게 제공될 다수의 후보 음악 소리를 저장하되, 상기 후보 음악 소리는 사용자가 지정한 여러 음악 소리, 자주 사용되는 여러 음악 소리 및 임의로 설정된 여러 음악 소리 중 어느 하나 이상을 포함하는 것을 특징으로 하는 직관적 뇌-컴퓨터 인터페이스 장치.
9. The method of claim 8,
The music sample providing unit 110,
a music sound DB (111) for storing a music sound file to be presented to a user; and
A music sound generating unit 112 that generates the music sound stored in the music sound DB 111 and provides it to the user; including;
The music sound DB 111 stores a plurality of candidate music sounds to be provided to the user, and the candidate music sounds include any one or more of several music sounds designated by the user, several frequently used music sounds, and several arbitrarily set music sounds. Intuitive brain-computer interface device, characterized in that it comprises.
제8항에 있어서,
상기 모델 학습부(130)는,
입력된 음파 및 뇌파의 잡음을 제거하고 설정된 대역을 추출하는 전처리부(131)와;
상기 전처리된 음파 및 뇌파의 파형 특징을 추출하는 특징 추출부(132); 및
상기 추출된 음파 및 뇌파의 파형 특징을 이용하여 특징별 분류를 하는 분류모델과 음악 상상시의 뇌파와 유사한 파형을 가지는 음계 단위의 음파를 생성하는 생성모델의 학습을 위한 학습부(133);를 포함하는 것을 특징으로 하는 직관적 뇌-컴퓨터 인터페이스 장치.
9. The method of claim 8,
The model learning unit 130,
a pre-processing unit 131 for removing noise of input sound waves and brain waves and extracting a set band;
a feature extraction unit 132 for extracting waveform features of the pre-processed sound waves and brain waves; and
A learning unit 133 for learning a classification model that classifies by features by using the extracted sound waves and waveform features of brain waves and a generation model that generates sound waves in a scale unit having a waveform similar to the brain waves when imagining music; Intuitive brain-computer interface device, characterized in that it comprises.
KR1020200019508A 2019-09-20 2020-02-18 Method of music information retrieval based on brainwave and intuitive brain-computer interface therefor KR102381117B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190116338 2019-09-20
KR1020190116338 2019-09-20

Publications (3)

Publication Number Publication Date
KR20210034459A KR20210034459A (en) 2021-03-30
KR102381117B1 true KR102381117B1 (en) 2022-03-31
KR102381117B9 KR102381117B9 (en) 2023-11-13

Family

ID=75265264

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200019508A KR102381117B1 (en) 2019-09-20 2020-02-18 Method of music information retrieval based on brainwave and intuitive brain-computer interface therefor

Country Status (1)

Country Link
KR (1) KR102381117B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101553256B1 (en) 2014-03-06 2015-09-15 광주과학기술원 Method for Enhancing Reliability of BCI System
CN107106063A (en) * 2014-11-02 2017-08-29 恩戈格勒公司 Intelligent audio headset system
KR101633743B1 (en) 2015-09-15 2016-07-01 (주)핀테크솔루션 Apparatus, system and method for controlling appliance based on brainwave

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
인용발명 1: S.Hoefle et. al., "Identifying musical pieces from fMRI data using encoding and decoding models," Scientific Reports 8:2266, 2018.02.02.*
전성환 외 2인, "뇌파 데이터를 이용한 인터랙티브 사운드 콘텐츠 제작 연구," 한국정보처리학회 2016년 춘계학술발표대회 논문집, 제23권, 제1호, 2016.04.*

Also Published As

Publication number Publication date
KR102381117B9 (en) 2023-11-13
KR20210034459A (en) 2021-03-30

Similar Documents

Publication Publication Date Title
US20170339484A1 (en) Smart audio headphone system
Zhao et al. EmotionSense: Emotion recognition based on wearable wristband
CN109585021B (en) Mental state evaluation method based on holographic projection technology
Giakoumis et al. Automatic recognition of boredom in video games using novel biosignal moment-based features
Miranda Brain-computer music interface for composition and performance
Yang et al. Physiological-based emotion detection and recognition in a video game context
Zainab et al. Emotion recognition based on EEG signals in response to bilingual music tracks.
Hamano et al. Generating an Integrated Musical Expression with a Brain-Computer Interface.
KR102381117B1 (en) Method of music information retrieval based on brainwave and intuitive brain-computer interface therefor
CN116115876A (en) Scene generation system, method and related equipment based on virtual reality
CN113178195B (en) Speaker identification method based on sound-induced electroencephalogram signals
Li et al. The study of emotion recognition from physiological signals
EP4297832A1 (en) Device and method for modifying an emotional state of a user
CN113220122A (en) Brain wave audio processing method, equipment and system
Merino Monge et al. A preliminary study about the music influence on EEG and ECG signals
Morita et al. Towards Music Information Retrieval driven by EEG signals: Architecture and preliminary experiments
Miranda Brain-computer music interface for generative music
CN112799505B (en) Music tone imagination distinguishing method based on electroencephalogram signals
Pozzi Music emotion detection. A framework based on electrodermal activities
WO2024009944A1 (en) Information processing method, recording medium, and information processing device
Kaya Computational and Perceptual Characterization of Auditory Attention
IERACHE et al. Emotional status focused on stimuli by applying brain-machine interface
Rossi SCHuBERT: a real-time end-to-end model for piano music emotion recognition
Kalansooriya et al. Affective gaming in real-time emotion detection and music emotion recognition: Implementation approach with electroencephalogram
KR20230142285A (en) Method and apparatus for matching musical imaginary electroencephalogram with musical pitch values

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]