KR20190004215A - 시창평가 시스템 및 그것을 이용한 시창평가방법 - Google Patents

시창평가 시스템 및 그것을 이용한 시창평가방법 Download PDF

Info

Publication number
KR20190004215A
KR20190004215A KR1020180034781A KR20180034781A KR20190004215A KR 20190004215 A KR20190004215 A KR 20190004215A KR 1020180034781 A KR1020180034781 A KR 1020180034781A KR 20180034781 A KR20180034781 A KR 20180034781A KR 20190004215 A KR20190004215 A KR 20190004215A
Authority
KR
South Korea
Prior art keywords
sound source
source data
user
pitch
length
Prior art date
Application number
KR1020180034781A
Other languages
English (en)
Other versions
KR102077642B1 (ko
Inventor
박종원
윤창호
김준호
Original Assignee
(주) 유지엘소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 유지엘소프트 filed Critical (주) 유지엘소프트
Publication of KR20190004215A publication Critical patent/KR20190004215A/ko
Application granted granted Critical
Publication of KR102077642B1 publication Critical patent/KR102077642B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/69Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for evaluating synthetic or decoded voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72522
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

본 발명은 사용자에 의해 녹음된 음원데이터를 분석하여 원래 악보와 비교해 볼 수 있도록 한 시창평가 시스템 및 그것을 이용한 시창평가방법에 관한 것이다. 이를 위하여, 본 발명은 사용자에 의해 녹음된 음원데이터가 서버에 로드되는 단계; 분석모듈에 의하여 상기 음원데이터의 음높이 및 길이가 분석되는 단계; 표시모듈에 의하여 분석된 음높이 및 길이가 음표로 표시되는 단계를 포함하며,
상기 분석모듈은,
상기 음원데이터를 일정길이의 음성셀로 분할하는 분할단계; 상기 분할된 하나의 음성셀을 푸리에 변환을 통해 주파수영역으로 변환하는 변환단계; 최대 주파수값을 기준으로 배열에 저장하는 단계를 수행하는 시창평가방법을 제공한다.
따라서, 본 발명에 의하면, 피아노 등의 별도 악기 없이도 사용자 스스로 악보를 보고 시창연습을 할 수 있으며, 사용자가 녹음한 음원데이터를 정확하게 분석하여 다시 음표로 나타내어 정확하게 틀린 곳을 알아낼 수 있는 장점이 있다.

Description

시창평가 시스템 및 그것을 이용한 시창평가방법{Sight-singing evaluation system and Sight-singing evaluation method using the same}
본 발명은 시창평가 시스템에 관한 것이며, 구체적으로 사용자에 의해 녹음된 음원데이터를 분석하여 원래 악보와 비교해 볼 수 있도록 한 시창평가 시스템 및 그것을 이용한 시창평가방법에 관한 것이다.
음악공부 기법 중 시창은 악보를 보고 음정과 박자를 맞추어 불러 얼마나 정확하게 부를 수 있는지 알아보는 방법이다.
이러한 시창은 전문가에게 레슨을 받아가며 배우는 방법이 좋겠으나, 경제력 여건이 어려운 사람은 전문적인 레슨을 받기가 어렵고 또한, 레슨을 받더라도 많은 시간을 일일이 레슨받기가 어려운 문제점이 있다.
이에 대해, 독학을 하는 것은 시간과 돈에서 자유롭다는 장점은 있으나, 잘못된 방향으로 연습을 하여도 본인은 잘 모를 수 있다는 단점이 있다.
도 1에 나타낸 등록특허 제10-1682802호에 의하면, 스마트폰을 이용하여 시창연습을 할 수 있는 어플리케이션이 기재되어 있다.
상기 특허에 의하면, 음악연습 및 분석을 위하여 사용자가 시창하고, 시창한 소리를 실시간으로 시간에 따라 세기 및 박자에 맞추어 그래프로 보여주며, 음악 그래프와 실시간 사용자 음성 그래프의 비교를 통하여 사용자의 시창능력을 파악할 수 있도록 하였다.
즉, 음악과 실시간 사용자 음성의 시간에 따른 세기를 파악 및 분석을 통하여 색상이 다른 두 개의 그래프로 나타내고, 상기 두 개의 그래프가 겹쳐보이게 함으로써 사용자의 실력을 점검한다.
하지만, 이러한 방법은 사용자의 시창능력을 평가하기에는 너무 부정확하고, 또한, 어느 음이 어떻게 틀렸는지를 알 수가 없어 실제 음악을 공부하는 사람이 사용하기에는 도움이 안되는 문제점이 있다.
또한, 원래 음악에 대한 음악데이터가 있어야 시창데이터와 비교가 가능하므로 원래 음악데이터가 없이 악보만 있는 경우에는 상기 특허에 의한 방법을 적용할 수 었는 문제점이 있다.
본 발명은 상기한 문제점을 해결하기 위한 것이며, 구체적으로 보다 정확하게 어떤 음이 어떻게 틀렸는지 스스로 비교해 볼 수 있도록 한 시창평가 시스템을 제공하기 위한 것이다.
상기한 목적을 달성하기 위하여, 본 발명은 사용자에 의해 녹음된 음원데이터가 서버에 로드되는 단계; 분석모듈에 의하여 상기 음원데이터의 음높이 및 길이가 분석되는 단계; 표시모듈에 의하여 분석된 음높이 및 길이가 음표로 표시되는 단계를 포함하며,
상기 분석모듈은,
상기 음원데이터를 일정길이의 음성셀로 분할하는 분할단계; 상기 분할된 하나의 음성셀을 푸리에 변환을 통해 주파수영역으로 변환하는 변환단계; 최대 주파수값을 기준으로 배열에 저장하는 단계를 수행하는 시창평가방법을 제공한다.
상기 분석모듈은, 영교차율을 이용하여 상기 음원데이터의 유성음과 무성음을 구분하는 것이 바람직하다.
본 발명은 또한, 사용자에 의해 녹음된 음원데이터를 분석하여 평가하는 시창평가시스템에 있어서,
상기 시창평가시스템은 서버 및 사용자단말기를 포함하며, 상기 서버는 상기 음원데이터의 음높이 및 길이를 분석하는 분석모듈을 가지고, 상기 사용자단말기는 상기 서버에 의해 분석된 결과에 기초하여 분석된 음높이 및 길이를 음표로 표시하여 주며,
상기 분석모듈은,
상기 음원데이터를 일정길이의 음성셀로 분할하는 분할단계; 상기 분할된 하나의 음성셀을 푸리에 변환을 통해 주파수영역으로 변환하는 변환단계; 최대 주파수값을 기준으로 배열에 저장하는 단계를 수행하는 시창평가시스템을 제공한다.
본 발명에 의하면, 피아노 등의 별도 악기 없이도 사용자 스스로 악보를 보고 시창연습을 할 수 있으며, 사용자가 녹음한 음원데이터를 정확하게 분석하여 다시 음표로 나타내어 정확하게 틀린 곳을 알아낼 수 있는 장점이 있다.
도 1은 종래기술에 의한 시창연습을 위한 어플리케이션 화면을 나타내는 예시도;
도 2는 본 발명에 의한 시창평가서버의 구성을 나타내는 구성도;
도 3은 본 발명에 의한 시창평가과정을 나타내는 예시도;
도 4는 단구간 에너지를 이용하여 음의 시작점과 끝점을 추출하는 과정을 설명하기 위한 설명도;
도 5는 윈도우 함수를 이용한 결과를 나타내는 예시도;
도 6a 및 도 6b는 HPS를 이용한 결과를 나타내는 예시도;
도 7은 녹음된 음원데이터 분석결과를 나타내는 예시도;
도 8은 재도전 화면을 나타내는 예시도.
본 발명의 실시예의 구성 및 작용에 대하여 첨부한 도면을 참조하여 상세하게 설명한다.
도 2를 참조하면, 본 발명에 의한 시창평가 시스템(100)은 인터페이스모듈(110), 분석모듈(130), 표시모듈(150), 제어부(170), 저장부(190), 회원관리모듈(160), 재도전모듈(120)을 포함하여 구성된다. 상기 시창평가 시스템(100)은 복수 개의 클라이언트와 연결되는 서버 및 스마트폰, PC와 같은 단말기가 포함될 수 있다.
상기 인터페이스모듈(110)은 유선 또는 무선통신을 이용하여 다양한 외부 클라이언트와 데이터를 송수신할 수 있게 해주는 부분이다. 상기 인터페이스모듈(110)은 하드웨어 및 소프트웨어가 결합된 형태로 구비될 수 있으며, 상이한 사용자 단말기에도 호환되도록 신호를 변환하여 전달한다.
상기 회원관리모듈(160)에서는 사용자 정보를 관리하며 사용자에 따라 적절한 악보를 제공해 준다. 또한, 상기 저장부(190)에는 시창을 위한 악보가 저장되며, 난이도 및 장르, 길이에 따라 다양한 악보가 저장된다. 또한, 각 악보마다 음높이 및 음길이가 데이터베이스화되어 저장될 수 있다.
사용자가 마이크가 구비된 단말기를 이용하여 로그인을 하면, 제어부(170)에서는 회원관리모듈(160)에 저장된 사용자의 레벨 및 분야에 해당하는 곡의 악보를 저장부(190)로부터 추출하여 표시모듈(150)에 의하여 도 3과 같이 사용자의 단말기에 표시하여 주도록 한다.
사용자는 단말기에 표시된 악보를 보고 시작버튼을 눌러 녹음을 시작한다. 녹음이 시작되면 표시모듈(150)에서는 정해진 템포에 맞추어 예비박을 단말기에 표시해 준다. 이러한 예비박은 시각적으로 표시해 줌과 동시에 스피커를 통해 음을 송출하여 줄 수도 있다. 이러한 예비박은 단말기 자체에서 수행될 수도 있다.
구체적으로, 단말기의 제어부에서는 정해진 템포에 따라 예비박을 4,3,2,1과 같은 숫자형태로 표시해 줄 수 있으며 사용자는 이러한 예비박에 의하여 악보의 템포를 미리 인지할 수 있어 더욱 정확한 시창이 될 수 있도록 안내해 준다.
상기 단말기에서는 녹음이 진행되면 마이크를 통해 사용자의 음성을 입력받아 음원데이터를 생성시키며, 일정 시간이 지나면 다음 악보를 표시하여 준다. 즉, 처음에는 네마디의 악보가 단말기에 표시되며, 템포에 따라 네마디의 악보가 끝나는 시간에 다음 악보를 표시해 준다.
녹음된 음원데이터는 단말기의 유무선통신부에 의하여 서버로 전송되며, 분석모듈(130)에서는 녹음된 음원데이터의 분석을 진행한다. 이하, 분석모듈(130)에 의한 음원데이터의 분석방법에 대해 설명한다.
먼저, 분석모듈(130)에서는 음원데이터를 일정 간격의 음성셀로 분할한다. 분할하는 음성셀의 길이는 아래와 같다.
음성셀길이(chunk) = framerate/sample_width*(60/tempo)/음표값
framerate은 채널을 고려한 초당 샘플의 개수로서, 1채널의 경우 samplerate과 동일하며, 2채널의 경우 samplerate의 두배가 된다.(1채널 모노, 2채널 스테레오 등등)
sample_width는 sample의 크기로 볼 수 있으며, tempo값은 4분음표 기준으로 80,90 등의 값을 가질 수 있다. 또한, 음표값은 4분음표 기준으로 1, 16분음표 기준으로 4, 32분음표 기준으로 8 등이 될 수 있다.
이와 함께, 단구간 에너지를 이용하여 음성의 시작점과 끝점을 추출할 수 있다. 구체적으로, 도 4를 참조하면, 음량이 기준선(A) 이상인 구간을 추출하여 하나의 음 구간을 추출한다. 도 4에서는 3개의 음성셀로 나뉘고 두번째 음성셀에서 기준선 이상인 음 구간을 추출할 수 있다.
이후, 영교차율(zero crossing rate)을 이용하여 유성음과 무성음을 구분한다. 상기 영교차율은 전체 구간에서 파의 부호가 바뀌는 비율을 나타낸 것으로서, 사람의 음성 및 파열음이나 마찰음 등을 구분하기 용이하게 해준다. 분석모듈에서는 상기 영교차율이 임계값 이상되면 유성음으로 판단하고 그렇지 않으면 무성음으로 판단하여 구분한다.
그리고, 분석모듈에서는 유성음에 해당하는 구간에 윈도우 함수(window function)을 적용하여 주파수 특성을 부각시킨다. 이때, 도 5와 같이 블랙맨 윈도우(Blackman Window)를 시간축 신호에 곱하는 것이 바람직하다.
w(n) = 0.42-0.5cos(2πn/M)+0.08cos(4πn/M)
M은 윈도우의 크기
0≤n≤M
이후, 분석모듈에서는 푸리에 변환을 실시한다. 이때, FFT(Fast Fourrier Transform)를 실행하여 시간영역을 주파수 영역으로 변환시켜 준다. 이때, 양수를 취하기 위해 변환한 값에 제곱을 취하는 것이 바람직하다.
사람의 음성은 하나의 주파수 값을 갖는 것이 아니라, 도 6a와 같이 여러 옥타브가 섞여 있는 배음이 존재한다. 본 발명에 의한 분석모듈에서는 이러한 배음의 영향을 최소화하기 위해 HPS(harmonic product spectrum)를 시행한다.
HPS를 시행하면 도 6b와 같이 증폭된 기본 주파수(fundamental frequency)를 얻을 수 있다. 한편, 저장부에는 기본 주파수 범위에 따른 음높이가 저장되어 있으며, 제어부에서는 검출된 기본 주파수에 해당하는 음높이를 검색하여 단말기로 전송시켜 준다.
제어부에서는 이러한 방법으로 각 셀마다 반복적으로 분석되어 검색된 음높이를 음성셀 순서대로 배열하고, 같은 음높이가 연속으로 검색된 경우에는 같은 음높이를 가진 음성셀의 개수를 카운트하여 음 길이를 계산한다.
예를 들어, 하나의 음성셀이 16분음표의 단위길이에 해당한다면, 연속된 2개의 음성셀이 같은 음높이를 갖는 경우 그것은 8분음표의 길이로 계산된다. 또한, 연속된 4개의 음성셀이 같은 음높이를 갖는 경우 그것은 4분음표의 길이로 계산된다.
이렇게 계산된 음높이와 음길이는 다시 사용자의 단말기로 전송되고, 단말기에서는 서버로부터 전송된 음높이와 음길이를 이용하여 도 7과 같이 악보에 음표로 표시하여 사용자에게 보여준다.
이에 따라, 사용자는 정답악보와 자신이 부른 악보를 비교하여 틀린 부분을 정확하게 찾을 수 있고, 어느 부분이 어떻게 틀렸는지를 정확하게 파악할 수가 있다.
즉, 단말기에서는 정답악보와 녹음된 악보를 비교하여 틀린 부분 검색을 서버에 요청할 수 있다.
상기 서버의 저장부에는 정답악보에 대한 음높이 및 음길이가 데이터베이스화되어 저장되어 있으며, 틀린 부분 검색요청이 있는 경우 저장부에 저장된 정답악보의 음높이 및 음길이와 녹음후 분석된 음높이 및 음길이를 비교하여 다른 부분을 추출하고 그 부분에 대한 정보를 다시 사용자의 단말기로 전송한다.
그 결과, 단말기에서 틀린 부분은 빨간 색과 같이 맞은 부분과는 다른 색으로 표시하여 줄 수 있다.
상기 서버에서는 특정 사용자에 대하여 틀린 부분을 저장하며, 분석모듈에서는 저장된 데이터를 기초로 하여 통계분석을 수행한다. 예를 들어, 분석모듈에서는 틀린 부분을 음높이, 음정, 박자별로 구분할 수 있으며, 음높이, 음정, 박자 중 어느 부분이 많이 틀렸는지를 수치화하여 보여줄 수 있다. 또한, 어느 음에서 가장 많이 틀리는지도 산출할 수 있다. 상기 서버에서는 이렇게 분석된 결과를 기초로 하여 음높이, 음정, 박자 중 가장 많이 틀린 부분을 단말기로 전송하여 줄 수 있다.
한편, 단말기에서는 재도전버튼을 이용하여 틀린 부분을 다시 녹음할 수 있다.
즉, 단말기에서 재도전버튼을 누르면 틀린 부분에 해당하는 마디와 그 전후 마디를 추출하여 재도전구간으로 저장하고 서버로 재도전요청신호 및 재도전구간을 전송한다. 그러면, 서버의 재도전모듈(120)에서는 저장부에서 해당 악보를 검색하여 재도전구간에 해당하는 음높이 및 음길이에 대한 데이터를 추출하여 악보를 재구성하고 단말기로 전송한다. 이때, 도 8과 같이 단말기에서는 틀린 부분을 빨간색으로 표시하여 이전에 틀린 부분에 대해 주의를 요하도록 할 수 있다. 이후 사용자는 이전과 같이 녹음을 시작하고 녹음된 음원데이터를 서버로 전송하는 과정을 반복할 수 있다. 이때 다시 녹음하는 재도전구간은 사용자가 선택하게 할 수도 있다.
이때, 분석모듈에서는 음높이, 음정, 박자별로 이전에 분석했던 결과와 재도전시 분석한 결과를 비교하여 일치하는 부분과 틀린 부분을 구분하여 다른 색으로 표시해 준다. 이렇게 하여 사용자는 약한 부분과 교정이 된 부분을 확실하게 확인할 수 있다.
한편, 상기 서버 또는 단말기에는 사용자가 녹음한 음원이 저장되며, 사용자로부터 녹음된 음원의 재생을 요청받으면 해당 음원을 재생시켜 사용자로 하여금 확인할 수 있도록 해준다.
상기에서는 본 발명의 실시예들을 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100 : 시창평가시스템 120 : 재도전모듈
130 : 분석모듈 150 : 표시모듈
160 : 회원관리모듈 170 : 제어부
190 : 저장부

Claims (3)

  1. 사용자에 의해 녹음된 음원데이터가 서버에 로드되는 단계;
    분석모듈에 의하여 상기 음원데이터의 음높이 및 길이가 분석되는 단계;
    분석된 음높이 및 길이가 단말기에 음표로 표시되는 단계를 포함하며,
    상기 분석모듈은,
    상기 음원데이터를 일정길이의 음성셀로 분할하는 분할단계;
    상기 분할된 하나의 음성셀을 푸리에 변환을 통해 주파수영역으로 변환하는 변환단계;
    최대 주파수값을 기준으로 배열에 저장하는 단계를 수행하는 시창평가방법.
  2. 제1항에 있어서,
    상기 분석모듈은,
    영교차율을 이용하여 상기 음원데이터의 유성음과 무성음을 구분하는 것을 특징으로 하는 시창평가방법.
  3. 사용자에 의해 녹음된 음원데이터를 분석하여 평가하는 시창평가시스템에 있어서,
    상기 시창평가시스템은 서버 및 사용자단말기를 포함하며,
    상기 서버는 상기 음원데이터의 음높이 및 길이를 분석하는 분석모듈을 가지고,
    상기 사용자단말기는 상기 서버에 의해 분석된 결과에 기초하여 분석된 음높이 및 길이를 음표로 표시하여 주며,
    상기 분석모듈은,
    상기 음원데이터를 일정길이의 음성셀로 분할하는 분할단계;
    상기 분할된 하나의 음성셀을 푸리에 변환을 통해 주파수영역으로 변환하는 변환단계;
    최대 주파수값을 기준으로 배열에 저장하는 단계를 수행하는 시창평가시스템.
KR1020180034781A 2017-07-03 2018-03-26 시창평가 시스템 및 그것을 이용한 시창평가방법 KR102077642B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170084445 2017-07-03
KR20170084445 2017-07-03

Publications (2)

Publication Number Publication Date
KR20190004215A true KR20190004215A (ko) 2019-01-11
KR102077642B1 KR102077642B1 (ko) 2020-02-14

Family

ID=65027916

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180034781A KR102077642B1 (ko) 2017-07-03 2018-03-26 시창평가 시스템 및 그것을 이용한 시창평가방법

Country Status (1)

Country Link
KR (1) KR102077642B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109065008B (zh) * 2018-05-28 2020-10-27 森兰信息科技(上海)有限公司 一种音乐演奏曲谱匹配方法、存储介质及智能乐器
KR20240003090A (ko) 2022-06-30 2024-01-08 벨테라퓨틱스 주식회사 이어 트레이닝을 제공하는 전자 장치, 이어 트레이닝 제공 방법, 및 컴퓨터 프로그램

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020089138A (ko) * 2001-05-17 2002-11-29 신세다이 가부시키 가이샤 음계 인식 방법 및 그 장치
JP2008096844A (ja) * 2006-10-13 2008-04-24 Keio Gijuku 自動採譜装置及び方法
KR20110076314A (ko) * 2009-12-29 2011-07-06 전자부품연구원 오디오 특징 분석을 이용한 연주 평가 장치 및 방법
KR20160073862A (ko) * 2014-12-17 2016-06-27 김좌한 전자 악보 서비스 제공 방법
KR20160120730A (ko) * 2014-02-14 2016-10-18 도널드 제임스 데릭 오디오 분석 및 인지 향상을 위한 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020089138A (ko) * 2001-05-17 2002-11-29 신세다이 가부시키 가이샤 음계 인식 방법 및 그 장치
JP2008096844A (ja) * 2006-10-13 2008-04-24 Keio Gijuku 自動採譜装置及び方法
KR20110076314A (ko) * 2009-12-29 2011-07-06 전자부품연구원 오디오 특징 분석을 이용한 연주 평가 장치 및 방법
KR20160120730A (ko) * 2014-02-14 2016-10-18 도널드 제임스 데릭 오디오 분석 및 인지 향상을 위한 시스템
KR20160073862A (ko) * 2014-12-17 2016-06-27 김좌한 전자 악보 서비스 제공 방법

Also Published As

Publication number Publication date
KR102077642B1 (ko) 2020-02-14

Similar Documents

Publication Publication Date Title
Yamada et al. A rhythm practice support system with annotation-free real-time onset detection
CN107767847B (zh) 一种智能钢琴演奏测评方法及系统
CN101645268B (zh) 一种演唱和演奏的计算机实时分析系统
US20040044487A1 (en) Method for analyzing music using sounds instruments
Gupta et al. Perceptual evaluation of singing quality
CN108038146B (zh) 音乐演奏人工智能分析方法、系统及设备
CN106485983B (zh) 乐器演奏分析和评测方法
CN108648527B (zh) 一种英语发音匹配纠正方法
CN110070847B (zh) 乐音测评方法及相关产品
KR101459324B1 (ko) 음원 평가방법 및 이를 이용한 음원의 평가장치
CN108470476B (zh) 一种英语发音匹配纠正系统
KR20190004215A (ko) 시창평가 시스템 및 그것을 이용한 시창평가방법
Wu et al. Learned features for the assessment of percussive music performances
CN105244021B (zh) 哼唱旋律到midi旋律的转换方法
CN110853624A (zh) 言语康复训练系统
WO2019180830A1 (ja) 歌唱評価方法及び装置、プログラム
CN110956870A (zh) 一种视唱练耳教学方法及装置
JP2006178334A (ja) 語学学習システム
KR20190121080A (ko) 미디어 컨텐츠 서비스 시스템
CN111276113B (zh) 基于音频生成按键时间数据的方法和装置
WO2019142231A1 (ja) 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
KR101517957B1 (ko) 음향 지각 능력 평가 방법 및 평가 장치
Sharma et al. Singing characterization using temporal and spectral features in indian musical notes
JPS61120188A (ja) 楽音分析装置
JPS60201376A (ja) 発声訓練機

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant