KR101236435B1 - 가사 음성 인식이 가능한 노래반주기 제어방법 - Google Patents

가사 음성 인식이 가능한 노래반주기 제어방법 Download PDF

Info

Publication number
KR101236435B1
KR101236435B1 KR1020110002426A KR20110002426A KR101236435B1 KR 101236435 B1 KR101236435 B1 KR 101236435B1 KR 1020110002426 A KR1020110002426 A KR 1020110002426A KR 20110002426 A KR20110002426 A KR 20110002426A KR 101236435 B1 KR101236435 B1 KR 101236435B1
Authority
KR
South Korea
Prior art keywords
lyrics
song
section
data
display
Prior art date
Application number
KR1020110002426A
Other languages
English (en)
Other versions
KR20120080942A (ko
Inventor
이철수
Original Assignee
주식회사 금영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 금영 filed Critical 주식회사 금영
Priority to KR1020110002426A priority Critical patent/KR101236435B1/ko
Publication of KR20120080942A publication Critical patent/KR20120080942A/ko
Application granted granted Critical
Publication of KR101236435B1 publication Critical patent/KR101236435B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/211User input interfaces for electrophonic musical instruments for microphones, i.e. control of musical parameters either directly from microphone signals or by physically associated peripherals, e.g. karaoke control switches or rhythm sensing accelerometer within the microphone casing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

가사 음성 인식이 가능한 노래반주기 제어방법이 개시된다. 개시된 가사 음성 인식이 가능한 노래반주기 제어방법은, (a) 노래반주기에서 출력되는 곡의 가사 및 표출(페인팅) 시간을 상기 노래반주기에서 추출하는 단계와; (b) 출력되는 곡이 가사 구간인지 비가사 구간인지를 판단하는 단계와; (c) 상기 단계 (b)에서, 가사 구간 및 비가사 구간을 판단하여 상기 노래반주기에 연결된 마이크로 입력되는 데이터를 취득하는 단계와; (d) 상기 단계 (c)에서 데이터의 취득이 완료되었는지 판단하는 단계와; (e) 상기 단계 (d)에서 데이터의 취득이 완료되었다고 판단되는 경우, 상기 단계 (c)에서 취득한 데이터 중 곡의 가사 음성을 인식하여 처리하고, 처리한 데이터와 상기 단계 (a)에서 추출한 데이터를 비교 분석하여 상호 매칭 정도를 판정하며, 판정된 결과에 따라 점수를 계산하는 단계와; (f) 상기 단계 (e)에서 계산한 점수를 누적하는 단계와; (g) 상기 노래반주기에서 곡의 연주가 종료되었는지 판단하는 단계와; (h) 상기 단계 (g)에서, 곡의 연주가 종료되었다고 판단되면, 상기 노래반주기와 연결된 디스플레이로 점수를 출력하는 단계;를 포함하는 것을 그 특징으로 한다.

Description

가사 음성 인식이 가능한 노래반주기 제어방법{RECOGNIZABLE KARAOKE PLAYER OF VOICE OF WORDS AND METHOD OF CONTROLLING THE SAME}
본 발명은 가사 음성 인식이 가능한 노래반주기 제어방법에 관한 것으로서, 보다 상세하게는 가사 음성 인식을 이용하여 노래 점수 채점의 신뢰도를 높이도록 한 가사 음성 인식이 가능한 노래반주기 제어방법에 관한 것이다.
주지와 같이 노래반주기는 사용자가 노래를 선곡하면 해당 노래반주가 음향출력장치에서 출력되고 아울러 해당 노래가사가 영상표시장치에 표시됨으로써 가사를 보면서 반주에 맞추어 노래를 부를 수 있게 한 기기이다.
이러한 노래반주기는 반주가 완료되면 마이크를 통하여 입력된 사용자의 음성(노래)을 프로그램에 의하여 해당 노래의 원음과 비교 분석하여 점수로 환산, 영상표시장치에 표시한다. 즉, 노래반주기는 노래 점수 채점을 위해 마이크로부터 들어오는 신호의 크기가 설정된 값에 따라 점수를 계산하게 된다.
그리고 사용자가 얻은 획득점수가 설정점수 이상인 때 음향출력장치에서는 축하음향이 출력된다.
그런데, 상기와 같은 점수 계산이 마이크 신호 크기의 설정된 값에 따라 점수를 계산하게 되므로 장소에 따라 점수 계산 결과가 상이하고, 잡음(예컨대, 고성이나 소리지르기 등) 입력시 높은 점수가 나온다. 따라서 기존의 노래 점수 계산 방법은 신뢰도가 매우 낮아 점수 결과에 대해 흥미가 떨어지는 문제점이 있었다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 창출된 것으로서, 높은 인식률의 음성인식을 이용하여 노래 점수 채점 결과의 신뢰도를 높이고, 점수 결과에 대하여 흥미가 배가되도록 한 가사 음성 인식이 가능한 노래반주기 제어방법을 제공하는데 그 목적이 있다.
삭제
상기와 같은 목적을 달성하기 위한 본 발명의 가사 음성 인식이 가능한 노래반주기 제어방법은, (a) 노래반주기에서 출력되는 곡의 가사 및 표출(페인팅) 시간을 상기 노래반주기에서 추출하는 단계와; (b) 출력되는 곡이 가사 구간인지 비가사 구간인지를 판단하는 단계와; (c) 상기 단계 (b)에서, 가사 구간 및 비가사 구간을 판단하여 상기 노래반주기에 연결된 마이크로 입력되는 데이터를 취득하는 단계와; (d) 상기 단계 (c)에서 데이터의 취득이 완료되었는지 판단하는 단계와; (e) 상기 단계 (d)에서 데이터의 취득이 완료되었다고 판단되는 경우, 상기 단계 (c)에서 취득한 데이터 중 곡의 가사 음성을 인식하여 처리하고, 처리한 데이터와 상기 단계 (a)에서 추출한 데이터를 비교 분석하여 상호 매칭 정도를 판정하며, 판정된 결과에 따라 점수를 계산하는 단계와; (f) 상기 단계 (e)에서 계산한 점수를 누적하는 단계와; (g) 상기 노래반주기에서 곡의 연주가 종료되었는지 판단하는 단계와; (h) 상기 단계 (g)에서, 곡의 연주가 종료되었다고 판단되면, 상기 노래반주기와 연결된 디스플레이로 점수를 출력하는 단계;를 포함하되,
상기 가사 추출, 상기 가사 구간의 판단 및 가사 음성 처리는, 가사의 글자, 단어 및 마디 별로 구분하여 수행하고,
그리고, 상기 단계 (e)에서, 상기 음성 인식 처리 데이터와 상기 단계 (a)에서 추출한 데이터의 비교 분석은, 가사 표출(페인팅) 구간과 비가사 표출 구간으로 구분하고, 각 구간의 표출(페인팅)되는 시간을 계산하여 이루어지며,
또한, 상기 단계 (h)에서, 상기 디스플레이로 점수 출력시, 가사 표출(페인팅)의 음성인식 결과를 가사의 글자, 단어, 마디별 채점 결과를 상기 디스플레이에 표시하는 것을 그 특징으로 한다.
본 발명의 실시예에 따르면, 마이크로 입력되는 음성 중 노래와 관련이 없는 잡음 예컨대, 고성, 소리지르기 등을 거를 수 있어 정확한 채점을 할 수 있고, 높은 인식률의 음성 인식을 노래 점수 채점에 이용함으로써, 노래 점수 채점의 신뢰도를 높일 수 있다.
그리고 가사(글자, 단어, 마디) 표출(페인팅)의 음성인식 결과로 글자, 단어, 마디별로 채점 결과를 표출하는 시각적인 효과를 제공할 수 있다.
따라서 노래반주기에 대하여 흥미를 배가시킬 수 있고, 진정한 노래 대결 게임이 가능한 노래반주기를 제공할 수 있다.
도 1은 본 발명에 따른 가사 음성 인식이 가능한 노래반주기의 구성을 나타낸 블록도.
도 2는 본 발명에 따른 가사 음성 인식이 가능한 노래반주기 제어방법을 순차적으로 나타낸 순서도.
도 3 내지 도 5는 마이크로 입력되는 가사 음성을 인식하고 처리하는 방법을 설명하기 위해 나타내 보인 제1실시예 내지 제3실시예를 나타내 보인 설명도.
도 6은 가사 음성 데이터의 비교 분석 및 점수 계산 방법을 설명하기 위해 나타내 보인 설명도.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.
도 1에는 본 발명에 따른 가사 음성 인식이 가능한 노래반주기의 구성을 나타낸 블록도가 도시되어 있다.
도 1을 참조하면, 본 발명에 따른 가사 음성 인식이 가능한 노래반주기(100)는, 마이크(20)를 통해 입력된 음성 입력신호를 디지털 신호로 변환하는 A/D컨버터(52)와, 곡의 가사 데이터가 저장된 가사 데이터 저장부(55)와, 상기 A/D컨버터(52)에 의해 변환된 데이터 중 가사 음성을 인식 및 처리하여 노래를 채점하는 음성처리 채점장치(10)를 포함하여 구성된다.
그리고 상기 음성처리 채점장치(10)는, A/D컨버터(52)에 의해 변환되어 생성된 디지털 음성 데이터 중 가사 음성을 인식하여 취득하도록 처리하는 음성인식 처리부(11)와, 이 음성인식 처리부(11)에서 취득한 가사 음성 데이터와 가사 데이터 저장부(55)의 가사 데이터와의 매칭 정도를 판정하는 가사데이터 분석부(12)와, 이 가사데이터 분석부(12)의 정보로 노래점수를 계산(또는 채점)하는 점수계산부(13)를 포함하여 구성된다.
또한 본 발명에 따른 가사 음성 인식이 가능한 노래반주기(100)에는, 상기 음성처리 채점장치(10)의 점수계산부(13)에서 처리한 점수를 디스플레이(30)에 표시되도록 제어하는 제어부(57)가 구비된다.
그리고 본 발명에 따른 가사 음성 인식이 가능한 노래반주기(100)에는, 전면에 여러 조작 버튼으로 이루어진 키입력부(51)가 구비되어 있고, 오디오 신호를 처리하여 스피커(40)로 출력되게 하는 오디오 처리부(54)가 구비되며, 비디오 신호를 처리하여 디스플레이(30)에 출력하는 비디오 처리부(53)가 구비된다.
상기한 바와 같은 구성을 갖는 가사 음성 인식이 가능한 노래반주기를 적용하여 본 발명에 따른 가사 음성 인식이 가능한 노래반주기 제어방법을 설명하면 다음과 같다.
도 2에는 본 발명에 따른 가사 음성 인식이 가능한 노래반주기 제어방법을 순차적으로 나타낸 순서도가 도시되어 있다.
도 1 및 도 2를 참조하면, 본 발명에 따른 가사 음성 인식이 가능한 노래반주기 제어방법은, 우선, 노래반주기(100)의 가사 데이터 저장부(55)에서 출력되는 곡의 가사 및 표출(페인팅) 시간을 노래반주기(100)의 제어부(57)의 제어에 의해 추출한다.(단계 110)
이어서, 출력되는 곡이 가사 구간인지 비가사 구간인지를 제어부(57)에서 판단한다.(단계 120)
상기 단계 120에서, 가사 구간 및 비 가사 구간을 구분하여 판단한 후, 노래반주기(100)에 연결된 마이크(20)로 입력되는 데이터를 취득한다.(단계133,135) 즉, 가사 구간과 비가사 구간을 구분하여 판단하되, 가사 구간이든 비가사 구간이든 마이크(20)로 입력되는 데이터를 취득한다.
그리고 상기 단계 133 및 135에서의 데이터 취득이 완료되었는지 판단하고, 데이터의 취득이 완료되었다고 판단되는 경우, 상기 단계 133 및 135에서 취득한 데이터 중 곡의 가사 음성을 음성인식 처리부(11)에서 인식하여 처리하고, 음성을 인식하여 처리한 데이터와 상기 단계 110에서 추출한 데이터를 가사 데이터 분석부(12)에서 비교 분석하여 상호 매칭 정도를 판정하며, 판정된 결과에 따라 점수계산부(13)에서 점수를 계산(또는 채점)한다.(단계 140,150)
상기에서 가사 추출, 가사 구간의 판단 및 음성 가사 인식 처리는, 후술하는 바와 같이 가사의 글자, 단어 및 마디 별로 구분하여 수행한다.
또한 상기 단계 150에서 계산한 점수를 제어부(57)의 제어에 의해 누적시킨다.(단계 160)
이어서, 상기 노래반주기(100)에서 곡이 연주(또는 노래) 중인지 아니면 종료되었는지 판단한다.(단계 170)
상기 단계 170에서, 노래반주기(100)의 곡의 연주가 종료되었다고 판단되면, 상기 노래반주기(100)와 연결된 디스플레이(30)로 점수계산부(13)에서 채점한 점수를 출력한다.(단계 180)
한편, 상기 단계 150에서, 가사 음성 처리 데이터와 상기 단계 110에서 추출한 데이터의 비교 분석은, 가사 표출(페인팅) 구간과 비가사 표출 구간으로 구분하고, 각 구간의 표출(페인팅)되는 시간을 계산하여 이루어진다.
즉, 상기 음성인식 처리부(11)에서, 도 3에 도시된 바와 같이 마이크(20)로 입력되는 가사 음성을 인식하고 처리하는 방법의 제1실시예로, 입력되는 가사 표출(페인팅) 구간을 글자(1-12)별로 가사 음성을 인식한다.
그리고 도 4에 도시된 바와 같이 마이크(20)로 입력되는 가사 음성을 인식하고 처리하는 방법의 제2실시예로, 입력되는 가사 표출(페인팅) 구간을 제1실시예와 같이 글자가 아닌 단어와 마디(1-4)별로 가사 음성을 인식할 수도 있다.
또한 도 5에 도시된 바와 같이 마이크(20)로 입력되는 가사 음성을 인식하고 처리하는 방법의 제3실시예로, 가사 표출(페인팅) 미 구간(1-5)(a)의 가사 음성을 인식한다.
그리고 도 6에 도시된 바와 같이, 상기 가사 데이터 분석부(12)와 점수계산부(13)에서 가사 음성 데이터의 비교 분석 및 점수 계산은, 1-21 가사 표출(페인팅) 구간(글자, 단어, 마디, 가사 미출력 구간) 설정에 따른 상기한 도 3 내지 도 5의 제1,2,3실시예의 가사 음성 인식 결과에 따른 점수를 계산한다.
또한 상기 단계 180에서, 디스플레이(30)로 점수 출력시, 점수와 함께 가사 표출(페인팅)의 음성인식 결과를 가사의 글자, 단어, 마디별로의 채점 결과를 도 3 내지 도 6과 같은 방법으로 디스플레이(30)에 표시할 수도 있다. 따라서 노래 점수 채점에 대한 흥미도 및 신뢰도를 높일 수 있다.
상술한 바와 같이 본 발명은 도면에 도시된 일 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 보호 범위는 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.
10. 음성처리 채점장치
11. 음성인식 처리부
12. 가사데이터 분석부
13. 점수계산부
20. 마이크
30. 디스플레이
52. A/D컨버터
55. 가사 데이터 저장부
57. 제어부
100. 노래반주기

Claims (5)

  1. 삭제
  2. (a) 노래반주기에서 출력되는 곡의 가사 및 표출(페인팅) 시간을 상기 노래반주기에서 추출하는 단계와;
    (b) 출력되는 곡이 가사 구간인지 비가사 구간인지를 판단하는 단계와;
    (c) 상기 단계 (b)에서, 가사 구간 및 비가사 구간을 판단하여 상기 노래반주기에 연결된 마이크로 입력되는 데이터를 취득하는 단계와;
    (d) 상기 단계 (c)에서 데이터의 취득이 완료되었는지 판단하는 단계와;
    (e) 상기 단계 (d)에서 데이터의 취득이 완료되었다고 판단되는 경우, 상기 단계 (c)에서 취득한 데이터 중 곡의 가사 음성을 인식하여 처리하고, 처리한 데이터와 상기 단계 (a)에서 추출한 데이터를 비교 분석하여 상호 매칭 정도를 판정하며, 판정된 결과에 따라 점수를 계산하는 단계와;
    (f) 상기 단계 (e)에서 계산한 점수를 누적하는 단계와;
    (g) 상기 노래반주기에서 곡의 연주가 종료되었는지 판단하는 단계와;
    (h) 상기 단계 (g)에서, 곡의 연주가 종료되었다고 판단되면, 상기 노래반주기와 연결된 디스플레이로 점수를 출력하는 단계;를 포함하되,
    상기 가사 추출, 상기 가사 구간의 판단 및 가사 음성 처리는, 가사의 글자, 단어 및 마디 별로 구분하여 수행하고,
    그리고, 상기 단계 (e)에서, 상기 음성 인식 처리 데이터와 상기 단계 (a)에서 추출한 데이터의 비교 분석은, 가사 표출(페인팅) 구간과 비가사 표출 구간으로 구분하고, 각 구간의 표출(페인팅)되는 시간을 계산하여 이루어지며,
    또한, 상기 단계 (h)에서, 상기 디스플레이로 점수 출력시, 가사 표출(페인팅)의 음성인식 결과를 가사의 글자, 단어, 마디별 채점 결과를 상기 디스플레이에 표시하는 것을 특징으로 하는 가사 음성 인식이 가능한 노래반주기 제어방법.
  3. 삭제
  4. 삭제
  5. 삭제
KR1020110002426A 2011-01-10 2011-01-10 가사 음성 인식이 가능한 노래반주기 제어방법 KR101236435B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110002426A KR101236435B1 (ko) 2011-01-10 2011-01-10 가사 음성 인식이 가능한 노래반주기 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110002426A KR101236435B1 (ko) 2011-01-10 2011-01-10 가사 음성 인식이 가능한 노래반주기 제어방법

Publications (2)

Publication Number Publication Date
KR20120080942A KR20120080942A (ko) 2012-07-18
KR101236435B1 true KR101236435B1 (ko) 2013-02-21

Family

ID=46713348

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110002426A KR101236435B1 (ko) 2011-01-10 2011-01-10 가사 음성 인식이 가능한 노래반주기 제어방법

Country Status (1)

Country Link
KR (1) KR101236435B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110610721B (zh) * 2019-09-16 2022-01-07 上海瑞美锦鑫健康管理有限公司 一种基于歌词演唱准确度的检测系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010082407A (ko) * 2001-05-21 2001-08-30 김길호 음정교정을 유도하는 노래반주 방법.
KR20040106984A (ko) * 2003-06-10 2004-12-20 엘지전자 주식회사 가라오케 광디스크의 재생제어장치 및 방법
JP2008052302A (ja) * 2007-11-05 2008-03-06 Yamaha Corp カラオケ装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010082407A (ko) * 2001-05-21 2001-08-30 김길호 음정교정을 유도하는 노래반주 방법.
KR20040106984A (ko) * 2003-06-10 2004-12-20 엘지전자 주식회사 가라오케 광디스크의 재생제어장치 및 방법
JP2008052302A (ja) * 2007-11-05 2008-03-06 Yamaha Corp カラオケ装置

Also Published As

Publication number Publication date
KR20120080942A (ko) 2012-07-18

Similar Documents

Publication Publication Date Title
US10789290B2 (en) Audio data processing method and apparatus, and computer storage medium
JP6596376B2 (ja) 話者識別方法及び話者識別装置
US8249870B2 (en) Semi-automatic speech transcription
US8620665B2 (en) Method and system of speech evaluation
JP5200712B2 (ja) 音声認識装置、音声認識方法及びコンピュータプログラム
CN104992712B (zh) 能识别音乐自动成谱的方法
JPWO2005069171A1 (ja) 文書対応付け装置、および文書対応付け方法
Molina et al. Fundamental frequency alignment vs. note-based melodic similarity for singing voice assessment
CN112992109B (zh) 辅助歌唱系统、辅助歌唱方法及其非瞬时计算机可读取记录媒体
KR101325722B1 (ko) 사용자 입력 노래에 대응한 악보 생성 장치와 그 방법
JP2020003536A (ja) 学習装置、自動採譜装置、学習方法、自動採譜方法及びプログラム
JP4906776B2 (ja) 音声制御装置
JP4479701B2 (ja) 楽曲練習支援装置、動的時間整合モジュールおよびプログラム
CN105895079B (zh) 语音数据的处理方法和装置
Ryynanen et al. Automatic bass line transcription from streaming polyphonic audio
Lee et al. Word level lyrics-audio synchronization using separated vocals
KR101236435B1 (ko) 가사 음성 인식이 가능한 노래반주기 제어방법
JP2006155157A5 (ko)
CN101488128B (zh) 基于旋律印记的音乐搜索方法和系统
JP2008040260A (ja) 楽曲練習支援装置、動的時間整合モジュールおよびプログラム
CN115394317A (zh) 一种音频评测方法和装置
KR20170124854A (ko) 음성/비음성 구간 검출 장치 및 방법
JP6150276B2 (ja) 発声評価装置、発声評価方法、及びプログラム
CN111339350B (zh) 数据处理方法、装置、存储介质及电子设备
JP4408205B2 (ja) 話者認識装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180202

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190201

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200203

Year of fee payment: 8