KR102134990B1 - 주파수 섹션 분석을 통한 음성 트레이닝 시스템 - Google Patents

주파수 섹션 분석을 통한 음성 트레이닝 시스템 Download PDF

Info

Publication number
KR102134990B1
KR102134990B1 KR1020190010670A KR20190010670A KR102134990B1 KR 102134990 B1 KR102134990 B1 KR 102134990B1 KR 1020190010670 A KR1020190010670 A KR 1020190010670A KR 20190010670 A KR20190010670 A KR 20190010670A KR 102134990 B1 KR102134990 B1 KR 102134990B1
Authority
KR
South Korea
Prior art keywords
voice
information
voice signal
signal
user
Prior art date
Application number
KR1020190010670A
Other languages
English (en)
Inventor
오은실
Original Assignee
오은실
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오은실 filed Critical 오은실
Priority to KR1020190010670A priority Critical patent/KR102134990B1/ko
Application granted granted Critical
Publication of KR102134990B1 publication Critical patent/KR102134990B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 주파수 섹션 분석을 통한 음성 트레이닝 시스템에 관한 것으로, 사용자의 음성 신호를 인식하여, 사용자의 음성 정보를 획득하는 음성 인식 모듈과 음성 인식 모듈과 연동되는 사용자 단말기와 사용자 단말기로부터 음성 정보를 수신하고, 음성 정보를 음성 신호로 취득하여 샘플링하며, 미리 저장되어 있는 음성 시그널을 샘플링하여, 샘플링 된 음성 신호와 샘플링 된 미리 저장되어 있는 음성 시그널을 상호 매핑하여 비교한 후, 사용자 단말기를 통해 가이드 정보를 제시하는 사용자 단말기를 통해 시각적으로 사용자 음성의 문제점을 제시하고 사용자가 객관적으로 자신의 음성을 분석할 수 있어, 본 발명을 사용하는 사용자는 전문적인 학교나 학원, 인물의 도움 없이도 시간과 공간에 제약을 받지 않고 음성 트레이닝을 할 수 있다.

Description

주파수 섹션 분석을 통한 음성 트레이닝 시스템{Voice training system by analyzing section of frequency}
본 발명은 음성 트레이닝 시스템에 관한 것으로서, 보다 자세하게는, 가다듬고자 하는 사용자의 보이스를 취득하여, 취득한 보이스와 미리 저장된 음성 정보와 특정 인물의 음성 정보의 주파수 섹션 분석을 통해, 사용자에게 음성의 문제점과 가이드 정보를 제공하기 위한, 음성 트레이닝 시스템에 관한 기술분야이다.
대한민국을 넘어 세계의 주요 관심사가 아이돌에 휩싸여 있다. 그 만큼 한류열풍은 국내연예산업 발전의 성장 동력이자 경제의 한 축으로 자리잡고 있는 셈이다.
가수는 물론 배우, 탤런트까지 섭렵하면서 연예인이란 직업이 각광받고 있다. 이에 연예인 지망생수도 이미 100만명을 넘어선지 오래다. 그 만큼 엔터테인먼트 산업 성장가능성에 대한 기대감도 커지고 있다.  한국 엔터테인먼트 산업은 2013년 기준 18조 원, 세계 8위의 큰 시장 규모를 갖추고 있다(KAIST 글로벌 엔터테인먼트 산업 경쟁력 보고서 2015 기준). 한국의 GDP(13위)나 무역액(9위)보다 높은 수치다. 콘텐츠의 질을 높이고 세계 시장을 개척한 결과, 한국 엔터테인먼트 산업은 폭발적으로 성장하고 있다. 이 같은 '드라마틱한' 성장을 이끌었던 건 뛰어난 인재가 이 산업의 가능성을 보고 적극적으로 뛰어들었기 때문에 가능했던 일이기도 했다.
시간이 지날수록, 연예엔터테인먼트 시장이 커짐에 따라 이를 동경하여 연예인을 지망하는 연예인 지망생 또한 점점 증가하고 있다.
하지만, 많은 시간과 비용을 투자하고도 실제 연예인의 꿈을 이루지 못하는 경우가 비일비재한 것이 현실이다.
트레이닝 시스템에 관한 기술적인 시도는 여러 존재해 왔었는데, 그 중 대표적으로는 "음성 품질 평가 방법 및 시스템 (공개번호 제10-2008-0028384호, 이하 특허문헌 1이라 한다.)"이 존재한다.
특허문헌 1의 경우, 수신된 음성 신호의 왜곡은 주관적인 품질 평가 데이터에 기초하여 트레이닝 된 적어도 하나의 모델을 이용하여 추정된다. 그 후, 수신된 음성 신호에 대한 음성 품질 평가는 추정된 왜곡에 기초하여 결정된다.
마찬가지로 "스마트 기기를 이용한 목소리 트레이닝 서비스 제공 방법 (공개번호 제10-2013-0112581호, 이하 특허문헌 2라 한다.)"도 존재한다.
특허문헌 2의 경우, 스마트 기기를 이용한 목소리 트레이닝 서비스 제공 방법에 관한 것으로서, 보다 구체적으로는 목소리 트레이닝 서비스를 제공하는 서비스 제공 서버가, (1) 스마트 기기에 문장을 제공하고 음성 정보 입력을 요청하는 단계; (2) 상기 스마트 기기로부터 상기 제공한 문장에 대응하는 사용자의 음성 정보를 입력 받는 단계; (3) 상기 입력 받은 음성 정보를 분석하여 사용자 목소리의 문제점을 추출하는 단계; 및 (4) 상기 추출한 문제점 및 상기 문제점의 해결을 위한 목소리 트레이닝 정보를 상기 스마트 기기에 제공하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
발명에서 제안하고 있는 스마트 기기를 이용한 목소리 트레이닝 서비스 제공 방법에 따르면, 서비스 제공 서버가 스마트 기기에 문장을 제공하고 제공한 문장에 대응하는 사용자의 음성 정보를 입력 받아, 음성 정보를 분석하여 사용자 목소리의 문제점을 추출하여 제공함으로써, 사용자가 자신의 목소리를 객관적으로 분석하고 전문적으로 문제를 파악하여 고칠 수 있도록 한다.
또한, 발명에 따르면, 서비스 제공 서버가 문제점의 해결을 위한 목소리 트레이닝 정보를 스마트 기기에 제공함으로써, 문제점 파악에 그치지 않고 사용자가 목소리를 트레이닝 하여 변화시킬 수 있으며, 변화하는 목소리를 녹음하여 들을 수 있기 때문에 목소리 트레이닝에 따른 목소리의 변화를 청각적으로 확인할 수 있다.
또한, "음성분석을 통한 해양 선박 운항자의 비정상적인 심리상태 분석 시스템 (등록번호 제10-1193958호, 이하 특허문헌 3이라 한다.)"도 존재한다.
특허문헌 3의 경우, 음성분석을 통한 해양 선박 운항자의 비정상적인 심리상태 분석 시스템에 관한 것으로; 선박 운항자가 무선 음성 통신을 하기 위해 선박에 구비되는 선박용 단말기와, VTS센터 또는 경비정에 구비되어 상기 선박용 단말기와 음성 신호의 무선 송수신을 수행하는 관제용 단말기와, 상기 관제용 단말기로 수신되는 상기 선박용 단말기의 음성 신호를 분석하여 선박에 탑승중인 선박 운항자가 비정상적인 심리상태인지 여부를 판별하는 음성분석기로 구성되는 것을 특징으로 한다. 발명에 따르면, 선박 운항자의 음성 파형만을 분석하여 비정상적인 심리상태인지 여부를 판별하여 불안정한 심리상태로 판정되는 경우 이를 선박 운항자의 음주나 마약 복용 또는 선박 납치 등의 위급한 상태로 판단하여 선별적으로 경비정을 투입하여 신속한 단속 및 대응을 할 수 있도록 함으로서 해양사고의 예방 및 제 비용 고효율의 해상질서를 확립할 수 있다.
또한, "통화 음성을 분석하는 통신 단말기 (공개번호 제10-2018-0034927호, 이하 특허문헌4라 한다.)"도 존재한다.
특허문헌 4의 경우, 전화 통화 시의 통화자들의 통화 음성을 분석하여 통화자들의 감정에 따른 컨텐츠를 제공하는 통화 음성을 분석하는 통신 단말기에 관한 것이다.
발명의 통신 단말기는 사용자로부터의 입력을 획득하는 입력부와, 통신 단말기의 고유 기능(예를 들면, 전화통신, 컨텐츠 재생, 인터넷 검색 등)을 위한 사용자 인터페이스와 컨텐츠를 표시하는 표시부와, 음향을 표출하는 스피커와, 음향을 획득하는 마이크와, 외부의 통신 단말기, 통신 시스템, 통신 서버 등(통신 기기로 통칭됨)과 유선 및/또는 무선 통신을 수행하는 통신부와, 전화 번호 정보, 컨텐츠(예를 들면, 음악 데이터, 동영상/정지 영상 데이터 등), 통화 음성 등을 저장하는 저장부와, 통화 음성을 분석하여 특징 벡터(입력 벡터)를 추출하는 신호 처리부와, 특징 벡터를 입력 받아 통화자의 감정을 인식하는 감정 인식부와, 상술된 구성요소들을 제어하여 통신 단말기의 고유 기능을 수행하면서, 신호 처리부와 감정 인식부에 의해 통화 중의 통화자의 통화 음성에서 분석되어 인식된 감정 정보(감정 출력)를 획득하여, 인식된 감정을 기준으로 컨텐츠의 종류를 선택하여 표시부 및/또는 스피커를 통하여 제공하는 제어부로 구성된다.
그러나, 이들 특허문헌의 경우, 음성을 분석하는 기술만 존재하거나 어떤 방식으로 연예인 지망생의 음성 방법을 교정할 것인지, 실제 연습을 어떤 방법으로 제시할지에 대해 기술적 사상을 개시하지 못하고 있다.
공개번호 제10-2008-0028384호 공개번호 제10-2013-0112581호 등록번호 제10-1193958호 공개번호 제10-2018-0034927호
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템은 상기한 바와 같은 종래 문제점을 해결하기 위해 안출된 것으로서, 다음과 같은 해결하고자 하는 과제를 제시한다.
본 발명은 사용자의 음성 정보를 시스템에 제공하고 제공받은 음성 정보에서 음성 신호를 획득하여, 음성 신호를 분석하여 사용자 음성의 문제점을 시각적으로 제공함으로써, 사용자가 자신의 음성을 객관적으로 분석하고 문제를 파악하여 해결할 수 있도록 하는, 주파수 섹션 분석을 통하여 음성을 트레이닝 하는 것을 목적으로 한다.
본 발명의 해결 과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템은, 상기의 해결하고자 하는 과제를 위하여 다음과 같은 과제 해결 수단을 가진다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템으로, 상기 사용자의 음성 정보를 획득하는 음성 인식 모듈; 상기 음성 인식 모듈과 연동되는 사용자 단말기; 및 상기 사용자 단말기로부터 상기 음성 정보를 수신하고, 상기 음성 정보를 음성 신호로 취득하여 샘플링 하며, 미리 저장되어 있는 음성 시그널을 샘플링 하여, 샘플링 된 상기 음성 신호와 샘플링 된 상기 미리 저장되어 있는 음성 시그널을 상호 매핑하여 비교한 후, 상기 사용자 단말기를 통해 가이드 정보를 제시하는 트레이닝 모듈(training module)을 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 상기 트레이닝 모듈은, 샘플링 된 상기 음성 신호와 샘플링 된 상기 미리 저장되어 있는 음성 시그널은 상호 소정의 범위마다 매핑(mapping)되어 비교되어, 샘플링 된 상기 음성 신호의 크기와 샘플링 된 상기 미리 저장되어 있는 음성 시그널의 크기를 상호 비교하여, 상기 음성 신호를 진단하는 것을 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 상기 소정의 범위는, 상기 음성 정보와 상기 미리 저장되어 있는 음성 시그널 각각의, 초성 신호의 진폭 정보, 초성 신호의 주파수 정보, 중성 신호의 진폭 정보, 중성 신호의 주파수 정보, 헛숨 신호의 진폭 정보, 헛숨 신호의 주파수 정보, 종성 신호의 진폭 정보 또는 종성 신호의 주파수 중 적어도 하나 이상을 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 상기 트레이닝 모듈은, 상기 음성 인식 모듈로부터 획득한 상기 사용자의 상기 음성 정보를 인식하는 음성 인식부; 상기 음성 인식부에서 인식한 상기 음성 정보를 수신하며, 음성 정보를 주파수 형태인 상기 음성 신호로 취득하는 웨이브 게인(wave gain)부; 및 상기 웨이브 게인부가 취득한 상기 음성 신호를 수신하여, 상기 미리 저장되어 있는 음성 시그널과 비교하는 웨이브 컴페어(wave compare)부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 상기 트레이닝 모듈은, 비교된 상기 사용자의 음성 신호와 상기 미리 저장되어 있는 음성 시그널을 각각 상기 소정의 범위로 분할하고 샘플링(sampling)하여, 상기 소정의 범위의 상기 음성 신호의 주파수를 측정하는 섹션 분석부; 상기 사용자의 상기 음성 신호와 상기 미리 저장되어 있는 음성 시그널을 오버랩하여 상기 소정의 범위의 상기 음성 신호의 진폭을 측정하는 피치 분석부; 및 상기 사용자 단말기를 통해 상기 사용자에게 상기 가이드 정보를 제공하는 솔루션 오퍼(solution offer)부를 더 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 상기 솔루션 오퍼부는, i) 상기 주파수 정보와 상기 진폭 정보를 수신하여, 상기 미리 저장되어 있는 음성 시그널과 함께 상기 사용자 단말기에 디스플레이 되도록 하며, ii-1) 상기 사용자에 의해 상기 사용자 단말기 상에서 디스플레이 되는 상기 음성 신호의 진폭 범위가 선택되면, 선택된 상기 진폭 범위가 상기 사용자 단말기 상에서 확대되어 디스플레이 되며, ii-2) 상기 사용자에 의해 상기 사용자 단말기 상에서 디스플레이 되는 음성 신호의 주파수 범위를 선택되면, 선택된 상기 주파수 범위가 상기 사용자 단말기 상에서 확대되어 디스플레이 되는 것을 특징으로 할 수 있다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 상기 트레이닝 모듈은, 상기 음성 신호와 상기 미리 지정되어 있는 음성 데이터를 각각 샘플링(sampling)하며, 샘플링 된 상기 음성 신호와 샘플링 된 상기 미리 지정되어 있는 음성 데이터를 시간 순으로 나열하고, 상호 일치하는 신호를 백분율하는 웨이브 디버트부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 상기 트레이닝 모듈은, 상기 음성 인식 모듈이 취득한 상기 음성 시그널을 소정의 영역별로 분할하고, 상기 소정의 영역별로 분할된 상기 음성 시그널을 물리적으로 분할된 공간에 개별적으로 저장하는 데이터 백업부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 상기 데이터 백업부는, 상기 소정의 영역을 상기 음성 시그널을 시간의 순서대로 초성 영역, 중성 영역 및 종성 영역으로 3분할하여 설정하는 영역 분할부; 상기 영역 분할부가 분할한 상기 초성 영역, 상기 중성 영역 및 상기 종성 영역 각각에 상이한 코드를 부여하는 코드 할당부; 소정의 시간 간격으로 랜덤 변수(random variable)를 발생시키며, 상기 소정의 시간 간격 동안 상기 복수 개의 개별 부위 정보에 부여된 상기 복수 개의 상이한 코드 각각에 동일한 랜덤 변수를 공유시키는 난수 제너레이팅부; 및 상기 복수 개의 개별 부위 정보를 물리적으로 분할된 데이터베이스 각각에 분산하여 저장하도록 하는 분산 저장부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 상기 영역 분할부는, 상기 초성 영역, 상기 중성 영역 및 상기 종성 영역을 이루는 각각의 시간 견격을 균등하게 배분하는 것을 특징으로 할 수 있다.
이상과 같은 구성의 본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템은 다음과 같은 효과를 제공한다.
트레이닝 서버가 사용자 단말기에 사용자의 음성 정보를 수신하고, 음성 정보에서 시스템에서 분석가능한 음성 신호로 취득하여 분석되고, 사용자 음성에 대한 해결점을 제공함으로써, 사용자가 자신의 음성에 대해 시각적으로 문제점을 제공받고 사용자는 객관적으로 문제점을 분석하고 문제를 해결하여 시간이나 금전적 손실을 줄일 수 있다.
또한, 본 발명에 따르면, 트레이닝 서버가 해결점을 사용자 단말기에 제공함으로써, 해결점 파악에 그치지 않고 사용자 음성과 오차율이 적은 특정 인물의 대본이나 노래 등이 포함된 트레이닝 시스템을 제공하기 때문에, 음성 연습을 하면서 연기 연습이나 개인기 연습 등을 실시할 수 있다.
본 발명의 효과는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템을 도시한 개념도이다.
도 2는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템을 구성하는 트레이닝 모듈을 도시한 블럭도이다.
도 2a는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 음성 인식부와 웨이브 게인부의 기능을 도시한 개념도이다.
도 2b는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 웨이브 컴페어부의 기능을 도시한 개념도이다.
도 2c는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 섹션 분석부의 기능을 도시한 개념도이다.
도 2d는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 피치 분석부의 기능을 도시한 개념도이다.
도 2e는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 웨이브 디버트부의 기능을 도시한 개념도이다.
도 3은 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 웨이브 컴페어부에서 사용자의 음성 신호와 일정한 범위 내에서 매칭 되는 미리 저장되어 있는 음성 시그널의 정보를 도시한 표이다.
도 4는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 솔루션 오퍼부가 사용자에게 가이드 정보를 제공하는 개념도이다.
도 5는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 특정 인물의 정보와 매칭되어 사용자에게 특정 인물의 대본 정보와 악보 정보를 제공하는 개념도이다.
도 6은 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 가이드 정보를 스마트폰으로 제공받는 예시도이다.
도 7은 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템에 의해 제공되는 음성 정보와 미리 저장되어 있는 음성 시그널을 확대하는 예시도이다.
도 8은 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템에 의해 특정인물의 정보를 스마트폰으로 제공받는 예시도이다.
도 9는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 일 구성요소인 데이터 백업부의 블록도이다.
도 10은 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 데이터 백업부의 영역 분할부가 음성 시그널을 분할하는 소정의 영역별로 분할하는 것을 도시한 개념도이다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 기술적 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
도 1은 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템을 도시한 개념도이다. 도 2는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템을 구성하는 트레이닝 모듈을 도시한 개념도이다. 도 2a는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 음성 인식부와 웨이브 게인부의 기능을 도시한 개념도이다. 도 2b는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 웨이브 컴페어부의 기능을 도시한 개념도이다. 도 2c는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 섹션 분석부의 기능을 도시한 개념도이다. 도 2d는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 피치 분석부의 기능을 도시한 개념도이다. 도 2e는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 웨이브 디버트부의 기능을 도시한 개념도이다. 도 3은 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 웨이브 컴페어부에서 사용자의 음성 신호와 일정한 범위 내에서 매칭 되는 미리 저장되어 있는 음성 시그널의 정보를 도시한 표이다. 도4는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 솔루션 오퍼부가 사용자에게 가이드 정보를 제공하는 개념도이다. 도5는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 특정 인물의 정보와 매칭되어 사용자에게 특정 인물의 대본 정보와 악보 정보를 제공하는 개념도이다. 도 6은 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 가이드 정보를 스마트폰으로 제공받는 예시도이다. 도 7은 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템에 의해 제공되는 음성 정보와 미리 저장되어 있는 음성 시그널을 확대하는 예시도이다. 도 8은 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템에 의해 특정인물의 정보를 스마트폰으로 제공받는 예시도이다. 도 9는 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 일 구성요소인 데이터 백업부의 블록도이다. 도 10은 본 발명의 바람직한 일 실시예에 따른, 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 데이터 백업부의 영역 분할부가 음성 시그널을 분할하는 소정의 영역별로 분할하는 것을 도시한 개념도이다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템은 도1에서 도시된 바와 같이, 기본적으로 본 발명에서 개시하고자 하는 기능들을 수행하는 트레이닝 모듈(training module) (100), 음성 인식 모듈(200), 사용자 단말기(300)를 포함할 수 있다.
트레이닝 모듈(100)은 음성 트레이닝 정보를 제공하는 서버, 시스템 등 일 수 있다. 트레이닝 모듈(100)은 미리 저장되어 있는 음성 시그널(30)과 미리 지정되어 있는 음성 데이터(40)를 구비하여 음성 분석 또는 음성 트레이닝에 효과적인 음성 데이터를 저장할 수 있다. 또한 음성 신호(20) 및 미리 저장되어 있는 음성 시그널(30)과 미리 지정되어 있는 음성 데이터(40)의 주파수, 신호의 진폭, 신호의 주파수 등을 분석하여 저장할 수도 있으며, 음성 신호를 성별이나 연령에 따라 분류하여 분석할 수도 있다.
한편, 트레이닝 모듈(100)은 인터넷, 인트라넷, 유무선 통신망, 이동통신망 등을 포함하는 네트워크를 통하여 음성 인식 모듈(100) 및 사용자 단말기(300)의 접속을 허용하고, 음성의 해결점이나 음성 트레이닝 정보와 같은 각종 신호 및 데이터를 송수신할 수 있다.
음성 인식 모듈(200)은 트레이닝 모듈(100)이 제공하는 음성 트레이닝 서비스를 이용하는 사용자의 마이크, 헤드셋, 이어폰 등 일 수 있다. 다만 본 발명의 음성 인식 모듈(200)이 나열한 바와 같은 모듈의 형태에 한정되는 것은 아니며 인터넷, 인트라넷, 유무선 통신망, 이동통신망 등을 포함하는 네트워크를 통하여 트레이닝 모듈(100)과 사용자 단말기(300)에 사용자의 음성 정보와 같은 각종 신호 및 데이터를 송수신할 수 있다면, 구체적인 형태에 관계없이 본 발명에서의 음성 인식 모듈(200)의 역할을 얼마든지 할 수 있다.
사용자 단말기(300)는 트레이닝 모듈(100)이 제공하는 음성 트레이닝 서비스를 이용하는 사용자의 단말기일 수 있다. 즉, 사용자는 음성 인식 모듈에서 인식한 사용자의 음성 신호를 사용자 단말기(300)를 이용하여 음성 정보를 트레이닝 모듈(300)에 전송하고, 트레이닝 모듈(300)이 제공하는 음성 문제점 및 음성 트레이닝 정보를 이용하여 사용자의 음성을 트레이닝하고 개선할 수 있으며, 음성의 변화를 사용자 단말기(300)에 디스플레이 하여 시각적으로 확인할 수도 있다.
사용자 단말기(300)는 스마트폰, 스마트 노트, 태블릿 PC, 노트북, 데스크탑, 스마트 TV 등일 수 있다. 다만 본 발명의 사용자 단말기(300)가 나열한 바와 같은 단말기의 형태에 한정되는 것은 아니며, 인터넷, 인트라넷, 유무선 통신망, 이동 통신망 등을 포함하는 네트워크를 통해 트레이닝 모듈(100)과 음성 인식 모듈(200)에 접속하여 사용자의 음성 정보를 송수신하고 음성의 문제점 및 음성 트레이닝 정보를 송수신 받을 수 있다면, 구체적인 단말기의 형태에 관계없이 본 발명에서의 사용자 단말기(300)의 역할을 얼마든지 할 수 있다,
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템은 도 2a부터 도2d에 도시된 바와 같이, 사용자의 음성 신호(20)를 취득하고 취득된 사용자의 음성 신호(20)는 본 발명의 시스템에 미리 저장되어 있는 음성 시그널(30)과 소정의 범위로 분할된다. 분할된 음성 신호(20)와 미리 저장되어 있는 음성 시그널(30)은 샘플링 되고 분석되며 사용자의 음성 신호를 진단하게 된다. 이 때, 소정의 범위는 음성 신호(20)와 미리 저장되어 있는 음성 시그널(30)의 초성 신호의 진폭 정보, 초성 신호의 주파수 정보, 중성 신호의 진폭 정보, 중성 신호의 주파수 정보, 헛숨 신호의 진폭 정보, 헛숨 신호의 주파수 정보, 종성 신호의 진폭 정보 또는 종성 신호의 주파수 중 하나 이상을 포함하는 것으로 미리 저장되어 있는 음성 시그널(30)에 사용자의 음성 신호(20)가 일치하는지 일치하지 않는지 비교 분석하여 사용자의 음성을 진단할 수 있다.
이를 위하여, 본 발명에 따른 주2에 도시된 바와 같이, 기본적으로 본 발명에서 개시하고자 하는 기능들을 수행하는 파수 섹션 분석을 통한 음성 트레이닝 시스템의 트레이닝 모듈(100)은 도 음성 인식부(110), 웨이브 게인(wave gain)부(120), 웨이브 컴페어(wave compare)부(130), 섹션 분석부(140), 피치 분석부(150), 웨이브 디버트(wave divert)부(160), 솔루션 오퍼(solution offer)부(170)를 포함할 수 있다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 음성 인식부(110)와 웨이브 게인부(120)는 도 2a에 도시된 바와 같이, 사용자가 음성 인식 모듈(200)에 음성 연습을 시작하면, 음성 인식 모듈(200)과 사용자 단말기(300)는 사용자의 음성 정보(10)를 취득하여 트레이닝 모듈(100)에 송신하고, 송신된 사용자의 음성 정보(10)는 트레이닝 모듈(100) 내부의 음성 인식부(110)가 인식하게 된다. 인식된 사용자의 음성 정보(10)는 웨이브 게인부(120)에서 트레이닝 모듈(100)이 분석 가능한 음성 신호(20)로 취득하게 된다. 여기서 음성 신호(20)는 초성 신호의 진폭 정보, 초성 신호의 주파수 정보, 중성 신호의 진폭 정보, 중성 신호의 주파수 정보, 헛숨 신호의 진폭 정보, 헛숨 신호의 주파수 정보, 종성 신호의 진폭 정보 또는 종성 신호의 주파수 중 하나 이상으로 구성된 것일 수 있다. 초성 신호와 중성 신호 종성 신호는 사용자가 특정 단어를 발음할 때 발생하며, 헛숨 정보는 사용자가 특정 단어를 발음하고 자연스러운 호흡과 상관없이 숨을 내쉴 때 발생한다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 트레이닝 모듈(100)은 도 2b에 도시된 바와 같이, 웨이브 게인부에서 취득된 음성 신호(20)를 미리 저장되어 있는 음성 시그널(30)과 비교해주는 웨이브 컴페어부(130)가 있다.
사람은 모두 최저음과 최고음이 다르다. 따라서, 본 발명을 사용하는 사용자의 서로 다른 음성 신호(20)를 웨이브 컴페어부(130)에서 비교해주기 위한 비교 대상이 필요하다. 미리 저장되어 있는 음성 시그널(30)은 음성 신호(20)와 비교되며, 비교되는 미리 저장되어 있는 음성 시그널(30)은 도3의 표를 참조한다.
사용자의 음성 신호(20)가 속하는 범위의 옥타브를 선별하는 과정을 웨이브 컴페어부(130)에서 실시할 수 있다.
웨이브 게인부(120)에서 취득된 음성 신호(20)는 웨이브 컴페어부(130)에서 미리 저장되어 있는 음성 시그널(30)과 매칭되는 과정을 거친다. 사용자의 음성 신호(20)의 Hz 범위가 도3의 Hz범위 중 하나에 해당되면, 해당되는 옥타브의 따른 Hz정보가 본 발명의 시스템에서 음성 신호(20)와 비교되는 미리 저장되어 있는 음성 시그널(30)이 되는 것이다.
예를 들면, 사용자의 음성 신호(20)의 범위가 131Hz ~ 257Hz이면, 3옥타브(131 Hz ~ 247 Hz)에 속하게 되며, 이때의 3옥타브의 Hz 정보는 미리 저장되어 있는 음성 시그널(30)로 설정되어 음성 신호(20)와 비교되는 정보가 되는 것이다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 트레이닝 모듈(100)은 도2c와 도2d에 도시된 바와 같이, 사용자의 음성 신호(20)와 미리 저장되어 있는 음성 시그널(30)을 분석하는 섹션 분석부(140)와 피치 분석부(150)를 포함한다.
본 발명은 사용자의 음정 정보(10)를 획득하고 음성 정보(10)에서 음성 신호(20)를 취득한다. 취득된 음성 신호(20)는 미리 저장되어 있는 음성 시그널(30)과 매칭되어 진폭과 주파수를 분석하게 된다.
도2c는 음성 신호(20)와 미리 저장되어 있는 음성 시그널(30)의 주파수를 분석하는 섹션 분석부(140)에 관한 것이다. 즉, 사용자 음성 신호(20)의 음역을 분석하는 구성으로 웨이브 컴페어부(130)에서 비교되어 매칭된 음성 신호(20)와 미리 저장되어 있는 음성 시그널(30)은 섹션 분석부(140)에서 각각 소정의 범위로 분할되어 샘플링(sampling)하게 된다.
샘플링 된 음성 신호(20)와 샘플링 된 미리 저장되어 있는 음성 시그널(30)은 매핑(mapping)되어 분석된다. 높은 소리는 낮은 소리에 비해 주파수가 높기 때문에 이를 참조하여, 사용자의 음성 신호(20)가 미리 저장되어 있는 음성 시그널(30)의 주파수와 상호 일치하는지 확인한 다음, 사용자의 음량이 비교 대상인 미리 저장되어 있는 음성 시그널(30)에 비해 높은지 낮은지 분석할 수 있다.
도2d는 음성 신호(20)를 미리 저장되어 있는 음성 시그널(30)에 매칭하여 신호의 진폭을 분석하는 피치 분석부(150)에 관한 것이다. 즉, 사용자 음성 신호(20)의 음의 세기를 분석하는 구성이다. 진폭이 클수록 음이 강하다는 점을 참조하여, 웨이브 컴페어부(130)에서 비교되어 매칭된 음성 신호(20) 진폭과 미리 저장되어 있는 음성 시그널(30)의 진폭은 피치 분석부(150)에서 오버랩되어 상호 일치하는지 확인한 다음, 사용자의 음의 세기가 비교 대상인 미리 저장되어 있는 음성 시그널(30)의 진폭보다 음성 신호(20)의 진폭이 크거나 작은지 분석할 수 있다.
예를 들어, 사용자가 노래 연습이나 대본 연습을 할 때, 취득된 음성 신호(20)는 음절마다 초성과 중성 그리고 종성의 진폭 정보와 주파수 정보가 발생하며 헛숨을 할 때 진폭 정보와 주파수 정보가 발생하게 된다. 음절마다 발생한 초성과 중성 그리고 종성의 진폭 정보와 주파수 정보 및 헛숨의 진폭 정보와 주파수 정보는 저장되어 있는 음성 시그널(30)의 진폭 정보와 주파수 정보와 일치하는지 일치하지 않는지 섹션 분석부(140)와 피치 분석부(150)에서 비교 분석된다. 시스템이 특정 음절에서 미리 저장되어 있는 음성 시그널(30)보다 진폭이 낮게 나오면 사용자에게 음절에서 특정 발음을 세게 하라고 제안할 수 있으며 특정 음절에서 주파수가 적게 나오면 호흡을 더 내 뱉으라고 사용자에게 제안하는 등 해결방안을 제안하는 것을 가이드 정보라고 한다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 솔루션 오퍼부(170)는 도4에서 도8에 도시된 바와 같이, 사용자의 음성 신호(20)와 미리 저장되어 있는 음성 시그널(30)을 분석하고 결과를 사용자에게 제공하며 가이드 정보를 제안한다.
도4는 주파수 섹션 분석을 통한 음성 트레이닝 시스템을 사용하는 사용자에게 솔루션 오퍼부(170)가 가이드 정보를 제공하는 도면이다. 가이드 정보는 사용자의 음성 신호(20)를 미리 저장되어 있는 음성 시그널(30)에 일치시키기 위해 사용자에게 시스템이 제안하는 정보이다.
사용자는 음성 인식 모듈(200) 및 사용자 단말기(300)를 통하여 음성 정보(10)를 트레이닝 모듈(100)에 제공하게 된다. 트레이닝 모듈(100)의 음성 인식부(110)에서 인식한 음성 정보(10)는 웨이브 게인부(120)에서 트레이닝 모듈(100) 내부에서 분석 가능한, 음성 신호(20)로 취득된다. 취득된 음성 신호(20)는 웨이브 컴페어부(130)에서 음성 신호(20)는 미리 저장되어 있는 음성 시그널(30) 중 한 개와 비교된다. 미리 저장되어 있는 음성 시그널(30)의 범위에 음성 신호(20)의 범위가 속하면 해당 음성 신호(20)가 속한 미리 저장되어 있는 음성 시그널(30)은 비교대상이 되어 음성 신호(20)를 분석하는 기준이 된다.
음성 신호(20)와 미리 저장되어 있는 음성 시그널(30)은 섹션 분석부(140)에서 소정의 범위로 분할되어 샘플링된다. 샘플링 된 음성 신호(20)와 샘플링 된 미리 저장되어 있는 음성 시그널(30)은 매핑 되어 각각 주파수를 비교한다. 음성 신호(20)의 주파수가 미리 저장되어 있는 음성 시그널(30)의 주파수와 일치하는지 일치하지 않는지 분석되며, 분석된 정보는 솔루션 오퍼부(170)로 전송한다.
또한, 피치 분석부(150)에서는 음성 신호(20)와 미리 저장되어 있는 음성 시그널(30)의 진폭을 분석하게 된다. 분석 과정은 음성 신호(20)와 미리 저장되어 있는 음성 시그널(30)을 오버랩하여 미리 저장되어 있는 음성 시그널(30)의 진폭에 오버랩한 음성 신호(20)가 일치하는지 일치하지 않는지 분석되며, 분석된 정보는 솔루션 오퍼부(170)로 전송한다.
섹션 분석부(140)에서 분석된 정보와 피치 분석부(150)에서 분석된 정보는 솔루션 오퍼부(170) 전송된다. 솔루션 오퍼부(170)는 전송받은 미리 저장되어 있는 음성 시그널(30)과 음성 신호(20)의 분석 값을 사용자에게 일치하지 않는 부분에 대해 도6에 도시된 바와 같이, 시각적으로 사용자 단말기에 디스플레이 되는 음성신호(21)와 사용자 단말기에 디스플레이 되는 미리 저장되어 있는 음성 시그널(31)을 사용자에게 제공한다. 만약 사용자가 특정 음절에 대한 문제점을 시각적으로 제공받길 원하면 도7에 도시된 바와 같이 사용자단말기에 디스플레이되는 주파수 범위와 진폭범위를 선택하면, 해당 범위가 확대되어 사용자 음성의 문제점을 더욱 세부적으로 제공받을 수 있다. 본 발명의 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 솔루션 오퍼부(170)는 사용자에게 사용자 단말기(300)에서 디스플레이 되는 사용자의 음성 신호(20)와 미리 저장되어 있는 음성 시그널(30)를 시각적으로 비교할 수 있게 할 수 있고, 자신의 음성에 대한 문제점을 확인할 수 있으며, 초성 신호의 진폭 정보, 초성 신호의 주파수 정보, 중성 신호의 진폭 정보, 중성 신호의 주파수 정보, 헛숨 신호의 진폭 정보, 헛숨 신호의 주파수 정보, 종성 신호의 진폭 정보 또는 종성 신호의 주파수 중 하나 이상을 포함하는 정보에 대해 가이드 정보를 제공받는다. 따라서, 사용자는 전문적인 학교나 학원, 인물 등의 도움을 받지 않고 음성 트레이닝을 할 수 있다.
도5는 솔루션 오퍼부(170)가 사용자에게 미리 지정되어 있는 음성 데이터(40)로부터 특정 인물에 대한 음성 신호(20)와 함께 그 인물의 대본 정보와 악보 정보 중 적어도 하나 이상을 제공하는 도면이다.
사용자는 음성 인식 모듈(200) 및 사용자 단말기(300)를 통하여 음성 정보(10)를 트레이닝 모듈(100)에 제공하게 된다. 트레이닝 모듈(100)의 음성 인식부(110)에서 인식한 음성 정보(10)는 웨이브 게인부(120)에서 트레이닝 모듈(100) 내부에서 분석 가능한, 음성 신호(20)로 취득된다. 도2e를 참조하면 사용자의 음성 신호(20)와 미리 지정되어 있는 음성 데이터(40)를 샘플링 하여 상호 일치하는 신호를 백분율하는 웨이브 디버트부(160)에 관한 것으로, 음성 신호(20)와 미리 지정되어 있는 음성 데이터(40)를 샘플링하여 이산 신호로 설정된다. 샘플링 된 음성 신호(20)와 샘플링 된 미리 지정되어 있는 음성 데이터(40)는 시간순으로 나열된다. 시간 순으로 나열된 음성 신호(20)와 미리 지정되어 있는 음성 데이터(40)의 상호 일치하는 각 신호를 백분율하여 %값을 산출한다. 이렇게 산출된 값은 도 5에 도시된 바와 같이 사용자에게 제공된다.
솔루션 오퍼부(170)는 웨이브 디버트부(160)에서 산출된 결과 값을 %가 높은 순으로 도8에 도시된 바와 같이, 사용자 단말기에 디스플레이 되는 음성 신호(21)와 사용자 단말기에 디스플레이 되는 미리 지정되어 있는 음성 데이터(41)를 함께 사용자에게 시각적으로 제공하고, %가 높은 순으로 특정인물의 대본 정보와 악보 정보 중 적어도 하나 이상을 사용자에게 제공할 수 있다.
이때, 미리 지정되어 있는 음성 데이터(40)는 특정 연예인에 관한 정보로 특정 연예인의 음역에 따른 주파수 정보와 함께 사용자에게 제공되는 특정 연예인이 활동한 드라마의 대본이나 노래 악보 중 하나 이상을 포함하는 데이터일 수 있다.
본 발명에 따른 주파수 섹션 분석을 통한 음성 트레이닝 시스템의 트레이닝 모듈(100)의 경우, 데이터 백업부(180)를 포함할 수 있다.
데이터 백업부(180)의 경우, 음성 인식 모듈(200)이 취득한 음성 시그널을 소정의 영역별로 분할하고, 이러한 소정의 영역별로 분할된 음성 시그널을 물리적으로 분할된 공간인 데이터베이스(184a~184n)에 각각 개별적으로 저장하는 기능을 수행한다.
여기서 데이터베이스(184a~184n)들의 경우, 도 9에 도시된 바와 같이, 복수 개의 데이터베이스(database)들의 집합체로 이루어지며, 이들 데이터베이스(database)들의 경우, 물리적으로 분할된 상태의 것으로 이루어지는 것이 바람직하다.
도 9에 도시된 바와 같이, 데이터 백업부(180)의 경우, 영역 분할부(181), 코드 할당부(182), 난수 제너레이팅부(183) 및 분산 저장부(184)를 포함할 수 있다.
먼저, 영역 분할부(181)의 경우, 도 9 및 10에 도시된 바와 같이, 음성 시그널의 각 영역을 시간의 순서에 따른 영역별로 구역을 할당하는데, 이러한 구역이 설정된 부위 각각을 복수 개의 개별 영역 정보로 설정하게 된다.
개별 영역 정보는 도 10에 도시된 바와 같이, Z1, Z2, Z3 등으로 이루어질 수 있다.
이러한 개별 영역 정보는 음성 시그널을 적어도 두 개 이상 분리 분할하도록 하는 것이 바람직하다.
코드 할당부(182)의 경우, 영역 분할부(181)가 상술한 바와 같이 분할한 복수 개의 개별 영역 정보에 상이한 코드(code)를 부여하게 된다.
이러한 코드는 일종의 ID와 같은 것으로서, 일 예로 들면, Z1에는 sff324, Z2에는 sga235, Z3에는 sdf 342 등의 코드를 부여하게 된다.
이후, 이들 개별 영역 정보인 각각의 Z1 내지 Z3 들은 개별적인 물리공간인 데이터베이스들에 각각 나뉘어 저장되는데, 저장되기 전에 난수 제너레이팅부(183)이 이들 개별 영역 정보의 코드 즉, Z1에는 sff324, Z2에는 sga235, Z3에는 sdf 342 각각에 동일한 랜던 변수를 소정시간 동안 공유시키게 된다.
예컨대, i) 14시 10분 00초부터 14시 10분 20초 사이에는 이들 Z1의 코드 sff324, Z2의 코드 sga235, Z3의 코드 sdf 342 각각에 동일한 랜덤 변수 agsdagsdf3456436를 공유시키며, ii) 14시 10분 20초부터 14시 10분 40초 사이에는 이들 Z1의 코드 sff324, Z2의 코드 sga235, Z3의 코드 sdf 342 각각에 동일한 랜덤 변수 dafdfrehh8643489를 공유시키게 된다. 이후 반복된다.
어느 순간에 음성 시그널의 전체에 대한 호출이 있게 되면, 음성 시그널의 정보를 구성하는 Z1~Z3 들은 재조합의 과정이 필요한데, 이러한 재조합은 해당 순간에 공유하는 랜덤 변수를 통해 매개하여 재조합된다.
분산 저장부(184)의 경우, 상술한 바와 같이, 복수 개의 개별 영역 정보 예컨대, Z1~Z3를 물리적으로 분할된 데이터베이스 각각에 분산하여 저장하게 된다.
영역 분할부(181)는 초성 영역과 중성 영역 그리고 종성 영역을 이루는 각각의 시간 간격을 균등하게 배분하여, 이들 영역들이 각기 현저하게 다른 정보 용량의 차이에 따른 외부에 또 하나의 정보 유출의 빌미를 제공할 수 있는 여지를 차단하게 된다.
본 발명의 권리 범위는 특허청구범위에 기재된 사항에 의해 결정되며, 특허 청구범위에 사용된 괄호는 선택적 한정을 위해 기재된 것이 아니라, 명확한 구성요소를 위해 사용되었으며, 괄호 내의 기재도 필수적 구성요소로 해석되어야 한다.
10: 음성 정보
20: 음성 신호
21: 사용자 단말기에 디스플레이 되는 음성 신호
30: 저장되어 있는 음성 시그널
31: 사용자 단말기에 디스플레이 되는 음성 시그널
40: 미리 지정되어 있는 음성 데이터
41: 사용자 단말기에 디스플레이 되는 미리 지정되어 있는 음성 데이터
100: 트레이닝 모듈
110: 음성 인식부
120: 웨이브 게인부
130: 웨이브 컴페어부
140: 섹션 분석부
150: 피치 분석부
160: 웨이브 디버트부
170: 솔루션 오퍼부
180: 데이터 백업부
181: 영역 분할부
182: 코드 할당부
183: 난수 제너레이팅부
184: 분산 저장부
184a: 제1데이터 베이스
184b: 제2데이터 베이스
184c: 제3데이터 베이스
184n: 제n데이터 베이스
z1: 지정된 제1영역
z2: 지정된 제2영역
z3: 지정된 제3영역
200: 음성 인식 모듈
300: 사용자 단말기

Claims (10)

  1. 사용자의 음성 신호를 인식하여, 상기 사용자의 음성을 트레이닝 하는 트레이닝 시스템에 있어서,
    상기 사용자의 음성 정보를 획득하는 음성 인식 모듈;
    상기 음성 인식 모듈과 연동되는 사용자 단말기; 및
    상기 사용자 단말기로부터 상기 음성 정보를 수신하고, 상기 음성 정보를 음성 신호로 취득하여 샘플링하며, 미리 저장되어 있는 음성 시그널을 샘플링하여, 샘플링 된 상기 음성 신호와 샘플링 된 상기 미리 저장되어 있는 음성 시그널을 상호 매핑하여 비교한 후, 상기 사용자 단말기를 통해 가이드 정보를 제시하는 트레이닝 모듈을 포함하되,
    상기 트레이닝 모듈은,
    샘플링 된 상기 음성 신호와 샘플링 된 상기 미리 저장되어 있는 음성 시그널은 상호 소정의 범위마다 매핑(mapping)되어 비교되어,
    샘플링 된 상기 음성 신호의 크기와 샘플링 된 상기 미리 저장되어 있는 음성 시그널의 크기를 상호 비교하여, 상기 음성 신호를 진단하되,
    상기 음성 인식 모듈이 취득한 상기 음성 시그널을 소정의 영역별로 분할하고, 상기 소정의 영역별로 분할된 상기 음성 시그널을 물리적으로 분할된 공간에 개별적으로 저장하는 데이터 백업부를 포함하되,
    상기 소정의 범위는,
    상기 음성 정보와 상기 미리 저장되어 있는 음성 시그널 각각의, 초성 신호의 진폭 정보, 초성 신호의 주파수 정보, 중성 신호의 진폭 정보, 중성 신호의 주파수 정보, 헛숨 신호의 진폭 정보, 헛숨 신호의 주파수 정보, 종성 신호의 진폭 정보 또는 종성 신호의 주파수 중 적어도 하나 이상을 포함하되,
    상기 데이터 백업부는,
    상기 소정의 영역을 상기 음성 시그널의 시간 순서대로 초성 영역, 중성 영역 및 종성 영역으로 3분할하여 설정하는 영역 분할부;
    상기 영역 분할부가 분할한 상기 초성 영역, 상기 중성 영역 및 상기 종성 영역 각각에 상이한 코드를 부여하는 코드 할당부;
    소정의 시간 간격으로 랜덤 변수(random variable)를 발생시키며, 상기 소정의 시간 간격 동안 복수 개의 개별 부위 정보에 부여된 상기 복수 개의 상이한 코드 각각에 동일한 랜덤 변수를 공유시키는 난수 제너레이팅부; 및
    상기 복수 개의 개별 부위 정보를 물리적으로 분할된 데이터베이스 각각에 분산하여 저장하도록 하는 분산 저장부를 포함하는 것을 특징으로 하는, 주파수 섹션 분석을 통한 음성 트레이닝 시스템.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서, 상기 트레이닝 모듈은,
    상기 음성 인식 모듈로부터 획득한 상기 사용자의 상기 음성 정보를 인식하는 음성 인식부;
    상기 음성 인식부에서 인식한 상기 음성 정보를 수신하며, 음성 정보를 주파수 형태인 상기 음성 신호로 취득하는 웨이브 게인부; 및
    상기 웨이브 게인부가 취득한 상기 음성 신호를 수신하여, 상기 미리 저장되어 있는 음성 시그널과 비교하는 웨이브 컴페어부를 포함하는 것을 특징으로 하는, 주파수 섹션 분석을 통한 음성 트레이닝 시스템.
  5. 제4항에 있어서, 상기 트레이닝 모듈은,
    비교된 상기 사용자의 음성 신호와 상기 미리 저장되어 있는 음성 시그널을 각각 상기 소정의 범위로 분할하고 샘플링(sampling)하여, 상기 소정의 범위의 상기 음성 신호의 주파수를 측정하는 섹션 분석부;
    상기 사용자의 상기 음성 신호와 상기 미리 저장되어 있는 음성 시그널을 오버랩하여 상기 소정의 범위의 상기 음성 신호의 진폭을 측정하는 피치 분석부; 및
    상기 사용자 단말기를 통해 상기 사용자에게 상기 가이드 정보를 제공하는 솔루션 오퍼부를 더 포함하는 것을 특징으로 하는, 주파수 섹션 분석을 통한 음성 트레이닝 시스템.
  6. 제5항에 있어서, 상기 솔루션 오퍼부는,
    i) 상기 주파수 정보와 상기 진폭 정보를 수신하여, 상기 미리 저장되어 있는 음성 시그널과 함께 상기 사용자 단말기에 디스플레이 되도록 하며,
    ii-1) 상기 사용자에 의해 상기 사용자 단말기 상에서 디스플레이 되는 상기 음성 신호의 진폭 범위가 선택되면, 선택된 상기 진폭 범위가 상기 사용자 단말기 상에서 확대되어 디스플레이 되며,
    ii-2) 상기 사용자에 의해 상기 사용자 단말기 상에서 디스플레이 되는 음성 신호의 주파수 범위를 선택되면, 선택된 상기 주파수 범위가 상기 사용자 단말기 상에서 확대되어 디스플레이 되는 것을 특징으로 하는, 주파수 섹션 분석을 통한 음성 트레이닝 시스템.
  7. 제1항에 있어서, 상기 트레이닝 모듈은,
    상기 음성 신호와 미리 지정되어 있는 음성 데이터를 각각 샘플링(sampling)하며, 샘플링 된 상기 음성 신호와 샘플링 된 상기 미리 지정되어 있는 음성 데이터를 시간 순으로 나열하고, 상호 일치하는 신호를 백분율하는 웨이브 디버트부를 포함하는 것을 특징으로 하는, 주파수 섹션 분석을 통한 음성 트레이닝 시스템.
  8. 삭제
  9. 삭제
  10. 제1항에 있어서, 상기 영역 분할부는,
    상기 초성 영역, 상기 중성 영역 및 상기 종성 영역을 이루는 각각의 시간 간격을 균등하게 배분하는 것을 특징으로 하는, 주파수 섹션 분석을 통한 음성 트레이닝 시스템.
KR1020190010670A 2019-01-28 2019-01-28 주파수 섹션 분석을 통한 음성 트레이닝 시스템 KR102134990B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190010670A KR102134990B1 (ko) 2019-01-28 2019-01-28 주파수 섹션 분석을 통한 음성 트레이닝 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190010670A KR102134990B1 (ko) 2019-01-28 2019-01-28 주파수 섹션 분석을 통한 음성 트레이닝 시스템

Publications (1)

Publication Number Publication Date
KR102134990B1 true KR102134990B1 (ko) 2020-07-16

Family

ID=71839653

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190010670A KR102134990B1 (ko) 2019-01-28 2019-01-28 주파수 섹션 분석을 통한 음성 트레이닝 시스템

Country Status (1)

Country Link
KR (1) KR102134990B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023177063A1 (ko) * 2022-03-16 2023-09-21 삼성전자주식회사 사운드를 인식하는 전자 장치 및 그 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07191697A (ja) * 1993-12-27 1995-07-28 Tdk Corp 音声発声装置
KR20080018658A (ko) * 2006-08-25 2008-02-28 주식회사 예람 사용자 선택구간에 대한 음성비교 시스템
KR20080028384A (ko) 2005-07-05 2008-03-31 루센트 테크놀러지스 인크 음성 품질 평가 방법 및 시스템
KR20100111544A (ko) * 2009-04-07 2010-10-15 권용득 음성인식을 이용한 발음 교정 시스템 및 그 방법
KR101193958B1 (ko) 2012-04-16 2012-10-24 (주) 장산아이티 음성분석을 통한 해양 선박 운항자의 비정상적인 심리상태 분석 시스템
KR20130112581A (ko) 2012-04-04 2013-10-14 김만회 스마트 기기를 이용한 목소리 트레이닝 서비스 제공 방법
KR20180034927A (ko) 2016-09-28 2018-04-05 주식회사 이엠텍 통화 음성을 분석하는 통신 단말기

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07191697A (ja) * 1993-12-27 1995-07-28 Tdk Corp 音声発声装置
KR20080028384A (ko) 2005-07-05 2008-03-31 루센트 테크놀러지스 인크 음성 품질 평가 방법 및 시스템
KR20080018658A (ko) * 2006-08-25 2008-02-28 주식회사 예람 사용자 선택구간에 대한 음성비교 시스템
KR20100111544A (ko) * 2009-04-07 2010-10-15 권용득 음성인식을 이용한 발음 교정 시스템 및 그 방법
KR20130112581A (ko) 2012-04-04 2013-10-14 김만회 스마트 기기를 이용한 목소리 트레이닝 서비스 제공 방법
KR101193958B1 (ko) 2012-04-16 2012-10-24 (주) 장산아이티 음성분석을 통한 해양 선박 운항자의 비정상적인 심리상태 분석 시스템
KR20180034927A (ko) 2016-09-28 2018-04-05 주식회사 이엠텍 통화 음성을 분석하는 통신 단말기

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023177063A1 (ko) * 2022-03-16 2023-09-21 삼성전자주식회사 사운드를 인식하는 전자 장치 및 그 방법

Similar Documents

Publication Publication Date Title
US10645214B1 (en) Identical conversation detection method and apparatus
US9386146B2 (en) Multi-party conversation analyzer and logger
US10127928B2 (en) Multi-party conversation analyzer and logger
US20170178632A1 (en) Multi-user unlocking method and apparatus
CN109791616A (zh) 自动语音识别
Lavan et al. ‘Please sort these voice recordings into 2 identities’: Effects of task instructions on performance in voice sorting studies
US20220076686A1 (en) Systems and methods for filtering unwanted sounds from a conference call using voice synthesis
KR102134990B1 (ko) 주파수 섹션 분석을 통한 음성 트레이닝 시스템
CN104851423B (zh) 一种声音信息处理方法及装置
CN112966090B (zh) 对话音频数据处理方法、电子设备和计算机可读存储介质
Amino et al. Historical and procedural overview of forensic speaker recognition as a science
CN107767862B (zh) 语音数据处理方法、系统及存储介质
Harrison Variability of formant measurements
US20170221481A1 (en) Data structure, interactive voice response device, and electronic device
JP6076793B2 (ja) オペレータ育成支援システム、オペレータ育成支援方法及びプログラム
US10237399B1 (en) Identical conversation detection method and apparatus
US11817113B2 (en) Systems and methods for filtering unwanted sounds from a conference call
Lawrence et al. Acoustic and perceptual effects of telephone transmission on vowel quality.
JP2002297199A (ja) 合成音声判別方法と装置及び音声合成装置
Passetti et al. WHAT CAN VOICE LINE-UPS TELL US ABOUT VOICE SIMILARITY?
CN113823329B (zh) 数据处理方法以及计算机设备
WO2021134592A1 (zh) 语音处理方法、装置、设备以及存储介质
KR20180034927A (ko) 통화 음성을 분석하는 통신 단말기
Giovannella et al. Transmission of vocal emotion: Do we have to care about the listener? The case of the Italian speech corpus EMOVO
CN111640447A (zh) 一种降低音频信号噪音的方法及终端设备

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant