KR20130014473A - 위치 정보에 기초한 음성 인식 시스템 및 방법 - Google Patents

위치 정보에 기초한 음성 인식 시스템 및 방법 Download PDF

Info

Publication number
KR20130014473A
KR20130014473A KR1020120151638A KR20120151638A KR20130014473A KR 20130014473 A KR20130014473 A KR 20130014473A KR 1020120151638 A KR1020120151638 A KR 1020120151638A KR 20120151638 A KR20120151638 A KR 20120151638A KR 20130014473 A KR20130014473 A KR 20130014473A
Authority
KR
South Korea
Prior art keywords
voice
information
user
terminal
unit
Prior art date
Application number
KR1020120151638A
Other languages
English (en)
Other versions
KR101397825B1 (ko
Inventor
황삼청
Original Assignee
엔에이치엔(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엔에이치엔(주) filed Critical 엔에이치엔(주)
Priority to KR1020120151638A priority Critical patent/KR101397825B1/ko
Publication of KR20130014473A publication Critical patent/KR20130014473A/ko
Application granted granted Critical
Publication of KR101397825B1 publication Critical patent/KR101397825B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Navigation (AREA)

Abstract

음성 인식 시스템 및 방법이 개시된다. 음성 인식 시스템은 음성 인식을 수행하는 단말기의 지리적 위치를 판단하는 위치 식별부; 및 상기 단말기의 지리적 위치에 따라 상기 사용자가 발언한 음성을 인식하는 음성 인식부를 포함한다. 음성 인식 시스템에 의하면, 지역별 억양 정보나 방언 정보를 사용하여 사용자의 음성을 인식함으로써 지역에 따라 다른 특징을 가진 음성에서도 사용자가 의도하는 문장을 인식할 수 있다.

Description

위치 정보에 기초한 음성 인식 시스템 및 방법{SPEECH RECOGNITION SYSTEM AND METHOD BASED ON LOCATION INFORMATION}
본 발명은 음성 인식 시스템 및 방법에 관한 것으로써, 보다 상세하게는 위치 정보에 따라 지역별 억양, 방언 정보를 사용하여 사용자의 음성을 인식하는 음성 인식 시스템 및 방법에 관한 것이다.
일반적으로, 음성 인식 시스템은 인식하고자 하는 언어의 표준어와 표준어의 억양에 기초하여 음성을 인식하고 있다.
그러나, 동일한 영어를 사용하더라고 미국인이 사용하는 영어와 영국인이 사용하는 영어 및 한국인이 사용하는 영어는 억양이 다른 경우가 종종 있으며, 이 경우에는 억양의 차이로 인하여 사용자가 의도한 단어와 다른 단어가 인식될 가능성이 있었다.
따라서, 사용자가 음성 인식을 사용하는 장소에서 주로 사용되는 억양이나 방언으로 사용자의 음성을 인식할 수 있는 시스템 및 방법이 요구된다.
본 발명은 지역별 억양 정보나 방언 정보를 사용하여 사용자의 음성을 인식함으로써 지역에 따라 다른 특징을 가진 음성에서도 사용자가 의도하는 문장을 인식할 수 있는 시스템 및 방법을 제공한다.
또한, 본 발명은 사용자의 음성 특징에 따라 음성 인식에 사용하는 정보를 업데이트 함으로써 사용자의 음성 인식에 특화된 음성 인식 시스템 및 방법을 제공할 수도 있다.
본 발명의 일실시예에 따른 음성 인식 시스템은 음성 인식을 수행하는 단말기의 지리적 위치를 판단하는 위치 식별부; 및 상기 단말기의 지리적 위치에 따라 상기 사용자가 발언한 음성을 인식하는 음성 인식부를 포함한다.
본 발명의 일실시예에 따른 음성 인식 방법은 음성 인식을 수행하는 단말기의 지리적 위치를 판단하는 단계; 및 상기 단말기의 지리적 위치에 따라 상기 사용자가 발언한 음성을 인식하는 단계를 포함한다.
본 발명의 일실시예에 따르면, 지역별 억양 정보나 방언 정보를 사용하여 사용자의 음성을 인식함으로써 지역에 따라 다른 특징을 가진 음성에서도 사용자가 의도하는 문장을 인식할 수 있다.
또한, 본 발명의 일실시예에 따르면, 사용자의 음성 특징에 따라 음성 인식에 사용하는 정보를 업데이트 함으로써 사용자의 음성 인식에 특화된 음성 인식 시스템을 제공할 수도 있다.
도 1은 본 발명의 일실시예에 따른 음성 인식 시스템의 세부 구성을 도시한 블록 다이어그램이다.
도 2는 본 발명에서 음성을 수집하여 음성 정보를 업데이트하는 구조를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 음성 인식 방법을 도시한 플로우차트이다.
도 4는 본 발명의 일실시예에 따른 음성 정보 업데이트 방법을 도시한 플로우차트이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 본 발명의 일실시예에 따른 음성 인식 방법은 음성 인식 시스템에 의해 수행될 수 있다.
도 1은 본 발명의 일실시예에 따른 음성 인식 시스템의 세부 구성을 도시한 블록 다이어그램이다.
본 발명의 일실시예에 따른 음성 인식 시스템은 음성 인식을 수행하는 단말기의 지리적 위치에 따라 사용자가 발언한 음성을 인식함으로써 지역별 특이한 억양의 음성이나 방언도 용이하게 인식할 수 있다.
도 1을 참고하면, 음성 인식 시스템은 위치 식별부(110), 음성 인식부(120), 검색 결과 제공부(130) 및 음성 정보 업데이트부(140)를 포함할 수 있다.
위치 식별부(110)는 음성 인식을 수행하는 단말기의 지리적 위치를 판단할 수 있다.
이때, 위치 식별부(110)는 위성으로부터 GPS 신호를 수신하여 단말기의 세밀한 지리적 위치를 판단할 수도 있다.
또한, 위치 식별부(110)는 단말기가 사용하는 통신망의 기지국을 판별하고, 판별된 기지국의 위치에 따라 단말기기 위치한 지역을 판단할 수도 있다.
음성 인식부(120)는 사용자로부터 음성을 입력 받고, 위치 식별부(110)가 판단한 단말기의 지리적 위치에 따라 사용자가 발언한 음성을 인식할 수 있다.
구체적으로 음성 인식부(120)는 단말기의 지리적 위치에 따라 다른 정보에 기초하여 사용자가 발언한 음성을 인식할 수 있다.
이때, 음성 인식부(120)는 억양 정보 식별부(121), 방언 정보 식별부(123), 및 언어 정보 식별부(124) 중 적어도 하나와 문장 판단부(122)를 포함할 수 있다.
억양 정보 식별부(121)는 단말기의 지리적 위치에 기초하여 지역별로 분류된 억양 정보를 식별할 수 있다. 이때, 지역별로 분류된 억양 정보는 지역에 따라 특색을 가지는 억양이 강세를 주는 단어나 문자 및 억양 패턴의 주파수 정보를 포함할 수 있다. 구체적으로, 지역별로 분류된 억양 정보는 한국인 특유의 영어 억양, 경상도 특유의 강한 억양과 같이 지역에 따라 특색을 가지는 억양에 대한 정보일 수 있다.
일례로, 억양 정보 식별부(121)는 단말기가 경상도 지방에 위치한 경우에 경상도 억양 정보를 식별할 수 있다.
이때, 억양 정보 식별부(121)는 지역별로 분류된 억양 정보를 자체 데이터베이스에 저장하고 있을 수도 있고, 외부에서 수신할 수도 있다.
문장 판단부(122)는 억양 정보 식별부(121)에서 식별된 억양 정보를 이용하여 사용자의 음성에 포함된 문장을 판단할 수 있다.
구체적으로 문장 판단부(122)는 억양 정보 식별부(121)에서 식별된 억양 정보에서 사용자에게 입력 받은 음성의 주파수 정보와 가장 유사도가 높은 단어를 추출하고, 추출한 단어를 문장으로 구성함으로써 사용자의 음성에 포함된 문장을 판단할 수 있다.
또한, 문장 판단부(122)는 위치 식별부(110)가 단말기의 위치를 판단하지 못하거나, 사용자가 위치 식별부(110)의 기능을 정지 시킨 경우, 최적화된 음성 인식률을 나타내는 표준 억양 정보와 사용자의 음성에 따른 억양을 비교하여 문장을 판단할 수도 있다.
방언 정보 식별부(123)는 단말기의 지리적 위치에 대응하는 방언 정보를 식별할 수 있다. 이때, 지역별로 분류된 방언 정보는 지역에 따라 같은 의미이면서 다른 의미로 사용되는 단어나 문장을 표준어의 단어나 문장과 그룹화한 정보일 수 있다. 일례로, 지역별로 분류된 방언 정보는 표준어로 '괜찮습니다'와 같은 의미를 가지는 경상도 방언 '아니라예', 전라도 방언 '되써라', 및 충청도 방언 '됐슈'를 하나로 그룹화하고, 상기 단어들을 각각 표준어, 경상도 방언, 전라도 방언, 충청도 방언으로 분류할 수 있다.
또한, 방언 정보 식별부(123)는 단말기의 지리적 위치가 충청도인 경우에 충청도 방언으로 분류된 '됐슈'를 단말기의 지리적 위치에 대응하는 방언 정보 중에 하나로 식별할 수 있다.
이때, 문장 판단부(122)는 방언 정보 식별부(123)에서 식별된 방언 정보를 이용하여 사용자의 음성에 포함된 문장을 판단할 수 있다.
구체적으로 문장 판단부(122)는 사용자의 음성에 포함된 문장이 방언을 사용하여 구성된 경우에, 사용자의 음성에 포함된 문장의 의미를 표준어로 번역하여 인식할 수 있다.
일례로, 단말기의 지리적 위치가 충청도이고 '됐슈'가 사용자의 음성에 포함된 경우에 문장 판단부(122)는 '괜찮습니다'로 판단 할 수 있다.
언어 정보 식별부(124)는 단말기의 지리적 위치에 대응하는 국가에 기초한 언어 정보를 식별할 수 있다.
이때, 국가에 기초한 언어 정보는 각각의 국가에서 사용되고 있는 언어에 대한 정보일 수 있다.
일례로, 언어 정보 식별부(124)는 단말기의 지리적 위치가 '미국'인 경우에 미국에서 사용되는 언어인 영어를 국가에 기초한 언어 정보로 식별할 수 있다.
이때, 문장 판단부(122)는 언어 정보 식별부(124)에서 식별된 언어 정보를 이용하여 사용자의 음성에 포함된 문장을 판단할 수 있다.
일례로, 단말기의 지리적 위치가 미국이고 '사과'가 사용자의 음성에 포함된 경우에 문장 판단부(122)는 '사과'를 영어 표시인 'apple '로 판단 할 수 있다.
검색 결과 제공부(130)는 음성 인식부(120)가 사용자가 발언한 음성으로부터 추출한 문장에 대응하는 검색 결과를 제공할 수 있다.
구체적으로 검색 결과 제공부(130)는 웹 사이트나 기 설정된 광고에서 문장 판단부(122)가 판단한 문장을 검색하고, 검색 결과를 사용자에게 제공할 수 있다.
일례로, 단말기의 지리적 위치가 미국이고 '사과'가 사용자의 음성에 포함되어 문장 판단부(122)가 '사과'의 영어 표시인 'apple'을 판단한 경우에 검색 결과 제공부(130)는 'apple'이 포함된 광고나 웹 사이트를 검색 결과로 표시할 수 있다.
즉, 음성 인식 시스템은 한국어를 사용하여 한국어에 대응하는 영어 정보를 검색할 수 있다.
음성 인식 시스템은 단말기에 포함될 수도 있고, 외부 서버에 포함되어 단말기와 위치 정보 및 단말기에 입력된 사용자의 음성을 수신하고 검색 결과를 송신 할 수도 있다.
음성 정보 업데이트부(140)는 억양 정보 식별부(121), 방언 정보 식별부(123), 및 언어 정보 식별부(124)가 사용하는 억양 정보, 방언 정보 및 언어 정보를 업데이트할 수 있다.
이때, 음성 정보 업데이트부(140)는 문장 판단부(122)가 추출한 단어의 주파수 정보와 사용자에게 입력 받은 음성의 주파수 정보가 다른 경우에 해당 단어의 주파수 정보를 사용자에게 입력 받은 음성의 주파수 정보로 변경할 수 있다.
또한, 음성 정보 업데이트부(140)는 주파수 정보 이외에 문장 판단부(122)가 추출한 단어의 음원 패턴, 사용되는 음소에 대한 정보와 같은 특징도 사용자에게 입력 받은 음성의 특징으로 변경할 수 있다.
즉, 음성 정보 업데이트부(140)는 음성을 인식하기 위하여 사용하는 억양 정보, 방언 정보 및 언어 정보를 사용자의 음성 특징에 따라 변경함으로써 사용자의 음성을 보다 정확하게 인식할 수 있다.
또한, 음성 정보 업데이트부(140)는 단말기를 사용하는 사용자들의 음성을 수집하여 억양 정보에 반영할 수도 있다. 이때, 음성을 수집하여 억양정보에 반영하는 음성 정보 업데이트부(140)는 서버의 음성 인식 시스템에 포함된 음성 정보 업데이트부(140)일 수 있다.
단말기를 사용하는 사용자들의 음성을 수집하여 억양 정보에 반영하는 구성은 이하 도 2를 사용하여 상세히 설명한다.
도 2는 본 발명에서 음성을 수집하여 음성 정보를 업데이트하는 구조를 도시한 도면이다.
본 발명에 따른 음성 인식 시스템을 포함하는 서버(210)은 도 2에 도시된 바와 같이 복수의 음성 인식 단말(220,230,240)으로부터 사용자들의 음성을 수집하고, 수집된 음성의 공통된 특징을 추출하여 음성 정보에 반영할 수 있다. 이때, 음성 정보는 억양 정보, 방언 정보 및 언어 정보 중 적어도 하나를 포함할 수 있다.
이때, n개의 음성 인식 단말(220,230,240)은 하나의 도나 시, 군과 같은 특정 지역에 있는 단말기들이며, 수집된 음성의 공통된 특징은 해당 특정 지역의 음성 정보에 반영될 수 있다.
이때, 공통된 특징이 반영된 음성 정보는 해당 특정 지역에 위치한 음성 인식 단말에서 음성 인식을 하기 위하여 사용될 수 있다.
도 3은 본 발명의 일실시예에 따른 음성 인식 방법을 도시한 플로우차트이다.
단계(S310)에서 위치 식별부(110)는 음성 인식을 수행하는 단말기의 지리적 위치를 판단할 수 있다.
단계(S320)에서 음성 인식부(120)는 단계(S310)에서 판단된 단말기의 지리적 위치에 따라 음성 인식에 사용될 정보를 식별할 수 있다.
구체적으로, 억양 정보 식별부(121), 방언 정보 식별부(123), 및 언어 정보 식별부(124)는 단계(S310)에서 판단된 단말기의 지리적 위치에 따라 해당하는 억양 정보, 방언 정보, 및 언어 정보를 식별할 수 있다.
단계(S330)에서 음성 인식부(120)는 단계(S320)에서 식별된 정보에 따라 사용자가 발언한 음성에 포함된 문장을 인식할 수 있다.
구체적으로 문장 판단부(122)는 단계(S320)에서 식별된 억양 정보, 방언 정보, 및 언어 정보 중 적어도 하나를 사용하여 사용자의 음성에 포함된 문장의 의미를 판단할 수 있다.
단계(S340)에서 검색 결과 제공부(130)는 웹 사이트나 기 설정된 광고에서 단계(S330)에서 인식된 문장을 검색할 수 있다.
단계(S350)에서 검색 결과 제공부(130)는 단계(S340)에서 검색된 결과를 사용자에게 제공할 수 있다.
도 4는 본 발명의 일실시예에 따른 음성 정보 업데이트 방법을 도시한 플로우차트이다.
단계(S410)에서 음성 인식부(120)는 업데이트할 정보를 설정할 수 있다. 구체적으로, 음성 인식부(120)는 사용자에게 입력 받은 음성의 특징 정보를 억양 정보, 방언 정보, 및 언어 정보 중에 어디에 업데이트할 지 설정할 수 있다.
이때, 음성 인식부(120)는 억양 정보, 방언 정보, 및 언어 정보 중 적어도 하나를 업데이트할 것으로 설정할 수 있다.
단계(S420)에서 음성 인식부(120)는 사용자로부터 음성을 입력 받을 수 있다.
단계(S430)에서 음성 인식부(120)는 단계(S320), 단계(S330)을 실행하여 사용자가 발언한 음성에 포함된 문장을 인식할 수 있다.
단계(S440)에서 음성 정보 업데이트부(140)는 단계(S430)에서 인식한 음성의 특징 정보를 단계(S410)에서 설정된 음성 정보에 업데이트할 수 있다.
단계(S450)에서 음성 인식부(120)는 사용자로부터 음성을 다시 입력 받는지 확인할 수 있다.
단계(S460)에서 음성 인식부(120)는 단계(S440)에서 업데이트된 음성 정보를 사용하여 사용자가 발언한 음성에 포함된 문장을 인식할 수 있다.
결국, 본 발명의 일실시예에 따르면, 지역별 억양 정보나 방언 정보를 사용하여 사용자의 음성을 인식함으로써 지역에 따라 다른 특징을 가진 음성에서도 사용자가 의도하는 문장을 인식할 수 있다.
그리고, 본 발명의 일실시예에 따르면, 사용자의 음성 특징에 따라 음성 인식에 사용하는 정보를 업데이트 함으로써 사용자의 음성 인식에 특화된 음성 인식 시스템을 제공할 수도 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
110: 위치 식별부
120: 음성 인식부
121: 억양 정보 식별부
122: 문장 판단부
123: 방언 정보 식별부
124: 언어 정보 식별부

Claims (12)

  1. 음성 인식을 수행하는 단말기의 지리적 위치를 판단하는 위치 식별부;
    상기 단말기의 지리적 위치에 해당되는 음성 정보를 이용하여 상기 단말기의 사용자가 발언한 음성을 인식하는 음성 인식부; 및
    상기 인식된 음성의 주파수 정보 또는 음원 패턴 중 적어도 하나의 음성 특징에 기초하여 상기 음성 정보를 업데이트 하는 음성 정보 업데이트부
    를 포함하는 음성 인식 시스템.
  2. 제1항에 있어서,
    상기 음성 인식부는,
    상기 단말기의 지리적 위치에 기초하여 지역별로 분류된 억양 정보를 식별하는 억양 정보 식별부; 및
    상기 식별된 억양 정보를 이용하여 상기 사용자의 음성에 포함된 문장을 판단하는 문장 판단부
    를 포함하고,
    상기 음성 정보 업데이트부는,
    복수의 사용자가 발언한 음성을 수집한 후 상기 수집된 음성의 공통된 음성 특징에 따라 상기 억양 정보를 업데이트 하는 것
    을 특징으로 하는 음성 인식 시스템.
  3. 제1항에 있어서,
    상기 음성 인식부는,
    상기 단말기의 지리적 위치에 대응하는 방언 정보를 식별하는 방언 정보 식별부;
    상기 식별된 방언 정보를 이용하여 상기 사용자의 음성에 포함된 문장을 판단하는 문장 판단부
    를 포함하고,
    상기 음성 정보 업데이트부는,
    복수의 사용자가 발언한 음성을 수집한 후 상기 수집된 음성의 공통된 음성 특징에 따라 상기 방언 정보를 업데이트 하는 것
    을 특징으로 하는 음성 인식 시스템.
  4. 제1항에 있어서,
    상기 음성 인식부는,
    상기 단말기의 지리적 위치에 대응하는 국가에 기초한 언어 정보를 식별하는 언어 정보 식별부; 및
    상기 식별된 언어 정보를 이용하여 상기 사용자의 음성에 포함된 문장을 판단하는 문장 판단부
    를 포함하고,
    상기 음성 정보 업데이트부는,
    복수의 사용자가 발언한 음성을 수집한 후 상기 수집된 음성의 공통된 음성 특징에 따라 상기 언어 정보를 업데이트 하는 것
    을 특징으로 하는 음성 인식 시스템.
  5. 제2항에 있어서,
    상기 음성 인식부는,
    상기 단말기의 위치를 판단하지 못한 경우, 최적화된 음성 인식률을 나타내는 표준 억양 정보와 상기 사용자의 음성에 따른 억양을 비교하여 문장을 판단하는 것을 특징으로 하는 음성 인식 시스템.
  6. 제1항에 있어서,
    상기 사용자가 발언한 음성으로부터 추출한 문장에 대응하는 검색 결과를 제공하는 검색 결과 제공부
    를 더 포함하는 음성 인식 시스템.
  7. 음성 인식을 수행하는 단말기의 지리적 위치를 판단하는 단계;
    상기 단말기의 지리적 위치에 해당되는 음성 정보를 이용하여 상기 단말기의 사용자가 발언한 음성을 인식하는 단계; 및
    상기 인식된 음성의 주파수 정보 또는 음원 패턴 중 적어도 하나의 음성 특징에 기초하여 상기 음성 정보를 업데이트 하는 단계
    를 포함하는 음성 인식 방법.
  8. 제7항에 있어서,
    상기 음성을 인식하는 단계는,
    상기 단말기의 지리적 위치에 기초하여 지역별로 분류된 억양 정보를 식별하는 단계; 및
    상기 식별된 억양 정보를 이용하여 상기 사용자의 음성에 포함된 문장을 판단하는 단계
    를 포함하고,
    상기 음성 정보를 업데이트 하는 단계는,
    복수의 사용자가 발언한 음성을 수집한 후 상기 수집된 음성의 공통된 음성 특징에 따라 상기 억양 정보를 업데이트 하는 것
    을 특징으로 하는 음성 인식 방법.
  9. 제7항에 있어서,
    상기 음성을 인식하는 단계는,
    상기 단말기의 지리적 위치에 대응하는 방언 정보를 식별하는 단계; 및
    상기 식별된 방언 정보를 이용하여 상기 사용자의 음성에 포함된 문장을 판단하는 단계
    를 포함하고,
    상기 음성 정보를 업데이트 하는 단계는,
    복수의 사용자가 발언한 음성을 수집한 후 상기 수집된 음성의 공통된 음성 특징에 따라 상기 방언 정보를 업데이트 하는 것
    을 특징으로 하는 음성 인식 방법.
  10. 제7항에 있어서,
    상기 음성을 인식하는 단계는,
    상기 단말기의 지리적 위치에 대응하는 국가에 기초한 언어 정보를 식별하는 단계; 및
    상기 식별된 언어 정보를 이용하여 상기 사용자의 음성에 포함된 문장을 판단하는 단계
    를 포함하고,
    상기 음성 정보를 업데이트 하는 단계는,
    복수의 사용자가 발언한 음성을 수집한 후 상기 수집된 음성의 공통된 음성 특징에 따라 상기 언어 정보를 업데이트 하는 것
    을 특징으로 하는 음성 인식 방법.
  11. 제8항에 있어서,
    상기 음성을 인식하는 단계는,
    상기 단말기의 위치를 판단하지 못한 경우, 최적화된 음성 인식률을 나타내는 표준 억양 정보와 상기 사용자의 음성에 따른 억양을 비교하여 문장을 판단하는 것을 특징으로 하는 음성 인식 방법.
  12. 제7항에 있어서,
    상기 사용자가 발언한 음성으로부터 추출한 문장에 대응하는 검색 결과를 제공하는 단계
    를 더 포함하는 음성 인식 방법.
KR1020120151638A 2012-12-24 2012-12-24 위치 정보에 기초한 음성 인식 시스템 및 방법 KR101397825B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120151638A KR101397825B1 (ko) 2012-12-24 2012-12-24 위치 정보에 기초한 음성 인식 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120151638A KR101397825B1 (ko) 2012-12-24 2012-12-24 위치 정보에 기초한 음성 인식 시스템 및 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020100048112A Division KR20110128587A (ko) 2010-05-24 2010-05-24 위치 정보에 기초한 음성 인식 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20130014473A true KR20130014473A (ko) 2013-02-07
KR101397825B1 KR101397825B1 (ko) 2014-05-20

Family

ID=47894624

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120151638A KR101397825B1 (ko) 2012-12-24 2012-12-24 위치 정보에 기초한 음성 인식 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101397825B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015038105A1 (en) * 2013-09-11 2015-03-19 Intel Corporation Low power voice triggers for finding mobile devices

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101891698B1 (ko) 2018-03-02 2018-08-27 주식회사 공훈 화자의 위치정보를 이용한 음성 인식을 통한 화자 식별 시스템 및 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030097297A (ko) * 2002-06-20 2003-12-31 에스엘투(주) 다국어 음성인식장치와 이를 이용한 상담서비스제공시스템
KR100766061B1 (ko) * 2005-12-09 2007-10-11 한국전자통신연구원 화자적응 방법 및 장치
JP2009175630A (ja) * 2008-01-28 2009-08-06 Sharp Corp 音声認識装置、携帯端末、音声認識システム、音声認識装置制御方法、携帯端末制御方法、制御プログラム、および該プログラムを記録したコンピュータ読み取り可能な記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015038105A1 (en) * 2013-09-11 2015-03-19 Intel Corporation Low power voice triggers for finding mobile devices
US9582983B2 (en) 2013-09-11 2017-02-28 Intel Corporation Low power voice trigger for finding mobile devices
US9761116B2 (en) 2013-09-11 2017-09-12 Intel Corporation Low power voice trigger for finding mobile devices

Also Published As

Publication number Publication date
KR101397825B1 (ko) 2014-05-20

Similar Documents

Publication Publication Date Title
EP2863300B1 (en) Function execution instruction system, function execution instruction method, and function execution instruction program
USRE42868E1 (en) Voice-operated services
CN105895103B (zh) 一种语音识别方法及装置
US9020819B2 (en) Recognition dictionary system and recognition dictionary system updating method
US8990089B2 (en) Text to speech synthesis for texts with foreign language inclusions
CN107086040B (zh) 语音识别能力测试方法和装置
CN109243461B (zh) 语音识别方法、装置、设备及存储介质
US20130030804A1 (en) Systems and methods for improving the accuracy of a transcription using auxiliary data such as personal data
CN103065630A (zh) 用户个性化信息语音识别方法及系统
US20080294433A1 (en) Automatic Text-Speech Mapping Tool
JP2015176099A (ja) 対話システム構築支援装置、方法、及びプログラム
CN111462748B (zh) 语音识别处理方法、装置、电子设备及存储介质
CN102439660A (zh) 基于置信度得分的语音标签方法和装置
JP2002123290A (ja) 音声認識装置ならびに音声認識方法
JP5148671B2 (ja) 音声認識結果出力装置、音声認識結果出力方法、及び音声認識結果出力プログラム
JP2008234427A (ja) ユーザ間の対話を支援する装置、方法およびプログラム
KR101397825B1 (ko) 위치 정보에 기초한 음성 인식 시스템 및 방법
JP2006330577A (ja) 音声認識装置及び音声認識方法
KR101424496B1 (ko) 음향 모델 학습을 위한 장치 및 이를 위한 방법이 기록된 컴퓨터 판독 가능한 기록매체
JP7096199B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20200372110A1 (en) Method of creating a demographic based personalized pronunciation dictionary
JP5696638B2 (ja) 対話制御装置、対話制御方法及び対話制御用コンピュータプログラム
CN114783424A (zh) 文本语料筛选方法、装置、设备及存储介质
KR20110128587A (ko) 위치 정보에 기초한 음성 인식 시스템 및 방법
KR20140015933A (ko) 음성 인식률의 향상을 위한 음성 인식 지원 방법 및 시스템

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170328

Year of fee payment: 4