KR20160080915A - 음성 인식 방법 및 음성 인식 장치 - Google Patents

음성 인식 방법 및 음성 인식 장치 Download PDF

Info

Publication number
KR20160080915A
KR20160080915A KR1020140192711A KR20140192711A KR20160080915A KR 20160080915 A KR20160080915 A KR 20160080915A KR 1020140192711 A KR1020140192711 A KR 1020140192711A KR 20140192711 A KR20140192711 A KR 20140192711A KR 20160080915 A KR20160080915 A KR 20160080915A
Authority
KR
South Korea
Prior art keywords
sequence
word
syllable
phrase
phoneme
Prior art date
Application number
KR1020140192711A
Other languages
English (en)
Other versions
KR102117082B1 (ko
Inventor
홍석진
최영상
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140192711A priority Critical patent/KR102117082B1/ko
Priority to US14/751,654 priority patent/US10140974B2/en
Publication of KR20160080915A publication Critical patent/KR20160080915A/ko
Application granted granted Critical
Publication of KR102117082B1 publication Critical patent/KR102117082B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/027Syllables being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)

Abstract

음성 인식 방법 및 음성 인식 장치가 개시된다. 개시된 음성 인식 방법은 음성 신호로부터 생성된 음소 시퀀스에 기초하여 어절 시퀀스를 생성하고, 상기 어절 시퀀스에 포함된 복수의 어절들 중 어느 하나인 어절 엘리먼트에 대응하는 음절 시퀀스를 상기 음소 시퀀스에 기초하여 생성하며, 상기 어절 시퀀스 및 상기 음절 시퀀스에 기초하여, 상기 음성 신호의 인식 결과인 텍스트를 결정할 수 있다.

Description

음성 인식 방법 및 음성 인식 장치{METHOD AND APPARATUS FOR SPEECH RECOGNITION}
아래 실시예들은 음성 인식 방법 및 음성 인식 장치에 관한 것이다.
음성 인터페이스는 터치 인터페이스 보다 자연스럽고 직관적인 인터페이스다. 이에 따라, 음성 인터페이스는 터치 인터페이스의 단점을 보완할 수 있는 차세대 인터페이스로 각광받고 있다. 음성 인터페이스에 있어서 가장 핵심은 음성 인식 기술의 정확도이다. 이에 따라, 음성 인식 기술의 정확도를 높이기 위한 다양한 기법들이 제안됨에 따라 음성 인식 기술은 점점 발전하고 있다.
음성 인식의 결과로 출력되는 어절 시퀀스는 발음 사전에 등록되어 있는 어절들로 구성된다. 따라서, 음성 인식 기술의 정확도를 높이기 위해서는 보다 많은 어절들을 발음 사전에 등록하는 것이 바람직하다. 다만, 음성 인식 장치의 메모리 크기 등의 제약에 기인하여, 존재할 수 있는 모든 조합의 어절을 발음 사전에 등록하기는 어렵다.
일실시예에 따른 음성 인식 방법은 음성 신호로부터 생성된 음소 시퀀스(phoneme sequence)에 기초하여 어절 시퀀스(word sequence)를 생성하는 단계; 상기 어절 시퀀스에 포함된 복수의 어절들 중 어느 하나인 어절 엘리먼트에 대응하는 음절 시퀀스(syllable sequence)를 상기 음소 시퀀스에 기초하여 생성하는 단계; 및 상기 어절 시퀀스 및 상기 음절 시퀀스에 기초하여, 상기 음성 신호의 인식 결과인 텍스트를 결정하는 단계를 포함할 수 있다.
일실시예에 따른 음성 인식 방법에서 상기 텍스트를 결정하는 단계는, 상기 어절 시퀀스에서 상기 어절 엘리먼트를 상기 음절 시퀀스로 대체함으로써 상기 텍스트를 결정할 수 있다.
일실시예에 따른 음성 인식 방법에서 상기 어절 엘리먼트는, 상기 어절 시퀀스에 포함된 복수의 어절들 중에서 미리 결정된 임계값보다 낮은 인식률을 가지는 어절에 해당할 수 있다.
일실시예에 따른 음성 인식 방법에서 상기 어절 엘리먼트는, 상기 어절 시퀀스에 포함된 복수의 어절들 중에서 상기 복수의 어절들의 인식률들을 고려하여 결정된 상대적인 임계값보다 낮은 인식률을 가지는 어절에 해당할 수 있다.
일실시예에 따른 음성 인식 방법에서 상기 어절 시퀀스는, 상기 음소 시퀀스를 어절 단위로 디코딩함으로써 생성되고, 상기 음성 신호로부터 변환된 텍스트를 구성할 수 있다.
일실시예에 따른 음성 인식 방법에서 상기 음절 시퀀스를 상기 음소 시퀀스에 기초하여 생성하는 단계는, 상기 음소 시퀀스에 포함된 복수의 음소들 중에서 상기 어절 엘리먼트에 대응하는 부분을 음절 단위로 디코딩함으로써 상기 음절 시퀀스를 생성할 수 있다.
일실시예에 따른 음성 인식 방법에서 상기 음절 시퀀스를 상기 음소 시퀀스에 기초하여 생성하는 단계는, 음절을 구성하는 음소 시퀀스를 모델링한 음절 단위-발음 사전; 및 어절을 구성하는 음절 시퀀스를 모델링한 음절 단위-언어 모델을 이용하여 음절 단위-디코딩을 수행함으로써 상기 음절 시퀀스를 생성할 수 있다.
일실시예에 따른 음성 인식 방법에서 상기 음절 시퀀스는, 상기 음소 시퀀스에 기초하여 상기 어절 시퀀스를 생성할 때 이용되는 어절 단위-발음 사전에 미포함된 어절을 구성할 수 있다.
일실시예에 따른 음성 인식 방법은 사용자의 음성 신호로부터 생성된 음소 시퀀스를 어절 단위로 디코딩하여 어절 시퀀스를 생성하는 단계; 상기 어절 시퀀스에 포함된 복수의 어절들 중에서 임계값보다 낮은 인식률을 가지는 어절 엘리먼트가 존재하는지 여부를 판단하는 단계; 상기 어절 엘리먼트가 존재하는 것으로 판단된 경우, 상기 음소 시퀀스에 기초하여 상기 어절 엘리먼트에 대응하는 음절 시퀀스를 생성하는 단계; 및 상기 어절 시퀀스 및 상기 음절 시퀀스에 기초하여, 상기 음성 신호의 인식 결과인 텍스트를 결정하는 단계를 포함할 수 있다.
일실시예에 따른 음성 인식 방법에서 상기 음절 시퀀스를 생성하는 단계는, 상기 음소 시퀀스에 포함된 복수의 음소들 중에서 상기 어절 엘리먼트에 대응하는 부분을 음절 단위로 디코딩함으로써 상기 음절 시퀀스를 생성할 수 있다.
일실시예에 따른 음성 인식 방법에서 상기 임계값은, 미리 결정된 임계값; 및 상기 어절 시퀀스에 포함된 상기 복수의 어절들의 인식률들을 고려하여 결정된 상대적인 임계값 중 어느 하나일 수 있다.
일실시예에 따른 음성 인식 장치는 수신된 음성 신호를 처리하는 프로세서를 포함하고, 상기 프로세서는, 음성 신호로부터 생성된 음소 시퀀스에 기초하여 어절 시퀀스를 생성하고, 상기 어절 시퀀스에 포함된 복수의 어절들 중 어느 하나인 어절 엘리먼트에 대응하는 음절 시퀀스를 상기 음소 시퀀스에 기초하여 생성하며, 상기 어절 시퀀스 및 상기 음절 시퀀스에 기초하여, 상기 음성 신호의 인식 결과인 텍스트를 결정할 수 있다.
일실시예에 따른 음성 인식 장치는 수신된 음성 신호를 처리하는 프로세서를 포함하고, 상기 프로세서는, 사용자의 음성 신호로부터 생성된 음소 시퀀스를 어절 단위로 디코딩하여 어절 시퀀스를 생성하고, 상기 어절 시퀀스에 포함된 복수의 어절들 중에서 임계값보다 낮은 인식률을 가지는 어절 엘리먼트가 존재하는지 여부를 판단하고, 상기 어절 엘리먼트가 존재하는 것으로 판단된 경우, 상기 음소 시퀀스에 기초하여 상기 어절 엘리먼트에 대응하는 음절 시퀀스를 생성하며, 상기 어절 시퀀스 및 상기 음절 시퀀스에 기초하여, 상기 음성 신호의 인식 결과인 텍스트를 결정할 수 있다.
도 1은 일실시예에 따라 음성 인식 장치를 나타낸 도면이다.
도 2는 일실시예에 따라 음성 인식 방법을 나타낸 도면이다.
도 3은 일실시예에 따라 임계값보다 낮은 인식률을 가지는 어절 엘리먼트에 대응하는 음절 시퀀스를 생성하는 예시를 설명하기 위한 도면이다.
도 4는 일실시예에 따라 음성 인식 방법이 적용되는 예시를 설명하기 위한 도면이다.
도 5는 일실시예에 따라 특정 언어에서 다양한 구조를 가지는 어절을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 음성 인식 장치의 세부 구성을 나타낸 도면이다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 아래의 특정한 구조적 내지 기능적 설명들은 단지 실시예들을 설명하기 위한 목적으로 예시된 것으로, 실시예의 범위가 본문에 설명된 내용에 한정되는 것으로 해석되어서는 안된다. 관련 기술 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타내며, 공지된 기능 및 구조는 생략하도록 한다.
도 1은 일실시예에 따라 음성 인식 장치를 나타낸 도면이다.
도 1을 참조하면, 음성 인식 장치(100)는 음성 인식을 통해 사용자의 음성 신호를 텍스트로 변환할 수 있는 장치로서, 프로세서(120)를 포함한다. 나아가, 음성 인식 장치(100)는 마이크로폰(110)을 더 포함할 수 있다. 음성 인식 장치(100)는 음성 인식을 수행하기 위한 각종 모듈들로 구성될 수 있고, 음성 인식 장치(100)를 구성하는 각종 모듈들은 하드웨어 모듈, 소프트웨어 모듈, 또는 이들의 조합으로 구현될 수 있다. 소프트웨어 모듈은 적어도 하나의 프로세서(120)에 의하여 구동될 수 있다.
마이크로폰(110)은 사용자로부터 음성 신호를 획득하고, 획득한 사용자의 음성 신호를 프로세서(120)로 전송할 수 있다. 마이크로폰(110)은 실시예에 따라 음성 인식 장치(100)에 내장될 수 있고, 음성 인식 장치(100)에 내장되지 않을 수도 있다.
프로세서(120)는 수신된 사용자의 음성 신호를 처리한다. 프로세서(120)는 음성 인식을 통해 사용자의 음성 신호를 텍스트로 변환할 수 있다. 여기서, 프로세서(120)는 실시예에 따라 사용자의 음성 신호를 마이크로폰(110)으로부터 수신하거나 또는 외부 기기로부터 수신할 수 있다.
프로세서(120)는 사용자의 음성 신호로부터 특징 벡터를 추출할 수 있다. 프로세서(120)는 음향 모델(acoustic model)을 이용하여 특징 벡터로부터 음소 시퀀스(phoneme sequence)를 생성할 수 있다.
음소 시퀸스는 언어에서 의미 구별 기능을 가지는 음운(phonology)의 최소 단위인 음소의 연속적인 배열을 나타낼 수 있다. 음소 시퀀스는 각 음소가 실제 해당 음소일 확률도 함께 포함할 수 있다.
프로세서(120)는 음소 시퀀스를 어절 단위로 디코딩함으로써 어절 시퀀스(word sequence)를 생성할 수 있다. 그리고, 프로세서(120)는 음소 시퀀스를 음절 단위로 디코딩함으로써 음절 시퀀스(syllable sequence)를 생성할 수 있다.
먼저 어절 단위-디코딩을 수행하는 경우를 살펴보면, 프로세서(120)는 어절 단위-발음 사전 및 어절 단위-언어 모델에 기초한 어절 단위-디코딩을 수행함으로써 음소 시퀀스로부터 어절 시퀀스를 생성할 수 있다. 여기서, 어절 시퀀스는 음성 인식 결과인 텍스트에서 띄어쓰기로 구분되는 어절의 연속적인 배열을 나타낼 수 있다.
어절 단위-발음 사전은 어절을 구성하는 음소 시퀀스를 모델링함으로써 생성될 수 있다. 어절 단위-발음 사전은 어절과 해당 어절에 대응하는 음소 시퀀스를 포함하는 테이블을 포함할 수 있다. 따라서, 프로세서(120)는 어절 단위-발음 사전을 이용하여 음소 시퀀스로부터 복수의 어절들을 생성할 수 있다.
어절 단위-언어 모델은 문장을 구성하는 어절 시퀀스를 모델링함으로써 생성될 수 있다. 어절 단위-언어 모델은 문장과 해당 문장에 대응하는 어절 시퀀스를 포함하는 테이블을 포함할 수 있다. 따라서, 프로세서(120)는 어절 단위-언어 모델을 이용하여 복수의 어절들로부터 어절 시퀀스를 생성할 수 있다. 이 때, 프로세서(120)는 어절 단위-언어 모델에 기초하여 특정 문장이 문법적 또는 의미적으로 적절한지 여부를 판단할 수 있다. 예를 들어, 프로세서(120)는 어절 단위-언어 모델에 기초하여 "사과가 나를 먹는다"라는 문장보다 "내가 사과를 먹는다"라는 문장이 적절하다는 것을 판단할 수 있다.
다음으로 음절 단위-디코딩을 수행하는 경우를 살펴보면, 프로세서(120)는 음절 단위-발음 사전 및 음절 단위-언어 모델에 기초한 음절 단위-디코딩을 수행함으로써 음소 시퀀스로부터 음절 시퀀스를 생성할 수 있다. 여기서, 음절 시퀀스는 하나의 음가(phonetic value)를 가지는 말소리의 단위인 음절의 연속적인 배열로서, 하나의 어절을 구성하는 복수의 음절들을 나타낼 수 있다.
음절 단위-발음 사전은 음절을 구성하는 음소 시퀀스를 모델링함으로써 생성될 수 있다. 음절 단위-발음 사전은 음절과 해당 음절에 대응하는 음소 시퀀스를 포함하는 테이블을 포함할 수 있다. 따라서, 프로세서(120)는 음절 단위-발음 사전을 이용하여 음소 시퀀스로부터 복수의 음절들을 생성할 수 있다.
음절 단위-언어 모델은 어절을 구성하는 음절 시퀀스를 모델링함으로써 생성될 수 있다. 음절 단위-언어 모델은 어절과 해당 어절에 대응하는 음절 시퀀스를 포함하는 테이블을 포함할 수 있다. 따라서, 프로세서(120)는 음절 단위-언어 모델을 이용하여 복수의 음절들로부터 음절 시퀀스를 생성할 수 있다. 이 때, 프로세서(120)는 음절 단위-언어 모델에 기초하여 특정 어절이 문법적 또는 의미적으로 적절한지 여부를 판단할 수 있다.
프로세서(120)는 우선적으로 어절 단위-디코딩을 수행하여 음소 시퀀스로부터 어절 시퀀스를 생성할 수 있다. 그리고, 프로세서(120)는 어절 시퀀스에 포함된 복수의 어절들 중 어느 하나를 음절 단위-디코딩을 통해 생성된 음절 시퀀스로 대체할 수 있다. 프로세서(120)는 어절 시퀀스 및 음절 시퀀스를 조합함으로써 음성 신호의 인식 결과인 텍스트를 결정할 수 있다. 프로세서(120)에서 음성 신호의 인식 결과인 텍스트를 결정하는 과정에 대해서는 도 2 내지 도 3을 통해 후술한다.
도 2는 일실시예에 따라 음성 인식 방법을 나타낸 도면이다.
일실시예에 따른 음성 인식 방법은 음성 인식 장치에 구비된 프로세서에 의해 수행될 수 있다.
단계(210)에서, 음성 인식 장치는 수신된 음성 신호로부터 생성된 음소 시퀀스에 기초하여 어절 시퀀스를 생성한다. 음성 인식 장치는 음성 신호로부터 특성 벡터를 추출할 수 있다. 음성 인식 장치는 음향 모델에 기초한 음소 인식을 수행함으로써 특성 벡터로부터 음소 시퀀스를 생성할 수 있다. 그리고, 음성 인식 장치는 음소 시퀀스를 어절 단위로 디코딩함으로써 어절 시퀀스를 생성할 수 있다. 음성 인식 장치는 어절 단위-발음 사전 및 어절 단위-언어 모델에 기초하여 어절 단위-디코딩을 수행할 수 있다. 어절 시퀀스는 음성 인식을 통해 음성 신호로부터 변환된 텍스트를 구성할 수 있다.
단계(220)에서, 음성 인식 장치는 어절 시퀀스에 포함된 복수의 어절들 중 어느 하나인 어절 엘리먼트에 대응하는 음절 시퀀스를 생성한다. 어절 엘리먼트는 어절 시퀀스에 포함된 복수의 어절들 중에서 인식률이 임계값보다 낮은 어절을 나타낼 수 있다. 일례로, 어절 엘리먼트는 어절 시퀀스에 포함된 복수의 어절들 중에서 미리 결정된 임계값보다 낮은 인식률을 가지는 어절에 해당될 수 있다. 음성 인식 장치는 사용자로부터 입력된 임계값을 미리 결정된 임계값으로 설정할 수 있다. 다른 일례로, 어절 엘리먼트는 어절 시퀀스에 포함된 복수의 어절들 중에서 복수의 어절들의 인식률들을 고려하여 결정된 상대적인 임계값보다 낮은 인식률을 가지는 어절에 해당될 수 있다.
음성 인식 장치는 어절 엘리먼트에 대응하는 음소 시퀀스로부터 음절 시퀀스를 생성할 수 있다. 어절 엘리먼트에 대응하는 음절 시퀀스를 생성하는 과정에 관해서는 도 3을 참조하여 후술한다.
단계(230)에서, 음성 인식 장치는 어절 시퀀스 및 음절 시퀀스에 기초하여 음성 신호의 인식 결과인 텍스트를 결정한다. 음성 인식 장치는 어절 시퀀스에서 어절 엘리먼트를 음절 시퀀스로 대체함으로써 텍스트를 결정할 수 있다.
다른 일례로, 어절 시퀀스에 포함된 복수의 어절들 중 임계값보다 낮은 인식률을 가지는 어절 엘리먼트가 존재하지 않은 경우, 음성 인식 장치는 어절 시퀀스에 기초하여 음성 신호의 인식 결과인 텍스트를 결정할 수도 있다.
도 3은 일실시예에 따라 임계값보다 낮은 인식률을 가지는 어절 엘리먼트에 대응하는 음절 시퀀스를 생성하는 예시를 설명하기 위한 도면이다.
단계(221)에서, 음성 인식 장치는 어절 시퀀스에 포함된 복수의 어절들 중에서 임계값보다 낮은 인식률을 가지는 어절 엘리먼트가 존재하는지 여부를 판단할 수 있다.
어절 시퀀스는 어절 단위-발음 사전에 포함된 어절들로 구성될 수 있다. 음성 인식 장치는 어절 단위-발음 사전에 포함된 어절들 중에서 음성 신호로부터 생성된 음소 시퀀스와 가장 유사한 어절을 식별할 수 있다. 음성 인식 장치는 식별된 어절들을 어절 단위-언어 모델에 기초하여 조합함으로써 음소 시퀀스로부터 어절 시퀀스를 생성할 수 있다. 만약 어절 단위-발음 사전에 미포함된 어절을 음성 인식하는 경우, 음성 인식 장치는 어절 단위-발음 사전에 포함된 어절들 중에서 음성 인식하고자 하는 어절과 가장 유사한 어절을 식별함으로써 해당 어절을 인식할 수 있으나, 해당 어절의 인식률은 상대적으로 낮을 수 밖에 없다. 따라서, 임계값은 어절 시퀀스에 포함된 복수의 어절들 중에서 어절 단위-발음 사전에 미포함된 어절에 해당하는 어절 엘리먼트가 존재하는지 여부를 판별할 수 있는 기준값을 의미할 수 있다.
예를 들어, 임계값은 미리 결정된 임계값이거나, 어절 시퀀스에 포함된 복수의 어절들의 인식률들을 고려하여 결정된 상대적인 임계값을 포함할 수 있다. 미리 결정된 임계값은 사용자로부터 입력된 값일 수 있다. 상대적인 임계값은 복수의 어절들의 인식률들의 평균값을 고려하여 결정될 수 있고, 복수의 어절들의 인식률들의 최대값 및 최소값으로 정의되는 구간을 고려하여 결정될 수도 있다. 다만, 이러한 설명이 임계값을 결정하는 실시예를 제한하지 않으며, 임계값을 설정할 수 있는 다양한 방식이 적용될 수 있다.
단계(222)에서, 임계값보다 낮은 인식률을 가지는 어절 엘리먼트가 존재하는 것으로 판단된 경우, 음성 인식 장치는 어절 엘리먼트에 대응하는 음절 시퀸스를 생성할 수 있다. 음성 인식 장치는 음소 시퀀스에 포함된 복수의 음소들 중에서 어절 엘리먼트에 대응하는 부분을 음절에 기초하여 음절 시퀀스를 생성할 수 있다.
음성 인식 장치는 어절 엘리먼트에 대응하는 음소 시퀀스에 포함된 복수의 음소들 중 일부를 음절 단위로 디코딩함으로써 음절 시퀀스를 생성할 수 있다. 이 때, 음성 인식 장치는 음절 단위-발음 사전 및 음절 단위-언어 모델에 기초하여 음절 단위-디코딩을 수행할 수 있다. 음절 단위-발음 사전은 음절과 해당 음절에 대응하는 음소 시퀀스를 포함하는 테이블을 포함하고, 음절 단위-언어 모델은 어절과 해당 어절에 대응하는 음절 시퀀스를 포함하는 테이블을 포함할 수 있다.
음절 시퀀스는 음소 시퀀스를 어절 단위로 디코딩하여 어절 시퀀스를 생성할 때 이용되는 어절 단위-발음 사전에 미포함된 어절을 구성할 수 있다.
그리고 단계(230)에서, 음성 인식 장치는 어절 시퀀스와 음절 시퀀스를 조합하여 음성 신호의 인식 결과인 텍스트를 결정할 수 있다. 음성 신호의 인식 결과인 텍스트를 결정하는 과정에 대해서는 도 4를 참조하여 후술한다.
만약 임계값보다 낮은 인식률을 가지는 어절 엘리먼트가 존재하지 않는 것으로 판단된 경우, 음성 인식 장치는 단계(222)를 스킵하고 단계(230)를 수행할 수 있다. 음성 인식 장치는 어절 시퀀스에 기초하여 음성 신호의 인식 결과인 텍스트를 결정할 수 있다.
도 4는 일실시예에 따라 음성 인식 방법이 적용되는 예시를 설명하기 위한 도면이다.
도 4를 참조하면, 음성 인식 방법을 설명하기 위한 예시 문장이 도시되어 있다. 여기서, [어절 A] 및 [어절 B]는 서로 다른 어절을 나타낼 수 있다. [어절 A']는 [어절 A]와 발음상 유사하지만 동일하지 않은 어절을 나타낼 수 있다. 동일하게, [어절 B']는 [어절 B]와 발음상 유사하지만 동일하지 않은 어절을 나타낼 수 있다.
도 4에서는 사용자로부터 "나는 [어절 A] 함께 서울에 있는 [어절 B] 태국 음식을 먹었다"라는 음성 신호를 획득한 경우를 가정한다. 여기서, [어절 A]는 사람 이름에 관한 어절을 나타내고 [어절 B]는 음식점 이름에 관한 어절을 나타낼 수 있다. [어절 A], [어절 B]는 음절 단위-발음 사전에 미포함된 어절들을 나타내고, [어절 A'], [어절 B']는 음절 단위-발음 사전에 포함된 어절들을 나타낼 수 있다.
음성 인식 장치는 음성 신호로부터 생성된 음소 시퀀스를 어절 단위로 디코딩하여 어절 시퀀스를 생성할 수 있다. 생성된 어절 시퀀스는 복수의 어절들과 해당 어절의 인식률을 포함할 수 있다. 인식률은 0부터 1사이의 값을 가지는 것으로 1에 가까울수록 해당 어절이 정확하게 인식된 것을 나타낼 있다. 반대로, 인식률이 0에 가까울수록 해당 어절이 정확하지 않게 인식된 것을 나타낼 수 있다.
예를 들어, 어절 단위-발음 사전에 포함된 어절들에 매칭되는 어절을 구성하는 음소 시퀸스는 높은 인식률로 디코딩될 수 있다. 반대로, 어절 단위-발음 사전에 포함된 어절들에 매칭되지 않는 어절을 구성하는 음소 시퀀스는 낮은 인식률로 디코딩될 수 있다.
도 4에 도시된 어절 시퀀스에서 [어절 A'], [어절 B']를 제외한 나머지 어절들은 어절 단위-발음 사전에 포함된 어절로서 임계값 0.3보다 높은 인식률로 디코딩될 수 있다. 반면, [어절 A], [어절 B]는 어절 단위-발음 사전에 미포함된 어절이므로, 음성 인식 장치는 음소 시퀀스로부터 [어절 A], [어절 B]를 인식하지 못하고, [어절 A], [어절 B]와 가장 유사한 [어절 A'], [어절 B']로 음소 시퀀스를 디코딩할 수 있다. 그래서, [어절 A'], [어절 B']은 임계값 0.3보다 낮은 0.2, 0.1의 인식률을 가질 수 있다.
음성 인식 장치는 임계값보다 낮은 인식률을 가지는 어절 엘리먼트로 [어절 A'], [어절 B']가 존재하는 것으로 판단할 수 있다. 음성 인식 장치는 [어절 A'], [어절 B']에 대응하는 음소 시퀀스들을 음절 단위로 디코딩하여 음절 시퀀스들을 생성할 수 있다. 이 때, 음성 인식 장치는 음절 단위-발음 사전과 음절 단위-언어 모델에 기초하여 음절 단위로 디코딩을 수행할 수 있다. 음성 인식 장치는 [어절 A']에 대응하는 음소 시퀀스를 음절 단위로 디코딩하여 음절 시퀀스 [어절 A]를 생성할 수 있다. 동일하게, 음성 인식 장치는 [어절 B']에 대응하는 음소 시퀀스를 음절 단위로 디코딩하여 음절 시퀀스 [어절 B]를 생성할 수 있다.
음성 인식 장치는 어절 시퀀스에서 어절 엘리먼트 [어절 A'], [어절 B']를 음절 시퀀스 [어절 A], [어절 B]로 대체함으로써 음성 인식 결과로 텍스트를 결정할 수 있다. 다시 말해, 도 4에서는 "나는 [어절 A] 함께 서울에 있는 [어절 B] 태국 음식을 먹었다"라는 텍스트가 음성 인식 결과로서 결정될 수 있다.
도 5는 일실시예에 따라 특정 언어에서 다양한 구조를 가지는 어절을 설명하기 위한 도면이다.
음성 인식 방법은 다양한 형태의 어절을 사용하는 언어에도 적용될 수 있다. 예를 들어, 다양한 형태의 어절을 포함하는 언어에는 한국어, 일본어 등이 있다.
일례로, 어절(510)은 명사(511) 및 조사(512)로 구성될 수 있다. 여기서, 명사(511)는 사물의 이름을 나타내는 품사로서 인명, 지명, 상품명 등을 포함할 수 있다. 조사(512)는 명사(511)와 함께 사용되어 명사(511)와 다른 명사 간의 문법적 관계를 표시하거나 명사(511)의 뜻을 보완하는 품사를 나타낼 수 있다. 다양한 형태의 어절을 가지는 언어에서는 하나의 명사(511)가 다양한 조사(512)와 결합되어 서로 다른 복수의 어절들을 구성할 수 있다.
다른 일례로, 어절(520)은 어간(521) 및 어미(522)로 구성될 수 있다. 여기서, 어간(521)은 동사 및 형용사에 해당하는 어절(520)이 문장에서 사용될 때 해당 어절(520)의 의미와 위치에 따라 변하지 않는 부분을 의미할 수 있다. 어미(522)는 동사 및 형용사에 해당하는 어절(520)이 문장에서 사용될 때 해당 어절(520)의 의미와 위치에 따라 변하는 부분을 의미할 수 있다. 다양한 형태의 어절을 가지는 언어에서는 하나의 어간(521)이 다양한 어미(522)와 결합되어 서로 다른 복수의 어절들을 구성할 수 있다.
다양한 형태의 어절을 포함하는 언어에서는 존재할 수 있는 어절의 종류가 매우 다양하므로, 어절 단위-발음 사전에서 모든 어절을 포괄하기 어려울 수도 있다. 다만, 일실시예에 따른 음성 인식 방법은 어절 단위-디코딩과 음절 단위-디코딩을 함께 이용함으로써 어절 단위-발음 사전이 모든 어절을 포함하지 않더라도 정확한 음성 인식을 수행할 수 있다.
도 6은 일실시예에 따른 음성 인식 장치의 세부 구성을 나타낸 도면이다.
도 6을 참조하면, 음성 인식 장치(600)는 음소 인식부(610), 어절 단위-디코더(620), 판단부(630) 음절 단위-디코더(640) 및 결정부(650)를 포함할 수 있다. 도 6에 도시된 음향 모델(611), 어절 단위-발음 사전(621), 어절 단위-언어 모델(622), 음절 단위-발음 사전(641) 및 음절 단위-언어 모델(642)는 음성 인식 장치(600)에 내장되거나 또는 음성 인식 장치(600)의 외부에 위치할 수도 있다.
음소 인식부(610)는 음성 신호로부터 음소 시퀀스를 생성할 수 있다. 음소 인식부(610)는 음성 신호로부터 특징 벡터를 추출하고, 음향 모델(611)을 이용하여 특징 벡터로부터 음소 시퀀스를 생성할 수 있다.
어절 단위-디코더(620)는 음소 시퀀스를 어절 단위로 디코딩함으로써 어절 시퀀스를 생성할 수 있다. 예를 들어, 어절 단위-디코더(620)는 어절 단위-발음 사전(621) 및 어절 단위-언어 모델(622)을 이용하여 음소 시퀀스로부터 어절 시퀀스를 생성할 수 있다. 어절 시퀀스는 음성 인식을 통해 음성 신호로부터 변환된 텍스트를 구성할 수 있다.
판단부(630)는 어절 시퀀스를 구성하는 복수의 어절들 중에서 임계값보다 낮은 인식률을 가지는 어절 엘리먼트가 존재하는지 여부를 판단할 수 있다. 임계값은 사용자에 의해 미리 결정되거나 복수의 어절들의 인식률을 고려하여 상대적으로 결정될 수 있다.
임계값보다 낮은 인식률을 가지는 어절 엘리먼트가 존재하는 것으로 판단된 경우, 음절 단위-디코더(640)는 어절 엘리먼트에 대응하는 음절 시퀀스를 생성할 수 있다. 음절 단위-디코더(640)는 음소 시퀀스에 포함된 복수의 음소들 중에서 어절 엘리먼트에 대응하는 부분을 음절 단위로 디코딩함으로써 음절 시퀀스를 생성할 수 있다. 이 때, 음절 단위-디코더(640)는 음절 단위-발음 사전(641) 및 음절 단위-언어 모델(642)을 이용하여 음절 단위-디코딩을 수행할 수 있다.
결정부(650)는 어절 시퀀스 및 음절 시퀀스에 기초하여 음성 신호의 인식 결과인 텍스트를 결정할 수 있다. 결정부(650)는 어절 시퀀스 및 음절 시퀀스를 조합할 수 있다. 예를 들어, 결정부(650)는 어절 시퀀스에서 어절 엘리먼트를 음절 시퀀스로 대체함으로써 어절 시퀀스 및 음절 시퀀스를 조합하고, 조합된 결과를 음성 인식 결과인 텍스트로 결정할 수 있다.
실시예들은 어절 단위-디코딩을 통해 생성된 어절 시퀸스에 포함된 복수의 어절들 중에서 인식률이 낮은 어절 엘리먼트에 대해 음절 단위-디코딩을 수행함으로써, 음성 인식의 정확도를 효과적으로 증가시킬 수 있다.
실시예들은 어절 단위-디코딩 및 음절 단위-디코딩을 함께 이용하여 음성 인식을 수행함으로써, 지명, 인명, 상품명, 신조어 등과 같이 어절 단위-발음 사전에 정의되지 않은 어절을 정확하게 인식할 수 있다.
실시예들은 어절 단위-디코딩 및 음절 단위-디코딩을 함께 이용하여 음성 인식을 수행함으로써, 발음 사전가 유한한 크기를 가짐에 따라 어절 단위-발음 사전에 미포함된 어절도 명확하게 인식할 수 있다.
실시예들은 어절 단위-디코딩 및 음절 단위-디코딩을 함께 이용하여 음성 인식을 수행함으로써, 다양한 형태의 어절을 포함하는 언어에 대해서도 정확한 음성 인식을 수행할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 비록 한정된 실시예와 도면을 통해 실시예들을 설명하였으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 음성 신호로부터 생성된 음소 시퀀스(phoneme sequence)에 기초하여 어절 시퀀스(word sequence)를 생성하는 단계;
    상기 어절 시퀀스에 포함된 복수의 어절들 중 어느 하나인 어절 엘리먼트에 대응하는 음절 시퀀스(syllable sequence)를 상기 음소 시퀀스에 기초하여 생성하는 단계; 및
    상기 어절 시퀀스 및 상기 음절 시퀀스에 기초하여, 상기 음성 신호의 인식 결과인 텍스트를 결정하는 단계
    를 포함하는 음성 인식 방법.
  2. 제1항에 있어서,
    상기 텍스트를 결정하는 단계는,
    상기 어절 시퀀스에서 상기 어절 엘리먼트를 상기 음절 시퀀스로 대체함으로써 상기 텍스트를 결정하는, 음성 인식 방법.
  3. 제1항에 있어서,
    상기 어절 엘리먼트는,
    상기 어절 시퀀스에 포함된 복수의 어절들 중에서 미리 결정된 임계값보다 낮은 인식률을 가지는 어절에 해당하는, 음성 인식 방법.
  4. 제1항에 있어서,
    상기 어절 엘리먼트는,
    상기 어절 시퀀스에 포함된 복수의 어절들 중에서 상기 복수의 어절들의 인식률들을 고려하여 결정된 상대적인 임계값보다 낮은 인식률을 가지는 어절에 해당하는, 음성 인식 방법.
  5. 제1항에 있어서,
    상기 어절 시퀀스는,
    상기 음소 시퀀스를 어절 단위로 디코딩함으로써 생성되고, 상기 음성 신호로부터 변환된 텍스트를 구성하는, 음성 인식 방법.
  6. 제1항에 있어서,
    상기 음절 시퀀스를 상기 음소 시퀀스에 기초하여 생성하는 단계는,
    상기 음소 시퀀스에 포함된 복수의 음소들 중에서 상기 어절 엘리먼트에 대응하는 부분을 음절 단위로 디코딩함으로써 상기 음절 시퀀스를 생성하는, 음성 인식 방법.
  7. 제6항 있어서,
    상기 음절 시퀀스를 상기 음소 시퀀스에 기초하여 생성하는 단계는,
    음절을 구성하는 음소 시퀀스를 모델링한 음절 단위-발음 사전; 및
    어절을 구성하는 음절 시퀀스를 모델링한 음절 단위-언어 모델
    을 이용하여 음절 단위-디코딩을 수행함으로써 상기 음절 시퀀스를 생성하는, 음성 인식 방법.
  8. 제1항에 있어서,
    상기 음절 시퀀스는,
    상기 음소 시퀀스에 기초하여 상기 어절 시퀀스를 생성할 때 이용되는 어절 단위-발음 사전에 미포함된 어절을 구성하는, 음성 인식 방법.
  9. 사용자의 음성 신호로부터 생성된 음소 시퀀스를 어절 단위로 디코딩하여 어절 시퀀스를 생성하는 단계;
    상기 어절 시퀀스에 포함된 복수의 어절들 중에서 임계값보다 낮은 인식률을 가지는 어절 엘리먼트가 존재하는지 여부를 판단하는 단계;
    상기 어절 엘리먼트가 존재하는 것으로 판단된 경우, 상기 음소 시퀀스에 기초하여 상기 어절 엘리먼트에 대응하는 음절 시퀀스를 생성하는 단계; 및
    상기 어절 시퀀스 및 상기 음절 시퀀스에 기초하여, 상기 음성 신호의 인식 결과인 텍스트를 결정하는 단계
    를 포함하는 음성 인식 방법.
  10. 제9항에 있어서,
    상기 음절 시퀀스를 생성하는 단계는,
    상기 음소 시퀀스에 포함된 복수의 음소들 중에서 상기 어절 엘리먼트에 대응하는 부분을 음절 단위로 디코딩함으로써 상기 음절 시퀀스를 생성하는, 음성 인식 방법.
  11. 제9항에 있어서,
    상기 텍스트를 결정하는 단계는,
    상기 어절 시퀀스에서 상기 어절 엘리먼트를 상기 음절 시퀀스로 대체함으로써 상기 텍스트를 결정하는, 음성 인식 방법.
  12. 제9항에 있어서,
    상기 임계값은,
    미리 결정된 임계값; 및
    상기 어절 시퀀스에 포함된 상기 복수의 어절들의 인식률들을 고려하여 결정된 상대적인 임계값
    중 어느 하나인, 음성 인식 방법.
  13. 제1항 내지 제12항 중에서 어느 하나의 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
  14. 음성 인식 장치에 있어서,
    수신된 음성 신호를 처리하는 프로세서를 포함하고,
    상기 프로세서는,
    음성 신호로부터 생성된 음소 시퀀스(phoneme sequence)에 기초하여 어절 시퀀스(word sequence)를 생성하고,
    상기 어절 시퀀스에 포함된 복수의 어절들 중 어느 하나인 어절 엘리먼트에 대응하는 음절 시퀀스(syllable sequence)를 상기 음소 시퀀스에 기초하여 생성하며,
    상기 어절 시퀀스 및 상기 음절 시퀀스에 기초하여, 상기 음성 신호의 인식 결과인 텍스트를 결정하는 음성 인식 장치.
  15. 제14항에 있어서,
    상기 프로세서는,
    상기 어절 시퀀스에서 상기 어절 엘리먼트를 상기 음절 시퀀스로 대체함으로써 상기 텍스트를 결정하는, 음성 인식 장치.
  16. 제14항에 있어서,
    상기 어절 엘리먼트는,
    상기 어절 시퀀스에 포함된 복수의 어절들 중에서 미리 결정된 임계값보다 낮은 인식률을 가지는 어절에 해당하는, 음성 인식 장치.
  17. 제14항에 있어서,
    상기 어절 엘리먼트는,
    상기 어절 시퀀스에 포함된 복수의 어절들 중에서 상기 복수의 어절들의 인식률들을 고려하여 결정된 상대적인 임계값보다 낮은 인식률을 가지는 어절에 해당하는, 음성 인식 장치.
  18. 제14항에 있어서,
    상기 어절 시퀀스는,
    상기 음소 시퀀스를 어절 단위로 디코딩함으로써 생성되고, 상기 음성 신호로부터 변환된 텍스트를 구성하는, 음성 인식 장치.
  19. 제14항에 있어서,
    상기 프로세서는,
    상기 음소 시퀀스에 포함된 복수의 음소들 중에서 상기 어절 엘리먼트에 대응하는 부분을 음절 단위로 디코딩함으로써 상기 음절 시퀀스를 생성하는, 음성 인식 장치.
  20. 음성 인식 장치에 있어서,
    수신된 음성 신호를 처리하는 프로세서를 포함하고,
    상기 프로세서는,
    사용자의 음성 신호로부터 생성된 음소 시퀀스를 어절 단위로 디코딩하여 어절 시퀀스를 생성하고,
    상기 어절 시퀀스에 포함된 복수의 어절들 중에서 임계값보다 낮은 인식률을 가지는 어절 엘리먼트가 존재하는지 여부를 판단하고,
    상기 어절 엘리먼트가 존재하는 것으로 판단된 경우, 상기 음소 시퀀스에 기초하여 상기 어절 엘리먼트에 대응하는 음절 시퀀스를 생성하며,
    상기 어절 시퀀스 및 상기 음절 시퀀스에 기초하여, 상기 음성 신호의 인식 결과인 텍스트를 결정하는 음성 인식 장치.
KR1020140192711A 2014-12-29 2014-12-29 음성 인식 방법 및 음성 인식 장치 KR102117082B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140192711A KR102117082B1 (ko) 2014-12-29 2014-12-29 음성 인식 방법 및 음성 인식 장치
US14/751,654 US10140974B2 (en) 2014-12-29 2015-06-26 Method and apparatus for speech recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140192711A KR102117082B1 (ko) 2014-12-29 2014-12-29 음성 인식 방법 및 음성 인식 장치

Publications (2)

Publication Number Publication Date
KR20160080915A true KR20160080915A (ko) 2016-07-08
KR102117082B1 KR102117082B1 (ko) 2020-05-29

Family

ID=56164965

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140192711A KR102117082B1 (ko) 2014-12-29 2014-12-29 음성 인식 방법 및 음성 인식 장치

Country Status (2)

Country Link
US (1) US10140974B2 (ko)
KR (1) KR102117082B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019098589A1 (ko) * 2017-11-14 2019-05-23 주식회사 시스트란인터내셔널 자동 음성인식 장치 및 방법
KR20200106644A (ko) * 2019-03-05 2020-09-15 충북대학교 산학협력단 형태소 발음변이를 고려한 음성인식 단위 생성 장치 및 방법
CN112185356A (zh) * 2020-09-29 2021-01-05 北京百度网讯科技有限公司 语音识别方法、装置、电子设备以及存储介质
KR20210128255A (ko) * 2020-04-16 2021-10-26 주식회사 카카오엔터프라이즈 음소의 특성에 관한 통계적 분석에 기초하여 자동적으로 음성 합성 데이터를 평가하는 방법 및 장치

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9589563B2 (en) * 2014-06-02 2017-03-07 Robert Bosch Gmbh Speech recognition of partial proper names by natural language processing
KR102305584B1 (ko) * 2015-01-19 2021-09-27 삼성전자주식회사 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치
US10521945B2 (en) * 2016-12-23 2019-12-31 International Business Machines Corporation Text-to-articulatory movement
KR20200026295A (ko) * 2017-07-10 2020-03-10 복스 프론테라, 인크. 음절 기반 자동 음성 인식
CN108417202B (zh) * 2018-01-19 2020-09-01 苏州思必驰信息科技有限公司 语音识别方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040193408A1 (en) * 2003-03-31 2004-09-30 Aurilab, Llc Phonetically based speech recognition system and method
JP2005257954A (ja) * 2004-03-10 2005-09-22 Nec Corp 音声検索装置、音声検索方法および音声検索プログラム
WO2008106655A1 (en) * 2007-03-01 2008-09-04 Apapx, Inc. System and method for dynamic learning
KR20100069120A (ko) * 2008-12-16 2010-06-24 한국전자통신연구원 운율 모델을 이용한 형태소 품사 태깅 방법 및 그 장치
JP2010522923A (ja) * 2007-04-13 2010-07-08 マサチューセッツ インスティテュート オブ テクノロジー 音声データ検索装置、音声データ検索方法、音声データ検索プログラム、及びコンピュータが読取可能な音声データ検索プログラムを内蔵したコンピュータが使用可能な媒体
KR20110017600A (ko) * 2009-08-14 2011-02-22 한국전자통신연구원 전자사전에서 음성인식을 이용한 단어 탐색 장치 및 그 방법

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3428309B2 (ja) 1996-09-24 2003-07-22 松下電器産業株式会社 音声認識装置
US6567779B1 (en) 1997-08-05 2003-05-20 At&T Corp. Method and system for aligning natural and synthetic video to speech synthesis
US7725307B2 (en) 1999-11-12 2010-05-25 Phoenix Solutions, Inc. Query engine for processing voice based queries including semantic decoding
US7392185B2 (en) 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
JP4105841B2 (ja) 2000-07-11 2008-06-25 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声認識方法、音声認識装置、コンピュータ・システムおよび記憶媒体
KR100366601B1 (ko) 2001-03-15 2003-01-06 (주) 보이스웨어 음절 단위로 음성인식을 수행하는 방법 및 그 장치
JP4072718B2 (ja) 2002-11-21 2008-04-09 ソニー株式会社 音声処理装置および方法、記録媒体並びにプログラム
KR100668297B1 (ko) 2002-12-31 2007-01-12 삼성전자주식회사 음성인식방법 및 장치
KR100639931B1 (ko) 2004-11-24 2006-11-01 한국전자통신연구원 대화형 음성인식 시스템의 인식오류 수정장치 및 그 방법
US9575953B2 (en) 2006-09-07 2017-02-21 Nec Corporation Natural-language processing system and dictionary registration system
KR100827802B1 (ko) * 2006-10-24 2008-05-07 삼성전자주식회사 휴대 단말기의 화상 통화 장치 및 화상 통화 송수신방법
JP5141687B2 (ja) * 2007-07-31 2013-02-13 富士通株式会社 音声認識用照合ルール学習システム、音声認識用照合ルール学習プログラムおよび音声認識用照合ルール学習方法
KR101122590B1 (ko) 2011-06-22 2012-03-16 (주)지앤넷 음성 데이터 분할에 의한 음성 인식 장치 및 방법
KR101210432B1 (ko) 2011-07-14 2012-12-10 주식회사 시공미디어 단어 학습을 위한 전자학습장치 및 학습컨텐츠 제공방법
US8849666B2 (en) * 2012-02-23 2014-09-30 International Business Machines Corporation Conference call service with speech processing for heavily accented speakers
US9542936B2 (en) * 2012-12-29 2017-01-10 Genesys Telecommunications Laboratories, Inc. Fast out-of-vocabulary search in automatic speech recognition systems
CN104157285B (zh) * 2013-05-14 2016-01-20 腾讯科技(深圳)有限公司 语音识别方法、装置及电子设备
US9697201B2 (en) * 2014-11-24 2017-07-04 Microsoft Technology Licensing, Llc Adapting machine translation data using damaging channel model

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040193408A1 (en) * 2003-03-31 2004-09-30 Aurilab, Llc Phonetically based speech recognition system and method
JP2005257954A (ja) * 2004-03-10 2005-09-22 Nec Corp 音声検索装置、音声検索方法および音声検索プログラム
WO2008106655A1 (en) * 2007-03-01 2008-09-04 Apapx, Inc. System and method for dynamic learning
JP2010522923A (ja) * 2007-04-13 2010-07-08 マサチューセッツ インスティテュート オブ テクノロジー 音声データ検索装置、音声データ検索方法、音声データ検索プログラム、及びコンピュータが読取可能な音声データ検索プログラムを内蔵したコンピュータが使用可能な媒体
KR20100069120A (ko) * 2008-12-16 2010-06-24 한국전자통신연구원 운율 모델을 이용한 형태소 품사 태깅 방법 및 그 장치
KR20110017600A (ko) * 2009-08-14 2011-02-22 한국전자통신연구원 전자사전에서 음성인식을 이용한 단어 탐색 장치 및 그 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019098589A1 (ko) * 2017-11-14 2019-05-23 주식회사 시스트란인터내셔널 자동 음성인식 장치 및 방법
KR20200106644A (ko) * 2019-03-05 2020-09-15 충북대학교 산학협력단 형태소 발음변이를 고려한 음성인식 단위 생성 장치 및 방법
KR20210128255A (ko) * 2020-04-16 2021-10-26 주식회사 카카오엔터프라이즈 음소의 특성에 관한 통계적 분석에 기초하여 자동적으로 음성 합성 데이터를 평가하는 방법 및 장치
CN112185356A (zh) * 2020-09-29 2021-01-05 北京百度网讯科技有限公司 语音识别方法、装置、电子设备以及存储介质

Also Published As

Publication number Publication date
US10140974B2 (en) 2018-11-27
KR102117082B1 (ko) 2020-05-29
US20160189710A1 (en) 2016-06-30

Similar Documents

Publication Publication Date Title
KR102117082B1 (ko) 음성 인식 방법 및 음성 인식 장치
KR102386854B1 (ko) 통합 모델 기반의 음성 인식 장치 및 방법
KR102375115B1 (ko) 엔드-투-엔드 모델들에서 교차-언어 음성 인식을 위한 음소-기반 컨텍스트화
US20170025119A1 (en) Apparatus and method of acoustic score calculation and speech recognition
KR102396983B1 (ko) 문법 교정 방법 및 장치
US10373607B2 (en) Testing words in a pronunciation lexicon
US8566076B2 (en) System and method for applying bridging models for robust and efficient speech to speech translation
US10140976B2 (en) Discriminative training of automatic speech recognition models with natural language processing dictionary for spoken language processing
US8849668B2 (en) Speech recognition apparatus and method
JP6955963B2 (ja) 検索装置、類似度算出方法、およびプログラム
KR20210016767A (ko) 음성 인식 방법 및 음성 인식 장치
WO2014085049A1 (en) Speech transcription including written text
EP2988298B1 (en) Response generation method, response generation apparatus, and response generation program
CN112346696A (zh) 虚拟助理的语音比较
KR102106797B1 (ko) 복합 문장 분석 장치, 이를 위한 기록매체
Rawoof et al. ARM based implementation of Text-To-Speech (TTS) for real time Embedded System
Sharma et al. Speech summarization using restricted self-attention
KR20120045906A (ko) 코퍼스 오류 교정 장치 및 그 방법
KR20230156125A (ko) 룩업 테이블 순환 언어 모델
JP6879521B1 (ja) 多言語音声認識およびテーマ−意義素解析方法および装置
KR20150042532A (ko) 복합 문장 분석 장치, 이를 위한 기록매체
US11210337B2 (en) System and method for searching audio data
Demuynck et al. Robust phone lattice decoding
KR101729972B1 (ko) 타국인 발화 음성을 위한 음성 인식 장치
KR20160036995A (ko) 음성 신호 전처리 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant