KR20210115645A - 복수의 언어에 대한 음성 인식을 수행하는 음성 처리 서버, 방법 및 컴퓨터 프로그램 - Google Patents

복수의 언어에 대한 음성 인식을 수행하는 음성 처리 서버, 방법 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR20210115645A
KR20210115645A KR1020200031709A KR20200031709A KR20210115645A KR 20210115645 A KR20210115645 A KR 20210115645A KR 1020200031709 A KR1020200031709 A KR 1020200031709A KR 20200031709 A KR20200031709 A KR 20200031709A KR 20210115645 A KR20210115645 A KR 20210115645A
Authority
KR
South Korea
Prior art keywords
texts
voice
server
speech
recognition
Prior art date
Application number
KR1020200031709A
Other languages
English (en)
Inventor
김진원
장두성
정진욱
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020200031709A priority Critical patent/KR20210115645A/ko
Publication of KR20210115645A publication Critical patent/KR20210115645A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

복수의 언어에 대한 음성 인식을 수행하는 음성 처리 서버는 사용자 단말로부터 음성 데이터를 수신하고, 상기 음성 데이터를 적어도 하나의 음성 인식 서버로 전송하는 음성 데이터 송수신부, 상기 적어도 하나의 음성 인식 서버로부터 상기 음성 데이터가 다중 언어로 인식된 복수의 텍스트를 포함하는 음성 인식 결과를 수신하는 음성 인식 결과 수신부, 기설정된 기계 학습 알고리즘에 기초하여 상기 복수의 텍스트 각각에 대한 발화 확률을 도출하는 발화 확률 도출부, 상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 중 최종 텍스트를 선택하는 음성 처리부 및 상기 최종 텍스트를 상기 사용자 단말로 전송하는 음성 처리 결과 전송부를 포함하고, 상기 음성 인식 결과 및 상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 각각에 대한 언어 해석이 수행되고, 상기 복수의 텍스트 각각에 대한 언어 해석의 수행 결과에 기초하여 상기 최종 텍스트가 선택된다.

Description

복수의 언어에 대한 음성 인식을 수행하는 음성 처리 서버, 방법 및 컴퓨터 프로그램{SERVER, METHOD AND COMPUTER PROGRAM FOR RECOGNIZING VOICE DATA OF MULTIPLE LANGUAGE}
본 발명은 복수의 언어에 대한 음성 인식을 수행하는 음성 처리 서버, 방법 및 컴퓨터 프로그램에 관한 것이다.
음성 인식은 음향학적 신호를 분석하여 특징을 추출하고, 이와 근접한 단어 또는 문장 등의 문자 데이터로 변환하는 기술이다. 음성 인식 시스템은 음성 신호를 입력받아 언어적 의미 내용을 인식하고, 이에 따른 결과를 출력하거나 특정 작업을 수행할 수 있다.
최근 사물 인터넷, 인공지능 기기 등이 보편화되면서 음성 인식 기술을 이용한 서비스도 여러 방면에서 다양하게 활용되고 있다. 음성 인식 서비스의 대표적인 예로, 2011년에 출시된 애플의 음성 기반 개인비서 서비스인 ‘시리(Siri)’가 있다.
일반적으로 음성 인식 서비스는, 음성 인식을 수행하기 전에 미리 화자가 사용하는 언어가 설정되고, 설정된 언어를 기준으로 수행된 음성 인식의 결과를 출력한다. 따라서, 특정 언어가 미리 설정되어 있는 상태에서 이와 다른 언어의 음성 데이터가 입력되면, 음성 인식을 수행할 수 없거나, 입력 데이터와 전혀 다른 의미의 잘못 인식된 결과가 출력된다는 문제점이 있었다. 또한, 다른 언어로 잘못 인식한 결과가 음성 인식 서비스에 오류로 작용하여 음성 인식 서비스의 전반적인 정확도 및 신뢰도를 떨어뜨리는 문제점이 있었다.
또한, 공항, 관광지, 호텔, 쇼핑몰 등과 같이 다양한 언어가 사용되는 곳에서 음성 인식 서비스를 이용하는 경우, 먼저 언어를 설정하는 절차를 매번 거쳐야 하는 번거로움이 존재하였다. 또한, 종래의 언어 식별 기술은 정확도가 낮고, 두 개의 언어만을 구별하거나, 특정 상황에서만 적용될 수 있는 등, 실제로 적용될 수 있는 환경이 매우 제한적인 실정이다.
일본공개특허공보 제 2004-347732호 (2004.12.09. 공개)
임의의 언어로 발화된 음성 데이터에 대하여 언어 식별 및 음성 인식을 수행할 수 있는 음성 인식 시스템을 제공하고자 한다.
다양한 언어가 사용되는 환경에서 음성 인식을 수행할 수 있는 음성 처리 서버, 방법 및 컴퓨터 프로그램을 제공하고자 한다.
음성 인식의 정확도 및 속도를 향상시킬 수 있는 음성 처리 서버, 방법 및 컴퓨터 프로그램을 제공하고자 한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 수단으로서, 본 발명의 일 실시예는, 복수의 언어에 대한 음성 인식을 수행하는 음성 처리 서버에 있어서, 사용자 단말로부터 음성 데이터를 수신하고, 상기 음성 데이터를 적어도 하나의 음성 인식 서버로 전송하는 음성 데이터 송수신부, 상기 적어도 하나의 음성 인식 서버로부터 상기 음성 데이터가 다중 언어로 인식된 복수의 텍스트를 포함하는 음성 인식 결과를 수신하는 음성 인식 결과 수신부, 기설정된 기계 학습 알고리즘에 기초하여 상기 복수의 텍스트 각각에 대한 발화 확률을 도출하는 발화 확률 도출부, 상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 중 최종 텍스트를 선택하는 음성 처리부 및 상기 최종 텍스트를 상기 사용자 단말로 전송하는 음성 처리 결과 전송부를 포함하고, 상기 음성 인식 결과 및 상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 각각에 대한 언어 해석이 수행되고, 상기 복수의 텍스트 각각에 대한 언어 해석의 수행 결과에 기초하여 상기 최종 텍스트가 선택될 수 있다.
일 실시예에서, 상기 음성 인식 결과는 상기 음성 데이터와 상기 복수의 텍스트 각각이 유사한 정도에 기초하여 도출된 인식 신뢰도를 더 포함할 수 있다.
일 실시예에서, 상기 인식 신뢰도는 상기 음성 데이터 및 상기 복수의 텍스트 각각의 음향 모델의 유사도 및 언어 모델의 유사도에 기초하여 도출될 수 있다.
일 실시예에서, 상기 음향 모델의 유사도는 상기 음성 데이터 및 상기 복수의 텍스트 각각을 음소 단위로 비교하여 음향 모델이 유사한지 여부에 기초하여 도출되고, 상기 언어 모델의 유사도는 상기 복수의 텍스트 각각에 포함되는 단어들 간의 결합 확률에 기초하여 도출될 수 있다.
일 실시예에서, 상기 기설정된 기계 학습 알고리즘은 상기 복수의 텍스트 각각에 대한 인식 신뢰도를 입력으로 하고 상기 복수의 텍스트 각각에 대한 발화 확률을 출력으로 하도록 학습된 것일 수 있다.
일 실시예에서, 상기 기설정된 기계 학습 알고리즘은 서포트 벡터 머신(support vector machine)을 이용할 수 있다.
일 실시예에서, 상기 음성 처리부는 상기 음성 데이터의 의미를 해석하는 언어 해석 서버로 상기 복수의 텍스트 및 상기 복수의 텍스트 각각에 대한 발화 확률을 전송하고, 상기 언어 해석 서버로부터 상기 최종 텍스트를 수신할 수 있다.
일 실시예에서, 상기 최종 텍스트는 상기 언어 해석 서버에 의하여 상기 복수의 텍스트의 발화 확률이 높은 순으로 의미가 해석되는지 여부가 판단되어 선택된 것일 수 있다.
본 발명의 다른 실시예는, 복수의 언어에 대한 음성 인식을 수행하는 음성 처리 방법에 있어서, 사용자 단말로부터 음성 데이터를 수신하는 단계, 상기 음성 데이터를 적어도 하나의 음성 인식 서버로 전송하는 단계, 상기 적어도 하나의 음성 인식 서버로부터 상기 음성 데이터가 다중 언어로 인식된 복수의 텍스트를 포함하는 음성 인식 결과를 수신하는 단계, 기설정된 기계 학습 알고리즘에 기초하여 상기 복수의 텍스트 각각에 대한 발화 확률을 도출하는 단계, 상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 중 최종 텍스트를 선택하는 단계 및 상기 최종 텍스트를 상기 사용자 단말로 전송하는 단계를 포함하고, 상기 음성 인식 결과 및 상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 각각에 대한 언어 해석이 수행되고, 상기 복수의 텍스트 각각에 대한 언어 해석의 수행 결과에 기초하여 상기 최종 텍스트가 선택될 수 있다.
본 발명의 또 다른 실시예는, 복수의 언어에 대한 음성 인식을 수행하는 명령어들의 시퀀스를 포함하는 매체에 저장된 컴퓨터 프로그램에 있어서, 사용자 단말로부터 음성 데이터를 수신하고, 상기 음성 데이터를 적어도 하나의 음성 인식 서버로 전송하고, 상기 적어도 하나의 음성 인식 서버로부터 상기 음성 데이터가 다중 언어로 인식된 복수의 텍스트를 포함하는 음성 인식 결과를 수신하고, 기설정된 기계 학습 알고리즘에 기초하여 상기 복수의 텍스트 각각에 대한 발화 확률을 도출하고, 상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 중 최종 텍스트를 선택하고, 상기 최종 텍스트를 상기 사용자 단말로 전송하도록 하는 명령어들의 시퀀스를 포함하고, 상기 음성 인식 결과 및 상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 각각에 대한 언어 해석이 수행되고, 상기 복수의 텍스트 각각에 대한 언어 해석의 수행 결과에 기초하여 상기 최종 텍스트가 선택될 수 있다.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 음성 데이터에 대한 언어 식별의 정확도를 향상할 수 있다.
또한, 본 발명은 복수의 언어에 대하여 언어 식별과 동시에 음성 인식을 수행할 수 있다.
또한, 본 발명은 인식 언어를 미리 설정하지 않고도 정확하고 효율적으로 음성 인식을 수행할 수 있다.
또한, 본 발명의 음성 인식 기술을 이용하여 다양한 서비스를 제공함으로써 사용자의 편의를 도모할 수 있다.
도 1은 본 발명의 일 실시예에 따른 음성 인식 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 음성 처리 서버의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 음성 처리 방법의 순서도이다.
도 4는 본 발명의 일 실시예에 따른 음성 인식 시스템에서 음성 인식을 수행하는 방법의 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
이하에서 언급되는 “네트워크”는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.
이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 음성 인식 시스템의 구성도이다. 도 1을 참조하면, 음성 인식 시스템(100)은 음성 처리 서버(110), 사용자 단말(120), 음성 인식 서버(130) 및 언어 해석 서버(140)를 포함할 수 있다.
음성 인식 시스템(100)은 복수의 언어에 대한 음성 인식을 수행할 수 있다. 음성 인식 시스템(100)은 음성 데이터의 언어를 식별하고, 이에 기초하여 음성 인식을 수행할 수 있다. 음성 인식 시스템(100)은 음성 인식을 수행할 언어가 미리 설정되어 있지 않은 경우에도 음성 인식을 수행할 수 있다. 음성 인식 시스템(100)은 임의의 언어를 사용하여 발화된 음성 데이터에 대하여 음성 인식을 수행할 수 있다.
음성 인식 시스템(100)은 복수의 언어에 대한 음성 인식을 수행한 결과를 사용자에게 제공할 수 있다. 예를 들어, 사용자 단말(120)에 탑재된 스피커 또는 디스플레이를 통해 음성 인식 결과를 출력할 수 있다.
음성 처리 서버(110)는 네트워크를 통하여 사용자 단말(120), 음성 인식 서버(130) 또는 언어 해석 서버(140)와 연결될 수 있다. 음성 처리 서버(110)는 네트워크를 통하여 사용자 단말(120), 음성 인식 서버(130) 또는 언어 해석 서버(140)와 데이터를 송신 또는 수신할 수 있다. 예를 들어, 음성 처리 서버(110)는 사용자 단말(120)로부터 음성 데이터를 수신하고, 음성 인식 서버(130)로 음성 데이터를 송신할 수 있다.
복수 개의 음성 인식 서버(130_1, 130_2,…,130_N)는 대응하는 각 언어에 기초하여 음성 데이터에 대한 음성 인식을 수행할 수 있다.
예를 들어, 음성 인식 시스템(100)은 네 개의 음성 인식 서버(130_1, 130_2, 130_3, 130_4)를 포함할 수 있다. 음성 인식 서버(130_1)는 한국어에 기초하여 음성 인식을 수행하고, 음성 인식 서버(130_2)는 영어에 기초하여 음성 인식을 수행하고, 음성 인식 서버(130_3)는 중국어에 기초하여 음성 인식을 수행하고, 음성 인식 서버(130_4)는 일본어에 기초하여 음성 인식을 수행할 수 있다.
음성 인식 서버(130)는 음성 데이터에 대하여 음성 인식을 수행하여 인식된 텍스트를 도출할 수 있다. 예를 들어, 음성 인식 서버(130_1, 130_2, 130_3, 130_4)는 대응하는 각 언어에 기초하여 음성 인식된 텍스트를 도출할 수 있다.
일 실시예에서, 음성 인식 서버(130)는 음향 모델 및 언어 모델을 이용하여 유사도가 높은 텍스트를 검색함으로써 음성 인식을 수행할 수 있다. 예를 들어, 음성 인식 서버(130)는 아래의 수학식 1을 이용하여 음성 인식을 수행할 수 있다.
Figure pat00001
여기서 W는 발화 텍스트이고, O는 음성 데이터이고,
Figure pat00002
는 인식된 텍스트이고, L은 발음 사전이고, LMSF는 언어 모델 스케일링 팩터(Language Model Scaling Factor)일 수 있다. P(O|W)는 발화 텍스트(W)에 대한 음성 데이터(O)의 확률을 나타내는 음향 모델(Acoustic Model)이고, P(W)는 발화 텍스트(W)에 대한 확률을 나타내는 언어모델(Language Model)일 수 있다.
음성 인식 서버(130)는 인식된 텍스트에 대한 인식 신뢰도를 더 도출할 수 있다. 인식 신뢰도는 음성 데이터 및 인식된 텍스트가 유사한 정도에 기초하여 도출될 수 있다. 인식 신뢰도는 예를 들어, 음성 데이터 및 텍스트의 음향 모델의 유사도 및 언어 모델의 유사도에 기초하여 도출될 수 있다.
음성 인식 서버(130)는 음성 데이터와 인식된 텍스트를 음소 단위로 비교하여 음향 모델이 유사한지 여부에 기초하여 음향 모델 유사도를 도출할 수 있다. 음성 인식 서버(130)는 예를 들어, 아래의 수학식 2를 이용하여 음향 모델 유사도를 도출할 수 있다.
Figure pat00003
여기서 W는 발화 텍스트이고, O는 음성 데이터일수 있다. 음성 인식 서버(130)는 음소 단위의 음향 모델 유사도를 누적하여, 전체 텍스트의 음향 모델 유사도를 도출할 수 있다.
음성 인식 서버(130)는 복수의 텍스트 각각에 포함되는 단어들 간의 결합 확률에 기초하여 언어 모델 유사도를 도출할 수 있다. 음성 인식 서버(130)는 예를 들어, 아래의 수학식 3를 이용하여 언어 모델 유사도를 도출할 수 있다.
Figure pat00004
여기서 LMSF는 언어 모델 스케일링 팩터이고, W는 발화 텍스트일수 있다.
음성 인식 서버(130)는 상술한 음향 모델 유사도 및 언어 모델 유사도에 기초하여 인식된 텍스트에 대한 인식 신뢰도를 도출할 수 있다.
일반적으로, 음성 데이터와 같은 언어에 대응하는 음성 인식 서버(130)는, 해당하는 언어의 음성 데이터에 대하여 음향 모델 및 언어 모델의 유사도가 높기 때문에, 인식된 텍스트에 대하여 인식 신뢰도가 높게 도출될 수 있다. 이에 반해, 음성 데이터와 다른 언어에 대응하는 음성 인식 서버(130)는, 인식된 텍스트에 대하여 인식 신뢰도가 낮게 도출될 수 있다. 본 발명은 음성 인식 결과에 인식 신뢰도를 포함함으로써, 복수의 언어에 대한 음성 인식을 보다 정확하게 수행할 수 있다.
예를 들어 하나의 음성 데이터에 대하여, 음성 인식 서버(130_1)는 한국어에 기초하여 텍스트 “하우스 웨딩” 및 인식 신뢰도 -70.12를 도출하고, 음성 인식 서버(130_2)는 영어에 기초하여 텍스트 “How's the weather” 및 인식 신뢰도 -149.88를 도출하고, 음성 인식 서버(130_3)는 중국어에 기초하여 텍스트 “好水的” 및 인식 신뢰도 -38.67를 도출하고, 음성 인식 서버(130_4)는 일본어에 기초하여 텍스트 “何をすればいいんだ” 및 인식 신뢰도 -35.19를 도출할 수 있다. 여기서 인식 신뢰도의 값이 작을수록(절댓값이 클수록) 높은 인식 신뢰도를 의미할 수 있다.
도 2는 본 발명의 일 실시예에 따른 음성 처리 서버(110)의 구성도이다. 도 2를 참조하면, 음성 처리 서버(110)는 음성 데이터 송수신부(111), 음성 인식 결과 수신부(112), 발화 확률 도출부(113), 음성 처리부(114) 및 음성 처리 결과 전송부(115)를 포함할 수 있다.
음성 데이터 송수신부(111)는 사용자 단말(120)로부터 음성 데이터를 수신할 수 있다. 음성 데이터 송수신부(111)는 예를 들어, 사용자 단말(120)의 마이크로폰 등의 인터페이스를 통해 입력된 음성 데이터를 수신할 수 있다. 음성 데이터 송수신부(111)는 예를 들어, 사용자 단말(120)에서 멀티미디어 데이터로부터 추출된 음성 데이터를 수신할 수 있다.
이때, 도시하지 않은 전처리부는 수신한 음성 데이터에 대하여 노이즈를 제거하는 등의 전처리를 수행할 수 있다.
음성 인식 결과 수신부(112)는 적어도 하나의 음성 인식 서버(130)로부터 음성 인식 결과를 수신할 수 있다. 음성 인식 결과는 예를 들어, 음성 데이터가 다중 언어로 인식된 복수의 텍스트 및 각 텍스트에 대한 인식 신뢰도를 포함할 수 있다.
발화 확률 도출부(113)는 기설정된 기계 학습 알고리즘에 기초하여 복수의 텍스트 각각에 대한 발화 확률을 도출할 수 있다. 일 실시예에서, 기설정된 기계 학습 알고리즘은 서포트 벡터 머신(support vector machine)을 이용할 수 있다.
다른 실시예에서, 기설정된 기계 학습 알고리즘은 결정 트리, 딥뉴럴네트워크(DNN) 중 어느 하나를 이용할 수 있다.
이때, 각 음성 인식 서버(130)에서 이용되는 음성 인식 모델의 훈련에 사용된 데이터, 훈련 정도에 따라서 인식 신뢰도에 영향이 미칠 수 있다. 즉, 서로 다른 음성 인식 서버(130)에서 도출된 인식 신뢰도를 일률적으로 비교하여 언어를 식별하는 경우 오류가 발생할 수 있다. 예를 들어, 한국어로 인식된 텍스트의 인식 신뢰도가 영어로 인식된 텍스트의 인식 신뢰도보다 높다고 해서, 음성 데이터가 한국어로 발화된 것으로 단정할 수 없다. 따라서, 본 발명은 복수의 텍스트 각각에 대한 발화 확률을 도출하여 언어 식별의 오류를 보완할 수 있다.
기설정된 기계 학습 알고리즘은 복수의 텍스트 및 복수의 텍스트 각각에 대한 인식 신뢰도를 입력으로 할 수 있다. 기설정된 기계 학습 알고리즘은 입력에 대하여 복수의 텍스트 각각에 대한 발화 확률을 출력으로 하도록 학습된 것일 수 있다. 발화 확률 도출부(113)는 학습이 완료된 기설정된 기계 학습 알고리즘에 기초하여 복수의 텍스트 각각에 대한 발화 확률을 도출할 수 있다.
예를 들어 하나의 음성 데이터에 대한 한국어 텍스트 및 한국어 인식 신뢰도 -70.12, 영어 텍스트 및 영어 인식 신뢰도 -149.88, 중국어 텍스트 및 중국어 인식 신뢰도 -38.67 및 일본어 텍스트 및 일본어 인식 신뢰도 -35.19를 기설정된 기계 학습 알고리즘에 입력할 수 있다. 기설정된 기계 학습 알고리즘은 입력에 대하여, 한국어 발화 확률 15.3%, 영어 발화 확률 74.1%, 중국어 발화 확률 5.7%, 일본어 발화 확률 4.9%를 출력할 수 있다.
음성 처리부(114)는 복수의 텍스트 각각에 대한 발화 확률에 기초하여 복수의 텍스트 중 최종 텍스트를 선택할 수 있다. 음성 처리부(114)는 예를 들어, 언어 해석 서버(140)로부터 최종 텍스트를 수신함으로써, 복수의 텍스트 중 최종 텍스트를 선택할 수 있다.
음성 처리부(114)는 음성 데이터의 의미를 해석하는 언어 해석 서버(140)로 복수의 텍스트 및 복수의 텍스트 각각에 대한 발화 확률을 전송할 수 있다.
언어 해석 서버(140)는 음성 인식 결과 및 복수의 텍스트 각각에 대한 발화 확률에 기초하여 복수의 텍스트 각각에 대한 언어 해석을 수행할 수 있다. 언어 해석 서버(140)는 복수의 텍스트 각각에 대한 언어 해석의 수행 결과에 기초하여 최종 텍스트를 선택할 수 있다.
최종 텍스트는 언어 해석 서버(140)에 의하여 복수의 텍스트의 발화 확률이 높은 순으로 의미가 해석되는지 여부가 판단되어 선택된 것일 수 있다. 언어 해석 서버(140)는 발화 의도, 사용자의 대화 문장 이력, 사용자의 발화 언어 이력 등에 기초하여 의미가 해석되는지 여부를 판단할 수 있다.
예를 들어, 언어 해석 서버(140)는 각 언어로 음성 인식된 복수의 텍스트 및 한국어 발화 확률 15.3%, 영어 발화 확률 74.1%, 중국어 발화 확률 5.7%, 일본어 발화 확률 4.9%을 수신할 수 있다. 언어 해석 서버(140)는 먼저 발화 확률이 가장 높은 영어로 인식된 텍스트에 대하여 의미가 해석되는지 여부를 판단할 수 있다. 영어로 인식된 텍스트가 의미가 해석되는 경우, 언어 해석 서버(140)는 이를 최종 텍스트로 선택할 수 있다. 영어로 인식된 텍스트가 의미가 해석되지 않는 경우, 언어 해석 서버(140)는 차순위로 발화 확률이 높은 한국어로 인식된 텍스트에 대하여 의미가 해석되는지 여부를 판단할 수 있다. 언어 해석 서버(140)는 상술한 과정을 거쳐 복수의 텍스트 중에서 최종 텍스트를 선택할 수 있다.
음성 처리부(114)는 언어 해석 서버(140)로부터 최종 텍스트를 수신할 수 있다.
음성 처리 결과 전송부(115)는 최종 텍스트를 사용자 단말(120)로 전송할 수 있다. 사용자 단말(120)은 예를 들어, 스피커, 디스플레이 등을 이용하여 음성 인식의 결과를 출력할 수 있다.
도 3은 본 발명의 일 실시예에 따른 음성 처리 방법의 순서도이다. 도 3에 도시된 음성 처리 서버(110)에서 수행되는 음성을 처리하는 방법(300)은 도 2에 도시된 실시예에 따라 음성 처리 서버(110)에 의해 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 2에 도시된 실시예에 따른 음성 처리 서버(110)에서 수행되는 음성을 처리하는 방법에도 적용된다.
단계 S310에서 음성 처리 서버(110)는 사용자 단말(120)로부터 음성 데이터를 수신할 수 있다.
단계 S320에서 음성 처리 서버(110)는 음성 데이터를 적어도 하나의 음성 인식 서버(130)로 전송할 수 있다.
단계 S330에서 음성 처리 서버(110)는 적어도 하나의 음성 인식 서버(130)로부터 음성 데이터가 다중 언어로 인식된 복수의 텍스트를 포함하는 음성 인식 결과를 수신할 수 있다.
단계 S340에서 음성 처리 서버(110)는 기설정된 기계 학습 알고리즘에 기초하여 복수의 텍스트 각각에 대한 발화 확률을 도출할 수 있다.
단계 S350에서 음성 처리 서버(110)는 복수의 텍스트 각각에 대한 발화 확률에 기초하여 복수의 텍스트 중 최종 텍스트를 선택할 수 있다.
단계 S360에서 음성 처리 서버(110)는 최종 텍스트를 사용자 단말(120)로 전송할 수 있다.
상술한 설명에서, 단계 S310 내지 S360은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.
도 4는 본 발명의 일 실시예에 따른 음성 인식 시스템에서 음성 인식을 수행하는 방법의 흐름도이다.
도 4에 도시된 음성 인식 시스템(100)에서 음성 인식을 수행하는 방법(400)은 도 1에 도시된 실시예에 따라 음성 인식 시스템(100)에 의해 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1에 도시된 실시예에 따른 음성 인식 시스템(100)에서 수행되는 음성을 인식하는 방법에도 적용된다.
단계 S401에서 음성 처리 서버(110)는 사용자 단말(120)로부터 음성 데이터를 수신할 수 있다.
단계 S402에서 음성 처리 서버(110)는 음성 데이터를 적어도 하나의 음성 인식 서버(130)로 전송할 수 있다.
단계 S403에서 음성 인식 서버(130)는 음성 데이터에 대하여 음성 인식을 수행하여 텍스트 및 인식 신뢰도를 도출할 수 있다.
단계 S404에서 음성 처리 서버(110)는 음성 인식 서버(130)로부터 음성 인식 결과를 수신할 수 있다. 음성 인식 결과는 예를 들어, 텍스트 및 인식 신뢰도를 포함할 수 있다.
단계 S405에서 음성 처리 서버(110)는 복수의 텍스트 각각에 대한 발화 확률을 도출할 수 있다.
단계 S406에서 음성 처리 서버(110)는 언어 해석 서버(140)로 복수의 텍스트 및 복수의 텍스트 각각에 대한 발화 확률을 전송할 수 있다.
단계 S407에서 언어 해석 서버(140)는 언어 해석을 수행할 수 있다. 언어 해석 서버(140)는 예를 들어, 복수의 텍스트 중에서 최종 텍스트를 선택함으로써 언어 해석을 수행할 수 있다.
단계 S408에서 음성 처리 서버(110)는 언어 해석 서버(140)로부터 최종 텍스트를 수신할 수 있다.
단계 S409에서 음성 처리 서버(110)는 사용자 단말(120)로 최종 텍스트를 전송할 수 있다.
상술한 설명에서, 단계 S401 내지 S409는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.
도 1 내지 도 4를 통해 설명된 음성 처리 서버에서 음성을 처리하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다.
컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 음성 인식 시스템
110: 음성 처리 서버
111: 음성 데이터 송수신부
112: 음성 인식 결과 수신부
113: 발화 확률 도출부
114: 음성 처리부
115: 음성 처리 결과 전송부

Claims (17)

  1. 복수의 언어에 대한 음성 인식을 수행하는 음성 처리 서버에 있어서,
    사용자 단말로부터 음성 데이터를 수신하고, 상기 음성 데이터를 적어도 하나의 음성 인식 서버로 전송하는 음성 데이터 송수신부;
    상기 적어도 하나의 음성 인식 서버로부터 상기 음성 데이터가 다중 언어로 인식된 복수의 텍스트를 포함하는 음성 인식 결과를 수신하는 음성 인식 결과 수신부;
    기설정된 기계 학습 알고리즘에 기초하여 상기 복수의 텍스트 각각에 대한 발화 확률을 도출하는 발화 확률 도출부;
    상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 중 최종 텍스트를 선택하는 음성 처리부; 및
    상기 최종 텍스트를 상기 사용자 단말로 전송하는 음성 처리 결과 전송부
    를 포함하고,
    상기 음성 인식 결과 및 상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 각각에 대한 언어 해석이 수행되고, 상기 복수의 텍스트 각각에 대한 언어 해석의 수행 결과에 기초하여 상기 최종 텍스트가 선택되는 것인, 음성 처리 서버.
  2. 제 1 항에 있어서,
    상기 음성 인식 결과는 상기 음성 데이터와 상기 복수의 텍스트 각각이 유사한 정도에 기초하여 도출된 인식 신뢰도를 더 포함하는 것인, 음성 처리 서버.
  3. 제 2 항에 있어서,
    상기 인식 신뢰도는 상기 음성 데이터 및 상기 복수의 텍스트 각각의 음향 모델의 유사도 및 언어 모델의 유사도에 기초하여 도출되는 것인, 음성 처리 서버.
  4. 제 3 항에 있어서,
    상기 음향 모델의 유사도는 상기 음성 데이터 및 상기 복수의 텍스트 각각을 음소 단위로 비교하여 음향 모델이 유사한지 여부에 기초하여 도출되고,
    상기 언어 모델의 유사도는 상기 복수의 텍스트 각각에 포함되는 단어들 간의 결합 확률에 기초하여 도출되는 것인, 음성 처리 서버.
  5. 제 2 항에 있어서,
    상기 기설정된 기계 학습 알고리즘은 상기 복수의 텍스트 각각 및 상기 복수의 텍스트 각각에 대한 인식 신뢰도를 입력으로 하고 상기 복수의 텍스트 각각에 대한 발화 확률을 출력으로 하도록 학습된 것인, 음성 처리 서버.
  6. 제 5 항에 있어서,
    상기 기설정된 기계 학습 알고리즘은 서포트 벡터 머신(support vector machine)을 이용하는 것인, 음성 처리 서버.
  7. 제 1 항에 있어서,
    상기 음성 처리부는 상기 음성 데이터의 의미를 해석하는 언어 해석 서버로 상기 복수의 텍스트 및 상기 복수의 텍스트 각각에 대한 발화 확률을 전송하고, 상기 언어 해석 서버로부터 상기 최종 텍스트를 수신하는 것인, 음성 처리 서버.
  8. 제 7 항에 있어서,
    상기 최종 텍스트는 상기 언어 해석 서버에 의하여 상기 복수의 텍스트의 발화 확률이 높은 순으로 의미가 해석되는지 여부가 판단되어 선택된 것인, 음성 처리 서버.
  9. 복수의 언어에 대한 음성 인식을 수행하는 음성 처리 방법에 있어서,
    사용자 단말로부터 음성 데이터를 수신하는 단계;
    상기 음성 데이터를 적어도 하나의 음성 인식 서버로 전송하는 단계;
    상기 적어도 하나의 음성 인식 서버로부터 상기 음성 데이터가 다중 언어로 인식된 복수의 텍스트를 포함하는 음성 인식 결과를 수신하는 단계;
    기설정된 기계 학습 알고리즘에 기초하여 상기 복수의 텍스트 각각에 대한 발화 확률을 도출하는 단계;
    상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 중 최종 텍스트를 선택하는 단계; 및
    상기 최종 텍스트를 상기 사용자 단말로 전송하는 단계
    를 포함하고,
    상기 음성 인식 결과 및 상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 각각에 대한 언어 해석이 수행되고, 상기 복수의 텍스트 각각에 대한 언어 해석의 수행 결과에 기초하여 상기 최종 텍스트가 선택되는 것인, 음성 처리 방법.
  10. 제 9 항에 있어서,
    상기 음성 인식 결과는 상기 음성 데이터와 상기 복수의 텍스트 각각이 유사한 정도에 기초하여 도출된 인식 신뢰도를 더 포함하는 것인, 음성 처리 방법.
  11. 제 10 항에 있어서,
    상기 인식 신뢰도는 상기 음성 데이터 및 상기 복수의 텍스트 각각의 음향 모델의 유사도 및 언어 모델의 유사도에 기초하여 도출되는 것인, 음성 처리 방법.
  12. 제 11 항에 있어서,
    상기 음향 모델의 유사도는 상기 음성 데이터 및 상기 복수의 텍스트 각각을 음소 단위로 비교하여 음향 모델이 유사한지 여부에 기초하여 도출되고,
    상기 언어 모델의 유사도는 상기 복수의 텍스트 각각에 포함되는 단어들 간의 결합 확률에 기초하여 도출되는 것인, 음성 처리 방법.
  13. 제 10 항에 있어서,
    상기 기설정된 기계 학습 알고리즘은 상기 복수의 텍스트 각각 및 상기 복수의 텍스트 각각에 대한 인식 신뢰도를 입력으로 하고 상기 복수의 텍스트 각각에 대한 발화 확률을 출력으로 하도록 학습된 것인, 음성 처리 방법.
  14. 제 13 항에 있어서,
    상기 기설정된 기계 학습 알고리즘은 서포트 벡터 머신(support vector machine)을 이용하는 것인, 음성 처리 방법.
  15. 제 9 항에 있어서,
    상기 음성 데이터의 의미를 해석하는 언어 해석 서버로 상기 복수의 텍스트 및 상기 복수의 텍스트 각각에 대한 발화 확률을 전송하는 단계; 및
    상기 언어 해석 서버로부터 상기 최종 텍스트를 수신하는 단계
    를 더 포함하는 것인, 음성 처리 방법.
  16. 제 15 항에 있어서,
    상기 최종 텍스트는 상기 언어 해석 서버에 의하여 상기 복수의 텍스트의 발화 확률이 높은 순으로 의미가 해석되는지 여부가 판단되어 선택된 것인, 음성 처리 방법.
  17. 복수의 언어에 대한 음성 인식을 수행하는 명령어들의 시퀀스를 포함하는 매체에 저장된 컴퓨터 프로그램에 있어서,
    사용자 단말로부터 음성 데이터를 수신하고,
    상기 음성 데이터를 적어도 하나의 음성 인식 서버로 전송하고,
    상기 적어도 하나의 음성 인식 서버로부터 상기 음성 데이터가 다중 언어로 인식된 복수의 텍스트를 포함하는 음성 인식 결과를 수신하고,
    기설정된 기계 학습 알고리즘에 기초하여 상기 복수의 텍스트 각각에 대한 발화 확률을 도출하고,
    상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 중 최종 텍스트를 선택하고,
    상기 최종 텍스트를 상기 사용자 단말로 전송하도록 하는 명령어들의 시퀀스를 포함하고,
    상기 음성 인식 결과 및 상기 복수의 텍스트 각각에 대한 발화 확률에 기초하여 상기 복수의 텍스트 각각에 대한 언어 해석이 수행되고, 상기 복수의 텍스트 각각에 대한 언어 해석의 수행 결과에 기초하여 상기 최종 텍스트가 선택되는 것인, 매체에 저장된 컴퓨터 프로그램.
KR1020200031709A 2020-03-16 2020-03-16 복수의 언어에 대한 음성 인식을 수행하는 음성 처리 서버, 방법 및 컴퓨터 프로그램 KR20210115645A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200031709A KR20210115645A (ko) 2020-03-16 2020-03-16 복수의 언어에 대한 음성 인식을 수행하는 음성 처리 서버, 방법 및 컴퓨터 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200031709A KR20210115645A (ko) 2020-03-16 2020-03-16 복수의 언어에 대한 음성 인식을 수행하는 음성 처리 서버, 방법 및 컴퓨터 프로그램

Publications (1)

Publication Number Publication Date
KR20210115645A true KR20210115645A (ko) 2021-09-27

Family

ID=77925587

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200031709A KR20210115645A (ko) 2020-03-16 2020-03-16 복수의 언어에 대한 음성 인식을 수행하는 음성 처리 서버, 방법 및 컴퓨터 프로그램

Country Status (1)

Country Link
KR (1) KR20210115645A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024076214A1 (ko) * 2022-10-07 2024-04-11 삼성전자 주식회사 음성 인식을 수행하는 전자 장치와 이의 동작 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004347732A (ja) 2003-05-20 2004-12-09 Nippon Telegr & Teleph Corp <Ntt> 言語自動識別方法及び装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004347732A (ja) 2003-05-20 2004-12-09 Nippon Telegr & Teleph Corp <Ntt> 言語自動識別方法及び装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024076214A1 (ko) * 2022-10-07 2024-04-11 삼성전자 주식회사 음성 인식을 수행하는 전자 장치와 이의 동작 방법

Similar Documents

Publication Publication Date Title
US10978047B2 (en) Method and apparatus for recognizing speech
KR102371188B1 (ko) 음성 인식 장치 및 방법과 전자 장치
EP3770905B1 (en) Speech recognition method, apparatus and device, and storage medium
KR102260216B1 (ko) 지능적 음성 인식 방법, 음성 인식 장치, 지능형 컴퓨팅 디바이스 및 서버
KR102565274B1 (ko) 자동 통역 방법 및 장치, 및 기계 번역 방법 및 장치
US11049493B2 (en) Spoken dialog device, spoken dialog method, and recording medium
US10672391B2 (en) Improving automatic speech recognition of multilingual named entities
US20210183392A1 (en) Phoneme-based natural language processing
KR20210009596A (ko) 지능적 음성 인식 방법, 음성 인식 장치 및 지능형 컴퓨팅 디바이스
KR20190098928A (ko) 음성 인식 방법 및 장치
US20190392858A1 (en) Intelligent voice outputting method, apparatus, and intelligent computing device
KR20190077088A (ko) 성문 구축 및 등록 방법 및 그 장치
JP2017058674A (ja) 音声認識のための装置及び方法、変換パラメータ学習のための装置及び方法、コンピュータプログラム並びに電子機器
KR20170033722A (ko) 사용자의 발화 처리 장치 및 방법과, 음성 대화 관리 장치
CN112017645B (zh) 一种语音识别方法及装置
KR102321801B1 (ko) 지능적 음성 인식 방법, 음성 인식 장치 및 지능형 컴퓨팅 디바이스
US20210020175A1 (en) Method, apparatus, device and computer readable storage medium for recognizing and decoding voice based on streaming attention model
WO2021103712A1 (zh) 一种基于神经网络的语音关键词检测方法、装置及系统
KR20190104278A (ko) 지능적 음성 인식 방법, 음성 인식 장치 및 지능형 컴퓨팅 디바이스
CN111986675A (zh) 语音对话方法、设备及计算机可读存储介质
KR20190106935A (ko) 지능적 음성 인식 방법, 음성 인식 장치 및 지능형 컴퓨팅 디바이스
KR20240053639A (ko) 제한된 스펙트럼 클러스터링을 사용한 화자-턴 기반 온라인 화자 구분
JP2012177815A (ja) 音響モデル学習装置、および音響モデル学習方法
KR20200095947A (ko) 전자 장치 및 이의 제어 방법
KR20210115645A (ko) 복수의 언어에 대한 음성 인식을 수행하는 음성 처리 서버, 방법 및 컴퓨터 프로그램