KR20020032835A - 자연어 처리와 음성 인식 병합에 의거한 음성 언어 이해기술 및 그 비즈니스 모델 - Google Patents

자연어 처리와 음성 인식 병합에 의거한 음성 언어 이해기술 및 그 비즈니스 모델 Download PDF

Info

Publication number
KR20020032835A
KR20020032835A KR1020000063534A KR20000063534A KR20020032835A KR 20020032835 A KR20020032835 A KR 20020032835A KR 1020000063534 A KR1020000063534 A KR 1020000063534A KR 20000063534 A KR20000063534 A KR 20000063534A KR 20020032835 A KR20020032835 A KR 20020032835A
Authority
KR
South Korea
Prior art keywords
voice
record information
word
words
user
Prior art date
Application number
KR1020000063534A
Other languages
English (en)
Inventor
정우성
Original Assignee
정우성
주식회사 아르고스이십일
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정우성, 주식회사 아르고스이십일 filed Critical 정우성
Priority to KR1020000063534A priority Critical patent/KR20020032835A/ko
Publication of KR20020032835A publication Critical patent/KR20020032835A/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 인터넷 등 네트워크 상에서 사용자의 음성 지시를 음성 인식과 자연어 처리를 병합한 방법으로 이해하는 기술 즉, 음성 언어 이해 기술 및 그 비즈니스 모델에 관한 것이다. 중계 장치는 본 발명의 실시예에 따른 음성 인식과 검색 등 처리과정을 통하여 음성 지시에 대한 실행을 중계하는 사이트로서, 데이터베이스부외에 운영부, 음성 처리부, 자연어 처리부, 및 실행부로 이루어진다. 본 발명에 의하면, 사용자가 입력한 음성 실행 지시가 네트워크를 통하여 중계 장치에 전송되면, 음성 처리부가 사용자의 음성 지시를 발음 기호로 변환하고, 변환된 발음 기호를 텍스트 형태의 문장으로 만들어 맞춤법에 맞게 보정한 후, 자연어 처리부가 완성된 지시문으로부터 구문 분석에 의한 자연어 처리 과정을 거쳐 실행 지시문의 정확한 뜻갈래를 알아내고 인접 낱말 상호간의 집합적 종속 관계를 파악하여 추출한 핵심어 및 핵심어간 종속관계가 레코드 정보의 핵심어 및 핵심어간 종속관계와 일치하는 레코드 정보를 찾아내면, 실행부는 자연어 처리부의 해석에따라 검색인 경우에는 그 레코드 정보를 사용자의 서비스 이용 장치에 전송할 수 있고, 실행인 경우에는 그 레코드 정보에 따라 실행 장치가 인식할 수 있는 소정의 실행 제어 데이터를 실행 장치에 전송함으로써 사용자의 지시대로 실행이 이루어지도록 할 수 있다.

Description

자연어 처리와 음성 인식 병합에 의거한 음성 언어 이해 기술 및 그 비즈니스 모델{SPOKEN-LANGUAGE UNDERSTANDING TECHNOLOGY BASED ON KOREAN NATURAL LANGUAGE PROCESSING AND SPEECH RECOGNITION AND THE BUSINESS MODEL THEREOF}
본 발명은 인터넷 등 네트워크 상에서 사용자가 음성으로 입력한 검색 또는 실행 지시를 음성 인식과 자연어 처리를 병합하는 방법으로 이해하는 시스템 및 그 방법에 관한 것으로서, 보다 상세하게는 인터넷 등 네트워크 상에서 음성 인식과 구문 분석에 의한 자연어 처리 방법을 병합하여 음성 인식율을 높이면서 언어 이해에 따라 검색 또는 실행시킬 수 있도록 하는 시스템 및 그 방법에 관한 것이다.
인터넷이 등장하기 이전에는 정보검색과 데이터 커뮤니케이션이 거의 PC 통신을 통해 이루어졌으며 PC 통신이 사업자 나름의 플랫폼에 기반을 둔 비표준 서비스라면 인터넷은 브라우저 하나로 누구나 정보의 바다를 항해할 수 있는 표준 서비스다. 또한, PC통신이 전용 접속 회선으로부터 전산 시스템과 소프트웨어 플랫폼까지 모든 것을 수직 완결적으로 통합한 중앙 집중형 모델이라면, 인터넷은 모든 영역을 많은 개별 업체에 수평적으로 해체 분산시킨 개방 분산형 모델이다. 인터넷은 개방과 표준의 힘으로 발전했으니 즉 누구든지 정보를 제공하거나 이용할 수 있는 개방성과 누구에게나 효율적으로 정보를 전달하고 대화할 수 있는 표준성이 바로 인터넷 파워의 근간이다. 인터넷의 등장으로 포털(portal) 서비스를 제공하는 인터넷 포털의 수가 급격히 증가했으며, 또한 인터넷의 등장에 이어 휴대폰이 출현하면서 무선 인터넷 시대가 열렸고 여기에 음성 포털이라는 새로운 형태의 인터넷 서비스가 가세하고 있다. 음성 포털은 음성 인식 기술의 한계에도 불구하고 사람이 지닌 가장 간편한 입력 도구인 목소리로 정보에 접근한다는 점에서 무선 인터넷의 강력한 대안으로 급부상하고 있어 바야흐로 본격적인 무선 음성 인터넷 시대를 예고하고 있다.
현재 개발되고 있는 음성 인터페이스 기술은 주로 기존의 지시 기능을 음성으로 입력이 가능하게 하는데 주력하고 있는바 이는 새로운 입력 수단을 제공한다는 의미는 있겠으나 주로 주어진 작업 영역에서의 제한된 어휘를 대상으로 하고 있어 광범위한 계층의 사람들이 대규모의 어휘로 용이하게 사용하기에는 아직 상당한 거리가 있다. 수백 어휘 이내의 단어를 인식하는 소어휘 시스템은 인식률과 신뢰도는 높으나 어휘가 제한돼 있어 특정 응용 분야를 지원하는 시스템으로만 개발되고 있고 대어휘 시스템의 경우는 수만 단어 어휘까지 인식이 가능하지만 인식률이 낮고 말할 때 사용자가 발음에 주의를 기울여야 하는 불편이 있다. 국내 몇몇 업체에서 외국의 기술을 차용하여 소규모의 음성인식 서비스를 개발하여 상용화하고 있으나 한국어의 특성이 제대로 반영되고 있지 않는 등 품질 개선에 한계가 있으며 외국의 기술을 사용하여 한국어의 음성처리 기술을 개발할 경우에 근본적으로 제 성능을 발휘하지 못할 뿐만 아니라 그 시스템의 명령어 체계에 맞추다 보면 심지어는 그 시스템을 사용하는 사람의 언어 습관을 비정상적으로 왜곡시킬 위험성마저 존재하고 있다.
현재와 같은 정보 시대에 있어 기술적으로 가장 큰 장애를 일으키고 있는 문제는 정보의 부족이 아니라 오히려 정보의 폭발로, 일반 사용자들은 정보의 흥수 속에서 오히려 자신이 필요한 정보를 찾는 데 많은 어려움을 겪고 있는 실정이며 너무 정보가 많다 보니 어느 정보가 과연 자신에게 필요한가조차 판단하기 힘들게 되었다. 비록 음성 포털이라는 새로운 형태의 인터넷 서비스가 제공된다고 하더라도 앞서 언급한대로 음성 인식 기술의 한계로 인해 정확한 정보의 검색은 여전히 힘든 상태이다. 현재의 기술 수준에서 볼 때 물리학적으로 음성 인식률을 높인다는 것은 아직은 쉽지 않은 일이다. 음성 데이터베이스의 용량을 늘임으로써 어느 정도는 음성 입력의 인식률을 높이는 것과 맞먹는 효과를 낼 수는 있으나 이러한 해결책은 음성 데이터베이스의 용량을 계속 늘여야 한다는 어려움에 직면하게 되어 결국은 대용량 서버 증설과 회선 증설로 대응해야 한다는 결론이 얻어지는데 이러한 대응책은 과다한 설비 투자가 요구되고 네트워크 관리가 비효율적이 될 수밖에 없다. 따라서 이러한 해결책보다는 주어진 입력으로부터 원하는 정보의 범위를 문맥 지식을 이용하여 명확하고 신속하게 좁혀서 접속시켜 줄 수 있는 새로운 검색 엔진을 개발하여 음성 입력에 활용하는 언어학적인 개선책이 훨씬 효과적인 방법이 될 수 있는바 종래의 음성 포털에 비해 이러한 언어학적인 개선책을 활용하여 언어를 이해할 수 있는 기능을 갖춘 음성 언어 이해 포털 시스템이라는 새로운 모델이 해결책이 된다. 즉, 단순히 음성 입력의 문자열 패턴 매칭 방식에 의해 처리되는 지정 입력 방식과 달리 임의의 입력어에 대해 자연어 처리를 함으로써 언어를 이해하여 처리하는 시스템이 바로 음성 언어 이해 포털 시스템이다.
지금까지 나온 검색 엔진은 사용자가 입력한 핵심어를 찾아주는 방법을 쓰거나 아니면 단순히 입력한 문자열을 비교하여 정보를 검색하는 문자열 패턴 매칭 방법을 쓰고 있는 것이 보통으로 기껏해야 어절을 명사와 조사 또는 동사-형용사의 어간과 어미를 분리하여 낱말의 기본형을 찾은 후 각 기본형을 OR 연산하여 문서를 검색하기 때문에 제시되는 문서의 수가 많다는 약점을 가지고 있다. 특히 어절을 단순히 어간과 어미로 나누는 방법으로는 인접 낱말과의 상관 관계를 분석하여 품사 및 의미를 파악할 수 없기 때문에 중의성을 피할 수 없게 되어 제시되는 정보의 수가 자연 많아지게 마련이며 그 결과 정확한 정보 검색이 불가능해진다. 따라서, 낱말의 앞뒤 관계까지를 정확하게 파악하여 정보를 검색하는 문장 단위의 검색 엔진만이 이러한 문제를 만족스럽게 해결할 수 있다. 이러한 자연어 검색 엔진을 음성 인식에 활용할 경우 문맥 지식을 이용할 수 있으므로 다소 불충분한 음성 데이터베이스를 가지고 있는 경우거나 또는 또박또박 발음하지 못한 경우 혹은 자연어에 가까운 형태로 발음한 경우라 할지라도 상당히 높은 인식률을 기대할 수 있게 된다. 궁극적인 음성인식 기술이란 결국 작업 영역에 무관하게 일상 생활에서 사용되는 자연스럽게 발성된 문장을 발화자에 적응하여 인식ㆍ분석함으로써 원하는 작업을 수행시킬 수 있는 화자 적응 대어휘 연속 음성 인식 기술이어야 하며, 또한 음성 입력에 적합하게 인터페이스를 설계하여야 한다. 이러한 요구는 앞서 언급한 대로 약속된 입력어에 한하여 처리가 가능한 지정 입력 형태, 즉 음성 입력의 단순한 문자열 패턴 매칭 방식만으로는 충족시킬 수 없는바 본 발명은 이러한 문제점을 해결하기 위하여 기존의 단순한 음성 포털을 넘어선 임의의 입력어에 대해 자연어 처리가 가능한 음성 언어이해 포털 시스템이 필요하게 되었다.
따라서, 인터넷 등 네트워크 상에서 자연어 음성 지시문의 실행을 위하여, 일상 생활에서 사용되는 자연스럽게 발성된 음성 지시문을 발화자에 적응하여 인식하고, 구문 분석에 의한 자연어 처리를 통해 인식율을 높여 정확한 검색과 실행이 이루어지도록 함으로써, 인간과 컴퓨터 및 네트워크 간의 지시와 실행이 마치 사람끼리 하듯 자연스럽게 이루어질 수 있는 음성 언어 이해 기술을 제공하자는 데 있다.
도 1은 본 발명의 실시예에 따른 음성 언어 이해 포털 시스템의 블록도이다.
도 2는 본 발명의 실시예에 따른 음성 언어 이해 포털 시스템의 동작흐름을 나타내는 흐름도이다.
이러한 기술적 과제를 달성하기 위한, 본 발명의 특징에 따른 음성 언어 이해 포털 시스템은, 사용자가 음성으로 하는 검색 지시를 인식하여 검색 정보를 제공하는 시스템으로서, 레코드 정보를 저장하고 있는 레코드 정보 DB; 및 사용자의 음성 지시를 받아 발음 기호로 변환하고, 텍스트 형태의 문장으로 만들어 맞춤법에 맞게 보정한 후, 구문 분석에 의하여, 만들어진 텍스트 지시문에 대한 문장의 구조와 각 단어의 구문론적 성분을 알아내고 인접 낱말과의 상관 관계를 분석함으로써 낱말 상호 간의 집합적 종속 관계를 파악하여 핵심어를 추출하고, 핵심어와 유사어도 동일한 핵심어로 취급한 후, 텍스트 지시문에서 핵심어 및 핵심어간의 종속관계를 얻고, 상기 레코드 정보 DB에 있는 레코드 정보가 사용자의 텍스트 지시문에 담긴 핵심어 및 핵심어간의 종속관계를 갖고있으면, 그 레코드 정보를 사용자의 서비스 이용 장치에 전송하는 중계 장치를 포함한다.
또다른, 본 발명의 특징에 따른 음성 언어 이해 포털 시스템은 사용자가 음성으로 하는 실행 지시를 인식하여 실행 장치가 실행하도록 하는 시스템으로서, 레코드 정보를 저장하고 있는 레코드 정보 DB; 및 사용자의 음성 지시를 받아 발음 기호로 변환하고, 텍스트 형태의 문장으로 만들어 맞춤법에 맞게 보정한 후, 구문 분석에 의하여, 만들어진 텍스트 지시문에 대한 문장의 구조와 각 단어의 구문론적 성분을 알아내고 인접 낱말과의 상관 관계를 분석함으로써 낱말 상호 간의 집합적 종속 관계를 파악하여 핵심어를 추출하고, 핵심어와 유사어도 동일한 핵심어로 취급한 후, 텍스트 지시문에서 핵심어 및 핵심어간의 종속관계를 얻고, 상기 레코드 정보 DB에 있는 레코드 정보가 사용자의 텍스트 지시문에 담긴 핵심어 및 핵심어간의 종속 관계를 갖고있으면, 그 레코드 정보에 따라 실행 장치가 인식할 수 있는 실행 제어 데이터를 전송하는 중계 장치를 포함한다.
상기 중계 장치는, 사용자의 음성 지시를 받아 발음 기호로 변환하고, 변환된 발음 기호를 맞춤법에 맞게 보정한 후 텍스트 형태로 지시문을 만드는 음성 처리부를 포함한다.
상기 중계 장치는, 음소별로 발음 기호가 저장되어 있는 음성 DB; 및 글자별로 맞춤법에 따른 발음 기호가 저장되어 있는 발음 사전 DB를 더 포함하고, 상기 음성 처리부는, 사용자의 음성 지시를 받아 상기 음성 DB로부터 해당 음소를 찾아 발음기호로 변환하는 음성 정보 처리기; 및 상기 음성 정보 처리기가 만든 발음 기호를 음소별로 분석하여 상기 발음 사전 DB에 대응되어 있는 유사 발음 기호를 갖는 글자를 찾아 맞춤법에 따른 텍스트 지시문으로 변환하는 발음 기호 처리기를 포함한다.
상기 중계 장치는, 낱말별로 관련어 정보가 저장되어 있는 관련어 DB; 텍스트 지시문의 핵심어 정보가 상기 레코드 정보 DB의 레코드 정보에 대한 핵심어 정보와 동일한 레코드 정보가 저장되어 있는 검색 결과 DB; 및 상기 텍스트 지시문에 대한 구문 분석을 통하여, 상기 텍스트 지시문에 대한 문장의 구조와 각 단어의 구문론적 성분을 알아내고 인접 낱말과의 상관 관계를 분석함으로써 낱말 상호 간의 집합적 종속 관계를 파악하여 핵심어를 추출하고, 상기 관련어 DB로부터 핵심어의 관련어를 제공받아 유사어를 같은 낱말로 취급하여 핵심어 및 핵심어간 종속관계를 추출하며, 상기 레코드 정보 DB에 있는 레코드 정보의 핵심어 및 핵심어간 종속관계가 텍스트 지시문에 담긴 핵심어 및 핵심어간 종속관계와 일치하면, 그 레코드 정보를 추출하여 상기 검색 결과 DB에 저장하는 자연어 처리부를 더 포함한다.
이에 따라, 본 발명의 실시예에 따른 음성 언어 이해 포털 시스템은, 사용자가 검색인지 또는 실행인지를 소정의 표시로 구분하여 입력한 음성 실행 지시가 네트워크를 통하여 중계 장치에 전송되면, 음성 처리부가 사용자의 음성 지시를 발음기호로 변환하고, 변환된 발음 기호를 맞춤법에 맞게 보정한 후 텍스트 형태로 지시문을 만들며, 자연어 처리부가 만들어진 지시문의 핵심어 및 핵심어간 종속관계가 레코드 정보의 핵심어 및 핵심어간 종속관계와 일치하는 레코드 정보를 찾고, 실행부는 상기 소정의 표시에 따라 검색인 경우에는 그 레코드 정보를 사용자의 서비스 이용 장치에 전송하고, 실행인 경우에는 그 레코드 정보에 따라 실행 장치가 인식할 수 있는 소정의 실행 제어 데이터를 실행 장치에 전송함으로써 사용자의 지시대로 실행이 이루어지도록 해준다.
본 발명의 특징에 따른 음성 언어 이해 포털 방법은, 사용자가 음성으로 하는 지시를 인식하여 그 지시를 실행할 수 있도록 하는 중계 장치를 포함하는 음성 언어 이해 포털 시스템이 음성 지시를 실행하는 방법으로서,
(a) 사용자가 입력한 음성 지시를 받아 상기 중계 장치가 해당 음소를 찾아 발음 기호로 변환하는 단계;
(b) 상기 중계 장치가 상기 변환된 발음 기호를 텍스트 형태의 지시문으로 변환하고, 음소별로 분석하여 유사 발음 기호를 갖는 글자를 찾아 맞춤법에 맞게 보정하는 단계;
(c) 상기 텍스트 형태로 된 지시문의 핵심어 및 핵심어간 종속관계가 레코드 정보의 핵심어 및 핵심어간 종속관계와 일치하는 레코드 정보를 상기 중계 장치가 찾는 단계; 및
(d) 상기 검색된 레코드 정보를 상기 중계 장치가 사용자의 서비스 이용 장치에 전송하는 단계를 포함한다.
상기 음성 언어 이해 포털 방법은,
(e) 상기 중계 장치가 상기 검색된 레코드 정보에 따라 실행 장치가 인식할 수 있는 실행 제어 데이터를 전송하는 단계를 더 포함한다.
상기 (c) 단계는,
(c-1) 상기 텍스트 지시문에 대한 구문 분석을 통하여, 상기 텍스트 지시문에 대한 문장의 구조와 각 단어의 구문론적 성분을 알아내고 인접 낱말과의 상관 관계를 분석함으로써 낱말 상호 간의 집합적 종속 관계를 파악하여 핵심어를 추출하는 단계;
(c-2) 상기 핵심어의 관련어 중에서 유사어는 같은 낱말로 취급하여 핵심어 및 그 핵심어간 종속관계를 추출하는 단계; 및
(c-3) 레코드 정보가 텍스트 지시문에 담긴 핵심어 및 핵심어간 종속관계와 일치하면, 그 레코드 정보를 추출하는 단계으로 이루어지는 것을 특징으로 한다.
이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 바람직한 실시예에 따른 음성 언어 이해 포털 시스템의 구체적인 구성 및 동작을 첨부된 도면을 참조로 하여 상세히 설명한다.
본 발명의 실시예에 따른 음성 언어 이해 포털 시스템은 다음과 같은 특징을 갖는다.
(1) 음성 처리 영역 확대
본 발명의 실시예에 따른 음성 언어 이해 포털 시스템에서는, 음성-컴퓨터 인터페이스 등에 의하여 손과 눈을 쓰지 않고도 명령어를 입력할 수 있는 자유를가져다주므로 여가 시간이 많아지고 타이핑을 하는 동안 놓쳐야 했던 수많은 정보도 확보할 수 있게 된다. 기존의 검색 방법은 사용자로 하여금 정보 검색에 많은 시간을 투자하게 할 뿐 아니라 신속하게 정보를 찾을 수 있는 능력을 키울 때까지 수많은 시행착오를 겪게 하고 있어 사용자 개인에게도 시간적, 경제적 희생을 강요하고 있지만 국가 전체로도 엄청난 손실을 야기 시키고 있다. 이러한 기존의 포털 시스템에 비해 특히 키보드 조작이 불편한 장애인들에게 더욱 실용적이라 할 수 있는 본 발명의 실시예에 따른 음성 언어 이해 포털 시스템은 정보 검색이나 데이터베이스와 관련된 업무 효율을 괄목할 만하게 향상시킬 수 있어 인터넷을 비롯한 정보 통신 산업 전반에 걸쳐 엄청난 파급효과를 가져오게 된다.
또한, 사용자는 음성 구동 컴퓨터를 비롯해 무인 전화 번호 안내, 음성 구동 주문형 비디오, 각종 음성 안내 시스템, 가전 제품 등 광범위한 영역에 대하여 음성으로 실행시킬 수 있다. 특히 음성만을 사용하는 전화 이용 서비스는 114 안내 시스템처럼 항상 사람이 처리해야 하므로 막대한 인건비가 소요되어 음성 인식의 필요성이 절실한 분야 중 하나이며 보험 서식이나 병원의 응급 환자보고 서식과 같은 특정 양식의 보고서를 사람의 도움 없이 작성하는 데도 사용될 수 있다. 또한, 포털 서비스를 제공하고 있는 기존의 온라인 서비스 사업자들이 특별한 추가 비용을 들이지 않고도 더 많은 사용자에게 정보 서비스가 가능하도록 해줄 수 있는데 여기에서 오는 비용 절감 효과는 상당하다고 할 수 있다.
(2) 신속하고 정확한 검색
그리고, 본 발명의 실시예에 따른 음성 언어 이해 포털 시스템을 사용할 경우 정보 검색에 있어서의 용이함은 물론 개인적, 사회적 손실을 상당 부분 줄일 수 있어 비용 절감은 물론 정보 검색에 대한 특별한 교육을 필요 없게 만들며 따라서 지금까지 인터넷이 힘들어서 온라인 서비스를 이용하지 못했던 수많은 사람들이 정보 검색의 활성화된 소비자로 등장하게 되어 인터넷의 잠재 수요를 폭발적으로 증가시키게 되며 이에 따라 정보 통신 산업에 있어 수익률의 증가와 고용 창출이 기대된다.
도 1에 본 발명의 실시예에 따른 음성 언어 이해 포털 시스템의 블록도가 도시되어 있다.
첨부한 도 1에 도시되어 있듯이, 본 발명의 실시예에 따른 음성 언어 이해 포털 시스템은, 사용자의 서비스 이용 장치(100), 네트워크(200), 중계 장치(300), 실행 장치(400), 및 연계 장치(500)로 이루어진다.
사용자의 서비스 이용 장치(100)로는 네트워크(200)를 통하여 중계 장치(300)에 접속하고 음성 지시문을 입력할 수 있는 마이크로폰이 설치된 컴퓨터(110)가 이용되며, 이외에도 네트워크(200)와 연결 될 수 있는 이동 전화기(120), 유선 전화기(130)등의 다른 통신 장치가 이용될 수도 있다. 실행 장치(400)는 사용자가 입력한 음성 지시문을 실행할 수 있는 장치로서, 팩스 송신 등을 실행하는 팩시밀리(410), 현금을 인출할 수 있는 현금 인출기(420), 삐삐 호출 신호를 받을 수 있는 페이저(430)등이 있으며, 이외에도 기타 사용자가 음성으로 지시한 것을 실행할 수 있게 한 다른 장치가 될 수도 있다. 연계 장치(500)는 본 발명의 실시예에 따른 음성 언어 이해 포털 시스템의 중계 장치(300)와 연계되어있는 인터넷 등 네트워크상의 웹사이트의 각종 서버를 포함하는 장치로서, 업데이트된 새로운 음성 데이터를 제공하는 음성 데이터 제공 장치(510), 업데이트된 새로운 발음 데이터를 제공하는 발음 데이터 제공 장치(520), 업데이트된 새로운 관련어, 신조어 등을 제공하는 관련어 제공 장치(530) 등이 있으며, 이외에도 음성 데이터, 발음 데이터, 관련어, 신조어 등을 자체에서 직접 제작하여 공급할 수도 있고, 기타 음성 인식 중계에 필요한 정보를 제공하기 위하여 인터넷상의 다른 웹사이트의 다른 서버와 연계할 수도 있다.
중계 장치(300)는 본 발명의 실시예에 따른 음성 인식과 검색을 통하여 음성 지시에 대한 실행을 중계하는 사이트로서, 처리부(310)와 데이터베이스부(320)로 이루어진다. 데이터베이스부(320)는 운영 DB(321), 음성 DB(322), 발음 사전 DB(323), 관련어 DB(324), 레코드 정보 DB(325), 및 검색 결과 DB(326)로 이루어진다.
운영 DB(321)에는 본 발명의 실시예에 따른 음성 지시에 대한 실행을 중계하는데 필요한 다수의 데이터들이 저장되어 있으며, 이외에도 중계 장치(300)를 운영하기 위하여 업무를 제휴한 다수의 웹사이트에 대한 정보와 실행 장치(400)에 네트워크(200)를 통하여 통신을 중계하는 다수의 통신 사업자에 대한 정보가 저장되어 있다.
음성 DB(322)에는 음소별로 발음 기호가 저장되어 있다.
발음 사전 DB(323)에는 글자별로 맞춤법에 따른 발음 기호가 저장되어 있다.
관련어 DB(324)에는 낱말별로 관련어 정보가 저장되어 있다.
레코드 정보 DB(325)는 레코드 정보를 저장하고 있다. 여기서 레코드 정보에는 웹사이트의 콘텐츠 정보 또는 사용자가 입력할 음성 지시문을 예상하여 기록하여 놓은 텍스트 형태의 지시문 등이 있다.
검색 결과 DB(326)에는 텍스트 지시문의 핵심어 정보가 상기 레코드 정보 DB(325)의 레코드 정보에 대한 핵심어 정보와 동일한 레코드 정보가 저장되어 있다.
본 발명의 실시예에 따른 중계 장치(300)의 데이터베이스부(320)에 있는 DB들(321~326)은 서로의 정보가 유기적으로 연결되도록 구성되어 있으며, 이와는 달리 각 DB(321~326)의 유기적 연결을 위한 별도의 정보가 저장되는 별도의 DB를 구성할 수도 있다.
처리부(310)는 운영부(311), 음성 처리부(312), 자연어 처리부(313), 및 실행부(314)로 이루어진다.
운영부(311)는 운영 DB(321)에 저장되어 있는 데이터를 토대로 하여, 서비스 이용 장치(100)를 통하여 접속하는 다수의 사용자가 서비스 이용에 필요한 데이터를 입력할 수 있도록 서비스 이용 장치(100)의 화면이나 음성으로 해당 정보를 제공한다. 그리고, 다수의 웹사이트의 연계 장치(500)와 업무를 제휴하며, 이에 따라 운영 DB(321)에 저장된 웹사이트 정보를 갱신하며, 음성 데이터 제공 장치(510)로부터 새로운 음성 데이터를 제공받아 상기 음성 DB(322)를 업데이트하고, 발음 데이터 제공 장치(520)로부터 새로운 발음 데이터를 제공받아 상기 발음 사전 DB(323)를 업데이트하며, 관련어 데이터 제공 장치(530)로부터 각종 언어에 대한관련어를 제공받아 상기 관련어 DB(324)를 업데이트한다. 이외에도, 서비스 이용 장치(100)에 광고, 새소식, 기타 안내를 제공하는 광고 서버로서의 기능도 함께 수행한다.
음성 처리부(312)는 사용자의 음성 지시를 발음 기호로 변환하고, 변환된 발음 기호를 텍스트 형태의 지시문으로 만들어 맞춤법에 맞게 보정하는 부분으로서, 음성 정보 처리기(3121)와 발음 기호 처리기(3122)로 이루어진다.
음성 정보 처리기(3121)는 사용자가 음성 지시를 내리면 상기 음성 DB(322)로부터 해당 음소를 찾아 발음 기호로 변환한다.
발음 기호 처리기(3122)는 상기 음성 정보 처리기(3121)가 만든 발음 기호를 텍스트 지시문으로 변환하고, 음소별로 분석하여 상기 발음 사전 DB(323)에 대응되어 있는 유사 발음 기호를 갖는 글자를 찾아 맞춤법에 맞게 보정한다.
자연어 처리부(313)는 상기 텍스트 지시문에 대한 구문 분석을 통하여, 상기 텍스트 지시문에 대한 문장의 구조와 각 단어의 구문론적 성분을 알아내고 인접 낱말과의 상관 관계를 분석함으로써 낱말 상호 간의 집합적 종속 관계를 파악하여 핵심어를 추출하고, 상기 관련어 DB(324)로부터 핵심어의 관련어를 제공받아 유사어를 같은 낱말로 취급하여 핵심어 및 핵심어간 종속관계를 추출하며, 상기 레코드 정보 DB(325)에 있는 레코드 정보의 핵심어 및 핵심어간 종속관계가 텍스트 지시문에 담긴 핵심어 및 핵심어간 종속관계와 일치하면, 그 레코드 정보를 추출하여 상기 검색 결과 DB(326)에 저장한다.
실행부(314)는 자연어 처리부(313)가 추출한 레코드 정보를 받아 소정의 표시에 따라 사용자의 서비스 이용 장치(100)로 전송하거나 실행 장치(400)가 실행할 수 있도록 코드화된 소정의 실행 제어 데이터로 변환하여 네트워크(200)를 통하여 실행 장치(400)로 전송한다. 여기서, 소정의 표시는 사용자가 음성 지시 입력시 검색 결과를 표시하도록 하였는지 또는 실행 장치(400)가 실행하도록 하였는지를 표시하는 것으로서, 키보드나 마우스로 플래그 표시를 하거나 음성으로 직접 '검색하라' 또는 '실행하라'고 지시를 내리는 형태가 된다. 또는, 검색을 위한 브라우져나 실행을 위한 브라우져를 별도로 운영하여 검색만을 하거나 실행만을 하게 할 수도 있다.
이러한 구조로 이루어진 본 발명의 실시예에 따른 음성 지시 실행 중계 서비스의 동작을 보다 상세히 설명한다.
도 2에 본 발명의 실시예에 따른 음성 언어 이해 포털 시스템에서 사용자가 음성 지시문을 입력하는 과정부터 실행 결과를 수신하기까지의 과정이 순차적으로 도시되어 있다.
첨부한 도 2에 도시되어 있듯이, 본 발명의 실시예에 따른 음성 언어 이해 포털 시스템이 운영하는 운영부(311)에 사용자가 접속하면, 사용자의 서비스 이용 장치(100)에는 웹서버가 제공하는 광고나 기타 안내와 함께 음성 지시 실행을 위한 기본 화면이나 음성 메시지를 제공한다. 이때, 사용자는 안내에 따라 음성 지시문을 입력하는데(S100), 하나의 실시예로서 여기서는 음성 지시 입력시 검색 결과를 표시하도록 하였는지 또는 실행 장치(400)가 실행하도록 하였는지를 표시하기 위하여, 키보드나 마우스로 플래그 표시를 하거나 음성으로 직접 '검색하라' 또는 '실행하라'고 지시를 내리는 형태로 하는 것으로 한다. 사용자가 입력한 음성 지시문이 운영부(311)에 의하여 음성 처리부(312)로 전송되면, 음성 처리부(312)는 음성 정보 처리기(3121)에 의하여 상기 음성 DB(322)로부터 해당 음소를 찾아 발음 기호로 변환하고(S110), 발음 기호 처리기(3122)는 상기 음성 정보 처리기(3121)가 만든 발음 기호를 텍스트 지시문으로 변환하고, 음소별로 분석하여 상기 발음 사전 DB(323)에 대응되어 있는 유사 발음 기호를 갖는 글자를 찾아 맞춤법에 맞게 보정하고(S120), 자연어 처리부(313)로 전송한다(S130).
자연어 처리부(313)는 상기 텍스트 지시문에 대한 구문 분석을 통하여, 상기 텍스트 지시문에 대한 문장의 구조와 각 단어의 구문론적 성분을 알아내고 인접 낱말과의 상관 관계를 분석함으로써 낱말 상호 간의 집합적 종속 관계를 파악하여 핵심어를 추출하고, 상기 관련어 DB(324)로부터 핵심어의 관련어를 제공받아 유사어를 같은 낱말로 취급하여 핵심어 및 핵심어간 종속관계를 추출한다(S140). 다음에, 이와 같이 추출된 지시문의 핵심어로부터 레코드 정보 DB(325)에 있는 레코드 정보를 문장 단위로 핵심어와 그 종속관계를 추출하여(S150), 레코드 정보의 핵심어 및 종속관계가 텍스트 지시문에 담긴 핵심어 및 종속관계와 일치하면(S160), 그 레코드 정보를 추출하여 상기 검색 결과 DB(326)에 저장하고(S170), 일치하지 않으면(S160), 레코드 정보의 다음 문장에 대하여 핵심어 및 그 종속관계를 추출하는 과정을 반복한다(S150). 이때, 레코드 정보를 검색시에 사용자가 음성 지시 입력시 검색 결과를 표시하도록 하였는지 또는 실행 장치(400)가 실행하도록 하였는지에 따라, 실행인 경우에는 사용자가 입력할 음성 지시문을 예상하여 기록하여 놓은 텍스트 형태의 지시문이 레코드 정보가 되며, 검색인 경우에는 상기 텍스트 형태의 지시문을 제외한 웹사이트의 콘텐츠 정보 등이 레코드 정보가 된다.
다음에, 추출된 레코드 정보는 상기 자연어 처리부(313)에 의하여 상기 검색 결과 DB(326)에 저장되고(S170), 남아있는 레코드 정보의 문장이 있으면(S180) 마지막 문장까지 레코드 정보의 핵심어 및 핵심어간 종속관계가 텍스트 지시문에 담긴 핵심어 및 핵심어간 종속관계와 일치하는 레코드 정보를 추출하고 검색 결과 DB(326)에 저장하는 과정을 반복한다. 위와 같이, 텍스트 지시문에 대응하는 레코드 정보를 모두 찾는 검색 과정을 마치면, 상기 자연어 처리부(313)는 상기에 따른 검색과 실행 어느 하나를 표시하는 소정의 표시와 함께 검색 결과를 실행부(314)로 전송한다(S190). 실행부(314)는 자연어 처리부(313)가 추출한 레코드 정보와 검색 또는 실행을 표시하는 소정의 표시를 받아 실행문 인가를 판별하여(S200) 검색인 경우에는 사용자의 서비스 이용 장치(100)로 전송하여(S210), 사용자가 검색 결과를 받아볼 수 있게 하며(S220), 실행인 경우에는 실행 장치(400)가 실행할 수 있도록 코드화된 소정의 실행 제어 데이터로 변환하여 네트워크(200)를 통하여 실행 장치(400)로 전송한다(S230).
실행 장치(400)는 상기 실행 제어 데이터를 받아 사용자의 지시에 따른 팩스 전송, 현금 인출기에서의 현금 인출, 삐삐 호출 등을 실행한다(S240). 실행 장치(400)는 지시문대로 실행한 후 실행한 결과가 정상적으로 이루어 졌는지 여부를 실행부(314)로 전송하고(S250), 실행부(314)는 실행 결과를 사용자에게 전송하여(S260) 사용자에게 실행 결과를 알 수 있도록 할 수 있다(S270).
위에 기술된 바와 같이, 본 발명의 실시예에 따른 음성 언어 이해 포털 시스템에서는, 사용자가 검색인지 또는 실행인지를 소정의 표시로 구분하여 입력한 음성 실행 지시가 네트워크를 통하여 중계 장치(300)에 전송되면, 음성 처리부(312)가 사용자의 음성 지시를 발음 기호로 변환하고, 변환된 발음 기호를 텍스트 형태의 지시문으로 만들어 맞춤법에 맞게 보정하면, 자연어 처리부(313)가 만들어진 지시문의 핵심어 및 핵심어간 종속관계가 레코드 정보의 핵심어 및 핵심어간 종속관계와 일치하는 레코드 정보를 찾고, 실행부(314)는 상기 소정의 표시에 따라 검색인 경우에는 그 레코드 정보를 사용자의 서비스 이용 장치(100)에 전송하고, 실행인 경우에는 그 레코드 정보에 따라 실행 장치(400)가 인식할 수 있는 소정의 실행 제어 데이터를 실행 장치(400)에 전송함으로써 사용자의 지시대로 실행이 이루어지도록 하였다.
본 발명은 다음에 기술되는 청구 범위를 벗어나지 않는 범위 내에서 다양한 변경 및 실시가 가능하다.
이상에서와 같은 본 발명의 실시예에 따라, 다소 불충분한 음성 데이터베이스를 가지고 있는 경우거나 또는 또박또박 발음하지 못한 경우 혹은 자연어에 가까운 형태로 발음한 경우라 할지라도 상당히 높은 인식률을 기대할 수 있으므로, 기존의 포털 시스템에 비해 정보 검색이나 데이터베이스와 관련된 업무, 및 음성 지시에 의한 실행 장치의 실행에 있어서 특히 키보드 조작이 불편한 장애인들에게 더욱 실용적이라 할 수 있고, 업무 효율을 괄목할 만하게 향상시킬 수 있어서 인터넷을 비롯한 정보 통신 산업 전반에 걸쳐 엄청난 파급효과를 가져오게 된다.
또한, 정확한 음성 인식과 검색을 바탕으로 광범위한 영역에서 포털 서비스를 제공하고 있는 기존의 온라인 서비스 사업자들이 특별한 추가 비용을 들이지 않고도 더 많은 사용자에게 정보 서비스가 가능하도록 해줄 수 있는데 여기에서 오는 비용 절감 효과는 상당하다고 할 수 있다.
그리고, 본 발명의 실시예에 따른 음성 언어 이해 포털 시스템을 사용할 경우 정보 검색에 있어서의 용이함은 물론 정확한 검색에 의하여 개인적, 사회적 손실을 상당 부분 줄일 수 있어 비용 절감은 물론 정보 검색에 대한 특별한 교육을 필요 없게 만들며 따라서 지금까지 인터넷이 힘들어서 온라인 서비스를 이용하지 못했던 수많은 사람들이 정보 검색의 활성화된 소비자로 등장하게 되어 인터넷의 잠재 수요를 폭발적으로 증가시키게 되며 이에 따라 정보 통신 산업에 있어 수익률의 증가와 고용 창출이 기대된다.

Claims (8)

  1. 사용자가 음성으로 하는 검색 지시를 인식하여 검색 정보를 제공하는 시스템에서,
    레코드 정보를 저장하고 있는 레코드 정보 DB; 및
    사용자의 음성 지시를 받아 발음 기호로 변환하고, 텍스트 형태의 문장으로 만들어 맞춤법에 맞게 보정한 후, 구문 분석에 의하여, 만들어진 텍스트 지시문에 대한 문장의 구조와 각 단어의 구문론적 성분을 알아내고 인접 낱말과의 상관 관계를 분석함으로써 낱말 상호 간의 집합적 종속 관계를 파악하여 핵심어를 추출하고, 핵심어와 유사어도 동일한 핵심어로 취급한 후, 텍스트 지시문에서 핵심어 및 핵심어간의 종속관계를 얻고, 상기 레코드 정보 DB에 있는 레코드 정보가 사용자의 텍스트 지시문에 담긴 핵심어 및 핵심어간의 종속관계를 갖고있으면, 그 레코드 정보를 사용자의 서비스 이용 장치에 전송하는 중계 장치
    를 포함하는 음성 언어 이해 포털 시스템.
  2. 사용자가 음성으로 하는 실행 지시를 인식하여 실행 장치가 실행하도록 하는 시스템에서,
    레코드 정보를 저장하고 있는 레코드 정보 DB; 및
    사용자의 음성 지시를 받아 발음 기호로 변환하고, 텍스트 형태의 문장으로 만들어 맞춤법에 맞게 보정한 후, 구문 분석에 의하여, 만들어진 텍스트 지시문에대한 문장의 구조와 각 단어의 구문론적 성분을 알아내고 인접 낱말과의 상관 관계를 분석함으로써 낱말 상호 간의 집합적 종속 관계를 파악하여 핵심어를 추출하고, 핵심어와 유사어도 동일한 핵심어로 취급한 후, 텍스트 지시문에서 핵심어 및 핵심어간의 종속관계를 얻고, 상기 레코드 정보 DB에 있는 레코드 정보가 사용자의 텍스트 지시문에 담긴 핵심어 및 핵심어간의 종속 관계를 갖고있으면, 그 레코드 정보에 따라 실행 장치가 인식할 수 있는 실행 제어 데이터를 전송하는 중계 장치
    를 포함하는 음성 언어 이해 포털 시스템.
  3. 제 1항 또는 제 2항 중 어느 한 항에 있어서,
    상기 중계 장치는,
    사용자의 음성 지시를 받아 발음 기호로 변환하고, 변환된 발음 기호를 맞춤법에 맞게 보정한 후 텍스트 형태로 지시문을 만드는 음성 처리부
    를 포함하는 음성 언어 이해 포털 시스템.
  4. 제 1항 또는 제 2항 중 어느 한 항에 있어서,
    상기 중계 장치는,
    음소별로 발음 기호가 저장되어 있는 음성 DB; 및
    글자별로 맞춤법에 따른 발음 기호가 저장되어 있는 발음 사전 DB
    를 더 포함하고,
    제 3항에 있어서,
    상기 음성 처리부는,
    사용자의 음성 지시를 받아 상기 음성 DB로부터 해당 음소를 찾아 발음기호로 변환하는 음성 정보 처리기; 및
    상기 음성 정보 처리기가 만든 발음 기호를 텍스트 지시문으로 변환하고, 음소별로 분석하여 상기 발음 사전 DB에 대응되어 있는 유사 발음 기호를 갖는 글자를 찾아 맞춤법에 맞게 보정하는 발음 기호 처리기
    를 포함하는 음성 언어 이해 포털 시스템.
  5. 제 1항 또는 제 2항 중 어느 한 항에 있어서,
    상기 중계 장치는,
    낱말별로 관련어 정보가 저장되어 있는 관련어 DB;
    텍스트 지시문의 핵심어 정보가 상기 레코드 정보 DB의 레코드 정보에 대한 핵심어 정보와 동일한 레코드 정보가 저장되어 있는 검색 결과 DB; 및
    상기 텍스트 지시문에 대한 구문 분석을 통하여, 상기 텍스트 지시문에 대한 문장의 구조와 각 단어의 구문론적 성분을 알아내고 인접 낱말과의 상관 관계를 분석함으로써 낱말 상호 간의 집합적 종속 관계를 파악하여 핵심어를 추출하고, 상기 관련어 DB로부터 핵심어의 관련어를 제공받아 유사어를 같은 낱말로 취급하여 핵심어 및 핵심어간 종속관계를 추출하며, 상기 레코드 정보 DB에 있는 레코드 정보의 핵심어 및 핵심어간 종속관계가 텍스트 지시문에 담긴 핵심어 및 핵심어간 종속관계와 일치하면, 그 레코드 정보를 추출하여 상기 검색 결과 DB에 저장하는 자연어처리부
    를 더 포함하는 음성 언어 이해 포털 시스템.
  6. 사용자가 음성으로 하는 지시를 인식하여 그 지시를 실행할 수 있도록 하는 중계 장치를 포함하는 음성 언어 이해 포털 시스템이 음성 지시를 실행하는 방법에서,
    (a) 사용자가 입력한 음성 지시를 받아 상기 중계 장치가 해당 음소를 찾아 발음 기호로 변환하는 단계;
    (b) 상기 중계 장치가 상기 변환된 발음 기호를 텍스트 형태의 지시문으로 변환하고, 음소별로 분석하여 유사 발음 기호를 갖는 글자를 찾아 맞춤법에 맞게 보정하는 단계;
    (c) 상기 텍스트 형태로 된 지시문의 핵심어 및 핵심어간 종속관계가 레코드 정보의 핵심어 및 핵심어간 종속관계와 일치하는 레코드 정보를 상기 중계 장치가 찾는 단계; 및
    (d) 상기 검색된 레코드 정보를 상기 중계 장치가 사용자의 서비스 이용 장치에 전송하는 단계
    를 포함하는 음성 언어 이해 포털 방법.
  7. 제 6항에 있어서,
    상기 음성 언어 이해 포털 방법은,
    (e) 상기 중계 장치가 상기 검색된 레코드 정보에 따라 실행 장치가 인식할 수 있는 실행 제어 데이터를 전송하는 단계
    를 더 포함하는 음성 언어 이해 포털 방법.
  8. 제 6항에 있어서,
    상기 (c) 단계는,
    (c-1) 상기 텍스트 지시문에 대한 구문 분석을 통하여, 상기 텍스트 지시문에 대한 문장의 구조와 각 단어의 구문론적 성분을 알아내고 인접 낱말과의 상관 관계를 분석함으로써 낱말 상호 간의 집합적 종속 관계를 파악하여 핵심어를 추출하는 단계;
    (c-2) 상기 핵심어의 관련어 중에서 유사어는 같은 낱말로 취급하여 핵심어 및 그 핵심어간 종속관계를 추출하는 단계; 및
    (c-3) 레코드 정보가 텍스트 지시문에 담긴 핵심어 및 핵심어간 종속관계와 일치하면, 그 레코드 정보를 추출하는 단계
    으로 이루어지는 것을 특징으로 하는 음성 언어 이해 포털 방법.
KR1020000063534A 2000-10-27 2000-10-27 자연어 처리와 음성 인식 병합에 의거한 음성 언어 이해기술 및 그 비즈니스 모델 KR20020032835A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020000063534A KR20020032835A (ko) 2000-10-27 2000-10-27 자연어 처리와 음성 인식 병합에 의거한 음성 언어 이해기술 및 그 비즈니스 모델

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000063534A KR20020032835A (ko) 2000-10-27 2000-10-27 자연어 처리와 음성 인식 병합에 의거한 음성 언어 이해기술 및 그 비즈니스 모델

Publications (1)

Publication Number Publication Date
KR20020032835A true KR20020032835A (ko) 2002-05-04

Family

ID=19695809

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000063534A KR20020032835A (ko) 2000-10-27 2000-10-27 자연어 처리와 음성 인식 병합에 의거한 음성 언어 이해기술 및 그 비즈니스 모델

Country Status (1)

Country Link
KR (1) KR20020032835A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010035173A (ko) * 2001-01-10 2001-05-07 백종관 음성 합성 훈련 툴킷을 이용한 개인용 음성 합성기 및 그방법
KR20130093889A (ko) * 2012-02-15 2013-08-23 한국전자통신연구원 한국어 키워드 검색문 해석 장치 및 방법
KR20160056734A (ko) * 2014-11-12 2016-05-20 삼성전자주식회사 영상표시장치, 영상표시장치의 구동방법 및 컴퓨터 판독가능 기록매체
KR102288797B1 (ko) * 2020-12-30 2021-08-11 (주)레벤그리다한국문화다양성연구원 인지력 테스트 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980038185A (ko) * 1996-11-25 1998-08-05 구자홍 자연언어 인터페이스 에이전트 및 그의 의미 분석방법
KR100246615B1 (en) * 1997-11-28 2000-03-15 Korea Electronics Telecomm Natural language processing method using meta information extracted from speech data
WO2000014728A1 (en) * 1998-09-09 2000-03-16 One Voice Technologies, Inc. Network interactive user interface using speech recognition and natural language processing
KR20010064061A (ko) * 1999-12-24 2001-07-09 이경목 음성 인식 기능을 갖는 검색 엔진
KR20020013148A (ko) * 2000-08-11 2002-02-20 윤종용 연속어 음성 명령을 통한 인터넷 네비게이션 시스템 및 그방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980038185A (ko) * 1996-11-25 1998-08-05 구자홍 자연언어 인터페이스 에이전트 및 그의 의미 분석방법
KR100246615B1 (en) * 1997-11-28 2000-03-15 Korea Electronics Telecomm Natural language processing method using meta information extracted from speech data
WO2000014728A1 (en) * 1998-09-09 2000-03-16 One Voice Technologies, Inc. Network interactive user interface using speech recognition and natural language processing
KR20010064061A (ko) * 1999-12-24 2001-07-09 이경목 음성 인식 기능을 갖는 검색 엔진
KR20020013148A (ko) * 2000-08-11 2002-02-20 윤종용 연속어 음성 명령을 통한 인터넷 네비게이션 시스템 및 그방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010035173A (ko) * 2001-01-10 2001-05-07 백종관 음성 합성 훈련 툴킷을 이용한 개인용 음성 합성기 및 그방법
KR20130093889A (ko) * 2012-02-15 2013-08-23 한국전자통신연구원 한국어 키워드 검색문 해석 장치 및 방법
KR20160056734A (ko) * 2014-11-12 2016-05-20 삼성전자주식회사 영상표시장치, 영상표시장치의 구동방법 및 컴퓨터 판독가능 기록매체
KR102288797B1 (ko) * 2020-12-30 2021-08-11 (주)레벤그리다한국문화다양성연구원 인지력 테스트 시스템

Similar Documents

Publication Publication Date Title
JP7346609B2 (ja) 自然言語理解(nlu)フレームワークを使用して意味探索を実行するシステムおよび方法
US20210224485A1 (en) Templated rule-based data augmentation for intent extraction
US6374224B1 (en) Method and apparatus for style control in natural language generation
US11720756B2 (en) Deriving multiple meaning representations for an utterance in a natural language understanding (NLU) framework
US7742922B2 (en) Speech interface for search engines
CN110765244A (zh) 获取应答话术的方法、装置、计算机设备及存储介质
EP4109295A1 (en) Knowledge graph-based question answering method and apparatus, computer device, and medium
US20050071171A1 (en) Method and system for unified speech and graphic user interfaces
KR100818979B1 (ko) 채팅 에이전트를 위한 대화 관리 장치 및 그 방법
KR100814641B1 (ko) 사용자 주도형 음성 서비스 시스템 및 그 서비스 방법
CN100592385C (zh) 用于对多语言的姓名进行语音识别的方法和系统
KR100881334B1 (ko) 대화형 정보 제공 서비스 장치 및 방법
CN110268472B (zh) 用于自动化对话系统的检测机构
JP7231190B2 (ja) 情報提供システム、及び、情報提供制御方法
JP2020135135A (ja) 対話コンテンツ作成支援方法およびシステム
CN101505328A (zh) 应用语音识别的网络数据检索方法及其系统
CN112100339A (zh) 用于智能语音机器人的用户意图识别方法、装置和电子设备
Palogiannidi et al. Valence, arousal and dominance estimation for English, German, Greek, Portuguese and Spanish lexica using semantic models.
CN111966781A (zh) 数据查询的交互方法及装置、电子设备和存储介质
CN113051895A (zh) 语音识别的方法、装置、电子设备、介质和程序产品
KR100400220B1 (ko) 대화 모델을 이용한 자동 통역 장치 및 방법
KR20020032835A (ko) 자연어 처리와 음성 인식 병합에 의거한 음성 언어 이해기술 및 그 비즈니스 모델
JP3691773B2 (ja) 文章解析方法とその方法を利用可能な文章解析装置
Ma et al. An enhanced method for dialect transcription via error‐correcting thesaurus
Mehta et al. Current Trends in Natural Language Processing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application