KR100822170B1 - Database construction method and system for speech recognition ars service - Google Patents

Database construction method and system for speech recognition ars service Download PDF

Info

Publication number
KR100822170B1
KR100822170B1 KR1020070017166A KR20070017166A KR100822170B1 KR 100822170 B1 KR100822170 B1 KR 100822170B1 KR 1020070017166 A KR1020070017166 A KR 1020070017166A KR 20070017166 A KR20070017166 A KR 20070017166A KR 100822170 B1 KR100822170 B1 KR 100822170B1
Authority
KR
South Korea
Prior art keywords
service
tag
text
keyword
semantic
Prior art date
Application number
KR1020070017166A
Other languages
Korean (ko)
Inventor
김만배
방중수
이문희
박종권
홍정곤
이환엽
서기원
Original Assignee
주식회사 케이티프리텔
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티프리텔 filed Critical 주식회사 케이티프리텔
Application granted granted Critical
Publication of KR100822170B1 publication Critical patent/KR100822170B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4936Speech interaction details

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)

Abstract

A method and a system for constructing a database for a speech recognition ARS(Automatic Response System) service are provided to enable a user to receive a desired service immediately or select a service within a narrow range, thereby reducing burden of searching the desired service in comparison with a DTMF(Dual Tone Multi Frequency) method. A database constructing method for a speech recognition ARS service comprises the following steps of: collecting service inquiry speech from plural users(S403); converting the collected service inquiry speech of each user into a text(S405); grouping the converted texts according to similar service items, and setting a service tag to the grouped group(S409); and mapping the set service tag with a destination(S411).

Description

음성 인식 ARS 서비스를 위한 데이터베이스 구축 방법 및 시스템{DATABASE CONSTRUCTION METHOD AND SYSTEM FOR SPEECH RECOGNITION ARS SERVICE}Database Construction Method and System for Speech Recognition Ars Service TECHNICAL FIELD

도 1은 종래의 DTMF를 이용한 ARS 서비스의 예를 나타낸 도면이다.1 is a diagram illustrating an example of an ARS service using a conventional DTMF.

도 2는 본 발명의 바람직한 일 실시예에 따른 음성 인식 ARS 서비스를 위한 음성 인식 데이터베이스 구축 시스템의 구성도이다.2 is a block diagram of a system for constructing a speech recognition database for a speech recognition ARS service according to an exemplary embodiment of the present invention.

도 3a는 본 발명의 일 실시예에 따른 트랜스크립션부에서 사용자의 발성을 텍스트로 전환하는 과정을 나타낸 도면이다.3A is a diagram illustrating a process of converting a user's speech into text in a transcription unit according to an embodiment of the present invention.

도 3b는 시멘틱 태그를 비슷한 성향을 가지는 서비스들로 군집화하는 과정을 나타낸 도면3B is a diagram illustrating a process of grouping semantic tags into services having similar tendencies.

도 4는 본 발명의 일 실시예예 따른 음성 인식 ARS 서비스를 위한 데이터베이스 구축 방법을 설명하는 흐름도이다.4 is a flowchart illustrating a method for establishing a database for a voice recognition ARS service according to an embodiment of the present invention.

도 5는 본 발명의 바람직한 일 실시예에 따른 음성 인식을 이용한 ARS 시스템의 구성을 나타낸 도면이다.5 is a diagram illustrating a configuration of an ARS system using speech recognition according to an embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

210 : 자료 수집부 230 : 트랜스크립션부210: data collection unit 230: transcription unit

250 : 태깅부 270 : 목적지 설정부250: tagging unit 270: destination setting unit

250 : 태그 DB 271 : 태그-목적지 DB250: tag DB 271: tag-destination DB

본 발명은 ARS 서비스에 관한 것으로, 더욱 상세하게는 ARS 서비스를 위한 데이터베이스 구축 방법 및 시스템에 관한 것이다.The present invention relates to an ARS service, and more particularly, to a method and system for constructing a database for an ARS service.

ARS(Automatic Response System)은 각종 정보를 음성으로 저장해 두고 사용자가 전화를 이용하여 시스템에 접속하면 음성으로 필요한 정보를 검색할 수 있도록 사용법을 알려주며, 필요한 정보를 찾으면 이를 음성으로 들려 주는 시스템을 지칭한다.ARS (Automatic Response System) is a system that stores various information by voice and tells the user how to search the necessary information by voice when the user connects to the system by phone. .

현재 이러한 ARS 서비스는 DTMF 트리 구조 메뉴로 제공되고 있다. 즉, 사용자가 전화를 이용하여 시스템에 접속하면 필요한 정보를 검색할 수 있도록 음성으로 메뉴를 안내하고 사용자로부터 원하는 메뉴의 번호가 입력되면 차례로 최종적으로 사용자가 원하는 정보에 접근하는 것이다. 그러나, 사용자는 DTMF 트리 구조 메뉴에 익숙하지 않다. 자신이 원하는 서비스로 이동하기 위하여 어떤 경로를 경유해야 하는지 정확하게 판단할 수 없고, 많은 사례에서 사용자는 자신이 원하는 서비스로 이동하기 위하여 여러 차례의 시행착오를 겪는다.Currently, these ARS services are provided in the DTMF tree structure menu. That is, when a user accesses the system by using a telephone, the user guides the menu by voice so as to search for necessary information, and when the user inputs a desired menu number, the user finally approaches the desired information. However, the user is not familiar with the DTMF tree structure menu. It is not possible to determine exactly which path to go to in order to move to the desired service, and in many cases, the user goes through several trials and errors to move to the desired service.

도 1은 종래의 DTMF를 이용한 ARS 서비스의 예를 나타낸 도면으로, 도 1에 도시된 바와 같이, 사용자가 '비기알 2200'이라는 서비스 정보를 얻기 위해서는 ARS 시스템에 전화로 접속하여 초기 DTMF 서비스 메뉴, 즉 "1. 사용요금, 2. 분실/ 일시정지, 3. 요금제/부가서비스, 4. 멤버스카드" 중에서 "3. 요금제/부가서비스"를 선택한 후 다시 제공되는 DTMF 서비스 메뉴 중에서 "3.1 요금제"를 선택한다. 그리고 다시 제공되는 DTMF 서비스 메뉴 중에서 "3.1.1 비기"를 선택한 후 "3.1.1 비기알2200"를 선택하고, 마지막으로 "3.1.1.2 서비스 상세 안내"를 선택하여 최종적인 경로에 도착한다. 즉, 총 5 단계를 경유해야 원하는 정보를 획득할 수 있다.1 is a diagram illustrating an example of an ARS service using a conventional DTMF, as shown in FIG. 1, a user accesses an ARS system by telephone in order to obtain service information of 'BI 2 R', and displays an initial DTMF service menu; That is, select "3. Plan / Additional Service" from "1. Usage fee, 2. Lost / Pause, 3. Plan / Additional Service, 4. Member's Card" and select "3.1 Plan" from the DTMF service menu. Choose. From the DTMF service menu provided again, select "3.1.1 Biggie" and then "3.1.1 Biggie 2200", and finally "3.1.1.2 Detailed Service Information" to arrive at the final route. That is, the desired information can be obtained only through a total of five steps.

이처럼 종래 ARS 서비스에서 ARS 시스템은 각 단계마다 사용자에게 선택해야 할 서비스 예제를 “1번 사용요금, 2번 분실 및 일시정지..” 와 같이 제시하고, 사용자는 자신이 원하는 서비스가 제시될 때까지 대기하게 되어 최종 정보까지 이동하기 위해 많은 시간을 소요한다.As such, in the conventional ARS service, the ARS system presents a service example that should be selected to the user at each step as “1 usage fee, 2 lost and pauses.”, And the user selects the service that he / she wants. It waits and takes a lot of time to move to the final information.

이처럼 사용자는 복잡한 메뉴 구조를 알 수 없고 서비스간 이동하는 시간이 많이 걸리기 때문에 원하는 서비스로 이동하기 위하여는 상당한 시간을 소비해야 한다. 이러한 불편은 사용자에게 부담으로 작용하게 되고 그러한 이유로 사용자가 DTMF 진입 시점부터 상담원 연결을 시도하게 된다. 많은 상담원 연결은 상담원 수의 증가를 가져오며 결국 비용을 발생하게 되는 문제점이 있다.As such, the user does not know the complicated menu structure and it takes a long time to move between services. Therefore, the user has to spend considerable time to move to a desired service. This inconvenience becomes a burden on the user, and for that reason, the user attempts to connect to an agent from the time of entry into the DTMF. Many agent connections lead to an increase in the number of agents, which incurs costs.

본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로, 음성 인식을 이용한 ARS 서비스를 제공하기 위한 음성 인식 데이터베이스 구축 방법 및 시스템을 제공하는데 그 목적이 있다.The present invention has been proposed to solve the above problems, and an object thereof is to provide a method and system for constructing a speech recognition database for providing an ARS service using speech recognition.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

상기 목적을 달성하기 위한 본 발명의 제 1 측면에 따른, 음성 인식 ARS 서비스를 위한 데이터베이스 구축 방법은, (a) 다수 사용자로부터 서비스 질문 음성을 수집하는 단계; (b) 수집된 각 사용자의 서비스 질문 음성을 텍스트로 변환하는 단계; (c) 변환된 텍스트를 유사 서비스 항목별로 그룹핑하고, 그룹핑된 그룹에 서비스 태그를 설정하는 단계; 및 (e) 설정된 서비스 태그에 대해 목적지를 매핑하는 단계;를 포함하는 것을 특징으로 한다.According to a first aspect of the present invention for achieving the above object, a method for constructing a database for a voice recognition ARS service, the method comprising: (a) collecting a service question voice from a plurality of users; (b) converting each collected service question voice into text; (c) grouping the converted text into similar service items and setting a service tag in the grouped group; And (e) mapping a destination to the set service tag.

바람직하게, 상기 단계 (c)는, (c-1) 변환된 텍스트에 시멘틱 태그를 설정하는 단계; 및 (c-2) 설정된 각 시멘틱 태그를 유사 서비스 항목별로 그룹핑하고, 그룹핑된 그룹에 서비스 태그를 설정하는 단계;를 포함할 수 있다.Preferably, step (c) comprises: (c-1) setting a semantic tag in the converted text; And (c-2) grouping each set semantic tag for each similar service item and setting a service tag in the grouped group.

또한, 바람직하게, 상기 단계 (c-1)은, 변환된 텍스트에서 키워드를 추출하는 단계; 추출된 키워드를 토대로 시멘틱 태그를 생성하는 하는 단계; 및 생성된 시멘틱 태그에 상기 추출된 키워드를 매핑하는 단계;를 포함할 수 있다.Also, preferably, the step (c-1) may include extracting a keyword from the converted text; Generating a semantic tag based on the extracted keyword; And mapping the extracted keyword to the generated semantic tag.

또한, 바람직하게, 상기 단계 (c-2)는, 설정된 각 시멘틱 태그를 유사 서비스 항목별로 그룹핑하는 단계; 그룹핑된 그룹에 서비스 태그를 설정하는 단계; 및 상기 그룹에 속한 시멘틱 태그들의 키워드를 상기 서비스 태그에 매핑하는 단계;를 포함할 수 있다.Also, preferably, the step (c-2) may include grouping each set semantic tag by similar service items; Setting a service tag in the grouped group; And mapping keywords of semantic tags belonging to the group to the service tag.

한편, 상기 목적을 달성하기 위한 본 발명의 제 2 측면에 따른, 음성 인식 ARS 서비스를 위한 데이터베이스 구축 시스템은, 다수 사용자로부터 서비스 질문 음성을 수집하는 수집 수단; 상기 수집된 각 사용자의 서비스 질문 음성을 텍스트로 변환하는 변환 수단; 상기 변환된 텍스트를 유사 서비스 항목별로 그룹핑하고, 그룹핑된 그룹에 서비스 태그를 설정하는 태깅 수단; 및 상기 서비스 태그에 대해 목적지를 매핑하는 목적지 매핑 수단;을 포함하는 것을 특징으로 한다.On the other hand, according to a second aspect of the present invention for achieving the above object, a system for building a database for speech recognition ARS service, collecting means for collecting a service question voice from a plurality of users; Conversion means for converting the collected service question voices of each user into text; Tagging means for grouping the converted text into similar service items and setting a service tag in the grouped group; And destination mapping means for mapping a destination to the service tag.

바람직하게, 상기 태깅 수단은, 상기 변환된 텍스트에 시멘틱 태그를 설정한 후, 그 설정된 각 시멘틱 태그를 유사 서비스 항목별로 그룹핑하여 서비스 태그를 설정한다.Preferably, the tagging means sets a semantic tag in the converted text, and sets the service tag by grouping each set semantic tag by similar service items.

또한, 바람직하게, 상기 태깅 수단은, 상기 변환된 텍스트에서 키워드를 추출하고 그에 기초하여 시멘틱 태그를 생성한다.Further, preferably, the tagging means extracts a keyword from the converted text and generates a semantic tag based thereon.

또한, 바람직하게, 상기 태깅 수단은, 상기 서비스 태그에 상기 그룹에 속한 시멘틱 태그의 키워드를 매핑하여 저장한다.Also, preferably, the tagging means maps and stores keywords of semantic tags belonging to the group to the service tag.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, whereby those skilled in the art may easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 바람직한 일 실시예에 따른 음성 인식 ARS 서비스를 위한 음성 인식 데이터베이스 구축 시스템의 구성도이다.2 is a block diagram of a system for constructing a speech recognition database for a speech recognition ARS service according to an exemplary embodiment of the present invention.

도 2에 도시된 바와 같이, 음성 인식 데이터베이스 구축 시스템은, ARS 서비스를 사용하는 사용자들의 발성을 수집하는 자료 수집부(210), 수집된 발성을 텍스트로 전환하는 트랜스크립션(Transcription)부(230), 사용자의 발성별로 태그를 설정하는 태깅(Tagging)부(250) 및 각 태그별로 서비스 목적지를 연결하는 목적지 설정부(270)를 포함한다.As shown in FIG. 2, the system for constructing a voice recognition database includes a data collector 210 collecting voices of users who use the ARS service, and a transcription unit 230 for converting the collected voices into text. ), A tagging unit 250 for setting tags for each user's voice and a destination setting unit 270 for connecting a service destination for each tag.

음성 인식 ARS 서비스를 위해서는 먼저 주사용자의 발성을 수집한다. 이를 위해 자료 수집부(210)는 사용자가 ARS 서비스를 이용하기 위해 접속하였을 때 사용자에게 “원하시는 서비스를 말씀해 주세요. 예를 들어 제가 쓴 요금이 얼마에요? 라고 말씀해 주세요”와 같이 자신이 원하는 서비스를 발성하도록 유도하고 모두 음성 파일로 녹취 저장한다. 녹취된 음성 파일은 자료 DB(211)에 저장된다.The voice of the main user is first collected for the voice recognition ARS service. To this end, the data collection unit 210 when the user is connected to use the ARS service to tell the user "the desired service. For example, how much did I spend? Tell them to say, ”and encourage them to speak their desired service and record it as a voice file. The recorded voice file is stored in the data DB 211.

다음으로, 트랜스크립션부(230)는 상기 자료 수집부(210)에서 수집된 사용자의 발성을 정해진 규칙에 따라 텍스트로 전환한다. 사용자의 발성을 텍스트로 전환화는 과정에는 일정한 규칙에 따라 행한다. 예를 들어, 사용자가 “휴대폰 분실 신고요?”라고 발성한 녹취 파일을 음성 인식하여 [휴대폰 분실 신고요 [noise] [side_speech]]라고 기록한다. 여기서 [noise]는 중간에 잡음이 들어왔다는 표시이고, [side_speech]는 배경에 다른 사람의 목소리가 들어왔다는 표시이다. 그 밖에 표기 방법은 다음과 같다.Next, the transcription unit 230 converts the speech of the user collected by the data collection unit 210 into text according to a predetermined rule. The conversion of the user's voice to text is performed according to a predetermined rule in the process. For example, a voice recognition of the recording file uttered by the user, “Do you want to report the lost phone?” Is recorded as [noise] [side_speech]. Where [noise] is an indication that noise is in the middle and [side_speech] is an indication that someone's voice is in the background. Other notation methods are as follows.

[breath_noise] : 숨을 들이 쉬거나 내쉬는 소리, [breath_noise]: Inhale or exhale

[hang_up] : 전화를 끊는 소리, [hang_up]: hang up,

[dtmf] : DTMF 톤,[dtmf]: DTMF tones,

[fragment] : 음성이 중단된 것, [fragment]: voice interrupted,

(()) : 음성이 발성되었으나 예측하여 표기하기 힘든 경우, (()): When voice is spoken but difficult to predict,

((word)) : 알아듣기 힘든 음성이나 예측하여 표기 한 경우로 (())안에 단어 단위로 기록,((word)): In case of difficult to understand or predicted words

*word* : 화자가 틀리게 발음한 것. * * 안에는 발음 표기를 그대로 쓰는 것이 아니라 맞는 철자를 표기, * word *: The speaker pronounced it wrong. * * Notation of the pronunciation notation is written in the correct spelling,

~ : 발성의 파형이 잘린 것. 발성의 시작 부분이 잘렸으면 앞에 ~을 써주고, 발성의 끝부분이 잘렸으면 끝에 표기,~: The waveform of the vocalization is cut off. If the beginning of the utterance is cut off, write ~ in front of it.

@hes@ : 단어 발성 이전에 "um", "uh", "ah", "eh", "ehn", "hm" 와 같이 머뭇거리는 발성. 상기 발음 외 '저기요, 여보세요' 등과, 의미가 있는 단어의 경우는 @hes@으로 써서는 안 된다. 저기요, 여보세요 등 그대로 표기.@ hes @: Sounds that sound like "um", "uh", "ah", "eh", "ehn", "hm" before the word. In addition to the pronunciation, 'hey, hello', etc., and words that have meaning should not be written as @ hes @. Hey, hello and so on.

이상과 같은 표기 규칙은 표기 사전 DB(235)에 설정되고, 트랜스크립션부(230)는 상기 표기 사전 DB(235)를 참조하여 자료 DB(211)에 저장된 사용자의 발성별로 텍스트로 전환하는 작업을 수행한다. 트랜스크립션부(230)는 텍스트로 전환한 결과를 트랜스크립션 DB(237)에 저장한다. 음성 인식 ARS 서비스에서는 음성 인식율이 중요한 요소인데, 본 발명과 같이 트랜스트립션 DB(237)에 저장된 자료는 음성 인식 ARS 서비스에서 음성 인식율을 높일 수 있다. 사용자의 음성에 잡음 등이 부가될 때 어떠한 발성 형태를 나타내는지 여부를 분석할 수 있게 되고, 이러한 분석 결과에 따라 실제 사용자의 음성 인식시 보다 정확한 음성 인식이 가능하게 된다. The above-described notation rule is set in the notation dictionary DB 235, and the transcription unit 230 converts the text into speech for each user's utterance stored in the material DB 211 with reference to the notation dictionary DB 235. To perform. The transcription unit 230 stores the result of the conversion into the text in the transcription DB 237. In the speech recognition ARS service, the speech recognition rate is an important factor. As described in the present invention, the data stored in the transmission DB 237 can increase the speech recognition rate in the speech recognition ARS service. When noise or the like is added to the user's voice, it is possible to analyze whether or not the voice form is expressed, and according to the analysis result, more accurate voice recognition is possible when the actual user's voice is recognized.

보다 구체적으로 설명하면, 트랜스크립션부(230)는 음성을 인식하여 텍스트로 변환하는 STT(Speech To Text) 엔진(231), 그리고 STT 엔진(231)에 의해 생성된 텍스트를 일정한 규칙에 근거하여 정제하는 정제 엔진(233)을 포함한다. 도 3a는 본 발명의 일 실시예에 따른 트랜스크립션부에서 사용자의 발성을 텍스트로 전환하는 과정을 나타낸 도면이다.In more detail, the transcription unit 230 recognizes and converts speech to text (STT) engine 231 and text generated by the STT engine 231 based on a predetermined rule. It includes a refining engine 233. 3A is a diagram illustrating a process of converting a user's speech into text in a transcription unit according to an embodiment of the present invention.

도 3a를 참조하면, STT 엔진(231)은 자료 DB(211)에 저장된 사용자들의 음성을 Speech To Text 기술을 이용하여 텍스트로 변환한다. 도 3a에 도시된 바와 같이 자료 DB(211)에 "부가서비스 (기침) 신청 하려구요"의 음성 파일이 저장되어 있는 경우, STT 엔진(231)은 상기 음성 파일을 텍스트로, 즉 "부가서비스 에취 신청 하려구요"로 변환한다. 그리고 정제 엔진(233)은 STT 엔진(231)에 의해 변환된 텍스트를 표기 사전 DB(235)을 참조하여 정제한다. 즉, 정제 엔진(233)은 텍스트로 변환된 상기 "부가서비스 에취 신청 하려구요"에서 다른 사람의 기침 소리인 "에취"를 표기 사전 DB(235)를 참조하여 [side_speech]로 표기한다. 따라서 정제 엔진(233)에서 정제된 텍스트는 "부가서비스 [side_speech] 신청 하려구요"이다. 이와 같이 최종 정제된 텍스트 파일은 트랜스크립션 DB(237)에 저장된다.Referring to FIG. 3A, the STT engine 231 converts voices of users stored in the data DB 211 into text using Speech To Text technology. As shown in FIG. 3A, when the voice file of "I want to apply for additional services (cough)" is stored in the data DB 211, the STT engine 231 requests the voice file as text, i. I'm going to do it. " The refining engine 233 refines the text converted by the STT engine 231 with reference to the writing dictionary DB 235. That is, the refining engine 233 writes "side_speech" which refers to the "echo" which is another person's cough sound in the "I want to apply for supplementary service" converted into text. Therefore, the refined text in the refining engine 233 is "I would like to apply for side service [side_speech]". The final purified text file is stored in the transcription DB 237.

한편, 도 2를 참조하면, 태깅부(250)는 상기 트랜스크립션 DB(237)에 저장된 텍스트 파일별로 해당 텍스트 파일이 어느 서비스에 해당하는 것인지 여부를 설정한다. 즉, 각 텍스트 파일별로 주요 키워드를 선별하여 후보 서비스 태그(이하, 시 멘틱 태그)를 설정한다. 예를 들어, "부가서비스 신청 하려구요"의 텍스트 파일의 경우, 주요 키워드로 "부가서비스 + 신청"을 선별하고, 이에 따라 "부가서비스 신청 하려구요"의 텍스트 파일에 대해 "extra_service_apply" 시멘틱 태그를 설정한다. 또한, "부가서비스 벨소리 신청 하려구요"의 텍스트 파일의 경우, 주요 키워드로 "부가서비스 + 신청 + 벨소리"를 선별하고, 이에 따라 "부가서비스 벨소리 신청 하려구요"의 텍스트 파일에 대해 "extra_service_bell_apply" 시멘틱 태그를 설정한다. 이상과 같이 태깅부(250)는 트랜스크립션 DB(237)에 저장된 텍스트 파일별로, 즉 사용자의 발성별로 해당 사용자의 발성이 어느 서비스에 해당하는 것인지 여부를 설정한다. 태깅부(250)에서 주요 키워드 인식은 자연어 음성 인식 기술에 의해 이루어지는 것이 바람직하다. 태깅부(250)에 의해 설정된 각 사용자 발성별 시멘틱 태그는 태그 DB(251)에 저장된다. 이때, 태깅부(250)는 태그 DB(251)에 시멘틱 태그를 저장하며 각 시멘틱 태그에 상기와 같은 주요 키워드를 대응하여 저장한다.Meanwhile, referring to FIG. 2, the tagging unit 250 sets which service the text file corresponds to for each text file stored in the transcription DB 237. That is, a candidate service tag (hereinafter, semantic tag) is set by selecting main keywords for each text file. For example, for a text file of "I would like to apply for additional services", select "Additional services + application" as the main keyword, and set the "extra_service_apply" semantic tag for the text file of "I want to apply for additional services". . Also, for the text file of "I would like to apply for additional service ringtones", select "Additional Service + Request + Ringtone" as the main keyword, and accordingly, add the "extra_service_bell_apply" semantic tag to the text file of "I would like to apply for additional service ringtones". Set it. As described above, the tagging unit 250 sets which service the user's voice corresponds to for each text file stored in the transcription DB 237, that is, for each user's voice. The key keyword recognition in the tagging unit 250 is preferably performed by natural language speech recognition technology. The semantic tag for each user voice set by the tagging unit 250 is stored in the tag DB 251. In this case, the tagging unit 250 stores the semantic tag in the tag DB 251 and stores the main keywords as described above in the semantic tag.

이와 같이 1차 태깅 작업을 완료한 후, 개발자는 태그 DB(251)에 저장된 각 사용자 발성별 시멘틱 태그를 비슷한 성향을 가지는 서비스들로 군집화한다. 예를 들어, 상기 "부가서비스 벨소리 신청"은 "부가서비스 신청"의 하위 메뉴로서 "부가서비스 신청"으로 통합될 수 있으므로, "extra_service_apply" 시멘틱 태그와 "extra_service_bell_apply" 시멘틱 태그는 "extra_service_apply"로 묶는다. 시멘틱 태그를 군집화할 때 동시에 각 시멘트 태그에 할당되어 있던 주요 키워드들도 함께 군집화한다. 결국, "extra_service_apply" 시멘틱 태그에는 "부가서비스 + 신 청 + 벨소리"가 주요 키워드로 대응되어 저장된다. 도 3b는 시멘틱 태그를 비슷한 성향을 가지는 서비스들로 군집화하는 과정을 나타낸 도면으로, 도 3b에 도시된 바와 같이 "부가서비스 벨소리 신청"의 시멘틱 태그와 "부가서비스 신청"의 시멘틱 태그는 "부가서비스 신청"으로 통합한다.After completing the first tagging as described above, the developer clusters the semantic tags for each user voice stored in the tag DB 251 into services having similar tendencies. For example, the "additional service ringtone application" may be integrated into the "additional service application" as a submenu of the "additional service application", so the "extra_service_apply" semantic tag and the "extra_service_bell_apply" semantic tag are enclosed with "extra_service_apply". When you group semantic tags, you also cluster the key keywords that were assigned to each cement tag. As a result, "extra_service_apply" semantic tag stores "additional service + request + ringtone" as the main keyword. 3B is a diagram illustrating a process of grouping semantic tags into services having similar tendencies. As shown in FIG. 3B, the semantic tag of the "additional service ringtone request" and the semantic tag of the "additional service application" are "additional service". Incorporates into "application".

이와 같이 후보 시멘틱 태그들은 비슷한 성향을 가지는 것들로 군집화되는데 군집화되어 설정된 태그들을 본 명세서에서는 어플리케이션 태그라 지칭한다. 어플리케이션 태그는 음성 인식 ARS 서비스에서 제공되는 서비스 항목으로, 목적지 설정부(270)는 개발자의 입력에 따라 태그 DB(251)에 저장된 각 어플리케이션 태그에 대해 실제 서비스 항목을 연결한다. 즉, 각 어플리케이션 태그마다 자동 응답으로 연결하거나, 또는 메뉴 항목을 연결하거나, 또는 상담원을 연결한다. 예를 들어, "부가 서비스 신청"에 관한 어플리케이션 태그 "extra_service_apply"는 메뉴 항목을 제공하는 것이 바람직하다. 부가 서비스의 종류는 다양하므로 ARS 서비스를 이용하는 고객이 부가 서비스를 문의한 경우 " 링투유 신청은 1번, 캐치콜 신청은 2번을 눌러주세요"와 같이 선택 메뉴를 제공하는 것이 바람직하다. 따라서 상술한 바와 같이, "부가 서비스 신청"에 관한 어플리케이션 태그 "extra_service_apply"는 메뉴 항목으로 연결한다. 어플리케이션 태그에 대한 목적지 정보들은 태그-목적지 DB(271)에 저장된다.As described above, candidate semantic tags are clustered into ones having similar tendencies, and clustered and configured tags are referred to herein as application tags. The application tag is a service item provided by the voice recognition ARS service, and the destination setting unit 270 connects the actual service item for each application tag stored in the tag DB 251 according to a developer's input. That is, each application tag is connected with an automatic response, a menu item, or a counselor. For example, the application tag "extra_service_apply" related to "additional service application" preferably provides a menu item. Since there are various types of supplementary services, when a customer using the ARS service inquires the supplementary service, it is preferable to provide a selection menu such as "Please press 1 for Ring to You and 2 for catch call". Therefore, as described above, the application tag "extra_service_apply" related to "additional service request" is connected to a menu item. Destination information for the application tag is stored in the tag-destination DB 271.

다음 [표1]은 어플리케이션 태그 중 [account_bill_Detail]의 최종 목적지에 대한 설계서의 예를 나타낸 것이다. [account_bill_Detail]는 결제 요금에 대한 어플리케이션 태그이다. 어플리케이션 태그 [account_bill_Detail]의 최종 목적지는 아래 [표1]에 나타낸 바와 같이 fd_account_bill_details이다. 이러한 어플리케이션 태그에 대한 목적지 정보들은 태그-목적지 DB(271)에 저장된다.[Table 1] shows an example of the design document for the final destination of [account_bill_Detail] among application tags. [account_bill_Detail] is an application tag for payment fee. The final destination of the application tag [account_bill_Detail] is fd_account_bill_details as shown in [Table 1] below. Destination information for this application tag is stored in the tag-destination DB 271.

account_bill_detailsaccount_bill_details prompts conditionsprompts conditions namename wordingwording Tag ConfirmationTag Confirmation account_bill_details_conf_init1_exp_r1account_bill_details_conf_init1_exp_r1 For details of your bill...right?For details of your bill ... right? Tag ConfirmationTag Confirmation account_bill_details_conf_init1_exp_r1account_bill_details_conf_init1_exp_r1 항목별 상세 청구 내역 확인을 원하세요?Want to see detailed billing history for each item? options options next stepnext step always always -> Final Destination -> Final Destination fd_account_bill_details fd_account_bill_details

이와 같이 태그 DB(251) 및 태그-목적지 DB(271)에 저장된 자료는 고객에서 음성 인식 ARS 서비스를 제공하는데 이용된다. 사용자가 결제 요금의 상세 내역 확인을 요청하면, ARS 시스템은 사용자의 음성을 인식하여 주요 키워드를 선별하고, 그 선별된 키워드를 이용하여 태그 DB(251)에서 어플리케이션 태그를 조회한다. 그리고 나서, 상기 조회된 어플리케이션 태그에 대한 목적지를 태그-목적지 DB(271)에서 조회한다. 조회된 어플리케이션 태그에 설계된 확인 문구, 예로 상기 [표1]에서 '항목별 상세 청구 내역 확인을 원하세요?'라는 메시지를 사용자에게 발송한다. 만약 사용자가 '예'라고 답하면 사용자가 원하는 서비스 항목이 상기 조회된 어플리케이션 태그에 설정된 최종 목적지인 것으로 판단하고, 최종 서비스를 연결시킨다. 바로 요금 내역을 자동 응답으로 안내하거나, 하위 메뉴를 안내하거나, 상담원을 연결한다. As such, the data stored in the tag DB 251 and the tag-destination DB 271 are used to provide a voice recognition ARS service in the customer. When the user requests confirmation of the details of the payment fee, the ARS system recognizes the user's voice and selects the main keywords, and uses the selected keywords to query the application tag in the tag DB 251. Then, the destination for the queried application tag is queried in the tag-destination DB 271. Confirmation text designed for the inquired application tag, for example, in [Table 1], the message 'Do you want to check the detailed billing history for each item?' Is sent to the user. If the user answers 'yes', it is determined that the service item desired by the user is the final destination set in the inquired application tag, and the final service is connected. Immediately send the charge details in an automatic response, guide a sub menu, or connect an agent.

도 4는 본 발명의 일 실시예예 따른 음성 인식 ARS 서비스를 위한 데이터베이스 구축 방법을 설명하는 흐름도이다.4 is a flowchart illustrating a method for establishing a database for a voice recognition ARS service according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 먼저 사용자가 본 발명에 따른 데이터베이스 구축 시스템에 접속하면, 데이터베이스 구축 시스템은 사용자가 원하는 서비스를 발성하도록 유도하는 안내 멘트를 발송한다(S401). 예로, "원하시는 서비스를 말씀해 주세요. 예를 들어 제가 쓴 요금이 얼마에요? 라고 말씀해 주세요”를 들 수 있다. 이때, 사용자는 유무선 단말기를 이용하여 데이터베이스 구축 시스템에 접속할 수 있는데 이에 한정되지 않는다.As shown in FIG. 4, first, when a user accesses a database building system according to the present invention, the database building system sends a guide message to guide the user to speak a desired service (S401). For example, "Please tell us what service you want. For example, how much is my fee?" In this case, the user can access a database building system using a wired or wireless terminal, but is not limited thereto.

이어서, 데이터베이스 구축 시스템은 안내 멘트에 따라 사용자가 말하는 음성을 녹음하여 저장한다(S403). 상기 단계 S401 및 단계 S403은 데이터베이스 구축에 필요한 만큼 반복 수행된다. 바람직하게는 5만개 정도의 사용자 발성을 수집한다.Subsequently, the database building system records and stores the voice spoken by the user according to the announcement (S403). Steps S401 and S403 are repeated as necessary for the database construction. Preferably about 50,000 user voices are collected.

다음으로, 이와 같이 수집 저장된 사용자들의 발성을 소정의 규칙에 따라 텍스트로 전환하여 저장한다(S405). 사용자의 발성을 텍스트로 전환화는 과정에는 일정한 규칙에 따라 행한다. 예를 들어, 사용자가 “휴대폰 분실 신고요?”라고 발성한 녹취 파일을 음성 인식하여 [휴대폰 분실 신고요 [noise] [side_speech]]라고 기록한다. 여기서 [noise]는 중간에 잡음이 들어왔다는 표시이고, [side_speech]는 배경에 다른 사람의 목소리가 들어왔다는 표시이다. 그 밖에 표기 방법은 다음과 같다.Next, the voices of the collected and stored users are converted into text according to a predetermined rule and stored in operation S405. The conversion of the user's voice to text is performed according to a predetermined rule in the process. For example, a voice recognition of the recording file uttered by the user, “Do you want to report the lost phone?” Is recorded as [noise] [side_speech]. Where [noise] is an indication that noise is in the middle and [side_speech] is an indication that someone's voice is in the background. Other notation methods are as follows.

[breath_noise] : 숨을 들이 쉬거나 내쉬는 소리, [breath_noise]: Inhale or exhale

[hang_up] : 전화를 끊는 소리, [hang_up]: hang up,

[dtmf] : DTMF 톤,[dtmf]: DTMF tones,

[fragment] : 음성이 중단된 것, [fragment]: voice interrupted,

(()) : 음성이 발성되었으나 예측하여 표기하기 힘든 경우, (()): When voice is spoken but difficult to predict,

((word)) : 알아듣기 힘든 음성이나 예측하여 표기 한 경우로 (())안에 단어 단위로 기록,((word)): In case of difficult to understand or predicted words

*word* : 화자가 틀리게 발음한 것. * * 안에는 발음 표기를 그대로 쓰는 것이 아니라 맞는 철자를 표기, * word *: The speaker pronounced it wrong. * * Notation of the pronunciation notation is written in the correct spelling,

~ : 발성의 파형이 잘린 것. 발성의 시작 부분이 잘렸으면 앞에 ~을 써주고, 발성의 끝부분이 잘렸으면 끝에 표기,~: The waveform of the vocalization is cut off. If the beginning of the utterance is cut off, write ~ in front of it.

@hes@ : 단어 발성 이전에 "um", "uh", "ah", "eh", "ehn", "hm" 와 같이 머뭇거리는 발성. 상기 발음 외 '저기요, 여보세요' 등과, 의미가 있는 단어의 경우는 @hes@으로 써서는 안 된다. 저기요, 여보세요 등 그대로 표기.@ hes @: Sounds that sound like "um", "uh", "ah", "eh", "ehn", "hm" before the word. In addition to the pronunciation, 'hey, hello', etc., and words that have meaning should not be written as @ hes @. Hey, hello and so on.

다음으로, 상기 변환된 텍스트 파일별로 해당 텍스트 파일이 어느 서비스에 해당하는 것인지 여부를 설정한다. 즉, 각 텍스트 파일별로 주요 키워드를 선별하여 후보 서비스 태그(이하, 시멘틱 태그)를 설정하고 그 서비스 태그와 주요 키워드를 대응하여 저장한다(S407). Next, for each of the converted text files, which service the text file corresponds to is set. In other words, a candidate key tag is selected for each text file, and a candidate service tag (hereinafter, referred to as a semantic tag) is set and the corresponding service tag and the key keyword are stored correspondingly (S407).

예를 들어, "부가서비스 신청 하려구요"의 텍스트 파일의 경우, 주요 키워드로 "부가서비스 + 신청"을 선별하고, 이에 따라 "부가서비스 신청 하려구요"의 텍스트 파일에 대해 "extra_service_apply" 시멘틱 태그를 설정하고 키워드 "부가서비스 + 신청"을 대응하여 저장한다. 또한, "부가서비스 벨소리 신청 하려구요"의 텍스트 파일의 경우, 주요 키워드로 "부가서비스 + 신청 + 벨소리"를 선별하고, 이에 따라 "부가서비스 벨소리 신청 하려구요"의 텍스트 파일에 대해 "extra_service_bell_apply" 시멘틱 태그를 설정하고 키워드 "부가서비스 + 신청 + 벨소리"를 대응하여 저장한다. 이때, 주요 키워드 인식은 자연어 음성 인식 기술에 의해 이루어지는 것이 바람직하다.For example, for a text file of "I want to apply for supplementary services", select "Additional services + application" as the main keyword, and set the "extra_service_apply" semantic tag for the text file of "I want to apply for supplementary services." Corresponds to the keyword "additional service + application" to store. Also, for the text file of "I would like to apply for additional service ringtones", select "Additional Service + Request + Ringtone" as the main keyword, and accordingly, add the "extra_service_bell_apply" semantic tag to the text file of "I would like to apply for additional service ringtones". Set and save corresponding keyword "Additional Service + Application + Ringtone". At this time, the main keyword recognition is preferably made by natural language speech recognition technology.

이와 같이 1차 태깅 작업을 완료한 후, 데이터베이스 구축 시스템은 개발자의 입력에 따라 태그 DB(251)에 저장된 각 사용자 발성별 시멘틱 태그를 비슷한 성향을 가지는 서비스들로 군집화한다(S409). 예를 들어, 상기 "부가서비스 벨소리 신청"은 "부가서비스 신청"의 하위 메뉴로서 "부가서비스 신청"으로 통합될 수 있으므로, "extra_service_apply" 시멘틱 태그와 "extra_service_bell_apply" 시멘틱 태그는 "extra_service_apply"로 묶는다. 시멘틱 태그를 군집화할 때 동시에 각 시멘트 태그에 할당되어 있던 주요 키워드들로 함께 군집화한다. 결국, "extra_service_apply" 시멘틱 태그에는 "부가서비스 + 신청 + 벨소리"가 주요 키워드로 대응되어 저장된다. 이와 같이 후보 시멘틱 태그들은 비슷한 성향을 가지는 것들로 군집화되는데 군집화되어 설정된 각 태그들을 어플리케이션 태그라 지칭한다. 어플리케이션 태그는 음성 인식 ARS 서비스에서 제공되는 서비스 항목이 된다.After completing the first tagging as described above, the database building system clusters the semantic tags for each user voice stored in the tag DB 251 into services having similar tendencies according to the developer's input (S409). For example, the "additional service ringtone application" may be integrated into the "additional service application" as a submenu of the "additional service application", so the "extra_service_apply" semantic tag and the "extra_service_bell_apply" semantic tag are enclosed with "extra_service_apply". When grouping semantic tags, they cluster together with the key keywords that were assigned to each cement tag. As a result, "extra_service_apply" semantic tag stores "additional service + application + ringtone" as the main keyword. As described above, candidate semantic tags are clustered into those having similar tendencies, and each tag grouped and configured is referred to as an application tag. The application tag becomes a service item provided by the voice recognition ARS service.

다음으로, 상기와 같이 군집화되어 정렬된 각 어플리케이션 태그에 대해 실제 서비스, 즉 목적지를 연결하여 저장한다(S411). 즉, 각 어플리케이션 태그마다 원하는 정보를 제공하는 자동 응답으로 연결하거나, 또는 선택 메뉴 항목을 연결하거나, 또는 상담원을 연결한다. 예를 들어, "부가 서비스 신청"에 관한 어플리케이션 태그 "extra_service_apply"는 메뉴 항목을 제공하는 것이 바람직하다. 부가 서비스의 종류는 다양하므로 ARS 서비스를 이용하는 고객이 부가 서비스를 문의한 경우 " 링투유 신청은 1번, 캐치콜 신청은 2번을 눌러주세요"와 같이 선택 메뉴를 제공하는 것이 바람직하다. 따라서 상술한 바와 같이, "부가 서비스 신청"에 관한 어플리케이션 태그 "extra_service_apply"는 메뉴 항목으로 연결한다.Next, for each application tag grouped and sorted as described above, an actual service, that is, a destination is connected and stored (S411). That is, each application tag connects to an automatic response providing desired information, connects a selection menu item, or connects an agent. For example, the application tag "extra_service_apply" related to "additional service application" preferably provides a menu item. Since there are various types of supplementary services, when a customer using the ARS service inquires the supplementary service, it is preferable to provide a selection menu such as "Please press 1 for Ring to You and 2 for catch call". Therefore, as described above, the application tag "extra_service_apply" related to "additional service request" is connected to a menu item.

도 5는 본 발명의 바람직한 일 실시예에 따른 음성 인식을 이용한 ARS 시스템의 구성을 나타낸 도면이다.5 is a diagram illustrating a configuration of an ARS system using speech recognition according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 음성 인식을 이용한 ARS 시스템은, 이동통신 단말(510), 네트워크(520) 및 음성 인식 ARS 서버(530)를 포함한다. 여기서, 네트워크(520)는 기지국, 기지국 제어기, 교환기 등을 포함하는 이동통신망이 바람직하고, 만약 사용자가 유선 단말기를 사용하는 경우 상기 네트워크는 인터넷망 및/또는 공중망(예로, PSTN)이 될 수 있다. 또한, 음성 인식 ARS 서버(530)에 구비되는 태그 DB(535)는 도 2의 태그 DB(251)를 이용한 것이고, 태그-목적지 DB(237)는 도 2의 태그-목적지 DB(271)를 이용한 것이다. 본 실시예에서 태그 DB(535)와 태그-목적지 DB(535)를 별도의 구성으로 설명하지만, 실시 형태에 따라 하나의 DB로서 구현할 수 있다. 이 경우, 어플리케이션 태그에 키워드 및 목적지 정보를 대응하여 저장한다.As shown in FIG. 5, an ARS system using voice recognition includes a mobile communication terminal 510, a network 520, and a voice recognition ARS server 530. Here, the network 520 is preferably a mobile communication network including a base station, a base station controller, a switch, and the like, and if the user uses a wired terminal, the network may be an internet network and / or a public network (eg, PSTN). . In addition, the tag DB 535 provided in the speech recognition ARS server 530 uses the tag DB 251 of FIG. 2, and the tag-destination DB 237 uses the tag-destination DB 271 of FIG. 2. will be. In this embodiment, the tag DB 535 and the tag-destination DB 535 are described in separate configurations, but may be implemented as one DB according to the embodiment. In this case, the keyword and the destination information are stored in the application tag correspondingly.

본 발명에 따른 음성 인식 ARS 서버(530)의 음성 인식부(531)는 통계적 언어 모델로서 사용자의 음성을 인식하는 것으로, 사용자가 이동통신 단말(510)을 이용하여 접속하면 우선 원하는 항목을 발성하도록 하는 유도 안내 메시지를 발송하고, 사용자의 음성을 수신한다.The speech recognition unit 531 of the speech recognition ARS server 530 according to the present invention recognizes the user's voice as a statistical language model, so that when the user connects using the mobile communication terminal 510, a desired item is first spoken. Send a guidance message to receive the user's voice.

또한, 음성 인식부(531)는 사용자가 발성한 음성을 음성 인식하여 주요 키워드를 추출하고, 그 추출한 키워드를 이용하여 태그 DB(251)에서 어플리케이션 태그를 검색한다. 즉, 사용자가 원하는 서비스 항목이 무엇인지 여부를 확인하는 것이다.In addition, the voice recognition unit 531 recognizes the voice spoken by the user, extracts a main keyword, and searches the application tag in the tag DB 251 using the extracted keyword. In other words, it is to check whether or not the service item desired by the user.

호 연결부(533)는 상기 음성 인식부(531)로부터 어플리케이션 태그를 수신하고, 그 수신된 어플리케이션 태그에 대한 목적지를 태그-목적지 DB(273)에서 검색한다. 예를 들어, 음성 인식부(531)에서 수신된 어플리케이션 태그가 "extra_service_apply"인 경우 태그-목적지 DB(273)에서 상기 어플리케이션 태그 "extra_service_apply"에 설정되어 있는 목적지, 즉 자동 응답, 또는 선택 메뉴, 또는 상담원 연결 등의 목적지를 검색한다. 호 연결부(533)는 검색된 목적지 정보를 결과 안내부(532)로 전달한다.The call connection unit 533 receives an application tag from the voice recognition unit 531, and retrieves a destination for the received application tag from the tag-destination DB 273. For example, when the application tag received from the voice recognition unit 531 is "extra_service_apply", the destination set in the application tag "extra_service_apply" in the tag-destination DB 273, that is, an automatic response or a selection menu, or Search for a destination such as an agent connection. The call connection unit 533 transmits the retrieved destination information to the result guide unit 532.

결과 안내부(532)는 호 연결부(533)로부터 전달된 목적지 정보에 따른 결과를 이동통신 단말(510)로 제공한다. 목적지 정보가 벨소리 신청에 대한 자동 응답인 경우, 결과 안내부(532)는 메뉴 DB(539)에서 벨소리 신청에 대한 안내 멘트를 검색하여 이동통신 단말(510)로 제공한다. 또는 호 연결부(533)로부터 전달된 목적지 정보가 하위 메뉴가 존재하는 것일 경우, 예를 들어 사용자는 '비기'에 대해 문의하였는데 '비기'에는 '비기알 2200', '비기알 2900'이 있는 경우, 결과 안내부(532)는 그 하위 메뉴를 안내하여 종래와 같은 DTMF 입력을 받아 최종 서비스를 제공한다. 도면에는 도시하지 않았지만, 결과 안내부(532)는 고객 정보 시스템(WISE), 상품 안내 정보 등을 저장하고 있는 데이터베이스와 연동하여 최종적인 서비스 정보를 제공한다.The result guide unit 532 provides the mobile communication terminal 510 with a result according to the destination information transmitted from the call connection unit 533. If the destination information is an automatic response to the ringtone request, the result guide 532 retrieves the announcement for the ringtone request from the menu DB 539 and provides it to the mobile communication terminal 510. Alternatively, when the destination information transmitted from the call connection unit 533 is a sub menu, for example, the user inquires about 'bigi', 'bigial 2200', 'bigial 2900' The result guide unit 532 guides the submenu to receive the DTMF input as in the related art and provide the final service. Although not shown, the result guide unit 532 provides final service information in association with a database storing a customer information system (WISE), product guide information, and the like.

이와 같이 본 발명에 따라 데이터베이스를 구축하여 음성 인식 ARS 서비스를 제공하게 되면 사용자는 바로 원하는 서비스를 받거나 이미 범위가 좁혀진 서비스에 대한 선택을 하므로 DTMF 방식과 비교하여 원하는 서비스를 찾기 위한 부담이 적다. As described above, when a database is provided according to the present invention and a voice recognition ARS service is provided, a user directly receives a desired service or selects a service that has already been narrowed, so the burden for finding a desired service is small compared to the DTMF method.

또한, 사용자가 말로써 요청한 서비스에 따라 바로 서비스에 연결되거나 이미 좁혀진 트리 구조에서 탐색이 시작되기 때문에 DTMF 방식에 비해 깊지 않은 메뉴 단계를 가진다. 즉 자신이 원하는 서비스로 이동하기 위한 이동 시간이 DTMF 방식에 비해 짧다.In addition, since the search starts from a tree structure that is directly connected to the service or narrowed according to the service requested by the user, the menu step is not deeper than that of the DTMF method. That is, the moving time for moving to the desired service is shorter than that of the DTMF method.

또한, DTMF 방식의 경우 복잡한 메뉴 구조로 인하여 사용자가 초기 진입부터 시도도 하지 않고 상담원을 찾게 된다. 음성인식 ARS의 경우 상대적으로 복잡도가 적은 메뉴 구조에 낮은 메뉴 단계로 인한 서비스 대기 시간의 감소로 DTMF 방식에 비하여 상담원 연결 호가 줄어들게 된다.In addition, in the case of the DTMF method, due to the complicated menu structure, the user finds a counselor without attempting from the initial entry. In the case of voice recognition ARS, the number of agent connection calls is reduced compared to the DTMF method due to the reduction of service waiting time due to the relatively low menu structure and low menu level.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.As described above, the method of the present invention may be implemented as a program and stored in a recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.) in a computer-readable form. Since this process can be easily implemented by those skilled in the art will not be described in more detail.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.

상기와 같은 본 발명의 데이터베이스 구축 방법에 따르면, 음성 인식 ARS 시스템 개발에 소요되는 시간을 대폭 줄일 수 있게 되고, 궁극적으로는 음성 인식 ARS 서비스의 제공에 따라 사용자 측면에서 종래 DTMF 방식에 비해 원하는 서비스를 찾기 위한 부담이 감소하고, 이동 시간이 감소한다. 또한 상담원 연결 호가 줄어들어 사업자 측면에서는 상담원을 고용하는 고용 비용이 줄어들게 되어 비용을 절감시키는 효과가 있다.According to the database construction method of the present invention as described above, it is possible to significantly reduce the time required to develop a speech recognition ARS system, and ultimately to provide a desired service in comparison with the conventional DTMF method in terms of the provision of the speech recognition ARS service. The burden to find is reduced and travel time is reduced. In addition, the number of counseling calls is reduced, which in turn reduces the cost of hiring agents in terms of employment.

Claims (11)

음성 인식 ARS 서비스를 위한 데이터베이스 구축 방법으로서,A database construction method for speech recognition ARS service, (a) 다수 사용자로부터 서비스 질문 음성을 수집하는 단계;(a) collecting service question voices from multiple users; (b) 수집된 각 사용자의 서비스 질문 음성을 텍스트로 변환하는 단계;(b) converting each collected service question voice into text; (c) 변환된 텍스트를 유사 서비스 항목별로 그룹핑하고, 그룹핑된 그룹에 서비스 태그를 설정하는 단계; 및(c) grouping the converted text into similar service items and setting a service tag in the grouped group; And (e) 설정된 서비스 태그에 대해 목적지를 매핑하는 단계;를 포함하는 데이터베이스 구축 방법.(e) mapping a destination to a set service tag. 제 1 항에 있어서,The method of claim 1, 상기 단계 (c)는,Step (c) is, (c-1) 변환된 텍스트에 시멘틱 태그를 설정하는 단계; 및(c-1) setting a semantic tag in the converted text; And (c-2) 설정된 각 시멘틱 태그를 유사 서비스 항목별로 그룹핑하고, 그룹핑된 그룹에 서비스 태그를 설정하는 단계;를 포함하는 것을 특징으로 하는 데이터베이스 구축 방법.(c-2) grouping each set semantic tag by a similar service item, and setting a service tag in the grouped group. 제 2 항에 있어서,The method of claim 2, 상기 단계 (c-1)은,Step (c-1) is, 변환된 텍스트에서 키워드를 추출하는 단계;Extracting a keyword from the converted text; 추출된 키워드를 토대로 시멘틱 태그를 생성하는 단계; 및Generating a semantic tag based on the extracted keyword; And 생성된 시멘틱 태그에 상기 추출된 키워드를 매핑하는 단계;를 포함하는 것을 특징으로 하는 데이터베이스 구축 방법.And mapping the extracted keyword to the generated semantic tag. 제 3 항에 있어서,The method of claim 3, wherein 상기 단계 (c-2)는,Step (c-2) is, 설정된 각 시멘틱 태그를 유사 서비스 항목별로 그룹핑하는 단계;Grouping each set semantic tag by similar service items; 그룹핑된 그룹에 서비스 태그를 설정하는 단계; 및Setting a service tag in the grouped group; And 상기 그룹에 속한 시멘틱 태그들의 키워드를 상기 서비스 태그에 매핑하는 단계;를 포함하는 것을 특징으로 하는 데이터베이스 구축 방법.Mapping keywords of semantic tags belonging to the group to the service tag. 제 1 항에 있어서,The method of claim 1, 상기 단계 (c)는,Step (c) is, 상기 그룹에 속한 텍스트에서 주요 키워드를 추출하여 상기 서비스 태그에 매핑하여 저장하는 것을 특징으로 하는 데이터베이스 구축 방법.And extracting a key keyword from the text belonging to the group and mapping the key keyword to the service tag. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 5, 상기 목적지는,The destination is 정보 제공, 선택 메뉴 제공, 상담원 연결 중 어느 하나인 것을 특징으로 하는 데이터베이스 구축 방법.Method of building a database, characterized in that any of the information provided, the selection menu provided, the agent connection. 음성 인식 ARS 서비스를 위한 데이터베이스 구축 시스템으로서,A database construction system for speech recognition ARS service, 다수 사용자로부터 서비스 질문 음성을 수집하는 수집 수단;Collecting means for collecting service question voices from multiple users; 상기 수집된 각 사용자의 서비스 질문 음성을 텍스트로 변환하는 변환 수단;Conversion means for converting the collected service question voices of each user into text; 상기 변환된 텍스트를 유사 서비스 항목별로 그룹핑하고, 그룹핑된 그룹에 서비스 태그를 설정하는 태깅 수단; 및Tagging means for grouping the converted text into similar service items and setting a service tag in the grouped group; And 상기 서비스 태그에 대해 목적지를 매핑하는 목적지 매핑 수단;을 포함하는 데이터베이스 구축 시스템.Destination mapping means for mapping a destination to the service tag. 제 7 항에 있어서,The method of claim 7, wherein 상기 태깅 수단은,The tagging means, 상기 변환된 텍스트에 시멘틱 태그를 설정한 후, 그 설정된 각 시멘틱 태그를 유사 서비스 항목별로 그룹핑하여 서비스 태그를 설정하는 것을 특징으로 하는 데이터베이스 구축 시스템.And setting a semantic tag in the converted text, and then setting a service tag by grouping each set semantic tag by similar service items. 제 8 항에 있어서,The method of claim 8, 상기 태깅 수단은,The tagging means, 상기 변환된 텍스트에서 키워드를 추출하고 그에 기초하여 시멘틱 태그를 생성하는 것을 특징으로 하는 데이터베이스 구축 시스템.Extracting a keyword from the converted text and generating a semantic tag based on the keyword. 제 9 항에 있어서,The method of claim 9, 상기 태깅 수단은,The tagging means, 상기 서비스 태그에 상기 그룹에 속한 시멘틱 태그의 키워드를 매핑하여 저장하는 것을 특징으로 하는 데이터베이스 구축 시스템.And a keyword of a semantic tag belonging to the group to the service tag and storing the same. 제 7 항에 있어서,The method of claim 7, wherein 상기 태깅 수단은,The tagging means, 상기 그룹에 속한 텍스트에서 주요 키워드를 추출하여 상기 서비스 태그에 매핑하여 저장하는 것을 특징으로 하는 데이터베이스 구축 시스템.And a main keyword is extracted from the text belonging to the group and mapped to the service tag and stored.
KR1020070017166A 2006-12-29 2007-02-20 Database construction method and system for speech recognition ars service KR100822170B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020060138706 2006-12-29
KR20060138706 2006-12-29

Publications (1)

Publication Number Publication Date
KR100822170B1 true KR100822170B1 (en) 2008-04-16

Family

ID=39343390

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020070017166A KR100822170B1 (en) 2006-12-29 2007-02-20 Database construction method and system for speech recognition ars service
KR1020070020385A KR100803900B1 (en) 2006-12-29 2007-02-28 Speech recognition ars service method, and speech recognition ars service system

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020070020385A KR100803900B1 (en) 2006-12-29 2007-02-28 Speech recognition ars service method, and speech recognition ars service system

Country Status (1)

Country Link
KR (2) KR100822170B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101176405B1 (en) 2011-12-19 2012-08-28 주식회사 예스피치 System and method for guiding consultation
KR101425091B1 (en) 2012-11-16 2014-08-01 김성호 System and method for mobile complex text ARS service
KR20220048248A (en) 2020-10-12 2022-04-19 금오공과대학교 산학협력단 Voice data set building method based on subject domain, Voice data set building system based on subject domain, and computer program therefor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2935854B1 (en) * 2008-09-11 2011-02-18 Alcatel Lucent METHOD AND COMMUNICATION SYSTEM FOR DISPLAYING A LINK TO A SERVICE FROM AN EXPRESSION PRESENT DURING CONVERSATION.
KR101638870B1 (en) * 2014-08-21 2016-07-15 김길호 ARS Server And, Recording Medium Recording ARS Application Prgram And, ARS Service Method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR950004944B1 (en) * 1992-11-09 1995-05-16 주식회사금성사 Audio response system with voice-recognition capability
JPH11146080A (en) 1997-11-10 1999-05-28 Ntt Data Corp Information service system utilizing position information of mobile communication terminal
KR20000018247A (en) * 2000-01-25 2000-04-06 백종관 Voice Portal Service System Using Speech Recognition/Text-to-Speech at Communication Network and Method thereof
KR20010109050A (en) * 2000-06-01 2001-12-08 이광수 Voice detecting 114information Service and auto calling system
KR20020020615A (en) * 2000-09-08 2002-03-15 한태현 Voice identification telephone number guidance and auto-connecting method and system therefor

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100395222B1 (en) * 1998-12-12 2003-10-17 엘지전자 주식회사 Voice Recognition System for Voice Mail Service (VMS)
KR20010063197A (en) * 1999-12-22 2001-07-09 윤종용 Data service method with character which is requested information by user in telecommunication system
KR101013280B1 (en) * 2004-02-13 2011-02-09 주식회사 케이티 Automatic management apparatus and method of distributed and heterogeneous call attendant system over PSTN

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR950004944B1 (en) * 1992-11-09 1995-05-16 주식회사금성사 Audio response system with voice-recognition capability
JPH11146080A (en) 1997-11-10 1999-05-28 Ntt Data Corp Information service system utilizing position information of mobile communication terminal
KR20000018247A (en) * 2000-01-25 2000-04-06 백종관 Voice Portal Service System Using Speech Recognition/Text-to-Speech at Communication Network and Method thereof
KR20010109050A (en) * 2000-06-01 2001-12-08 이광수 Voice detecting 114information Service and auto calling system
KR20020020615A (en) * 2000-09-08 2002-03-15 한태현 Voice identification telephone number guidance and auto-connecting method and system therefor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101176405B1 (en) 2011-12-19 2012-08-28 주식회사 예스피치 System and method for guiding consultation
KR101425091B1 (en) 2012-11-16 2014-08-01 김성호 System and method for mobile complex text ARS service
KR20220048248A (en) 2020-10-12 2022-04-19 금오공과대학교 산학협력단 Voice data set building method based on subject domain, Voice data set building system based on subject domain, and computer program therefor

Also Published As

Publication number Publication date
KR100803900B1 (en) 2008-02-15

Similar Documents

Publication Publication Date Title
US9202247B2 (en) System and method utilizing voice search to locate a product in stores from a phone
US6996531B2 (en) Automated database assistance using a telephone for a speech based or text based multimedia communication mode
US6438520B1 (en) Apparatus, method and system for cross-speaker speech recognition for telecommunication applications
US6895257B2 (en) Personalized agent for portable devices and cellular phone
US6937986B2 (en) Automatic dynamic speech recognition vocabulary based on external sources of information
EP2523441B1 (en) A Mass-Scale, User-Independent, Device-Independent, Voice Message to Text Conversion System
US5940793A (en) Voice-operated services
US7302391B2 (en) Methods and apparatus for performing speech recognition over a network and using speech recognition results
Liu et al. Hkust/mts: A very large scale mandarin telephone speech corpus
CN109325091B (en) Method, device, equipment and medium for updating attribute information of interest points
US20040260543A1 (en) Pattern cross-matching
US20130279665A1 (en) Methods and apparatus for generating, updating and distributing speech recognition models
US20080071544A1 (en) Integrating Voice-Enabled Local Search and Contact Lists
US20090304161A1 (en) system and method utilizing voice search to locate a product in stores from a phone
CN104700835A (en) Method and system for providing voice interface
US20010053977A1 (en) System and method for responding to email and self help requests
KR100822170B1 (en) Database construction method and system for speech recognition ars service
CN1381831A (en) Phonetic recognition device independent unconnected with loudspeaker
JP2008015439A (en) Voice recognition system
US7424428B2 (en) Automatic dialog system with database language model
TW200304638A (en) Network-accessible speaker-dependent voice models of multiple persons
CN106603792B (en) A kind of number searching equipment
CN201355842Y (en) Large-scale user-independent and device-independent voice message system
US20030055649A1 (en) Methods for accessing information on personal computers using voice through landline or wireless phones
CN113095852A (en) Self-service distribution and service system through intelligent voice

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment
FPAY Annual fee payment
FPAY Annual fee payment

Payment date: 20180403

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 12