KR20220154532A - Automatic call response system for orders and reservations - Google Patents

Automatic call response system for orders and reservations Download PDF

Info

Publication number
KR20220154532A
KR20220154532A KR1020210062205A KR20210062205A KR20220154532A KR 20220154532 A KR20220154532 A KR 20220154532A KR 1020210062205 A KR1020210062205 A KR 1020210062205A KR 20210062205 A KR20210062205 A KR 20210062205A KR 20220154532 A KR20220154532 A KR 20220154532A
Authority
KR
South Korea
Prior art keywords
unit
data
query request
voice
information
Prior art date
Application number
KR1020210062205A
Other languages
Korean (ko)
Inventor
송형석
Original Assignee
(주)와이즈에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)와이즈에이아이 filed Critical (주)와이즈에이아이
Priority to KR1020210062205A priority Critical patent/KR20220154532A/en
Publication of KR20220154532A publication Critical patent/KR20220154532A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0281Customer communication at a business location, e.g. providing product or service information, consulting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0633Lists, e.g. purchase orders, compilation or processing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing

Abstract

The present invention relates to an automatic call response system for ordering and reservation. By extracting only the voice of a sentence including an entity from which order reservation information was derived and processing automatic call response, the loss of orders and reservations due to voice recognition errors is reduced, and time and manpower consumption for reconfirming consultation details is reduced. As an example, disclosed is an automatic call answering system for ordering and reservation, including an integrated management server unit which performs: receiving the voice query request data from the user communication terminal when the call is connected with the user communication terminal; inferring a query request intention for the voice query request data; extracting text answer data and entity information from a pre-established database based on the result of intention inference; and converting the extracted text response data into voice response data and transmitting it to the user communication terminal.

Description

주문 및 예약을 위한 자동 콜 응대 시스템{AUTOMATIC CALL RESPONSE SYSTEM FOR ORDERS AND RESERVATIONS} Automatic call response system for ordering and reservation {AUTOMATIC CALL RESPONSE SYSTEM FOR ORDERS AND RESERVATIONS}

본 발명의 실시예는 주문 및 예약을 위한 자동 콜 응대 시스템에 관한 것으로, 좀 더 구체적으로는 사용자의 주문 및 예약 내용에 대한 엔티티를 활용하여 주문 및 예약을 쉽게 확인할 수 있도록 하여 자동으로 주문 및 예약에 대한 콜을 응대하는 시스템에 관한 것이다.Embodiments of the present invention relate to an automatic call answering system for ordering and reservations, and more specifically, by utilizing an entity for a user's order and reservation details to easily check the order and reservation, automatically ordering and reservation It relates to a system that responds to calls for.

자동 콜 응대 시스템에서, 고객의 전화문의를 자동으로 응대하여 주문 또는 예약을 접수하기 위해 가장 문제가 되는 요소는 고객의 음성 인식율을 100% 인식할 수 없다는 신뢰성 문제이다. 이와 같이 자동 콜 응대를 위하여 고객의 음성 인식을 신뢰할 수 없는 상황에서 재 확인 없이 주문 또는 예약을 처리하면 잘못된 정보를 인식하여 처리함에 따라 큰 손실을 볼 수 밖에 없다.In an automatic call answering system, the most problematic factor for automatically responding to a customer's telephone inquiry and accepting an order or reservation is a reliability problem in that the customer's voice recognition rate cannot be recognized 100%. In this way, if an order or reservation is processed without reconfirmation in a situation where the customer's voice recognition is unreliable for automatic call response, a large loss is inevitable as incorrect information is recognized and processed.

이에 따라, 주문이나 예약을 다시 확인하기 위해서는 상담사가 녹취된 파일 전체를 들어보거나 다시 해당 고객에게 전화를 걸어 주문이나 예약 내역이 맞는지 확인하는 과정이 필요하다.Accordingly, in order to confirm the order or reservation again, it is necessary for the counselor to listen to the entire recorded file or call the customer again to confirm whether the order or reservation details are correct.

이에 따라, 음성 인식 오류에 의한 손실과 상담사의 재 확인 행위에 따른 불필요한 인력과 시간 소모, 그리고 고객의 불편함을 해소하기 위한 새로운 형태의 자동 콜 응대 시스템이 요구된다.Accordingly, a new type of automatic call answering system is required to solve the loss due to voice recognition error, unnecessary manpower and time consumption due to the counselor's reconfirmation, and customer's inconvenience.

공개특허공보 제10-2020-0092448호(공개일자: 2020년08월04일)Patent Publication No. 10-2020-0092448 (published date: August 04, 2020) 공개특허공보 제10-2019-0061706호(공개일자: 2019년06월05일)Patent Publication No. 10-2019-0061706 (published date: June 05, 2019)

본 발명의 실시예는, 주문 예약 정보가 도출된 엔티티(entity)를 포함하는 문장의 음성만을 추출하여 자동 콜 응대를 처리함으로써, 음성 인식 오류로 인한 주문 및 예약의 손실을 줄이고, 상담내역의 재확인을 위한 시간과 인력 소모를 최소화할 수 있는 주문 및 예약을 위한 자동 콜 응대 시스템을 제공한다.An embodiment of the present invention extracts only the voice of a sentence including an entity from which order reservation information is derived and handles automatic call response, thereby reducing loss of orders and reservations due to voice recognition errors, and reconfirming consultation details. It provides an automatic call response system for ordering and reservations that can minimize time and manpower consumption for

본 발명의 실시예에 따른 주문 및 예약을 위한 자동 콜 응대 시스템은, 사용자 통신단말과 통화 연결되어 사용자 통신단말로부터 상기 음성질의요청데이터를 수신하고, 상기 음성질의요청데이터에 대한 질의요청의도를 추론하고, 의도추론결과를 기반으로 기 구축된 데이터베이스로부터 텍스트답변데이터와 엔티티정보를 추출하며, 추출된 상기 텍스트답변데이터를 음성답변데이터로 변환하여 사용자 통신단말로 전송하고, 상기 엔티티정보를 사용자의 주소정보, 주문요청정보 및 예약요청정보 별로 분류하여 적어도 하나의 단위 엔티티정보를 생성하고, 상기 음성질의요청데이터를 상기 단위 엔티티정보에 해당하는 단위 음성질의요청데이터로 각각 분류한 후, 분류된 상기 단위 엔티티정보와 상기 단위 음성질의요청데이터 간을 매칭하고, 매칭된 주문요청정보를 사용자 별로 분류하여 저장 관리하고, 저장 관리되는 상기 주문요청정보를 요청 시 상기 주문요청정보를 디스플레이를 통해 사용자 단위로 구분하여 표시하되, 사용자 단위 내에서 상기 엔티티정보 별로 구분하여 표시하고, 상기 단위 엔티티정보에 대한 음성확인 시 상기 단위 엔티티정보와 매칭되어 있는 상기 단위 음성질의요청데이터를 스피커를 통해 출력하는 통합 관리 서버부를 포함한다.An automatic call answering system for ordering and reservation according to an embodiment of the present invention is connected to a user communication terminal, receives the voice query request data from the user communication terminal, and determines the intention of the inquiry request for the voice query request data. Inference, extract text answer data and entity information from a pre-established database based on the result of intention inference, convert the extracted text answer data into voice answer data and transmit it to the user communication terminal, and transmit the entity information to the user's communication terminal. At least one unit entity information is generated by classifying the address information, order request information, and reservation request information, and the voice query request data is classified into unit voice query request data corresponding to the unit entity information. Unit entity information and the unit voice query request data are matched, matched order request information is classified and stored for each user, and when the stored and managed order request information is requested, the order request information is displayed for each user. An integrated management server that divides and displays the unit voice query request data matched with the unit entity information through a speaker when displaying the unit information by classifying it according to the entity information within the unit of user and performing voice confirmation on the unit entity information. includes wealth

또한, 상기 통합 관리 서버부는, 이동 통신망과 연결되어 상기 사용자 통신단말로부터 상기 음성질의요청데이터를 수신하고, 상기 음성답변데이터를 상기 사용자 통신단말로 전송하는 콜 응대 서버부; 상기 음성질의요청데이터를 텍스트질의요청데이터로 변환하는 음성 인식부; 사용자질의요청데이터를 입력 값으로 하고, 상기 사용자질의요청데이터에서의 질의요청의도를 특징 값으로 학습하여 상기 사용자질의요청데이터에 대한 질의요청의도데이터를 결과 값으로 출력하는 학습 데이터베이스부; 상기 학습 데이터베이스부와 연동하여 상기 텍스트질의요청데이터에 대한 질의요청의도데이터를 수신하고, 수신된 상기 질의요청의도데이터를 기반으로 상기 텍스트질의요청데이터에 대한 의도추론결과데이터를 생성하는 추론 엔진부; 상기 의도추론결과데이터와 매칭되는 상기 텍스트답변데이터와, 엔티티정보를 추출하여 상기 추론 엔진부로 제공하는 답변 데이터베이스부; 상기 텍스트답변데이터를 상기 음성답변데이터로 변환하여 상기 콜 대응 서버부를 통해 상기 사용자 통신단말로 제공하도록 하는 음성 합성부; 상기 엔티티정보를 사용자의 주소정보, 주문요청정보 및 예약요청정보 별로 분류하여 적어도 하나의 단위 엔티티정보를 생성하고, 상기 음성질의요청데이터를 상기 단위 엔티티정보에 해당하는 단위 음성질의요청데이터로 각각 분류한 후, 분류된 상기 단위 엔티티정보와 상기 단위 음성질의요청데이터 간을 매칭하고, 매칭된 주문요청정보를 사용자 별로 분류하여 저장 관리하는 엔티티 관리부; 및 상기 엔티티 관리부를 통해 저장 관리되는 상기 주문요청정보를 요청 시 상기 주문요청정보를 디스플레이를 통해 사용자 단위로 구분하여 표시하되, 사용자 단위 내에서 상기 엔티티정보 별로 구분하여 표시하고, 상기 단위 엔티티정보에 대한 음성확인 시 상기 단위 엔티티정보와 매칭되어 있는 상기 단위 음성질의요청데이터를 스피커를 통해 출력하는 엔티티 모니터링부를 포함할 수 있다.The integrated management server unit may include a call response server unit connected to a mobile communication network, receiving the voice query request data from the user communication terminal, and transmitting the voice response data to the user communication terminal; a voice recognition unit converting the voice query request data into text query request data; a learning database unit that takes user query request data as an input value, learns query request intention in the user query request data as a feature value, and outputs query request intention data for the user query request data as a result value; An inference engine that receives query request intent data for the text query request data in conjunction with the learning database unit, and generates intent inference result data for the text query request data based on the received query request intent data. wealth; an answer database unit extracting the text answer data and entity information matching the intention inference result data and providing them to the inference engine unit; a voice synthesis unit which converts the text response data into the voice response data and provides the converted text response data to the user communication terminal through the call response server unit; At least one unit entity information is generated by classifying the entity information according to the user's address information, order request information, and reservation request information, and the voice query request data is classified into unit voice query request data corresponding to the unit entity information. an entity manager for matching the classified unit entity information and the unit voice query request data, classifying matched order request information for each user, and storing and managing the matched order request information; and when requesting the order request information stored and managed through the entity management unit, the order request information is divided and displayed in units of users through a display, but is divided and displayed by the entity information within the unit of users, and displayed in the unit entity information. and an entity monitoring unit that outputs the unit voice query request data matched with the unit entity information through a speaker when voice confirmation is performed.

본 발명에 따르면, 주문 예약 정보가 도출된 엔티티(entity)를 포함하는 문장의 음성만을 추출하여 자동 콜 응대를 처리함으로써, 음성 인식 오류로 인한 주문 및 예약의 손실을 줄이고, 상담내역의 재확인을 위한 시간과 인력 소모를 최소화할 수 있는 주문 및 예약을 위한 자동 콜 응대 시스템을 제공할 수 있다.According to the present invention, by extracting only the voice of a sentence including an entity from which order reservation information is derived and automatically processing a call, reducing the loss of orders and reservations due to voice recognition errors, and for reconfirming consultation details An automatic call answering system for ordering and reservations that can minimize time and manpower consumption can be provided.

도 1은 본 발명의 실시예에 따른 주문 및 예약을 위한 자동 콜 응대 시스템의 전체 구성을 나타낸 개요도이다.
도 2는 본 발명의 실시예에 따른 주문 및 예약을 위한 자동 콜 응대 시스템의 세부 구성과 동작 방식을 설명하기 위해 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 엔티티 관리부와 엔티티 모니터링부의 동작 방식을 설명하기 위해 나타낸 도면이다.
1 is a schematic diagram showing the overall configuration of an automatic call answering system for ordering and reservation according to an embodiment of the present invention.
2 is a diagram illustrating the detailed configuration and operation method of an automatic call answering system for ordering and reservation according to an embodiment of the present invention.
3 is a diagram illustrating an operation method of an entity management unit and an entity monitoring unit according to an embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected from general terms that are currently widely used as much as possible while considering the functions in the present invention, but these may vary depending on the intention of a person skilled in the art or precedent, the emergence of new technologies, and the like. In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, not simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나 이상의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a certain part "includes" a certain component throughout the specification, it means that it may further include other components without excluding other components unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. .

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

도 1은 본 발명의 실시예에 따른 주문 및 예약을 위한 자동 콜 응대 시스템의 전체 구성을 나타낸 개요도이고, 도 2는 본 발명의 실시예에 따른 주문 및 예약을 위한 자동 콜 응대 시스템의 세부 구성과 동작 방식을 설명하기 위해 나타낸 도면이고, 도 3은 본 발명의 실시예에 따른 엔티티 관리부와 엔티티 모니터링부의 동작 방식을 설명하기 위해 나타낸 도면이다.1 is a schematic diagram showing the overall configuration of an automatic call response system for ordering and reservation according to an embodiment of the present invention, and FIG. 2 is a detailed configuration of an automatic call response system for ordering and reservation according to an embodiment of the present invention 3 is a diagram shown to explain an operating method of an entity management unit and an entity monitoring unit according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 주문 및 예약을 위한 자동 콜 응대 시스템(1000)은 사용자 통신단말(10)과 연결되는 통합 관리 서버부(100)를 포함할 수 있다.Referring to FIG. 1 , an automatic call response system 1000 for ordering and reservation according to an embodiment of the present invention may include an integrated management server unit 100 connected to a user communication terminal 10 .

상기 사용자 통신단말(10)은, 사용자로부터 음성질의요청데이터를 입력 받아 통합 관리 서버부(100)로 전송하고, 통합 관리 서버부(100)로부터 음성질의요청데이터에 따른 음성답변데이터를 수신하여 사용자에게 제공할 수 있다. The user communication terminal 10 receives voice query request data from the user, transmits the input to the integrated management server unit 100, and receives voice answer data according to the voice query request data from the integrated management server unit 100, thereby allowing the user to can be provided to

본 실시예에 사용자 통신단말(10)은 스마트 폰(smart phone), 태블릿 PC, 노트북 컴퓨터(laptop computer), 전자북 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), MP3 플레이어, 디지털 카메라, 네비게이션(Navigation) 디바이스 일 수 있으나, 이에 한정되지 않는다.In this embodiment, the user communication terminal 10 includes a smart phone, a tablet PC, a laptop computer, an electronic book terminal, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), It may be an MP3 player, digital camera, or navigation device, but is not limited thereto.

상기 통합 관리 서버부(100)는, 사용자 통신단말(10)과 연결되어 음성질의요청데이터를 수신하고, 음성질의요청데이터에 대한 질의요청의도를 추론하고, 의도추론결과를 기반으로 기 구축된 데이터베이스로부터 텍스트답변데이터와 엔티티정보를 추출하며, 추출된 텍스트답변데이터를 음성답변데이터로 변환하여 사용자 단말(10)로 전송할 수 있다.The integrated management server unit 100 is connected to the user communication terminal 10 to receive voice query request data, infer the query request intention for the voice query request data, and pre-established based on the result of the inference of intention. Text response data and entity information may be extracted from the database, and the extracted text response data may be converted into voice response data and transmitted to the user terminal 10 .

본 실시예에 따른 통합 관리 서버부(100)는, 하드웨어적으로 통상적인 웹 서버와 동일한 구성을 가지며, 소프트웨어적으로는 C, C++, Java, Visual Basic, Visual C 등과 같은 다양한 형태의 언어를 통해 구현되어 여러 가지 기능을 하는 프로그램 모듈을 포함할 수 있다. 또한, 일반적인 서버용 하드웨어에 도스(dos), 윈도우(window), 리눅스(linux), 유닉스(unix), 매킨토시(macintosh), 안드로이드(Android), 아이오에서에서(iOS) 등의 운영 체제에 따라 다양하게 제공되고 있는 웹 서버 프로그램을 이용하여 구현될 수 있다.The integrated management server unit 100 according to this embodiment has the same configuration as a conventional web server in terms of hardware, and in terms of software, through various types of languages such as C, C++, Java, Visual Basic, Visual C, etc. It may include program modules that are implemented and perform various functions. In addition, general server hardware is available in various ways depending on operating systems such as DOS, Windows, Linux, Unix, Macintosh, Android, and iOS. It can be implemented using a web server program that is being provided.

본 실시예에 따른 사용자 통신단말(10)과 통합 관리 서버부(100) 간을 연결하는 인터넷 네트워크의 무선 통신망의 일 예로는, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G 등)에 따라 구축된 이동 통신망을 포함할 수 있으나, 특별히 한정하는 것은 아니다. 또한, 유선 통신망의 일 예로는, LAN(Local Area Network), WAN(Wide Area Network)등의 폐쇄형 네트워크일 수 있으며, 인터넷과 같은 개방형 네트워크인 것이 바람직하다. 인터넷은 TCP/IP 프로토콜 및 그 상위계층에 존재하는 여러 서비스, 즉 HTTP(HyperText Transfer Protocol), Telnet, FTP(File Transfer Protocol), DNS(Domain Name System), SMTP(Simple Mail Transfer Protocol), SNMP(Simple Network Management Protocol), NFS(Network File Service), NIS(Network Information Service)를 제공하는 전세계적인 개방형 컴퓨터 네트워크 구조를 의미한다.An example of a wireless communication network of an Internet network connecting the user communication terminal 10 and the integrated management server unit 100 according to the present embodiment is technical standards or communication methods for mobile communication (eg, GSM ( Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), 5G, etc.) It is not. In addition, an example of the wired communication network may be a closed network such as a local area network (LAN) and a wide area network (WAN), preferably an open network such as the Internet. Internet consists of the TCP/IP protocol and several services that exist on its upper layer, namely HTTP (HyperText Transfer Protocol), Telnet, FTP (File Transfer Protocol), DNS (Domain Name System), SMTP (Simple Mail Transfer Protocol), SNMP ( Simple Network Management Protocol), Network File Service (NFS), and Network Information Service (NIS).

이러한 통합 관리 서버부(100)는 도 2에 도시된 바와 같이, 콜 응대 서버부(110), 음성 인식부(120), 학습 데이터베이스부(130), 추론 엔진부(140), 답변 데이터베이스부(150), 음성 합성부(160), 엔티티 관리부(170) 및 엔티티 모니터링부(180) 중 적어도 하나를 포함할 수 있다. As shown in FIG. 2, the integrated management server unit 100 includes a call response server unit 110, a voice recognition unit 120, a learning database unit 130, an inference engine unit 140, an answer database unit ( 150), a voice synthesis unit 160, an entity management unit 170, and an entity monitoring unit 180.

상기 콜 응대 서버부(110)는, 이동 통신망(20)과 연결되어 사용자 통신단말(10)로부터 음성질의요청데이터를 수신하고, 음성답변데이터를 사용자 통신단말(10)로 전송할 수 있다.The call response server unit 110 is connected to the mobile communication network 20 to receive voice query request data from the user communication terminal 10 and transmit voice response data to the user communication terminal 10 .

상기 음성 인식부(120)는, 콜 응대 서버부(110)로부터 음성질의요청데이터를 수신하고, 수신된 음성질의요청데이터에 대한 STT(speech to text) 변환 모듈을 통해 텍스트질의요청데이터로 변환할 수 있다.The voice recognition unit 120 receives voice query request data from the call response server 110 and converts the received voice query request data into text query request data through a speech to text (STT) conversion module. can

상기 학습 데이터베이스부(130)는, 사용자질의요청데이터를 입력 값으로 하고, 입력된 사용자질의요청데이터에서의 질의요청의도를 특징 값으로 학습하여 사용자질의요청데이터에 대한 질의요청의도데이터를 결과 값으로 출력할 수 있다. 여기서, 사용자질의요청데이터는 평소 주문 또는 예약 시 녹취한 사용자의 음성데이터를 포함할 수 있다. 이에, 학습 데이터베이스부(130)는 이러한 음성데이터에서 질의요청에 대한 의도를 나타내는 단어들을 특징 값으로 학습하고, 학습된 특징 값을 결과 값으로 출력할 있다. 이러한 학습 데이터베이스부(130)는 사전에 사용의 다양한 질의 요청에 대해서 각각의 특징 값과 그에 따른 다양한 의도에 대한 특징 값을 각각 학습한 결과를 저장할 수 있으며, 추론 엔진부(140)에서 정확하게 의도를 추론할 수 있도록 한다.The learning database unit 130 takes the user query request data as an input value, learns the query request intention in the input user query request data as a feature value, and obtains the query request intention data for the user query request data as a result. value can be output. Here, the user query request data may include the user's voice data recorded at the time of ordering or making a reservation. Accordingly, the learning database unit 130 may learn words representing the intention of the query request from the voice data as feature values, and output the learned feature values as result values. The learning database unit 130 may store the result of learning each characteristic value and the corresponding characteristic value for various intentions for various query requests in advance, and the inference engine unit 140 accurately determines the intention. enable inference.

상기 추론 엔진부(140)는, 학습 데이터베이스부(130)와 연동하여 텍스트질의요청데이터에 대한 질의요청의도데이터를 수신하고, 수신된 질의요청의도데이터를 기반으로 텍스트질의요청데이터에 대한 의도추론결과데이터를 생성할 수 있다. The reasoning engine unit 140 interworks with the learning database unit 130 to receive query request intention data for the text query request data, and the intention for the text query request data based on the received query request intention data. Inference result data can be created.

즉, 텍스트질의요청데이터를 학습 데이터베이스부(130)의 입력 값으로 하고, 그에 따라 미리 학습된 질의요청의도데이터들을 추론 엔진부(140)로 반환하면, 반환된 질의요청의도데이터들 중 질의의도로서 가능성이 가장 높은 값을 최종 선정하여 의도추론결과데이터를 생성할 수 있다. 여기서, 질의의도로서 가능성이 가장 높다는 것은, 특정 텍스트질의요청데이터가 입력 값이고 결과 값으로 특정 질의요청의도데이터들이 출력됐을 때, 이중 최종적으로 선정 빈도가 높은 즉 통계적으로 선정 확률이 높은 질의요청의도데이터를 의도추론결과데이터로서 결정한다는 것이다.That is, when the text query request data is used as an input value of the learning database unit 130 and the pre-learned query request intention data is returned to the inference engine unit 140, the query request intention data among the returned query request intention data Intention inference result data can be created by finally selecting the value with the highest possibility as the intention. Here, the highest possibility as query intention means that when specific text query request data is an input value and specific query request intention data is output as a result value, the final selection frequency is high, that is, the query has a statistically high probability of selection. That is, the request intention data is determined as the intention inference result data.

상기 답변 데이터베이스부(150)는, 추론 엔진부(140)의 의도추론결과데이터와 매칭되는 텍스트답변데이터와, 엔티티정보를 추출하여 추론 엔진부(140)로 제공할 수 있다. 여기서, 엔티티정보는, 사용자의 주소정보, 주문요청정보 및 예약요청정보 중 적어도 하나를 포함할 수 있으나, 본 실시예에서는 이와 같이 분류된 정보로 엔티티정보를 한정하는 것은 아니며, 상담 분야와 상황에 맞게 분류된 개념 정보를 엔티티정보로서 설정할 수 있다.The answer database unit 150 may extract text answer data and entity information that match the intention inference result data of the reasoning engine unit 140 and provide the extracted entity information to the reasoning engine unit 140 . Here, the entity information may include at least one of the user's address information, order request information, and reservation request information. Appropriately classified concept information may be set as entity information.

상기 음성 합성부(160)는, 추론 엔진부(140)로부터 제공되는 텍스트답변데이터를 TTS(text to speech) 변환 모듈을 통해 음성답변데이터로 변환하여 콜 대응 서버부(110)로 제공하여 콜 응대 서버부(110)를 통해 사용자 통신단말(10) 로 제공할 수 있도록 한다.The voice synthesis unit 160 converts the text response data provided from the reasoning engine unit 140 into voice response data through a text to speech (TTS) conversion module, and provides it to the call response server unit 110 to respond to a call. It is provided to the user communication terminal 10 through the server unit 110.

상기 엔티티 관리부(170)는, 엔티티정보 및 상기 엔티티정보에 해당하는 음성질의요청데이터를 매칭하여 저장 관리할 수 있다. 좀 더 구체적으로, 엔티티 관리부(170)는, 엔티티정보를 사용자의 주소정보, 주문요청정보 및 예약요청정보 별로 분류하여 적어도 하나의 단위 엔티티정보를 생성하고, 음성질의요청데이터를 단위 엔티티정보에 해당하는 단위 음성질의요청데이터로 각각 분류한 후, 분류된 상기 단위 엔티티정보와 단위 음성질의요청데이터 간을 매칭하고, 매칭된 주문요청정보를 사용자 별로 분류하여 저장 관리할 수 있다.The entity management unit 170 may store and manage entity information and voice query request data corresponding to the entity information by matching them. More specifically, the entity manager 170 classifies the entity information according to the user's address information, order request information, and reservation request information to generate at least one unit entity information, and the voice query request data corresponds to the unit entity information. After classifying each of the unit voice query request data, the classified unit entity information and the unit voice query request data are matched, and the matched order request information is classified for each user and stored and managed.

예를 들어, 도 3에 도시된 바와 같이 엔티티정보는 사용자의 주소정보, 주문요청정보 및 예약요청정보(미도시)로 분류된 카테고리의 개념이며, 이들 각각을 단위 엔티티정보로 정의한다. 음성질의요청데이터의 실질적인 내용을 단위 엔티티정보로 분류할 수 있는데, 가령, 주소와 관련된 음성내용은 사용자의 주소정보라는 단위 엔티티정보로 분류하고, 주문내역과 관련된 음성내용은 사용자의 주문요청정보(주문내역)라는 단위 엔티티정보로 분류할 수 있다. 이때, 분류 방법으로는 음성내용에 대한 각 엔티티를 기반으로 해당 엔티티가 어느 분류의 단위 엔티티정보에 속해 있는지를 파악하여 분류할 수 있다. 이렇게 분류된 단위 엔티티정보(A1)와 단위 음성질의요청데이터(B1)는 매칭될 수 있으며, 또 다른 단위 엔티티정보(A2)와 단위 음성질의요청데이터(B2)는 이들끼리 매칭될 수 있다. 이렇게 매칭된 'A1-B1'과 'A2-B2'는 사용자 별로 분류되어 저장 관리할 수 있으며, 여기서 사용자 별로 분류 저장된다는 것은 사용자의 연락처를 기준으로 'A1-B1'과 'A2-B2'의 정보가 다른 사용자들과 식별 가능한 상태로 저장됨을 의미할 수 있다. 이때, 사용자의 연락처뿐만 아니라, 사용자의 이름, 콜 연결 시간 등으로도 식별하여 각각의 정보를 저장 관리할 수도 있다.For example, as shown in FIG. 3, entity information is a concept of a category classified into user's address information, order request information, and reservation request information (not shown), and each of these is defined as unit entity information. Substantive content of voice query request data can be classified into unit entity information. For example, voice content related to an address is classified into unit entity information called address information of a user, and voice content related to order details is user order request information ( Order details) can be classified as unit entity information. At this time, as a classification method, based on each entity of the voice content, it is possible to identify and classify the unit entity information of which classification the corresponding entity belongs to. The unit entity information A1 classified as above and the unit voice query request data B1 may be matched, and another unit entity information A2 and the unit voice query request data B2 may be matched with each other. The matched 'A1-B1' and 'A2-B2' can be classified and stored for each user, and being classified and stored for each user means that 'A1-B1' and 'A2-B2' are classified based on the user's contact information. It can mean that information is stored in a state that can be identified with other users. In this case, each information may be stored and managed by identifying not only the user's contact information but also the user's name, call connection time, and the like.

상기 엔티티 모니터링부(180)는, 엔티티 관리부(170)를 통해 저장 관리되는 주문요청정보를 관리자가 요청하면, 해당 주문요청정보를 디스플레이를 통해 사용자 단위로 구분하여 표시하되, 사용자 단위 내에서 엔티티정보 별로 구분하여 표시하고, 단위 엔티티정보에 대한 음성확인 시 단위 엔티티정보와 매칭되어 있는 단위 음성질의요청데이터를 스피커를 통해 출력할 수 있다.When a manager requests order request information stored and managed through the entity management unit 170, the entity monitoring unit 180 classifies and displays the order request information by user unit through a display, but displays the entity information within the user unit. It is displayed separately, and unit voice query request data matched with the unit entity information can be output through the speaker when voice confirmation is performed on the unit entity information.

예를 들어, 특정 사용자를 기준으로 AI 콜 주문/예약 접수 현황에 대한 정보를 요청하면, 도 3에 도시된 바와 같이 서로 매칭되어 있는 제1 단위 엔티티정보(A1)와 제1 단위 음성질의요청데이터(B1), 그리고 서로 매칭되어 있는 제2 단위 엔티티정보(A2)와 제2 단위 음성질의요청데이터(B2)가 표시되며, 각각의 단위 음성질의요청데이터의 재생 아이콘을 클릭 또는 터치하여 선택하게 되면 해당 단위 엔티티정보와 매칭되는 단위 음성질의요청데이터에 포함되어 있는 사용자 음성부분이 스피커를 통해 출력되어 해당 단위 엔티티정보와 일치하는지를 쉽게 확인할 수 있도록 한다.For example, if information on the status of AI call order/reservation acceptance is requested based on a specific user, the first unit entity information A1 and the first unit voice query request data matched with each other as shown in FIG. 3 (B1), second unit entity information (A2) and second unit voice query request data (B2) matched with each other are displayed, and when the play icon of each unit voice query request data is clicked or touched to select The user's voice part included in the unit voice query request data matched with the corresponding unit entity information is output through the speaker so that it can be easily confirmed whether it matches the corresponding unit entity information.

도 2를 참조하여 본 발명의 실시예에 따른 주문 및 예약을 위한 자동 콜 응대 시스템(1000)의 동작 방식과 순서에 대하여 설명하면 아래와 같다.Referring to FIG. 2, the operation method and sequence of the automatic call answering system 1000 for ordering and reservation according to an embodiment of the present invention will be described below.

우선, 사용자 통신단말(10)이 이동 통신망(20)을 통해 콜 응대 서버부(110)로 콜 연결 요청 신호를 보내면(①), 콜 응대 서버부(110)는 이동 통신망(20)을 통해 콜 연결 승인 신호를 사용자 통신단말(10)로 전송하여 사용자 통신단말(10)과 콜 응대 서버부(110) 간에 연결된다.First, when the user communication terminal 10 sends a call connection request signal to the call response server unit 110 through the mobile communication network 20 (①), the call response server unit 110 makes a call through the mobile communication network 20. A connection approval signal is transmitted to the user communication terminal 10 to establish a connection between the user communication terminal 10 and the call response server 110 .

이후, 사용자 통신단말(10)을 통해 사용자가 주문요청신호(음성질의요청데이터)를 콜 응대 서버부(110)로 전송하면(③), 콜 응대 서버부(110)는 이를 수신하여 음성 인식부(120)로 전달한다(④). 이때, 음성 인식부(120)는 음성질의요청데이터를 텍스트질의요청데이터로 변환한 후, 음성질의요청데이터(음성데이터)와 함께 추론 엔진부(140)로 전달한다(⑤).Thereafter, when the user transmits an order request signal (voice quality query request data) to the call response server unit 110 through the user communication terminal 10 (③), the call response server unit 110 receives it and the voice recognition unit Transfer to (120) (④). At this time, the voice recognition unit 120 converts the voice query request data into text query request data, and then transmits the voice query request data (voice data) to the reasoning engine unit 140 (⑤).

이후, 추론 엔진부(140)는 수신된 텍스트질의요청데이터와 음성질의요청데이터(음성데이터) 중 텍스트질의요청데이터를 학습 데이터베이스부(130)로 전달하면(⑥), 학습 데이터베이스부(130)는 텍스트질의요청데이터를 입력 값으로 하고, 미리 학습된 데이터를 기반으로 그와 관련된 질의요청의도데이터를 결과 값으로 추론 엔진부(140)로 제공한다(⑦).Thereafter, when the reasoning engine unit 140 transfers the text query request data among the received text query request data and voice query request data (voice data) to the learning database unit 130 (⑥), the learning database unit 130 Text query request data is used as an input value, and query request intention data related thereto is provided to the inference engine unit 140 as a result value based on previously learned data (⑦).

이후, 추론 엔진부(140)는 학습 데이터베이스부(130)로부터 받은 질의요청의도데이터 즉, 의도추론결과를 답변 데이터베이스부(150)로 전달하고(⑧), 답변 데이터베이스부(150)는 의도추론결과에 맞는 텍스트답변데이터를 기 저장된 답변데이터들로부터 추출하여 다시 추론 엔진부(140)로 제공한다(⑨).Thereafter, the reasoning engine unit 140 transfers the query request intention data received from the learning database unit 130, that is, the intention inference result to the answer database unit 150 (⑧), and the answer database unit 150 infers the intention Text answer data suitable for the result is extracted from the previously stored answer data and provided again to the inference engine unit 140 (⑨).

이후, 추론 엔진부(140)는 답변 데이터베이스부(150)로부터 전달 받은 텍스트답변데이터에서 엔티티정보를 분류하고, 분류된 엔티티정보에 해당하는 사용자의 음성질의요청데이터가 있는 경우, 해당 음성질의요청데이터와 엔티티정보를 엔티티 관리부(170)를 전달한다. 이때, 엔티티 관리부(170)는 추론 엔진부(140)로부터 전달 받은 음성질의요청데이터와 엔티티정보 간을 매칭하여 저장 관리한다.Thereafter, the inference engine unit 140 classifies entity information from the text answer data received from the answer database unit 150, and if there is user's voice query request data corresponding to the classified entity information, the corresponding voice query request data and entity information to the entity management unit 170. At this time, the entity management unit 170 matches the voice query request data received from the reasoning engine unit 140 with the entity information, and stores and manages the matching.

이후, 추론 엔진부(140)는 답변 데이터베이스부(150)로부터 전달 받은 텍스트답변데이터를 음성 합성부(160)로 전달하고(⑪), 음성 합성부(160)는 추론 엔진부(140)로부터 전달 받은 텍스트답변데이터를 음성답변데이터로 변환하여 콜 응대 서버부(110)로 제공할 수 있으며(⑫), 이때, 콜 응대 서버부(110)는 음성 합성부(160)로부터 전달 받은 음성답변데이터를 이동 통신망(20)을 통해 해당 사용자 통신단말(10)로 전달하여 AI 콜 응답에 대응을 완료한다(⑬).Thereafter, the reasoning engine unit 140 transfers the text answer data received from the answer database unit 150 to the voice synthesis unit 160 (⑪), and the voice synthesis unit 160 transmits the text response data from the reasoning engine unit 140. The received text response data may be converted into voice response data and provided to the call response server unit 110 (⑫). At this time, the call response server unit 110 converts the voice response data received from the voice synthesis unit 160 It is transmitted to the user communication terminal 10 through the mobile communication network 20 to complete the response to the AI call response (⑬).

이후, 엔티티 모니터링부(180)에서 엔티티에 대해 엔티티 관리부(170)로 요청이 발생하는 경우, 엔티티 관리부(170)는 해당 사용자에 대하여 상호 매칭된 음성질의요청데이터와 엔티티정보를 엔티티 모니터링부(180)로 전달한다(⑭).Thereafter, when a request is generated from the entity monitoring unit 180 to the entity management unit 170 for an entity, the entity management unit 170 transmits mutually matched voice query request data and entity information for the corresponding user to the entity monitoring unit 180. ) is transmitted (⑭).

이에 따라, 엔티티 모니터링부(180)에서는 도 3에 도시된 바와 같이 콜 시간, 연락처 별로 주소와 주문내역에 따라 분류된 엔티티정보(텍스트정보)를 확인할 수 있으며, 각각의 엔티티정보와 매칭된 재생 아이콘을 선택하면 사용자가 해당 엔티티정보와 관련된 음성데이터를 출력할 수 있다. 이때, 출력되는 음성데이터는 사용자의 전화 통화 간에 녹음된 전체 음성데이터는 아니며, 각각의 엔티티정보에 해당하는 부분적인 음성데이터에 해당되며, 각각의 음성데이터는 각 엔티티정보 별로 매칭되어 나누어져 있어, 해당 엔티티정보 별로 나누어진 음성데이터를 확인할 수 있다. Accordingly, as shown in FIG. 3, the entity monitoring unit 180 can check entity information (text information) classified according to address and order details for each call time and contact, and play icon matched with each entity information. If is selected, the user can output voice data related to the corresponding entity information. At this time, the output voice data is not the entire voice data recorded between the user's phone calls, but corresponds to partial voice data corresponding to each entity information, and each voice data is matched and divided for each entity information, It is possible to check the voice data divided according to the corresponding entity information.

이상에서 설명한 것은 본 발명에 의한 주문 및 예약을 위한 자동 콜 응대 시스템을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.What has been described above is only one embodiment for implementing an automatic call answering system for ordering and reservation according to the present invention, and the present invention is not limited to the above embodiment, and as claimed in the following claims Anyone with ordinary knowledge in the field to which the present invention pertains without departing from the gist of the present invention will say that the technical spirit of the present invention exists to the extent that various changes can be made.

1000: 주문 및 예약을 위한 자동 콜 응대 시스템
100: 통합 관리 서버부
110: 콜 응대 서버부
120: 음성 인식부
130: 학습 데이터베이스부
140: 추론 엔진부
150: 답변 데이터베이스부
160: 음성 합성부
170: 엔티티 관리부
180: 엔티티 모니터링부
10: 사용자 통신단말
20: 이동 통신망
1000: Automated call answering system for ordering and reservations
100: integrated management server unit
110: call response server unit
120: voice recognition unit
130: learning database unit
140: reasoning engine unit
150: answer database unit
160: voice synthesis unit
170: entity management unit
180: entity monitoring unit
10: user communication terminal
20: mobile communication network

Claims (2)

사용자 통신단말과 통화 연결되어 사용자 통신단말로부터 상기 음성질의요청데이터를 수신하고, 상기 음성질의요청데이터에 대한 질의요청의도를 추론하고, 의도추론결과를 기반으로 기 구축된 데이터베이스로부터 텍스트답변데이터와 엔티티정보를 추출하며, 추출된 상기 텍스트답변데이터를 음성답변데이터로 변환하여 사용자 통신단말로 전송하고, 상기 엔티티정보를 사용자의 주소정보, 주문요청정보 및 예약요청정보 별로 분류하여 적어도 하나의 단위 엔티티정보를 생성하고, 상기 음성질의요청데이터를 상기 단위 엔티티정보에 해당하는 단위 음성질의요청데이터로 각각 분류한 후, 분류된 상기 단위 엔티티정보와 상기 단위 음성질의요청데이터 간을 매칭하고, 매칭된 주문요청정보를 사용자 별로 분류하여 저장 관리하고, 저장 관리되는 상기 주문요청정보를 요청 시 상기 주문요청정보를 디스플레이를 통해 사용자 단위로 구분하여 표시하되, 사용자 단위 내에서 상기 엔티티정보 별로 구분하여 표시하고, 상기 단위 엔티티정보에 대한 음성확인 시 상기 단위 엔티티정보와 매칭되어 있는 상기 단위 음성질의요청데이터를 스피커를 통해 출력하는 통합 관리 서버부를 포함하는 것을 특징으로 하는 주문 및 예약을 위한 자동 콜 응대 시스템.
The voice query request data is received from the user communication terminal through a call connection with the user communication terminal, the query request intention is inferred from the voice query request data, and the text answer data and Entity information is extracted, the extracted text response data is converted into voice response data and transmitted to the user communication terminal, and the entity information is classified according to the user's address information, order request information, and reservation request information to form at least one unit entity. After generating information, classifying the voice query request data into unit voice query request data corresponding to the unit entity information, matching between the classified unit entity information and the unit voice query request data, and matching the matched order The request information is classified and stored and managed by user, and when the order request information stored and managed is requested, the order request information is classified and displayed by user unit through a display, but is classified and displayed by the entity information within the user unit, and an integrated management server unit outputting the unit voice query request data matched with the unit entity information through a speaker upon voice confirmation of the unit entity information.
제1 항에 있어서,
상기 통합 관리 서버부는,
이동 통신망과 연결되어 상기 사용자 통신단말로부터 상기 음성질의요청데이터를 수신하고, 상기 음성답변데이터를 상기 사용자 통신단말로 전송하는 콜 응대 서버부;
상기 음성질의요청데이터를 텍스트질의요청데이터로 변환하는 음성 인식부;
사용자질의요청데이터를 입력 값으로 하고, 상기 사용자질의요청데이터에서의 질의요청의도를 특징 값으로 학습하여 상기 사용자질의요청데이터에 대한 질의요청의도데이터를 결과 값으로 출력하는 학습 데이터베이스부;
상기 학습 데이터베이스부와 연동하여 상기 텍스트질의요청데이터에 대한 질의요청의도데이터를 수신하고, 수신된 상기 질의요청의도데이터를 기반으로 상기 텍스트질의요청데이터에 대한 의도추론결과데이터를 생성하는 추론 엔진부;
상기 의도추론결과데이터와 매칭되는 상기 텍스트답변데이터와, 엔티티정보를 추출하여 상기 추론 엔진부로 제공하는 답변 데이터베이스부;
상기 텍스트답변데이터를 상기 음성답변데이터로 변환하여 상기 콜 대응 서버부를 통해 상기 사용자 통신단말로 제공하도록 하는 음성 합성부;
상기 엔티티정보를 사용자의 주소정보, 주문요청정보 및 예약요청정보 별로 분류하여 적어도 하나의 단위 엔티티정보를 생성하고, 상기 음성질의요청데이터를 상기 단위 엔티티정보에 해당하는 단위 음성질의요청데이터로 각각 분류한 후, 분류된 상기 단위 엔티티정보와 상기 단위 음성질의요청데이터 간을 매칭하고, 매칭된 주문요청정보를 사용자 별로 분류하여 저장 관리하는 엔티티 관리부; 및
상기 엔티티 관리부를 통해 저장 관리되는 상기 주문요청정보를 요청 시 상기 주문요청정보를 디스플레이를 통해 사용자 단위로 구분하여 표시하되, 사용자 단위 내에서 상기 엔티티정보 별로 구분하여 표시하고, 상기 단위 엔티티정보에 대한 음성확인 시 상기 단위 엔티티정보와 매칭되어 있는 상기 단위 음성질의요청데이터를 스피커를 통해 출력하는 엔티티 모니터링부를 포함하는 것을 특징으로 하는 주문 및 예약을 위한 자동 콜 응대 시스템.
According to claim 1,
The integrated management server unit,
a call response server unit connected to a mobile communication network, receiving the voice query request data from the user communication terminal, and transmitting the voice response data to the user communication terminal;
a voice recognition unit converting the voice query request data into text query request data;
a learning database unit that takes user query request data as an input value, learns query request intention in the user query request data as a feature value, and outputs query request intention data for the user query request data as a result value;
An inference engine that receives query request intent data for the text query request data in conjunction with the learning database unit, and generates intent inference result data for the text query request data based on the received query request intent data. wealth;
an answer database unit extracting the text answer data and entity information matching the intention inference result data and providing them to the inference engine unit;
a voice synthesis unit which converts the text response data into the voice response data and provides the converted text response data to the user communication terminal through the call response server unit;
At least one unit entity information is generated by classifying the entity information according to the user's address information, order request information, and reservation request information, and the voice query request data is classified into unit voice query request data corresponding to the unit entity information. an entity manager for matching the classified unit entity information and the unit voice query request data, classifying matched order request information for each user, and storing and managing the matched order request information; and
When the order request information stored and managed through the entity management unit is requested, the order request information is divided and displayed on a user basis through a display, but is divided and displayed by the entity information within the user unit, and the unit entity information and an entity monitoring unit outputting the unit voice query request data matched with the unit entity information through a speaker when voice confirmation is performed.
KR1020210062205A 2021-05-13 2021-05-13 Automatic call response system for orders and reservations KR20220154532A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210062205A KR20220154532A (en) 2021-05-13 2021-05-13 Automatic call response system for orders and reservations

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210062205A KR20220154532A (en) 2021-05-13 2021-05-13 Automatic call response system for orders and reservations

Publications (1)

Publication Number Publication Date
KR20220154532A true KR20220154532A (en) 2022-11-22

Family

ID=84236613

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210062205A KR20220154532A (en) 2021-05-13 2021-05-13 Automatic call response system for orders and reservations

Country Status (1)

Country Link
KR (1) KR20220154532A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190061706A (en) 2017-11-28 2019-06-05 현대자동차주식회사 Voice recognition system and method for analyzing plural intention command
KR20200092448A (en) 2019-01-04 2020-08-04 에스케이 주식회사 AI interactive phone ordering system for T commerce

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190061706A (en) 2017-11-28 2019-06-05 현대자동차주식회사 Voice recognition system and method for analyzing plural intention command
KR20200092448A (en) 2019-01-04 2020-08-04 에스케이 주식회사 AI interactive phone ordering system for T commerce

Similar Documents

Publication Publication Date Title
US10958598B2 (en) Method and apparatus for generating candidate reply message
US7983399B2 (en) Remote notification system and method and intelligent agent therefor
USRE43031E1 (en) Online interaction processing
CN103631853B (en) Phonetic search based on correlation and response
CN109961792A (en) The method and apparatus of voice for identification
US20170004178A1 (en) Reference validity checker
KR102518448B1 (en) System and method for providing automatic response call service based on ai chatbot
US11093691B1 (en) System and method for establishing an interactive communication session
US8301452B2 (en) Voice activated application service architecture and delivery
CN116361431A (en) Model training method, dialogue generating method, electronic equipment and related device
CN111291157A (en) Response method, response device, terminal and storage medium
KR20200066964A (en) Apparatus for providing customized counselling service by analyzing big data and method thereof
CA2552651A1 (en) A system and method for formatted inter-node communications over a computer network
CN108810187A (en) A kind of network system for docking voice service by block chain
US20100318356A1 (en) Application of user-specified transformations to automatic speech recognition results
CN110047473B (en) Man-machine cooperative interaction method and system
KR20220154532A (en) Automatic call response system for orders and reservations
US7558733B2 (en) System and method for dialog caching
US11729315B2 (en) Interactive voice response (IVR) for text-based virtual assistance
US20080267366A1 (en) Messaging system and method for providing information to a user device
CN112133306B (en) Response method and device based on express delivery user and computer equipment
KR101234671B1 (en) Data Based Automatic Response Method, System and Device
JP2012064073A (en) Automatic conversation control system and automatic conversation control method
US11710002B1 (en) Multilingual intent matching engine
KR20220121171A (en) Method and system for providing chatbot service available in multiple messengers

Legal Events

Date Code Title Description
E601 Decision to refuse application