KR20110019266A - System and method for video response service - Google Patents

System and method for video response service Download PDF

Info

Publication number
KR20110019266A
KR20110019266A KR1020090076904A KR20090076904A KR20110019266A KR 20110019266 A KR20110019266 A KR 20110019266A KR 1020090076904 A KR1020090076904 A KR 1020090076904A KR 20090076904 A KR20090076904 A KR 20090076904A KR 20110019266 A KR20110019266 A KR 20110019266A
Authority
KR
South Korea
Prior art keywords
voice
service
video
response
screen
Prior art date
Application number
KR1020090076904A
Other languages
Korean (ko)
Inventor
정영준
김희경
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020090076904A priority Critical patent/KR20110019266A/en
Publication of KR20110019266A publication Critical patent/KR20110019266A/en

Links

Images

Classifications

    • G06Q50/50
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/16Communication-related supplementary services, e.g. call-transfer or call-hold
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W56/00Synchronisation arrangements
    • H04W56/001Synchronization between nodes
    • H04W56/002Mutual synchronization

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PURPOSE: A system for video response service and a method thereof are provide to offer a video response service using a video response system and a voice response system. CONSTITUTION: A voice response unit(200) offers a voice service to a terminal. A video response unit(100) offers the screen service corresponding to the user input to the terminal. A video response system requests a voice service corresponding to the video service to the terminal. The voice response and the video response are synchronized. The voice response part comprises a call control unit and a scenario process unit.

Description

영상 응답 서비스 제공 시스템 및 서비스 제공 방법{System and method for Video response service}Video Response Service Provision System and Service Provision Method {System and method for Video response service}

본 발명은 영상 응답 서비스 제공 시스템 및 서비스 제공 방법에 관한 것이다.The present invention relates to a video response service providing system and a service providing method.

최근 영상 통화가 가능한 3세대 단말 또는 VoIP(Voice of IP) 단말의 보급이 확대되고 있다. 그리고, 기존의 음성 응답 시스템(ARS: Audio Response System)으로 구축된 연결 센터와 음성 정보 서비스들을 이용하여 영상 기반의 서비스 도입을 추진하고 있다. Recently, the popularity of 3G terminals or Voice of IP (VoIP) terminals capable of video calls is expanding. In addition, it is promoting the introduction of video-based services using connection centers and voice information services built with the existing audio response system (ARS).

하지만, 아직까지는 영상 기반 서비스를 제공할 수 있는 단말이 제약적이며, 서비스를 제공한다 하더라도 영상 통화료의 부담으로 이용하는 사용자 수가 많지 않다. 또한, 현재의 영상 응답 시스템(VRS: Video Response System) 또는 지능형 영상 응답 시스템(IVVR: Interactive Video and Voice Response)도 이러한 단점을 가지고 있다. However, there are still limited terminals capable of providing a video-based service, and even though the service is provided, the number of users who use the video call fee is not large. In addition, the current video response system (VRS) or intelligent video response system (IVVR) also has such a disadvantage.

VRS 또는 IVVR은 영상 통화가 가능한 단말을 대상으로 제공하고자 하는 정보를 영상으로 만들어 제공한다. 이는 ARS의 통화 방식을 그대로 이용할 수 있어 사 용자가 쉽게 접근할 수 있으나 정보의 영상화를 위한 기능을 수행하는 시스템이 필요하며, 시스템을 통해 정보를 영상화할 수 있는 전문 인력이 필요하다는 점에서 정보를 생성하고 관리하는 비용이 많이 든다. VRS or IVVR is made by providing a video information to the terminal capable of video calls. It can be easily accessed by users using the ARS call method, but requires a system that performs a function for visualizing the information, and requires a professional manpower to visualize the information through the system. It is expensive to create and manage.

또한, 영상 화면을 이용하기 때문에 UI(User Interface)를 다양하게 만들기 어려우며, 시나리오의 제작이나 변경 등이 쉽지 않다. 또한, 화면 위주의 VRS 서비스에서 화면을 터치하거나 정보를 입력하기 쉽지 않고 별도의 기능을 구현하여야만 한다. 또한, ARS 시나리오를 활용하는 측면에서도 화면 위주로 시나리오와 흐름 제어를 다시 생성하여야 하기 때문에, 기존 ARS 사업자로서는 새로운 시스템을 도입해야 하는 부담이 있다.In addition, it is difficult to make a variety of UI (User Interface) because it uses a video screen, it is not easy to produce or change the scenario. In addition, in the screen-oriented VRS service, it is not easy to touch the screen or input information, and a separate function must be implemented. In addition, in terms of utilizing the ARS scenario, the scenario and the flow control must be re-created mainly on the screen, so that the existing ARS service provider has a burden of introducing a new system.

따라서, 본 발명은 기존의 영상 응답 시스템과 음성 응답 시스템을 활용하여, 사용자에게 영상 서비스를 제공하는 영상 응답 서비스 제공 시스템 및 이를 이용한 서비스 제공 방법을 제공한다.Accordingly, the present invention provides a video response service providing system for providing a video service to a user using a conventional video response system and a voice response system, and a service providing method using the same.

상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 하나의 특징인 단말에 영상 응답 서비스를 제공하는 시스템은,The system for providing a video response service to a terminal which is one feature of the present invention for achieving the technical problem of the present invention,

음성 서비스를 단말로 제공하는 음성 응답부; 및 상기 단말로부터의 사용자 입력에 대응하는 화면 서비스를 상기 단말로 제공하고, 상기 화면 서비스에 대응하는 상기음성 서비스를 상기 단말로 제공할 것을 상기 음성 응답부로 요청하며, 상 기 음성 서비스와 상기 화면 서비스의 동기를 맞추는 영상 응답부 포함한다.Voice response unit for providing a voice service to the terminal; And requesting the voice response unit to provide a screen service corresponding to a user input from the terminal to the terminal, and to provide the voice service corresponding to the screen service to the terminal. The voice service and the screen service. Includes a video response unit to synchronize.

상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 또 다른 특징인 음성 응답부 및 영상 응답부를 포함하는 영상 응답 서비스 제공 시스템이 사용자의 단말로 영상 응답 서비스를 제공하는 방법은,According to another aspect of the present invention, there is provided a video response service providing system including a voice response unit and a video response unit to provide a video response service to a user terminal.

사용자로부터 입력되는 입력 정보를 분석하고, 화면 서비스와 음성 서비스와의 동기를 맞추어 동기 제어 신호를 생성하는 단계; 상기 동기 제어 신호와 상기 입력 정보를 상기 음성 응답부로 전달하는 단계; 및 상기 음성 응답부로부터 정보를 수신하면, 상기 음성 정보를 토대로 화면 서비스를 생성하는 단계; 및 상기 동기 제어 신호에 따라 상기 생성한 화면 서비스를 상기 단말로 제공하는 단계를 포함한다.Analyzing input information input from a user and generating a synchronization control signal in synchronization with a screen service and a voice service; Transmitting the synchronization control signal and the input information to the voice response unit; Generating a screen service based on the voice information when receiving the information from the voice response unit; And providing the generated screen service to the terminal according to the synchronization control signal.

따라서, 기존의 음성 응답 시스템을 활용하며 멀티 채널을 이용하여 단말의 특성에 따라 영상 통화가 가능한 단말로는 음성 응답 시스템과 영상 응답 시스템에서 각각 동기화된 시점에 서비스를 송출하여 별도의 영상 생성 절차 없이도 영상 응답 서비스 형태로 서비스를 제공할 수 있다. Accordingly, a terminal capable of making a video call using the existing voice response system and using the multi-channel according to the characteristics of the terminal transmits a service at the time when the voice response system and the video response system are synchronized, respectively, without a separate video generation procedure. The service may be provided in the form of a video response service.

또한, 웹 기반의 인프라와 인력을 쉽게 활용할 수 있고 음성 응답 시스템의 변경을 최소화할 수 있기 때문에, 음성 응답 시스템에서 영상 응답 서비스로의 전환 비용을 절약할 수 있다.In addition, the web-based infrastructure and manpower can be easily utilized, and the change in the voice response system can be minimized, thereby reducing the cost of switching from the voice response system to the video response service.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명 이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise.

이하 도면을 참조로 하여 본 발명의 실시예에 따른 영상 응답 서비스 제공 시스템 및 서비스 제공 방법에 대하여 설명하기로 한다. Hereinafter, a video response service providing system and a service providing method according to an exemplary embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 한 실시예에 따른 영상 응답 서비스 제공 시스템의 개략적인 블록도이다.1 is a schematic block diagram of a system for providing a video response service according to an embodiment of the present invention.

도 1을 참고하면, 영상 응답 서비스 제공 시스템(10)은 VRS에 대응하는 영상 응답부(100)와 ARS에 대응하는 음성 응답부(200), 그리고 영상 응답부(100)와 음성 응답부(200) 사이의 연동 서버(300)를 포함한다.Referring to FIG. 1, the video response service providing system 10 includes a video response unit 100 corresponding to a VRS and an audio response unit 200 corresponding to an ARS, and an image response unit 100 and an audio response unit 200. Including interworking server 300 between).

영상 응답부(100)는 사용자의 단말(400)로 초기 화면 또는 화면 서비스를 제공하고, 초기 화면 또는 화면 서비스에 응답하여 단말(400)로부터 입력을 수신하면 수신한 입력에 대응하는 화면 서비스를 제공하거나 서비스 흐름을 제어한다. 단말(400)로부터의 입력은 서비스 화면을 제공하는 화면 브라우저의 터치 또는 DTMF(Dual Tone Multi Frequency) 입력 등의 방법으로 수행될 수 있다. The image response unit 100 provides an initial screen or screen service to the user's terminal 400, and provides a screen service corresponding to the received input when an input from the terminal 400 is received in response to the initial screen or screen service. Or control the service flow. The input from the terminal 400 may be performed by a touch of a screen browser providing a service screen or a dual tone multi frequency (DTMF) input.

또한 영상 응답부(100)는 사용자에게 음성 정보와 화면 정보를 함께 이용하여 영상 서비스로 제공할 경우, 음성 정보에 대한 음성 서비스와 화면 정보에 대한 화면 서비스가 동일한 시간에 송출될 수 있도록 동기화를 수행한다. 이때, 사용자는 웹 브라우저가 탑재된 단말(400)을 이용하는데, 웹 브라우저를 통해서는 영상 응답부(100)로부터 받은 영상을 제공받고, 통화 라인을 통해서는 음성 응답부(200)로부터 받은 음성을 제공받는다. 이로써, 사용자는 음성 서비스와 화면 서비스를 포함하는 영상 서비스를 제공받는다.In addition, when the video response unit 100 provides the user with the voice information and the screen information together as a video service, the video response unit 100 performs synchronization so that the voice service for the voice information and the screen service for the screen information can be transmitted at the same time. do. In this case, the user uses the terminal 400 equipped with a web browser, and receives the image received from the video response unit 100 through the web browser, and receives the voice received from the voice response unit 200 through the call line. It is provided. Thus, the user is provided with a video service including a voice service and a screen service.

사용자 접속망으로는 화면을 제공할 수 있는 데이터 채널과 음성을 제공할 수 있는 음성 채널이 있으며, 사용자 접속망으로 지능망 및 공중 전화 교환망(PSTN: Public Switched Telephone Network)을 예로 하여 설명한다. 지능망을 통해서는 서비스 번호와 가입자 정보에 대한 처리를 통해 연결 요청 호가 영상 응답 호 인지 음성 응답 호 인지 여부를 판단한다. 만일 영상 요청 호가 아닌 경우에는, 기존의 음성 응답만을 제공하는 서비스를 그대로 활용할 수 있다. The user access network includes a data channel for providing a screen and a voice channel for providing a voice. The user access network will be described using an intelligent network and a public switched telephone network (PSTN) as an example. The intelligent network determines whether the connection request call is a video response call or a voice response call by processing the service number and the subscriber information. If it is not a video request call, a service providing only an existing voice response may be used as it is.

연동 서버(300)는 영상 응답부(100)와 음성 응답부(200) 사이에 위치하여, 영상 응답부(100)에서 화면 서비스와 음성 서비스를 동기화한 제어 신호를 영상 응답부(100)와 음성 응답부(200)로 전달한다. 이는 연동 서버(300)를 통해 영상 응답부(100)와 음성 응답부(200)로부터 각각 송출되는 영상 서비스 및 음성 서비스가, 동기화 되어 동일한 시점에 제공되어, 별도의 영상 제작 절차를 수행하지 않고서도 사용자에게 영상 서비스를 제공하는 것과 같은 효과를 제공할 수 있도록 하기 위함이다. The interlocking server 300 is positioned between the video response unit 100 and the audio response unit 200 to transmit a control signal in which the video response unit 100 synchronizes the screen service with the audio service. Transfer to the response unit 200. The video service and the voice service transmitted from the video response unit 100 and the voice response unit 200 through the interworking server 300 are synchronized and provided at the same time, without performing a separate video production procedure. This is to provide effects such as providing a video service to a user.

또한, 연동 서버(300)는 음성 응답부(200)가 수집한 음성 정보를 수신하여 음성 응답부(200)에서 화면 출력에 필요한 정보를 추출하고, 추출한 정보의 전송 포맷을 변환하여 영상 응답부(100)로 전달한다. 예를 들어, 사용자가 항공권을 예약할 경우 예약에 필요한 정보(예를 들어, 사용자 이름, 연락처, 사용자마다 할당된 ID, 출발 예정일, 도착 예정일, 시간 등을 포함)를 단말의 음성 입력을 통해 수집하였다고 가정한다. In addition, the companion server 300 receives the voice information collected by the voice response unit 200, extracts the information required for the screen output from the voice response unit 200, converts the transmission format of the extracted information, and converts the image response unit ( 100). For example, when a user reserves a ticket, information necessary for the reservation (for example, user name, contact information, ID assigned to each user, departure date, arrival date, time, etc.) is collected through the voice input of the terminal. Assume that

그러면, 화면을 통해 예약에 필요한 정보를 토대로 가공한 정보를 디스플레이 해주어야 하는데, 연동 서버(300)는 음성 응답부(200)가 수집한 정보를 영상 응답부(100)로 전달하기 위해 영상 응답부(100)에서 사용하는 포맷에 맞게 음성 응답부(100)가 수집한 정보의 포맷을 변환해준다. 이때 음성의 경우에는 말로써 표현되기 때문에 입력에 제한이 없지만, 이를 화면으로 제공하기 위해서는 한정된 정보만을 화면으로 제공해야 하기 때문에, 꼭 필요한 정보만을 추출한다.Then, the processed information should be displayed on the screen based on the information required for the reservation. The companion server 300 may transmit the information collected by the voice response unit 200 to the image response unit 100 to transmit the information to the image response unit 100. The voice response unit 100 converts the format of the collected information according to the format used in 100). In this case, since the speech is expressed by words, the input is not limited. However, only limited information is extracted because only limited information must be provided on the screen in order to provide the information on the screen.

DTMF 입력은 단말(400)에 따라 영상 응답부(100) 혹은 음성 응답부(200)로 입력될 수 있다. 입력을 받은 부분에서 연동 서버(300)로 결과를 전달하고, 영상 및 음성으로 보여주기 위해 각각에 필요한 정보를 추출하고, 추출한 정보를 표현할 수 있는 형태의 포맷 변환 과정을 거쳐 전달한다.The DTMF input may be input to the video response unit 100 or the audio response unit 200 according to the terminal 400. In the received part, the result is transmitted to the companion server 300, and the necessary information is extracted for each of them to be shown in video and audio, and then the format is converted to display the extracted information.

음성 응답부(200)은 단말(400)로부터 음성 입력을 수신하고, 음성 응답부(200)에 연결되어 있는 데이터베이스부(250)에 저장되어 있는 서비스 정보를 검색하거나 관리한다. 그리고 음성 응답부(200)은 사용자에게 제공할 음성 정보에 대한 서비스를 시나리오를 저장하고 있다가, 사용자가 음성 서비스의 제공을 요청할 경우 해당 서비스 시나리오를 사용자에게 제공한다. The voice response unit 200 receives a voice input from the terminal 400 and retrieves or manages service information stored in the database unit 250 connected to the voice response unit 200. The voice response unit 200 stores a scenario of a service for voice information to be provided to the user, and provides the corresponding service scenario to the user when the user requests to provide a voice service.

또한 음성 응답부(200)은 영상 응답부(100)으로부터 입력되는 정보를 토대로, 새로운 음성 정보가 요구될 경우, 음성 응답부(200)과 연동되어 있는 데이터베이스부(250)로 새로운 음성 정보에 대한 정보를 요청하여 수신한다. 그리고 수신한 정보를 이용하여 시나리오를 생성하고, 수신한 새로운 음성 정보를 영상 응답부(100)으로 전달하여 화면 서비스를 생성할 수 있도록 한다.In addition, when the new voice information is requested based on the information input from the video response unit 100, the voice response unit 200 is connected to the database unit 250 linked with the voice response unit 200. Request and receive information. Then, a scenario is generated using the received information, and the received new voice information is transmitted to the image response unit 100 to generate a screen service.

이와 같은 시스템의 각 구성 요소에 대하여 도 2를 참조로 보다 상세하게 설명하기로 한다.Each component of such a system will be described in more detail with reference to FIG. 2.

도 2는 본 발명의 한 실시예에 따른 영상 응답 서비스 제공 시스템의 상세 블록도이다.2 is a detailed block diagram of a video response service providing system according to an exemplary embodiment of the present invention.

도 2를 참고하면, 영상 응답부(100)는 화면 제어부(110), 화면/음성 동기화부(120), 엔진부(130) 및 ARS 시스템 인터페이스 관리부(140)를 포함한다. 그리고 음성 응답부(200)는 호 제어부(210), 시나리오 처리부(240), 음성 인식부(220), 음성 출력부(230)를 포함하며 데이터베이스부(250)를 포함한다.Referring to FIG. 2, the image response unit 100 includes a screen controller 110, a screen / voice synchronization unit 120, an engine unit 130, and an ARS system interface manager 140. The voice response unit 200 includes a call controller 210, a scenario processor 240, a voice recognizer 220, a voice output unit 230, and a database unit 250.

화면 제어부(110)는 단말(400)의 화면 브라우저(410)와 연동되어, 사용자가 단말(400)의 화면 브라우저(410)를 이용하여 입력하는 내용을 입력 받아 처리하거나 엔진부(130)로 전달하며, 단말(400)의 화면으로 화면 서비스를 출력한다. The screen controller 110 is interlocked with the screen browser 410 of the terminal 400 to receive and process the contents input by the user using the screen browser 410 of the terminal 400 or transfer the contents to the engine unit 130. The screen service is output to the screen of the terminal 400.

화면/음성 동기화부(120)는 음성 응답부(200)을 통해 단말(400)로 음성 서비스와 화면 서비스가 동시에 제공될 경우, 음성 응답부(200)을 통해 송출될 음성 서비스와 영상 응답부(100)의 화면 제어부(110)를 통해 단말(400)의 화면 브라우 저(410)로 전송할 화면 서비스의 동기화를 맞추기 위한 동기 제어 신호를 생성한다. 생성된 동기 제어 신호는 연동 서버(300)를 통해 음성 응답부(200)으로 전달된다. 이를 통해 음성 응답부(200)과 영상 응답부(100)에서 각각 송출되는 음성과 화면의 결합을 통해 영상을 생성하는 절차 또는 장치 없이도, 사용자에게 영상 서비스를 제공할 수 있다. When the voice service and the screen service are simultaneously provided to the terminal 400 through the voice response unit 200, the screen / voice synchronization unit 120 may transmit the voice service and the image response unit to be transmitted through the voice response unit 200. The screen controller 110 generates a synchronization control signal for synchronizing the screen service to be transmitted to the screen browser 410 of the terminal 400. The generated synchronization control signal is transmitted to the voice response unit 200 through the companion server 300. In this way, a video service may be provided to a user without a procedure or a device for generating an image by combining a voice and a screen transmitted from the voice response unit 200 and the image response unit 100, respectively.

엔진부(130)는 사용자에게 제공될 서비스의 시나리오를 제어한다. 그리고 화면 제어부(110)를 통해 사용자 입력 정보를 전달받아, 입력 정보에 대응되는 화면 서비스를 제공하기 위해 시나리오를 생성하고, 화면 서비스와 함께 제공될 음성 서비스를 생성하도록 음성 응답부(200)에 알리는 제어 신호를 생성하기도 한다. The engine unit 130 controls a scenario of a service to be provided to the user. And receiving the user input information through the screen control unit 110, generating a scenario to provide a screen service corresponding to the input information, informing the voice response unit 200 to generate a voice service to be provided with the screen service It also generates a control signal.

또한, 엔진부(130)는 음성 응답부(200)을 통해 새로운 음성 정보를 수신하면, 이를 화면으로 제공할 수 있도록 시나리오를 제작하기도 한다. 본 발명의 실시예에서는 엔진부(130)가 서비스 시나리오의 제어와 서비스 제작 및 변경이 용이하도록, 스크립트 언어인 SCXML(State Chart Xtensible Markup Language)을 이용하는 엔진을 예로 하여 설명하나, 반드시 이와 같이 한정되는 것은 아니다.In addition, when the engine unit 130 receives new voice information through the voice response unit 200, the engine unit 130 may produce a scenario so as to provide it as a screen. In the embodiment of the present invention, the engine unit 130 will be described using an engine using a script language, SCXML (State Chart Xtensible Markup Language) as an example, so that the control of the service scenario and the production and modification of the service are easy. It is not.

음성 응답부 인터페이스 관리부(140)는 음성 응답부(200)와의 연동을 통해, 음성 응답부(200)에서 동기화를 맞추어 설정한 시간에 음성이 송출될 수 있도록, 화면/음성 동기화부(120)에서 생성한 동기 제어 신호를 전달한다. 그리고 영상 응답부(100)를 통해 받은 정보를 음성 응답부(200)로 전달하고, 음성 응답부(200)로부터 새로운 음성 정보를 수신하면 이를 엔진부(130)로 전달한다. 이를 위해, 음성 응답부 인터페이스 관리부(140)는 연동 서버(300)와 연결되어 있으며, 연동 서 버(300)는 다시 음성 응답부(200)과 연결되어 있다. The voice response unit interface manager 140 interlocks with the voice response unit 200 so that the voice may be transmitted at a time set in synchronization with the voice response unit 200 in the screen / voice synchronization unit 120. Transfer the generated sync control signal. Then, the information received through the video response unit 100 is transmitted to the voice response unit 200, and when new voice information is received from the voice response unit 200, it is transmitted to the engine unit 130. To this end, the voice response unit interface manager 140 is connected with the interworking server 300, and the interworking server 300 is again connected with the voice response unit 200.

즉, 단말(400)이 영상을 지원하는 단말인 경우, 음성 응답부(200)을 통해 전달받은 음성 정보를 단말(400)의 화면을 통해 사람이 인식할 수 있는 텍스트 형태로 보여줘야 한다. 이를 위해 음성 응답부 인터페이스 관리부(140)는 음성 응답부(200)로부터 수신한 음성 또는 버튼 입력 정보를 전달받아 엔진부(130)로 전달하여 화면으로 생성될 수 있도록 전달한다. That is, when the terminal 400 supports the image, the voice information received through the voice response unit 200 should be shown in a text form that can be recognized by a person through the screen of the terminal 400. To this end, the voice response unit interface manager 140 receives voice or button input information received from the voice response unit 200 and transmits the received voice or button input information to the engine unit 130 so as to be generated as a screen.

또한, 영상 응답부(100)을 통해 입력되는 화면 입력 정보를 음성 응답부(200)으로 전달하여 시나리오가 처리될 수 있도록 한다. 음성 응답부(200)로부터 수신한 음성 정보는 단말(400)의 종류에 따라 DTMF 또는 통화 모듈을 통해 음성 응답부(200)로 전달될 수 있으며, 영상 서비스를 지원할 수 있는 단말(400)의 경우에는 브라우저를 통해 영상 응답부(100)로 전달된다. In addition, the screen input information input through the image response unit 100 is transmitted to the voice response unit 200 so that the scenario can be processed. The voice information received from the voice response unit 200 may be delivered to the voice response unit 200 through DTMF or a call module according to the type of the terminal 400, and the terminal 400 may support a video service. Is transmitted to the video response unit 100 through a browser.

다음 연동 서버(300)를 통해 영상 응답부(100)와 연결되어 있는 음성 응답부(200)에 대해 설명하면, 음성 응답부(200)의 호 제어부(210)는 단말(400)의 통화 모듈(420)을 통해 사용자로부터 걸려온 입력 호를 제어한다.Next, the voice response unit 200 connected to the video response unit 100 through the interworking server 300 will be described. The call control unit 210 of the voice response unit 200 may include a call module of the terminal 400. The input call received from the user is controlled through 420.

시나리오 처리부(240)는 단말(400)에 음성 서비스를 제공하기 위한 음성 시나리오를 처리한다. 만약 입력 정보를 분석한 결과 기존의 음성 응답 서비스에 따라 음성에 대응되는 시나리오를 음성 서비스로써 단말(400)에 제공해도 된다고 판단되면, 시나리오 처리부(240)는 미리 저장하고 있는 음성 서비스를 단말(400)로 제공하면 된다. 그러나 영상을 포함하는 서비스를 제공해야 하는 경우에는, 시나리오 처리부(240)에서는 화면에 보여줘야 할 시점을 파악하여 해당 내용을 연동 서 버(300)를 통해 영상 응답부(100)로 전달한다. The scenario processor 240 processes a voice scenario for providing a voice service to the terminal 400. If the input information is analyzed and it is determined that the scenario corresponding to the voice may be provided to the terminal 400 as a voice service according to the existing voice response service, the scenario processing unit 240 stores the voice service previously stored in the terminal 400. ). However, in the case of providing a service including an image, the scenario processing unit 240 grasps a time point to be displayed on the screen and transmits the corresponding content to the image response unit 100 through the interworking server 300.

음성 인식부(220)는 음성 모달리티(Modality)를 이용하는 경우 사용자 음성 데이터를 입력 받아 음성 인식을 수행하고, 그 결과를 시나리오 처리부(240)로 전달한다. 모달리티라 함은 하나의 입출력 매체를 의미하며, 일반 이동 단말을 예로 하면 상대방을 결정하기 위해 단말을 통해 들어오는 신호 방식 중 하나인 DTMF가 하나의 입력 모달리티가 될 수 있다. DTMF로 입력되는 정보는 단말에 따라 영상 응답부(100) 또는 음성 응답부(200)를 통해 입력되기 때문에, 이 경우에는 음성이나 화면과 같은 다른 모달리티를 통해 사용자에게 제공된다.When using voice modality, the voice recognition unit 220 receives user voice data, performs voice recognition, and transmits the result to the scenario processor 240. Modality means one input / output medium. In the case of a general mobile terminal, DTMF, which is one of the signaling methods input through the terminal to determine a counterpart, may be one input modality. Since the information input to the DTMF is input through the video response unit 100 or the voice response unit 200 according to the terminal, in this case, the information is provided to the user through another modality such as voice or screen.

음성 출력부(230)는 사용자에게 들려줄 음성 정보에 대한 처리를 수행하는 부분으로, 합성 엔진을 이용한 텍스트를 웨이브 형태로 변경해준다. 본 발명의 실시예에서는 이러한 기능 이외에 사용자에게 들려줄 음성을 처리할 수도 있다.The voice output unit 230 is a part for processing the voice information to be heard by the user, and changes the text using the synthesis engine into a wave form. In the embodiment of the present invention, in addition to such a function, a voice to be heard by the user may be processed.

즉, 음성 출력부(230)는 단말(400)로 들어온 정보를 처리하여 그 결과를 사용자에게 제공하거나, 데이터베이스부(250)로부터 받은 정보를 시나리오 처리부(240)의 요청에 의거해 필요한 음성을 생성하기도 한다. 만일 단말(400)이 영상 서비스를 제공하는 경우에는, 시나리오 처리부(240)는 음성 합성 시점에서 화면 출력을 요하는 정보인 경우 화면 정보를 생성할 수 있도록 하기 위해 연동 서버(300)를 통해 영상 응답부(100)로 전달될 수 있도록 출력한다.That is, the voice output unit 230 processes the information entered into the terminal 400 and provides the result to the user, or generates the necessary voice based on the request from the scenario processor 240 with the information received from the database unit 250. Sometimes. If the terminal 400 provides a video service, the scenario processing unit 240 responds to the video through the interworking server 300 so as to generate screen information when the screen output is required at the time of speech synthesis. Output to be transmitted to the unit (100).

이와 같은 구조를 통해 단말(400)의 종류와 서비스 번호에 따라 다양한 이동 통신망을 거쳐, 동기화된 화면 정보와 음성 정보를 주고받을 수 있게 된다. 다음은 본 발명의 실시예에 따른 시스템을 통해 서비스를 제공하는 방법에 대하여 도 3a 및 도 3b를 참조로 설명하기로 한다.Through such a structure, the synchronized screen information and voice information can be exchanged through various mobile communication networks according to the type and service number of the terminal 400. Next, a method of providing a service through a system according to an exemplary embodiment of the present invention will be described with reference to FIGS. 3A and 3B.

도 3a 도 3b는 본 발명의 실시예에 따른 서비스 제공을 위한 흐름도이다.3A and 3B are flowcharts for providing a service according to an embodiment of the present invention.

사용자는 일반적인 음성 응답 서비스를 이용할 때와 같은 동일한 방법으로 단말(400)의 통화 모듈(420)을 통해 음성 통화 기능을 이용하여 서비스 번호를 입력하여 서비스에 접속한다(S100). 이와 같이 사용자가 단말(400)을 이용하여 서비스에 접속하면, 지능망은 현재의 연결이 음성 응답 호인지 영상 응답 호인지 여부를 판단한다(S110). The user accesses the service by inputting the service number using the voice call function through the call module 420 of the terminal 400 in the same manner as when using a general voice answering service (S100). When the user accesses the service using the terminal 400 as described above, the intelligent network determines whether the current connection is a voice response call or a video response call (S110).

여기서 판단 방법은 호 제어부(210)를 통해 연결된 경우에는 현재 연결된 호가 음성 응답 호임을 나타내는 것이고, 영상 응답부(100)으로 연결되는 경우에는 영상 응답 호임을 나타내는 것으로 정의할 수도 있다. 또는 영상 서비스를 제공할 수 있는 단말인 경우, 단말(400)측으로 단문 메시지를 보내고 이 메시지를 수신한 사용자가 버튼을 눌러 접속하면 직접 웹 브라우저를 띄워 접속하도록 한다. 또는 단말(400)에 음성 응답 호의 연결을 위한 입력 버튼과 영상 응답 호의 연결을 위한 입력 버튼이 별도로 구비되어, 사용자에 의해 상태가 변경된 버튼의 종류를 파악하여 판단할 수도 있다. 그러나, 판단 방법이 반드시 이와 같이 한정되는 것은 아니다. The determination method may be defined as indicating that the currently connected call is a voice response call when connected through the call control unit 210 and indicating that it is a video response call when connected to the video response unit 100. Alternatively, in the case of a terminal capable of providing a video service, a short message is sent to the terminal 400 and a user who receives the message presses a button to directly open a web browser. Alternatively, an input button for connecting a voice answer call and an input button for connecting a video answer call may be separately provided to the terminal 400 to determine and determine the type of the button whose state is changed by the user. However, the judgment method is not necessarily limited to this.

만약 연결된 호가 음성 응답 호인 경우에는 기존의 음성 응답 호 흐름대로 진행되어 사용자에게 음성 응답 서비스를 제공한다. 이에 대해서는 하기에서 도 3b를 참조로 설명하기로 한다. 그러나, 영상 응답 호인 경우 음성 응답에 대한 음성 통화로가 연결된 상태에서, 지능망은 영상 응답부(100)로 호가 연결되었음을 알리 고(S120), 영상 응답부(100)는 단말(400)로 브라우저를 실행할 것을 알리는 명령을 전송한다(S130). If the connected call is a voice response call, the voice call service is provided to the user by proceeding with the existing voice response call flow. This will be described below with reference to FIG. 3B. However, in the case of a video answering call, while the voice call path for the voice response is connected, the intelligent network notifies that the call is connected to the video answering unit 100 (S120), and the video answering unit 100 uses a browser to the terminal 400. It transmits a command for notifying execution (S130).

명령을 받은 단말(400)은 브라우저를 실행시키고(S140), 서비스 초기 화면을 불러온다. 사용자는 브라우저가 실행된 단말(400)을 이용하여 브라우저 화면을 터치하거나 DTMF 또는 음성 입력과 같이 다양한 형태의 입력 방법을 이용하여 제공받고자 하는 서비스를 입력하면, 단말(400)의 화면 브라우저(410)는 입력 정보를 영상 응답부(100)로 전달한다(S150).Upon receiving the command, the terminal 400 executes a browser (S140) and brings up a service initial screen. When the user touches the browser screen using the terminal 400 on which the browser is executed or inputs a service to be provided using various types of input methods such as DTMF or voice input, the screen browser 410 of the terminal 400 is input. The input information is transmitted to the image response unit 100 (S150).

단말(400)로부터 입력 정보를 수신한 영상 응답부(100)의 엔진부(130)는 입력 정보를 분석하고, 화면/음성 동기화부(120)는 화면 서비스와 음성 서비스와의 동기를 맞춘다(S170). The engine unit 130 of the image response unit 100 that receives the input information from the terminal 400 analyzes the input information, and the screen / audio synchronization unit 120 synchronizes the screen service with the voice service (S170). ).

화면/음성 동기화부(120)에서 동기화를 맞추고 생성한 동기 제어 신호와 입력 정보를 음성 응답 인터페이스 관리부(140)와 연동 서버(300)를 통해 음성 응답부(300)로 전송하고(S180), 입력 정보를 수신한 시나리오 처리부(240)는 해당 입력 정보를 토대로 데이터베이스부(250)와의 연동이 필요한지 여부를 판단한다(S190). 즉, 입력 정보의 내용이 미리 음성 응답부(200)에 저장되어 있는 음성 시나리오를 통해서 서비스를 제공할 수 있는 경우라면, 데이터베이스부(250)와의 연동이 필요하지 않으며, 새로운 정보를 요청할 경우라면 데이터베이스부(250)와의 연동이 필요하다.The synchronization control signal and input information generated by synchronizing the screen / voice synchronization unit 120 and generated are transmitted to the voice response unit 300 through the voice response interface manager 140 and the interworking server 300 (S180), and input. The scenario processor 240 that receives the information determines whether interworking with the database unit 250 is necessary based on the corresponding input information (S190). That is, if the contents of the input information can provide the service through the voice scenario stored in the voice response unit 200 in advance, the interworking with the database unit 250 is not necessary, and if the new information is requested, the database Interworking with the unit 250 is required.

만약 데이터베이스부(250)와의 연동이 필요치 않다면, 시나리오 처리부(240)는 미리 저장된 시나리오에 따른 음성 서비스를 S170 단계에서 맞춰진 동기에 따라 음성 서비스를 제공한다(S260). 음성 서비스를 제공하기 앞서, 시나리오 처리부(240)는 영상 응답부(100)로 시나리오에 따른 음성 정보를 전달하여 화면 서비스를 생성한 후 단말(400)에 제공할 수 있도록 한다.If the interworking with the database unit 250 is not necessary, the scenario processing unit 240 provides the voice service according to the synchronization set in step S170 in accordance with the pre-stored scenario (S260). Prior to providing the voice service, the scenario processor 240 may transmit the voice information according to the scenario to the video response unit 100 to generate the screen service and provide the screen service to the terminal 400.

그러나 S190 단계의 판단 결과 데이터베이스부(250)와의 연동이 필요한 경우라면, 음성 출력부(230)는 입력 정보에 따른 정보를 데이터베이스부(250)로 요청하여 수신한다(S200). 그리고 데이터베이스부(250)로부터 수신한 음성 정보를 연동 서버(300)를 통해 영상 응답부(100)로 전달한다(S210). 그리고 음성 출력부(230)는 수신한 정보를 이용하여 음성 서비스를 생성한다(S240).However, if it is determined in step S190 that the interworking with the database unit 250 is necessary, the voice output unit 230 requests and receives the information according to the input information from the database unit 250 (S200). Then, the voice information received from the database unit 250 is transmitted to the image response unit 100 through the companion server 300 (S210). The voice output unit 230 generates a voice service using the received information (S240).

S210 단계를 통해 음성 응답부(300)로부터 음성 정보를 수신한 엔진부(130)는 음성 정보를 이용하여 화면 서비스를 생성한다. 이때, 음성 응답부(300)로부터 수신한 음성 정보는 연동 서버(300)에서 음성과 화면의 연동을 위해, 화면 서비스를 생성하기 위해 필요한 형태로 추출, 해석된 정보이다. The engine unit 130 that receives the voice information from the voice response unit 300 through the step S210 generates a screen service using the voice information. In this case, the voice information received from the voice response unit 300 is information extracted and interpreted in a form necessary to generate a screen service for interworking the voice and the screen in the companion server 300.

S230 단계와 S240 단계를 통해 각각 생성된 화면 서비스와 음성 서비스는 S170 단계에서 맞춰진 동기에 따라, 화면 제어부(110)와 호 제어부(221)를 통해 단말(400)로 제공된다(S250, S260). 이와 같은 절차를 이용하면 별도의 화면 서비스와 음성 서비스를 병합하여 새로운 영상 서비스를 생성하는 절차 없이도 사용자에게 영상 서비스를 제공하는 효과를 얻을 수 있다.The screen service and the voice service generated through steps S230 and S240, respectively, are provided to the terminal 400 through the screen controller 110 and the call controller 221 according to the synchronization set in step S170 (S250 and S260). Using this procedure, it is possible to obtain an effect of providing a video service to a user without merging a separate screen service and a voice service and creating a new video service.

한편, S110 단계에서 판단한 결과 영상 응답 호 연결이 아닌 경우, 도 3b에 도시한 바와 같이, 일반적인 음성 응답 서비스 제공 절차를 통해 단말(400)에 서비스를 제공한다. 즉, 엔진부(130)는 단말(400)로부터 입력된 정보를 분석하 고(S300), 분석된 정보를 토대로 데이터베이스부(250)와의 연동이 필요한지 판단한다(S310).On the other hand, when it is determined in step S110 that the video response call is not connected, as shown in Figure 3b, the service is provided to the terminal 400 through a general voice response service providing procedure. That is, the engine unit 130 analyzes the information input from the terminal 400 (S300), and determines whether the interworking with the database unit 250 is necessary based on the analyzed information (S310).

만약 연동이 필요한 경우라면, 음성 출력부(230)는 데이터베이스부(250)로 입력 정보에 따른 정보를 요청하여 수신하고(S320), 수신한 정보를 토대로 음성 출력부(230)는 음성 서비스를 생성한다(S330). 그 후, 생성한 음성 서비스를 호 제어부(210)를 통해 사용자에게 제공한다(S340). 그러나, S310 단계에서 데이터베이스부(250)와의 연동이 필요치 않다고 판단하면, 시나리오 처리부(240)는 미리 저장되어 있는 시나리오를 토대로 음성 서비스를 단말(400)에 제공한다.If interworking is required, the voice output unit 230 requests and receives information according to the input information from the database unit 250 (S320), and the voice output unit 230 generates a voice service based on the received information. (S330). Thereafter, the generated voice service is provided to the user through the call controller 210 (S340). However, if it is determined in step S310 that the interworking with the database unit 250 is not necessary, the scenario processing unit 240 provides a voice service to the terminal 400 based on the pre-stored scenario.

이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다. The embodiments of the present invention described above are not only implemented through the apparatus and the method, but may be implemented through a program for realizing a function corresponding to the configuration of the embodiments of the present invention or a recording medium on which the program is recorded.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

도 1은 본 발명의 한 실시예에 따른 영상 응답 서비스 제공 시스템의 개략적인 블록도이다.1 is a schematic block diagram of a system for providing a video response service according to an embodiment of the present invention.

도 2는 본 발명의 한 실시예에 따른 영상 응답 서비스 제공 시스템의 상세 블록도이다.2 is a detailed block diagram of a video response service providing system according to an exemplary embodiment of the present invention.

도 3a 도 3b는 본 발명의 실시예에 따른 서비스 제공을 위한 흐름도이다.3A and 3B are flowcharts for providing a service according to an embodiment of the present invention.

Claims (8)

음성 서비스를 단말로 제공하는 음성 응답부; 및Voice response unit for providing a voice service to the terminal; And 상기 단말로부터의 사용자 입력에 대응하는 화면 서비스를 상기 단말로 제공하고, 상기 화면 서비스에 대응하는 상기 음성 서비스를 상기 단말로 제공할 것을 상기 음성 응답부로 요청하며, 상기 음성 서비스와 상기 화면 서비스의 동기를 맞추는 영상 응답부Requesting the voice response unit to provide a screen service corresponding to a user input from the terminal to the terminal and to provide the voice service corresponding to the screen service to the terminal, and synchronize the voice service with the screen service. Video response 를 포함하는 영상 응답 서비스 제공 시스템.Video response service providing system comprising a. 제1항에 있어서,The method of claim 1, 상기 영상 응답부는 상기 음성 서비스와 상기 화면 서비스의 동기화를 위한 동기 제어 신호 및 상기 사용자 입력을 출력하며,The image response unit outputs a synchronization control signal and the user input for synchronizing the voice service and the screen service, 상기 음성 응답부는 상기 동기 제어 신호에 따라 상기 사용자 입력에 대한 상기 음성 서비스를 상기 단말로 제공하는 영상 응답 서비스 제공 시스템.And the voice response unit provides the voice service for the user input to the terminal according to the synchronization control signal. 제2항에 있어서,The method of claim 2, 상기 영상 응답부로부터의 상기 동기 제어 신호 및 입력 정보를 상기 음성 응답부로 전달하는 연동 서버Interlocking server for transmitting the synchronization control signal and input information from the video response unit to the voice response unit 를 더 포함하는 영상 응답 서비스 제공 시스템.Video response service providing system further comprising. 제1항에 있어서,The method of claim 1, 상기 영상 응답부는,The video response unit, 초기 화면 또는 상기 화면 서비스를 상기 단말로 제공하며, 상기 초기 화면 또는 상기 화면 서비스에 응답하여 상기 단말로부터 사용자 입력을 수신하는 화면 제어부를 포함하며,A screen controller configured to provide an initial screen or the screen service to the terminal, and receive a user input from the terminal in response to the initial screen or the screen service; 상기 화면 제어부에서 수신하는 사용자 입력은 상기 단말에서의 화면 터치 및 DTMF(Dual Tone Multi Frequency) 입력 중 적어도 하나를 포함하는 영상 응답 서비스 제공 시스템.And a user input received by the screen controller comprises at least one of a screen touch and a dual tone multi frequency (DTMF) input at the terminal. 제1항에 있어서,The method of claim 1, 상기 음성 응답부는,The voice response unit, 상기 단말과 연결되는 호를 제어하는 호 제어부; 및A call controller for controlling a call connected with the terminal; And 상기 단말과의 연결이 영상 응답 호이고 상기 음성 응답부에 연동되어 있는 데이터베이스와의 연동이 필요한 경우, 상기 사용자 입력에 대응되는 영상 서비스를 상기 단말로 제공하기 위해 상기 사용자 입력을 토대로 사용자에게 제공할 음성 서비스에 대한 음성 정보를 상기 데이터베이스부로부터 상기 요청한 음성 정보를 수신하여 음성 서비스를 생성하고, 상기 사용자 입력에 대응되는 화면 서비스를 생성하도록 상기 영상 응답부로 상기 음성 정보를 전달하는 시나리오 처리부If the connection with the terminal is a video response call and requires interworking with a database linked to the voice response unit, a video service corresponding to the user input may be provided to the user based on the user input to provide the video service corresponding to the user input. A scenario processing unit for receiving the requested voice information from the database unit for voice information about a voice service to generate a voice service, and delivering the voice information to the video response unit to generate a screen service corresponding to the user input. 를 포함하는 영상 응답 서비스 제공 시스템.Video response service providing system comprising a. 제5항에 있어서,The method of claim 5, 상기 시나리오 처리부는 상기 사용자 입력이 음성 응답 호인 경우, 상기 사용자 입력에 대한 음성 서비스를 상기 사용자에게 제공하기 위해 시나리오를 처리하며,If the user input is a voice response call, the scenario processing unit processes a scenario to provide a voice service for the user input to the user, 사용자 음성 데이터를 입력 받아 인식하여, 인식한 음성 정보를 상기 음성 출력부로 전달하여 음성 서비스를 생성하도록 하는 음성 인식부A voice recognition unit for receiving and recognizing user voice data and delivering the recognized voice information to the voice output unit to generate a voice service. 를 포함하는 영상 응답 서비스 제공 시스템.Video response service providing system comprising a. 음성 응답부 및 영상 응답부를 포함하는 영상 응답 서비스 제공 시스템이 사용자의 단말로 영상 응답 서비스를 제공하는 방법에 있어서,A method of providing a video response service to a user terminal by a video response service providing system including a voice response part and a video response part, 사용자로부터 입력되는 입력 정보를 분석하고, 화면 서비스와 음성 서비스와의 동기를 맞추어 동기 제어 신호를 생성하는 단계;Analyzing input information input from a user and generating a synchronization control signal in synchronization with a screen service and a voice service; 상기 동기 제어 신호와 상기 입력 정보를 상기 음성 응답부로 전달하는 단계; 및Transmitting the synchronization control signal and the input information to the voice response unit; And 상기 음성 응답부로부터 정보를 수신하면, 상기 음성 정보를 토대로 화면 서비스를 생성하는 단계; 및Generating a screen service based on the voice information when receiving the information from the voice response unit; And 상기 동기 제어 신호에 따라 상기 생성한 화면 서비스를 상기 단말로 제공하는 단계Providing the generated screen service to the terminal according to the synchronization control signal; 를 포함하는 영상 응답 서비스 제공 방법.Video response service providing method comprising a. 제7항에 있어서,The method of claim 7, wherein 상기 동기 제어 신호 및 입력 정보를 수신한 음성 응답부는,The voice response unit receiving the synchronization control signal and the input information, 상기 입력 정보에 대한 새로운 음성 서비스가 필요한지 판단하는 단계;Determining whether a new voice service for the input information is needed; 새로운 음성 서비스가 필요하면, 음성 서비스를 생성하기 위한 정보를 수신하여, 새로운 음성 서비스를 생성하는 단계;If a new voice service is required, receiving information for generating a voice service, and generating a new voice service; 상기 수신한 정보를 상기 영상 응답부로 전달하는 단계; 및Transmitting the received information to the video response unit; And 상기 동기 제어 신호에 따라 상기 생성한 음성 서비스를 상기 단말로 제공하는 단계Providing the generated voice service to the terminal according to the synchronization control signal; 를 포함하는 영상 응답 서비스 제공 방법.Video response service providing method comprising a.
KR1020090076904A 2009-08-19 2009-08-19 System and method for video response service KR20110019266A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090076904A KR20110019266A (en) 2009-08-19 2009-08-19 System and method for video response service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090076904A KR20110019266A (en) 2009-08-19 2009-08-19 System and method for video response service

Publications (1)

Publication Number Publication Date
KR20110019266A true KR20110019266A (en) 2011-02-25

Family

ID=43776657

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090076904A KR20110019266A (en) 2009-08-19 2009-08-19 System and method for video response service

Country Status (1)

Country Link
KR (1) KR20110019266A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015163532A1 (en) * 2014-04-25 2015-10-29 주식회사 디오티스 Method for synchronizing service between telephone network and data network
KR20170032758A (en) * 2015-09-15 2017-03-23 주식회사 브리지텍 System and method for providing of visual ARS
WO2019132410A1 (en) * 2017-12-26 2019-07-04 Samsung Electronics Co., Ltd. Electronic device and control method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015163532A1 (en) * 2014-04-25 2015-10-29 주식회사 디오티스 Method for synchronizing service between telephone network and data network
KR20170032758A (en) * 2015-09-15 2017-03-23 주식회사 브리지텍 System and method for providing of visual ARS
WO2019132410A1 (en) * 2017-12-26 2019-07-04 Samsung Electronics Co., Ltd. Electronic device and control method thereof
US10630827B2 (en) 2017-12-26 2020-04-21 Samsung Electronics Co., Ltd. Electronic device and control method thereof
US11153426B2 (en) 2017-12-26 2021-10-19 Samsung Electronics Co., Ltd. Electronic device and control method thereof

Similar Documents

Publication Publication Date Title
CN102170617A (en) Mobile terminal and remote control method thereof
EP2273754A2 (en) A conversational portal for providing conversational browsing and multimedia broadcast on demand
JPH07288588A (en) User display device of call recognition device
CN103905555A (en) Self-service terminal remote assistance method and system
TWI581601B (en) Integration of IMS and intelligent terminal technology to support the wisdom of the guidance system and methods
WO2012155302A1 (en) Method for reducing waiting time of telephone voice prompt system
CN106412350A (en) Visual IVR realization method and system
CN102306430B (en) Self-help system and equipment for realizing AV (audio/video) integration
JP4925906B2 (en) Control device, information providing method, and information providing program
US7490125B1 (en) Multimodal system and method
KR20110019266A (en) System and method for video response service
WO2020108342A1 (en) Hotline calling method, device and apparatus, and storage medium
KR100775052B1 (en) Method for providing information service to mobile device
US20090131031A1 (en) Virtual terminal server, mobile communication terminal, communication control system, and communication control method
CN105282621A (en) Method and device for achieving voice message visualized service
CN103051858A (en) Video communication real-time screen interaction device, method and system
KR20120080398A (en) Cloud server and communication apparatus for interlocking call history and address book data, and control method thereof
KR100945162B1 (en) System and method for providing ringback tone
JP5947156B2 (en) Voice guidance server, voice guidance method, voice guidance program, voice guidance system
CN102291563A (en) Dynamic menu interaction method and system
JP6065574B2 (en) Guidance system, guidance system server and guidance system program
JP4385501B2 (en) Customer terminal message output system
US20040120483A1 (en) Telephonic interface for a visual presentation of a hierarchy of menus
KR101330721B1 (en) IVR Service System and Method Thereof
JP7450135B1 (en) IVR system, IVR template creation method and computer program

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid