KR20130057338A - 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치 - Google Patents

음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치 Download PDF

Info

Publication number
KR20130057338A
KR20130057338A KR1020110123192A KR20110123192A KR20130057338A KR 20130057338 A KR20130057338 A KR 20130057338A KR 1020110123192 A KR1020110123192 A KR 1020110123192A KR 20110123192 A KR20110123192 A KR 20110123192A KR 20130057338 A KR20130057338 A KR 20130057338A
Authority
KR
South Korea
Prior art keywords
voice
information
text information
terminal device
service
Prior art date
Application number
KR1020110123192A
Other languages
English (en)
Inventor
김용진
Original Assignee
김용진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김용진 filed Critical 김용진
Priority to KR1020110123192A priority Critical patent/KR20130057338A/ko
Priority to US14/360,348 priority patent/US20140324424A1/en
Priority to PCT/KR2012/009639 priority patent/WO2013077589A1/ko
Priority to JP2014543410A priority patent/JP2015503119A/ja
Publication of KR20130057338A publication Critical patent/KR20130057338A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4936Speech interaction details
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Abstract

본 발명은 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치를 개시한다. 즉, 단말장치에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보 및 상기 음성정보에 대응하는 텍스트정보를 생성하는 정보생성단계; 상기 지정된 단계에 대응하여 생성된 상기 음성정보를 단말장치에 제공하는 음성정보제공단계; 및 상기 음성정보의 제공과 동시에 상기 생성된 텍스트정보를 상기 단말장치에 전달하여, 상기 전달된 텍스트정보가 상기 단말장치에 제공되는 해당 음성정보에 동기되어 연속 표시되도록 하는 텍스트정보전달단계를 포함함으로써, 음성인식 서비스 제공 시, 각각의 상황에서 이용이 예상되는 서비스의 제시어를 음성이 아닌 화면으로 제공하고 이용 가능한 기능들을 화면으로 제시함으로써, 음성으로 항상 알려줄 수 없는 서비스의 기능을 최대한 활용할 수 있다.

Description

음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치{METHOD AND APPARATUS FOR PROVIDING VOICE VALUE ADDED SERVICE}
본 발명은 음성인식 부가 서비스 제공 방안에 관한 것으로, 더욱 상세하게는, 음성인식 서비스와 관련하여 각각의 상황에서 이용이 예상되는 서비스의 제시어 및 이용 가능한 기능들에 대한 화면 제공을 통해 사용자의 음성 입력을 유도함으로써 키워드 인식률을 향상시킴과 아울러, 사용자에게 제공되는 음성 안내 및 사용자로부터 입력된 키워드 모두를 채팅 창 방식으로 순차 제공함으로써, 서비스 이용에 따른 이해도 및 편의성을 향상시키기 위한 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치에 관한 것이다.
통상적으로 콜 센터에서 제공하는 음성인식 서비스는 고객이 말하는 키워드를 기준으로 원하는 정보를 음성으로 찾아주는 서비스를 지칭하는 것으로서, 사용자에게 음성으로 제시어를 제공하고, 제공된 제시어에 기반한 사용자의 음성을 입력받아 키워드 인식을 통해 해당하는 서비스를 제공하게 된다.
그러나, 기존 음성인식 서비스의 경우, 고객이 원하는 서비스에 대한 단어가 정확히 언급되지 않을 경우, 서비스 이용이 원활하지 못하게 되는 문제가 있다.
즉, 기존 음성인식 서비스는 음성으로 제시어를 제공하고 있으나 시간 제약상 음성으로 제공할 수 있는 단어의 수는 한정되게 되며, 이로 인해 사용자는 서비스 이용을 위해 언급해야 할 키워드를 정확하게 인지하지 못하게 되어 서비스 이용을 중간에 포기하는 상황이 발생될 수 있다.
본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명에서 도달하고자 하는 목적은, 단말장치에 대한 음성인식 서비스 제공을 위해 구동메시지를 전송하여 상기 단말장치에 내장된 서비스어플리케이션을 구동시키며, 상기 음성인식 서비스 제공에 따라 지정된 단계별로 상기 단말장치에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하고, 상기 서비스어플리케이션에 지정된 포맷에 따라 상기 획득된 텍스트정보가 포함되도록 화면컨텐츠를 구성하며, 상기 지정된 단계별로 구성되는 상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 대해 전달되는 해당 음성정보에 동기되어 연속 표시되도록 하는 화면서비스장치 및 그 동작 방법을 제공하여 음성인식 서비스와 관련하여 각각의 상황에서 이용이 예상되는 서비스의 제시어 및 이용 가능한 기능들에 대한 화면 제공을 통해 사용자의 음성 입력을 유도하는데 있다.
본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명에서 도달하고자 하는 다른 목적은, 단말장치에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보 및 상기 음성정보에 대응하는 텍스트정보를 생성하고, 상기 지정된 단계에 대응하여 생성된 상기 음성정보를 단말장치에 제공하며, 상기 음성정보의 제공과 동시에 상기 생성된 텍스트정보를 상기 단말장치에 전달하여, 상기 전달된 텍스트정보가 상기 단말장치에 제공되는 해당 음성정보에 동기되어 연속 표시되도록 하는 음성인식장치 및 그 동작 방법을 제공하여 음성인식 서비스와 관련하여 각각의 상황에서 이용이 예상되는 서비스의 제시어 및 이용 가능한 기능들에 대한 화면 제공을 통해 사용자의 음성 입력을 유도하는데 있다.
본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명에서 도달하고자 하는 또 다른 목적은, 음성인식 서비스 접속에 따라 지정된 단계에 대응하는 음성정보를 수신하며, 상기 지정된 단계별로 수신되는 음성정보에 동기화된 텍스트정보를 포함하는 화면켄텐츠를 획득하여 상기 음성정보의 수신에 따라 상기 화면컨텐츠에 포함된 텍스트정보를 표시하는 단말장치 및 그 동작 방법을 제공하여 음성인식 서비스와 관련하여 각각의 상황에서 이용이 예상되는 서비스의 제시어 및 이용 가능한 기능들에 대한 화면 제공을 통해 사용자의 음성 입력을 유도하는데 있다.
상기 목적을 달성하기 위한 본 발명의 제 1 관점에 따른 화면서비스장치는, 단말장치에 대한 음성인식 서비스 제공을 위해 구동메시지를 전송하여 상기 단말장치에 내장된 서비스어플리케이션을 구동시키는 단말구동부; 상기 음성인식 서비스 제공에 따라 지정된 단계별로 상기 단말장치에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하고, 상기 서비스어플리케이션에 지정된 포맷에 따라 상기 획득된 텍스트정보가 포함되도록 화면컨텐츠를 구성하는 컨텐츠구성부; 및 상기 지정된 단계별로 구성되는 상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 대해 전달되는 해당 음성정보에 동기되어 연속 표시되도록 하는 컨텐츠제공부를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 컨텐츠구성부는, 상기 음성인식 서비스를 안내하기 위해 상기 단말장치에 전달되는 음성 안내에 대응하는 제1텍스트정보, 및 사용자의 음성 입력을 유도하기 위해 상기 단말장치에 전달되는 음성 제시어에 대응하는 제2텍스트정보 중 적어도 하나를 획득하여 상기 화면컨텐츠를 구성하는 것을 특징으로 한다.
바람직하게는, 상기 컨텐츠구성부는, 상기 단말장치로부터 상기 음성 제시어를 기초로 한 사용자의 음성이 전달될 경우, 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보를 획득하여, 상기 획득된 제3텍스트정보가 포함되도록 상기 화면컨텐츠를 구성하는 것을 특징으로 한다.
바람직하게는, 상기 컨텐츠구성부는, 상기 키워드 정보에 대한 인식오류 확인을 위해 상기 단말장치에 전달되는 음성 질의어에 대응하는 제4텍스트정보를 획득하여, 상기 획득된 제4텍스트정보가 포함되도록 상기 화면컨텐츠를 구성하는 것을 특징으로 한다.
바람직하게는, 상기 컨텐츠구성부는, 상기 키워드 정보를 기초로 추출되어 상기 단말장치에 전달되는 특정 컨텐츠의 음성 안내에 대응하는 제5텍스트정보를 획득하여, 상기 획득된 제5텍스트정보가 포함되도록 상기 화면컨텐츠를 구성하는 것을 특징으로 한다.
바람직하게는, 상기 컨텐츠구성부는, 상기 키워드 정보에 대한 인식오류가 확인될 경우, 사용자의 음성 재입력을 유도하기 위해 상기 단말장치에 전달되는 음성 제시어에 대응하는 제6텍스트정보를 획득하여, 상기 획득된 제6텍스트정보가 포함되도록 상기 화면컨텐츠를 구성하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 제 2 관점에 따른 음성인식장치는, 단말장치에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보를 생성하여 상기 단말장치에 제공하며, 상기 생성된 음성정보에 대응하는 텍스트정보를 생성하는 정보처리부; 및 상기 지정된 단계별로 생성되는 상기 텍스트정보를 상기 단말장치에 전달하여, 상기 전달된 텍스트정보가 상기 단말장치에 제공되는 해당 음성정보에 동기되어 연속 표시되도록 하는 정보전달부를 포함하는 것을 특징으로 하는 음성인식장치.
바람직하게는, 상기 정보처리부는, 상기 음성인식 서비스를 안내하기 위한 음성 안내, 및 사용자의 음성 입력을 유도하기 위한 음성 제시어 중 적어도 하나에 해당하는 음성정보 및 텍스트정보를 동시 생성하는 것을 특징으로 한다.
바람직하게는, 상기 정보처리부는, 상기 단말장치로부터 상기 음성 제시어를 기초로 한 사용자의 음성이 전달될 경우, 음성인식 결과에 해당하는 키워드 정보를 추출하고, 상기 추출된 키워드 정보에 대응하는 텍스트정보를 생성하는 것을 특징으로 한다.
바람직하게는, 상기 정보처리부는, 상기 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 해당하는 상기 음성정보 및 텍스트정보를 동시 생성하는 것을 특징으로 한다.
바람직하게는, 상기 정보처리부는, 상기 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 해당하는 음성정보 및 텍스트정보를 동시 생성하는 것을 특징으로 한다.
바람직하게는, 상기 정보처리부는, 상기 추출된 키워드 정보를 기초로 특정 컨텐츠를 획득하여, 획득된 상기 특정 컨텐츠에 해당하는 음성정보 및 텍스트정보를 생성하는 것을 특징으로 한다.
바람직하게는, 상기 정보처리부는, 상기 텍스트정보에 대한 상기 단말장치로의 전달 시점이 확인될 경우, 상기 확인된 전달 시점에 대응하여 상기 음성정보를 상기 단말장치에 제공하거나, 기 제공된 상기 음성정보에 대한 별도의 재생 요청을 전달하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 제 3 관점에 따른 단말장치는, 음성인식 서비스 접속에 따라 지정된 단계에 대응하는 음성정보를 수신하는 음성처리부; 및 상기 지정된 단계별로 수신되는 음성정보에 동기화된 텍스트정보를 포함하는 화면켄텐츠를 획득하여, 상기 음성정보의 수신에 따라 상기 화면컨텐츠에 포함된 텍스트정보를 표시하는 화면처리부를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 화면처리부는, 상기 지정된 단계에 대응하여 새로운 텍스트정보가 획득될 경우, 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 제 4 관점에 따른 화면서비스장치의 동작 방법은, 단말장치에 대한 음성인식 서비스 제공을 위해 구동메시지를 전송하여 상기 단말장치에 내장된 서비스어플리케이션을 구동시키는 단말구동단계; 상기 음성인식 서비스 제공에 따라 지정된 단계별로 상기 단말장치에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하는 텍스트정보획득단계; 상기 서비스어플리케이션에 지정된 포맷에 따라 상기 획득된 텍스트정보가 포함되도록 화면컨텐츠를 구성하는 컨텐츠구성단계; 및 상기 지정된 단계별로 구성되는 상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 대해 전달되는 해당 음성정보에 동기되어 연속 표시되도록 하는 컨텐츠제공단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 컨텐츠구성단계는, 상기 음성인식 서비스를 안내하기 위해 상기 단말장치에 전달되는 음성 안내에 대응하는 제1텍스트정보, 및 사용자의 음성 입력을 유도하기 위해 상기 단말장치에 전달되는 음성 제시어에 대응하는 제2텍스트정보 중 적어도 하나를 포함하는 상기 화면컨텐츠를 구성하는 것을 특징으로 한다.
바람직하게는, 상기 컨텐츠구성단계는, 상기 단말장치로부터 상기 음성 제시어를 기초로 한 사용자의 음성이 전달될 경우, 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보가 포함되도록 상기 화면컨텐츠를 구성하는 것을 특징으로 한다.
바람직하게는, 상기 컨텐츠구성단계는, 상기 키워드 정보에 대한 인식오류 확인을 위해 상기 단말장치에 전달되는 음성 질의어에 대응하는 제4텍스트정보가 포함되도록 상기 화면컨텐츠를 구성하는 것을 특징으로 한다.
바람직하게는, 상기 컨텐츠구성단계는, 상기 키워드 정보를 기초로 추출되어 상기 단말장치에 전달되는 특정 컨텐츠의 음성 안내에 대응하는 제5텍스트정보가 포함되도록 상기 화면컨텐츠를 구성하는 것을 특징으로 한다.
바람직하게는, 상기 컨텐츠구성단계는, 상기 키워드 정보에 대한 인식오류가 확인될 경우, 사용자의 음성 재입력을 유도하기 위해 상기 단말장치에 전달되는 음성 제시어에 대응하는 제6텍스트정보가 포함되도록 상기 화면컨텐츠를 구성하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 제 5 관점에 따른 음성인식장치의 동작 방법은, 단말장치에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보 및 상기 음성정보에 대응하는 텍스트정보를 생성하는 정보생성단계; 상기 지정된 단계에 대응하여 생성된 상기 음성정보를 단말장치에 제공하는 음성정보제공단계; 및 상기 음성정보의 제공과 동시에 상기 생성된 텍스트정보를 상기 단말장치에 전달하여, 상기 전달된 텍스트정보가 상기 단말장치에 제공되는 해당 음성정보에 동기되어 연속 표시되도록 하는 텍스트정보전달단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 정보생성단계는, 상기 음성인식 서비스를 안내하기 위한 음성 안내, 및 사용자의 음성 입력을 유도하기 위한 음성 제시어 중 적어도 하나에 해당하는 음성정보 및 텍스트정보를 동시 생성하는 것을 특징으로 한다.
바람직하게는, 상기 정보생성단계는, 상기 단말장치로부터 상기 음성 제시어를 기초로 한 사용자의 음성이 전달될 경우, 음성인식 결과에 해당하는 키워드 정보를 추출하는 키워드정보추출단계; 및 상기 추출된 키워드 정보에 대응하는 텍스트정보를 생성하는 텍스트정보생성단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 정보생성단계는, 상기 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 해당하는 상기 음성정보 및 텍스트정보를 동시 생성하는 것을 특징으로 한다.
바람직하게는, 상기 정보생성단계는, 상기 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 해당하는 음성정보 및 텍스트정보를 동시 생성하는 것을 특징으로 한다.
바람직하게는, 상기 정보생성단계는, 상기 추출된 키워드 정보를 기초로 특정 컨텐츠를 획득하여, 획득된 상기 특정 컨텐츠에 해당하는 음성정보 및 텍스트정보를 생성하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 제 6 관점에 따른 단말장치의 동작 방법은, 음성인식 서비스 접속에 따라 지정된 단계에 대응하는 음성정보를 수신하는 음성정보수신단계; 상기 지정된 단계별로 수신되는 음성정보에 동기화된 텍스트정보를 포함하는 화면켄텐츠를 획득하는 정보획득단계; 및 상기 음성정보의 수신에 따라 상기 화면컨텐츠에 포함된 텍스트정보를 표시하는 화면처리단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 화면처리단계는, 상기 지정된 단계에 대응하여 새로운 텍스트정보가 획득될 경우, 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 제 7 관점에 따른 컴퓨터 판독 기록매체는, 음성인식 서비스 접속에 따라 지정된 단계에 대응하는 음성정보를 수신하는 음성정보수신단계; 상기 지정된 단계별로 수신되는 음성정보에 동기화된 텍스트정보를 포함하는 화면켄텐츠를 획득하는 정보획득단계; 및 상기 음성정보의 수신에 따라 상기 화면컨텐츠에 포함된 텍스트정보를 표시하는 화면처리단계를 실행하기 위한 명령어를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 화면처리단계는, 상기 지정된 단계에 대응하여 새로운 텍스트정보가 획득될 경우, 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 것을 특징으로 한다.
이에, 본 발명에 따른 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치에 의하면, 음성인식 서비스 제공 시, 각각의 상황에서 이용이 예상되는 서비스의 제시어를 음성이 아닌 화면으로 제공하고 이용 가능한 기능들을 화면으로 제시함으로써, 음성으로 항상 알려줄 수 없는 서비스의 기능을 최대한 활용할 수 있다.
또한, 서비스 제시어 및 이용 가능한 기능들에 대한 화면을 제공하며 제공된 화면의 인지를 통한 사용자의 음성 입력을 유도함으로써 입력된 음성에 대한 키워드 인식률을 향상시킬 수 있다.
아울러, 사용자에게 제공되는 음성 안내 및 사용자로부터 입력된 키워드 모두를 채팅 창 방식으로 제공하여 음성안내에 의존하지 않고 화면만을 보면서 신속하게 서비스를 이용할 수 있으며, 서비스 이용에 따른 이해도 및 편의성을 향상시킬 수 있다.
도 1은 본 발명의 실시예에 따른 음성인식 부가 서비스 제공 시스템의 개략적인 구성도.
도 2는 본 발명의 실시예에 따른 단말장치의 개략적인 구성도.
도 3은 본 발명의 실시예에 따른 음성인식장치의 개략적인 구성도.
도 4는 본 발명의 실시예에 따른 화면서비스장치의 개략적인 구성도.
도 5 내지 도 6은 본 발명의 실시예에 따른 음성이식 부가 서비스 제공 화면을 도시한 도면.
도 7은 발명의 실시예에 따른 음성인식 부가 서비스 제공 시스템의 동작 방법을 설명하기 위한 순서도.
도 8은 발명의 실시예에 따른 단말장치의 동작 방법을 설명하기 위한 순서도.
도 9는 발명의 실시예에 따른 음성인식장치의 동작 방법을 설명하기 위한 순서도.
도 10은 발명의 실시예에 따른 화면서비스장치의 동작 방법을 설명하기 위한 순서도.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 설명한다.
도 1은 본 발명의 실시예에 따른 음성인식 부가 서비스 제공 시스템의 개략적인 구성도를 도시한다.
도 1에 도시한 바와 같이, 상기 시스템은, 음성인식 서비스 이용중 음성정보 이외에 화면컨텐츠를 추가 수신하여 표시하는 단말장치(100), 단말장치(100)에 대한 음성 호 접속을 통해 음성인식 서비스를 중계하는 음성응답장치(200, IVR: Interactive Voice Response), 단말장치에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보 및 텍스트정보를 생성하여 제공하는 음성인식장치(300), 및 생성된 텍스트정보를 기반으로 화면컨텐츠를 구성하여 단말장치(100)에 제공하는 화면서비스장치(400)를 포함하는 구성을 갖는다. 여기서, 단말장치(100)는 단말장치의 운용을 위한 플랫폼 예컨대, 아이폰OS(iOS), 안드로이드(Android), 및 윈도우모바일(Window Mobile) 등을 탑재하여 해당 플랫폼을 기반으로 음성통화 중에 무선인터넷 접속이 가능한 스마트폰 및 음성통화 중에 무선인터넷 접속이 가능한 모든 폰을 지칭한다.
단말장치(100)는 음성응답장치(200)에 접속하여 음성인식 서비스를 요청한다.
보다 구체적으로, 단말장치(100)는 음성응답장치(200)에 대한 음성호 접속 이후, 음성응답장치(200)로부터의 제공되는 서비스 안내를 토대로 음성인식 서비스를 요청하게 된다. 이와 관련하여, 음성응답장치(200)는 화면서비스장치(400)를 통해 단말장치(100)에 대한 서비스 가능 여부 조회함으로써, 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스 어플리케이션이 내장된 단말장치임을 확인하게 된다.
또한, 단말장치(100)는 음성인식 서비스 이용 시, 음성정보에 대응하는 화면컨텐츠를 수신하기 위해 내장된 서비스어플리케이션을 구동한다.
보다 구체적으로, 단말장치(100)는 상술한 음성인식 서비스 요청 이후, 화면서비스장치(400)로부터 수신되는 구동메시지 수신에 따라, 내장된 서비스어플리케이션을 구동함으로써, 음성인식장치(300)로부터 제공되는 음성정보 이외에 추가로 제공되는 화면컨텐츠를 수신하기 위해 화면서비스장치(400)에 접속하게 된다.
아울러, 단말장치(100)는 음성인식 서비스 이용에 따른 음성정보를 수신한다.
보다 구체적으로, 단말장치(100)는 음성인식 서비스 접속에 따라 지정된 단계에 대응하도록 음성인식장치(300)에서 생성된 음성정보를 음성응답장치(200)에 통해 수신하게 된다. 이때, 음성응답장치(200)를 통해 수신되는 음성정보의 경우, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어, 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성 안내가 해당될 수 있다.
그리고, 단말장치(100)는 수신되는 음성정보에 대응하는 화면컨텐츠를 획득한다.
보다 구체적으로, 단말장치(100)는 지정된 단계별로 음성응답장치(200)를 통해 수신되는 각각의 음성정보에 동기화된 텍스트정보를 포함하는 화면컨텐츠를 화면서비스장치(400)로부터 수신하게 된다. 이때, 화면서비스장치(400)로부터 수신되는 화면컨텐츠의 경우, 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성 안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)가 포함될 수 있다.
나아가, 단말장치(100)는 화면컨텐츠에 포함된 텍스트정보를 표시한다.
보다 구체적으로, 단말장치(100)는 지정된 단계별로 음성응답장치(200)를 통해 재생되는 음성정보를 수신함과 아울러, 화면서비스장치(300)로부터 수신되는 화면컨텐츠에 포함된 텍스트정보를 동시에 표시하게 된다. 이때, 단말장치(100)는 지정된 단계에 대응하여 화면서비스장치(400)로부터 새롭게 수신되는 텍스트정보를 표시함에 있어서, 도 5 및 도 6에 도시한 바와 같이 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 채팅 창 방식을 적용하게 된다. 즉, 단말장치(100)는 상술한 채팅 창 방식의 텍스트정보 표시 형태를 적용함으로써, 사용자로 하여금 스크롤 업다운을 통해 기존 디스플레이 항목에 대한 검색을 용이하게 하여 서비스 이해도를 높을 수 있으며, 특히, 음성정보가 서킷(Circuit)망을 통해 전달되는 환경에서 서킷(Circuit)망을 통해 전달되는 음성정보와 패킷(Paket)망을 통해 전달되는 화면컨텐츠는 정확히 일치할지 않기 때문에 수신되는 음성정보와 텍스트정보가 불일치할 경우, 사용자로 하여금 스크롤 업/다운을 통해 현재 수신되는 음성이 화면의 어느 시점에 표시되고 있는지를 직관적이고 용이하게 판단할 수 있도록 한다.
음성인식장치(300)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보를 생성한다.
보다 구체적으로, 음성인식장치(300)는 음성응답장치(200)로부터 단말장치(100)에 대한 음성호를 전달받아 음성인식 서비스를 제공하게 되며, 이 과정에서 지정된 단계별로 음성정보를 생성한다. 이때, 음성인식장치(300)에서 생성되는 음성정보의 경우, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어, 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성 안내가 해당될 수 있다.
또한, 음성인식장치(300)는 지정된 단계별로 생성되는 음성정보에 대응하는 텍스트정보를 생성한다.
보다 구체적으로, 음성인식장치(300)는 상술한 바와 같이 음성인식 서비스 과정에서 음성정보가 생성될 경우, 생성되는 음성정보 각각과 동일한 문장의 텍스트정보를 생성하게 된다. 이때, 음성인식장치(300)에서 생성되는 텍스트정보의 경우, 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성 안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)가 포함될 수 있다.
아울러, 음성인식장치(300)는 생성된 음성정보 및 텍스트정보를 단말장치(100)에 전달한다.
보다 구체적으로, 음성인식장치(300)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하여 생성되는 음성정보를 음성응답장치(200)에 전달하여 단말장치(100)에 대한 재생을 요청한다. 이와 동시에, 음성인식장치(300)는 음성정보 제공과 별도로, 생성된 텍스트정보를 화면서비스장치(200)로 제공하여 텍스트정보를 포함하는 화면컨텐츠가 단말장치(100)에 전달될 수 있도록 함으로써, 전달된 텍스트정보가 상기 단말장치(100)에 제공되는 해당 음성정보에 동기되어 예컨대, 채팅 창 방식과 같이 연속적으로 표시될 수 있도록 한다. 한편, 음성인식장치(300)는 단말장치(100)에 전달되는 음성정보와 이에 대응하는 화면컨텐츠에 대한 동기화를 위해, 예컨대, 음성응답장치(200)에 음성정보를 제공한 이후, 화면컨텐츠장치(200)로부터 해당 화면컨텐츠에 대한 전송완료신호가 전달될 경우, 음성응답장치(200)에 제공된 음성정보에 대한 추가적인 재생요청을 전달함으로써 음성정보의 재생 시점과 화면컨텐츠의 전달 시점을 일치시키거나, 또는 화면컨텐츠장치(400)로부터 화면컨텐츠에 대한 전송완료신호가 전달된 이후에, 음성응답장치(200)에 해당 음성정보를 제공하여 동시에 재생을 요청하는 구성을 적용함으로써, 음성정보의 재생 시점과 화면컨텐츠의 전달 시점을 일치시킬 수 있다. 참고로, 화면컨텐츠장치(400)가 화면컨텐츠에 대한 전송완료신호를 음성응답장치(200)에 직접 제공하고, 이를 수신한 음성응답장치(200)가 음성인식장치(300)로부터 기 제공된 음성정보를 재생함으로써, 음성정보의 재생 시점과 화면컨텐츠의 전달 시점을 일치시키는 구성 또한 가능할 것이다.
이를 통해, 음성인식장치(300)는 음성인식 서비스 과정에서 제공되는 음성정보 이외의 텍스트정보{제1텍스트정보(a), 제2텍스트정보(b)}를 부가 제공하여 사용자로부터 정확한 발음의 음성 입력을 유도함으로써, 키워드 인식률을 향상시킬 수 있다. 또한, 음성인식장치(300)는 사용자의 음성인식 결과에 해당하는 키워드 정보의 확인을 위한 텍스트정보{제3텍스트정보(c), 제4텍스트정보(d)}를 제공함으로써, 키워드 정보를 기초로 한 컨텐츠 추출 이전에 해당 사용자의 음성 인식 상태를 전달하여 사용자의 발음이 어떻게 인식되었는지를 보여줌으로써 사용자가 잘못 인식된 구간을 인식하고 해당 구간에서 정확한 발음을 하도록 유도한다. 나아가, 음성인식장치(300)는 사용자가 정확한 발음을 구사하지 못하는 경우(예: 사투리를 쓰는 사람이거나 외국인인 경우), 텍스트정보{제6텍스트정보(f)}를 통해 해당 서비스에 대한 대체 단어 예컨대, 아라비아 숫자 또는 발음이 쉬운 대체 문장을 제시함으로써 사용자의 음성 재입력을 유도할 수 있다.
화면서비스장치(400)는 단말장치(100)에 내장된 서비스어플리케이션을 구동하여 접속을 유도한다.
보다 구체적으로, 화면서비스장치(400)는 단말장치(100)의 음성인식 서비스 요청을 수신한 음성응답장치(200)로부터 단말장치(100)에 대한 서비스 가능 여부 조회 요청이 수신될 경우, 데이터베이스 조회를 통해 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스 어플리케이션이 내장된 단말장치임을 확인하게 된다. 아울러, 화면서비스장치(400)는 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스 어플리케이션이 내장된이 확인될 경우, 단말장치(100)에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 생성하여 단말장치(100)에 전송함으로써 무선인터넷 즉, 패킷망을 통한 단말장치(100)의 접속을 유도하게 된다.
또한, 화면서비스장치(400)는 단말장치에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하여 화면컨텐츠를 구성한다.
보다 구체적으로, 화면서비스장치(400)는 상기 단말장치(100)에 대한 음성인식 서비스 제공에 따라, 음성인식장치(300)로부터 지정된 단계별로 생성된 음성정보에 대응하는 텍스트정보를 수신하고, 단말장치(100)에 내장된 서비스어플리케이션에 지정된 포맷에 따라 음성인식장치(300)로부터 수신된 텍스트정보가 포함되도록 화면컨텐츠를 구성한다.
나아가, 화면서비스장치(400)는 지정된 단계별로 구성되는 화면컨텐츠를 단말장치(100)에 제공한다.
보다 구체적으로, 화면서비스장치(400)는 음성인식 서비스 제공 과정에서 지정된 단계별로 구성되는 상기 화면컨텐츠를 단말장치(100)에 제공함으로써, 화면컨텐츠에 포함된 텍스트정보가 단말장치(100)에서 수신중인 해당 음성정보에 동기되어 예컨대, 채팅 창 방식과 같이 연속적으로 표시될 수 있도록 한다.
이하에서는, 도 2를 참조하여, 본 발명의 실시예에 따른 단말장치(100)의 구체적인 구성을 설명하도록 한다.
즉, 단말장치(100)는 음성인식 서비스 접속에 따라 지정된 단계에 대응하는 음성정보를 수신하는 음성처리부(110), 및 음성정보에 대응하는 화면컨텐츠를 획득하고, 상기 획득된 화면컨텐츠에 포함된 텍스트정보를 해당 음성정보의 수신에 따라 표시하는 화면처리부(120)를 포함하는 구성을 갖는다. 여기서, 화면처리부(120)는 서비스어플리케이션을 지칭하는 것으로서, 운영체제(OS, Operating System)에서 지원하는 플랫폼을 기반으로 구동하여 패킷망 접속을 통해 음성정보에 대응하는 화면컨텐츠를 수신하게 된다.
음성처리부(110)는 음성응답장치(200)에 접속하여 음성인식 서비스를 요청한다.
보다 구체적으로, 음성처리부(110)는 음성응답장치(200)에 대한 음성호 접속 이후, 음성응답장치(200)로부터의 제공되는 서비스 안내를 토대로 음성인식 서비스를 요청하게 된다. 이와 관련하여, 음성응답장치(200)는 화면서비스장치(400)를 통해 단말장치(100)에 대한 서비스 가능 여부 조회함으로써, 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스 어플리케이션이 내장된 단말장치임을 확인하게 된다.
아울러, 음성처리부(110)는 음성인식 서비스 이용에 따른 음성정보를 수신한다.
보다 구체적으로, 음성처리부(110)는 음성인식 서비스 접속에 따라 지정된 단계에 대응하도록 음성인식장치(300)에서 생성된 음성정보를 음성응답장치(200)에 통해 수신하게 된다. 이때, 음성응답장치(200)를 통해 수신되는 음성정보의 경우, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어, 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성 안내가 해당될 수 있다.
화면처리부(120)는 음성인식 서비스 이용 과정에서 추가 제공되는 화면컨텐츠를 수신하기 위해 화면서비스장치에 접속한다.
보다 구체적으로, 화면처리부(120)는 음성인식 서비스 요청 이후, 화면서비스장치(400)로부터 전송되는 구동메시지에 수신에 따라 인보크(Invoke)되어, 음성인식장치(300)로부터 제공되는 음성정보에 대응하는 화면컨텐츠를 수신하기 위해 화면서비스장치(400)에 접속하게 된다.
또한, 화면처리부(120)는 수신되는 음성정보에 대응하는 화면컨텐츠를 획득한다.
보다 구체적으로, 화면처리부(120)는 지정된 단계별로 음성응답장치(200)를 통해 수신되는 각각의 음성정보에 동기화된 텍스트정보를 포함하는 화면컨텐츠를 화면서비스장치(400)로부터 수신하게 된다. 이때, 화면서비스장치(400)로부터 수신되는 화면컨텐츠의 경우, 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성 안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)가 포함될 수 있다.
나아가, 화면처리부(120)는 화면컨텐츠에 포함된 텍스트정보를 표시한다.
보다 구체적으로, 화면처리부(120)는 지정된 단계별로 음성응답장치(200)를 통해 재생되는 음성정보를 수신함과 아울러, 화면서비스장치(300)로부터 수신되는 화면컨텐츠에 포함된 텍스트정보를 동시에 표시하게 된다. 이때, 화면처리부(120)는 지정된 단계에 대응하여 화면서비스장치(400)로부터 새롭게 수신되는 텍스트정보를 표시함에 있어서, 도 5 및 도 6에 도시한 바와 같이 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 채팅 창 방식을 적용하게 된다. 즉, 화면처리부(120)는 상술한 채팅 창 방식의 텍스트정보 표시 형태를 적용함으로써, 사용자로 하여금 스크롤 업다운을 통해 기존 디스플레이 항목에 대한 검색을 용이하게 하여 서비스 이해도를 높을 수 있으며, 특히, 음성정보가 서킷(Circuit)망을 통해 전달되는 환경에서 서킷(Circuit)망을 통해 전달되는 음성정보와 패킷(Paket)망을 통해 전달되는 화면컨텐츠는 정확히 일치할지 않기 때문에 수신되는 음성정보와 텍스트정보가 불일치할 경우, 사용자로 하여금 스크롤 업/다운을 통해 현재 수신되는 음성이 화면의 어느 시점에 표시되고 있는지를 직관적이고 용이하게 판단할 수 있도록 한다.
이하에서는, 도 3을 참조하여, 본 발명의 실시예에 따른 음성인식장치(300)의 구체적인 구성을 설명하도록 한다.
즉, 음성인식장치(300)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보 및 텍스트정보를 생성하는 정보처리부(310), 및 생성된 텍스트정보를 단말장치(100)에 전달하는 정보전달부(320)를 포함하는 구성을 갖는다.
정보처리부(310)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보를 생성한다.
보다 구체적으로, 정보처리부(310)는 음성응답장치(200)로부터 단말장치(100)에 대한 음성호를 전달받아 음성인식 서비스를 제공하게 되며, 이 과정에서 지정된 단계별로 음성정보를 생성한다. 이때, 정보처리부(310)는 지정된 단계별로, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어, 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성 안내를 생성할 수 있다.
또한, 정보처리부(310)는 지정된 단계별로 생성되는 음성정보에 대응하는 텍스트정보를 생성한다.
보다 구체적으로, 정보처리부(310)는 상술한 바와 같이 음성인식 서비스 과정에서 음성정보가 생성될 경우, 생성되는 음성정보 각각과 동일한 문장의 텍스트정보를 생성하게 된다. 이때, 정보처리부(310)는 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성 안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)를 생성할 수 있다.
나아가, 정보처리부(310)는 생성된 음성정보를 단말장치(100)에 전달한다.
보다 구체적으로, 정보처리부(310)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하여 생성된 음성정보를 음성응답장치(200)에 전달하여 재생을 요청함으로써, 해당 음성정보를 단말장치(100)에 제공하게 된다.
정보전달부(310)는 음성정보 제공과 별도로, 생성된 텍스트정보를 단말장치(100)에 전달한다.
보다 구체적으로, 정보전달부(310)는 정보처리부(310)로부터 음성정보에 대응하여 생성된 텍스트정보를 전달받아 화면서비스장치(200)로 제공하며, 이를 통해 제공된 텍스트정보를 포함하는 화면컨텐츠가 단말장치(100)에 전달될 수 있도록 함으로써, 전달된 텍스트정보가 상기 단말장치(100)에 제공되는 해당 음성정보에 동기되어 예컨대, 채팅 창 방식과 같이 연속적으로 표시될 수 있도록 한다. 예컨대, 정보전달부(310)는 음성인식 서비스 과정에서 제공되는 음성정보 이외의 텍스트정보{제1텍스트정보(a), 제2텍스트정보(b)}를 부가 제공하여 사용자로부터 정확한 발음의 음성 입력을 유도함으로써, 키워드 인식률을 향상시킬 수 있다. 또한, 정보전달부(310)는 사용자의 음성인식 결과에 해당하는 키워드 정보의 확인을 위한 텍스트정보{제3텍스트정보(c), 제4텍스트정보(d)}를 제공함으로써, 키워드 정보를 기초로 한 컨텐츠 추출 이전에 해당 사용자의 음성 인식 상태를 전달하여 사용자의 발음이 어떻게 인식되었는지를 보여줌으로써 사용자가 잘못 인식된 구간을 인식하고 해당 구간에서 정확한 발음을 하도록 유도한다. 나아가, 정보전달부(310)는 사용자가 정확한 발음을 구사하지 못하는 경우(예: 사투리를 쓰는 사람이거나 외국인인 경우), 텍스트정보{제6텍스트정보(f)}를 통해 해당 서비스에 대한 대체 단어 예컨대, 아라비아 숫자 또는 발음이 쉬운 대체 문장을 제시함으로써 사용자의 음성 재입력을 유도할 수 있다.
이하에서는, 도 4를 참조하여, 본 발명의 실시예에 따른 화면서비스장치(400)의 구체적인 구성을 설명하도록 한다.
즉, 화면서비스장치(400)는 단말장치(100)에 대한 음성인식 서비스 제공을 위해 구동메시지를 전송하여 상기 단말장치(410)에 내장된 서비스어플리케이션을 구동시키는 단말구동부(410); 상기 음성인식 서비스 제공에 따라 지정된 단계별로 상기 단말장치(100)에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하고, 획득된 텍스트정보가 포함되도록 화면컨텐츠를 구성하는 컨텐츠구성부(420); 및 구성된 화면컨텐츠를 단말장치(100)에 제공하는 컨텐츠제공부(430)를 포함하는 구성을 갖는다.
단말구동부(410)는 단말장치(100)에 내장된 서비스어플리케이션을 구동하여 접속을 유도한다.
바람직하게는, 단말구동부(410)는 단말장치(100)의 음성인식 서비스 요청을 수신한 음성응답장치(200)로부터 단말장치(100)에 대한 서비스 가능 여부 조회 요청이 수신될 경우, 데이터베이스 조회를 통해 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스 어플리케이션이 내장된 단말장치임을 확인하게 된다. 아울러, 단말구동부(410)는 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스 어플리케이션이 내장된이 확인될 경우, 단말장치(100)에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 생성하여 단말장치(100)에 전송함으로써 무선인터넷 즉, 패킷망을 통한 단말장치(100)의 접속을 유도하게 된다.
컨텐츠구성부(420)는 단말장치(100)에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하여 화면컨텐츠를 구성한다.
보다 구체적으로, 컨텐츠구성부(420)는 상기 단말장치(100)에 대한 음성인식 서비스 제공에 따라, 음성인식장치(300)로부터 지정된 단계별로 생성된 음성정보에 대응하는 텍스트정보 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성 안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)를 수신하게 된다. 나아가, 화면서비스장치(400)는 단말장치(100)에 내장된 서비스어플리케이션에 지정된 포맷에 따라 음성인식장치(300)로부터 수신된 텍스트정보가 포함되도록 화면컨텐츠를 구성한다.
컨텐츠제공부(430)는 지정된 단계별로 구성되는 화면컨텐츠를 단말장치(100)에 제공한다.
보다 구체적으로, 컨텐츠제공부(430)는 음성인식 서비스 제공 과정에서 지정된 단계별로 구성되는 상기 화면컨텐츠를 단말장치(100)에 제공함으로써, 화면컨텐츠에 포함된 텍스트정보가 단말장치(100)에서 수신중인 해당 음성정보에 동기되어 예컨대, 채팅 창 방식과 같이 연속적으로 표시될 수 있도록 한다.
이상에서 살펴본 바와 같이, 본 발명에 따른 음성인식 부가 서비스 제공 시스템에 따르면, 음성인식 서비스 제공 시, 각각의 상황에서 이용이 예상되는 서비스의 제시어를 음성이 아닌 화면으로 제공하고 이용 가능한 기능들을 화면으로 제시함으로써, 음성으로 항상 알려줄 수 없는 서비스의 기능을 최대한 활용할 수 있다. 또한, 서비스 제시어 및 이용 가능한 기능들에 대한 화면을 제공하며 제공된 화면의 인지를 통한 사용자의 음성 입력을 유도함으로써 입력된 음성에 대한 키워드 인식률을 향상시킬 수 있다. 아울러, 사용자에게 제공되는 음성 안내 및 사용자로부터 입력된 키워드 모두를 채팅 창 방식으로 제공하여 음성안내에 의존하지 않고 화면만을 보면서 신속하게 서비스를 이용할 수 있으며, 서비스 이용에 따른 이해도 및 편의성을 향상시킬 수 있다.
이하에서는, 도 7 내지 도 10을 참조하여, 본 발명의 실시예에 따른 음성인식 부가 서비스 제공 방법을 설명하기로 한다. 여기서, 전술한 도 1 내지 도 6에 도시된 구성은 설명의 편의를 위해 해당 참조번호를 언급하여 설명하기로 한다.
우선, 도 7을 참조하여 본 발명의 실시예에 따른 음성인식 부가 서비스 제공 시스템의 동작 방법을 설명하기로 한다.
먼저, 단말장치(100)가 음성응답장치(200)에 접속하여 음성인식 서비스를 요청한다(S110-S120).
바람직하게는, 단말장치(100)는 음성응답장치(200)에 대한 음성호 접속 이후, 음성응답장치(200)로부터의 제공되는 서비스 안내를 토대로 음성인식 서비스를 요청하게 된다.
그리고 나서, 화면서비스장치(400)가 단말장치(100)에 내장된 서비스어플리케이션을 구동하여 접속을 유도한다(S130-S160, S180).
바람직하게는, 화면서비스장치(400)는 단말장치(100)의 음성인식 서비스 요청을 수신한 음성응답장치(200)로부터 단말장치(100)에 대한 서비스 가능 여부 조회 요청이 수신될 경우, 데이터베이스 조회를 통해 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스 어플리케이션이 내장된 단말장치임을 확인하게 된다. 아울러, 화면서비스장치(400)는 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스 어플리케이션이 내장된이 확인될 경우, 단말장치(100)에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 생성하여 단말장치(100)에 전송함으로써 무선인터넷 즉, 패킷망을 통한 단말장치(100)의 접속을 유도하고, 이후 서비스 가능 여부 조회 결과를 음성응답장치(200)에 전달한다.
그런 다음, 단말장치(100)가 음성인식 서비스 이용 시, 음성정보에 대응하는 화면컨텐츠를 수신하기 위해 내장된 서비스어플리케이션을 구동한다(S170).
바람직하게는, 단말장치(100)는 상술한 음성인식 서비스 요청 이후, 화면서비스장치(400)로부터 수신되는 구동메시지 수신에 따라, 내장된 서비스어플리케이션을 구동함으로써, 음성인식장치(300)로부터 제공되는 음성정보 이외에 추가로 제공되는 화면컨텐츠를 수신하기 위해 화면서비스장치(400)에 접속하게 된다.
다음으로, 음성인식장치(300)가 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보 및 텍스트정보를 생성한다(S200).
보다 구체적으로, 음성인식장치(300)는 음성응답장치(200)로부터 단말장치(100)에 대한 음성호를 전달받아 음성인식 서비스를 제공하게 되며, 이 과정에서 지정된 단계별로 음성정보를 생성한다. 이때, 음성인식장치(300)에서 생성되는 음성정보의 경우, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어, 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성 안내가 해당될 수 있다. 또한, 음성인식장치(300)는 상술한 바와 같이 음성인식 서비스 과정에서 음성정보가 생성될 경우, 생성되는 음성정보 각각과 동일한 문장의 텍스트정보를 생성하게 된다. 이때, 음성인식장치(300)에서 생성되는 텍스트정보의 경우, 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성 안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)가 포함될 수 있다.
그리고 나서, 음성인식장치(300)가 생성된 음성정보 및 텍스트정보를 전달한다(S210-S220).
바람직하게는, 음성인식장치(300)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하여 생성된 음성정보를 음성응답장치(200)에 제공하여 재생을 요청함과 아울러, 생성된 텍스트정보를 화면서비스장치(200)로 제공하여 텍스트정보를 포함하는 화면컨텐츠가 단말장치(100)에 전달될 수 있도록 한다.
그런 다음, 화면서비스장치(400)가 단말장치(100)에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하여 화면컨텐츠를 구성한다(S230).
바람직하게는, 화면서비스장치(400)는 상기 단말장치(100)에 대한 음성인식 서비스 제공에 따라, 음성인식장치(300)로부터 지정된 단계별로 생성된 음성정보에 대응하는 텍스트정보를 수신하고, 단말장치(100)에 내장된 서비스어플리케이션에 지정된 포맷에 따라 음성인식장치(300)로부터 수신된 텍스트정보가 포함되도록 화면컨텐츠를 구성한다.
다음으로, 음성응답장치(200)가 음성정보를 단말장치(100)에 전달함과 아울러, 화면서비스장치(400)가 화면컨텐츠를 단말장치(100)에 제공한다(S240-S260).
바람직하게는, 음성응답장치(200)는 음성인식장치(300)로부터 전달된 음성정보의 재생을 통해 해당 음성정보가 단말장치(100)에 전달되도록 하며, 이와 동시에 화면서비스장치(400)는 음성인식 서비스 제공 과정에서 지정된 단계별로 구성되는 상기 화면컨텐츠를 단말장치(100)에 제공한다.
이후, 단말장치(100)가 화면컨텐츠에 포함된 텍스트정보를 표시한다(S270).
보다 구체적으로, 단말장치(100)는 지정된 단계별로 음성응답장치(200)를 통해 재생되는 음성정보를 수신함과 아울러, 화면서비스장치(300)로부터 수신되는 화면컨텐츠에 포함된 텍스트정보를 동시에 표시하게 된다. 이때, 단말장치(100)는 지정된 단계에 대응하여 화면서비스장치(400)로부터 새롭게 수신되는 텍스트정보를 표시함에 있어서, 도 5 및 도 6에 도시한 바와 같이 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 채팅 창 방식을 적용하게 된다. 즉, 단말장치(100)는 상술한 채팅 창 방식의 텍스트정보 표시 형태를 적용함으로써, 사용자로 하여금 스크롤 업다운을 통해 기존 디스플레이 항목에 대한 검색을 용이하게 하여 서비스 이해도를 높을 수 있으며, 특히, 음성정보가 서킷(Circuit)망을 통해 전달되는 환경에서 서킷(Circuit)망을 통해 전달되는 음성정보와 패킷(Paket)망을 통해 전달되는 화면컨텐츠는 정확히 일치할지 않기 때문에 수신되는 음성정보와 텍스트정보가 불일치할 경우, 사용자로 하여금 스크롤 업/다운을 통해 현재 수신되는 음성이 화면의 어느 시점에 표시되고 있는지를 직관적이고 용이하게 판단할 수 있도록 한다.
이하에서는, 도 8을 참조하여 본 발명의 실시예에 따른 단말장치(100)의 동작 방법을 설명하기로 한다.
먼저, 음성응답장치(200)에 접속하여 음성인식 서비스를 요청한다(S310-S320).
바람직하게는, 음성처리부(110)는 음성응답장치(200)에 대한 음성호 접속 이후, 음성응답장치(200)로부터의 제공되는 서비스 안내를 토대로 음성인식 서비스를 요청하게 된다. 이와 관련하여, 음성응답장치(200)는 화면서비스장치(400)를 통해 단말장치(100)에 대한 서비스 가능 여부 조회함으로써, 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스 어플리케이션이 내장된 단말장치임을 확인하게 된다.
그리고 나서, 음성인식 서비스 이용 과정에서 추가 제공되는 화면컨텐츠를 수신하기 위해 화면서비스장치에 접속한다(S330-S340).
바람직하게는, 화면처리부(120)는 음성인식 서비스 요청 이후, 화면서비스장치(400)로부터 전송되는 구동메시지에 수신에 따라 인보크(Invoke)되어, 음성인식장치(300)로부터 제공되는 음성정보에 대응하는 화면컨텐츠를 수신하기 위해 화면서비스장치(400)에 접속하게 된다.
그런 다음, 음성인식 서비스 이용에 따른 음성정보를 수신한다(S350).
바람직하게는, 음성처리부(110)는 음성인식 서비스 접속에 따라 지정된 단계에 대응하도록 음성인식장치(300)에서 생성된 음성정보를 음성응답장치(200)에 통해 수신하게 된다. 이때, 음성응답장치(200)를 통해 수신되는 음성정보의 경우, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어, 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성 안내가 해당될 수 있다.
아울러, 수신되는 음성정보에 대응하는 화면컨텐츠를 획득한다(S360).
바람직하게는, 화면처리부(120)는 지정된 단계별로 음성응답장치(200)를 통해 수신되는 각각의 음성정보에 동기화된 텍스트정보를 포함하는 화면컨텐츠를 화면서비스장치(400)로부터 수신하게 된다. 이때, 화면서비스장치(400)로부터 수신되는 화면컨텐츠의 경우, 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성 안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)가 포함될 수 있다.
이후, 화면컨텐츠에 포함된 텍스트정보를 표시한다(S370).
바람직하게는, 화면처리부(120)는 지정된 단계별로 음성응답장치(200)를 통해 재생되는 음성정보를 수신함과 아울러, 화면서비스장치(300)로부터 수신되는 화면컨텐츠에 포함된 텍스트정보를 동시에 표시하게 된다. 이때, 화면처리부(120)는 지정된 단계에 대응하여 화면서비스장치(400)로부터 새롭게 수신되는 텍스트정보를 표시함에 있어서, 도 5 및 도 6에 도시한 바와 같이 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 채팅 창 방식을 적용하게 된다. 즉, 화면처리부(120)는 상술한 채팅 창 방식의 텍스트정보 표시 형태를 적용함으로써, 사용자로 하여금 스크롤 업다운을 통해 기존 디스플레이 항목에 대한 검색을 용이하게 하여 서비스 이해도를 높을 수 있으며, 특히, 음성정보가 서킷(Circuit)망을 통해 전달되는 환경에서 서킷(Circuit)망을 통해 전달되는 음성정보와 패킷(Paket)망을 통해 전달되는 화면컨텐츠는 정확히 일치할지 않기 때문에 수신되는 음성정보와 텍스트정보가 불일치할 경우, 사용자로 하여금 스크롤 업/다운을 통해 현재 수신되는 음성이 화면의 어느 시점에 표시되고 있는지를 직관적이고 용이하게 판단할 수 있도록 한다.
이하에서는, 도 9를 참조하여 본 발명의 실시예에 따른 음성인식장치(300)의 동작 방법을 설명하기로 한다.
먼저, 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보를 생성한다(S410-S440).
바람직하게는, 정보처리부(310)는 음성응답장치(200)로부터 단말장치(100)에 대한 음성호를 전달받아 음성인식 서비스를 제공하게 되며, 이 과정에서 지정된 단계별로 음성정보를 생성한다. 이때, 정보처리부(310)는 지정된 단계별로, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어를 생성할 수 있다. 한편, 상기 음성 제시어를 기초로 한 사용자의 음성이 입력될 경우, 정보처리부(310)는 예컨대, 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성 안내를 생성할 수 있다.
그리고 나서, 지정된 단계별로 생성되는 음성정보에 대응하는 텍스트정보를 생성한다(S450).
바람직하게는, 정보처리부(310)는 상술한 바와 같이 음성인식 서비스 과정에서 음성정보가 생성될 경우, 생성되는 음성정보 각각과 동일한 문장의 텍스트정보를 생성하게 된다. 이때, 정보처리부(310)는 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성 안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)를 생성할 수 있다.
이후, 생성된 음성정보 및 텍스트정보를 단말장치(100)에 전달한다(S460).
바람직하게는, 정보처리부(310)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하여 생성된 음성정보를 음성응답장치(200)에 전달하여 재생을 요청함으로써, 해당 음성정보를 단말장치(100)에 제공하게 된다. 아울러, 정보전달부(310)는 정보처리부(310)로부터 음성정보에 대응하여 생성된 텍스트정보를 전달받아 화면서비스장치(200)로 제공하며, 이를 통해 제공된 텍스트정보를 포함하는 화면컨텐츠가 단말장치(100)에 전달될 수 있도록 함으로써, 전달된 텍스트정보가 상기 단말장치(100)에 제공되는 해당 음성정보에 동기되어 예컨대, 채팅 창 방식과 같이 연속적으로 표시될 수 있도록 한다. 예컨대, 정보전달부(310)는 음성인식 서비스 과정에서 제공되는 음성정보 이외의 텍스트정보{제1텍스트정보(a), 제2텍스트정보(b)}를 부가 제공하여 사용자로부터 정확한 발음의 음성 입력을 유도함으로써, 키워드 인식률을 향상시킬 수 있다. 또한, 정보전달부(310)는 사용자의 음성인식 결과에 해당하는 키워드 정보의 확인을 위한 텍스트정보{제3텍스트정보(c), 제4텍스트정보(d)}를 제공함으로써, 키워드 정보를 기초로 한 컨텐츠 추출 이전에 해당 사용자의 음성 인식 상태를 전달하여 사용자의 발음이 어떻게 인식되었는지를 보여줌으로써 사용자가 잘못 인식된 구간을 인식하고 해당 구간에서 정확한 발음을 하도록 유도한다. 나아가, 정보전달부(310)는 사용자가 정확한 발음을 구사하지 못하는 경우(예: 사투리를 쓰는 사람이거나 외국인인 경우), 텍스트정보{제6텍스트정보(f)}를 통해 해당 서비스에 대한 대체 단어 예컨대, 아라비아 숫자 또는 발음이 쉬운 대체 문장을 제시함으로써 사용자의 음성 재입력을 유도할 수 있다.
이하에서는, 도 10을 참조하여 본 발명의 실시예에 따른 화면서비스장치(400)의 동작 방법을 설명하기로 한다.
먼저, 단말장치(100)에 내장된 서비스어플리케이션을 구동하여 접속을 유도한다(S510-S520).
바람직하게는, 단말구동부(410)는 단말장치(100)의 음성인식 서비스 요청을 수신한 음성응답장치(200)로부터 단말장치(100)에 대한 서비스 가능 여부 조회 요청이 수신될 경우, 데이터베이스 조회를 통해 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스 어플리케이션이 내장된 단말장치임을 확인하게 된다. 아울러, 단말구동부(410)는 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스 어플리케이션이 내장된이 확인될 경우, 단말장치(100)에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 생성하여 단말장치(100)에 전송함으로써 무선인터넷 즉, 패킷망을 통한 단말장치(100)의 접속을 유도하게 된다.
그리고 나서, 단말장치(100)에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하여 화면컨텐츠를 구성한다(S530-S540).
바람직하게는, 컨텐츠구성부(420)는 상기 단말장치(100)에 대한 음성인식 서비스 제공에 따라, 음성인식장치(300)로부터 지정된 단계별로 생성된 음성정보에 대응하는 텍스트정보 예컨대, 음성인식 서비스를 안내하기 위한 음성 안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성 안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)를 수신하게 된다. 나아가, 화면서비스장치(400)는 단말장치(100)에 내장된 서비스어플리케이션에 지정된 포맷에 따라 음성인식장치(300)로부터 수신된 텍스트정보가 포함되도록 화면컨텐츠를 구성한다.
이후, 지정된 단계별로 구성되는 화면컨텐츠를 단말장치(100)에 제공한다(S550).
바람직하게는, 컨텐츠제공부(430)는 음성인식 서비스 제공 과정에서 지정된 단계별로 구성되는 상기 화면컨텐츠를 단말장치(100)에 제공함으로써, 화면컨텐츠에 포함된 텍스트정보가 단말장치(100)에서 수신중인 해당 음성정보에 동기되어 예컨대, 채팅 창 방식과 같이 연속적으로 표시될 수 있도록 한다.
이상에서 살펴본 바와 같이, 본 발명에 따른 음성인식 부가 서비스 제공 방법에 따르면, 음성인식 서비스 제공 시, 각각의 상황에서 이용이 예상되는 서비스의 제시어를 음성이 아닌 화면으로 제공하고 이용 가능한 기능들을 화면으로 제시함으로써, 음성으로 항상 알려줄 수 없는 서비스의 기능을 최대한 활용할 수 있다. 또한, 서비스 제시어 및 이용 가능한 기능들에 대한 화면을 제공하며 제공된 화면의 인지를 통한 사용자의 음성 입력을 유도함으로써 입력된 음성에 대한 키워드 인식률을 향상시킬 수 있다. 아울러, 사용자에게 제공되는 음성 안내 및 사용자로부터 입력된 키워드 모두를 채팅 창 방식으로 제공하여 음성안내에 의존하지 않고 화면만을 보면서 신속하게 서비스를 이용할 수 있으며, 서비스 이용에 따른 이해도 및 편의성을 향상시킬 수 있다.
한편, 여기에 제시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
지금까지 본 발명을 바람직한 실시 예를 참조하여 상세히 설명하였지만, 본 발명이 상기한 실시 예에 한정되는 것은 아니며, 이하의 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 또는 수정이 가능한 범위까지 본 발명의 기술적 사상이 미친다 할 것이다.
본 발명에 따른 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치에 따르면, 음성인식 서비스와 관련하여 각각의 상황에서 이용이 예상되는 서비스의 제시어 및 이용 가능한 기능들에 대한 화면 제공을 통해 사용자의 음성 입력을 유도함과 아울러, 사용자에게 제공되는 음성 안내 및 사용자로부터 입력된 키워드 모두를 채팅 창 방식으로 순차 제공한다는 점에서 기존 기술의 한계를 뛰어 넘음에 따라 관련 기술에 대한 이용만이 아닌 적용되는 장치의 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있는 발명이다.
100: 단말장치
110: 음성처리부 120: 화면처리부
200: 음성응답장치(서버)
300: 음성인식장치(서버)
310: 정보처리부 320: 정보전달부
400: 화면서비스장치(서버)
410: 단말구동부 420: 컨텐츠구성부
430: 컨텐츠제공부

Claims (16)

  1. 단말장치에 대한 음성인식 서비스 제공을 위해 구동메시지를 전송하여 상기 단말장치에 내장된 서비스어플리케이션을 구동시키는 단말구동부;
    상기 음성인식 서비스 제공에 따라 지정된 단계별로 상기 단말장치에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하고, 상기 서비스어플리케이션에 지정된 포맷에 따라 상기 획득된 텍스트정보가 포함되도록 화면컨텐츠를 구성하는 컨텐츠구성부; 및
    상기 지정된 단계별로 구성되는 상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 대해 전달되는 해당 음성정보에 동기되어 연속 표시되도록 하는 컨텐츠제공부를 포함하는 것을 특징으로 하는 화면서비스장치.
  2. 단말장치에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보를 생성하여 상기 단말장치에 제공하며, 상기 생성된 음성정보에 대응하는 텍스트정보를 생성하는 정보처리부; 및
    상기 지정된 단계별로 생성되는 상기 텍스트정보를 상기 단말장치에 전달하여, 상기 전달된 텍스트정보가 상기 단말장치에 제공되는 해당 음성정보에 동기되어 연속 표시되도록 하는 정보전달부를 포함하는 것을 특징으로 하는 음성인식장치.
  3. 제 2 항에 있어서,
    상기 정보처리부는,
    상기 음성인식 서비스를 안내하기 위한 음성 안내, 및 사용자의 음성 입력을 유도하기 위한 음성 제시어 중 적어도 하나에 해당하는 음성정보 및 텍스트정보를 동시 생성하는 것을 특징으로 하는 음성인식장치.
  4. 제 3 항에 있어서,
    상기 정보처리부는,
    상기 단말장치로부터 상기 음성 제시어를 기초로 한 사용자의 음성이 전달될 경우, 음성인식 결과에 해당하는 키워드 정보를 추출하고, 상기 추출된 키워드 정보에 대응하는 텍스트정보를 생성하는 것을 특징으로 하는 음성인식장치.
  5. 제 4 항에 있어서,
    상기 정보처리부는,
    상기 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 해당하는 상기 음성정보 및 텍스트정보를 동시 생성하는 것을 특징으로 하는 음성인식장치.
  6. 제 4 항 또는 제 5 항에 있어서,
    상기 정보처리부는,
    상기 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 해당하는 음성정보 및 텍스트정보를 동시 생성하는 것을 특징으로 하는 음성인식장치.
  7. 제 4 항 또는 제 5 항에 있어서,
    상기 정보처리부는,
    상기 추출된 키워드 정보를 기초로 특정 컨텐츠를 획득하여, 획득된 상기 특정 컨텐츠에 해당하는 음성정보 및 텍스트정보를 생성하는 것을 특징으로 하는 음성인식장치.
  8. 제 2 항에 있어서,
    상기 정보처리부는,
    상기 텍스트정보에 대한 상기 단말장치로의 전달 시점이 확인될 경우, 상기 확인된 전달 시점에 대응하여 상기 음성정보를 상기 단말장치에 제공하거나, 기 제공된 상기 음성정보에 대한 별도의 재생 요청을 전달하는 것을 특징으로 하는 음성인식장치.
  9. 음성인식 서비스 접속에 따라 지정된 단계에 대응하는 음성정보를 수신하는 음성처리부; 및
    상기 지정된 단계별로 수신되는 음성정보에 동기화된 텍스트정보를 포함하는 화면켄텐츠를 획득하여, 상기 음성정보의 수신에 따라 상기 화면컨텐츠에 포함된 텍스트정보를 표시하는 화면처리부를 포함하는 것을 특징으로 하는 단말장치.
  10. 제 9 항에 있어서,
    상기 화면처리부는,
    상기 지정된 단계에 대응하여 새로운 텍스트정보가 획득될 경우, 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 것을 특징으로 하는 단말장치.
  11. 단말장치에 대한 음성인식 서비스 제공을 위해 구동메시지를 전송하여 상기 단말장치에 내장된 서비스어플리케이션을 구동시키는 단말구동단계;
    상기 음성인식 서비스 제공에 따라 지정된 단계별로 상기 단말장치에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하는 텍스트정보획득단계;
    상기 서비스어플리케이션에 지정된 포맷에 따라 상기 획득된 텍스트정보가 포함되도록 화면컨텐츠를 구성하는 컨텐츠구성단계; 및
    상기 지정된 단계별로 구성되는 상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 대해 전달되는 해당 음성정보에 동기되어 연속 표시되도록 하는 컨텐츠제공단계를 포함하는 것을 특징으로 하는 화면서비스장치의 동작 방법.
  12. 단말장치에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보 및 상기 음성정보에 대응하는 텍스트정보를 생성하는 정보생성단계;
    상기 지정된 단계에 대응하여 생성된 상기 음성정보를 단말장치에 제공하는 음성정보제공단계; 및
    상기 음성정보의 제공과 동시에 상기 생성된 텍스트정보를 상기 단말장치에 전달하여, 상기 전달된 텍스트정보가 상기 단말장치에 제공되는 해당 음성정보에 동기되어 연속 표시되도록 하는 텍스트정보전달단계를 포함하는 것을 특징으로 하는 음성인식장치의 동작 방법.
  13. 음성인식 서비스 접속에 따라 지정된 단계에 대응하는 음성정보를 수신하는 음성정보수신단계;
    상기 지정된 단계별로 수신되는 음성정보에 동기화된 텍스트정보를 포함하는 화면켄텐츠를 획득하는 정보획득단계; 및
    상기 음성정보의 수신에 따라 상기 화면컨텐츠에 포함된 텍스트정보를 표시하는 화면처리단계를 포함하는 것을 특징으로 하는 단말장치의 동작 방법.
  14. 제 13 항에 있어서,
    상기 화면처리단계는,
    상기 지정된 단계에 대응하여 새로운 텍스트정보가 획득될 경우, 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 것을 특징으로 하는 단말장치의 동작 방법.
  15. 음성인식 서비스 접속에 따라 지정된 단계에 대응하는 음성정보를 수신하는 음성정보수신단계;
    상기 지정된 단계별로 수신되는 음성정보에 동기화된 텍스트정보를 포함하는 화면켄텐츠를 획득하는 정보획득단계; 및
    상기 음성정보의 수신에 따라 상기 화면컨텐츠에 포함된 텍스트정보를 표시하는 화면처리단계를 실행하기 위한 명령어를 포함하는 것을 특징으로 하는 컴퓨터 판독 가능 기록매체.
  16. 제 15 항에 있어서,
    상기 화면처리단계는,
    상기 지정된 단계에 대응하여 새로운 텍스트정보가 획득될 경우, 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 것을 특징으로 하는 컴퓨터 판독 가능 기록매체.
KR1020110123192A 2011-11-23 2011-11-23 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치 KR20130057338A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020110123192A KR20130057338A (ko) 2011-11-23 2011-11-23 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치
US14/360,348 US20140324424A1 (en) 2011-11-23 2012-11-15 Method for providing a supplementary voice recognition service and apparatus applied to same
PCT/KR2012/009639 WO2013077589A1 (ko) 2011-11-23 2012-11-15 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치
JP2014543410A JP2015503119A (ja) 2011-11-23 2012-11-15 音声認識付加サービス提供方法及びこれに適用される装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110123192A KR20130057338A (ko) 2011-11-23 2011-11-23 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치

Publications (1)

Publication Number Publication Date
KR20130057338A true KR20130057338A (ko) 2013-05-31

Family

ID=48469989

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110123192A KR20130057338A (ko) 2011-11-23 2011-11-23 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치

Country Status (4)

Country Link
US (1) US20140324424A1 (ko)
JP (1) JP2015503119A (ko)
KR (1) KR20130057338A (ko)
WO (1) WO2013077589A1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014204084A1 (ko) * 2013-06-19 2014-12-24 Kim Yong Jin 어플리케이션 공유 서비스 방법 및 이에 적용되는 장치
KR20160059026A (ko) * 2014-11-17 2016-05-26 주식회사 엘지유플러스 이동통신단말기의 음성메모에 기초한 이벤트실행 시스템, 그 단말기 제어서버 및 이동통신단말기 제어방법, 이동통신단말기 및 어플리케이션 실행방법
KR20200033245A (ko) * 2013-12-27 2020-03-27 삼성전자주식회사 디스플레이 장치, 서버 장치 및 이들을 포함하는 디스플레이 시스템과 그 컨텐츠 제공 방법들
WO2020159140A1 (ko) * 2019-02-01 2020-08-06 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR20210135471A (ko) * 2020-03-17 2021-11-15 삼성전자주식회사 디스플레이 장치, 서버 장치 및 이들을 포함하는 디스플레이 시스템과 그 컨텐츠 제공 방법들
US11922127B2 (en) 2020-05-22 2024-03-05 Samsung Electronics Co., Ltd. Method for outputting text in artificial intelligence virtual assistant service and electronic device for supporting the same

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110067059A1 (en) * 2009-09-15 2011-03-17 At&T Intellectual Property I, L.P. Media control
US9020920B1 (en) * 2012-12-07 2015-04-28 Noble Systems Corporation Identifying information resources for contact center agents based on analytics
JP6356779B2 (ja) * 2014-02-19 2018-07-11 帝人株式会社 情報処理装置および情報処理方法
US10275522B1 (en) * 2015-06-11 2019-04-30 State Farm Mutual Automobile Insurance Company Speech recognition for providing assistance during customer interaction
CN107656965B (zh) * 2017-08-22 2021-10-15 北京京东尚科信息技术有限公司 订单查询的方法和装置
JP7072584B2 (ja) * 2017-12-14 2022-05-20 Line株式会社 プログラム、情報処理方法、及び情報処理装置
KR102449630B1 (ko) * 2017-12-26 2022-09-30 삼성전자주식회사 전자 장치 및 이의 제어 방법
WO2019142418A1 (ja) * 2018-01-22 2019-07-25 ソニー株式会社 情報処理装置および情報処理方法
KR102342715B1 (ko) * 2019-09-06 2021-12-23 주식회사 엘지유플러스 음성인식에 기반한 부가 서비스 제공 시스템 및 그 방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6694297B2 (en) * 2000-03-30 2004-02-17 Fujitsu Limited Text information read-out device and music/voice reproduction device incorporating the same
US6504910B1 (en) * 2001-06-07 2003-01-07 Robert Engelke Voice and text transmission system
US20030171926A1 (en) * 2002-03-07 2003-09-11 Narasimha Suresh System for information storage, retrieval and voice based content search and methods thereof
US7177815B2 (en) * 2002-07-05 2007-02-13 At&T Corp. System and method of context-sensitive help for multi-modal dialog systems
US20060206339A1 (en) * 2005-03-11 2006-09-14 Silvera Marja M System and method for voice-enabled media content selection on mobile devices
US20070271104A1 (en) * 2006-05-19 2007-11-22 Mckay Martin Streaming speech with synchronized highlighting generated by a server
JP5046589B2 (ja) * 2006-09-05 2012-10-10 日本電気通信システム株式会社 電話システムと通話補助方法とプログラム
KR100832534B1 (ko) * 2006-09-28 2008-05-27 한국전자통신연구원 음성 인식을 통한 컨텐츠 정보 서비스 제공 장치 및 그방법
US8000969B2 (en) * 2006-12-19 2011-08-16 Nuance Communications, Inc. Inferring switching conditions for switching between modalities in a speech application environment extended for interactive text exchanges
US8125988B1 (en) * 2007-06-04 2012-02-28 Rangecast Technologies Llc Network audio terminal and method
US20110211679A1 (en) * 2010-02-26 2011-09-01 Vladimir Mezhibovsky Voice Response Processing

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014204084A1 (ko) * 2013-06-19 2014-12-24 Kim Yong Jin 어플리케이션 공유 서비스 방법 및 이에 적용되는 장치
CN105453126A (zh) * 2013-06-19 2016-03-30 金容振 应用程序共享服务方法和应用于该服务方法的装置
KR20200033245A (ko) * 2013-12-27 2020-03-27 삼성전자주식회사 디스플레이 장치, 서버 장치 및 이들을 포함하는 디스플레이 시스템과 그 컨텐츠 제공 방법들
KR20160059026A (ko) * 2014-11-17 2016-05-26 주식회사 엘지유플러스 이동통신단말기의 음성메모에 기초한 이벤트실행 시스템, 그 단말기 제어서버 및 이동통신단말기 제어방법, 이동통신단말기 및 어플리케이션 실행방법
WO2020159140A1 (ko) * 2019-02-01 2020-08-06 삼성전자주식회사 전자 장치 및 이의 제어 방법
US11893813B2 (en) 2019-02-01 2024-02-06 Samsung Electronics Co., Ltd. Electronic device and control method therefor
KR20210135471A (ko) * 2020-03-17 2021-11-15 삼성전자주식회사 디스플레이 장치, 서버 장치 및 이들을 포함하는 디스플레이 시스템과 그 컨텐츠 제공 방법들
US11922127B2 (en) 2020-05-22 2024-03-05 Samsung Electronics Co., Ltd. Method for outputting text in artificial intelligence virtual assistant service and electronic device for supporting the same

Also Published As

Publication number Publication date
JP2015503119A (ja) 2015-01-29
WO2013077589A1 (ko) 2013-05-30
US20140324424A1 (en) 2014-10-30

Similar Documents

Publication Publication Date Title
KR20130057338A (ko) 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치
US11562742B2 (en) Generating and transmitting invocation request to appropriate third-party agent
US10817673B2 (en) Translating languages
EP3594814B1 (en) Automated assistant invocation of appropriate agent
US10586541B2 (en) Communicating metadata that identifies a current speaker
CN107112016B (zh) 多模态状态循环
US7680816B2 (en) Method, system, and computer program product providing for multimodal content management
US11749276B2 (en) Voice assistant-enabled web application or web page
US9916128B2 (en) Visual and voice co-browsing framework
KR20190121876A (ko) 제안되는 보이스 기반의 액션 쿼리들을 제공
JP2014534505A (ja) ネットワークベースのカスタム辞書、自動修正およびテキスト入力嗜好
US20140156256A1 (en) Interface device for processing voice of user and method thereof
KR20130089501A (ko) 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치
KR20150106614A (ko) 메신저 서비스 시스템, 그 시스템에서의 오탈자 수정을 위한 메신저 서비스 방법 및 장치
KR20160050723A (ko) 문장 및 명령어의 출력 방법 및 그 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application