KR20130089501A - 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치 - Google Patents

음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치 Download PDF

Info

Publication number
KR20130089501A
KR20130089501A KR1020120010924A KR20120010924A KR20130089501A KR 20130089501 A KR20130089501 A KR 20130089501A KR 1020120010924 A KR1020120010924 A KR 1020120010924A KR 20120010924 A KR20120010924 A KR 20120010924A KR 20130089501 A KR20130089501 A KR 20130089501A
Authority
KR
South Korea
Prior art keywords
voice
content
screen
terminal device
information
Prior art date
Application number
KR1020120010924A
Other languages
English (en)
Inventor
김용진
Original Assignee
김용진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김용진 filed Critical 김용진
Priority to KR1020120010924A priority Critical patent/KR20130089501A/ko
Publication of KR20130089501A publication Critical patent/KR20130089501A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4936Speech interaction details

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치를 개시한다. 즉, 기 제공된 화면컨텐츠를 기초로 한 단말장치의 컨텐츠 요청에 따라, 상기 요청된 컨텐츠에 대응하는 텍스트정보를 획득하고, 상기 획득된 텍스트정보를 기초로 화면컨텐츠를 구성하는 컨텐츠구성부; 및 상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 제공된 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 표시되도록 하는 컨텐츠제공부를 포함하며, 상기 컨텐츠제공부는, 상기 획득된 텍스트정보에 매핑되는 음성정보가 존재할 경우, 상기 음성정보에 대한 상기 단말장치로의 전달 시점을 확인하고, 확인된 전달 시점을 기초로 상기 화면컨텐츠를 제공하여 상기 화면컨텐츠에 포함된 텍스트정보가 상기 음성정보에 동기되어 표시되도록 함으로써, 음성인식 서비스 제공 시, 각각의 상황에서 이용이 예상되는 서비스의 제시어를 음성이 아닌 화면으로 제공하고 이용 가능한 기능들을 화면으로 제시함으로써, 음성으로 항상 알려줄 수 없는 서비스의 기능을 최대한 활용할 수 있다.

Description

음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치{METHOD AND APPARATUS FOR PROVIDING VOICE VALUE ADDED SERVICE}
본 발명은 음성인식 부가 서비스 제공 방안에 관한 것으로, 더욱 상세하게는, 음성인식 서비스와 관련하여 각각의 상황에서 이용이 예상되는 서비스의 제시어 및 이용 가능한 기능들에 대한 화면 제공을 통해 서비스 선택을 유도하기 위한 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치에 관한 것이다.
통상적으로 콜 센터에서 제공하는 음성인식 서비스는 고객이 말하는 키워드를 기준으로 원하는 정보를 음성으로 찾아주는 서비스를 지칭하는 것으로서, 사용자에게 음성으로 제시어를 제공하고, 제공된 제시어에 기반한 사용자의 음성을 입력받아 키워드 인식을 통해 해당하는 서비스를 제공하게 된다.
그러나, 기존 음성인식 서비스의 경우, 고객이 원하는 서비스에 대한 단어가 정확히 언급되지 않을 경우, 서비스 이용이 원활하지 못하게 되는 문제가 있다.
즉, 기존 음성인식 서비스는 음성으로 제시어를 제공하고 있으나 시간 제약상 음성으로 제공할 수 있는 단어의 수는 한정되게 되며, 이로 인해 사용자는 서비스 이용을 위해 언급해야 할 키워드를 정확하게 인지하지 못하게 되어 서비스 이용을 중간에 포기하는 상황이 발생될 수 있다.
본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명에서 도달하고자 하는 목적은, 음성인식 서비스와 관련하여 각각의 상황에서 이용이 예상되는 서비스의 제시어 및 이용 가능한 기능들에 대한 화면 제공을 통해 서비스 선택을 유도함으로써, 사용자 편의성 및 키워드 인식률을 향상시키고, 음성인식이 잘 되지 않거나 음성인식 서비스를 진행하기 어려운 상황에서도 서비스 제시어 및 이용 가능한 기능들을 화면상에서 바로 선택하여 원하는 정보를 편리하게 선택하여 이용할 수 있도록 하는데 있다.
상기 목적을 달성하기 위한 본 발명의 제 1 관점에 따른 화면서비스장치는, 기 제공된 화면컨텐츠를 기초로 한 단말장치의 컨텐츠 요청에 따라, 상기 요청된 컨텐츠에 대응하는 텍스트정보를 획득하고, 상기 획득된 텍스트정보를 기초로 화면컨텐츠를 구성하는 컨텐츠구성부; 및 상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 제공된 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 표시되도록 하는 컨텐츠제공부를 포함하며, 상기 컨텐츠제공부는, 상기 획득된 텍스트정보에 매핑되는 음성정보가 존재할 경우, 상기 음성정보에 대한 상기 단말장치로의 전달 시점을 조절하여 상기 화면컨텐츠에 포함된 텍스트정보가 상기 음성정보에 동기되어 표시되도록 하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 제 2 관점에 따른 음성인식장치는, 기 제공된 화면컨텐츠를 기초로 한 단말장치의 컨텐츠 요청에 따라, 상기 요청된 컨텐츠에 대응하는 텍스트정보를 생성하는 정보처리부; 및 상기 생성된 텍스트정보를 화면서비스장치에 전달하여, 상기 생성된 텍스트정보를 포함하는 화면컨텐츠가 상기 단말장치에 전달되도록 하는 정보전달부를 포함하며, 상기 정보처리부는, 상기 생성된 텍스트정보에 매핑되는 음성정보를 추가 생성하며, 상기 음성정보의 생성에 따라, 상기 화면컨텐츠에 대한 상기 단말장치로의 전달 시점을 확인하고, 확인된 전달 시점을 기초로 상기 음성정보를 제공하여 상기 화면컨텐츠에 포함된 텍스트정보에 상기 음성정보가 동기되어 재생되도록 하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 제 3 관점에 따른 화면서비스장치는, 음성인식을 위해 단말장치에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 전송하는 단말구동부; 상기 단말장치로부터 음성인식 결과에 해당하는 키워드를 기초로 한 음성인식 서비스 요청이 수신될 경우, 상기 키워드에 대응하는 텍스트정보를 획득하고, 획득된 텍스트정보가 포함되도록 화면컨텐츠를 구성하는 컨텐츠구성부; 및 상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 제공된 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 표시되도록 하는 컨텐츠제공부를 포함하며, 상기 컨텐츠제공부는, 상기 획득된 텍스트정보에 매핑되는 음성정보가 존재할 경우, 상기 음성정보에 대한 상기 단말장치로의 전달 시점을 조절하여 상기 화면컨텐츠에 포함된 텍스트정보가 상기 음성정보에 동기되어 표시되도록 하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 제 4 관점에 따른 화면서비스장치의 동작 방법은, 기 제공된 화면컨텐츠를 기초로 한 단말장치의 컨텐츠 요청에 따라, 상기 요청된 컨텐츠에 대응하는 텍스트정보를 획득하는 텍스트정보획득단계; 상기 획득된 텍스트정보를 기초로 화면컨텐츠를 구성하는 컨텐츠구성단계; 및 상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 제공된 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 표시되도록 하는 컨텐츠제공단계를 포함하며, 상기 컨텐츠제공단계는, 상기 획득된 텍스트정보에 매핑되는 음성정보가 존재할 경우, 상기 음성정보에 대한 상기 단말장치로의 전달 시점을 조절하여 상기 화면컨텐츠에 포함된 텍스트정보가 상기 음성정보에 동기되어 표시되도록 하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 제 5 관점에 따른 음성인식장치의 동작 방법은, 기 제공된 화면컨텐츠를 기초로 한 단말장치의 컨텐츠 요청에 따라, 상기 요청된 컨텐츠에 대응하는 텍스트정보를 생성하는 정보처리단계; 및 상기 생성된 텍스트정보를 화면서비스장치에 전달하여, 상기 생성된 텍스트정보를 포함하는 화면컨텐츠가 상기 단말장치에 전달되도록 하는 정보전달단계를 포함하며, 상기 정보처리단계는, 상기 생성된 텍스트정보에 매핑되는 음성정보를 추가 생성하며, 상기 음성정보의 생성에 따라, 상기 화면컨텐츠에 대한 상기 단말장치로의 전달 시점을 확인하고, 확인된 전달 시점을 기초로 상기 음성정보를 제공하여 상기 화면컨텐츠에 포함된 텍스트정보에 상기 음성정보가 동기되어 재생되도록 하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 제 6 관점에 따른 화면서비스장치의 동작 방법은, 음성인식을 위해 단말장치에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 전송하는 단말구동단계; 상기 단말장치로부터 음성인식 결과에 해당하는 키워드를 기초로 한 음성인식 서비스 요청이 수신될 경우, 상기 키워드에 대응하는 텍스트정보를 획득하고, 획득된 텍스트정보가 포함되도록 화면컨텐츠를 구성하는 컨텐츠구성단계; 및 상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 제공된 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 표시되도록 하는 컨텐츠제공단계를 포함하며, 상기 컨텐츠제공단계는, 상기 획득된 텍스트정보에 매핑되는 음성정보가 존재할 경우, 상기 음성정보에 대한 상기 단말장치로의 전달 시점을 조절하여 상기 화면컨텐츠에 포함된 텍스트정보가 상기 음성정보에 동기되어 표시되도록 하는 것을 특징으로 한다.
이에, 본 발명에 따른 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치에 의하면, 음성인식 서비스 제공 시, 각각의 상황에서 이용이 예상되는 서비스의 제시어 및 이용 가능한 기능들을 음성이 아닌 화면으로 제시함으로써, 음성으로 항상 알려줄 수 없는 서비스의 기능을 최대한 활용할 수 있다.
또한, 음성인식이 잘 되지 않거나 음성인식 서비스를 진행하기 어려운 상황에서도 서비스 제시어 및 이용 가능한 기능들을 화면상에서 바로 선택하여 원하는 정보를 편리하게 선택하여 이용할 수 있다.
도 1은 본 발명의 제 1 실시예에 따른 음성인식 부가 서비스 제공 시스템의 개략적인 구성도.
도 2는 본 발명의 실시예에 따른 단말장치의 개략적인 구성도.
도 3은 본 발명의 실시예에 따른 음성인식장치의 개략적인 구성도.
도 4는 본 발명의 실시예에 따른 화면서비스장치의 개략적인 구성도.
도 5 내지 도 6은 본 발명의 실시예에 따른 음성이식 부가 서비스 제공 화면을 도시한 도면.
도 7은 본 발명의 제 2 실시예에 따른 음성인식 부가 서비스 제공 시스템의 개략적인 구성도.
도 8 및 도 9는 본 발명의 제 1 실시예에 따른 음성인식 부가 서비스 제공 시스템의 동작 방법을 설명하기 위한 순서도.
도 10 내지 도 12는 본 발명의 실시예에 따른 동기화 방법을 설명하기 위한 순서도.
도 13은 본 발명의 제 1 실시예에 따른 단말장치의 동작 방법을 설명하기 위한 순서도.
도 14는 본 발명의 제 1 실시예에 따른 음성인식장치의 동작 방법을 설명하기 위한 순서도.
도 15는 본 발명의 제 1 실시예에 따른 화면서비스장치의 동작 방법을 설명하기 위한 순서도.
도 16은 본 발명의 제 2 실시예에 따른 음성인식 부가 서비스 제공 시스템의 동작 방법을 설명하기 위한 순서도.
도 17은 본 발명의 제 2 실시예에 따른 단말장치의 동작 방법을 설명하기 위한 순서도.
도 18은 본 발명의 제 2 실시예에 따른 화면서비스장치의 동작 방법을 설명하기 위한 순서도.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 설명한다.
도 1은 본 발명의 제 1 실시예에 따른 음성인식 부가 서비스 제공 시스템의 개략적인 구성도를 도시한다.
도 1에 도시한 바와 같이, 상기 시스템은, 음성인식 서비스 이용중 음성정보 이외에 화면컨텐츠를 추가 수신하여 표시하는 단말장치(100), 단말장치(100)에 대한 음성호 접속을 통해 음성인식 서비스를 중계하는 음성응답장치(200, IVR: Interactive Voice Response), 단말장치에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보 및 텍스트정보를 생성하여 제공하는 음성인식장치(300), 및 생성된 텍스트정보를 기반으로 화면컨텐츠를 구성하여 단말장치(100)에 제공하는 화면서비스장치(400)를 포함하는 구성을 갖는다. 여기서, 단말장치(100)는 단말장치의 운용을 위한 플랫폼 예컨대, 아이폰OS(iOS), 안드로이드(Android), 및 윈도우모바일(Window Mobile) 등을 탑재하여 해당 플랫폼을 기반으로 음성통화 중에 무선인터넷 접속이 가능한 스마트폰 및 음성통화 중에 무선인터넷 접속이 가능한 모든 폰을 지칭한다.
단말장치(100)는 음성응답장치(200)에 접속하여 음성인식 서비스를 요청한다.
보다 구체적으로, 단말장치(100)는 음성응답장치(200)에 대한 음성호 접속 이후, 음성응답장치(200)로부터의 제공되는 서비스 안내를 토대로 음성인식 서비스를 요청하게 된다. 이와 관련하여, 음성응답장치(200)는 화면서비스장치(400)를 통해 단말장치(100)에 대한 서비스 가능 여부 조회함으로써, 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다.
또한, 단말장치(100)는 음성인식 서비스 이용 시, 음성정보에 대응하는 화면컨텐츠를 수신하기 위해 내장된 서비스어플리케이션을 구동한다.
보다 구체적으로, 단말장치(100)는 상술한 음성인식 서비스 요청 이후, 화면서비스장치(400)로부터의 구동메시지 수신에 따라, 내장된 서비스어플리케이션을 구동함으로써, 음성인식장치(300)로부터 제공되는 음성정보 이외에 추가로 제공되는 화면컨텐츠를 수신하기 위해 화면서비스장치(400)에 접속하게 된다.
아울러, 단말장치(100)는 음성인식 서비스 이용에 따른 음성정보를 수신한다.
보다 구체적으로, 단말장치(100)는 음성인식 서비스 접속에 따라 지정된 단계에 대응하도록 음성인식장치(300)에서 생성된 음성정보를 음성응답장치(200)로부터 수신하게 된다. 이때, 음성응답장치(200)를 통해 수신되는 음성정보의 경우, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어, 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성안내가 해당될 수 있다.
그리고, 단말장치(100)는 수신되는 음성정보에 대응하는 화면컨텐츠를 획득한다.
보다 구체적으로, 단말장치(100)는 지정된 단계별로 음성응답장치(200)를 통해 수신되는 각각의 음성정보에 동기화된 텍스트정보를 포함하는 화면컨텐츠를 화면서비스장치(400)로부터 수신하게 된다. 이때, 화면서비스장치(400)로부터 수신되는 화면컨텐츠의 경우, 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)가 포함될 수 있다.
나아가, 단말장치(100)는 화면컨텐츠에 포함된 텍스트정보를 표시한다.
보다 구체적으로, 단말장치(100)는 지정된 단계별로 음성응답장치(200)를 통해 재생되는 음성정보를 수신함과 아울러, 화면서비스장치(300)로부터 수신되는 화면컨텐츠에 포함된 텍스트정보를 동시에 표시하게 된다. 이때, 단말장치(100)는 지정된 단계에 대응하여 화면서비스장치(400)로부터 새롭게 수신되는 텍스트정보를 표시함에 있어서, 도 5 및 도 6에 도시한 바와 같이 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 채팅 창 방식을 적용하게 된다. 즉, 단말장치(100)는 상술한 채팅 창 방식의 텍스트정보 표시 형태를 적용함으로써, 사용자로 하여금 스크롤 업다운을 통해 기존 디스플레이 항목에 대한 검색을 용이하게 하여 서비스 이해도를 높일 수 있다. 다시 말해, 서킷(Circuit)망을 통해 전달되는 음성정보와 패킷(Paket)망을 통해 전달되는 화면컨텐츠 즉, 텍스트정보가 불일치하는 경우가 발생할 경우, 사용자로 하여금 스크롤 업/다운을 통해 현재 수신되는 음성이 화면의 어느 시점에 표시되고 있는지를 직관적이고 용이하게 판단할 수 있도록 한다.
이후, 단말장치(100)는 화면컨텐츠에 포함된 텍스트정보를 기초로 컨텐츠를 요청한다.
보다 구체적으로, 단말장치(100)는 화면컨텐츠 상에서 서비스 제시어에 해당하는 텍스트정보 즉, 서비스 제시어에 대한 선택을 수행함으로써, 선택된 텍스트정보에 대응하는 컨텐츠를 화면서비스장치(400)에 요청하게 된다. 이때, 단말장치(100)는 화면입력을 통해 텍스트정보가 선택된 경우, 선택된 텍스트정보를 기초로 한 컨텐츠 요청을 화면서비스장치(400)에 직접 전달하게 된다. 반면, 단말장치(100)는 음성입력을 통해 텍스트정보가 선택된 경우, 해당 음성을 음성응답장치(200)를 통해 음성인식장치(300)에 전달함으로써, 음성인식장치(300)로 하여금 음성 인식된 결과 즉, 해당 텍스트정보를 화면서비스장치(400)에 전달할 수 있도록 한다.
이에, 단말장치(100)는 컨텐츠 요청에 대응하는 화면컨텐츠를 수신하여, 화면컨텐츠에 포함된 텍스트정보를 표시한다.
보다 구체적으로, 단말장치(100)는 텍스트정보 선택을 통해 음성정보와 텍스트정보가 함께 요구되는 컨텐츠 요청을 전달한 경우, 음성응답장치(200)를 통해 재생되는 음성정보를 수신함과 아울러, 화면서비스장치(300)로부터 수신되는 화면컨텐츠에 포함된 텍스트정보를 동시에 표시하게 된다. 한편, 단말장치(100)는 텍스트정보만이 요구되는 컨텐츠 요청을 전달한 경우, 별도의 음성정보 수신과정 없이 화면서비스장치(300)로부터 텍스트정보가 포함된 화면컨텐츠만을 수신하게 된다.
음성인식장치(300)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보를 생성한다.
보다 구체적으로, 음성인식장치(300)는 음성응답장치(200)로부터 단말장치(100)에 대한 음성호를 전달받아 음성인식 서비스를 제공하게 되며, 이 과정에서 지정된 단계별로 음성정보를 생성한다. 이때, 음성인식장치(300)에서 생성되는 음성정보의 경우, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어, 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성안내가 해당될 수 있다.
또한, 음성인식장치(300)는 지정된 단계별로 생성되는 음성정보에 대응하는 텍스트정보를 생성한다.
보다 구체적으로, 음성인식장치(300)는 상술한 바와 같이 음성인식 서비스 과정에서 음성정보가 생성될 경우, 생성되는 음성정보 각각과 동일한 문장의 텍스트정보를 생성하게 된다. 이때, 음성인식장치(300)에서 생성되는 텍스트정보의 경우, 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)가 포함될 수 있다.
아울러, 음성인식장치(300)는 생성된 음성정보 및 텍스트정보를 단말장치(100)에 전달한다.
보다 구체적으로, 음성인식장치(300)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하여 생성되는 음성정보를 음성응답장치(200)에 전달하여 단말장치(100)에 대한 재생을 요청한다. 이와 동시에, 음성인식장치(300)는 음성정보 제공과 별도로 텍스트정보를 화면서비스장치(200)로 제공하여 텍스트정보를 포함하는 화면컨텐츠가 단말장치(100)에 전달될 수 있도록 함으로써, 전달된 텍스트정보가 상기 단말장치(100)에 제공되는 해당 음성정보에 동기되어 예컨대, 채팅 창 방식과 같이 연속적으로 표시될 수 있도록 한다. 한편, 음성인식장치(300)는 단말장치(100)에 전달되는 음성정보와 이에 대응하는 화면컨텐츠에 대한 동기화를 위해, 예컨대, 음성응답장치(200)에 음성정보를 제공한 이후, 화면컨텐츠장치(200)로부터 해당 화면컨텐츠에 대한 전송완료신호가 전달될 경우, 음성응답장치(200)에 제공된 음성정보에 대한 추가적인 재생요청을 전달함으로써 음성정보의 재생 시점과 화면컨텐츠의 전달 시점을 일치시키거나, 또는 화면컨텐츠장치(400)로부터 화면컨텐츠에 대한 전송완료신호가 전달된 이후에, 음성응답장치(200)에 해당 음성정보를 제공하여 동시에 재생을 요청하는 구성을 적용함으로써, 음성정보의 재생 시점과 화면컨텐츠의 전달 시점을 일치시킬 수 있다. 참고로, 화면컨텐츠장치(400)가 화면컨텐츠에 대한 전송완료신호를 음성응답장치(200)에 직접 제공하고, 이를 수신한 음성응답장치(200)가 음성인식장치(300)로부터 기 제공된 음성정보를 재생함으로써, 음성정보의 재생 시점과 화면컨텐츠의 전달 시점을 일치시키는 구성 또한 가능할 것이다.
이를 통해, 음성인식장치(300)는 음성인식 서비스 과정에서 제공되는 음성정보 이외의 텍스트정보{제1텍스트정보(a), 제2텍스트정보(b)}를 부가 제공하여 사용자로부터 정확한 발음의 음성 입력을 유도함으로써, 키워드 인식률을 향상시킬 수 있다. 또한, 음성인식장치(300)는 사용자의 음성인식 결과에 해당하는 키워드 정보의 확인을 위한 텍스트정보{제3텍스트정보(c), 제4텍스트정보(d)}를 제공함으로써, 키워드 정보를 기초로 한 컨텐츠 추출 이전에 해당 사용자의 음성 인식 상태를 전달하여 사용자의 발음이 어떻게 인식되었는지를 보여줌으로써 사용자가 잘못 인식된 구간을 인식하고 해당 구간에서 정확한 발음을 하도록 유도한다. 나아가, 음성인식장치(300)는 사용자가 정확한 발음을 구사하지 못하는 경우(예: 사투리를 쓰는 사람이거나 외국인인 경우), 텍스트정보{제6텍스트정보(f)}를 통해 해당 서비스에 대한 대체 단어 예컨대, 아라비아 숫자 또는 발음이 쉬운 대체 문장을 제시함으로써 사용자의 음성 재입력을 유도할 수 있다.
나아가, 음성인식장치(300)는 단말장치(100)의 컨텐츠 요청에 따라 해당 서비스 제공을 위한 정보를 생성한다.
보다 구체적으로, 음성인식장치(300)는 화면서비스장치(400)로부터 단말장치(100)의 화면입력을 통한 컨텐츠 요청이 전달될 경우, 전달된 컨텐츠 요청을 기초로 특정 서비스 제공을 위한 음성정보(음성안내) 및 해당 음성정보에 대응하는 텍스트정보를 생성하게 된다.
이후, 음성인식장치(300)는 생성된 음성정보 및 텍스트정보를 단말장치(100)에 전달한다.
보다 구체적으로, 음성인식장치(300)는 단말장치(100)의 컨텐츠 요청에 따라 생성된 음성정보를 음성응답장치(200)에 전달하여 단말장치(100)에 대한 재생을 요청한다. 이와 동시에, 음성인식장치(300)는 음성정보 제공과 별도로 텍스트정보를 화면서비스장치(200)로 제공하여 텍스트정보를 포함하는 화면컨텐츠가 단말장치(100)에 전달될 수 있도록 함으로써, 전달된 텍스트정보가 상기 단말장치(100)에 제공되는 해당 음성정보에 동기되어 표시될 수 있도록 한다. 이때, 음성인식장치(300)는 전술한 바와 같이 단말장치(100)에 전달되는 음성정보와 이에 대응하는 화면컨텐츠에 대한 동기화를 위해, 예컨대, 음성응답장치(200)에 음성정보를 제공한 이후, 화면컨텐츠장치(200)로부터 해당 화면컨텐츠에 대한 전송완료신호가 전달될 경우, 음성응답장치(200)에 제공된 음성정보에 대한 추가적인 재생요청을 전달함으로써 음성정보의 재생 시점과 화면컨텐츠의 전달 시점을 일치시키거나, 또는 화면컨텐츠장치(400)로부터 화면컨텐츠에 대한 전송완료신호가 전달된 이후에, 음성응답장치(200)에 해당 음성정보를 제공하여 동시에 재생을 요청하는 구성을 적용함으로써, 음성정보의 재생 시점과 화면컨텐츠의 전달 시점을 일치시킬 수 있다. 그 밖에, 화면컨텐츠장치(400)가 화면컨텐츠에 대한 전송완료신호를 음성응답장치(200)에 직접 제공하고, 이를 수신한 음성응답장치(200)가 음성인식장치(300)로부터 기 제공된 음성정보를 재생함으로써, 음성정보의 재생 시점과 화면컨텐츠의 전달 시점을 일치시키는 구성 또한 가능할 것이다.
화면서비스장치(400)는 단말장치(100)에 내장된 서비스어플리케이션을 구동하여 접속을 유도한다.
보다 구체적으로, 화면서비스장치(400)는 단말장치(100)의 음성인식 서비스 요청을 수신한 음성응답장치(200)로부터 단말장치(100)에 대한 서비스 가능 여부 조회 요청이 수신될 경우, 데이터베이스 조회를 통해 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다. 아울러, 화면서비스장치(400)는 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스어플리케이션이 내장된 것이 확인될 경우, 단말장치(100)에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 생성하여 단말장치(100)에 전송함으로써 무선인터넷 즉, 패킷망을 통한 단말장치(100)의 접속을 유도하게 된다.
또한, 화면서비스장치(400)는 단말장치에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하여 화면컨텐츠를 구성한다.
보다 구체적으로, 화면서비스장치(400)는 상기 단말장치(100)에 대한 음성인식 서비스 제공에 따라, 음성인식장치(300)로부터 지정된 단계별로 생성된 음성정보에 대응하는 텍스트정보를 수신하고, 단말장치(100)에 내장된 서비스어플리케이션에 지정된 포맷에 따라 음성인식장치(300)로부터 수신된 텍스트정보가 포함되도록 화면컨텐츠를 구성한다.
나아가, 화면서비스장치(400)는 지정된 단계별로 구성되는 화면컨텐츠를 단말장치(100)에 제공한다.
보다 구체적으로, 화면서비스장치(400)는 음성인식 서비스 제공 과정에서 지정된 단계별로 구성되는 상기 화면컨텐츠를 단말장치(100)에 제공함으로써, 화면컨텐츠에 포함된 텍스트정보가 단말장치(100)에서 수신중인 해당 음성정보에 동기되어 예컨대, 채팅 창 방식과 같이 연속적으로 표시될 수 있도록 한다.
이후, 화면서비스장치(400)는 기 제공된 화면컨텐츠를 기초로 한 단말장치(100)의 컨텐츠 요청에 따라, 상기 요청된 컨텐츠에 대응하는 텍스트정보를 획득하여 화면컨텐츠를 구성한다.
보다 구체적으로, 화면서비스장치(400)는 단말장치(100)로부터 기 제공된 화면컨텐츠 상의 텍스트정보 즉, 서비스 제시어 선택에 따른 컨텐츠 요청이 수신될 경우, 해당 컨텐츠 요청을 음성응답장치(200)를 통해 또는 직접 음성인식장치(300)에 전달함으로써, 음성인식장치(300)로부터 요청된 컨텐츠에 대응하여 생성된 텍스트정보를 수신하여 화면컨텐츠를 구성할 수 있다. 또한, 화면서비스장치(400)는 단말장치(100)로부터 컨텐츠 요청이 수신될 경우, 자체 데이터베이스 검색을 통해 요청된 컨텐츠를 검색하거나, 선택된 서비스 제시어에 매핑된 접속주소(URL)를 기반으로 별도의 컨텐츠서버(도시안됨)에 접속함으로써, 접속된 컨텐츠서버로부터 요청된 컨텐츠를 획득하여 화면컨텐츠를 구성할 수 있다. 이때, 화면서비스장치(400)로 수신되는 컨텐츠 요청의 경우, 단말장치(100)가 화면입력을 통해 서비스 제시어를 선택함에 따라, 단말장치(100)에서 화면서비스장치(400)로 직접 전달될 수 있다. 또한, 단말장치(100)가 음성입력을 통해 서비스 제시어 선택할 경우, 해당 컨텐츠 요청은 음성응답장치(200)를 통해 음성인식장치(300)에 전달되고, 이를 수신한 음성인식장치(300)는 전달된 컨텐츠 요청에 대한 음성인식 결과에 해당하는 텍스트정보를 화면서비스장치(400)에 제공하게 된다.
나아가, 화면서비스장치(400)는 컨텐츠 요청에 따라 구성된 화면컨텐츠를 단말장치(100)에 제공한다.
보다 구체적으로, 화면서비스장치(400)는 단말장치(100)의 컨텐츠 요청에 대응하여 구성된 화면컨텐츠를 단말장치(100)에 제공함으로써, 음성응답장치(200)를 통해 음성정보를 추가적으로 수신하는 단말장치(100)에서 화면컨텐츠에 포함된 텍스트정보가 음성정보에 동기되어 표시되도록 한다. 한편, 화면서비스장치(400)는 컨텐츠 요청에 따라 제공되는 텍스트정보에 동기되는 음성정보가 존재하지 않을 경우, 단말장치(100)에 대한 화면컨텐츠 제공 이후, 해당 상태를 음성응답장치(200)에 통지함으로써, 음성응답장치(200)로 하여금 음성호를 종료시키고 단말장치(100)를 대상으로 한 부가적인 음성정보의 제공 동작을 중지하도록 한다.
이하에서는, 도 2를 참조하여, 본 발명의 제 1 실시예에 따른 단말장치(100)의 구체적인 구성을 설명하도록 한다.
즉, 단말장치(100)는 음성인식 서비스 접속에 따라 지정된 단계에 대응하는 음성정보를 수신하는 음성처리부(110), 및 음성정보에 대응하는 화면컨텐츠를 획득하고, 상기 획득된 화면컨텐츠에 포함된 텍스트정보를 해당 음성정보의 수신에 따라 표시하는 화면처리부(120)를 포함하는 구성을 갖는다. 여기서, 화면처리부(120)는 서비스어플리케이션을 지칭하는 것으로서, 운영체제(OS, Operating System)에서 지원하는 플랫폼을 기반으로 구동하여 패킷망 접속을 통해 음성정보에 대응하는 화면컨텐츠를 수신하게 된다.
음성처리부(110)는 음성응답장치(200)에 접속하여 음성인식 서비스를 요청한다.
보다 구체적으로, 음성처리부(110)는 음성응답장치(200)에 대한 음성호 접속 이후, 음성응답장치(200)로부터의 제공되는 서비스 안내를 토대로 음성인식 서비스를 요청하게 된다. 이와 관련하여, 음성응답장치(200)는 화면서비스장치(400)를 통해 단말장치(100)에 대한 서비스 가능 여부 조회함으로써, 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다.
아울러, 음성처리부(110)는 음성인식 서비스 이용에 따른 음성정보를 수신한다.
보다 구체적으로, 음성처리부(110)는 음성인식 서비스 접속에 따라 지정된 단계에 대응하도록 음성인식장치(300)에서 생성된 음성정보를 음성응답장치(200)로부터 수신하게 된다. 이때, 음성응답장치(200)를 통해 수신되는 음성정보의 경우, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어, 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성안내가 해당될 수 있다.
화면처리부(120)는 음성인식 서비스 이용 과정에서 추가 제공되는 화면컨텐츠를 수신하기 위해 화면서비스장치(400)에 접속한다.
보다 구체적으로, 화면처리부(120)는 음성인식 서비스 요청 이후, 화면서비스장치(400)로부터 전송되는 구동메시지에 수신에 따라 인보크(Invoke)되어, 음성인식장치(300)로부터 제공되는 음성정보에 대응하는 화면컨텐츠를 수신하기 위해 화면서비스장치(400)에 접속하게 된다.
또한, 화면처리부(120)는 수신되는 음성정보에 대응하는 화면컨텐츠를 획득한다.
보다 구체적으로, 화면처리부(120)는 지정된 단계별로 음성응답장치(200)를 통해 수신되는 각각의 음성정보에 동기화된 텍스트정보를 포함하는 화면컨텐츠를 화면서비스장치(400)로부터 수신하게 된다. 이때, 화면서비스장치(400)로부터 수신되는 화면컨텐츠의 경우, 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)가 포함될 수 있다.
나아가, 화면처리부(120)는 화면컨텐츠에 포함된 텍스트정보를 표시한다.
보다 구체적으로, 화면처리부(120)는 지정된 단계별로 음성응답장치(200)를 통해 재생되는 음성정보를 수신함과 아울러, 화면서비스장치(300)로부터 수신되는 화면컨텐츠에 포함된 텍스트정보를 동시에 표시하게 된다. 이때, 화면처리부(120)는 지정된 단계에 대응하여 화면서비스장치(400)로부터 새롭게 수신되는 텍스트정보를 표시함에 있어서, 도 5 및 도 6에 도시한 바와 같이 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 채팅 창 방식을 적용하게 된다. 즉, 화면처리부(120)는 상술한 채팅 창 방식의 텍스트정보 표시 형태를 적용함으로써, 사용자로 하여금 스크롤 업다운을 통해 기존 디스플레이 항목에 대한 검색을 용이하게 하여 서비스 이해도를 높일 수 있다. 다시 말해, 서킷(Circuit)망을 통해 전달되는 음성정보와 패킷(Paket)망을 통해 전달되는 화면컨텐츠 즉, 텍스트정보가 불일치하는 경우가 발생할 경우, 사용자로 하여금 스크롤 업/다운을 통해 현재 수신되는 음성이 화면의 어느 시점에 표시되고 있는지를 직관적이고 용이하게 판단할 수 있도록 한다.
이후, 화면처리부(120)는 화면컨텐츠에 포함된 텍스트정보를 기초로 컨텐츠를 요청한다.
보다 구체적으로, 화면처리부(120)는 화면컨텐츠 상에서 서비스 제시어에 해당하는 텍스트정보 즉, 서비스 제시어에 대한 선택을 수행함으로써, 선택된 텍스트정보에 대응하는 컨텐츠를 화면서비스장치(400)에 요청하게 된다. 이때, 화면처리부(120)는 화면입력을 통해 텍스트정보가 선택된 경우, 선택된 텍스트정보를 기초로 한 컨텐츠 요청을 화면서비스장치(400)에 직접 전달하게 된다. 반면, 음성입력을 통해 텍스트정보가 선택된 경우, 음성처리부(110)가 해당 음성을 음성응답장치(200)를 통해 음성인식장치(300)에 전달함으로써, 음성인식장치(300)로 하여금 음성 인식된 결과 즉, 해당 텍스트정보를 화면서비스장치(400)에 전달할 수 있도록 한다.
이에, 음성처리부(110)는 컨텐츠 요청에 따른 음성정보를 수신한다.
보다 구체적으로, 음성처리부(110)는 음성정보와 텍스트정보가 함께 요구되는 컨텐츠 요청을 전달한 경우, 음성인식장치(300)에서 생성된 음성정보를 음성응답장치(200)로부터 수신하게 된다.
아울러, 화면처리부(120)는 컨텐츠 요청에 대응하는 화면컨텐츠를 수신하여, 화면컨텐츠에 포함된 텍스트정보를 표시한다.
보다 구체적으로, 화면처리부(120)는 텍스트정보 선택을 통해 음성정보와 텍스트정보가 함께 요구되는 컨텐츠 요청을 전달한 경우, 음성응답장치(200)를 통해 재생되는 음성정보를 수신함과 아울러, 화면서비스장치(300)로부터 화면컨텐츠를 수신하여, 화면컨텐츠에 포함된 텍스트정보를 동시에 표시하게 된다. 한편, 화면처리부(120)는 텍스트정보만이 요구되는 컨텐츠 요청을 전달한 경우, 별도의 음성정보 수신과정 없이 화면서비스장치(300)로부터 텍스트정보가 포함된 화면컨텐츠만을 수신하게 된다.
이하에서는, 도 3을 참조하여, 본 발명의 제 1 실시예에 따른 음성인식장치(300)의 구체적인 구성을 설명하도록 한다.
즉, 음성인식장치(300)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보 및 텍스트정보를 생성하는 정보처리부(310), 및 생성된 텍스트정보를 단말장치(100)에 전달하는 정보전달부(320)를 포함하는 구성을 갖는다.
정보처리부(310)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보를 생성한다.
보다 구체적으로, 정보처리부(310)는 음성응답장치(200)로부터 단말장치(100)에 대한 음성호를 전달받아 음성인식 서비스를 제공하게 되며, 이 과정에서 지정된 단계별로 음성정보를 생성한다. 이때, 정보처리부(310)는 지정된 단계별로, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어, 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성안내를 생성할 수 있다.
또한, 정보처리부(310)는 지정된 단계별로 생성되는 음성정보에 대응하는 텍스트정보를 생성한다.
보다 구체적으로, 정보처리부(310)는 상술한 바와 같이 음성인식 서비스 과정에서 음성정보가 생성될 경우, 생성되는 음성정보 각각과 동일한 문장의 텍스트정보를 생성하게 된다. 이때, 정보처리부(310)는 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)를 생성할 수 있다.
나아가, 정보처리부(310)는 생성된 음성정보를 단말장치(100)에 전달한다.
보다 구체적으로, 정보처리부(310)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하여 생성된 음성정보를 음성응답장치(200)에 전달하여 재생을 요청함으로써, 해당 음성정보를 단말장치(100)에 제공하게 된다.
정보전달부(310)는 음성정보 제공과 별도로 텍스트정보를 단말장치(100)에 전달한다.
보다 구체적으로, 정보전달부(310)는 정보처리부(310)로부터 음성정보에 대응하여 생성된 텍스트정보를 전달받아 화면서비스장치(200)로 제공하며, 이를 통해 제공된 텍스트정보를 포함하는 화면컨텐츠가 단말장치(100)에 전달될 수 있도록 함으로써, 전달된 텍스트정보가 상기 단말장치(100)에 제공되는 해당 음성정보에 동기되어 예컨대, 채팅 창 방식과 같이 연속적으로 표시될 수 있도록 한다. 예컨대, 정보전달부(310)는 음성인식 서비스 과정에서 제공되는 음성정보 이외의 텍스트정보{제1텍스트정보(a), 제2텍스트정보(b)}를 부가 제공하여 사용자로부터 정확한 발음의 음성 입력을 유도함으로써, 키워드 인식률을 향상시킬 수 있다. 또한, 정보전달부(310)는 사용자의 음성인식 결과에 해당하는 키워드 정보의 확인을 위한 텍스트정보{제3텍스트정보(c), 제4텍스트정보(d)}를 제공함으로써, 키워드 정보를 기초로 한 컨텐츠 추출 이전에 해당 사용자의 음성 인식 상태를 전달하여 사용자의 발음이 어떻게 인식되었는지를 보여줌으로써 사용자가 잘못 인식된 구간을 인식하고 해당 구간에서 정확한 발음을 하도록 유도한다. 나아가, 정보전달부(310)는 사용자가 정확한 발음을 구사하지 못하는 경우(예: 사투리를 쓰는 사람이거나 외국인인 경우), 텍스트정보{제6텍스트정보(f)}를 통해 해당 서비스에 대한 대체 단어 예컨대, 아라비아 숫자 또는 발음이 쉬운 대체 문장을 제시함으로써 사용자의 음성 재입력을 유도할 수 있다.
나아가, 정보처리부(310)는 단말장치(100)의 컨텐츠 요청에 따라 해당 서비스 제공을 위한 정보를 생성한다.
보다 구체적으로, 정보처리부(310)는 화면서비스장치(400)로부터 단말장치(100)의 화면입력을 통한 컨텐츠 요청이 전달될 경우, 전달된 컨텐츠 요청을 기초로 특정 서비스 제공을 위한 음성정보(음성안내) 및 해당 음성정보에 대응하는 텍스트정보를 생성하게 된다.
이후, 정보처리부(310)는 생성된 음성정보를 단말장치(100)에 전달한다.
보다 구체적으로, 정보처리부(310)는 단말장치(100)의 컨텐츠 요청에 따라 생성된 음성정보를 음성응답장치(200)에 전달하여 단말장치(100)에 대한 재생을 요청한다.
아울러, 정보전달부(310)는 음성정보 제공과 별도로 텍스트정보를 단말장치(100)에 전달한다.
보다 구체적으로, 정보전달부(310)는 음성정보 제공과 별도로 텍스트정보를 화면서비스장치(200)로 제공하여 텍스트정보를 포함하는 화면컨텐츠가 단말장치(100)에 전달될 수 있도록 함으로써, 전달된 텍스트정보가 상기 단말장치(100)에 제공되는 해당 음성정보에 동기되어 표시될 수 있도록 한다.
이처럼 음성입력과 함께 화면입력을 통한 서비스가 가능해 짐에 따라 음성인식이 잘 되지 않거나 음성인식 서비스를 진행하기 어려운 상황에서도 화면입력을 통해 원하는 정보에 접속할 수 있게 된다.
이하에서는, 도 4를 참조하여, 본 발명의 제 1 실시예에 따른 화면서비스장치(400)의 구체적인 구성을 설명하도록 한다.
즉, 화면서비스장치(400)는 단말장치(100)에 대한 음성인식 서비스 제공을 위해 구동메시지를 전송하여 상기 단말장치(410)에 내장된 서비스어플리케이션을 구동시키는 단말구동부(410); 상기 음성인식 서비스 제공에 따라 지정된 단계별로 상기 단말장치(100)에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하고, 획득된 텍스트정보가 포함되도록 화면컨텐츠를 구성하는 컨텐츠구성부(420); 및 구성된 화면컨텐츠를 단말장치(100)에 제공하는 컨텐츠제공부(430)를 포함하는 구성을 갖는다.
단말구동부(410)는 단말장치(100)에 내장된 서비스어플리케이션을 구동하여 접속을 유도한다.
바람직하게는, 단말구동부(410)는 단말장치(100)의 음성인식 서비스 요청을 수신한 음성응답장치(200)로부터 단말장치(100)에 대한 서비스 가능 여부 조회 요청이 수신될 경우, 데이터베이스 조회를 통해 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다. 아울러, 단말구동부(410)는 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스어플리케이션이 내장된 것이 확인될 경우, 단말장치(100)에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 생성하여 단말장치(100)에 전송함으로써 무선인터넷 즉, 패킷망을 통한 단말장치(100)의 접속을 유도하게 된다.
컨텐츠구성부(420)는 단말장치(100)에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하여 화면컨텐츠를 구성한다.
보다 구체적으로, 컨텐츠구성부(420)는 상기 단말장치(100)에 대한 음성인식 서비스 제공에 따라, 음성인식장치(300)로부터 지정된 단계별로 생성된 음성정보에 대응하는 텍스트정보 예컨대, 음성인식 서비스를 안내하기 위한 음성안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)를 수신하게 된다. 나아가, 화면서비스장치(400)는 단말장치(100)에 내장된 서비스어플리케이션에 지정된 포맷에 따라 음성인식장치(300)로부터 수신된 텍스트정보가 포함되도록 화면컨텐츠를 구성한다.
컨텐츠제공부(430)는 지정된 단계별로 구성되는 화면컨텐츠를 단말장치(100)에 제공한다.
보다 구체적으로, 컨텐츠제공부(430)는 음성인식 서비스 제공 과정에서 지정된 단계별로 구성되는 상기 화면컨텐츠를 단말장치(100)에 제공함으로써, 화면컨텐츠에 포함된 텍스트정보가 단말장치(100)에서 수신중인 해당 음성정보에 동기되어 예컨대, 채팅 창 방식과 같이 연속적으로 표시될 수 있도록 한다.
이후, 컨텐츠구성부(420)는 기 제공된 화면컨텐츠를 기초로 한 단말장치(100)의 컨텐츠 요청에 따라, 상기 요청된 컨텐츠에 대응하는 텍스트정보를 획득하여 화면컨텐츠를 구성한다.
보다 구체적으로, 컨텐츠구성부(420)는 단말장치(100)로부터 기 제공된 화면컨텐츠 상의 텍스트정보 즉, 서비스 제시어 선택에 따른 컨텐츠 요청이 수신될 경우, 해당 컨텐츠 요청을 음성응답장치(200)를 통해 또는 직접 음성인식장치(300)에 전달함으로써, 음성인식장치(300)로부터 요청된 컨텐츠에 대응하여 생성된 텍스트정보를 수신하여 화면컨텐츠를 구성할 수 있다. 또한, 컨텐츠구성부(420)는 단말장치(100)로부터 컨텐츠 요청이 수신될 경우, 자체 데이터베이스 검색을 통해 요청된 컨텐츠를 검색하거나, 선택된 서비스 제시어에 매핑된 접속주소(URL)를 기반으로 별도의 컨텐츠서버(도시안됨)에 접속함으로써, 접속된 컨텐츠서버로부터 요청된 컨텐츠를 획득하여 화면컨텐츠를 구성할 수 있다. 이때, 화면서비스장치(400)로 수신되는 컨텐츠 요청의 경우, 단말장치(100)가 화면입력을 통해 서비스 제시어를 선택함에 따라, 단말장치(100)에서 화면서비스장치(400)로 직접 전달될 수 있다. 또한, 단말장치(100)가 음성입력을 통해 서비스 제시어 선택할 경우, 해당 컨텐츠 요청은 음성응답장치(200)를 통해 음성인식장치(300)에 전달되고, 이를 수신한 음성인식장치(300)는 전달된 컨텐츠 요청에 대한 음성인식 결과에 해당하는 텍스트정보를 화면서비스장치(400)에 제공하게 된다.
나아가, 컨텐츠제공부(430)는 컨텐츠 요청에 따라 구성된 화면컨텐츠를 단말장치(100)에 제공한다.
보다 구체적으로, 컨텐츠제공부(430)는 단말장치(100)의 컨텐츠 요청에 대응하여 구성된 화면컨텐츠를 단말장치(100)에 제공함으로써, 음성응답장치(200)를 통해 음성정보를 추가적으로 수신하는 단말장치(100)에서 화면컨텐츠에 포함된 텍스트정보가 음성정보에 동기되어 표시되도록 한다. 한편, 컨텐츠제공부(430)는 컨텐츠 요청에 따라 제공되는 텍스트정보에 동기되는 음성정보가 존재하지 않을 경우, 단말장치(100)에 대한 화면컨텐츠 제공 이후, 해당 상태를 음성응답장치(200)에 통지함으로써, 음성응답장치(200)로 하여금 음성호를 종료시키고 단말장치(100)를 대상으로 한 부가적인 음성정보의 제공 동작을 중지하도록 한다.
도 7은 본 발명의 제 2 실시예에 따른 음성인식 부가 서비스 제공 시스템의 개략적인 구성도를 도시한다.
도 7에 도시한 바와 같이, 상기 시스템은, 음성인식을 지원하기 위해 내장된 서비스어플리케이션 구동을 통해 음성인식 서비스 이용중 음성정보 이외에 화면컨텐츠를 추가 수신하여 표시하는 단말장치(100), 단말장치(100)에 대한 음성호 접속을 통해 음성인식 서비스를 중계하는 음성응답장치(200, IVR: Interactive Voice Response), 단말장치(100)에 내장된 서비스어플리케이션과 연동하여 음성인식 서비스를 제공하는 음성인식장치(300), 및 단말장치(100)의 음성인식 서비스 요청에 따라 화면컨텐츠를 구성하여 단말장치(100)에 제공하는 화면서비스장치(400)를 포함하는 구성을 갖는다. 여기서, 단말장치(100)는 단말장치의 운용을 위한 플랫폼 예컨대, 아이폰OS(iOS), 안드로이드(Android), 및 윈도우모바일(Window Mobile) 등을 탑재하여 해당 플랫폼을 기반으로 음성통화 중에 무선인터넷 접속이 가능한 스마트폰 및 음성통화 중에 무선인터넷 접속이 가능한 모든 폰을 지칭한다.
단말장치(100)는 음성응답장치(200)의 접속을 통해 음성인식 서비스를 안내 받는다.
보다 구체적으로, 단말장치(100)는 음성응답장치(200)에 대한 음성호 접속을 수행함으로써, 음성응답장치(200)를 통해 음성인식 서비스에 대한 안내를 수신하게 된다. 이와 관련하여, 음성응답장치(200)는 단말장치(100)의 음성호 접속에 따라 화면서비스장치(400)를 통해 단말장치(100)에 대한 서비스 가능 여부 조회함으로써, 상기 단말장치(100)가 음성인식을 지원하는 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다.
또한, 단말장치(100)는 음성인식을 지원하기 위해 내장된 서비스어플리케이션을 구동한다.
보다 구체적으로, 단말장치(100)는 전술한 음성인식 서비스 안내 수신 이후, 화면서비스장치(400)로부터의 구동메시지 수신에 따라, 음성인식을 지원하기 위해 내장된 서비스어플리케이션을 구동하게 된다.
아울러, 단말장치(100)는 화면서비스장치(400)에 음성인식 서비스를 요청한다.
보다 구체적으로, 단말장치(100)는 음성응답장치(200)로부터 수신된 음성인식 서비스 안내를 기초로 한 사용자의 음성에 대한 음성인식을 수행하고, 음성인식 수행 결과에 해당하는 키워드를 선택함으로써, 화면서비스장치(400)에 해당 키워드를 기초로 한 음성인식 서비스를 요청하게 된다. 이때, 단말장치(100)는 내장된 서비스어플리케이션과 연동되는 음성인식장치(300)에 사용자 음성 즉, 음성인식 서비스 요청을 전달하여 음성인식을 요청하고, 음성인식장치(300)로부터 하나 이상의 키워드를 포함하는 음성인식 결과 값을 수신하게 된다. 한편, 단말장치(100)는 내장된 서비스어플리케이션에서 음성인식 기능을 지원하는 경우, 음성인식장치(300)와의 연동 없이 내장된 서비스어플리케이션을 통해 사용자 음성에 대한 음성인식을 수행하고, 그 결과 값을 획득하게 된다.
이후, 단말장치(100)는 음성인식 서비스에 대응하는 화면컨텐츠를 수신한다.
보다 구체적으로, 단말장치(100)는 상기 키워드 기반 음성인식 서비스 요청에 따라 전달된 키워드에 대응하는 화면컨텐츠를 화면서비스장치(400)로부터 수신한다. 이때, 단말장치(100)는 화면서비스장치(400)로부터 화면컨텐츠 대신 접속주소(URL)를 수신할 수 있으며, 이를 기반으로 별도의 컨텐츠서버(도시안됨)에 접속함으로써, 전달된 키워드에 매핑된 화면컨텐츠를 획득하게 된다. 한편, 단말장치(100)는 내장된 서비스어플리케이션 상에 복수의 키워드에 매핑되는 컨텐츠서버(도시안됨)의 접속주소를 사전에 등록하고, 등록된 접속주소를 토대로 특정 컨텐츠서버(도시안됨)에 접속하여 키워드에 매핑된 화면컨텐츠를 획득하는 구성 또한 가능하다.
아울러, 단말장치(100)는 음성인식 서비스 이용에 따른 음성정보를 수신한다.
보다 구체적으로, 단말장치(100)는 음성인식 서비스 제공을 위해 생성된 음성정보를 음성응답장치(200)로부터 수신하게 된다. 이때, 음성응답장치(200)는 화면서비스장치(400)로부터 단말장치(100)에 대한 화면컨텐츠 전송 완료되었음이 통지될 경우, 음성인식 서비스 제공을 위해 생성된 음성정보를 재생함으로써, 단말장치(100)에 해당 음성정보를 제공하게 된다.
이와 동시에, 단말장치(100)는 화면컨텐츠에 포함된 텍스트정보를 표시한다.
보다 구체적으로, 단말장치(100)는 음성응답장치(200)에서 재생되는 음성정보를 수신함과 아울러, 화면서비스장치(300)로부터 수신된 화면컨텐츠 상의 텍스트정보를 동시에 표시하게 된다.
화면서비스장치(400)는 단말장치(100)에 내장된 서비스어플리케이션을 구동시킨다.
보다 구체적으로, 화면서비스장치(400)는 음성응답장치(200)로부터 음성호 접속된 단말장치(100)에 대한 서비스 가능 여부 조회 요청이 수신될 경우, 데이터베이스 조회를 통해 상기 단말장치(100)가 음성인식을 지원하기 위한 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다. 아울러, 화면서비스장치(400)는 상기 단말장치(100)에 대한 서비스어플리케이션 내장 상태가 확인될 경우, 서비스 가능 상태를 음성응답장치(200)를 통해 단말장치(100)에 통지하고, 단말장치(100)에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 생성하여 단말장치(100)에 전송하게 된다.
또한, 화면서비스장치(400)는 단말장치(100)로부터 음성인식 서비스 요청을 수신하여 화면컨텐츠를 구성한다.
보다 구체적으로, 화면서비스장치(400)는 서비스어플리케이션 구동을 통해 사용자 음성을 인식한 단말장치(100)로부터 음성인식 결과에 해당하는 키워드를 기초로 한 음성인식 서비스 요청을 수신하게 된다. 이에, 화면서비스장치(400)는 전달된 키워드에 매핑된 컨텐츠를 검색하여 음성인식 서비스 제공을 위한 화면컨텐츠를 구성하게 된다.
나아가, 화면서비스장치(400)는 음성인식 요청에 따라 구성된 화면컨텐츠를 단말장치(100)에 제공한다.
보다 구체적으로, 화면서비스장치(400)는 음성인식 서비스 제공에 따라 구성된 화면컨텐츠를 단말장치(100)에 제공하며, 단말장치(100)에 대한 화면컨텐츠 전송 완료를 음성응답장치(200)에 통지함으로써, 음성응답장치(200)로 하여금 음성인식 서비스 제공을 위해 생성된 음성정보를 재생토록 하여 단말장치(100)에 해당 음성정보를 제공하게 된다. 이를 통해 화면서비스장치(400)는 단말장치(100) 상에서 화면컨텐츠에 포함된 텍스트정보가 음성정보에 동기되어 표시되도록 한다. 이때, 화면서비스장치(400)는 화면컨텐츠 대신 키워드에 매핑된 화면컨텐츠를 저장하는 별도의 컨텐츠서버(도시안됨)의 접속주소(URL)를 검색하여 단말장치(100)에 제공하여, 단말장치(100)의 접속을 유도할 수 있다.
이하에서는, 도 2를 참조하여, 본 발명의 제 2 실시예에 따른 단말장치(100)의 구체적인 구성을 설명하도록 한다.
즉, 단말장치(100)는 음성인식 서비스에 대응하는 음성정보를 수신하는 음성처리부(110), 및 음성정보에 대응하는 화면컨텐츠를 획득하고, 상기 획득된 화면컨텐츠에 포함된 텍스트정보를 해당 음성정보의 수신에 따라 표시하는 화면처리부(120)를 포함하는 구성을 갖는다. 여기서, 화면처리부(120)는 서비스어플리케이션을 지칭하는 것으로서, 운영체제(OS, Operating System)에서 지원하는 플랫폼을 기반으로 구동하여 패킷망 접속을 통해 음성정보에 대응하는 화면컨텐츠를 수신하게 된다.
음성처리부(110)는 음성응답장치(200)의 접속을 통해 음성인식 서비스를 안내 받는다.
보다 구체적으로, 음성처리부(110)는 음성응답장치(200)에 대한 음성호 접속을 수행함으로써, 음성응답장치(200)를 통해 음성인식 서비스에 대한 안내를 수신하게 된다. 이와 관련하여, 음성응답장치(200)는 단말장치(100)의 음성호 접속에 따라 화면서비스장치(400)를 통해 단말장치(100)에 대한 서비스 가능 여부 조회함으로써, 상기 단말장치(100)가 음성인식을 지원하는 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다.
화면처리부(120)는 음성인식을 지원하기 위해 내장된 서비스어플리케이션을 구동한다.
보다 구체적으로, 화면처리부(120)는 전술한 음성인식 서비스 안내 수신 이후, 화면서비스장치(400)로부터의 구동메시지 수신에 따라, 음성인식을 지원하기 위해 내장된 서비스어플리케이션을 구동하게 된다.
아울러, 화면처리부(120)는 화면서비스장치(400)에 음성인식 서비스를 요청한다.
보다 구체적으로, 화면처리부(120)는 음성응답장치(200)로부터 수신된 음성인식 서비스 안내를 기초로 한 사용자의 음성에 대한 음성인식을 수행하고, 음성인식 수행 결과에 해당하는 키워드를 선택함으로써, 화면서비스장치(400)에 해당 키워드를 기초로 한 음성인식 서비스를 요청하게 된다. 이때, 화면처리부(120)는 내장된 서비스어플리케이션과 연동되는 음성인식장치(300)에 사용자 음성 즉, 음성인식 서비스 요청을 전달하여 음성인식을 요청하고, 음성인식장치(300)로부터 하나 이상의 키워드를 포함하는 음성인식 결과 값을 수신하게 된다. 한편, 화면처리부(120)는 내장된 서비스어플리케이션에서 음성인식 기능을 지원하는 경우, 음성인식장치(300)와의 연동 없이 내장된 서비스어플리케이션을 통해 사용자 음성에 대한 음성인식을 수행하고, 그 결과 값을 획득하게 된다.
이후, 화면처리부(120)는 음성인식 서비스에 대응하는 화면컨텐츠를 수신한다.
보다 구체적으로, 화면처리부(120)는 상기 키워드 기반 음성인식 서비스 요청에 따라 전달된 키워드에 대응하는 화면컨텐츠를 화면서비스장치(400)로부터 수신한다. 이때, 화면처리부(120)는 화면서비스장치(400)로부터 화면컨텐츠 대신 접속주소(URL)를 수신할 수 있으며, 이를 기반으로 별도의 컨텐츠서버(도시안됨)에 접속함으로써, 전달된 키워드에 매핑된 화면컨텐츠를 획득하게 된다. 한편, 화면처리부(120)는 내장된 서비스어플리케이션 상에 복수의 키워드에 매핑되는 컨텐츠서버(도시안됨)의 접속주소를 사전에 등록하고, 등록된 접속주소를 토대로 특정 컨텐츠서버(도시안됨)에 접속하여 키워드에 매핑된 화면컨텐츠를 획득하는 구성 또한 가능하다.
아울러, 음성처리부(110)는 음성인식 서비스 이용에 따른 음성정보를 수신한다.
보다 구체적으로, 음성처리부(110)는 음성인식 서비스 제공을 위해 생성된 음성정보를 음성응답장치(200)로부터 수신하게 된다. 이때, 음성응답장치(200)는 화면서비스장치(400)로부터 단말장치(100)에 대한 화면컨텐츠 전송 완료되었음이 통지될 경우, 음성인식 서비스 제공을 위해 생성된 음성정보를 재생함으로써, 단말장치(100)에 해당 음성정보를 제공하게 된다.
이와 동시에, 화면처리부(120)는 화면컨텐츠에 포함된 텍스트정보를 표시한다.
보다 구체적으로, 화면처리부(120)는 음성응답장치(200)에서 재생되는 음성정보를 수신함과 아울러, 화면서비스장치(300)로부터 수신된 화면컨텐츠 상의 텍스트정보를 동시에 표시하게 된다.
이하에서는, 도 4를 참조하여, 본 발명의 제 2 실시예에 따른 화면서비스장치(400)의 구체적인 구성을 설명하도록 한다.
즉, 화면서비스장치(400)는 단말장치(100)에 구동메시지를 전송하여 상기 단말장치(410)에 내장된 서비스어플리케이션을 구동시키는 단말구동부(410); 상기 음성인식 서비스 제공을 위한 화면컨텐츠를 구성하는 컨텐츠구성부(420); 및 구성된 화면컨텐츠를 단말장치(100)에 제공하는 컨텐츠제공부(430)를 포함하는 구성을 갖는다.
단말구동부(410)는 단말장치(100)에 내장된 서비스어플리케이션을 구동시킨다.
보다 구체적으로, 단말구동부(410)는 음성응답장치(200)로부터 음성호 접속된 단말장치(100)에 대한 서비스 가능 여부 조회 요청이 수신될 경우, 데이터베이스 조회를 통해 상기 단말장치(100)가 음성인식을 지원하기 위한 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다. 아울러, 단말구동부(410)는 상기 단말장치(100)에 대한 서비스어플리케이션 내장 상태가 확인될 경우, 서비스 가능 상태를 음성응답장치(200)를 통해 단말장치(100)에 통지하고, 단말장치(100)에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 생성하여 단말장치(100)에 전송하게 된다.
컨텐츠구성부(420)는 단말장치(100)로부터 음성인식 서비스 요청을 수신하여 화면컨텐츠를 구성한다.
보다 구체적으로, 컨텐츠구성부(420)는 서비스어플리케이션 구동을 통해 사용자 음성을 인식한 단말장치(100)로부터 음성인식 결과에 해당하는 키워드를 기초로 한 음성인식 서비스 요청을 수신하게 된다. 이에, 컨텐츠구성부(420)는 전달된 키워드에 매핑된 컨텐츠를 검색하여 음성인식 서비스 제공을 위한 화면컨텐츠를 구성하게 된다.
컨텐츠제공부(430)는 음성인식 요청에 따라 구성된 화면컨텐츠를 단말장치(100)에 제공한다.
보다 구체적으로, 컨텐츠제공부(430)는 음성인식 서비스 제공에 따라 구성된 화면컨텐츠를 단말장치(100)에 제공하며, 단말장치(100)에 대한 화면컨텐츠 전송 완료를 음성응답장치(200)에 통지함으로써, 음성응답장치(200)로 하여금 음성인식 서비스 제공을 위해 생성된 음성정보를 재생토록 하여 단말장치(100)에 해당 음성정보를 제공하게 된다. 이를 통해 컨텐츠제공부(430)는 단말장치(100) 상에서 화면컨텐츠에 포함된 텍스트정보가 음성정보에 동기되어 표시되도록 한다. 이때, 컨텐츠제공부(430)는 화면컨텐츠 대신 키워드에 매핑된 화면컨텐츠를 저장하는 별도의 컨텐츠서버(도시안됨)의 접속주소(URL)를 검색하여 단말장치(100)에 제공하여, 단말장치(100)의 접속을 유도할 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 실시예에 따른 음성인식 부가 서비스 제공 시스템에 따르면, 음성인식 서비스 제공 시, 각각의 상황에서 이용이 예상되는 서비스의 제시어를 음성이 아닌 화면으로 제공하고 이용 가능한 기능들을 화면으로 제시함으로써, 음성으로 항상 알려줄 수 없는 서비스의 기능을 최대한 활용할 수 있다.  또한, 음성인식이 잘 되지 않거나 음성인식 서비스를 진행하기 어려운 상황에서도 서비스 제시어 및 이용 가능한 기능들을 화면상에서 바로 선택하여 원하는 정보를 편리하게 선택하여 이용할 수 있다.
이하에서는, 도 8 내지 도 15를 참조하여, 본 발명의 제 1 실시예에 따른 음성인식 부가 서비스 제공 방법을 설명하기로 한다. 여기서, 전술한 도 1 내지 도 6에 도시된 구성은 설명의 편의를 위해 해당 참조번호를 언급하여 설명하기로 한다.
우선, 도 8 및 도 9를 참조하여 본 발명의 제 1 실시예에 따른 음성인식 부가 서비스 제공 시스템의 동작 방법을 설명하기로 한다.
먼저, 단말장치(100)가 음성응답장치(200)에 접속하여 음성인식 서비스를 요청한다(S110-S120).
바람직하게는, 단말장치(100)는 음성응답장치(200)에 대한 음성호 접속 이후, 음성응답장치(200)로부터의 제공되는 서비스 안내를 토대로 음성인식 서비스를 요청하게 된다.
그리고 나서, 화면서비스장치(400)가 단말장치(100)에 내장된 서비스어플리케이션을 구동하여 접속을 유도한다(S130-S160, S180).
바람직하게는, 화면서비스장치(400)는 단말장치(100)의 음성인식 서비스 요청을 수신한 음성응답장치(200)로부터 단말장치(100)에 대한 서비스 가능 여부 조회 요청이 수신될 경우, 데이터베이스 조회를 통해 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다. 아울러, 화면서비스장치(400)는 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스어플리케이션이 내장된 것이 확인될 경우, 단말장치(100)에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 생성하여 단말장치(100)에 전송함으로써 무선인터넷 즉, 패킷망을 통한 단말장치(100)의 접속을 유도하고, 이후 서비스 가능 여부 조회 결과를 음성응답장치(200)에 전달한다.
그런 다음, 단말장치(100)가 음성인식 서비스 이용 시, 음성정보에 대응하는 화면컨텐츠를 수신하기 위해 내장된 서비스어플리케이션을 구동한다(S170).
바람직하게는, 단말장치(100)는 상술한 음성인식 서비스 요청 이후, 화면서비스장치(400)로부터의 구동메시지 수신에 따라, 내장된 서비스어플리케이션을 구동함으로써, 음성인식장치(300)로부터 제공되는 음성정보 이외에 추가로 제공되는 화면컨텐츠를 수신하기 위해 화면서비스장치(400)에 접속하게 된다.
다음으로, 음성인식장치(300)가 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보 및 텍스트정보를 생성한다(S200).
바람직하게는, 음성인식장치(300)는 음성응답장치(200)로부터 단말장치(100)에 대한 음성호를 전달받아 음성인식 서비스를 제공하게 되며, 이 과정에서 지정된 단계별로 음성정보를 생성한다. 이때, 음성인식장치(300)에서 생성되는 음성정보의 경우, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어, 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성안내가 해당될 수 있다. 또한, 음성인식장치(300)는 상술한 바와 같이 음성인식 서비스 과정에서 음성정보가 생성될 경우, 생성되는 음성정보 각각과 동일한 문장의 텍스트정보를 생성하게 된다. 이때, 음성인식장치(300)에서 생성되는 텍스트정보의 경우, 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)가 포함될 수 있다.
그리고 나서, 음성인식장치(300)가 생성된 음성정보 및 텍스트정보를 전달한다(S210-S220).
바람직하게는, 음성인식장치(300)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하여 생성된 음성정보를 음성응답장치(200)에 제공하여 재생을 요청함과 아울러, 생성된 텍스트정보를 화면서비스장치(200)로 제공하여 텍스트정보를 포함하는 화면컨텐츠가 단말장치(100)에 전달될 수 있도록 한다.
그런 다음, 화면서비스장치(400)가 단말장치(100)에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하여 화면컨텐츠를 구성한다(S230).
바람직하게는, 화면서비스장치(400)는 상기 단말장치(100)에 대한 음성인식 서비스 제공에 따라, 음성인식장치(300)로부터 지정된 단계별로 생성된 음성정보에 대응하는 텍스트정보를 수신하고, 단말장치(100)에 내장된 서비스어플리케이션에 지정된 포맷에 따라 음성인식장치(300)로부터 수신된 텍스트정보가 포함되도록 화면컨텐츠를 구성한다.
다음으로, 음성응답장치(200)가 음성정보를 단말장치(100)에 전달함과 아울러, 화면서비스장치(400)가 화면컨텐츠를 단말장치(100)에 제공한다(S240-S260).
바람직하게는, 음성응답장치(200)는 음성인식장치(300)로부터 전달된 음성정보의 재생을 통해 해당 음성정보가 단말장치(100)에 전달되도록 하며, 이와 동시에 화면서비스장치(400)는 음성인식 서비스 제공 과정에서 지정된 단계별로 구성되는 상기 화면컨텐츠를 단말장치(100)에 제공한다.
이후, 단말장치(100)가 화면컨텐츠에 포함된 텍스트정보를 표시한다(S270).
보다 구체적으로, 단말장치(100)는 지정된 단계별로 음성응답장치(200)를 통해 재생되는 음성정보를 수신함과 아울러, 화면서비스장치(300)로부터 수신되는 화면컨텐츠에 포함된 텍스트정보를 동시에 표시하게 된다. 이때, 단말장치(100)는 지정된 단계에 대응하여 화면서비스장치(400)로부터 새롭게 수신되는 텍스트정보를 표시함에 있어서, 도 5 및 도 6에 도시한 바와 같이 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 채팅 창 방식을 적용하게 된다. 즉, 단말장치(100)는 상술한 채팅 창 방식의 텍스트정보 표시 형태를 적용함으로써, 사용자로 하여금 스크롤 업다운을 통해 기존 디스플레이 항목에 대한 검색을 용이하게 하여 서비스 이해도를 높일 수 있다. 다시 말해, 서킷(Circuit)망을 통해 전달되는 음성정보와 패킷(Paket)망을 통해 전달되는 화면컨텐츠 즉, 텍스트정보가 불일치하는 경우가 발생할 경우, 사용자로 하여금 스크롤 업/다운을 통해 현재 수신되는 음성이 화면의 어느 시점에 표시되고 있는지를 직관적이고 용이하게 판단할 수 있도록 한다.
한편, 음성인식장치(300)는 생성된 음성정보 및 텍스트정보를 전달함에 있어서, 단말장치(100)에 전달되는 음성정보와 이에 대응하는 화면컨텐츠에 대한 동기화를 수행할 수 있다.
바람직하게는, 음성인식장치(300)는 단말장치(100)에 전달되는 음성정보와 이에 대응하는 화면컨텐츠에 대한 동기화를 위해, 예컨대, 도 10에 도시한 바와 같이 음성응답장치(200)에 음성정보를 제공한 이후(S11), 화면컨텐츠장치(200)로부터 해당 화면컨텐츠에 대한 전송완료신호가 전달될 경우(S12-S16), 음성응답장치(200)에 제공된 음성정보에 대한 추가적인 재생요청을 전달함으로써 음성정보의 재생 시점과 화면컨텐츠의 전달 시점을 일치시키게 된다(S17-S19). 또한, 음성인식장치(300)는 도 11에 도시한 바와 같이, 화면컨텐츠장치(400)로부터 화면컨텐츠에 대한 전송완료신호가 전달된 이후에(S21-S25), 음성응답장치(200)에 해당 음성정보를 제공함과 동시에 재생을 요청함으로써, 음성정보의 재생 시점과 화면컨텐츠의 전달 시점을 일치시킬 수 있다(S26-S28). 이와 관련하여, 음성정보의 재생 시점과 화면컨텐츠의 전달 시점을 일치시키기 위한 별도의 방안으로서, 도 12에 도시한 바와 같이, 화면컨텐츠장치(400)가 화면컨텐츠에 대한 전송완료신호를 음성응답장치(200)에 직접 제공하고(S31-S36), 이를 수신한 음성응답장치(200)가 음성인식장치(300)로부터 기 제공된 음성정보를 재생함으로써, 음성정보의 재생 시점과 화면컨텐츠의 전달 시점을 일치시키는 구성 또한 가능할 것이다(S37-S38).
이후, 단말장치(100)가 화면컨텐츠에 포함된 텍스트정보를 기초로 컨텐츠를 요청한다(S280a, S280b).
바람직하게는, 단말장치(100)는 화면컨텐츠 상에서 서비스 제시어에 해당하는 텍스트정보 즉, 서비스 제시어에 대한 선택을 수행함으로써, 선택된 텍스트정보에 대응하는 컨텐츠를 화면서비스장치(400)에 요청하게 된다. 이때, 단말장치(100)는 화면입력을 통해 텍스트정보가 선택된 경우, 선택된 텍스트정보를 기초로 한 컨텐츠 요청을 화면서비스장치(400)에 직접 전달하게 된다. 한편, 단말장치(100)는 음성입력을 통해 텍스트정보가 선택된 경우, 해당 음성을 음성응답장치(200)를 통해 음성인식장치(300)에 전달함으로써, 음성인식장치(300)로 하여금 음성 인식된 결과 즉, 해당 텍스트정보를 화면서비스장치(400)에 전달할 수 있도록 한다.
나아가, 음성인식장치(300)가 단말장치(100)의 컨텐츠 요청에 따라 해당 서비스 제공을 위한 정보를 생성한다(S290a-S300a).
바람직하게는, 음성인식장치(300)가 화면서비스장치(400)로부터 단말장치(100)의 화면입력을 통한 컨텐츠 요청이 전달될 경우, 전달된 컨텐츠 요청을 기초로 특정 서비스 제공을 위한 음성정보(음성안내) 및 해당 음성정보에 대응하는 텍스트정보를 생성하게 된다.
그리고 나서, 화면서비스장치(400)가 기 제공된 화면컨텐츠를 기초로 한 단말장치(100)의 컨텐츠 요청에 따라, 상기 요청된 컨텐츠에 대응하는 텍스트정보를 획득하여 화면컨텐츠를 구성한다(S310a-S320a, S330, S290b).
바람직하게는, 화면서비스장치(400)는 단말장치(100)로부터 기 제공된 화면컨텐츠 상의 텍스트정보 즉, 서비스 제시어 선택에 따른 컨텐츠 요청이 수신될 경우, 해당 컨텐츠 요청을 음성응답장치(200)를 통해 또는 직접 음성인식장치(300)에 전달함으로써, 음성인식장치(300)로부터 요청된 컨텐츠에 대응하여 생성된 텍스트정보를 수신하여 화면컨텐츠를 구성할 수 있다. 또한, 화면서비스장치(400)는 단말장치(100)로부터 컨텐츠 요청이 수신될 경우, 자체 데이터베이스 검색을 통해 요청된 컨텐츠를 검색하거나, 선택된 서비스 제시어에 매핑된 접속주소(URL)를 기반으로 별도의 컨텐츠서버(도시안됨)에 접속함으로써, 접속된 컨텐츠서버로부터 요청된 컨텐츠를 획득하여 화면컨텐츠를 구성할 수 있다.
이후, 화면서비스장치(400)가 컨텐츠 요청에 따라 구성된 화면컨텐츠를 단말장치(100)에 제공한다(S340-S360, S300b-S320b).
바람직하게는, 화면서비스장치(400)는 단말장치(100)의 컨텐츠 요청에 대응하여 구성된 화면컨텐츠를 단말장치(100)에 제공함으로써, 음성응답장치(200)를 통해 음성정보를 추가적으로 수신하는 단말장치(100)에서 화면컨텐츠에 포함된 텍스트정보가 음성정보에 동기되어 표시되도록 한다. 한편, 도 9에서와 같이, 화면서비스장치(400)는 컨텐츠 요청에 따라 제공되는 텍스트정보에 동기되는 음성정보가 존재하지 않을 경우, 단말장치(100)에 대한 화면컨텐츠 제공 이후, 해당 상태를 음성응답장치(200)에 통지함으로써, 음성응답장치(200)로 하여금 음성호를 종료시키 단말장치(100)를 대상으로 한 부가적인 음성정보의 제공 동작을 중지하도록 한다.
이하에서는, 도 13을 참조하여 본 발명의 제 1 실시예에 따른 단말장치(100)의 동작 방법을 설명하기로 한다.
먼저, 음성응답장치(200)에 접속하여 음성인식 서비스를 요청한다(S410-S420).
바람직하게는, 음성처리부(110)는 음성응답장치(200)에 대한 음성호 접속 이후, 음성응답장치(200)로부터의 제공되는 서비스 안내를 토대로 음성인식 서비스를 요청하게 된다. 이와 관련하여, 음성응답장치(200)는 화면서비스장치(400)를 통해 단말장치(100)에 대한 서비스 가능 여부 조회함으로써, 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다.
그리고 나서, 음성인식 서비스 이용 과정에서 추가 제공되는 화면컨텐츠를 수신하기 위해 화면서비스장치에 접속한다(S430-S440).
바람직하게는, 화면처리부(120)는 음성인식 서비스 요청 이후, 화면서비스장치(400)로부터 전송되는 구동메시지에 수신에 따라 인보크(Invoke)되어, 음성인식장치(300)로부터 제공되는 음성정보에 대응하는 화면컨텐츠를 수신하기 위해 화면서비스장치(400)에 접속하게 된다.
그런 다음, 음성인식 서비스 이용에 따른 음성정보를 수신한다(S450).
바람직하게는, 음성처리부(110)는 음성인식 서비스 접속에 따라 지정된 단계에 대응하도록 음성인식장치(300)에서 생성된 음성정보를 음성응답장치(200)로부터 수신하게 된다. 이때, 음성응답장치(200)를 통해 수신되는 음성정보의 경우, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어, 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성안내가 해당될 수 있다.
아울러, 수신되는 음성정보에 대응하는 화면컨텐츠를 획득한다(S460).
바람직하게는, 화면처리부(120)는 지정된 단계별로 음성응답장치(200)를 통해 수신되는 각각의 음성정보에 동기화된 텍스트정보를 포함하는 화면컨텐츠를 화면서비스장치(400)로부터 수신하게 된다. 이때, 화면서비스장치(400)로부터 수신되는 화면컨텐츠의 경우, 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)가 포함될 수 있다.
나아가, 화면컨텐츠에 포함된 텍스트정보를 표시한다(S470).
바람직하게는, 화면처리부(120)는 지정된 단계별로 음성응답장치(200)를 통해 재생되는 음성정보를 수신함과 아울러, 화면서비스장치(300)로부터 수신되는 화면컨텐츠에 포함된 텍스트정보를 동시에 표시하게 된다. 이때, 화면처리부(120)는 지정된 단계에 대응하여 화면서비스장치(400)로부터 새롭게 수신되는 텍스트정보를 표시함에 있어서, 도 5 및 도 6에 도시한 바와 같이 이전 표시된 텍스트정보를 유지한 상태로 상기 새로운 텍스트정보를 추가하여 표시하는 채팅 창 방식을 적용하게 된다. 즉, 화면처리부(120)는 상술한 채팅 창 방식의 텍스트정보 표시 형태를 적용함으로써, 사용자로 하여금 스크롤 업다운을 통해 기존 디스플레이 항목에 대한 검색을 용이하게 하여 서비스 이해도를 높일 수 있다. 다시 말해, 서킷(Circuit)망을 통해 전달되는 음성정보와 패킷(Paket)망을 통해 전달되는 화면컨텐츠 즉, 텍스트정보가 불일치하는 경우가 발생할 경우, 사용자로 하여금 스크롤 업/다운을 통해 현재 수신되는 음성이 화면의 어느 시점에 표시되고 있는지를 직관적이고 용이하게 판단할 수 있도록 한다.
이후, 화면컨텐츠에 포함된 텍스트정보를 기초로 컨텐츠를 요청한다(S480).
바람직하게는, 화면처리부(120)는 화면컨텐츠 상에서 서비스 제시어에 해당하는 텍스트정보 즉, 서비스 제시어에 대한 선택을 수행함으로써, 선택된 텍스트정보에 대응하는 컨텐츠를 화면서비스장치(400)에 요청하게 된다. 이때, 화면처리부(120)는 화면입력을 통해 텍스트정보가 선택된 경우, 선택된 텍스트정보를 기초로 한 컨텐츠 요청을 화면서비스장치(400)에 직접 전달하게 된다. 반면, 음성입력을 통해 텍스트정보가 선택된 경우, 음성처리부(110)가 해당 음성을 음성응답장치(200)를 통해 음성인식장치(300)에 전달함으로써, 음성인식장치(300)로 하여금 음성 인식된 결과 즉, 해당 텍스트정보를 화면서비스장치(400)에 전달할 수 있도록 한다.
그리고 나서, 컨텐츠 요청에 따른 음성정보를 수신한다(S490).
바람직하게는, 음성처리부(110)는 음성정보와 텍스트정보가 함께 요구되는 컨텐츠 요청을 전달한 경우, 음성인식장치(300)에서 생성된 음성정보를 음성응답장치(200)로부터 수신하게 된다.
아울러, 화면처리부(120)는 컨텐츠 요청에 대응하는 화면컨텐츠를 수신하여, 화면컨텐츠에 포함된 텍스트정보를 표시한다(S500-S510).
바람직하게는, 화면처리부(120)는 텍스트정보 선택을 통해 음성정보와 텍스트정보가 함께 요구되는 컨텐츠 요청을 전달한 경우, 음성응답장치(200)를 통해 재생되는 음성정보를 수신함과 아울러, 화면서비스장치(300)로부터 화면컨텐츠를 수신하여, 화면컨텐츠에 포함된 텍스트정보를 동시에 표시하게 된다. 한편, 화면처리부(120)는 텍스트정보만이 요구되는 컨텐츠 요청을 전달한 경우, 별도의 음성정보 수신과정 없이 화면서비스장치(300)로부터 텍스트정보가 포함된 화면컨텐츠만을 수신하게 된다.
이하에서는, 도 14를 참조하여 본 발명의 제 1 실시예에 따른 음성인식장치(300)의 동작 방법을 설명하기로 한다.
먼저, 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하는 음성정보를 생성한다(S610-S640).
바람직하게는, 정보처리부(310)는 음성응답장치(200)로부터 단말장치(100)에 대한 음성호를 전달받아 음성인식 서비스를 제공하게 되며, 이 과정에서 지정된 단계별로 음성정보를 생성한다. 이때, 정보처리부(310)는 지정된 단계별로, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내, 사용자의 음성 입력을 유도하기 위한 음성 제시어를 생성할 수 있다. 한편, 상기 음성 제시어를 기초로 한 사용자의 음성이 입력될 경우, 정보처리부(310)는 예컨대, 사용자의 음성인식 결과에 해당하는 키워드 정보, 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어, 추출된 키워드 정보에 대한 인식오류가 확인될 경우에 사용자의 음성 재입력을 유도하기 위한 음성 제시어, 및 상기 추출된 키워드 정보를 기초로 획득된 특정 컨텐츠에 대한 음성안내를 생성할 수 있다.
그리고 나서, 지정된 단계별로 생성되는 음성정보에 대응하는 텍스트정보를 생성한다(S650).
바람직하게는, 정보처리부(310)는 상술한 바와 같이 음성인식 서비스 과정에서 음성정보가 생성될 경우, 생성되는 음성정보 각각과 동일한 문장의 텍스트정보를 생성하게 된다. 이때, 정보처리부(310)는 도 5 및 도 6에 도시한 바와 같이, 예컨대, 음성인식 서비스를 안내하기 위한 음성안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)를 생성할 수 있다.
이후, 생성된 음성정보 및 텍스트정보를 단말장치(100)에 전달한다(S660).
바람직하게는, 정보처리부(310)는 단말장치(100)에 대한 음성인식 서비스 제공에 따라 지정된 단계에 대응하여 생성된 음성정보를 음성응답장치(200)에 전달하여 재생을 요청함으로써, 해당 음성정보를 단말장치(100)에 제공하게 된다. 아울러, 정보전달부(310)는 정보처리부(310)로부터 음성정보에 대응하여 생성된 텍스트정보를 전달받아 화면서비스장치(200)로 제공하며, 이를 통해 제공된 텍스트정보를 포함하는 화면컨텐츠가 단말장치(100)에 전달될 수 있도록 함으로써, 전달된 텍스트정보가 상기 단말장치(100)에 제공되는 해당 음성정보에 동기되어 예컨대, 채팅 창 방식과 같이 연속적으로 표시될 수 있도록 한다. 예컨대, 정보전달부(310)는 음성인식 서비스 과정에서 제공되는 음성정보 이외의 텍스트정보{제1텍스트정보(a), 제2텍스트정보(b)}를 부가 제공하여 사용자로부터 정확한 발음의 음성 입력을 유도함으로써, 키워드 인식률을 향상시킬 수 있다. 또한, 정보전달부(310)는 사용자의 음성인식 결과에 해당하는 키워드 정보의 확인을 위한 텍스트정보{제3텍스트정보(c), 제4텍스트정보(d)}를 제공함으로써, 키워드 정보를 기초로 한 컨텐츠 추출 이전에 해당 사용자의 음성 인식 상태를 전달하여 사용자의 발음이 어떻게 인식되었는지를 보여줌으로써 사용자가 잘못 인식된 구간을 인식하고 해당 구간에서 정확한 발음을 하도록 유도한다. 나아가, 정보전달부(310)는 사용자가 정확한 발음을 구사하지 못하는 경우(예: 사투리를 쓰는 사람이거나 외국인인 경우), 텍스트정보{제6텍스트정보(f)}를 통해 해당 서비스에 대한 대체 단어 예컨대, 아라비아 숫자 또는 발음이 쉬운 대체 문장을 제시함으로써 사용자의 음성 재입력을 유도할 수 있다.
나아가, 단말장치(100)의 컨텐츠 요청에 따라 해당 서비스 제공을 위한 정보를 생성한다(S670-S680).
바람직하게는, 정보처리부(310)는 화면서비스장치(400)로부터 단말장치(100)의 화면입력을 통한 컨텐츠 요청이 전달될 경우, 전달된 컨텐츠 요청을 기초로 특정 서비스 제공을 위한 음성정보(음성안내) 및 해당 음성정보에 대응하는 텍스트정보를 생성하게 된다.
그리고 나서, 생성된 음성정보를 단말장치(100)에 전달한다(S690).
바람직하게는, 정보처리부(310)는 단말장치(100)의 컨텐츠 요청에 따라 생성된 음성정보를 음성응답장치(200)에 전달하여 단말장치(100)에 대한 재생을 요청한다.
다음으로, 음성정보 제공과 별도로 텍스트정보를 단말장치(100)에 전달한다(S700).
바람직하게는, 정보전달부(310)는 음성정보 제공과 별도로 텍스트정보를 화면서비스장치(200)로 제공하여 텍스트정보를 포함하는 화면컨텐츠가 단말장치(100)에 전달될 수 있도록 함으로써, 전달된 텍스트정보가 상기 단말장치(100)에 제공되는 해당 음성정보에 동기되어 표시될 수 있도록 한다.
이하에서는, 도 15를 참조하여 본 발명의 제 1 실시예에 따른 화면서비스장치(400)의 동작 방법을 설명하기로 한다.
먼저, 단말장치(100)에 내장된 서비스어플리케이션을 구동하여 접속을 유도한다(S710-S720).
바람직하게는, 단말구동부(410)는 단말장치(100)의 음성인식 서비스 요청을 수신한 음성응답장치(200)로부터 단말장치(100)에 대한 서비스 가능 여부 조회 요청이 수신될 경우, 데이터베이스 조회를 통해 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다. 아울러, 단말구동부(410)는 상기 단말장치(100)가 음성통화 중에 무선인터넷 접속이 가능하고 화면컨텐츠를 수신하기 위한 서비스어플리케이션이 내장된 것이 확인될 경우, 단말장치(100)에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 생성하여 단말장치(100)에 전송함으로써 무선인터넷 즉, 패킷망을 통한 단말장치(100)의 접속을 유도하게 된다.
그리고 나서, 단말장치(100)에 대해 전달되는 음성정보에 대응하는 텍스트정보를 획득하여 화면컨텐츠를 구성한다(S730-S740).
바람직하게는, 컨텐츠구성부(420)는 상기 단말장치(100)에 대한 음성인식 서비스 제공에 따라, 음성인식장치(300)로부터 지정된 단계별로 생성된 음성정보에 대응하는 텍스트정보 예컨대, 음성인식 서비스를 안내하기 위한 음성안내에 대응하는 제1텍스트정보(a), 사용자의 음성 입력을 유도하기 위한 음성 제시어에 대응하는 제2텍스트정보(b), 상기 음성 제시어를 기초로 한 사용자의 음성인식 결과에 해당하는 키워드 정보인 제3텍스트정보(c), 추출된 키워드 정보의 인식오류 확인을 위한 음성 질의어에 대응하는 제4텍스트정보(d), 상기 키워드 정보를 기초로 추출된 특정 컨텐츠의 음성안내에 대응하는 제5텍스트정보(e), 및 사용자의 음성 재입력을 유도하기 위한 음성 제시어에 대응하는 제6텍스트정보(f)를 수신하게 된다. 나아가, 화면서비스장치(400)는 단말장치(100)에 내장된 서비스어플리케이션에 지정된 포맷에 따라 음성인식장치(300)로부터 수신된 텍스트정보가 포함되도록 화면컨텐츠를 구성한다.
이후, 지정된 단계별로 구성되는 화면컨텐츠를 단말장치(100)에 제공한다(S750).
바람직하게는, 컨텐츠제공부(430)는 음성인식 서비스 제공 과정에서 지정된 단계별로 구성되는 상기 화면컨텐츠를 단말장치(100)에 제공함으로써, 화면컨텐츠에 포함된 텍스트정보가 단말장치(100)에서 수신중인 해당 음성정보에 동기되어 예컨대, 채팅 창 방식과 같이 연속적으로 표시될 수 있도록 한다.
나아가, 기 제공된 화면컨텐츠를 기초로 한 단말장치(100)의 컨텐츠 요청에 따라, 상기 요청된 컨텐츠에 대응하는 텍스트정보를 획득하여 화면컨텐츠를 구성한다(S760-S770).
바람직하게는, 컨텐츠구성부(420)는 단말장치(100)로부터 기 제공된 화면컨텐츠 상의 텍스트정보 즉, 서비스 제시어 선택에 따른 컨텐츠 요청이 수신될 경우, 해당 컨텐츠 요청을 음성응답장치(200)를 통해 또는 직접 음성인식장치(300)에 전달함으로써, 음성인식장치(300)로부터 요청된 컨텐츠에 대응하여 생성된 텍스트정보를 수신하여 화면컨텐츠를 구성할 수 있다. 또한, 컨텐츠구성부(420)는 단말장치(100)로부터 컨텐츠 요청이 수신될 경우, 자체 데이터베이스 검색을 통해 요청된 컨텐츠를 검색하거나, 선택된 서비스 제시어에 매핑된 접속주소(URL)를 기반으로 별도의 컨텐츠서버(도시안됨)에 접속함으로써, 접속된 컨텐츠서버로부터 요청된 컨텐츠를 획득하여 화면컨텐츠를 구성할 수 있다. 이때, 화면서비스장치(400)로 수신되는 컨텐츠 요청의 경우, 단말장치(100)가 화면입력을 통해 서비스 제시어를 선택함에 따라, 단말장치(100)에서 화면서비스장치(400)로 직접 전달될 수 있다. 또한, 단말장치(100)가 음성입력을 통해 서비스 제시어 선택할 경우, 해당 컨텐츠 요청은 음성응답장치(200)를 통해 음성인식장치(300)에 전달되고, 이를 수신한 음성인식장치(300)는 전달된 컨텐츠 요청에 대한 음성인식 결과에 해당하는 텍스트정보를 화면서비스장치(400)에 제공하게 된다.
그런 다음, 컨텐츠 요청에 따라 구성된 화면컨텐츠를 단말장치(100)에 제공한다(S780).
바람직하게는, 컨텐츠제공부(430)는 단말장치(100)의 컨텐츠 요청에 대응하여 구성된 화면컨텐츠를 단말장치(100)에 제공함으로써, 음성응답장치(200)를 통해 음성정보를 추가적으로 수신하는 단말장치(100)에서 화면컨텐츠에 포함된 텍스트정보가 음성정보에 동기되어 표시되도록 한다. 한편, 컨텐츠제공부(430)는 컨텐츠 요청에 따라 제공되는 텍스트정보에 동기되는 음성정보가 존재하지 않을 경우, 단말장치(100)에 대한 화면컨텐츠 제공 이후, 해당 상태를 음성응답장치(200)에 통지함으로써, 음성응답장치(200)로 하여금 음성호를 종료하고 단말장치(100)를 대상으로 한 부가적인 음성정보의 제공 동작을 중지하도록 한다.
이하에서는, 도 16 내지 도 18를 참조하여, 본 발명의 제 2 실시예에 따른 음성인식 부가 서비스 제공 방법을 설명하기로 한다. 여기서, 전술한 도 2 내지 도 7에 도시된 구성은 설명의 편의를 위해 해당 참조번호를 언급하여 설명하기로 한다.
우선, 도 16을 참조하여 본 발명의 제 2 실시예에 따른 음성인식 부가 서비스 제공 시스템의 동작 방법을 설명하기로 한다.
먼저, 화면서비스장치(400)는 단말장치(100)에 내장된 서비스어플리케이션을 구동시킨다(S810-S870).
바람직하게는, 화면서비스장치(400)는 음성응답장치(200)로부터 음성호 접속된 단말장치(100)에 대한 서비스 가능 여부 조회 요청이 수신될 경우, 데이터베이스 조회를 통해 상기 단말장치(100)가 음성인식을 지원하기 위한 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다. 아울러, 화면서비스장치(400)는 상기 단말장치(100)에 대한 서비스어플리케이션 내장 상태가 확인될 경우, 서비스 가능 상태를 음성응답장치(200)를 통해 단말장치(100)에 통지하고, 단말장치(100)에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 생성하여 단말장치(100)에 전송하게 된다.
그리고 나서, 단말장치(100)가 음성인식을 지원하기 위해 내장된 서비스어플리케이션을 구동한다(S880).
바람직하게는, 단말장치(100)는 전술한 음성인식 서비스 안내 수신 이후, 화면서비스장치(400)로부터의 구동메시지 수신에 따라, 음성인식을 지원하기 위해 내장된 서비스어플리케이션을 구동하게 된다.
그런 다음, 단말장치(100)가 화면서비스장치(400)에 음성인식 서비스를 요청한다(S890-S920).
바람직하게는, 단말장치(100)는 음성응답장치(200)로부터 수신된 음성인식 서비스 안내를 기초로 한 사용자의 음성에 대한 음성인식을 수행하고, 음성인식 수행 결과에 해당하는 키워드를 선택함으로써, 화면서비스장치(400)에 해당 키워드를 기초로 한 음성인식 서비스를 요청하게 된다. 이때, 단말장치(100)는 내장된 서비스어플리케이션과 연동되는 음성인식장치(300)에 사용자 음성 즉, 음성인식 서비스 요청을 전달하여 음성인식을 요청하고, 음성인식장치(300)로부터 하나 이상의 키워드를 포함하는 음성인식 결과 값을 수신하게 된다. 한편, 단말장치(100)는 내장된 서비스어플리케이션에서 음성인식 기능을 지원하는 경우, 음성인식장치(300)와의 연동 없이 내장된 서비스어플리케이션을 통해 사용자 음성에 대한 음성인식을 수행하고, 그 결과 값을 획득하게 된다.
다음으로, 화면서비스장치(400)가 단말장치(100)로부터 음성인식 서비스 요청을 수신하여 화면컨텐츠를 구성한다(S930).
바람직하게는, 화면서비스장치(400)는 서비스어플리케이션 구동을 통해 사용자 음성을 인식한 단말장치(100)로부터 음성인식 결과에 해당하는 키워드를 기초로 한 음성인식 서비스 요청을 수신하게 된다. 이에, 화면서비스장치(400)는 전달된 키워드에 매핑된 컨텐츠를 검색하여 음성인식 서비스 제공을 위한 화면컨텐츠를 구성하게 된다.
이후, 화면서비스장치(400)가 음성인식 요청에 따라 구성된 화면컨텐츠를 단말장치(100)에 제공한다(S940-S990).
바람직하게는, 화면서비스장치(400)는 음성인식 서비스 제공에 따라 구성된 화면컨텐츠를 단말장치(100)에 제공하며, 단말장치(100)에 대한 화면컨텐츠 전송 완료를 음성인식장치(300)에 통보하고 상기 선택된 키워드 정보를 전달함으로써, 음성응답장치(200)로 하여금 음성인식장치(300)로부터 제공받은 음성정보를 재생토록 하여 단말장치(100)에 해당 음성정보를 제공하게 된다. 이를 통해 화면서비스장치(400)는 단말장치(100) 상에서 화면컨텐츠에 포함된 텍스트정보가 음성정보에 동기되어 표시되도록 한다. 이때, 화면서비스장치(400)는 화면컨텐츠 대신 키워드에 매핑된 화면컨텐츠를 저장하는 별도의 컨텐츠서버(도시안됨)의 접속주소(URL)를 검색하여 단말장치(100)에 제공하여, 단말장치(100)의 접속을 유도할 수 있다.
한편, 전술한 과정을 통해 단말장치(100)에 화면컨텐츠를 제공한 이후, 기 제공된 화면컨텐츠를 기초로 한 단말장치의 컨텐츠 요청을 처리하는 동작의 경우, 도 8 및 도 9를 참조하여 설명한 단계 'S270' 이후의 단계와 동일한 과정을 통해 처리될 수 있다.
이하에서는, 도 17을 참조하여 본 발명의 제 2 실시예에 따른 단말장치(200)의 동작 방법을 설명하기로 한다.
먼저, 음성응답장치(200)의 접속을 통해 음성인식 서비스를 안내 받는다(S1010-S1020).
바람직하게는, 음성처리부(110)는 음성응답장치(200)에 대한 음성호 접속을 수행함으로써, 음성응답장치(200)를 통해 음성인식 서비스에 대한 안내를 수신하게 된다. 이와 관련하여, 음성응답장치(200)는 단말장치(100)의 음성호 접속에 따라 화면서비스장치(400)를 통해 단말장치(100)에 대한 서비스 가능 여부 조회함으로써, 상기 단말장치(100)가 음성인식을 지원하는 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다.
그리고 나서, 음성인식을 지원하기 위해 내장된 서비스어플리케이션을 구동한다(S1030-S1040).
바람직하게는, 화면처리부(120)는 전술한 음성인식 서비스 안내 수신 이후, 화면서비스장치(400)로부터의 구동메시지 수신에 따라, 음성인식을 지원하기 위해 내장된 서비스어플리케이션을 구동하게 된다.
그런 다음, 화면서비스장치(400)에 음성인식 서비스를 요청한다(S1050-S1080).
바람직하게는, 화면처리부(120)는 음성응답장치(200)로부터 수신된 음성인식 서비스 안내를 기초로 한 사용자의 음성에 대한 음성인식을 수행하고, 음성인식 수행 결과에 해당하는 키워드를 선택함으로써, 화면서비스장치(400)에 해당 키워드를 기초로 한 음성인식 서비스를 요청하게 된다. 이때, 화면처리부(120)는 내장된 서비스어플리케이션과 연동되는 음성인식장치(300)에 사용자 음성 즉, 음성인식 서비스 요청을 전달하여 음성인식을 요청하고, 음성인식장치(300)로부터 하나 이상의 키워드를 포함하는 음성인식 결과 값을 수신하게 된다. 한편, 화면처리부(120)는 내장된 서비스어플리케이션에서 음성인식 기능을 지원하는 경우, 음성인식장치(300)와의 연동 없이 내장된 서비스어플리케이션을 통해 사용자 음성에 대한 음성인식을 수행하고, 그 결과 값을 획득하게 된다.
다음으로, 음성인식 서비스에 대응하는 화면컨텐츠를 수신한다(S1090).
바람직하게는, 화면처리부(120)는 상기 키워드 기반 음성인식 서비스 요청에 따라 전달된 키워드에 대응하는 화면컨텐츠를 화면서비스장치(400)로부터 수신한다. 이때, 화면처리부(120)는 화면서비스장치(400)로부터 화면컨텐츠 대신 접속주소(URL)를 수신할 수 있으며, 이를 기반으로 별도의 컨텐츠서버(도시안됨)에 접속함으로써, 전달된 키워드에 매핑된 화면컨텐츠를 획득하게 된다. 한편, 화면처리부(120)는 내장된 서비스어플리케이션 상에 복수의 키워드에 매핑되는 컨텐츠서버(도시안됨)의 접속주소를 사전에 등록하고, 등록된 접속주소를 토대로 특정 컨텐츠서버(도시안됨)에 접속하여 키워드에 매핑된 화면컨텐츠를 획득하는 구성 또한 가능하다.
이후, 화면컨텐츠에 포함된 텍스트정보를 표시한다(S1100).
바람직하게는, 음성처리부(110)를 통해 음성응답장치(200)에서 재생되는 음성정보를 수신함과 아울러, 화면처리부(120)는 화면서비스장치(300)로부터 수신된 화면컨텐츠 상의 텍스트정보를 동시에 표시하게 된다.
이하에서는, 도 18을 참조하여 본 발명의 제 2 실시예에 따른 화면서비스장치(400)의 동작 방법을 설명하기로 한다.
먼저, 단말장치(100)에 내장된 서비스어플리케이션을 구동시킨다(S1110-S1130).
바람직하게는, 단말구동부(410)는 음성응답장치(200)로부터 음성호 접속된 단말장치(100)에 대한 서비스 가능 여부 조회 요청이 수신될 경우, 데이터베이스 조회를 통해 상기 단말장치(100)가 음성인식을 지원하기 위한 서비스어플리케이션이 내장된 단말장치임을 확인하게 된다. 아울러, 단말구동부(410)는 상기 단말장치(100)에 대한 서비스어플리케이션 내장 상태가 확인될 경우, 서비스 가능 상태를 음성응답장치(200)를 통해 단말장치(100)에 통지하고, 단말장치(100)에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 생성하여 단말장치(100)에 전송하게 된다.
그리고 나서, 단말장치(100)로부터 음성인식 서비스 요청을 수신하여 화면컨텐츠를 구성한다(S1140-S1150).
바람직하게는, 컨텐츠구성부(420)는 서비스어플리케이션 구동을 통해 사용자 음성을 인식한 단말장치(100)로부터 음성인식 결과에 해당하는 키워드를 기초로 한 음성인식 서비스 요청을 수신하게 된다. 이에, 컨텐츠구성부(420)는 전달된 키워드에 매핑된 컨텐츠를 검색하여 음성인식 서비스 제공을 위한 화면컨텐츠를 구성하게 된다.
이후, 음성인식 요청에 따라 구성된 화면컨텐츠를 단말장치(100)에 제공한다(S1160).
바람직하게는, 컨텐츠제공부(430)는 음성인식 서비스 제공에 따라 구성된 화면컨텐츠를 단말장치(100)에 제공하며, 단말장치(100)에 대한 화면컨텐츠 전송 완료를 음성인식장치(300)에 통보하고 상기 선택된 키워드 정보를 전달함으로써, 음성응답장치(200)로 하여금 음성인식장치(300)로부터 제공받은 음성정보를 재생토록 하여 단말장치(100)에 해당 음성정보를 제공하게 된다. 이를 통해 컨텐츠제공부(430)는 단말장치(100) 상에서 화면컨텐츠에 포함된 텍스트정보가 음성정보에 동기되어 표시되도록 한다. 이때, 컨텐츠제공부(430)는 화면컨텐츠 대신 키워드에 매핑된 화면컨텐츠를 저장하는 별도의 컨텐츠서버(도시안됨)의 접속주소(URL)를 검색하여 단말장치(100)에 제공하여, 단말장치(100)의 접속을 유도할 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 실시예에 따른 음성인식 부가 서비스 제공 방법에 따르면, 음성인식 서비스 제공 시, 각각의 상황에서 이용이 예상되는 서비스의 제시어를 음성이 아닌 화면으로 제공하고 이용 가능한 기능들을 화면으로 제시함으로써, 음성으로 항상 알려줄 수 없는 서비스의 기능을 최대한 활용할 수 있다. 또한, 음성인식이 잘 되지 않거나 음성인식 서비스를 진행하기 어려운 상황에서도 서비스 제시어 및 이용 가능한 기능들을 화면상에서 바로 선택하여 원하는 정보를 편리하게 선택하여 이용할 수 있다.
한편, 여기에 제시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
지금까지 본 발명을 바람직한 실시 예를 참조하여 상세히 설명하였지만, 본 발명이 상기한 실시 예에 한정되는 것은 아니며, 이하의 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 또는 수정이 가능한 범위까지 본 발명의 기술적 사상이 미친다 할 것이다.
본 발명에 따른 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치에 따르면, 음성인식 서비스와 관련하여 각각의 상황에서 이용이 예상되는 서비스의 제시어 및 이용 가능한 기능들에 대한 화면 제공을 통해 서비스 선택을 유도한다는 점에서 기존 기술의 한계를 뛰어 넘음에 따라 관련 기술에 대한 이용만이 아닌 적용되는 장치의 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있는 발명이다.
100: 단말장치
110: 음성처리부 120: 화면처리부
200: 음성응답장치(서버)
300: 음성인식장치(서버)
310: 정보처리부 320: 정보전달부
400: 화면서비스장치(서버)
410: 단말구동부 420: 컨텐츠구성부
430: 컨텐츠제공부

Claims (6)

  1. 기 제공된 화면컨텐츠를 기초로 한 단말장치의 컨텐츠 요청에 따라, 상기 요청된 컨텐츠에 대응하는 텍스트정보를 획득하고, 상기 획득된 텍스트정보를 기초로 화면컨텐츠를 구성하는 컨텐츠구성부; 및
    상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 제공된 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 표시되도록 하는 컨텐츠제공부를 포함하며,
    상기 컨텐츠제공부는,
    상기 획득된 텍스트정보에 매핑되는 음성정보가 존재할 경우, 상기 음성정보에 대한 상기 단말장치로의 전달 시점을 조절하여 상기 화면컨텐츠에 포함된 텍스트정보가 상기 음성정보에 동기되어 표시되도록 하는 것을 특징으로 하는 화면서비스장치.
  2. 기 제공된 화면컨텐츠를 기초로 한 단말장치의 컨텐츠 요청에 따라, 상기 요청된 컨텐츠에 대응하는 텍스트정보를 생성하는 정보처리부; 및
    상기 생성된 텍스트정보를 화면서비스장치에 전달하여, 상기 생성된 텍스트정보를 포함하는 화면컨텐츠가 상기 단말장치에 전달되도록 하는 정보전달부를 포함하며,
    상기 정보처리부는,
    상기 생성된 텍스트정보에 매핑되는 음성정보를 추가 생성하며, 상기 음성정보의 생성에 따라, 상기 화면컨텐츠에 대한 상기 단말장치로의 전달 시점을 확인하고, 확인된 전달 시점을 기초로 상기 음성정보를 제공하여 상기 화면컨텐츠에 포함된 텍스트정보에 상기 음성정보가 동기되어 재생되도록 하는 것을 특징으로 하는 음성인식장치.
  3. 음성인식을 위해 단말장치에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 전송하는 단말구동부;
    상기 단말장치로부터 음성인식 결과에 해당하는 키워드를 기초로 한 음성인식 서비스 요청이 수신될 경우, 상기 키워드에 대응하는 텍스트정보를 획득하고, 획득된 텍스트정보가 포함되도록 화면컨텐츠를 구성하는 컨텐츠구성부; 및
    상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 제공된 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 표시되도록 하는 컨텐츠제공부를 포함하며,
    상기 컨텐츠제공부는,
    상기 획득된 텍스트정보에 매핑되는 음성정보가 존재할 경우, 상기 음성정보에 대한 상기 단말장치로의 전달 시점을 조절하여 상기 화면컨텐츠에 포함된 텍스트정보가 상기 음성정보에 동기되어 표시되도록 하는 것을 특징으로 하는 화면서비스장치.
  4. 기 제공된 화면컨텐츠를 기초로 한 단말장치의 컨텐츠 요청에 따라, 상기 요청된 컨텐츠에 대응하는 텍스트정보를 획득하는 텍스트정보획득단계;
    상기 획득된 텍스트정보를 기초로 화면컨텐츠를 구성하는 컨텐츠구성단계; 및
    상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 제공된 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 표시되도록 하는 컨텐츠제공단계를 포함하며,
    상기 컨텐츠제공단계는,
    상기 획득된 텍스트정보에 매핑되는 음성정보가 존재할 경우, 상기 음성정보에 대한 상기 단말장치로의 전달 시점을 조절하여 상기 화면컨텐츠에 포함된 텍스트정보가 상기 음성정보에 동기되어 표시되도록 하는 것을 특징으로 하는 화면서비스장치의 동작 방법.
  5. 기 제공된 화면컨텐츠를 기초로 한 단말장치의 컨텐츠 요청에 따라, 상기 요청된 컨텐츠에 대응하는 텍스트정보를 생성하는 정보처리단계; 및
    상기 생성된 텍스트정보를 화면서비스장치에 전달하여, 상기 생성된 텍스트정보를 포함하는 화면컨텐츠가 상기 단말장치에 전달되도록 하는 정보전달단계를 포함하며,
    상기 정보처리단계는,
    상기 생성된 텍스트정보에 매핑되는 음성정보를 추가 생성하며, 상기 음성정보의 생성에 따라, 상기 화면컨텐츠에 대한 상기 단말장치로의 전달 시점을 확인하고, 확인된 전달 시점을 기초로 상기 음성정보를 제공하여 상기 화면컨텐츠에 포함된 텍스트정보에 상기 음성정보가 동기되어 재생되도록 하는 것을 특징으로 하는 음성인식장치의 동작 방법.
  6. 음성인식을 위해 단말장치에 내장된 서비스어플리케이션을 구동시키기 위한 구동메시지를 전송하는 단말구동단계;
    상기 단말장치로부터 음성인식 결과에 해당하는 키워드를 기초로 한 음성인식 서비스 요청이 수신될 경우, 상기 키워드에 대응하는 텍스트정보를 획득하고, 획득된 텍스트정보가 포함되도록 화면컨텐츠를 구성하는 컨텐츠구성단계; 및
    상기 화면컨텐츠를 상기 단말장치에 제공하여, 상기 제공된 화면컨텐츠에 포함된 텍스트정보가 상기 단말장치에 표시되도록 하는 컨텐츠제공단계를 포함하며,
    상기 컨텐츠제공단계는,
    상기 획득된 텍스트정보에 매핑되는 음성정보가 존재할 경우, 상기 음성정보에 대한 상기 단말장치로의 전달 시점을 조절하여 상기 화면컨텐츠에 포함된 텍스트정보가 상기 음성정보에 동기되어 표시되도록 하는 것을 특징으로 하는 화면서비스장치의 동작 방법.



KR1020120010924A 2012-02-02 2012-02-02 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치 KR20130089501A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120010924A KR20130089501A (ko) 2012-02-02 2012-02-02 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120010924A KR20130089501A (ko) 2012-02-02 2012-02-02 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치

Publications (1)

Publication Number Publication Date
KR20130089501A true KR20130089501A (ko) 2013-08-12

Family

ID=49215387

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120010924A KR20130089501A (ko) 2012-02-02 2012-02-02 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치

Country Status (1)

Country Link
KR (1) KR20130089501A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111524516A (zh) * 2020-04-30 2020-08-11 青岛海信网络科技股份有限公司 一种基于语音交互的控制方法、服务器及显示设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111524516A (zh) * 2020-04-30 2020-08-11 青岛海信网络科技股份有限公司 一种基于语音交互的控制方法、服务器及显示设备

Similar Documents

Publication Publication Date Title
KR20130057338A (ko) 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치
US20200410174A1 (en) Translating Languages
US10785522B2 (en) Method and system for controlling network-enabled devices with voice commands
US9530415B2 (en) System and method of providing speech processing in user interface
KR102036786B1 (ko) 제안되는 보이스 기반의 액션 쿼리들을 제공
US8054952B1 (en) Systems and methods for visual presentation and selection of IVR menu
US8223931B1 (en) Systems and methods for visual presentation and selection of IVR menu
US20180146090A1 (en) Systems and methods for visual presentation and selection of ivr menu
US8687777B1 (en) Systems and methods for visual presentation and selection of IVR menu
TWI249729B (en) Voice browser dialog enabler for a communication system
US8681951B1 (en) Systems and methods for visual presentation and selection of IVR menu
US8553859B1 (en) Device and method for providing enhanced telephony
US8880120B1 (en) Device and method for providing enhanced telephony
CA2970728A1 (en) Updating language understanding classifier models for a digital personal assistant based on crowd-sourcing
CN114596861A (zh) 针对问题和回答的显示装置和方法
JP2013143151A (ja) 音声認識を使用してユーザ機能を行う方法及び装置
US8625756B1 (en) Systems and methods for visual presentation and selection of IVR menu
US8731148B1 (en) Systems and methods for visual presentation and selection of IVR menu
US8867708B1 (en) Systems and methods for visual presentation and selection of IVR menu
KR20130089501A (ko) 음성인식 부가 서비스 제공 방법 및 이에 적용되는 장치
KR20120092320A (ko) 위치 기반의 검색어 추천 시스템 및 그 방법
CN110795546A (zh) 一种基于智能客服的收敛方法、装置及电子设备
KR102220253B1 (ko) 메신저 서비스 시스템, 그 시스템에서의 상용구를 이용한 메신저 서비스 방법 및 장치
JP2018063272A (ja) 音声対話装置、音声対話システム、および、音声対話装置の制御方法
JP2008293244A (ja) サービスシナリオ作成支援装置、サービスシナリオ作成支援プログラム及びその方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application