KR20090076318A - 실시간 대화 서비스 시스템 및 그 방법 - Google Patents

실시간 대화 서비스 시스템 및 그 방법 Download PDF

Info

Publication number
KR20090076318A
KR20090076318A KR1020080002192A KR20080002192A KR20090076318A KR 20090076318 A KR20090076318 A KR 20090076318A KR 1020080002192 A KR1020080002192 A KR 1020080002192A KR 20080002192 A KR20080002192 A KR 20080002192A KR 20090076318 A KR20090076318 A KR 20090076318A
Authority
KR
South Korea
Prior art keywords
character
user terminal
voice
user
answer
Prior art date
Application number
KR1020080002192A
Other languages
English (en)
Inventor
홍은진
Original Assignee
홍은진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 홍은진 filed Critical 홍은진
Priority to KR1020080002192A priority Critical patent/KR20090076318A/ko
Publication of KR20090076318A publication Critical patent/KR20090076318A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/16Communication-related supplementary services, e.g. call-transfer or call-hold
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working

Abstract

본 발명은 실시간 대화 서비스 시스템을 개시한다. 즉, 상기 시스템은 이동통신망을 통해 접속한 사용자 단말기의 선택에 따라 움직임이 가능한 사용자별 캐릭터를 지정하며, 상기 사용자 단말기로부터 전달되는 음성 데이터로부터 특징을 추출하여 상기 추출된 특징에 맵핑된 답변을 검색하고, 상기 검색된 답변에 해당하는 음성 및 동작을 상기 지정된 캐릭터를 통해 상기 사용자 단말기에 전달함으로써, 텍스트(Text) 위주의 기존 대화 서비스를 벗어나 영상 통화를 이용하여 시각적인 효과를 극대화한 양질의 실시간 대화 서비스를 제공함에 따라 사용자 참여도 및 서비스 만족도를 향상시킬 수 있다.
영상 통화, 캐릭터, 음성 인식

Description

실시간 대화 서비스 시스템 및 그 방법{REALTIME CONVERSATIONAL SERVICE SYSTEM AND METHOD THEREOF}
본 발명은 실시간 대화 서비스 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 영상 통화 및 음성 인식 기술을 기반으로 서비스 사용자에게 캐릭터를 적용한 영상 대화 서비스를 제공하는 실시가 대화 서비스 시스템 및 그 방법에 관한 것이다.
일반적으로, 자동 응답 시스템(Automatic Response System, ARS)이란 각 정보를 음성으로 저장하여 두고 사용자가 전화를 이용하여 시스템에 접속할 경우, 음성으로 필요한 정보를 검색할 수 있도록 사용법을 알려줌과 동시에 필요한 정보를 찾으면 이를 음성으로 들려주는 시스템을 지칭한다.
상기 ARS를 이용한 전화 정보 서비스(이하, ARS 서비스)는 전화 교환기에 음성사서함 장치를 설치 및 각종 정보를 수록해 놓고 정보 이용자가 전화를 걸어 원하는 정보를 청취하는 방식이다.
현재에는, 상술한 ARS 서비스에서 진화된 응용 서비스 형태의 일례로 웹 사이트나 단문 메시지를 통해 사용자가 해당 시스템에서 마련한 가상의 상대방에게 질문을 할 경우, 시스템은 사용자 질문의 구문을 분석하여, 해당 질문에 적합한 리액션을 제공하는 인공지능 대화 서비스들이 존재한다. 이러한 응용 서비스의 동작 원리는 사용자가 간단한 질문을 하면 질문에 대한 분석을 통해서 이에 대응되는 답변을 미리 저장해둔 데이터베이스에서 검색하여 사용자에게 보내주는 것이다. 이는 실제로 존재하지 않는 가상의 인물과의 대화를 가능하게 해줌으로써, 심심풀이 오락용에서부터 금융, 증권, 교통, 관광, 스포츠, 공연, 건강, 운세, 날씨 고객 센터, 의료 상담 또는 법률 상담 등과 같은 매우 다양한 분야에서의 실용정보 제공과 아울러 고민 상담에까지 이용되고 있다.
그러나, 지금까지의 대화 서비스의 경우 텍스트 위주의 서비스를 제공하고 있다. 즉, 최근 이동통신 단말기와 이를 지원하는 이동통신망의 발전 그리고 멀티미디어 서비스 확장에도 불구하고 기존의 대화 서비스는 텍스트 위주의 서비스에 국한됨에 따라, 사용자에게 보다 참여도가 높은 양질의 대화 서비스를 제공해주지 못하고 있는 실정이다.
본 발명은 상기한 바와 같이 선행 기술에 내재되었던 문제점을 해결하기 위해 창작된 것으로, 본 발명의 목적은 영상 통화 및 음성 인식 기술을 기반으로 서비스 사용자에게 캐릭터를 적용한 영상 대화 서비스 제공하는 실시가 대화 서비스 시스템 및 그 방법을 제공함에 있다.
상술한 목적을 달성하기 위한 본 발명의 일면에 따라, 지능형 대화 서비스 시스템이 제공되며: 이 시스템은 이동통신망을 통해 접속한 사용자 단말기의 선택에 따라 움직임이 가능한 사용자별 캐릭터를 지정하며, 상기 사용자 단말기로부터 전달되는 음성 데이터로부터 특징을 추출하여 상기 추출된 특징에 맵핑된 답변을 검색하고, 상기 검색된 답변에 해당하는 음성 및 동작을 상기 지정된 캐릭터를 통해 상기 사용자 단말기에 전달하는 것을 특징으로 한다.
바람직하게는, 상기 시스템은 상기 사용자 단말기의 접속시 저장된 캐릭터 리스트를 제공하며, 음성 또는 키(KEY) 입력을 통한 사용자 단말기의 선택에 따라 사용자별 캐릭터를 지정하여 상기 지정된 캐릭터를 제공하는 캐릭터 설정부; 상기 사용자 단말기로부터 전달되는 음성 데이터를 분석하여 상기 음성 데이터에 포함된 상기 특징을 추출하는 음성 인식부; 상기 음성 데이터에 포함된 다수의 특징에 대해 맵핑된 답변을 저장하는 데이터 베이스 검색을 통해 상기 추출된 특징에 해당하 는 답변을 추출하는 정보 검색부; 및 상기 추출된 답변에 설정된 음성 및 동작 정보를 토대로 상기 사용자 단말기에 제공되는 캐릭터를 제어하는 캐릭터 제어부를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 캐릭터 설정부는, 상기 사용자 단말기의 식별 정보를 토대로 사용자별로 지정된 캐릭터를 저장하며, 상기 사용자 단말기의 접속시 상기 식별 정보를 토대로 기 지정된 캐릭터를 제공하거나, 상기 사용자 단말기에 선택에 따라 새롭게 지정된 캐릭터를 제공하는 것을 특징으로 한다.
바람직하게는, 상기 음성 인식부는, 상기 음성 데이터에 포함된 단어 및 구문을 분석하여 상기 특징을 추출하는 것을 특징으로 한다.
바람직하게는, 상기 캐릭터 제어부는, 상기 추출된 답변에 설정된 동작 정보를 토대로 상기 사용자 단말기에 제공되는 캐릭터의 표정을 포함하는 동작을 변형시키고, 상기 캐릭터의 동작 변형에 따라 상기 추출된 답변에 설정된 음성 정보를 삽입하는 것을 특징으로 한다.
바람직하게는, 상기 캐릭터 제어부는, 상기 추출된 답변에 별도의 부가 영상 정보가 삽입되었을 경우, 지정된 사용자별 캐릭터와 함께 상기 사용자 단말기에서 상기 부가 영상 정보가 가시화될 수 있도록 제어하는 것을 특징으로 한다.
바람직하게는, 상기 캐릭터 제어부는, 상기 사용자 단말기의 요청에 따른 별도의 부가영상 정보를 토대로 상기 지정된 캐릭터를 재 가공하여 제공하며, 상기 캐릭터 설정부를 통해 상기 별도의 부가 영상 정보를 상기 사용자 단말기의 식별 정보별로 추가 저장하는 것을 특징으로 한다.
본 발명의 또 다른 일면에 따라, 지능형 대화 서비스 방법이 제공되며: 이 방법은, a) 이동통신망을 통해 접속한 사용자 단말기의 선택에 따라 대화 서비스를 위해 움직임이 가능한 사용자별 캐릭터를 지정하는 단계; b) 상기 사용자 단말기로부터 전달되는 음성 데이터를 분석하여 상기 음성 데이터에 포함된 상기 특징을 추출하는 단계; c) 상기 음성 데이터에 포함된 다수의 특징에 대해 맵핑된 답변을 저장하는 데이터 베이스 검색을 통해 상기 추출된 특징에 해당하는 답변을 추출하는 단계; 및 d) 상기 추출된 답변에 설정된 동작 및 음성 정보를 토대로 상기 지정된 캐릭터를 제어하여 사용자 단말기에 제공하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 a) 단계는, a-1) 상기 사용자 단말기의 접속에 따라 저장된 캐릭터 리스트를 제공하는 단계; 및 a-2) 상기 음성 또는 키(KEY) 입력을 통한 상기 사용자 단말기의 선택을 수신하는 단계; 및 a-3) 상기 사용자 단말기의 선택에 따라 사용자 단말기 식별 정보를 토대로 사용자별 캐릭터를 지정하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 a) 단계는, 상기 사용자 단말기의 접속시 상기 사용자 단말기 식별 정보를 토대로 사용자별로 기 지정된 캐릭터를 로드하는 것을 특징으로 한다.
바람직하게는, 상기 b) 단계는, 상기 음성 데이터에 포함된 단어 및 구문을 분석하여 상기 특징을 추출하는 것을 특징으로 한다.
바람직하게는, 상기 d) 단계는, d-1) 상기 추출된 답변에 설정된 동작 정보 를 토대로 상기 사용자 단말기에 제공되는 캐릭터의 표정을 포함하는 동작을 변형시키는 단계; 및 d-2) 상기 캐릭터의 동작 변형에 따라 상기 추출된 답변에 설정된 음성 정보를 삽입하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 d) 단계는, d-3) 상기 추출된 답변에 별도의 부가 영상 정보가 삽입되었을 경우, 지정된 사용자별 캐릭터와 함께 상기 사용자 단말기에서 상기 부가 영상 정보가 가시화될 수 있도록 제어하는 단계;를 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 d) 단계는, 상기 사용자 단말기의 요청에 따른 별도의 부가영상 정보를 토대로 상기 지정된 캐릭터를 재 가공하여 제공하며, 상기 별도의 부가 영상 정보를 상기 사용자 단말기의 식별 정보별로 추가 저장하는 것을 특징으로 한다.
본 발명에 따른 실시간 서비스 시스템 및 그 방법은, 텍스트(Text) 위주의 기존 대화 서비스를 벗어나 영상 통화를 이용하여 시각적인 효과를 극대화한 양질의 실시간 대화 서비스를 제공함에 따라 사용자 참여도 및 서비스 만족도를 향상시킬 수 있다.
이하에서는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 상술하기 로 한다.
도 1에는 본 발명의 실시예에 따른 실시간 대화 서비스 시스템의 개략적인 구성도이다.
도 1에 도시한 바와 같이, 상기 시스템(300)은 이동통신망(200)을 통해 접속한 사용자 단말기(100)의 선택에 따라 움직임이 가능한 사용자별 캐릭터를 지정하고 상기 지정된 캐릭터를 통한 음성 및 동작을 토대로 사용자 단말기(100)와의 실시간 대화 서비스를 제공한다. 여기서, 사용자 단말기(100)는 영상 통화가 지원되는 단말기로서 이동통신망(100)을 통해 상기 실시간 대화 서비스 시스템(300)에 접속하여 가상의 인물과의 실시간 대화 서비스를 요청하고 이를 통해 심심풀이 오락용에서부터 금융, 증권, 교통, 관광, 스포츠, 공연, 건강, 운세, 날씨 고객 센터, 의료 상담 또는 법률 상담 등과 같은 매우 다양한 분야에서의 실용정보를 제공받는다.
이를 위해, 상기 실시간 대화 서비스 시스템(300)은 접속한 사용자 단말기(100)에 실시간 대화 서비스를 제공하기 위해 이동통신망(200) 상에 위치한 서버의 형태를 가지며 그 구체적인 구성은 다음과 같다. 즉, 상기 시스템(300)은 이동통신망(200)을 통한 사용자 단말기(100)의 접속에 따라 사용자별 캐릭터를 지정하여 제공하는 캐릭터 설정부(310); 사용자 단말기(100)로부터 전달되는 음성 데이터를 분석하기 위한 음성 인식부(320); 음성 데이터 분석에 따른 답변을 추출하기 위한 정보 검색부(330); 사용자별로 지정된 캐릭터를 제어하기 위한 캐릭터 제어부(340)를 포함하는 구성을 갖는다.
상기 캐릭터 설정부(310)는 사용자 단말기(100)의 접속시 저장된 캐릭터 리스트를 제공하며, 음성 또는 키(KEY) 입력을 통한 사용자 단말기(100)의 선택에 따라 사용자별 캐릭터를 지정하고, 지정된 캐릭터를 사용자 단말기(100)에 제공한다. 여기서, 상기 캐릭터는 사용자의 취향에 따라 선택 가능한 것으로, 예컨대, 연예인, 동물, 만화 캐릭터 등 다양하게 적용될 수 있다.
보다 구체적으로, 캐릭터 설정부(310)는 사용자 단말기(100)의 접속에 따라 저장된 캐릭터 리스트를 제공하고, 음성 또는 키(KEY) 입력을 통한 사용자 단말기의 선택에 따라, 사용자 단말기 식별 정보를 토대로 사용자별 캐릭터를 지정하여 저장한다. 즉, 캐릭터 설정부(310)는 사용자 단말기(100)의 식별 정보 예컨대, 전화번호, ESN(Electronic Serial Number), MIN(Mobile Identification Number) 등을 토대로 사용자별로 지정된 캐릭터를 저장한다. 다시 말해, 캐릭터 설정부(310)는 사용자 단말기(100)의 접속시 상기 식별 정보를 토대로 접속한 사용자 단말기(100)의 캐릭터 지정 여부를 확인하고 캐릭터가 기 지정되어 있을 경우에는 해당 식별 정보를 토대로 저장된 캐릭터를 로드하여 제공한다. 반면, 접속한 사용자 단말기(100)에 대한 캐릭터 지정이 되어있지 않을 경우, 전술한 바와 같이 저장된 캐릭터 리스트를 제공하고, 음성 또는 키(KEY) 입력을 통한 사용자 단말기(100)의 선택에 따라, 사용자 단말기(100) 식별 정보를 토대로 사용자별 캐릭터를 지정하여 저장한다. 또한, 캐릭터가 기 지정되어 있는 사용자 단말기(100)가 새로운 캐릭터 지정을 요청할 경우, 캐릭터 설정부(310)는 상술한 선택 과정을 통해 사용자 단말기(100)에 기 지정되어 있는 캐릭터를 갱신할 수 있다. 한편, 상술한 과정을 통해 상기 사용자 단말기(100)에 대한 캐릭터 지정이 완료되었을 경우, 캐릭터 설정부(310)는 지정된 캐릭터 영상과 아울러 인사말 음성을 사용자 단말기(100)에 제공한다.
상기 음성 인식부(320)는 사용자 단말기(100)로부터 전달되는 음성 데이터를 분석하여 상기 음성 데이터에 포함된 특징을 추출한다. 즉, 음성 인식부(320)는 사용자 단말기(100)로부터 전달되는 음성 데이터에 포함된 단어 및 구문을 분석함으로써 사용자 단말기(100)가 전달하는 의사를 반영한 특징을 추출한다.
상기 정보 검색부(330)는 상기 음성 데이터에 포함된 다수의 특징에 대해 맵핑된 답변을 저장하는 데이터 베이스(350)를 검색함으로써, 음성 인식부(320)를 통해 추출된 상기 특징에 해당하는 적합한 답변을 추출한다. 이때, 상기 추출된 답변에는 사용자 단말기(100)에 지정된 캐릭터를 제어하기 위해 설정 파라미터 즉, 음성 정보 및 동작 정보가 포함된다.
상기 캐릭터 제어부(340)는 상기 추출된 답변에 설정된 음성 정보 및 동작 정보를 토대로 캐릭터 설정부(310)를 통해 사용자 단말기(100)에 제공되는 캐릭터를 제어한다. 즉, 캐릭터 제어부(340)는 상기 추출된 답변에 설정된 동작 정보를 토대로 사용자 단말기(100)에 제공되는 캐릭터의 표정을 포함하는 다양한 동작을 변형시키고, 상기 캐릭터의 동작 변형에 따라 상기 추출된 답변에 설정된 음성 정보를 삽입하여 사용자 단말기(100)와의 실시간 대화가 가능하도록 한다. 한편, 정보 검색부(330)를 통해 추출된 답변에는 대화 주제에 따라 별도의 부가 영상 정보(예컨대, 애완동물 관련 대화일 경우 해당 동물)가 삽입될 수 있으며, 이를 수신한 캐릭터 제어부(340)는 상기 캐릭터 설정부(310)에서 지정된 사용자별 캐릭터와 함께 사용자 단말기(100)에서 상기 부가 영상 정보가 가시화될 수 있도록 제어한다.
또한, 캐릭터 제어부(340)는 실시간 대화 중 미리 지정된 키(Key) 값에 따라 사용자 단말기(100)가 부가 영상 정보 출력을 요청할 경우, 별도로 분류된 부가 영상 정보(애완동물 또는 액세서리, 배경화면, 머리 모양 등)를 사용자 단말기(100)에 제공하고, 출력된 부가 영상 정보에 대한 사용자 단말기(100)의 선택에 따라 기 설정된 사용자별 캐릭터와 함께 사용자 단말기(100)에서 상기 부가 영상 정보가 가시화될 수 있도록 한다. 이와 관련하여, 캐릭터 제어부(340)는 캐릭터 설정부(310)를 통해 상기와 같이 사용자 단말기(100)에 의해 선택된 부가 영상 정보를 코드화하여 사용자 단말기 식별 정보별로 저장함으로써, 사용자 단말기(100)의 재접속시 사용자에 의해 선택된 부가 영상 정보로 재 가공된 캐릭터를 제공할 수 있도록 한다.
이하에서는 도 2를 참조하여 본 발명의 실시예에 따른 실시간 대화 서비스 방법을 설명하기로 한다. 여기서, 도 2는 본 발명의 실시예에 따른 실시간 대화 서비스 방법을 설명하기 위한 개략적인 순서도이다.
먼저, 이동통신망(200)은 사용자 단말기(100)의 접속 요청에 따라 사용자 단말기(100)와 실시간 대화 서비스 시스템(300) 간의 영상 통화를 위한 세션을 형성하고, 이후 실시간 대화 서비스 시스템(300)은 서비스 제공을 위한 안내 영상 및 음성을 사용자 단말기에 전송한다(S110-S140).
그리고 나서, 이동통신망을 통해 접속한 사용자 단말기(100)의 선택에 따라 대화 서비스를 위해 움직임이 가능한 사용자별 캐릭터를 지정한다(S150-S200). 바람직하게는, 캐릭터 설정부(310)는 사용자 단말기(100)의 접속시 상기 식별 정보를 토대로 접속한 사용자 단말기(100)의 캐릭터 지정 여부를 확인하고 접속한 사용자 단말기(100)에 대한 캐릭터 지정이 되어있지 않을 경우, 전술한 바와 같이 저장된 캐릭터 리스트를 제공한다. 이후 음성 또는 키(KEY) 입력을 통한 사용자 단말기(100)의 선택에 따라, 사용자 단말기(100) 식별 정보를 토대로 사용자별 캐릭터를 지정하여 저장한다. 이때, 캐릭터가 기 지정되어 이는 사용자 단말기(100)가 새로운 캐릭터 지정을 요청할 경우, 캐릭터 설정부(310)는 상술한 선택 과정을 통해 사용자 단말기(100)에 기 지정되어 있는 캐릭터를 갱신할 수 있다. 반면, 접속한 사용자 단말기(100)에 대한 캐릭터가 기 지정되어 있을 경우에는 해당 식별 정보를 토대로 저장된 캐릭터를 로드하여 제공한다. 한편, 상술한 과정을 통해 상기 사용자 단말기(100)에 대한 캐릭터 지정이 완료되었을 경우 캐릭터 설정부(310)는 지정된 캐릭터 영상과 아울러 인사말 음성을 사용자 단말기(100)에 제공한다(S200).
이후, 사용자 단말기(100)로부터 전달되는 음성 데이터를 분석하여 상기 음성 데이터에 포함된 특징을 추출한다(S210-S220). 바람직하게는, 음성 인식부(320)는 사용자 단말기(100)로부터 전달되는 음성 데이터에 포함된 단어 및 구문을 분석함으로써 사용자 단말기(100)가 전달하는 의사를 반영하고 있는 특징을 추출한다.
그런 다음, 음성 데이터에 포함된 다수의 특징에 대해 맵핑된 답변을 저장하는 데이터 베이스 검색을 통해 상기 추출된 특징에 해당하는 답변을 추출한다(S230). 바람직하게는, 정보 검색부(330)는 상기 음성 데이터에 포함된 다수의 특징에 대해 맵핑된 답변을 저장하는 데이터 베이스(350)를 검색함으로써, 음성 인식부(320)를 통해 추출된 상기 특징에 해당하는 적합한 답변을 추출한다. 이때, 상기 추출된 답변에는 사용자 단말기(100)에 지정된 캐릭터를 제어하기 위해 설정 파라미터 즉, 음성 정보 및 동작 정보가 포함된다.
그리고 나서, 추출된 답변에 지정된 동작 및 음성 정보를 토대로 상기 지정된 캐릭터를 제어하여 사용자 단말기에 제공한다(S240-S250). 바람직하게는, 캐릭터 제어부(340)는 상기 추출된 답변에 설정된 동작 정보를 토대로 사용자 단말기(100)에 제공되는 캐릭터의 표정을 포함하는 다양한 동작을 변형시키고, 상기 캐릭터의 동작 변형에 따라 상기 추출된 답변에 설정된 음성 정보를 삽입하여 사용자 단말기(100)와의 실시간 대화가 가능하도록 한다. 한편, 정보 검색부(330)를 통해 추출된 답변에는 대화 주제에 따라 별도의 부가 영상 정보(예컨대, 애완동물 관련 대화일 경우 해당 동물)가 삽입될 수 있으며, 이를 수신한 캐릭터 제어부(340)는 상기 캐릭터 설정부(310)에서 지정된 사용자별 캐릭터와 함께 사용자 단말기(100)에서 상기 부가 영상 정보가 가시화될 수 있도록 제어한다. 또한, 캐릭터 제어부(340)는 실시간 대화 중 미리 지정된 키(Key) 값에 따라 사용자 단말기(100)가 부가 영상 정보 출력을 요청할 경우, 별도로 분류된 부가 영상 정보(애완동물 또는 액세서리, 배경화면, 머리 모양 등)를 사용자 단말기(100)에 제공하고, 출력된 부 가 영상 정보에 대한 사용자 단말기(100)의 선택에 따라 기 설정된 사용자별 캐릭터와 함께 사용자 단말기(100)에서 상기 부가 영상 정보가 가시화될 수 있도록 한다. 이때, 사용자 단말기(100)에 의해 선택된 부가 영상 정보는 캐릭터 설정부(310)를 통해 코드화되어 사용자 단말기(100)의 식별 정보별로 저장됨에 따라 사용자 단말기(100)의 재접속시 사용자에 의해 선택된 부가 영상 정보로 재 가공된 캐릭터의 제공이 가능하도록 한다.
지금까지 본 발명을 바람직한 실시예를 참조하여 상세히 설명하였지만, 본 발명이 상기한 실시예에 한정되는 것은 아니며, 이하의 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 또는 수정이 가능한 범위까지 본 발명의 기술적 사상이 미친다 할 것이다.
본 발명에 따른 실시간 대화 서비스 시스템 및 그 방법은 영상 통화가 가능한 단말기 사용자가 시스템에 접속할 경우, 영상 통화 및 음성 인식 기술을 기반으로 서비스 사용자에게 캐릭터를 적용한 양질의 대화 서비스를 제공함에 함으로 인해 텍스트 위주인 기존의 기술의 한계를 뛰어 넘음에 따라 관련 기술에 대한 이용만이 아닌 적용되는 장치의 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있는 발명이다.
본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니된다.
도 1은 본 발명의 실시예에 따른 실시간 대화 서비스 시스템의 개략적인 구성도.
도 2는 본 발명의 실시예에 따른 실시간 서비스 방법을 설명하기 위한 개략적인 순서도.
*도면의 주요 부분에 대한 부호의 설명*
100: 사용자 단말기
200: 이동통신망
300: 실시간 대화 서비스 시스템
310: 캐릭터 설정부 320: 음성 인식부
330: 정보 검색부 340: 캐릭터 제어부
350: 데이터 베이스

Claims (14)

  1. 이동통신망을 통해 접속한 사용자 단말기의 선택에 따라 움직임이 가능한 사용자별 캐릭터를 지정하며, 상기 사용자 단말기로부터 전달되는 음성 데이터로부터 특징을 추출하여 상기 추출된 특징에 맵핑된 답변을 검색하고, 상기 검색된 답변에 해당하는 음성 및 동작을 상기 지정된 캐릭터를 통해 상기 사용자 단말기에 전달하는 것을 특징으로 하는 실시간 대화 서비스 시스템.
  2. 제 1 항에 있어서, 상기 시스템은
    상기 사용자 단말기의 접속시 저장된 캐릭터 리스트를 제공하며, 음성 또는 키(KEY) 입력을 통한 사용자 단말기의 선택에 따라 사용자별 캐릭터를 지정하여 상기 지정된 캐릭터를 제공하는 캐릭터 설정부;
    상기 사용자 단말기로부터 전달되는 음성 데이터를 분석하여 상기 음성 데이터에 포함된 상기 특징을 추출하는 음성 인식부;
    상기 음성 데이터에 포함된 다수의 특징에 대해 맵핑된 답변을 저장하는 데이터 베이스 검색을 통해 상기 추출된 특징에 해당하는 답변을 추출하는 정보 검색부; 및
    상기 추출된 답변에 설정된 음성 및 동작 정보를 토대로 상기 사용자 단말기에 제공되는 캐릭터를 제어하는 캐릭터 제어부를 포함하는 것을 특징으로 하는 실시간 대화 서비스 시스템.
  3. 제 2 항에 있어서, 상기 캐릭터 설정부는,
    상기 사용자 단말기의 식별 정보를 토대로 사용자별로 지정된 캐릭터를 저장하며, 상기 사용자 단말기의 접속시 상기 식별 정보를 토대로 기 지정된 캐릭터를 제공하거나 상기 사용자 단말기에 선택에 따라 새롭게 지정된 캐릭터를 제공하는 것을 특징으로 하는 실시간 대화 서비스 시스템.
  4. 제 2 항에 있어서, 상기 음성 인식부는,
    상기 음성 데이터에 포함된 단어 및 구문을 분석하여 상기 특징을 추출하는 것을 특징으로 하는 실시간 대화 서비스 시스템.
  5. 제 2 항에 있어서, 상기 캐릭터 제어부는,
    상기 추출된 답변에 설정된 동작 정보를 토대로 상기 사용자 단말기에 제공되는 캐릭터의 표정을 포함하는 동작을 변형시키고, 상기 캐릭터의 동작 변형에 따라 상기 추출된 답변에 설정된 음성 정보를 삽입하는 것을 특징으로 하는 실시간 대화 서비스 시스템.
  6. 제 2 항에 있어서, 상기 캐릭터 제어부는,
    상기 추출된 답변에 별도의 부가 영상 정보가 삽입되었을 경우, 지정된 사용자별 캐릭터와 함께 상기 사용자 단말기에서 상기 부가 영상 정보가 가시화될 수 있도록 제어하는 것을 특징으로 하는 실시간 대화 서비스 시스템.
  7. 제 3 항에 있어서, 상기 캐릭터 제어부는,
    상기 사용자 단말기의 요청에 따른 별도의 부가영상 정보를 토대로 상기 지정된 캐릭터를 재 가공하여 제공하며, 상기 캐릭터 설정부를 통해 상기 별도의 부가 영상 정보를 상기 사용자 단말기의 식별 정보별로 추가 저장하는 것을 특징으로 하는 실시간 대화 서비스 시스템.
  8. 실시간 대화 서비스 방법에 있어서,
    a) 이동통신망을 통해 접속한 사용자 단말기의 선택에 따라 대화 서비스를 위해 움직임이 가능한 사용자별 캐릭터를 지정하는 단계;
    b) 상기 사용자 단말기로부터 전달되는 음성 데이터를 분석하여 상기 음성 데이터에 포함된 상기 특징을 추출하는 단계;
    c) 상기 음성 데이터에 포함된 다수의 특징에 대해 맵핑된 답변을 저장하는 데이터 베이스 검색을 통해 상기 추출된 특징에 해당하는 답변을 추출하는 단계; 및
    d) 상기 추출된 답변에 지정된 동작 및 음성 정보를 토대로 상기 지정된 캐릭터를 제어하여 사용자 단말기에 제공하는 단계를 포함하는 것을 특징으로 하는 실시간 대화 서비스 방법.
  9. 제 8 항에 있어서, 상기 a) 단계는,
    a-1) 상기 사용자 단말기의 접속에 따라 저장된 캐릭터 리스트를 제공하는 단계; 및
    a-2) 상기 음성 또는 키(KEY) 입력을 통한 상기 사용자 단말기의 선택을 수신하는 단계; 및
    a-3) 상기 사용자 단말기의 선택에 따라 사용자 단말기 식별 정보를 토대로 사용자별 캐릭터를 지정하는 단계를 포함하는 것을 특징으로 하는 실시간 대화 서비스 방법.
  10. 제 8 항에 있어서, 상기 a) 단계는,
    상기 사용자 단말기의 접속시 상기 사용자 단말기 식별 정보를 토대로 사용자별로 기 지정된 캐릭터를 로드하는 것을 특징으로 하는 실시간 대화 서비스 방법.
  11. 제 8 항에 있어서, 상기 b) 단계는,
    상기 음성 데이터에 포함된 단어 및 구문을 분석하여 상기 특징을 추출하는 것을 특징으로 하는 실시간 대화 서비스 방법.
  12. 제 8 항에 있어서, 상기 d) 단계는,
    d-1) 상기 추출된 답변에 설정된 동작 정보를 토대로 상기 사용자 단말기에 제공되는 캐릭터의 표정을 포함하는 동작을 변형시키는 단계; 및
    d-2) 상기 캐릭터의 동작 변형에 따라 상기 추출된 답변에 설정된 음성 정보를 삽입하는 단계를 포함하는 것을 특징으로 하는 실시간 대화 서비스 방법.
  13. 제 12 항에 있어서, 상기 d) 단계는,
    d-3) 상기 추출된 답변에 별도의 부가 영상 정보가 삽입되었을 경우, 지정된 사용자별 캐릭터와 함께 상기 사용자 단말기에서 상기 부가 영상 정보가 가시화될 수 있도록 제어하는 단계;를 더 포함하는 것을 특징으로 하는 실시간 대화 서비스 방법.
  14. 제 9 항에 있어서, 상기 d) 단계는,
    상기 사용자 단말기의 요청에 따른 별도의 부가영상 정보를 토대로 상기 지정된 캐릭터를 재 가공하여 제공하며, 상기 별도의 부가 영상 정보를 상기 사용자 단말기의 식별 정보별로 추가 저장하는 것을 특징으로 하는 실시간 대화 서비스 방법.
KR1020080002192A 2008-01-08 2008-01-08 실시간 대화 서비스 시스템 및 그 방법 KR20090076318A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080002192A KR20090076318A (ko) 2008-01-08 2008-01-08 실시간 대화 서비스 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080002192A KR20090076318A (ko) 2008-01-08 2008-01-08 실시간 대화 서비스 시스템 및 그 방법

Publications (1)

Publication Number Publication Date
KR20090076318A true KR20090076318A (ko) 2009-07-13

Family

ID=41333442

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080002192A KR20090076318A (ko) 2008-01-08 2008-01-08 실시간 대화 서비스 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR20090076318A (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101381006B1 (ko) * 2012-05-10 2014-04-04 얄리주식회사 음성인식 질의응답 인형
KR101418709B1 (ko) * 2012-06-14 2014-07-16 진삼순 음성인식 질의응답 인형 및 그 제조방법
KR101592512B1 (ko) * 2015-05-15 2016-02-11 주식회사 이니셜티 지식 영상콘텐츠 제공 방법 및 시스템
KR101596307B1 (ko) * 2015-05-19 2016-02-22 주식회사 액티브디앤씨 전문가 지식 기반의 검색 서비스 제공 시스템 및 방법
WO2018128238A1 (ko) * 2017-01-06 2018-07-12 주식회사 피노텍 디스플레이 장치를 이용한 가상 상담 시스템 및 방법
WO2021261664A1 (ko) * 2020-06-23 2021-12-30 주식회사 오투오 인공지능 음성 대화 기반의 관광서비스시스템

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101381006B1 (ko) * 2012-05-10 2014-04-04 얄리주식회사 음성인식 질의응답 인형
KR101418709B1 (ko) * 2012-06-14 2014-07-16 진삼순 음성인식 질의응답 인형 및 그 제조방법
KR101592512B1 (ko) * 2015-05-15 2016-02-11 주식회사 이니셜티 지식 영상콘텐츠 제공 방법 및 시스템
KR101596307B1 (ko) * 2015-05-19 2016-02-22 주식회사 액티브디앤씨 전문가 지식 기반의 검색 서비스 제공 시스템 및 방법
WO2018128238A1 (ko) * 2017-01-06 2018-07-12 주식회사 피노텍 디스플레이 장치를 이용한 가상 상담 시스템 및 방법
WO2021261664A1 (ko) * 2020-06-23 2021-12-30 주식회사 오투오 인공지능 음성 대화 기반의 관광서비스시스템

Similar Documents

Publication Publication Date Title
US10832686B2 (en) Method and apparatus for pushing information
CN107895578B (zh) 语音交互方法和装置
KR102348904B1 (ko) 유인 상담원에 의하여 보조 되는 무인 대화 서비스 제공 방법
CN107833574A (zh) 用于提供语音服务的方法和装置
CN108958810A (zh) 一种基于声纹的用户识别方法、装置及设备
CN106230689B (zh) 一种语音信息交互的方法、装置及服务器
CN110970021B (zh) 一种问答控制方法、装置及系统
CN106407178A (zh) 一种会话摘要生成方法及装置
CN110661927A (zh) 语音交互方法、装置、计算机设备及存储介质
KR20170088997A (ko) 음성 정보를 처리하기 위한 방법 및 장치
KR20090076318A (ko) 실시간 대화 서비스 시스템 및 그 방법
CN107808007A (zh) 信息处理方法和装置
CN111583931A (zh) 业务数据处理方法及装置
CN109417583A (zh) 一种将音频信号实时转录为文本的系统和方法
CN111696556A (zh) 一种分析用户对话情绪方法、系统、设备和存储介质
CN111339282A (zh) 智能在线应答方法及智能客服系统
CN109545203A (zh) 语音识别方法、装置、设备和存储介质
CN113643684A (zh) 语音合成方法、装置、电子设备及存储介质
KR101351264B1 (ko) 음성인식 기반의 메시징 통역서비스 제공 시스템 및 그 방법
CN110740212B (zh) 基于智能语音技术的通话接听方法、装置及电子设备
CN112102807A (zh) 语音合成方法、装置、计算机设备和存储介质
CN116821290A (zh) 面向多任务对话的大语言模型训练方法和交互方法
CN115840841A (zh) 多模态对话方法、装置、设备及存储介质
CN113630309B (zh) 机器人会话系统、方法、装置、计算机设备和存储介质
CN113132214B (zh) 一种对话方法、装置、服务器及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application