KR20170073196A - 캐릭터를 이용한 메시지 제공 시스템 - Google Patents

캐릭터를 이용한 메시지 제공 시스템 Download PDF

Info

Publication number
KR20170073196A
KR20170073196A KR1020150181812A KR20150181812A KR20170073196A KR 20170073196 A KR20170073196 A KR 20170073196A KR 1020150181812 A KR1020150181812 A KR 1020150181812A KR 20150181812 A KR20150181812 A KR 20150181812A KR 20170073196 A KR20170073196 A KR 20170073196A
Authority
KR
South Korea
Prior art keywords
conversation
user terminal
character image
character
terminal
Prior art date
Application number
KR1020150181812A
Other languages
English (en)
Inventor
박건웅
Original Assignee
박건웅
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박건웅 filed Critical 박건웅
Priority to KR1020150181812A priority Critical patent/KR20170073196A/ko
Publication of KR20170073196A publication Critical patent/KR20170073196A/ko

Links

Images

Classifications

    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

캐릭터를 이용한 메시지 제공 시스템이 개시된다. 일 실시 예에 있어서, 상기 캐릭터를 이용한 메시지 제공 시스템은 네트워크와 연결되는 서버 및 상기 네트워크를 통하여 상기 서버와 연결되며, 상기 서버를 통하여 문자메시지를 서로 전달하는 사용자 단말기와 적어도 하나의 추가적인 사용자 단말기를 포함한다. 상기 서버는 적어도 하나의 캐릭터 이미지 및 상기 캐릭터 이미지의 소정의 영역에 대응되는 텍스트를 저장하는 데이터베이스, 상기 사용자 단말기 및 상기 추가적인 사용자 단말기가 요청하는 캐릭터에 대응되는 캐릭터 이미지를 상기 데이터베이스로부터 추출하여 상기 사용자 단말기 및 상기 추가적인 사용자 단말기 각각의 캐릭터로 설정하는 캐릭터 설정부 및 상기 사용자 단말기가 상기 추가적인 사용자 단말기 중에서 선택하는 단말기-이하 대화단말기라 함-의 캐릭터 이미지-이하 대화캐릭터 이미지라 함-를 상기 사용자 단말기에 제공하는 캐릭터 이미지 제공부를 포함한다. 상기 사용자 단말기의 디스플레이에는 상기 캐릭터 이미지 제공부가 제공하는 상기 대화캐릭터 이미지가 표시된다. 이 경우, 상기 사용자 단말기의 사용자가 상기 사용자 단말기의 입력수단-이하 제1입력수단이라 함-을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트가 상기 대화단말기에 제공됨으로써 상기 사용자 단말기가 상기 대화단말기에 문자메시지를 전달한다.

Description

캐릭터를 이용한 메시지 제공 시스템{system for providing short message using character}
본 명세서에서 개시하는 기술은 메시지 제공 시스템에 관한 것으로, 보다 상세하게는 캐릭터를 이용하여 문자 메시지를 제공하는 메시지 제공 시스템에 관한 것이다.
최근에 이동통신기술의 발전과 휴대용 단말기의 광범위한 보급에 따라 개인별 통신이 상용화되고 대중화되고 있다. 이에 따라 시간과 장소에 제한 없이 많은 수의 사람들이 휴대용 단말기를 통해 다양한 정보를 주고 받고 있는 상황이다.
1인 가구가 증가하고 이웃간에 무관심이 팽배해지고 있는 현대사회에서 많은 수의 사람들은 과거 세대들이 누려왔던 정이 넘치는 사회분위기를 그리워하고 있다. 이러한 욕구는 온라인 상에서도 반영이 되어 일상의 소소한 일부터 굵직한 사건, 사고 등에 대한 각자의 의견과 정보를 공유할 수 있는 다양한 메신저 서비스가 생산되어 제공되고 있다.
이들 메신저 서비스들은 휴대용 단말기를 통해 문자전송, 음성녹음, 컨텐츠 전송 등을 가능하게 해 준다. 하지만 기존의 모바일 어플리케이션 메신저들은 문자를 문자로 전송하거나, 음성을 녹음해서 전송하는 방식을 주로 활용하고 있다. 따라서 기존의 메신저 등과 같은 정보전달 매체는 휴대용 단말기 사용자들 간의 정보의 전달을 가능할지 몰라도 사용자들 서로 간의 정(情)을 공유하기에는 부족한 점이 많다. 물론, 기존의 메신저 중에는 문자메시지 제공과 함께 이모티콘을 활용한 감정표현을 제공하고는 있다. 하지만, 사람의 감정은 고정되어 있는 것이 아니라 주변 상황, 처해진 환경, 현재 머물고 있는 장소나 그 장소의 분위기 등에 따라 계속 변화하는 것이 일반적이다. 이러한 변화무쌍한 사람의 감정을 몇 개의 제한된 이모티콘만으로는 사용자들의 감정을 효과적으로 전달하기 어렵고, 매번 감정 상황에 따른 이모티콘을 선택한다는 것은 심히 번거로운 일이 아닐 수 없다. 따라서 휴대용 단말기 사용자들간의 정보의 전달과 더불어 사용자들간의 감정을 제대로 전달해 줄 수 있는 메시지 제공 시스템이 요구된다.
메시지 제공 시스템과 관련한 종래기술로는 대한민국공개특허 KR 10-2004-0065539 “문자메시지 전송 시스템 및 그 전송방법”, 대한민국공개특허 KR 10-2004-0000467 “이동통신단말기에서 다양한 이모티콘을 이용한 메시지작성 방법” 등이 있다. 상기의 종래기술은 사람의 감정을 효과적으로 표현하여 전달하지 못한다는 점에서 캐릭터를 이용한 본 명세서에서 개시하는 캐릭터를 이용한 메시지 제공 시스템과는 차이가 있다.
본 명세서에서 개시하는 기술은 상기한 종래 기술의 문제점을 해결하기 위하여 도출된 것으로서, 사용자 단말기와 추가적인 사용자 단말기에 표시되는 대화캐릭터, 사용자캐릭터 등을 다양한 방식으로 터치하고, 캐릭터를 터치하는 모습과 함께 터치하는 방식에 따라 구별되는 문자메시지가 상대방에게 제공됨으로써 사용자 단말기와 추가적인 사용자 단말기 사용자 상호간에 정보공유 이외에 감정의 교류가 가능한 캐릭터를 이용한 메시지 제공 시스템을 제공한다.
일 실시 예에 있어서, 캐릭터를 이용한 메시지 제공 시스템이 개시(disclosure)된다. 상기 캐릭터를 이용한 메시지 제공 시스템은 네트워크와 연결되는 서버 및 상기 네트워크를 통하여 상기 서버와 연결되며, 상기 서버를 통하여 문자메시지를 서로 전달하는 사용자 단말기와 적어도 하나의 추가적인 사용자 단말기를 포함한다. 상기 서버는 적어도 하나의 캐릭터 이미지 및 상기 캐릭터 이미지의 소정의 영역에 대응되는 텍스트를 저장하는 데이터베이스, 상기 사용자 단말기 및 상기 추가적인 사용자 단말기가 요청하는 캐릭터에 대응되는 캐릭터 이미지를 상기 데이터베이스로부터 추출하여 상기 사용자 단말기 및 상기 추가적인 사용자 단말기 각각의 캐릭터로 설정하는 캐릭터 설정부 및 상기 사용자 단말기가 상기 추가적인 사용자 단말기 중에서 선택하는 단말기-이하 대화단말기라 함-의 캐릭터 이미지-이하 대화캐릭터 이미지라 함-를 상기 사용자 단말기에 제공하는 캐릭터 이미지 제공부를 포함한다. 상기 사용자 단말기의 디스플레이에는 상기 캐릭터 이미지 제공부가 제공하는 상기 대화캐릭터 이미지가 표시된다. 이 경우, 상기 사용자 단말기의 사용자가 상기 사용자 단말기의 입력수단-이하 제1입력수단이라 함-을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트가 상기 대화단말기에 제공됨으로써 상기 사용자 단말기가 상기 대화단말기에 문자메시지를 전달한다.
상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역의 정보는 상기 서버로 전송되고, 상기 서버는 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 텍스트를 상기 데이터베이스로부터 추출하여 상기 대화단말기에 제공함으로써 상기 사용자 단말기가 상기 대화단말기에 상기 문자메시지를 전달할 수 있다.
상기 서버는 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트를 상기 사용자 단말기에 제공하는 캐릭터 텍스트 제공부를 더 포함할 수 있다. 상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 상기 사용자 단말기는 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 텍스트를 상기 캐릭터 텍스트 제공부로부터 제공받은 상기 텍스트로부터 추출하여 상기 서버를 통하여 상기 대화단말기에 제공함으로써 상기 사용자 단말기가 상기 대화단말기에 상기 문자메시지를 전달할 수 있다.
상기 데이터베이스에 저장되는 상기 텍스트는 상기 캐릭터 이미지의 상기 소정의 영역에 대한 터치 강도, 터치 방법, 터치 횟수, 확대 동작, 축소 동작 및 이들의 조합 중에서 선택되는 적어도 어느 하나에 따라 서로 구별되어 표현되는 문장을 포함할 수 있다.
상기 제1입력수단은 문자입력부를 포함하며, 상기 문자입력부는 물리적인 입력장치, 음성인식장치 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 포함할 수 있다. 상기 사용자 단말기의 상기 사용자는 상기 문자입력부를 통하여 상기 대화단말기에 전송할 텍스트를 생성하며, 상기 문자입력부를 통하여 생성된 상기 텍스트는 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 텍스트와 함께 상기 서버를 통하여 상기 대화단말기에 상기 문자메시지로 전송될 수 있다.
상기 캐릭터 이미지 제공부는 상기 대화캐릭터 이미지를 상기 대화단말기에 제공하며, 상기 대화단말기의 디스플레이에는 상기 대화캐릭터 이미지가 디스플레이 될 수 있다. 상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 대화단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 영역이 터치될 수 있다.
상기 캐릭터 이미지 제공부는 상기 캐릭터 설정부로부터 상기 사용자 단말기의 캐릭터 이미지-이하 사용자캐릭터 이미지라 함-를 추출하여 상기 사용자 단말기에 제공하며, 상기 사용자 단말기의 상기 디스플레이에는 상기 대화캐릭터 이미지와 함께 상기 사용자캐릭터 이미지가 함께 표시될 수 있다. 상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 사용자캐릭터 이미지의 소정의 영역을 터치하면, 터치된 상기 사용자캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트가 상기 대화단말기에 제공됨으로써 상기 사용자 단말기가 상기 대화단말기에 문자메시지를 전달할 수 있다.
상기 캐릭터 이미지 제공부는 상기 대화캐릭터 이미지를 상기 대화단말기에 제공하며, 상기 대화단말기의 디스플레이에는 상기 대화캐릭터 이미지가 디스플레이 될 수 있다. 상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 대화단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 영역이 터치될 수 있다.
상기 데이터베이스에 저장되는 상기 텍스트는 상기 캐릭터 이미지의 상기 소정의 영역에 대한 터치 강도, 터치 방법, 터치 횟수, 확대 동작, 축소 동작 및 이들의 조합 중에서 선택되는 적어도 어느 하나에 따라 서로 구별되어 표현되는 문장을 포함할 수 있다.
상기 제1입력수단은 문자입력부를 포함하며, 상기 문자입력부는 물리적인 입력장치, 음성인식장치 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 포함할 수 있다. 상기 사용자 단말기의 상기 사용자는 상기 문자입력부를 통하여 상기 대화단말기에 전송할 텍스트를 생성할 수 있다. 상기 문자입력부를 통하여 생성된 상기 텍스트는 상기 서버에 전송될 수 있다. 상기 서버는 상기 문자입력부를 통하여 생성된 상기 텍스트에 대하여 구문분석을 수행할 수 있다. 상기 서버는 상기 구문분석을 통하여 추출된 문장과 상기 대화캐릭터 이미지에 대응되는 상기 데이터베이스에 저장된 상기 텍스트의 문장을 비교하여 유사도가 높은 문장을 상기 데이터베이스로부터 추출할 수 있다. 상기 서버는 상기 데이터베이스로부터 추출한 유사도가 높은 상기 문장에 대응되는 상기 대화캐릭터 이미지의 상기 소정의 영역에 대한 터치 강도, 터치 방법, 터치 횟수, 확대 동작, 축소 동작 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 추출한 후 상기 대화단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지가 이에 상응하여 변화되도록 할 수 있다.
다른 실시 예에 있어서, 캐릭터를 이용한 메시지 제공 시스템이 개시된다. 상기 캐릭터를 이용한 메시지 제공 시스템은 네트워크와 연결되는 서버 및 상기 네트워크를 통하여 상기 서버와 연결되며, 상기 서버를 통하여 문자메시지를 서로 전달하는 사용자 단말기와 적어도 하나의 추가적인 사용자 단말기를 포함한다. 상기 서버는 적어도 하나의 캐릭터 이미지 및 상기 캐릭터 이미지의 소정의 영역에 대응되는 텍스트를 저장하는 데이터베이스, 상기 사용자 단말기 및 상기 추가적인 사용자 단말기가 요청하는 캐릭터에 대응되는 캐릭터 이미지를 상기 데이터베이스로부터 추출하여 상기 사용자 단말기 및 상기 추가적인 사용자 단말기 각각의 캐릭터로 설정하는 캐릭터 설정부, 상기 사용자 단말기가 상기 추가적인 사용자 단말기 중에서 선택하는 단말기-이하 대화단말기라 함-의 캐릭터 이미지-이하 대화캐릭터 이미지라 함-와 상기 사용자 단말기의 캐릭터 이미지-이하 사용자캐릭터 이미지라 함-를 상기 사용자 단말기에 제공하는 캐릭터 이미지 제공부 및 상기 사용자 단말기의 사용자의 선택에 따라 상기 사용자캐릭터 이미지 및 상기 대화캐릭터 이미지가 표시되는 공간-이하 대화공간이라 함-을 상기 사용자 단말기에 제공하는 공간 이미지 제공부를 포함한다. 상기 사용자 단말기의 디스플레이에는 상기 대화공간, 상기 사용자캐릭터 이미지 및 상기 대화캐릭터 이미지가 표시된다. 상기 사용자 단말기의 사용자가 상기 사용자 단말기의 입력수단-이하 제1입력수단이라 함-을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트가 상기 대화단말기에 제공됨으로써 상기 사용자 단말기가 상기 대화단말기에 문자메시지를 전달한다.
상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역의 정보는 상기 서버로 전송되고, 상기 서버는 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 텍스트를 상기 데이터베이스로부터 추출하여 상기 대화단말기에 제공함으로써 상기 사용자 단말기가 상기 대화단말기에 상기 문자메시지를 전달할 수 있다.
상기 서버는 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트를 상기 사용자 단말기에 제공하는 캐릭터 텍스트 제공부를 더 포함하며,
상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 상기 사용자 단말기는 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 텍스트를 상기 캐릭터 텍스트 제공부로부터 제공받은 상기 텍스트로부터 추출하여 상기 서버를 통하여 상기 대화단말기에 제공함으로써 상기 사용자 단말기가 상기 대화단말기에 상기 문자메시지를 전달할 수 있다.
상기 서버는 상기 사용자캐릭터 이미지 및 상기 대화캐릭터 이미지의 동작을 제어하는 캐릭터 동작 제어부를 더 포함할 수 있다. 상기 제1입력수단은 문자입력부, 동작입력부 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 포함하며, 상기 제1입력수단은 물리적인 입력장치, 음성인식장치 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 포함할 수 있다. 상기 캐릭터 동작 제어부는 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 사용자가 입력하는 입력명령에 따라 상기 사용자캐릭터 이미지, 상기 대화캐릭터 이미지 및 이들의 조합 중에서 선택되는 적어도 어느 하나의 동작을 제어할 수 있다.
본 명세서에서 개시하는 캐릭터를 이용한 메시지 제공 시스템은 사용자 또는 추가적인 사용자의 캐릭터를 터치하여 문자메시지를 주고 받을 수 있다는 효과가 있다.
또한, 본 명세서에서 개시하는 캐릭터를 이용한 메시지 제공 시스템은 상대방 캐릭터를 두드리거나, 문지르거나, 쓰다듬는 방식 등과 같은 캐릭터 터치를 통하여 온라인 상에서 사용자간의 스킨십을 가능하게 하며, 이를 통하여 대화 상대방에 대한 애정을 표현할 수 있어 단순한 정보 교류 이외에 서로 간에 감정을 교류할 수 있다는 효과가 있다.
또한, 본 명세서에서 개시하는 캐릭터를 이용한 메시지 제공 시스템은 대화공간을 제공하는 기능을 가지며, 대화공간을 사용자 자신이 디자인하고 추가적인 사용자 중 원하는 사용자를 초대할 수 있다. 이를 통하여 오프라인에서 이루어지는 초대 등의 기능을 온라인에서 구현할 수 있어 보다 더 효과적으로 정보 교류 이외에 대화상대방 서로 간의 감정을 교류할 수 있다는 효과가 있다.
전술한 내용은 이후 보다 자세하게 기술되는 사항에 대해 간략화된 형태로 선택적인 개념만을 제공한다. 본 내용은 특허 청구 범위의 주요 특징 또는 필수적 특징을 한정하거나, 특허청구범위의 범위를 제한할 의도로 제공되는 것은 아니다.
도 1은 일 실시 예에 따른 캐릭터를 이용한 메시지 제공 시스템을 나타내는 도면이다.
도 2는 제1입력수단을 통하여 사용자 단말기(120)의 디스플레이에 표시되는 대화캐릭터 이미지의 소정의 영역을 터치하여 문자메시지를 생성하는 과정을 설명하기 위한 도면이다.
도 3은 사용자 단말기(120)의 디스플레이에 표시되는 대화캐릭터 이미지의 소정의 영역을 터치하는 방식의 예를 보여주는 도면이다.
도 4는 도 3의 방식으로 터치되는 터치부위와 연동하여 데이터베이스(112)에 저장되는 텍스트의 일례를 보여주는 도면이다.
도 5는 사용자 단말기(120)의 디스플레이에 표시되는 대화캐릭터 이미지의 소정의 영역을 터치하는 방식의 다른 예를 보여주는 도면이다.
도 6은 도 5의 방식으로 터치되는 터치부위와 연동하여 데이터베이스(112)에 저장되는 텍스트의 일례를 보여주는 도면이다.
도 7은 다른 실시 예에 따른 캐릭터를 이용한 메시지 제공 시스템을 나타내는 도면이다.
도 8은 대화공간에서 메시지를 주고 받는 모습을 보여주는 도면이다.
이하, 본 명세서에 개시된 실시 예들을 도면을 참조하여 상세하게 설명하고 자 한다. 본문에서 달리 명시하지 않는 한, 도면의 유사한 참조번호들은 유사한 구성요소들을 나타낸다. 상세한 설명, 도면들 및 청구항들에서 상술하는 예시적인 실시 예들은 한정을 위한 것이 아니며, 다른 실시 예들이 이용될 수 있으며, 여기서 개시되는 기술의 사상이나 범주를 벗어나지 않는 한 다른 변경들도 가능하다. 당업자는 본 개시의 구성요소들, 즉 여기서 일반적으로 기술되고, 도면에 기재되는 구성요소들을 다양하게 다른 구성으로 배열, 구성, 결합, 도안할 수 있으며, 이것들의 모두는 명백하게 고안되어지며, 본 개시의 일부를 형성하고 있음을 용이하게 이해할 수 있을 것이다. 도면에서 여러 층(또는 막), 영역 및 형상을 명확하게 표현하기 위하여 구성요소의 폭, 길이, 두께 또는 형상 등은 과장되어 표현될 수도 있다.
일 구성요소가 다른 구성요소와 "연결" 이라고 언급되는 경우, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되는 경우는 물론, 이들 사이에 추가적인 구성요소가 개재되는 경우도 포함할 수 있다.
본 명세서에서 사용하는 “단말기”라는 용어는 휴대폰, 태블릿 피씨, 노트북 등 유선 또는 무선으로 정보의 입력, 처리 등이 가능한 전자기기를 총망라하는 용어로 이해되어야 한다.
개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시 예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시 예에 의하여 제한되는 것으로 해석되어서는 아니된다. 즉, 실시 예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물을 포함하는 것으로 이해되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, “포함하다” 또는 “가지다” 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
여기서 사용된 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석 될 수 없다.
추가적인 사용자 단말기 또는 대화단말기 관점에서의 접근은 사용자 단말기 관점에서의 접근과 실질적으로 동일하므로 설명의 편의상 본 명세서에서는 사용자 단말기 관점에서 본 명세서에서 개시하는 기술을 설명하기로 한다.
도 1은 일 실시 예에 따른 캐릭터를 이용한 메시지 제공 시스템을 나타내는 도면이다. 도 2는 제1입력수단을 통하여 사용자 단말기(120)의 디스플레이에 표시되는 대화캐릭터 이미지의 소정의 영역을 터치하여 문자메시지를 생성하는 과정을 설명하기 위한 도면이다. 도 3은 사용자 단말기(120)의 디스플레이에 표시되는 대화캐릭터 이미지의 소정의 영역을 터치하는 방식의 예를 보여주는 도면이다. 도 4는 도 3의 방식으로 터치되는 터치부위와 연동하여 데이터베이스(112)에 저장되는 텍스트의 일례를 보여주는 도면이다. 도 5는 사용자 단말기(120)의 디스플레이에 표시되는 대화캐릭터 이미지의 소정의 영역을 터치하는 방식의 다른 예를 보여주는 도면이다. 도 6은 도 5의 방식으로 터치되는 터치부위와 연동하여 데이터베이스(112)에 저장되는 텍스트의 일례를 보여주는 도면이다.
도 1을 참조하면, 캐릭터를 이용한 메시지 제공 시스템(100)은 서버(110), 사용자 단말기(120) 및 추가적인 사용자 단말기(130)를 포함한다.
서버(110)는 네트워크와 연결된다.
사용자 단말기(120)와 추가적인 사용자 단말기(130)는 상기 네트워크를 통하여 서버(110)와 연결되며, 서버(110)를 통하여 문자메시지를 서로 전달한다.
일 실시 예에 있어서, 서버(110)는 데이터베이스(112), 캐릭터 설정부(114) 및 캐릭터 이미지 제공부(116)를 포함한다. 몇몇 다른 실시 예들에 있어서, 서버(110)는 선택적으로(optionally) 캐릭터 텍스트 제공부(117)를 더 포함할 수 있다.
데이터베이스(112)는 적어도 하나의 캐릭터 이미지 및 상기 캐릭터 이미지의 소정의 영역에 대응되는 텍스트를 저장한다. 데이터베이스(112)에 저장되는 상기 텍스트는 상기 캐릭터 이미지의 상기 소정의 영역에 대한 터치 강도, 터치 방법, 터치 횟수, 확대 동작, 축소 동작 및 이들의 조합 중에서 선택되는 적어도 어느 하나에 따라 서로 구별되어 표현되는 문장을 포함할 수 있다. 도 4 및 도 6은 데이터베이스(112)에 저장되는 텍스트의 일례를 보여주는 도면이다. 데이터베이스(112)에 저장되는 상기 캐릭터 이미지는 그림이미지, 동영상이미지 등을 포함한다. 이하에서 사용되는 캐릭터 이미지, 사용자캐릭터 이미지, 대화캐릭터 이미지는 그림이미지 이외에 동영상이미지를 포함하는 개념으로 사용됨을 밝혀둔다. 데이터베이스(112)에 저장되는 상기 캐릭터 이미지는 서버(110)에 의하여 주기적으로 갱신되거나 편집될 수 있으며, 사용자 단말기(120)의 사용자에 의하여 새로 작성되거나 편집된 이미지로 대체될 수도 있다. 사용자 단말기(120)의 상기 사용자는 새로 작성하거나 편집한 상기 이미지에 대응되는 텍스트를 편집하여 이를 데이터베이스(112)에 저장할 수도 있다.
캐릭터 설정부(114)는 사용자 단말기(120) 및 추가적인 사용자 단말기(130)가 요청하는 캐릭터에 대응되는 캐릭터 이미지를 데이터베이스(112)로부터 추출하여 사용자 단말기(120) 및 추가적인 사용자 단말기(130) 각각의 캐릭터로 설정한다.
캐릭터 이미지 제공부(116)는 사용자 단말기(120)가 추가적인 사용자 단말기(130) 중에서 선택하는 단말기-이하 대화단말기(130a)라 함-의 캐릭터 이미지-이하 대화캐릭터 이미지라 함-를 사용자 단말기(120)에 제공한다.
캐릭터 텍스트 제공부(117)는 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트를 사용자 단말기(120)에 제공할 수 있다.
사용자 단말기(120)의 디스플레이에는 캐릭터 이미지 제공부(116)가 제공하는 상기 대화캐릭터 이미지가 표시된다. 이 경우, 사용자 단말기(120)의 사용자가 사용자 단말기(120)의 입력수단-이하 제1입력수단(미도시)이라 함-을 통하여 사용자 단말기(120)의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트가 대화단말기(130a)에 제공됨으로써 사용자 단말기(120)가 대화단말기(130a)에 문자메시지를 전달한다. 도면에는 하나의 대화캐릭터 이미지가 예로서 표현되어 있으나, 사용자 단말기(120)의 상기 사용자가 추가적인 사용자 단말기(130) 중에서 대화단말기(130a)로서 복수의 단말기를 선택하는 경우 복수의 대화캐릭터 이미지가 사용자 단말기(120)의 상기 디스플레이에 표현될 수도 있다. 이하 설명의 편의상 하나의 대화단말기(130a)를 기준으로 하여 설명하기로 한다. 이러한 설명이 본 명세서에서 개시하는 기술의 권리범위를 제한할 의도가 아님을 분명히 밝혀둔다.
한편, 사용자 단말기(120)의 상기 사용자가 사용자 단말기(120)의 상기 제1입력수단을 통하여 사용자 단말기(120)의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 소정의 영역을 터치하는 과정에서 상기 대화캐릭터 이미지는 변화될 수 있다. 일례로, 사용자 단말기(120)의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 변화는 터치된 상기 소정의 영역을 기준으로 하거나, 상기 대화캐릭터 이미지가 배치된 위치 등을 기준으로 하여 웅크리거나, 뒤로 튕기거나, 앞으로 숙이거나, 좌우로 움직이는 등 다양한 방식으로 표현될 수 있다. 이 과정에서 필요할 경우 터치된 상기 소정의 영역에 연계된 동영상이 제공되는 방식으로 표현될 수도 있다. 이러한 변화되는 이미지는 미리 데이터베이스(112)에 저장되어 해당 이벤트가 발생할 때 마다 사용자 단말기(120)로 제공되거나, 미리 데이터베이스(112)에 저장된 내용을 사용자 단말기(120)가 다운로드 받은 후 해당 이벤트가 발생할 경우 사용자 단말기(120) 내에서 제공될 수도 있다. 이러한 내용은 아래에서 서술하는 사용자캐릭터 이미지에도 마찬가지로 적용될 수 있다. 이하 설명의 편의상 하기의 내용에서는 이와 관련된 서술은 생략하기로 한다. 이러한 설명이 본 명세서에서 개시하는 기술의 권리범위를 제한할 의도가 아님을 분명히 밝혀둔다.
일례로, 상기 제1입력수단은 문자입력부(미도시)를 포함하며, 상기 문자입력부는 물리적인 입력장치, 음성인식장치 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 포함할 수 있다. 상기 물리적인 입력장치는 예로서 마우스, 터치패드, 터치스크린, 키보드 등일 수 있다. 상기 음성인식장치는 예로서 마이크 및 마이크와 연계되어 마이크로 입력되는 음성을 분석하여 텍스트로 변환하는 텍스트변환장치일 수 있다. 상기의 예시는 이해를 위한 예시로서 상기한 예시 이외에 상기 물리적인 입력장치 및 상기 음성인식장치로서 다양한 장치들이 사용될 수 있다.
도 2를 참조하면, 도 2의 (a)에 예로서 도시된 바와 같이, 본 명세서에서 개시하는 기술을 사용하는 사용자는 제1입력수단(예로서, 터치스크린)을 통하여 사용자 단말기(120)의 디스플레이에 표시되는 대화캐릭터 이미지의 소정의 영역을 터치할 수 있다. 상기 대화캐릭터 이미지의 상기 소정의 영역에 대한 터치는 다수의 손가락을 이용한 터치, 두드리는 방식의 터치, 문지르는 방식의 터치, 쓰다듬는 방식의 터치, 손가락은 이용한 확대 또는 축소 방식의 터치 등 다양한 방식을 통하여 수행 가능하다. 도 3에는 상기 제1입력수단(예로서, 터치스크린)을 통하여 사용자 단말기(120)의 상기 사용자가 디스플레이에 표시되는 대화캐릭터 이미지의 소정의 영역을 터치하는 예를 보여주고 있다. 도면에는 대화캐릭터 이미지의 상기 소정의 영역으로서 매트릭스 형태로 세분화된 경우가 예로서 표현되어 있다. 상기의 예시는 이해를 위한 예시로서 대화캐릭터 이미지의 상기 소정의 영역은 다양한 방식으로 세분화될 수 있다. 도 3의 (a) 내지 (c)에는 터치방식의 예로서 각각 두드리는 방식, 쓰다듬는 방식 및 확대하는 방식이 표현되어 있다. 이외에 다양한 방식이 정의되어 사용될 수 있다. 도 5에는 상기 제1입력수단(예로서, 터치스크린)을 통하여 사용자 단말기(120)의 상기 사용자가 디스플레이에 표시되는 대화캐릭터 이미지의 소정의 영역을 터치하는 다른 예를 보여주고 있다. 보다 구체적으로 설명하면, 도 5의 (a)에 예로서 도시된 바와 같이, 사용자 단말기(120)의 상기 사용자는 먼저 터치하고자 하는 부위를 선택한다. 이후, 도 5의 (b)에 예로서 도시된 바와 같이, 선택한 터치부위를 쓰다듬는 방식으로 터치할 수 있다. 상기의 예시는 이해를 위한 예시로서 선택 부위는 머리카락, 얼굴, 눈동자, 코, 입 귀, 손, 팔, 가슴, 배 등과 같이 캐릭터의 다른 신체부위로 바뀔 수 있고, 터치방식도 두드리는 방식, 확대 또는 축소하는 방식 등 다양한 방식으로 정의되어 사용될 수 있다.
사용자 단말기(120)의 상기 사용자가 상기 제1입력수단을 통하여 사용자 단말기(120)의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면 터치 부위와 터치 방식에 따라 미리 약속된 문자메시지가 대화단말기(130a)에 전송될 수 있다. 도 4에는 도 3에서 예로서 표현한 방식으로 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면 터치 부위와 터치 방식에 따라 미리 약속된 문자메시지의 예가 표현되어 있다. 도 6에는 도 5에서 예로서 표현한 방식으로 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면 터치 부위와 터치 방식에 따라 미리 약속된 문자메시지의 예가 표현되어 있다.
일례로, 사용자 단말기(120)로부터 대화단말기(130a)에 전송되는 상기 문자메시지는 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역의 정보가 서버(110)로 전송되고, 서버(110)는 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 텍스트를 데이터베이스(112)로부터 추출하여 대화단말기(130a)에 제공하는 과정을 통하여 전송될 수 있다.
다른 예로, 사용자 단말기(120)로부터 대화단말기(130a)에 전송되는 상기 문자메시지는 사용자 단말기(120)가 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 텍스트를 캐릭터 텍스트 제공부(117)로부터 제공받은 텍스트로부터 추출하여 서버(110)를 통하여 대화단말기(130a)에 제공하는 과정을 통하여 전송될 수 있다.
한편, 사용자 단말기(120)의 상기 사용자는 상기 문자입력부를 통하여 대화단말기(130a)에 전송할 텍스트를 생성할 수 있다. 이 경우, 상기 문자입력부를 통하여 생성된 상기 텍스트는 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응하여 생성되는 텍스트와 함께 서버(110)를 통하여 대화단말기(130a)에 문자메시지로 전송될 수도 있다. 이를 통하여 캐릭터 터치를 통한 감성문자메시지 전송과 아울러 일반적인 방식의 문자메시지 전송도 가능하다. 감성문자메시지와 일반문자메시지를 구별하기 위하여 대화단말기(130a)에 표현되는 감성문자메시지와 일반문자메시지는 서로 크기를 달리하거나, 색상 등을 달리하여 표현될 수 있다. 도 2의 (b)에는 상기 문자입력부를 통하여 문자메시지를 전송하는 과정을 보여주는 도면이다.
또 한편, 캐릭터 이미지 제공부(118)는 상기 대화캐릭터 이미지를 대화단말기(130a)에 제공하며, 대화단말기(130a)의 디스플레이에는 상기 대화캐릭터 이미지가 디스플레이 될 수 있다. 즉, 대화단말기(130a)의 사용자가 설정한 자신의 캐릭터 이미지가 자신의 디스플레이에 표현될 수 있다. 이 경우, 사용자 단말기(120)의 상기 사용자가 상기 제1입력수단을 통하여 사용자 단말기(120)의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 대화단말기(130a)의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 영역이 터치될 수 있다. 즉, 대화단말기(130a)의 상기 디스플레이에는 사용자 단말기(120)의 상기 사용자가 상기 대화캐릭터 이미지 중에서 터치한 영역에 대응되는 문자메시지만 전송되는 것이 아니라 사용자 단말기(120)의 상기 사용자가 상기 대화캐릭터 이미지 중에서 터치한 상기 영역이 대화단말기(130a)의 상기 디스플레이에 표현된 상기 대화캐릭터 이미지에 연동하여 표시된다. 이를 통하여 사용자 단말기(120)의 상기 사용자와 대화단말기(130a)의 상기 사용자 간에 단순 정보 교류 이외에 서로 간에 감정을 교류할 수 있다는 효과를 제공할 수 있다.
또 한편, 캐릭터 이미지 제공부(116)는 캐릭터 설정부(114)로부터 사용자 단말기(120)의 캐릭터 이미지-이하 사용자캐릭터 이미지라 함-를 추출하여 사용자 단말기(120)에 제공하며, 사용자 단말기(120)의 상기 디스플레이에는 상기 대화캐릭터 이미지와 함께 상기 사용자캐릭터 이미지가 함께 표시될 수 있다. 이 경우, 사용자 단말기(120)의 상기 사용자가 상기 제1입력수단을 통하여 사용자 단말기(120)의 상기 디스플레이에 표시되는 상기 사용자캐릭터 이미지의 소정의 영역을 터치하면, 터치된 상기 사용자캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트가 대화단말기(130a)에 제공됨으로써 사용자 단말기(120)가 대화단말기(130a)에 문자메시지를 전달할 수도 있다.
이 과정에서 캐릭터 이미지 제공부(116)는 상기 대화캐릭터 이미지를 대화단말기(130a)에 제공하며, 대화단말기(130a)의 디스플레이에는 상기 대화캐릭터 이미지가 디스플레이 될 수 있다. 이 경우, 사용자 단말기(120)의 상기 사용자가 상기 제1입력수단을 통하여 사용자 단말기(120)의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 대화단말기(130a)의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 영역이 터치될 수도 있다. 앞서 도 4 및 도 6과 관련하여 상술한 바와 같이, 데이터베이스(112)에 저장되는 상기 텍스트는 상기 캐릭터 이미지의 상기 소정의 영역에 대한 터치 강도, 터치 방법, 터치 횟수, 확대 동작, 축소 동작 및 이들의 조합 중에서 선택되는 적어도 어느 하나에 따라 서로 구별되어 표현되는 문장을 포함할 수 있다.
또 한편, 본 명세서에서 개시하는 기술은 앞서 언급한 바와 같이, 제1입력수단을 포함할 수 있으며, 상기 제1입력수단은 문자입력부를 포함하며, 상기 문자입력부는 물리적인 입력장치, 음성인식장치 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 포함할 수 있다. 이 경우, 사용자 단말기(120)의 상기 사용자는 상기 문자입력부를 통하여 대화단말기(130a)에 전송할 텍스트를 생성하며, 상기 문자입력부를 통하여 생성된 상기 텍스트는 서버(110)에 전송될 수 있다. 서버(110)는 상기 문자입력부를 통하여 생성된 상기 텍스트에 대하여 구문분석을 수행할 수 있다. 서버(110)는 상기 구문분석을 통하여 추출된 문장과 상기 대화캐릭터 이미지에 대응되는 데이터베이스(112)에 저장된 상기 텍스트의 문장을 비교하여 유사도가 높은 문장을 데이터베이스(112)로부터 추출할 수 있다. 서버(110)는 데이터베이스(112)로부터 추출한 유사도가 높은 상기 문장에 대응되는 상기 대화캐릭터 이미지의 상기 소정의 영역에 대한 터치 강도, 터치 방법, 터치 횟수, 확대 동작, 축소 동작 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 추출한 후 대화단말기(130a)의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지가 이에 상응하여 변화되도록 할 수 있다.
다시 말하면, 본 명세서에서 개시하는 기술은 사용자 단말기(120)의 사용자가 대화캐릭터 이미지의 소정의 영역을 터치함으로써 대화단말기(130a)에 문자메시지를 제공할 뿐만 아니라, 상기 제1입력수단(예를 들면, 키보드나 음성인식수단 등)을 통하여 대화단말기(130a)에 전달할 텍스트를 생성한 후 이를 서버(110)를 통하여 문자메시지 전송방식이 아닌 대화단말기(130a)의 디스플레이에 표현되는 대화캐릭터의 이미지를 터치하는 방식으로 전달할 수도 있다.
도 7은 다른 실시 예에 따른 캐릭터를 이용한 메시지 제공 시스템을 나타내는 도면이다. 도 8은 대화공간에서 메시지를 주고 받는 모습을 보여주는 도면이다. 도 5를 참조하면, 캐릭터를 이용한 메시지 제공 시스템(100)은 서버(110), 사용자 단말기(120) 및 추가적인 사용자 단말기(130)를 포함한다.
서버(110)는 네트워크와 연결된다.
사용자 단말기(120)와 추가적인 사용자 단말기(130)는 상기 네트워크를 통하여 서버(110)와 연결되며, 서버(110)를 통하여 문자메시지를 서로 전달한다.
일 실시 예에 있어서, 서버(110)는 데이터베이스(112), 캐릭터 설정부(114), 캐릭터 이미지 제공부(116) 및 공간 이미지 제공부(118)를 포함한다. 몇몇 다른 실시 예들에 있어서, 서버(110)는 선택적으로(optionally) 캐릭터 텍스트 제공부(117)를 더 포함할 수 있다. 몇몇 또 다른 실시 예들에 있어서, 서버(110)는 선택적으로(optionally) 캐릭터 동작 제어부(119)를 더 포함할 수 있다.
앞서 도 1 내지 도 6과 관련하여 상술한 내용과 중복되는 부분에 대해서는 설명의 편의상 생략하기로 한다. 이러한 설명이 본 명세서에서 개시하는 기술의 권리범위를 제한할 의도가 아님을 밝혀둔다.
데이터베이스(112)는 적어도 하나의 캐릭터 이미지 및 상기 캐릭터 이미지의 소정의 영역에 대응되는 텍스트를 저장한다.
캐릭터 설정부(114)는 사용자 단말기(120) 및 추가적인 사용자 단말기(130)가 요청하는 캐릭터에 대응되는 캐릭터 이미지를 데이터베이스(112)로부터 추출하여 사용자 단말기(120) 및 추가적인 사용자 단말기(130) 각각의 캐릭터로 설정한다.
캐릭터 이미지 제공부(116)는 사용자 단말기(120)가 추가적인 사용자 단말기(130) 중에서 선택하는 단말기-이하 대화단말기라 함-의 캐릭터 이미지-이하 대화캐릭터 이미지라 함-와 사용자 단말기(120)의 캐릭터 이미지-이하 사용자캐릭터 이미지라 함-를 사용자 단말기(120)에 제공한다.
캐릭터 텍스트 제공부(117)는 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트를 사용자 단말기(120)에 제공할 수 있다.
공간 이미지 제공부(118)는 사용자 단말기(120)의 사용자의 선택에 따라 상기 사용자캐릭터 이미지 및 상기 대화캐릭터 이미지가 표시되는 공간-이하 대화공간이라 함-을 사용자 단말기(120)에 제공한다. 상기 대화공간은 사용자 단말기(120)의 상기 사용자에 의하여 편집되거나 신규로 생산될 수 있다. 물론 서버(110)에 의하여 갱신되거나 편집될 수 있다.
캐릭터 동작 제어부(119)는 상기 사용자캐릭터 이미지 및 상기 대화캐릭터 이미지의 동작을 제어할 수 있다.
사용자 단말기(120)의 디스플레이에는 상기 대화공간, 상기 사용자캐릭터 이미지 및 상기 대화캐릭터 이미지가 표시된다. 이 경우, 사용자 단말기(120)의 사용자가 사용자 단말기(120)의 입력수단-이하 제1입력수단이라 함-을 통하여 사용자 단말기(120)의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트가 대화단말기(130a)에 제공됨으로써 사용자 단말기(120)가 대화단말기(130a)에 문자메시지를 전달한다.
상기 제1입력수단은 문자입력부, 동작입력부 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 포함하며, 상기 제1입력수단은 물리적인 입력장치, 음성인식장치 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 포함할 수 있다.
캐릭터 동작 제어부(119)는 상기 제1입력수단을 통하여 사용자 단말기(120)의 상기 사용자가 입력하는 입력명령에 따라 상기 사용자캐릭터 이미지, 상기 대화캐릭터 이미지 및 이들의 조합 중에서 선택되는 적어도 어느 하나의 동작을 제어할 수 있다. 보다 구체적으로 말하며, 사용자 단말기(120)의 사용자는 상기 제1입력수단을 통하여 상기 입력명령을 제공할 수 있고, 서버(110)는 상기 입력명령에 따라 데이터베이스(112)로부터 상기 입력명령에 대응되는 상기 사용자캐릭터 이미지, 상기 대화캐릭터 이미지 및 이들의 조합 중에서 선택되는 상기 적어도 어느 하나의 이미지를 추출하고, 이를 사용자 단말기(120)에 제공하며, 이를 통하여 사용자 단말기(120)의 상기 디스플레이에는 상기 입력명령에 대응되는 이미지가 디스플레이 될 수 있다. 상기 입력명령은 예로서 상기 제1입력수단을 통하여 사용자 단말기(120)의 상기 사용자가 입력하는 텍스트(예를 들어 채팅 문장 등)의 형태가 될 수 있다. 이 경우, 캐릭터 동작 제어부(119)는 상기 제1입력수단을 통하여 사용자 단말기(120)의 상기 사용자가 입력하는 상기 텍스트의 문장을 분석하고, 이를 데이터베이스(112)에 저장된 텍스트의 문장을 비교하여 유사도가 높은 문장을 추출할 수 있다. 이후, 캐릭터 동작 제어부(119)는 추출된 유사도가 높은 문장에 대응되는 캐릭터 이미지를 사용자 단말기(120)에 제공함으로써 사용자 단말기(120)의 상기 디스플레이에는 상기 입력명령에 대응되는 이미지가 디스플레이 될 수 있다.
일례로, 상기 입력명령은 사용자 단말기(120)의 상기 사용자의 희로애락(喜怒哀樂)을 표현하는 텍스트를 포함할 수 있고, 캐릭터 동작 제어부(119)를 통하여 상기 희로애락을 포함하는 상기 텍스트에 대응되는 캐릭터 이미지가 사용자 단말기(120)의 상기 디스플레이에 표현됨으로써, 본 명세서에서 개시하는 기술은 사용자 단말기(120)의 상기 사용자의 희로애락의 감정이 사용자캐릭터 이미지에 반영되어 표현될 수 있다. 이를 통하여 본 명세서에서 개시하는 기술을 사용하는 사용자는 자신의 감정을 캐릭터 이미지를 통하여 자유롭게 표현할 수 있다.
다른 예로, 상기 입력명령은 사용자 단말기(120)의 상기 사용자가 자신의 디스플레이에 표현되기를 원하는 특정 동작을 표현하는 텍스트를 포함할 수 있고, 캐릭터 동작 제어부(119)를 통하여 상기 특정 동작을 포함하는 상기 텍스트에 대응되는 캐릭터 이미지가 사용자 단말기(120)의 상기 디스플레이에 표현됨으로써, 본 명세서에서 개시하는 기술은 사용자 단말기(120)의 상기 사용자가 원하는 상기 특정 동작이 사용자캐릭터 이미지에 반영되어 표현될 수 있다. 이를 통하여 본 명세서에서 개시하는 기술을 사용하는 사용자는 자신이 원하는 특정 동작을 캐릭터 이미지를 통하여 자유롭게 표현할 수 있다. 상기 특정 동작은 예로서 식탁에서 밥 먹는 행동, 바닥에 뒹구는 행동, 캐릭터 둘(예를 들어, 사용자캐릭터와 대화캐릭터)이 만나는 행동, 포옹하는 행동, 뽀뽀하는 행동, 화나서 때리는 행동, 티브이 보는 행동 등일 수 있다. 상기 특정 동작은 각각 상기 입력명령에 포함되는 밥 먹어, 집에서 뒹굴뒹둘거리고 있어, 일루와, 안아줘, 뽀뽀, 화났어, 티브이 보고 있어 등의 문장과 연동되어 구현될 수 있다. 상기의 예시는 이해를 위한 예시로서 상기의 문장과 이에 대응되는 상기의 동작 이외에 다양한 동작이 다양한 문장과 함께 정의되어 사용될 수 있다.
사용자 단말기(120)의 상기 디스플레이에 표시되는 이미지로는 상기 사용자캐릭터와 상기 대화캐릭터가 나란히 앉아 있는 이미지, 서로 포옹하는 이미지, 상기 대화공간에 설정된 소파, 의자, 침대 등에 앉아 있는 이미지 등을 예로 들 수 있다. 이를 통하여 사용자 단말기(120)의 상기 사용자는 자신의 상태를 사용자캐릭터에 표현되는 이미지로 표현할 수 있다.
본 명세서에서 개시하는 캐릭터를 이용한 메시지 제공 시스템(100, 200)은 카카오톡 등 기존의 메신저 어플리케이션과 연동하여 동작할 수 있다. 본 명세서에서 개시하는 캐릭터를 이용한 메시지 제공 시스템(100, 200)을 통하여, 사용자와 대화자는 멀리 떨어져 채팅을 하고 있지만 항상 곁에 있는 것과 같은 느낌을 가질 수 있고, 친구, 애인에게 장난치기도 하고 스킨쉽도 하며 감정표현을 할 수 있고, 자기 아바타 캐릭터를 예쁘게 꾸며 친구들에게 자랑할 수 있고, 자신의 채팅방 즉, 대화공간을 예쁘게 꾸며 자랑할 수 있으며, 이를 통하여 단순히 채팅만 하는 것이 아니라 스킨쉽을 주고 받으며 서로에 대해 애정을 키울 수 있는 “정(情)” 주고 받는 따뜻한 온라인 세상을 경험할 수 있다.
또한, 본 명세서에서 개시하는 캐릭터를 이용한 메시지 제공 시스템(100, 200)은 본 시스템을 사용하지 아니하는 사용자에게도 글자나 이모티콘 형태로 메시지를 제공할 수 있어 높은 호환성을 가진다.
또한, 본 명세서에서 개시하는 캐릭터를 이용한 메시지 제공 시스템(100, 200)은 채팅 건수, 스킨쉽 횟수 등을 카운트 하여 “정(情)” 지수를 카운트 한 후 모은 “정(情)” 지수를 활용하여 캐릭터 의상, 소품 등의 아이템의 구매에 활용하는 기능을 제공할 수 있다. “정(情)”은 우정, 애정 등을 포함하는 용어로 사용될 수 있다. 일례로, “정(情)” 지수는 서버(110)를 통하여 본 시스템을 사용하는 사용자, 대화자의 스킨쉽, 톡 내용을 분석한 후 사용자가 친구, 애인, 가족 등과 사랑이 넘치는 스킨쉽과 톡을 통해 “정”을 주고 받는 것으로 판단되면 애정지수를 쌓으며, 욕설, 폭언 등을 많이 하는 경우 애정지수를 깎는 방식으로 카운트될 수 있다. 이 경우, 주단위, 월단위로 애정지수로 랭킹 시스템을 운영할 수 있다. 본 시스템은 그 밖의 다양한 이벤트와 아이템을 제공할 수 있다.
이상 살펴본 바와 같이, 본 명세서에서 개시하는 캐릭터를 이용한 메시지 제공 시스템은 사용자 또는 추가적인 사용자의 캐릭터를 터치하여 문자메시지를 주고 받을 수 있다는 효과가 있다.
또한, 본 명세서에서 개시하는 캐릭터를 이용한 메시지 제공 시스템은 상대방 캐릭터를 두드리거나, 문지르거나, 쓰다듬는 방식 등과 같은 캐릭터 터치를 통하여 온라인 상에서 사용자간의 스킨십을 가능하게 하며, 이를 통하여 대화 상대방에 대한 애정을 표현할 수 있어 단순한 정보 교류 이외에 서로 간에 감정을 교류할 수 있다는 효과가 있다.
또한, 본 명세서에서 개시하는 캐릭터를 이용한 메시지 제공 시스템은 대화공간을 제공하는 기능을 가지며, 대화공간을 사용자 자신이 디자인하고 추가적인 사용자 중 원하는 사용자를 초대할 수 있다. 이를 통하여 오프라인에서 이루어지는 초대 등의 기능을 온라인에서 구현할 수 있어 보다 더 효과적으로 정보 교류 이외에 대화상대방 서로 간의 감정을 교류할 수 있다는 효과가 있다.
본 시스템은 단순한 채팅만을 하는 시스템이 아닌 항상 곁에 있는 친구처럼 따뜻한 스킨쉽을 할 수 있는 사랑이 전달하는 캐릭터 톡(캣톡)을 제공하는 것을 목적으로 하며, “정(情)”을 주고 받는 애정지수 시스템을 통해 친구, 연인, 가족, 동료간의 사랑을 키우는 온라인의 장을 제공할 것으로 기대된다.
상기로부터, 본 개시의 다양한 실시 예들이 예시를 위해 기술되었으며, 아울러 본 개시의 범주 및 사상으로부터 벗어나지 않고 가능한 다양한 변형 예들이 존재함을 이해할 수 있을 것이다. 그리고 개시되고 있는 상기 다양한 실시 예들은 본 개시된 사상을 한정하기 위한 것이 아니며, 진정한 사상 및 범주는 하기의 청구항으로부터 제시될 것이다.
100, 200 : 캐릭터를 이용한 메시지 제공 시스템
110 : 서버
112 : 데이터베이스
114 : 캐릭터 설정부
116 : 캐릭터 이미지 제공부
117 : 캐릭터 텍스트 제공부
118 : 공간 이미지 제공부
119 : 캐릭터 동작 제어부
120 : 사용자 단말기
130 : 추가적인 사용자 단말기
130a : 대화단말기

Claims (14)

  1. 네트워크와 연결되는 서버; 및
    상기 네트워크를 통하여 상기 서버와 연결되며, 상기 서버를 통하여 문자메시지를 서로 전달하는 사용자 단말기와 적어도 하나의 추가적인 사용자 단말기를 포함하되,
    상기 서버는
    적어도 하나의 캐릭터 이미지 및 상기 캐릭터 이미지의 소정의 영역에 대응되는 텍스트를 저장하는 데이터베이스;
    상기 사용자 단말기 및 상기 추가적인 사용자 단말기가 요청하는 캐릭터에 대응되는 캐릭터 이미지를 상기 데이터베이스로부터 추출하여 상기 사용자 단말기 및 상기 추가적인 사용자 단말기 각각의 캐릭터로 설정하는 캐릭터 설정부; 및
    상기 사용자 단말기가 상기 추가적인 사용자 단말기 중에서 선택하는 단말기-이하 대화단말기라 함-의 캐릭터 이미지-이하 대화캐릭터 이미지라 함-를 상기 사용자 단말기에 제공하는 캐릭터 이미지 제공부를 포함하며,
    상기 사용자 단말기의 디스플레이에는 상기 캐릭터 이미지 제공부가 제공하는 상기 대화캐릭터 이미지가 표시되되,
    상기 사용자 단말기의 사용자가 상기 사용자 단말기의 입력수단-이하 제1입력수단이라 함-을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트가 상기 대화단말기에 제공됨으로써 상기 사용자 단말기가 상기 대화단말기에 문자메시지를 전달하는 캐릭터를 이용한 메시지 제공 시스템.
  2. 제1항에 있어서,
    상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역의 정보는 상기 서버로 전송되고, 상기 서버는 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 텍스트를 상기 데이터베이스로부터 추출하여 상기 대화단말기에 제공함으로써 상기 사용자 단말기가 상기 대화단말기에 상기 문자메시지를 전달하는 캐릭터를 이용한 메시지 제공 시스템.
  3. 제1항에 있어서,
    상기 서버는 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트를 상기 사용자 단말기에 제공하는 캐릭터 텍스트 제공부를 더 포함하며,
    상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 상기 사용자 단말기는 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 텍스트를 상기 캐릭터 텍스트 제공부로부터 제공받은 상기 텍스트로부터 추출하여 상기 서버를 통하여 상기 대화단말기에 제공함으로써 상기 사용자 단말기가 상기 대화단말기에 상기 문자메시지를 전달하는 캐릭터를 이용한 메시지 제공 시스템.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 데이터베이스에 저장되는 상기 텍스트는 상기 캐릭터 이미지의 상기 소정의 영역에 대한 터치 강도, 터치 방법, 터치 횟수, 확대 동작, 축소 동작 및 이들의 조합 중에서 선택되는 적어도 어느 하나에 따라 서로 구별되어 표현되는 문장을 포함하는 캐릭터를 이용한 메시지 제공 시스템.
  5. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제1입력수단은 문자입력부를 포함하며,
    상기 문자입력부는 물리적인 입력장치, 음성인식장치 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 포함하되,
    상기 사용자 단말기의 상기 사용자는 상기 문자입력부를 통하여 상기 대화단말기에 전송할 텍스트를 생성하며,
    상기 문자입력부를 통하여 생성된 상기 텍스트는 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 텍스트와 함께 상기 서버를 통하여 상기 대화단말기에 상기 문자메시지로 전송되는 캐릭터를 이용한 메시지 제공 시스템.
  6. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 캐릭터 이미지 제공부는 상기 대화캐릭터 이미지를 상기 대화단말기에 제공하며,
    상기 대화단말기의 디스플레이에는 상기 대화캐릭터 이미지가 디스플레이 되되,
    상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 대화단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 영역이 터치되는 캐릭터를 이용한 메시지 제공 시스템.
  7. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 캐릭터 이미지 제공부는 상기 캐릭터 설정부로부터 상기 사용자 단말기의 캐릭터 이미지-이하 사용자캐릭터 이미지라 함-를 추출하여 상기 사용자 단말기에 제공하며,
    상기 사용자 단말기의 상기 디스플레이에는 상기 대화캐릭터 이미지와 함께 상기 사용자캐릭터 이미지가 함께 표시되되,
    상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 사용자캐릭터 이미지의 소정의 영역을 터치하면, 터치된 상기 사용자캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트가 상기 대화단말기에 제공됨으로써 상기 사용자 단말기가 상기 대화단말기에 문자메시지를 전달하는 캐릭터를 이용한 메시지 제공 시스템.
  8. 제7항에 있어서,
    상기 캐릭터 이미지 제공부는 상기 대화캐릭터 이미지를 상기 대화단말기에 제공하며,
    상기 대화단말기의 디스플레이에는 상기 대화캐릭터 이미지가 디스플레이 되되,
    상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 대화단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 영역이 터치되는 캐릭터를 이용한 메시지 제공 시스템.
  9. 제8항에 있어서,
    상기 데이터베이스에 저장되는 상기 텍스트는 상기 캐릭터 이미지의 상기 소정의 영역에 대한 터치 강도, 터치 방법, 터치 횟수, 확대 동작, 축소 동작 및 이들의 조합 중에서 선택되는 적어도 어느 하나에 따라 서로 구별되어 표현되는 문장을 포함하는 캐릭터를 이용한 메시지 제공 시스템.
  10. 제9항에 있어서,
    상기 제1입력수단은 문자입력부를 포함하며,
    상기 문자입력부는 물리적인 입력장치, 음성인식장치 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 포함하되,
    상기 사용자 단말기의 상기 사용자는 상기 문자입력부를 통하여 상기 대화단말기에 전송할 텍스트를 생성하며,
    상기 문자입력부를 통하여 생성된 상기 텍스트는 상기 서버에 전송되며,
    상기 서버는 상기 문자입력부를 통하여 생성된 상기 텍스트에 대하여 구문분석을 수행하며,
    상기 서버는 상기 구문분석을 통하여 추출된 문장과 상기 대화캐릭터 이미지에 대응되는 상기 데이터베이스에 저장된 상기 텍스트의 문장을 비교하여 유사도가 높은 문장을 상기 데이터베이스로부터 추출하며,
    상기 서버는 상기 데이터베이스로부터 추출한 유사도가 높은 상기 문장에 대응되는 상기 대화캐릭터 이미지의 상기 소정의 영역에 대한 터치 강도, 터치 방법, 터치 횟수, 확대 동작, 축소 동작 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 추출한 후 상기 대화단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지가 이에 상응하여 변화되도록 하는 캐릭터를 이용한 메시지 제공 시스템.
  11. 네트워크와 연결되는 서버; 및
    상기 네트워크를 통하여 상기 서버와 연결되며, 상기 서버를 통하여 문자메시지를 서로 전달하는 사용자 단말기와 적어도 하나의 추가적인 사용자 단말기를 포함하되,
    상기 서버는
    적어도 하나의 캐릭터 이미지 및 상기 캐릭터 이미지의 소정의 영역에 대응되는 텍스트를 저장하는 데이터베이스;
    상기 사용자 단말기 및 상기 추가적인 사용자 단말기가 요청하는 캐릭터에 대응되는 캐릭터 이미지를 상기 데이터베이스로부터 추출하여 상기 사용자 단말기 및 상기 추가적인 사용자 단말기 각각의 캐릭터로 설정하는 캐릭터 설정부;
    상기 사용자 단말기가 상기 추가적인 사용자 단말기 중에서 선택하는 단말기-이하 대화단말기라 함-의 캐릭터 이미지-이하 대화캐릭터 이미지라 함-와 상기 사용자 단말기의 캐릭터 이미지-이하 사용자캐릭터 이미지라 함-를 상기 사용자 단말기에 제공하는 캐릭터 이미지 제공부; 및
    상기 사용자 단말기의 사용자의 선택에 따라 상기 사용자캐릭터 이미지 및 상기 대화캐릭터 이미지가 표시되는 공간-이하 대화공간이라 함-을 상기 사용자 단말기에 제공하는 공간 이미지 제공부를 포함하며,
    상기 사용자 단말기의 디스플레이에는 상기 대화공간, 상기 사용자캐릭터 이미지 및 상기 대화캐릭터 이미지가 표시되되,
    상기 사용자 단말기의 사용자가 상기 사용자 단말기의 입력수단-이하 제1입력수단이라 함-을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트가 상기 대화단말기에 제공됨으로써 상기 사용자 단말기가 상기 대화단말기에 문자메시지를 전달하는 캐릭터를 이용한 메시지 제공 시스템.
  12. 제11항에 있어서,
    상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역의 정보는 상기 서버로 전송되고, 상기 서버는 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 텍스트를 상기 데이터베이스로부터 추출하여 상기 대화단말기에 제공함으로써 상기 사용자 단말기가 상기 대화단말기에 상기 문자메시지를 전달하는 캐릭터를 이용한 메시지 제공 시스템.
  13. 제11항에 있어서,
    상기 서버는 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 텍스트를 상기 사용자 단말기에 제공하는 캐릭터 텍스트 제공부를 더 포함하며,
    상기 사용자 단말기의 상기 사용자가 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 디스플레이에 표시되는 상기 대화캐릭터 이미지의 상기 소정의 영역을 터치하면, 상기 사용자 단말기는 터치된 상기 대화캐릭터 이미지의 상기 소정의 영역에 대응되는 상기 텍스트를 상기 캐릭터 텍스트 제공부로부터 제공받은 상기 텍스트로부터 추출하여 상기 서버를 통하여 상기 대화단말기에 제공함으로써 상기 사용자 단말기가 상기 대화단말기에 상기 문자메시지를 전달하는 캐릭터를 이용한 메시지 제공 시스템.
  14. 제11항 내지 제13항 중 어느 한 항에 있어서,
    상기 서버는 상기 사용자캐릭터 이미지 및 상기 대화캐릭터 이미지의 동작을 제어하는 캐릭터 동작 제어부를 더 포함하며,
    상기 제1입력수단은 문자입력부, 동작입력부 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 포함하며,
    상기 제1입력수단은 물리적인 입력장치, 음성인식장치 및 이들의 조합 중에서 선택되는 적어도 어느 하나를 포함하되,
    상기 캐릭터 동작 제어부는 상기 제1입력수단을 통하여 상기 사용자 단말기의 상기 사용자가 입력하는 입력명령에 따라 상기 사용자캐릭터 이미지, 상기 대화캐릭터 이미지 및 이들의 조합 중에서 선택되는 적어도 어느 하나의 동작을 제어하는 캐릭터를 이용한 메시지 제공 시스템.
KR1020150181812A 2015-12-18 2015-12-18 캐릭터를 이용한 메시지 제공 시스템 KR20170073196A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150181812A KR20170073196A (ko) 2015-12-18 2015-12-18 캐릭터를 이용한 메시지 제공 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150181812A KR20170073196A (ko) 2015-12-18 2015-12-18 캐릭터를 이용한 메시지 제공 시스템

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020180038196A Division KR20180035777A (ko) 2018-04-02 2018-04-02 캐릭터를 이용한 메시지 제공 시스템

Publications (1)

Publication Number Publication Date
KR20170073196A true KR20170073196A (ko) 2017-06-28

Family

ID=59280473

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150181812A KR20170073196A (ko) 2015-12-18 2015-12-18 캐릭터를 이용한 메시지 제공 시스템

Country Status (1)

Country Link
KR (1) KR20170073196A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019066408A1 (ko) * 2017-09-27 2019-04-04 넷마블 주식회사 터치 입력에 기초한 텍스트 메시지 제공 장치 및 방법
KR102637704B1 (ko) * 2023-06-21 2024-02-19 주식회사 하이 아동에게 칭찬 메시지를 제공하는 방법 및 그것을 수행하는 서버

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019066408A1 (ko) * 2017-09-27 2019-04-04 넷마블 주식회사 터치 입력에 기초한 텍스트 메시지 제공 장치 및 방법
KR102637704B1 (ko) * 2023-06-21 2024-02-19 주식회사 하이 아동에게 칭찬 메시지를 제공하는 방법 및 그것을 수행하는 서버

Similar Documents

Publication Publication Date Title
US11570405B2 (en) Systems and methods for facilitating external control of user-controlled avatars in a virtual environment in order to trigger livestream communications between users
JP4199665B2 (ja) インターネットを介したリッチ・コミュニケーション
US20190332400A1 (en) System and method for cross-platform sharing of virtual assistants
US8099458B2 (en) Workgroup application with contextual clues
US9402057B2 (en) Interactive avatars for telecommunication systems
CN104184760B (zh) 通讯过程中的信息交互方法、客户端及服务器
Salem et al. Designing a non-verbal language for expressive avatars
CN107329990A (zh) 一种用于虚拟机器人的情绪输出方法以及对话交互系统
US20100083324A1 (en) Synchronized Video Playback Among Multiple Users Across A Network
Park et al. The trial of bendi in a coffeehouse: use of a shape-changing device for a tactile-visual phone conversation
US20090157223A1 (en) Robot chatting system and method
CA2760238A1 (en) Avatar integrated shared media selection
US20220197403A1 (en) Artificial Reality Spatial Interactions
CN109155024A (zh) 与用户和接收设备共享内容
CN114995704A (zh) 用于三维环境的集成化输入输出
Surale et al. Arcall: Real-time ar communication using smartphones and smartglasses
US20150341472A1 (en) System for real-time, graphics-based web communication using HTML 5 WebSockets
KR20170073196A (ko) 캐릭터를 이용한 메시지 제공 시스템
KR20060104980A (ko) 이모티콘과 아바타 연동처리 방법 및 시스템
Cohen et al. Requirements and design considerations for a fully immersive robotic telepresence system
KR20180035777A (ko) 캐릭터를 이용한 메시지 제공 시스템
KR20030026506A (ko) 이모티콘과 아바타 연동처리 방법 및 시스템
KR101719742B1 (ko) 아바타를 사용한 모바일 메신저 서비스 방법 및 장치
Hauber Understanding remote collaboration in video collaborative virtual environments
KR20070018843A (ko) 가상 상징물들을 이용한 전기통신 방법 및 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
A107 Divisional application of patent