KR20160010449A - 의사소통 시 정보 교환을 위한 방법, 사용자 단말 및 서버 - Google Patents

의사소통 시 정보 교환을 위한 방법, 사용자 단말 및 서버 Download PDF

Info

Publication number
KR20160010449A
KR20160010449A KR1020157032518A KR20157032518A KR20160010449A KR 20160010449 A KR20160010449 A KR 20160010449A KR 1020157032518 A KR1020157032518 A KR 1020157032518A KR 20157032518 A KR20157032518 A KR 20157032518A KR 20160010449 A KR20160010449 A KR 20160010449A
Authority
KR
South Korea
Prior art keywords
user
terminal
receiving user
message
reproducible
Prior art date
Application number
KR1020157032518A
Other languages
English (en)
Other versions
KR102173479B1 (ko
Inventor
항후아 인
Original Assignee
알리바바 그룹 홀딩 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알리바바 그룹 홀딩 리미티드 filed Critical 알리바바 그룹 홀딩 리미티드
Publication of KR20160010449A publication Critical patent/KR20160010449A/ko
Application granted granted Critical
Publication of KR102173479B1 publication Critical patent/KR102173479B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1822Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • H04L51/32
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/52User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)

Abstract

의사소통 상대방들 간의 대화형 정보를 교환하는 방법 및 장치가 개시된다. 송신자는 송신 사용자의 단말 상에 디스플레이된 수신 사용자의 아바타에 대해 행위한다. 송신 사용자의 단말은 행위를 모니터하고, 검출된 대화형 접촉 행동에 따라 재생 가능한 메시지를 결정하고, 재생 가능한 메시지를 송신 사용자의 단말에서 재생한다. 송신 사용자의 단말은 관련된 정보를 전송하여 수신 사용자의 단말로 하여금 송신 사용자의 접촉 행위에 대한 반응으로 제 2의 재생 가능한 메시지를 결정하게 한다. 재생 가능한 두 가지 메시지는 아바타와 관련되며 두 의사소통 당사자들 간의 실생활의 물리적 상호작용을 모방하기 위하여 송신 사용자의 대화형 접촉 행동과 대응성을 갖는다.

Description

의사소통 시 정보 교환을 위한 방법, 사용자 단말 및 서버{METHOD, USER TERMINAL AND SERVER FOR INFORMATION EXCHANGE COMMUNICATIONS}
관련 특허 출원
본 출원은 2014년 5월 22일자로 "METHOD, CLIENT TERMINAL AND SERVER FOR INFORMATION EXCHANGE IN COMMUNICATIONS (의사소통 시 정보 교환을 위한 방법, 클라이언트 단말 및 서버)"라는 명칭으로 출원한 중국 특허 출원 제201310192855.4호의 외국 우선권을 주장하며, 이 중국 특허출원은 본 출원에서 그 전체가 참조문헌으로 인용된다.
기술 분야
본 출원은 대화형 정보 교환 기술에 관한 것으로, 특히 대화형 정보 교환을 위해 사용되는 방법, 사용자 단말 및 서비스에 관한 것이다.
통신 기술의 향상은 모바일 디바이스를 사용하는 사람들 사이에서 언제 어디서든 통신을 가능하게 해주었다. 모바일 디바이스에 기초한 기존의 통신 방법은 텍스트 메시징, 멀티미디어 메시징, 및 통화(phone call)를 포함한다. 이러한 방법은 전통적으로 사용자에게 매우 높은 서비스 비용을 초래하였다. 증가하는 네트워크 데이터 비용 및 스마트 모바일 폰의 급속한 확장과 더불어, 3세대(3G) 및 더 높은 모바일 통신 기술과 WiFi 음성 호 기술에 따라, 모바일 통신의 새로운 방법이 많이 도입되었다. 한 가지 예는 인스턴트 통신 기능(instant communication function)을 내장한 인스턴트 통신 애플리케이션 및 게이밍 제품과 같은 모바일 클라이언트 애플리케이션을 사용하는 개인 통신이다.
전통적인 텍스트 메시징 및 통화와 달리, 모바일 클라이언트 애플리케이션에 기초한 통신 방법은 텍스팅, 음성 메시징, 사진 전송 및 파일 교환 등을 비롯한, 소셜 네트워크 내에서 대화형 통신을 가능하게 해주는 가상의 통신 네트워크를 형성할 수 있다. 송신된 정보는 수신 측이 인터넷에 연결되어 있는 한 실시간으로 수신될 수 있다. 가상의 소셜 네트워킹은 개인 통신을 낮은 비용으로 더욱 편리하게 해주었다.
초기의 모바일 앱 기반 인스턴트 통신에 있어서, 종종 이모티콘과 같은 단순한 추상적인 그림이 동반될지라도 정보는 근본적으로 텍스트에 의해 전달되었다. 새로운 기술은 대화를 더 상호작용적이고, 더 사실적이고 들을 수 있게 해주는 시각적 호, 음성 호의 능력을 갖고 있다. 이렇게 더 새로워진 방법은 사용자의 감정을 전통적인 텍스트 및 그림보다 더 정확하게 표현할 수 있다.
그러나, 새로운 방법 조차도 여전히 사용자가 가질 수 있는 실제 감정과 느낌을 여전히 표현하고 싶어하며, 개인 통신에서 실 세계를 재생하는 것이 부족하다. 이러한 점에서 아직 개선할 여지가 있다.
본 개요는 아래의 상세할 설명에서 추가 설명되는 개념들 중 선택된 개념을 간략한 형태로 소개하기 위해 제공된다. 본 요약은 청구된 주제의 모든 핵심 특징 또는 본질적인 특징을 식별하려는 것도 아니고, 청구된 주제의 범위를 결정하는데 도움으로서만 사용되게 하려는 것도 아니다.
본 개시는 의사소통 당사자들 사이에서 대화형 정보를 교환하는 방법 및 장치를 제공한다. 송신 사용자는 송신 사용자의 단말에서 디스플레이되는 수신 사용자의 아바타에 대해 행위를 수행한다. 송신 사용자의 단말은 행위를 모니터하고, 검출된 대화형 접촉 행동에 따라서 제 1의 재생 가능한 메시지를 결정하고, 재생 가능한 메시지를 송신 사용자의 단말에서 재생한다. 송신 사용자의 단말은 관련된 정보를 송신하여 수신 사용자의 단말이 송신 사용자의 접촉 행동에 반응하여 제 2의 재생 가능한 메시지를 결정하도록 한다. 재생 가능한 두 메시지는 모두 아바타와 관련되며 두 의사소통 당사자들 간의 실 생활의 물리적인 상호작용을 모방하기 위하여 송신 사용자의 대화형 접촉 행동과의 대응성을 갖는다.
일 실시예에서, 방법은 대화형 접촉 행위와 액션 코드 간의 매칭 관계에 기초하여 대화형 접촉 행동에 대응하는 액션 코드를 먼저 결정하고, 액션 코드와 재생 가능한 메시지 간의 매칭 관계에 기초하여 액션 코드에 대응하는 제 1의 재생 가능한 메시지를 결정함으로써 대화형 접촉 행동에 따른 제 1 재생 가능한 메시지를 결정한다.
방법은 또한 송신 사용자와 수신 사용자의 미리 저장된 관계 속성에 기초하여 송신 사용자와 수신 사용자의 관계 속성을 결정할 수 있으며, 또한 송신 사용자와 수신 사용자의 관계 속성에 따른 제 1의 재생 가능한 메시지를 결정할 수 있다. 송신 사용자와 수신 사용자의 관계 속성을 결정하기 위하여, 송신 사용자 및 수신 사용자의 신원 정보가 서버에 전송되어 서버로 하여금 미리 저장된 관계 속성 데이터에 기초하여 관계 속성을 결정하게 할 수 있다.
뿐만 아니라, 송신 사용자와 수신 사용자의 미리 저장된 관계 속성 데이터에 기초하여 송신 사용자와 수신 사용자의 관계 속성을 결정함으로써, 제 2의 재생 가능한 메시지가 또한 송신 사용자와 수신 사용자의 관계 속성에 따라 결정될 수 있다.
대화형 접촉 행동에 따른 제 1의 재생 가능한 메시지를 결정하기 위하여, 방법은 검출된 대화형 접촉 행동으로부터 행동 특징을 추출하고, 행동 특징과 재생 가능한 메시지 간의 매칭 관계에 기초하여 제 1의 재생 가능한 메시지를 결정할 수 있다. 추출된 행동 특징은 대화형 접촉 행동의 관련 정보로서 취급될 수 있고 서버로 전송되어 서버로 하여금 대화형 접촉 행동과 재생 가능한 메시지 간의 매칭 관계에 기초하여 제 1의 재생 가능한 메시지를 결정하게 할 수 있다.
일 실시예에서, 대화형 접촉 행동에 대응하는 제 1의 재생 가능한 메시지를 결정하기 위하여, 방법은 검출된 대화형 접촉 행동으로부터 행동 특징을 추출하고, 대화형 접촉 행동과 액션 코드 간의 매칭 관계에 기초하여 액션 코드를 결정하고, 그런 다음 액션 코드와 재생 가능한 메시지 간의 매칭 관계에 기초하여 제 1의 재생 가능한 메시지를 결정한다. 액션 코드는 대화형 접촉 행동의 관련 정보로서 취급될 수 있고 서버로 전송되어 서버로 하여금 액션 코드와 재생 가능한 메시지 간의 매칭 관계에 기초하여 제 1의 재생 가능한 메시지를 결정하게 한다.
실시예에서, 대화형 접촉 행동의 관련 정보를 서버 또는 수신 사용자의 단말에 전송하는 단계는 검출된 대화형 접촉 행동으로부터 행동 특징을 추출하는 단계와, 검출된 행동 특징을 서버 또는 수신 사용자의 단말에 전송하여 서버 또는 수신 사용자의 단말로 하여금 행동 특징과 재생 가능한 메시지 간의 매칭 관계에 기초하여 제 2의 재생 가능한 메시지를 결정하게 하는 단계를 포함한다.
대안으로, 대화형 접촉 행동의 관련 정보를 서버 또는 수신 사용자의 단말에 전송하는 단계는 검출된 대화형 접촉 행동으로부터 행동 특징을 추출하는 단계와, 행동 특징과 액션 코드 사이의 매칭 관계에 기초하여 액션 코드를 결정하는 단계와, 액션 코드를 서버 또는 수신 사용자의 단말에 전송하여 서버 또는 수신 사용자의 단말로 하여금 액션 코드와 재생 가능한 메시지 간의 매칭 관계에 기초하여 제 2의 재생 가능한 메시지를 결정하게 하는 단계를 포함한다.
수신 사용자의 아바타에 대해 행위된 송신 사용자의 검출된 대화형 접촉 행동은 송신 사용자의 단말의 터치 스크린의 지정된 영역에서 행위된 송신 사용자의 접촉 행동 또는 단말에 내장된 가속 센서를 사용하여 모니터된 사용자 단말을 흔드는 송신 사용자의 행동을 포함할 수 있다.
방법은 제 2의 재생 가능한 메시지와 함께 송신 사용자의 녹음된 음성 메시지를 수신 사용자의 단말에서 재생할 수 있다. 녹음된 음성 메시지는 송신 사용자의 단말에서 녹음될 수 있다.
의사소통 시 정보 교환을 위한 방법의 다른 양태에 따르면, 서버 또는 수신 사용자의 단말은 수신 사용자의 아바타에 대해 행위된 송신 사용자의 대화형 접촉 행동의 관련 정보를 수신하고, 서버 또는 수신 사용자의 단말은 대화형 접촉 행동의 관련 정보에 따라 재생 가능한 메시지를 결정한다. 재생 가능한 메시지는 아바타와 관련되며 대화형 접촉 행동과 대응성을 갖는다. 재생 가능한 메시지는 수신 사용자의 단말에서 재생된다.
실시예에서, 대화형 접촉 행동에 따라 재생 가능한 메시지를 결정하는 단계는 대화형 접촉 행동과 액션 코드 간의 매칭 관계에 기초하여 대화형 접촉 행동에 대응하는 액션 코드를 결정하는 단계와, 액션 코드와 재생 가능한 메시지 간의 매칭 관계에 기초하여 액션 코드에 대응하는 재생 가능한 메시지를 결정하는 단계를 포함한다.
방법은 또한 송신 사용자와 수신 사용자의 미리 저장된 관계 속성 데이터에 기초하여 송신 사용자와 수신 사용자의 관계 속성을 결정하고, 그런 다음 송신 사용자와 수신 사용자의 관계 속성에 따라 재생 가능한 메시지를 결정할 수 있다.
본 개시의 다른 양태는 의사소통 시 정보 교환을 위한 컴퓨터 기반 장치이다. 장치는 프로세서, 메모리, 및 I/O 디바이스를 갖는 컴퓨터를 포함한다. 컴퓨터는 송신 사용자의 단말 상에서 수신 사용자의 아바타를 보여주는 기능과, 수신 사용자의 아바타에 대해 행위된 송신 사용자의 대화형 접촉 행동을 모니터하는 기능과, 대화형 접촉 행동에 따라 제 1의 재생 가능한 메시지를 결정하는 기능과, 제 1의 재생 가능한 메시지를 상기 수신 사용자의 단말에서 재생하는 기능과, 대화형 접촉 행동의 관련 정보를 서버 또는 수신 사용자의 단말에 전송하여 서버 또는 수신 사용자의 단말로 하여금 대화형 접촉 행동의 관련 정보에 따라 제 2의 재생 가능한 메시지를 결정하게 하는 기능을 포함하는 기능을 수행하도록 프로그램된다. 제 1의 재생 가능한 메시지 및 제 2의 재생 가능한 두 가지 메시지는 아바타와 관련되고, 대화형 접촉 행동과 대응성을 가지며, 수신 사용자의 단말 상에서 재생될 수 있다.
또한 대화형 접촉 행동에 따라 제 1의 재생 가능한 메시지를 결정하기 위하여, 컴퓨터는 대화형 접촉 행동과 액션 코드 간의 매칭 관계에 기초하여 대화형 접촉 행동에 대응하는 액션 코드를 결정하고, 액션 코드와 재생 가능한 메시지 간의 매칭 관계에 기초하여 액션 코드에 대응하는 제 1의 재생 가능한 메시지를 결정하도록 프로그램될 수 있다.
본 개시의 다른 특징 및 장점은 다음의 상세한 설명에서 기술되며, 부분적으로는 상세한 설명으로부터 자명해지거나 응용예의 실시를 통해 이해될 것이다. 본 출원의 목적 및 다른 장점은 특별하게 지적된 서면 설명, 청구범위 및 도면에 의해 취득되고 실현되고 달성될 수 있다.
도 1은 대화형 의사소통 시 정보를 교환하는 방법의 제 1 예의 개략적인 흐름도이다.
도 2는 아바타에 포함되는 재생 가능한 메시지의 예이다.
도 3은 사용자에게 아바타에 대해 어떻게 행위하는 지에 관해 지시하기 위해 아바타와 함께 디스플레이된 표시자의 예이다.
도 4는 대화형 의사소통 시 정보를 교환하는 방법의 제 2 예의 개략적인 흐름도이다.
도 5는 대화형 의사소통 시 정보를 교환하는 방법의 제 3 예의 개략적인 흐름이다.
도 6은 대화형 의사소통 시 정보를 교환하는 방법의 제 4 예의 개략적인 흐름이다.
도 7은 대화형 의사소통 시 정보를 교환하는 방법의 제 5 예의 개략적인 흐름이다.
도 8은 대화형 의사소통 시 정보를 교환하는 방법을 구현하는 송신 사용자 단말의 개략적인 기능 블록도이다.
도 9는 대화형 의사소통 시 정보를 교환하는 방법을 구현하는 서버의 개략적인 기능 블록도이다.
도 10은 대화형 의사소통 시 정보를 교환하는 방법을 구현하는 수신 사용자의 단말의 개략적인 기능 블록도이다.
전술한 목적과, 본 개시의 특징 및 장점을 이해하기 쉽게 하기 위해, 본 개시는 첨부 도면 및 예시적인 실시예와 함께 더 상세히 설명된다. 상세한 설명에서, 예를 들어, 용어 "기술(들)"은 본 개시의 앞부분과 전체의 맥락에 의해 용인되는 것으로서 방법, 장치, 디바이스, 시스템, 및/또는 컴퓨터 판독가능한 명령어를 지칭할 수 있다.
상세한 설명에서, 프로세스가 설명되는 순서는 한정하는 것으로 해석되도록 의도한 것은 아니며, 설명된 프로세스 블록은 몇 개라도 방법 또는 대안의 방법을 구현하는 어떠한 순서로도 조합될 수 있다. 실시예는 예시의 편의를 위해서만 순차적인 단계로 설명된다. 충돌을 야기하지 않는 한, 본 개시에 설명되는 예와 실시예, 및 본 개시의 특성과 특징은 자유로이 조합될 수 있다. 또한, 실시예에서 설명되는 모든 단계가 본 개시의 기술을 실시하기 위해 필요한 것은 아니다.
인스턴트 통신을 더 사실적이고 실생활의 얼굴을 마주한 인간의 상호작용에 더 가깝게 만들어주기 위하여, 본 개시는 기존의 인스턴트 통신의 시각적이고 청각적인 차원에 추가하여 "접촉할 수 있는 차원"을 도입한다. 상호작용에서 비롯되는 실 생활에서, 언어 이외에도, 사람들은 신체 언어와 물리적 상호작용을 사용하여 대화할 수 있다. 그 중 일부는 본능적인 인간 행동이다. 인스턴트 통신에서 접촉할 수 있는 차원은 그러한 인간 경험을 재생하는데 도움을 줄 수 있다.
예 1
도 1은 대화형 의사소통 시 정보를 교환하는 방법의 제 1 예의 개략적인 흐름도이다.
블록(101)에서, 송신 사용자의 단말은 송신 사용자에게 수신 사용자의 아바타를 제공한다.
송신 사용자와 수신 사용자 사이에서 의사소통이 이루어지고 있고, 각 사용자는 스마트 폰과 같은 모바일 단말을 사용하고 있다고 가정한다. 송신 사용자는 대화 또는 정보 교환을 시작한다. 송신 사용자는 송신 사용자의 단말에서 주소록을 열고, 한 사용자를 대화의 수신 사용자로서 선택한다. 이를 위하여, 송신 사용자는 수신 사용자의 이미지 또는 아이콘에 대고 클릭할 수 있고 대화 창으로 들어갈 수 있다. 이 프로세스에서, 수신 사용자 및 연관된 아바타가 결정된다.
예를 들면, 대화의 일부로서, 송신 사용자는 사용자 인터페이스에 입력하여 송신 사용자의 단말에게 대화형 접촉 행위(예를 들면, 수신 사용자의 머리에 접촉, 키스하기 등)를 표현하는 메시지를 전송하라고 지시한다. 대화형 접촉 행위는 이하 본 개시에서 더 상세히 설명된다. 단말은 지시를 수신하면 수신 사용자의 신원을 결정하고, 송신 사용자의 단말 상에서 송신 사용자에게 수신 사용자의 아바타를 보여준다. 이러한 방식으로, 송신 사용자가 대화형 접촉 행위의 수신 사용자를 선택할 때, 송신 사용자는 송신 사용자의 단말 상에 디스플레이된 사용자 인터페이스에서 수신 사용자의 아바타를 보게 된다.
수신 사용자의 아바타는 송신 사용자의 단말에 미리 저장될 수 있거나 사용자 아바타를 저장하는 서버와 동기화하여 송신 사용자의 단말에 다운로드될 수 있다. 이 방식으로, 송신 사용자의 단말은 수신 사용자의 아바타를 국부적으로 찾을 수 있고 아바타를 송신 사용자에게 디스플레이한다. 대안으로, 만일 송신 사용자의 단말이 수신 사용자의 어느 아바타도 갖고 있지 않으면, 먼저 수신 사용자의 아바타를 갖고자 서버로 다운로딩 요청 또는 동기화 요청이 전송될 수 있다. 만일 아바타가 국부적으로든 서버를 통해서든 입수할 수 없으면, 디폴트 아바타가 송신 사용자에게 제공될 수 있다. 또한, 송신 사용자의 단말은 수신 사용자로부터 직접 수신 사용자의 아바타를 받을 수 있다. 송신 사용자의 단말은 또한 수신 사용자로부터 수신되는 임의의 다른 관련 정보(예를 들면, 사진, 음성, 비디오, 주소)에 기초하여 수신 사용자의 아바타를 생성할 수 있다.
다시 말해서, 임의의 사용자(A)에 대해, 그의 아바타는 서버에서 생성되거나, 사용자(A)의 단말에서 생성되지만 서버에 저장되어 있을 수 있거나, 사용자(A)의 단말에서 사용자(B)의 단말로 직접 전송되거나, 또는 송신 사용자(또는 임의의 다른 사용자)의 단말에서 생성될 수 있다. 만일 사용자(B)가 사용자(A)에 대해 대화형 접촉 행위를 수행할 필요가 있으면, 사용자(B)는 다운로딩 또는 동기화를 통해 서버로부터 사용자(A)의 아바타를 취득하거나 사용자(A)로부터 직접 아바타를 수신할 수 있다.
정보 교환 프로세스를 더욱 사실적으로 만들기 위해, 사용자의 아바타는 사용자의 얼굴사진에 기초하여 생성될 수 있다. 만일 아바타가 서버에 의해 생성되면, 서버는 사용자에게 사용자의 사진을 업로드할 것을 요구할 수 있다. 미리 구성된 컴퓨터 모델이 사진과 함께 사용되어 사용자의 얼굴 특징을 닮은 가상의 조합된 3차원 이미지를 만들 수 있다. 이렇게 하는 한가지 방법은 이미지 처리 기술의 얼굴 인식을 사용하여 얼굴 또는 얼굴의 임의의 부분(예를 들면, 눈, 턱)을 식별하고, 선과 색상 특징을 분석하여 헤어스타일, 피부색, 얼굴 형상, 얼굴 크기, 안경과 같은 특성을 취득하고, 이러한 특징적인 특성을 사용자 특징 라이브러리와 매칭시켜서 최적한 아바타를 취득하는 것이다.
기본 아바타에 기초하여, 일련의 표정 이미지가 생성될 수 있다. 예를 들면, 외치는 것, 우는 것, 귀를 기울이는 것을 확대한 것 등과 같은 여러 감정과 반응을 표현하는 애니메이션이 생성될 수 있다. 다음의 논의에서, 애니메이션이 예로서 사용된다. 이러한 애니메이션은 각기 어떤 형태의 대화형 접촉 행위에 대응할 수 있어서, 각기 특정한 대화형 접촉 행위가 수행될 때, (재생 가능한 메시지의 형태인) 각각의 애니메이션이 송신 사용자의 단말 및 수신 사용자의 단말에서 재생되도록 한다. 각각의 애니메이션은 대화형 접촉 행위에 시각적으로 인식 가능한 반응을 표현한다.
만일 사용자의 아바타가 애니메이션과 같은 일련의 이미지를 갖고 있으면, 또 다른 사용자는 아바타를 서버 또는 다른 사용자로부터 수신할 때 일련의 이미지 집합의 전체를 취득할 수 있다. 일련이라는 것은 임의의 대화형 접촉 행위가 아바타에 대해 수행된 이후의 상태를 표현하는 초기 아바타 및 각종의 대화형 접촉 행위에 대응하는 복수의 애니메이션을 포함한다.
송신 사용자의 단말에서 재생된 애니메이션은 수신 사용자의 단말에서 재생된 애니메이션과 다를 수 있고, 각각의 애니메이션은 각각의 사용자 관점에서의 적절한 반응을 표현한다. 송신 사용자의 단말에서 재생된 애니메이션은 송신 사용자의 액션을 표현하지만, 수신 사용자의 단말에서 재생된 애니메이션은 수신 사용자 반응을 표현한다. 예를 들면, 만일 사용자(A)가 "때리기"를 사용자(B)에게 전송하면, 사용자(A)에게 재생된 애니메이션은 때리기 액션을 표시하는 사용자(B)의 아바타의 머리를 향한 손사래일 수 있고, 한편 사용자(B)에게 재생된 애니메이션은 때리기를 당하는 울고 있는 아바타일 수 있다. 이러한 목적을 위해, 사용자(A)가 서버로부터 또는 직접 사용자(B)로부터 사용자(B)의 아바타를 취득할 때, 수신된 아바타는 초기의 아바타뿐만 아니라 각종 액션 및 반응을 표현하는 일련의 애니메이션을 포함하여야 한다. 마찬가지로, 사용자(A)가 그 자신의 아바타를 서버에 업로드 또는 동기화할 때, 이 동기화는 사용자(A)의 초기 아바타는 물론이고 각종 액션 및 반응을 표현하는 일련의 애니메이션을 포함하여야 한다.
애니메이션 이외에, 음성이 또한 추가될 수 있다. 예를 들면, "때리기"를 수신할 때, 재생된 애니메이션은 수신 사용자의 울고 있는 아바타, 예를 들면, 도 2에 예시된 바와 같은 우는 소리를 동반한 아바타(200)를 가질 수 있다. 애니메이션이 사용 가능하지 않거나 무슨 이유 때문에 재생되지 않아야 하면 아무런 애니메이션 없이 음성만 단독으로 재생될 수 있다. 이 경우, 소리만이 재생 가능한 메시지이다.
본 개시의 의미에서, 재생 가능한 메시지는 소리, 이미지 및/또는 애니메이션의 임의의 조합을 말한다.
블록(102)에서 수신 사용자의 아바타에 대해 행위된 송신 사용자의 대화형 접촉 행동이 모니터된다.
대화형 접촉 행동은 실 생활에서 신체간 접촉을 표현하는 미리 정의된 액션과 같은 특정 행위로 명시된다. 그러한 액션의 예는 "때리기", "키스", "만지기" 등을 포함한다.
송신 사용자의 관점에서 보면, 대화형 접촉 행위는 송신 사용자에게 디스플레이된 수신 사용자의 아바타에 대해 수행될 수 있다. 그러한 행위의 입력을 구현하는 한가지 방법은 각 형태의 행위마다 동작 진입 시점을 디스플레이하여 송신 사용자가 그 각각의 동작 진입 시점에서 직접 행위를 수행하게 하는 것이다. 동작 진입 시점의 예는 송신 사용자의 단말의 사용자 인터페이스 상의 클릭 가능한 또는 터치 가능한 버튼이다. 예를 들면, "때리기, "키스" 또는 "만지기"를 각기 표현하는 버튼이 디스플레이될 수 있다. 송신 사용자가 버튼을 클릭 또는 터치할 때, 대응하는 접촉 행위가 등록된다.
사용자 단말은 일반적으로 터치 스크린, 가속 센서 및 기타 센서를 갖고 있다. 그러므로, 송신 사용자는 터치 스크린을 간단히 터치함으로써 또는 사용자 단말을 흔들어서 터치 스크린 상의 아바타의 절대 위치를 변경시킴으로써 접촉 행위를 수행할 수 있다.
접촉 행동을 촉발하는 동작이 특정한 대화형 접촉 행위에 대응하도록 미리 정의될 수 있고, 그래서 송신 사용자가 어떤 동작을 행하면, 대응하는 접촉 행위가 등록된다. 다음은 동작과 다양한 접촉 행위 간의 대응하는 예의 리스트이다.
때리기: 아바타의 머리에 대고 여러 번 클릭하기
만지기: 아바타의 머리에 접촉하기
그리워하기: 아바타 위에 하트를 그리기
작업걸기: 아바타의 목 근처에서 선 긋기
키스: 아바타의 입술에 닿기
흔들기: 사용자 단말을 가볍게 흔들기
뒤흔들기: 사용자 단말을 강하게 흔들기
꼬집기: 아바타의 얼굴을 꼬집거나 쥐어짜기
이야기하기: 아바타의 귀를 당기기
다시 말해서, 사용자 단말에서 여러 동작이 여러 대화형 접촉 행위를 표현하도록 정의될 수 있다. 동작에 대한 힌트나 지시는 아바타와 함께 디스플레이될 수 있다. 도 3은 "때리기", "그리워하기", 및 "작업걸기"와 같은 다양한 접촉 행위에 대응하는 여러 동작을 나타내는 여러 아이콘(302)이 아바타(300)와 함께 디스플레이되는 예이다.
어떤 재생 가능한 메시지 및/또는 동반하는 소리가 재생될 것인지를 적절히 결정하기 위하여, 송신 사용자가 의도한 접촉 행위를 정확하게 식별하는 것이 중요하다. 송신 사용자가 어떤 동작을 수행할 때 다양한 접촉 행위를 잘 식별하기 위해, 다양한 접촉 행위는 각각의 특정한 접촉 행위를 표현하는 고유 코드를 사용하여 미리 편성될 수 있으며, 각 코드와 사용자 동작 특징의 특정 집합 간의 대응성을 정의하는 매칭 관계가 생성되고 저장될 수 있다.
예를 들면, 수행된 손 제스처 및 접촉 동작은 여러 상이한 특징으로 특징지을 수 있는데, 하나의 특징은 동작의 형태(예를 들면, 클릭 또는 후려치기(swipe))를 식별하고 다른 하나의 특징은 동작의 위치(예를 들면, 머리 구역 또는 코, 입 또는 귀와 같은 더 작은 구역)을 식별하며, 또 다른 하나의 특징은 동작의 자취(예를 들면, 동작이 하트 형상을 기초로 하는지)를 식별한다. 다양한 접촉 행위와 다양한 사용자 동작 간의 대응성을 정의함에 따라, 각 동작은 동작을 고유하게 표현할 수 있는 한 셋의 고유한 동작적 특징으로 줄일 수 있다. 이것은 결과적으로 동작적 특징과 접촉 행위의 코드 간의 대응성의 매치 리스트를 형성할 것이다. 예를 들면, 접촉 행위 "때리기"는 행위 코드 001에 대응하고, 이 코드의 정의된 사용자 동작은 다음의 특징을 가져야 한다. 즉 동작 유형 = 클릭; 동작 위치 = 머리. 그러므로, 다음과 같은 대응 관계가 생성된다. 즉 "001 - 머리 위치에서 클릭 동작". 의사소통 프로세스 동안, 만일 검출된 접촉 행위가 머리에서 "클릭 동작"이라는 특징으로 줄어들면, 검출된 접촉 행동은 행위 코드 "001"에 대응하고 이는 "때리기"에 대응한다고 결정된다. 그러므로 대화형 접촉 행위는 사용자 동작을 검출함으로써 식별된다.
대응적으로, 대화형 접촉 행위를 인식하는 절차는 먼저 검출된 사용자 동작으로부터 동작적 특징을 추출하고, 그런 다음 각종 동작적 특징과 액션 코드 간의 매칭 관계에 기초하여 검출된 사용자 동작에 대응하는 액션 코드를 검출하고, 그런 다음 액션 코드와 각종 대화형 접촉 행위 간의 매칭 관계에 기초하여 의도된 대화형 접촉 행위를 결정하는 것이다.
실제 응용 예에서, 때로는 사용자 동작이 적절하게 수행되지 않을 수 있고, 그 결과 적절한 동작적 특징이 추출되지 않을 수 있으며 올바른 액션 코드가 식별되지 않을 수 있다. 이와 같은 상황에서, 디폴트 액션 코드가 검출된 대화형 접촉 행동에 일치하는 액션 코드처럼 사용될 수 있다.
블록(102)에서 설명된 전술한 절차는 송신 사용자의 단말에 대해 수행될 수 있다. 즉, 동작적 특징과 액션 코드 간의 매칭 관계는 송신 사용자의 단말에 국부적으로 저장될 수 있다. 송신 사용자의 접촉 행동이 검출될 때, 동작적 특징이 국부적으로 추출될 수 있고 저장된 매칭 관계에 기초하여 일치하는 행위 코드를 식별하는데 사용될 수 있다.
블록(103)에서, 제 1의 재생 가능한 메시지가 검출된 대화형 접촉 행동에 따라서 결정된다. 제 1의 재생 가능한 메시지는 아바타와 관련되며 대화형 접촉 행동과 대응성을 갖는다.
대화형 접촉 행동을 검출하면, 검출된 대화형 접촉 행동에 대응하는 재생 가능한 메시지를 결정하는 것이 가능하다. 재생 가능한 메시지는 다음 블록(104)에서 표시되는 바와 같이 송신 사용자의 대화형 접촉 행동의 적절한 표현으로서 송신 사용자에게 재생될 것이다. 이렇게 수행하는 한가지 방법은 각종 대화형 접촉 행동과 각종 재생 가능한 메시지 간의 매칭 관계를 저장하고, 그 매칭 관계를 사용하여 검출된 대화형 접촉 행동에 대응하는 제 1의 재생 가능한 메시지를 결정하는 것이다.
재생 가능한 메시지를 검출된 대화형 접촉 행동으로부터 직접 결정하는 것이 가능하지만, 다른 방법은 본 출원에서 블록(102)과 관련하여 설명된 코딩 체계를 사용하는 것이다. 예를 들면, 각각의 대화형 접촉 행위에 행위 코드가 할당될 수 있고, 각각의 행위 코드는 적어도 하나의 재생 가능한 메시지에 대응하도록 할당될 수 있다. 행위 코드와 재생 가능한 메시지 간의 매칭 관계는 송신 사용자의 단말에 국부적으로 저장될 수 있다. 또한, 행위 코드와 동작적 특징 간의 매칭 관계가 또한 국부적으로 저장될 수 있다. 대화형 접촉 동작이 검출될 때, 동작적 특징이 검출된 상호작용 접촉 동작으로부터 추출되고, 대응하는 행위 코드가 동작적 특징과 행위 코드 간의 매칭 관계에 기초하여 취득된다. 이후 제 1의 재생 가능한 메시지가 재생 가능한 메시지와 액션 코드 간의 매칭 관계에 기초하여 결정되고 필요에 따라 재생된다.
다시 말해서, 송신 사용자의 경우, 송신 사용자에 의해 수행되는 대화형 접촉 동작에 응답하여, 애니메이션 및/또는 음성이 국부적으로 재생된다. 애니메이션 및/또는 음성은 수신 사용자의 아바타와 관련되며, 재생되는 메시지는 송신 사용자에 의해 수행된 대화형 접촉 동작에 대한 수신 사용자의 표정 반응을 반영하는 아바타의 표정 변화를 보여준다.
예를 들면, 사용자(A)가 사용자(B)에 대해 "그와 이야기하는" 행위를 수행하면, 마치 사용자(A)가 사용자(B)의 귀를 부여잡아 사용자(B)에게 자기 말을 듣게 하는 것처럼 사용자(B)의 "확대한 귀 기울이는" 모양을 보여주는 애니메이션이 사용자(A)의 단말에 재생된다.
전술한 예에서, 송신 사용자의 단말은 검출된 대화형 접촉 행동을 분석하여 어느 애니메이션 및/또는 음성이 재생되어야 하는지 결정한다. 이러한 분석 기능은 서버에 의해서도 또한 수행될 수 있다. 실제로, 전술한 매칭 관계는 서버에 저장될 수 있으며, 그래서 서버는 동작적 특징을 수신하고 이를 행위 코드로 변환하고 행위 코드를 송신 사용자의 단말에 반환할 수 있다. 이러한 구성에서, 송신 사용자의 단말은 어느 메시지(제 1의 재생 가능한 메시지)가 재생될 것인지를 결정하기 위해 행위 코드와 재생 가능한 메시지 간의 매칭 관계를 저장할 필요가 있을 뿐이다.
대안으로, 서버는 행위 코드와 재생 가능한 메시지 간의 매칭 관계를 추가로 저장할 수 있으며, 그래서 서버는 먼저 수신된 동작적 특징을 행위 코드로 변환하고, 또한 대응하는 제 1의 재생 가능한 메시지를 결정한 다음, 제 1의 재생 가능한 메시지를 송신 사용자의 단말로 전송하여 재생되게 할 수 있다. 제 1의 재생 가능한 메시지 자체를 전송하는 대신, 대안으로 서버는 결정된 제 1의 재생 가능한 메시지에 대응하는 재생 가능한 메시지 코드를 송신 사용자의 단말에게 전송하고, 송신 사용자의 단말로 하여금 국부적으로 저장된 또는 그렇지 않으면 사용 가능한 제 1의 재생 가능한 메시지를 재생하게 할 수 있다.
대안으로, 서버는 그저 행위 코드와 재생 가능한 메시지 간의 매칭 관계를 저장할 수 있다. 송신 사용자의 대화형 접촉 행동을 검출하면, 송신 사용자의 단말은 동작적 특징을 추출하고, 국부적으로 저장된 행위 코드와 동작적 특징 간의 매칭 관계로부터 대응하는 행위 코드를 결정하고, 결정된 행위 코드를 서버에 전송한다. 그러면 서버는 행위 코드와 재생 가능한 메시지 코드 간의 매칭 관계에 기초하여 제 1의 재생 가능한 메시지 코드를 결정하고, 이 코드를 송신 사용자의 단말로 반환하며, 송신 사용자의 단말은 다음 블록(104)에서 표시된 바와 같이 국부적으로 대응하는 재생 가능한 메시지를 재생한다.
블록(104)에서, 제 1의 재생 가능한 메시지는 송신 사용자의 단말에서 재생된다. 애니메이션 및/또는 음성은 임의의 적절한 기술을 사용하여 재생될 수 있다.
블록(105)에서, 송신 사용자의 단말은 대화형 접촉 행동의 특정 관련 정보를 서버 또는 수신 사용자의 단말에 전송하여 서버 또는 수신 사용자의 단말로 하여금 수신된 관련 정보에 따라서 제 2의 재생 가능한 메시지를 결정하게 한다. 제 1의 재생 가능한 메시지처럼, 제 2의 재생 가능한 메시지는 또한 아바타와 관련되고, 대화형 접촉 행동과의 대응성을 가지며, 수신 사용자의 단말에서 재생될 수 있다.
실시예에서, 관련 정보는 수신 사용자의 단말에 전송되며, 수신 사용자의 단말은 수신된 관련 정보에 따라 제 2의 재생 가능한 메시지를 결정한다. 관련 정보는 포인트-투-포인트 연결을 사용하여 직접 수신 사용자의 단말에 전송될 수 있거나 또는 중개 서버로 전송한 다음 관련 정보를 수신 사용자의 단말에 전달할 수 있다. 대안으로, 관련 정보가 서버에 전송되고, 서버는 수신된 관련 정보에 따라서 제 2의 재생 가능한 메시지를 결정한다.
아래에서 논의되는 바와 같이, 앞에서 언급한 "관련 정보"는 각종 형태로 구성될 수 있다.
제 1 예시적인 형태에서, 관련 정보는 전술한 행위 코드를 포함한다. 다시 말해서, 송신 사용자의 단말은 검출된 대화형 접촉 행동에 대응하는 것으로 결정된 행위 코드를 관련 정보로서 취급하고 이를 수신 사용자의 단말에 전송할 수 있다. 수신 사용자의 단말은 예를 들면, 서버와 동기화를 통해 행위 코드와 재생 가능한 메시지 코드 간의 매칭 관계를 이미 취득하고 저장하고 있다. 행위 코드들 수신하면, 수신 사용자의 단말은 매칭 관계에 기초하여 제 2의 재생 가능한 메시지에 대한 코드를 결정하고 결정된 코드에 대응하는 제 2의 재생 가능한 메시지를 재생한다.
제 2의 예시적인 형태에서, 관련 정보는 제 2의 재생 가능한 메시지의 코드를 포함한다. 즉, 송신 사용자의 단말이 행위 코드를 분석함에 따라, 송신 사용자의 단말은 제 1의 재생 가능한 메시지의 코드뿐만 아니라 제 2의 재생 가능한 메시지의 코드를 취득하고, 제 2의 재생 가능한 메시지의 코드를 수신 사용자의 단말에 전송한다. 대안으로, 서버가 중재자로서 관련 정보를 전달하는데 사용될 수 있다. 또한, 만일 서버가 사용되면, 서버는 분석 부분을 수행할 수 있다. 예를 들면, 송신 사용자의 단말이 행위 코드를 서버에 전송하고, 서버는 행위 코드와 재생 가능한 메시지 코드 간의 매칭 관계에 기초하여 제 2의 재생 가능한 메시지의 코드를 결정하고, 결정된 코드를 "관련 정보"로서 수신 사용자의 단말에 전송할 수 있다. 수신 사용자의 단말은 수신된 코드에 대응하는 제 2의 재생 가능한 메시지를 재생한다.
제 1의 재생 가능한 메시지에 따라서, 수신 사용자의 단말은 아바타의 애니메이션 이외에 음성 기록을 재생할 수 있다는 것을 주목하여야 한다. 음성은 송신 사용자가 만지기 및 흔들기 동작을 수행할 때의 시점에 송신 사용자의 단말에 기록될 수 있다.
동일 사용자의 아바타가 다른 의사소통 상대방에게 디스플레이될 때 동일하지 않을 수 있다는 것이 또한 주목된다. 예를 들면, 만일 어떤 의사소통에서 사용자(A)가 송신 사용자이고 사용자(B)가 수신 사용자인 경우, 사용자(A)의 단말에 디스플레이된 사용자(B)의 아바타는 사용자(B) 자신의 단말에 디스플레이된 사용자(B)의 아바타와 다를 수 있다. 그러나 물론 사용자(B)의 동일한 아바타가 사용될 수도 있다. 이러한 관점으로 한정되지 않는다.
전술한 바와 같이, 개시된 실시예를 실시할 때, 수신 사용자의 아바타는 송신 사용자의 단말에 디스플레이되어 송신 사용자가 아바타에 대해 대화형 접촉 동작을 수행하게 한다. 그 동작에 응답하여, 표정 픽처(예를 들면, 애니메이션)가 송신 사용자에게 디스플레이되고, 또 다른 표정 픽처(예를 들면, 애니메이션)이 수신 사용자에게 디스플레이되어, 송신 사용자가 수신 사용자의 신체에 자연스러운 접촉 액션을 수행하면 수신 사용자가 실제 생활에서 취하는 종류의 반응을 재생하거나 모방하게 된다. 이것은 접촉할 수 있는 차원을 집단에 제공하는 것이며, 실 생활 상호작용의 재생 수준을 높여줌으로써 사용자 경험을 개선한다.
추가적인 세부사항과 예는 아래에서 의사소통의 실제 예를 사용하여 제공된다.
예 2
도 4는 대화형 의사소통 시 정보를 교환하기 위한 방법의 제 2 예의 개략적인 흐름이다.
블록(401)에서, 송신 사용자의 대화형 접촉 행동이 모니터되고 검출된다. 수신 사용자의 아바타의 얼굴이 식별 영역으로서 다루어진다. 예를 들면, 귀, 입, 눈 및 머리카락이 접촉될 수 있다.
블록(402)은 송신 사용자의 손 접촉 동작이 검출되는지 결정한다. 검출되면, 방법은 블록(403)으로 진행하고, 검출되지 않으면, 방법은 블록(401)으로 되돌아가서 계속적으로 모니터한다.
블록(403)은 검출된 손 접촉 동작을 가장 가까운 행위 코드와 매칭시키다. 동시에 녹음 기능이 개시될 수 있다.
블록(404)은 액션 코드와 재생 가능한 메시지 간의 매칭 관계에 기초하여 액션 코드에 대응하는 제 1 재생 가능한 메시지를 결정하고 제 1의 재생 가능한 메시지를 송신 사용자의 단말에서 재생한다.
블록(405)은 결정된 액션 코드를 서버로 전송하고, 서버는 액션 코드를 수신 사용자의 단말에 전달하며, 대안으로 액션 코드는 수신 사용자의 단말에 직접 전송될 수 있다.
전술한 블록(404 및 405)은 하나의 단계로 조합되어 수행될 수 있다.
블록(406)은 액션 코드와 재생 가능한 메시지 간의 매칭 관계에 기초하여 제 2의 재생 가능한 메시지를 결정하고 제 2의 재생 가능한 메시지를 송신 사용자의 단말에서 재생한다. 만일 음성 파일이 서버 또는 송신 사용자의 단말로부터 전송되면, 음성이 동시에 재생될 수 있다.
다양한 대화형 접촉 행동의 예는 접촉 행동에 응답하여 메시지를 재생하는 다음과 같은 효과를 가져올 수 있다.
때리기: 송신 사용자의 단말에서, 수신 사용자 아바타의 머리를 몇 차례 치면, 송신 사용자의 단말은 "너 무슨 일이야!"라는 소리와 함께 맞고 있는 수신 사용자의 아바타의 머리 이미지의 애니메이션을 재생한다. 관련 정보가 수신 사용자의 단말에 전송될 때, 수신 사용자의 단말은 맞고 있는 행위 코드를 불러와서 소리를 내어 울고 있는 아바타와 같은 반응하는 애니메이션을 재생한다.
만지기: 송신 사용자의 단말에서, 수신 사용자 아바타의 머리가 접촉되면 접촉 행위의 재생이 촉발되며, 수신 사용자의 단말은 동반하는 소리와 함께 접촉되는 애니메이션을 재생한다.
그리워하기: 송신 사용자의 단말에서, 송신 사용자는 수신 사용자를 그리워하는 행동을 촉발하기 위해 수신 사용자의 아바타 위로 하트를 그린다. 수신 사용자는 대응하는 아바타 애니메이션이 재생되는 관련 정보를 수신한다. 예를 들면, 수신 사용자는 "누군가 나를 생각하고 있어"라는 몇 번의 코웃음 섞인 음성을 들은 다음, 수신 당사자를 그리워하는 송신 사용자의 음성이 동반되는 송신 당사자의 행위를 보여주는 애니메이션이 재생될 수 있다.
작업 걸기: 송신 사용자의 단말에서, 작업 걸기의 행동을 촉발하기 위해 수신 사용자의 아바타의 목 근처에 선을 그으면, 수신 당사자는 음성과 함께 작업 걸기의 행위를 표현하는 대응하는 애니메이션을 수신한다.
키스: 송신 사용자의 단말에서, 키스하는 행위를 촉발하기 위해 수신 당사자의 입술 위로 손가락을 얹어 놓는다. 그 행위의 관련 정보를 수신하면, 수신 사용자의 단말은 키스 받고 싶어하는 입술을 보여주는 메시지를 재생한다. 만일 수신 사용자가 손가락을 사용하여 입술을 접촉하면, 화답하는 키스가 발생되어 키스 받는 애니메이션이 재생되게 한다.
흔들기: 송신 사용자는 단말을 가벼이 흔들어 흔들기의 행위를 촉발한다. 흔들리는 수신 사용자의 아바타의 애니메이션이 수신 사용자의 단말에서 재생된다.
뒤흔들기: 송신 사용자는 단말을 세게 흔들어 수신 사용자를 흔드는 행위를 촉발한다. 형상화되는 수신 사용자의 아바타의 애니메이션이 수신 사용자의 단말에 디스플레이된다. 예를 들면, 아바타는 벽(화면의 에지)에 부딪치고 "아야!"라는 소리가 동반될 수 있다.
꼬집기: 꼬집히는 수신 사용자의 아바타의 얼굴을 보여주는 애니메이션이 양측에 재생된다.
이야기하기: 송신 사용자는 수신 사용자의 아바타의 귀를 부여잡으며 수신 사용자의 아바타는 귀를 기울이는 확대된 귀를 보여준다. 송신 사용자는 이야기하고 메시지를 녹음하기 시작한다. 관련 정보를 수신하면, 수신 사용자의 단말에서 녹음된 메시지를 이야기하고 있는 송신 사용자의 이야기하는 아바타를 보여주는 애니메이션이 재생된다.
송신 사용자에 의한 특정 접촉 행위에 반응하는 애니메이션은 여러 수신 사용자마다 동일할 수 있으며 여러 송신 사용자에 의한 동일한 접촉 행위에 의해 촉발된 동일한 수신 사용자의 애니메이션도 역시 동일할 수 있다. 그러나, 애니메이션은 송신 사용자와 수신 사용자 간의 관계에 따라서 개인화될 수 있다. 예를 들면, 동일한 수신 사용자(B)에 대해, 송신 사용자(A)에 의해 접촉 행위가 촉발되었으면 두 사용자가 친밀한 관계이기 때문에 반응은 더 강할 수 있지만, 만일 송신 사용자(C)에 의해 접촉 행위가 촉발되었으면 두 사용자가 먼 관계이기 때문에 반응은 약하다. 상이한 반응 레벨을 반영하는 상이한 애니메이션이 그러한 목적으로 생성될 수 있다.
송신 사용자의 접촉 행위에 대한 수신 사용자의 반응으로서 제 2의 재생 가능한 메시지가 개인화될 뿐만 아니라, 송신 사용자에 의한 접촉 행위의 표현으로서 제 1의 재생 가능한 메시지가 또한 두 당사자들의 관계에 따라서 개인화될 수 있다. 즉, 송신 사용자와 수신 사용자 간의 관계의 특성에 따라서, 송신 사용자가 특정한 접촉 행위를 수행함에 따라, 그 접촉 행위를 표현하기 위해 동일한 송신 사용자에게 재생되는 애니메이션은 상이한 수신 사용자들에 대해 상이할 수 있거나, 또는 상이한 두 명의 송신 사용자에게 재생되는 애니메이션은 동일한 수신 사용자에 대해 상이할 수 있다. 예를 들면, 만일 사용자(A) 및 사용자(B)가 친밀한 관계이지만, 사용자(C) 및 사용자(B)가 먼 관계인 경우, 사용자(A)가 사용자(B)에게 "때리기"의 행위를 수행하면, 애니메이션 1이 사용자(A)에게 재생되지만, 사용자(B)에게는 애니메이션 2가 재생되며, 그러나 사용자(C)가 사용자(B)에게 "때리기"를 수행하면, 사용자(C)에게는 애니메이션 3이 재생되지만, 사용자(B)에게는 애니메이션 4가 재생된다. 이러한 애니메이션은 사용자 관계의 특성을 신속히 반영하도록 설계될 수 있다. 일반적으로, 예를 들면, 애니메이션 1 및 2는 애니메이션 3 및 4보다 더 강한 감정을 반영하여야 한다.
전술한 목적을 위해, 서버는 각각의 대화형 접촉 행위마다 복수의 재생 가능한 메시지를 생성할 수 있다. 동시에, 사용자는 그들의 다른 사람과의 관계의 속성을 설정하게 허용될 수 있으며, 그러한 속성은 서버에 저장될 수 있다. 이러한 방식으로, 행위 코드와 재생 가능한 메시지 코드 간의 매칭 관계는 두 당사자들 간의 관계의 속성에 따라서 변할 수 있다. 서버가 행위 코드들 수신할 때, 서버는 두 당사자들의 관계에 따라서 개인화된 매칭 관계에 기초하여 적절한 제 1의 재생 가능한 메시지 코드와 제 2의 재생 가능한 메시지 코드를 결정할 수 있다.
일 실시예에서, 송신 사용자의 단말은 먼저 검출된 대화형 접촉 행동으로부터 동작적 특징을 추출하고, 동작적 특징과 행위 코드 간의 매칭 관계에 기초하여 대응하는 행위 코드를 결정한다. 그런 다음 송신 사용자의 단말은 송신 사용자 및 수신 사용자의 신원과 함께 행위 코드를 서버에 전송한다. 관련 정보를 수신하면, 서버는 행위 코드와 송신 사용자 및 수신 사용자의 관계 속성 하에서 정의된 재생 가능한 메시지 코드와의 매칭 관계에 기초하여 제 1의 재생 가능한 메시지 및 제 2의 재생 가능한 메시지 코드를 결정한다. 관계 속성은 서버에 미리 정의되어 있고 저장되어 있을 수 있다. 서버는 제 1의 재생 가능한 메시지 코드를 송신 사용자에게 반환하여 대응하는 제 1의 재생 가능한 메시지가 송신 사용자에서 재생되게 하고, 제 2의 재생 가능한 메시지 코드를 수신 사용자에게 전송하여 대응하는 제 2의 재생 가능한 메시지가 수신 사용자의 단말에 재생되게 한다.
그러나, 실제로, 사용자에 의해 설정된 관계 속성은 송신 사용자의 단말에 동기화되어 송신 사용자의 단말로 하여금 두 사용자들 간의 관계 속성을 결정하게 하고, 또한 두 사용자의 관계 속성에 따라서 개인화된 매칭 리스트에 기초하여, 행위 코드에 대응하는 제 1의 재생 가능한 메시지 코드 및 제 2의 재생 가능한 메시지 코드를 결정하게 할 수 있다. 이후 송신 사용자의 단말은 제 1의 재생 가능한 메시지를 국부적으로 재생하고 제 2의 재생 가능한 메시지 코드를 수신 사용자의 단말에 전송하여 제 2의 재생 가능한 메시지가 수신 사용자의 단말에서 재생되게 한다.
사용자들 간의 관계가 분류될 수 있다. 예를 들면, 사용자의 접촉은 여러 그룹으로 나누어질 수 있으며 각각의 그룹은 어느 재생 가능한 메시지가 특정한 접촉 행위에 대해 재생되어야 하는지 결정하는 그 자체의 매칭 관계를 가질 수 있다. 동일한 접촉 행위에 응답하여, 각각의 그룹은 상이한 재생 가능한 메시지를 가질 수 있다. 재생 가능한 메시지는 일반적으로 동일한 종류의 표현을 반영할 수 있지만, 상이한 정도의 감정 또는 상이한 수준의 반응을 가질 수 있다.
관계 속성은 사용자에 의해 설정되고 서버에 저장될 수 있다. 서버가 송신 사용자로부터 행위 코드를 수신할 때, 서버는 먼저 송신 사용자가 수신 사용자에 의해 설정된 어떤 그룹에 속하는지 결정하고, 또한 수신 사용자가 행위 코드와 재생 가능한 메시지 코드 간의 매칭 관계를 다른 그룹의 매칭 관계와 다르게 설정해 놓았는지 결정한다. 만일 상기 질문에 대한 답변이 긍정이면, 서버는 특정한 매칭 관계를 사용하여 행위 코드에 대응하는 제 1 및 제 2의 재생 가능한 메시지 코드를 결정하고, 각각의 코드를 송신 사용자의 단말 및 수신 사용자의 단말에 전송한다.
사용자의 주소록은 "급우", "친구", "가족" 등과 같은 다양한 그룹으로 이미 조직되어 있다는 것을 주목하자. 이러한 기존 그룹은 행위 코드와 재생 가능한 메시지 코드의 여러 매칭 관계를 정의하는 기준으로서 사용될 수 있다. 기존 그룹이 얼마나 가까운 관계인지 정확하게 서술할 수 없기 때문에, 더 나은 작업을 수행하기 위해 여러 그룹 또는 서브그룹이 정의될 수 있다.
또한, 사용자는 또 다른 특정 사용자의 특수한 매칭 관계를 정의할 수 있다. 이것은 그룹 대신 사용될 수 있거나 아니면 그룹에 추가하여 사용될 수 있다. 이러한 목적을 위해, 송신 사용자로부터 행위 코드를 수신하면, 서버는 먼저 수신 사용자가 송신 사용자에 대해 특수한 매칭 관계를 정의하였는지 결정하고, 그에 따라서 제 1 및 제 2 재생 가능한 메시지를 결정할 수 있다. 만일 아무런 특수한 매칭 관계가 정의되어 있지 않으면, 서버는 디폴트 매칭 관계를 사용할 수 있다. 대안으로, 서버는 송신 사용자가 특정 그룹에 속하여 있는지를 추가로 결정할 수 있고, 그에 따라서 제 1 및 제 2 재생 가능한 메시지를 결정할 수 있다.
프로세스는 추가로 도 5의 예를 사용하여 예시된다.
블록(501)은 사용자(B)에 대해 수행된 사용자(A)의 대화형 접촉 행동을 모니터한다.
블록(502)은 대화형 접촉 행동이 검출되는지 결정한다. 검출되면, 프로세스는 블록(503)으로 진행한다. 검출되지 않으면, 프로세스는 블록(501)으로 되돌아가서 계속적으로 모니터한다.
블록(503)은 검출된 대화형 접촉 행동에 대응하는 가장 가까이 일치하는 행위 코드를 찾는다.
블록(504)은 가장 가까이 일치하는 행위 코드를 서버에 전송하며, 서버는 사용자(B)(수신 사용자)가 행위 코드와 대응하는 재생 가능한 메시지 코드 간의 특수한 매칭 관계를 미리 정의하였는지 결정한다. 만일 미리 정의하였으면, 프로세스는 블록(509)으로 진행하며, 미리 정의하지 않았으면 프로세스는 블록(505)으로 진행한다.
블록(505)에서, 서버는 사용자(B)가 행위 코드와 특정 그룹에 대한 대응하는 재생 가능한 메시지 코드 간의 고객화된 매칭 관계를 미리 정의하였는지 결정한다. 정의하였다면, 프로세스는 블록(506)으로 진행하고, 정의하지 않았으면 프로세스는 블록(507)으로 진행한다.
블록(506)에서, 서버는 사용자(A)가 그룹에 속하고 있는지 결정한다. 그룹에 속하면, 프로세스는 블록(509)으로 진행하고, 그룹에 속하지 않으면 프로세스는 블록(507)으로 진행한다.
블록(507)에서, 서버는 행위 코드에 대응하는 디폴트 재생 가능한 메시지 코드를 사용자(A) 단말 및 사용자(B) 단말에 전송한다.
블록(508)에서, 사용자(A) 단말 및 사용자(B) 단말은 수신한 재생 가능한 메시지 코드에 대응하는 각자의 재생 가능한 메시지를 재생한다. 프로세스는 종료한다.
블록(509)에서, 서버는 사용자(A) 또는 사용자(A)가 속한 그룹에 대해 미리 정의된 매칭 관계에 따라서 재생 가능한 메시지 코드를 결정하고, 행위 코드에 대응하는 결정된 재생 가능한 메시지 코드를 사용자(A) 단말 및 사용자(B) 단말에 전송한다.
블록(510)에서, 사용자(A) 단말 및 사용자(B) 단말은 미리 정의된 재생 가능한 메시지 코드에 대응하는 각자의 재생 가능한 메시지를 재생한다.
요약하면, 전술한 프로세스를 사용하여, 접촉 행위에 대한 반응은 개인화될 수 있다. 예를 들면, 사용자(A)가 사용자(B)에게 "작업 걸기"를 수행하였다. 사용자(A)가 사용자(B)와 여러 가지 가능한 상이한 관계가 있을 수 있다. 만일 사용자(A)와 사용자(B)가 친밀한 관계이면, "작업 걸기"라는 행위에 대응하는 재생 가능한 메시지는 적절한 친밀감 수준을 반영할 수 있다. 그러나 만일 사용자(A)와 사용자(B)가 그저 친구 사이면, 응답으로 재생되는 재생 가능한 메시지는 이러한 형태의 관계를 반영할 수 있다. 예를 들면, "작업 걸기"의 행위는 실제로 집적거리는 것으로 인식될 수 있다. 만일 사용자(A)가 사용자(B)에게 반감을 사고 있으면, 응답으로 재생되는 재생 가능한 메시지는 또한 이러한 형태의 관계, 예를 들면, 냉담한 태도를 반영할 수 있다.
대화형 접촉 행위에 대한 개인화된 반응은 느낌을 표현할 때 사용자 아바타가 더 지적으로, 더 개인적으로, 더 정확하게 보이게 하고, 관계의 형태를 반영할 때 더 정확하게 보이게 만드는데, 이것은 모두 의사소통을 실 세계에서 얼굴을 대면한 상호작용에 더 가까워지도록 만들어 준다.
예 2
전술한 설명은 송신 사용자의 단말의 관점에서 비롯된다. 다음은 서버의 관점에서 예시적인 프로세스를 설명한다.
도 6은 서버에서 수행된 정보 교환을 위한 방법을 도시한다.
블록(601)에서, 서버는 송신 사용자의 단말로부터 송신 사용자의 대화형 접촉 행동의 관련 정보 및 수신 사용자의 신원을 취득한다.
블록(602)에서, 서버는 관련 정보에 따라서 수신 사용자의 단말에 전송될 메시지를 결정한다.
블록(603)에서, 서버는 결정된 메시지를 수신 사용자의 단말에 전송하여 수신 사용자의 단말로 하여금 수신된 메시지에 기초하여 제 2의 재생 가능한 메시지를 결정하게 한다. 제 2의 재생 가능한 메시지는 수신 사용자의 아바타와 관련되며 대화형 접촉 행동에 대응한다.
실제로, 서버는 송신 사용자의 단말로부터 취득한 관련 정보를 분석하여 무슨 메시지가 수신 사용자의 단말에 전송되어야 하는지 결정한다. 대안으로, 서버는 관련 정보를 직접 수신 사용자의 단말에 전송하여 수신 사용자의 단말이 관련 정보에 기초하여 제 2의 재생 가능한 메시지를 결정하게 할 수 있다.
실시예에서, 서버는 관련 정보를 분석하여 수신 사용자의 단말에서 재생될 제 2의 재생 가능한 메시지를 결정하고, 제 2의 재생 가능한 메시지의 코드를 수신 사용자의 단말에 전송한다.
관련 정보는 검출된 대화형 접촉 행동으로부터 추출된 동작적 특징을 포함할 수 있다. 이 사례에서, 서버는 동작적 특징과 제 2의 재생 가능한 메시지 간의 미리 저장된 매칭 관계를 사용하여 제 2의 재생 가능한 메시지를 결정할 수 있다. 대안으로, 관련 정보는 검출된 대화형 접촉 행위에 대응하는 행위 코드를 포함할 수 있다. 이 사례에서, 서버는 행위 코드와 제 2의 재생 가능한 메시지 간의 미리 저장된 매칭 관계를 사용하여 제 2의 재생 가능한 메시지를 결정한다.
또한, 송신 사용자와 수신 사용자 간의 관계에 따라서, 동일한 대화형 접촉 행위에 응답하여 상이한 애니메이션 및/또는 음성 녹음이 재생될 수 있다. 이러한 목적을 위해, 서버는 사용자의 관계 속성을 저장한다. 송신 사용자의 단말은 대화형 접촉 행동의 관련 정보 이외에 사용자 신원 정보를 서버에 전송한다. 신원 정보에 의거하여 서버는 제 2의 재생 가능한 메시지를 고객화할 수 있다.
실제로, 수신 사용자의 단말에 대한 제 2의 재생 가능한 메시지를 결정하는 것 이외에, 서버는 또한 송신 사용자의 단말에 대한 제 1의 재생 가능한 메시지를 결정할 수 있다. 이를 위해, 서버는 송신 사용자의 단말로부터 송신 사용자의 신원을 취득하고, 검출된 대화형 접촉 행동의 관련 정보에 기초하여 제 1의 재생 가능한 메시지를 결정하고, 송신 사용자의 신원에 기초하여 제 1의 재생 가능한 메시지의 코드를 송신 사용자의 단말에 반환한다.
검출된 대화형 접촉 행동의 관련 정보는 검출된 대화형 접촉 행동으로부터 추출된 동작적 특징을 포함할 수 있어서 서버로 하여금 동작적 특징과 제 1의 재생 가능한 메시지 간의 미리 저장된 매칭 관계를 사용하여 제 1의 재생 가능한 메시지를 결정하게 한다. 관련 정보는 또한 검출된 대화형 접촉 행동에 대응하는 행위 코드를 포함할 수 있어서 서버로 하여금 행위 코드와 제 1의 재생 가능한 메시지 간의 미리 저장된 매칭 관계를 사용하여 제 1의 재생 가능한 메시지를 결정하게 할 수 있다.
서버는 또한 송신 사용자와 수신 사용자 간의 관계 속성에 기초하여 제 1의 재생 가능한 메시지를 결정(예를 들면, 고객화)할 수 있다.
예 3
개시된 방법은 수신 사용자의 단말의 관점에서 아래에서 추가 설명된다. 도 7은 의사소통 시 수신 사용자의 단말에 의한 정보 교환을 위한 방법을 도시한다.
블록(701)에서, 수신 사용자의 단말은 수신 사용자의 단말 상의 수신 사용자의 아바타에 대해 행위된 송신 사용자의 검출된 대화형 접촉 행동의 관련 정보를 수신한다.
블록(702)에서, 수신 사용자의 단말은 관련 정보에 따라 제 2의 재생 가능한 메시지를 결정하고, 제 2의 재생 가능한 메시지를 재생한다.
충분한 관련 정보가 수신 사용자의 단말에 제공되면, 사용자 단말은 제 2의 재생 가능한 메시지를 국부적으로 결정할 수 있다. 서버가 관련 정보에 기초하여 제 2의 재생 가능한 메시지를 결정하는 예 2에서 설명된 바와 유사하게, 예 3에서 관련 정보는 다음 중, 즉 검출된 대화형 접촉 행동의 동작적 특징, 검출된 대화형 접촉 행동에 대응하는 행위 코드, 또는 검출된 대화형 접촉 행동에 대응하는 제 2의 재생 가능한 메시지의 코드 중 임의의 것을 포함할 수 있다. 목표는 그에 따라서 수신 사용자의 단말로 하여금 제 2의 재생 가능한 메시지를 결정하게 하는 것이다.
전술한 예들에서, 프로세스는 다른 각도에서 설명된다는 것을 주목하여야 한다. 예는 동일한 프로세스 또는 동일한 원리를 기초로 하지만 동일한 기능이 상이한 장소에서 그리고 송신 사용자의 단말, 수신 사용자의 단말, 및 서버 사이에서 상이한 디바이스에 의해 수행되는 상이한 행동 방침을 따르는 현재의 유사한 프로세스의 여러 양태를 표현할 수 있다. 설명 중 대부분은 동일한 원리에 기초하며 본 출원에서 반복된다.
전술한 기술은 컴퓨터 실행 가능한 명령어를 담은 하나 이상의 비일시적인 컴퓨터 판독가능한 매체의 도움을 받아 구현될 수 있다. 비일시적 컴퓨터 실행 가능한 명령어는 컴퓨터 프로세서가 본 출원에서 설명된 기술에 따라서 액션을 수행할 수 있게 한다. 컴퓨터 판독가능한 매체는 컴퓨터 데이터를 저장하는데 적합한 메모리 디바이스 중 임의의 디바이스일 수 있다고 인식된다. 그러한 메모리 디바이스는 이것으로 한정되는 것은 아니지만, 하드 디스크, 플래시 메모리 디바이스, 광 데이터 저장소, 및 플로피 디스크를 포함한다. 뿐만 아니라, 컴퓨터 실행 가능한 명령어를 담은 컴퓨터 판독가능한 매체는 로컬 시스템 내 컴포넌트(들) 또는 복수의 원격 시스템의 네트워크를 통해 분산되어 있는 컴포넌트로 구성될 수 있다. 컴퓨터 실행 가능한 명령어의 데이터는 유형의 물리적 메모리 디바이스에 전달되거나 아니면 전기적으로 전송될 수 있다.
본 출원에서 설명된 방법과 관련하여, 본 개시는 또한 본 출원에서 설명된 방법을 구현하는 컴퓨터 기반 장치를 제공한다.
본 개시에서, "모듈"은 일반적으로 특정한 작업이나 기능을 수행하도록 설계된 기능성을 말한다. 모듈은 특정한 작업이나 기능과 연관된 목적을 실행하기 위한 하드웨어, 소프트웨어, 계획이나 방안, 또는 이들의 조합의 한 부분일 수 있다. 또한, 개별적인 모듈이 묘사된다고 하여 반드시 물리적으로 개별적인 디바이스가 사용된다는 것을 암시하지 않는다. 그 대신, 오로지 기능적으로 묘사될 뿐이며, 여러 모듈의 기능은 조합된 단일의 디바이스 또는 컴포넌트에 의해 수행될 수 있다. 컴퓨터 기반 시스템에서 사용될 때, 프로세서, 저장소 및 메모리와 같은 정규 컴퓨터 컴포넌트는 다양한 각각의 기능을 수행하는 하나 이상의 모듈로서 기능하도록 프로그램될 수 있다.
도 8은 대화형 의사소통 시 정보를 교환하기 위한 방법을 구현하는 송신 사용자의 단말의 개략적인 기능 블록 다이어그램이다.
송신 사용자의 단말(800)은 하나 이상의 프로세서(들)(890), I/O 디바이스(892), 및 애플리케이션 프로그램(들)(880)을 저장하는 메모리(894)를 갖는 전형적인 스마트 폰 하드웨어를 기초로 할 수 있다. 송신 사용자의 단말(800)은 다음과 같은 기능적인 모듈을 갖는 것으로 프로그램된다.
아바타 관리 모듈(801)은 사용자 아바타를 결정하고, 선택하고/하거나 제공하도록 프로그램된다. 예를 들면, 송신 사용자가 정보 교환을 시작할 때, 아바타 관리 모듈(801)은 먼저 수신 사용자의 신원을 결정하고, 수신 사용자의 아바타를 취득하거나 그렇지 않으면 제공한다.
접촉 행동 모니터링 모듈(802)은 수신 사용자의 아바타에 대해 행위하는 송신 사용자의 대화형 접촉 행동을 모니터하고 검출하도록 프로그램된다.
제 1의 재생 가능한 메시지 결정 모듈(803)은 검출된 대화형 접촉 행동에 대응하는 제 1의 재생 가능한 메시지를 결정하도록 프로그램된다.
메시지 전송 모듈(804)은 관련 정보를 수신 사용자의 단말에 전송하도록 프로그램되어 수신 사용자의 단말로 하여금 수신된 관련 정보에 기초하여 제 2의 재생 가능한 메시지를 결정하고 재생하도록 한다. 관련 정보는 특징상 검출된 대화형 접촉 행동에 관련되며, 본 출원에서 설명되는 바와 같은 다양한 형태를 가질 수 있다.
뿐만 아니라, 전술한 모듈은 설명된 방법의 맥락에서 본 출원에서 설명된 바와 같은 다양한 기능을 수행하도록 프로그램된 서브모듈을 가질 수 있다. 이러한 모듈과 서브모듈의 세부 사항은 반복되지 않는다.
도 9는 대화형 의사소통 시 정보를 교환하기 위한 방법을 구현하는 서버의 개략적인 기능 블록 다이어그램이다.
서버(900)는 하나 이상의 프로세서(들), I/O 디바이스, 애플리케이션 프로그램(들)을 저장하는 메모리를 갖는 전형적인 서버 하드웨어를 기초로 할 수 있다. 서버(900)는 아래에서 설명되는 바와 같은 기능 모듈을 갖도록 프로그램된다.
관련 정보 획득 모듈(901)은 송신 사용자의 단말로부터 관련 정보를 획득하도록 프로그램되어 서버(900)로 하여금 송신 사용자의 단말에 전송될 메시지(들)를 결정하게 한다. 관련 정보는 특징상 검출된 대화형 접촉 행동과 관련되며, 본 출원에서 설명된 바와 같이 다양한 형태를 가질 수 있다. 수신 사용자의 단말에 전송될 메시지(들)는 또한 본 출원에서 설명되는 바와 같이, 여러 종류의 것일 수 있다(이것으로 한정되지 않지만 제 2의 재생 가능한 메시지를 포함할 수 있다).
재생 가능한 메시지 결정 모듈(902)은 수신된 관련 정보에 기초하여 송신 사용자의 단말에 전송될 메시지(들)를 결정하도록 프로그램된다.
메시지 전송 모듈(903)은 결정된 메시지(들)를 수신 사용자의 단말에 전송하도록 프로그램되어 수신 사용자의 단말로 하여금 제 2의 재생 가능한 메시지를 결정하게 한다.
뿐만 아니라, 전술한 모듈들은 개시된 방법의 맥락에서 본 출원에서 설명된 바와 같은 다양한 기능을 수행하도록 프로그램된 서브모듈을 가질 수 있다. 이러한 모듈 및 서브모듈의 세부 사항은 반복되지 않는다.
도 10은 대화형 의사소통 시 정보를 교환하기 위한 방법을 구현하는 수신 사용자의 단말의 개략적인 기능 블록도이다.
수신 사용자의 단말(1000)은 하나 이상의 프로세서(들), I/O 디바이스, 및 애플리케이션 프로그램(들)을 저장하는 메모리를 갖는 전형적인 스마트 폰 하드웨어를 기초로 할 수 있다. 수신 사용자의 단말(1000)은 아래에서 설명되는 바와 같은 기능 모듈을 갖도록 프로그램된다.
메시지 수신 모듈(1001)은 수신 사용자의 아바타에 대해 행위하는 송신 사용자의 검출된 대화형 접촉 행동의 관련 정보를 수신하도록 프로그램된다. 관련 정보는 특징상 검출된 대화형 접촉 행동에 관련되며, 본 출원에서 설명된 바와 같이 다양한 형태를 갖는다. 시스템의 구성에 따라, 관련 정보는 본 출원에서 설명된 바와 같이 서버 아니면 송신 사용자의 단말 중 어느 하나로부터 수신될 수 있다.
제 2의 재생 가능한 메시지 결정 모듈(1002)은 수신된 관련 정보에 기초하여, 제 2의 재생 가능한 메시지를 결정하고 재생하도록 프로그램된다.
뿐만 아니라, 전술한 모듈은 개시된 방법의 맥락에서 본 출원에서 설명된 바와 같은 다양한 기능을 수행하도록 프로그램된 서브모듈을 가질 수 있다. 이러한 모듈 및 서브모듈의 세부 사항은 반복되지 않는다.
장치의 전술한 실시예는 본 출원에서 개시된 방법의 실시예와 밀접하게 관련되며, 그래서 방법의 실시예의 상세한 설명은 또한 장치의 실시예에 적용 가능하며 반복되지 않는다.
요약하자면, 본 개시는 수신 사용자의 아바타를 사용하여 사람들 사이에서 실생활의 얼굴을 마주하여 접촉 가능한 상호작용을 재생 또는 모방하는 애니메이션으로 제작된 미디어를 생성한다. 송신 사용자는 수신 사용자의 아바타에 대해 대화형 접촉 행위를 수행한다. 검출된 대화형 접촉 행위는 송신 사용자의 표현과 수신 사용자의 반응을 표현하는 애니메이션으로 변환된다. 애니메이션은 송신 사용자의 단말 및 수신 사용자의 단말 중 한쪽 또는 양쪽에서 재생되어 인스턴트 통신의 "접촉 가능"을 창출하고, 그래서 결국 실 세계의 얼굴을 맞댄 의사소통의 재현 수준을 높여준다.
본 개시에 설명된 기술은 이것으로 한정되지 않지만, 퍼스널 컴퓨터, 서버 컴퓨터, 휴대용 디바이스 또는 이동형 디바이스, 태블릿 디바이스, 멀티프로세서 시스템, 마이크로프로세서 기반 시스템, 셋톱 박스, 프로그래머블 소비자 디바이스, 네트워크 PC, 마이크로컴퓨터 및 대규모 메인프레임 컴퓨터를 비롯한 일반적인 컴퓨팅 장비나 환경 또는 특화된 컴퓨팅 장비나 환경, 또는 하나 이상의 전술한 예를 구비하는 임의의 분산된 환경에서 구현될 수 있다.
모듈은 특히 머신 실행 가능한 커맨드 및 코드를 기초로 하는 컴퓨터 프로그램 모듈을 사용하여 구현될 수 있다. 일반적으로, 컴퓨터 프로그램 모듈은 특정한 작업을 수행할 수 있거나 특정한 추상적인 데이터 형태의 루틴, 프로그램, 객체, 컴포넌트, 및 데이터 구조체 등을 구현할 수 있다. 본 개시에서 설명되는 기술은 분산된 컴퓨팅 환경에서 즉 통신 네트워크를 통해 연결되는 원격 처리 디바이스에 의해 작업을 수행하는 그렇게 분산된 컴퓨팅 환경에서 실시될 수 있다. 분산된 컴퓨팅 환경에서, 프로그램 모듈은 메모리 디바이스를 포함하는 로컬 또는 원격 컴퓨터 저장 매체 중 어느 한 곳에 배치될 수 있다.
본 출원에서 논의된 잠재적인 이득 및 장점은 첨부의 청구범위의 범위로 한정하거나 제한하는 것으로 해석되지 않을 것이라고 인식된다.
정보를 검증하는 방법 및 장치는 앞에서 상세하게 본 개시에서 설명되었다. 예시적인 실시예는 본 개시에서 본 발명의 개념과 구현예를 예시하기 위해 사용된다. 예시적인 실시예는 본 개시의 방법 및 핵심 개념의 더 나은 이해를 위해 사용될 뿐이다. 본 개시의 개념을 기초로 하여, 본 기술에서 통상의 지식을 가진 자라면 예시적인 실시예 및 적용 분야를 수정할 수 있다.

Claims (20)

  1. 의사소통 시 정보 교환 방법으로서,
    송신 사용자의 단말에서 수신 사용자의 아바타를 보여주는 단계와,
    상기 수신 사용자의 아바타에 대해 행위된 상기 송신 사용자의 대화형 접촉 행동을 모니터하는 단계와,
    상기 대화형 접촉 행동에 따라 제 1의 재생 가능한 메시지를 결정하는 단계 - 상기 제 1의 재생 가능한 메시지는 상기 아바타와 관련되고 상기 대화형 접촉 행동과 대응성을 가짐 - 와,
    상기 제 1의 재생 가능한 메시지를 상기 송신 사용자의 단말에서 재생하는 단계와,
    상기 대화형 접촉 행동의 관련 정보를 서버 또는 상기 수신 사용자의 단말에 전송하여 상기 서버 또는 상기 수신 사용자의 단말로 하여금 수신된 상기 정보에 따라 제 2의 재생 가능한 메시지를 결정하게 하는 단계 - 상기 제 2의 재생 가능한 메시지는 상기 아바타와 관련되고, 상기 대화형 접촉 행동과 대응성을 가지며, 상기 수신 사용자의 단말 상에 재생될 수 있음 - 를 포함하는
    의사소통 시 정보 교환 방법.
  2. 제 1 항에 있어서,
    상기 대화형 접촉 행동에 따라 상기 제 1의 재생 가능한 메시지를 결정하는 단계는,
    대화형 접촉 행동과 액션 코드 간의 매칭 관계에 기초하여 상기 대화형 접촉 행동에 대응하는 액션 코드를 결정하는 단계와,
    액션 코드와 재생 가능한 메시지 간의 매칭 관계에 기초하여 상기 액션 코드에 대응하는 상기 제 1의 재생 가능한 메시지를 결정하는 단계를 포함하는
    의사소통 시 정보 교환 방법.
  3. 제 1 항에 있어서,
    송신 사용자와 수신 사용자의 미리 저장된 관계 속성 데이터에 기초하여 상기 송신 사용자와 상기 수신 사용자의 관계 속성을 결정하는 단계와,
    상기 송신 사용자와 상기 수신 사용자의 상기 관계 속성에 따라 상기 제 1의 재생 가능한 메시지를 결정하는 단계를 더 포함하는
    의사소통 시 정보 교환 방법.
  4. 제 3 항에 있어서,
    상기 송신 사용자와 상기 수신 사용자의 상기 관계 속성을 결정하는 단계는,
    상기 송신 사용자의 신원 정보 및 상기 수신 사용자의 신원 정보를 상기 서버에 전송하여 상기 서버로 하여금 상기 미리 저장된 관계 속성 데이터에 기초하여 상기 관계 속성을 결정하게 하는 단계를 포함하는
    의사소통 시 정보 교환 방법.
  5. 제 1 항에 있어서,
    송신 사용자와 수신 사용자의 미리 저장된 관계 속성 데이터에 기초하여 상기 송신 사용자 및 상기 수신 사용자의 관계 속성을 결정하는 단계와,
    상기 송신 사용자와 상기 수신 사용자의 상기 관계 속성에 따라 상기 제 2의 재생 가능한 메시지를 결정하는 단계를 더 포함하는
    의사소통 시 정보 교환 방법.
  6. 제 5 항에 있어서,
    상기 송신 사용자와 상기 수신 사용자의 상기 관계 속성을 결정하는 단계는,
    상기 송신 사용자의 신원 정보 및 상기 수신 사용자의 신원 정보를 상기 서버 또는 상기 수신 사용자의 단말에 전송하여 상기 서버 또는 상기 수신 사용자의 단말로 하여금 상기 미리 저장된 관계 속성 데이터에 기초하여 상기 관계 속성을 결정하게 하는 단계를 포함하는
    의사소통 시 정보 교환 방법.
  7. 제 1 항에 있어서,
    상기 대화형 접촉 행동에 따라 상기 제 1의 재생 가능한 메시지를 결정하는 단계는,
    상기 검출된 대화형 접촉 행동으로부터 행동 특징을 추출하는 단계와,
    행동 특징과 재생 가능한 메시지 간의 매칭 관계에 기초하여 상기 제 1의 재생 가능한 메시지를 결정하는 단계를 포함하는
    의사소통 시 정보 교환 방법.
  8. 제 7 항에 있어서,
    행동 특징과 재생 가능한 메시지 간의 상기 매칭 관계에 기초하여 상기 제 1의 재생 가능한 메시지를 결정하는 단계는,
    상기 추출된 행동 특징을 상기 대화형 접촉 행동의 상기 관련 정보로서 상기 서버로 전송하여 상기 서버로 하여금 상기 행동 특징과 상기 재생 가능한 메시지 간의 상기 매칭 관계에 기초하여 상기 제 1의 재생 가능한 메시지를 결정하게 하는 단계를 포함하는
    의사소통 시 정보 교환 방법.
  9. 제 1 항에 있어서,
    상기 대화형 접촉 행동에 따라 상기 제 1의 재생 가능한 메시지를 결정하는 단계는,
    상기 검출된 대화형 접촉 행동으로부터 행동 특징을 추출하는 단계와,
    행동 특징과 액션 코드 간의 매칭 관계에 기초하여 액션 코드를 결정하는 단계와,
    액션 코드와 재생 가능한 메시지 간의 매칭 관계에 기초하여 상기 제 1의 재생 가능한 메시지를 결정하는 단계를 포함하는
    의사소통 시 정보 교환 방법.
  10. 제 9 항에 있어서,
    액션 코드와 재생 가능한 메시지 간의 상기 매칭 관계에 기초하여 상기 제 1의 재생 가능한 메시지를 결정하는 단계는,
    상기 액션 코드를 상기 대화형 접촉 행동의 상기 관련 정보로서 상기 서버로 전송하여 상기 서버로 하여금 상기 액션 코드와 상기 재생 가능한 메시지 간의 상기 매칭 관계에 기초하여 상기 제 1의 재생 가능한 메시지를 결정하게 하는 단계를 포함하는
    의사소통 시 정보 교환 방법.
  11. 제 1 항에 있어서,
    상기 대화형 접촉 행동의 상기 관련 정보를 상기 서버 또는 상기 수신 사용자의 단말에 전송하는 단계는,
    상기 검출된 대화형 접촉 행동으로부터 행동 특징을 추출하는 단계와,
    상기 추출된 행동 특징을 상기 서버 또는 상기 수신 사용자의 단말에 전송하여 상기 서버 또는 상기 수신 사용자의 단말로 하여금 행동 특징과 재생 가능한 메시지 간의 매칭 관계에 기초하여 상기 제 2의 재생 가능한 메시지를 결정하게 하는 단계를 포함하는
    의사소통 시 정보 교환 방법.
  12. 제 1 항에 있어서,
    상기 대화형 접촉 행동의 상기 관련 정보를 상기 서버 또는 상기 수신 사용자의 단말에 전송하는 단계는,
    상기 검출된 대화형 접촉 행동으로부터 행동 특징을 추출하는 단계와,
    행동 특징과 액션 코드 사이의 매칭 관계에 기초하여 액션 코드를 결정하는 단계와,
    상기 액션 코드를 상기 서버 또는 상기 수신 사용자의 단말에 전송하여 상기 서버 또는 상기 수신 사용자의 단말로 하여금 액션 코드와 재생 가능한 메시지 간의 매칭 관계에 기초하여 상기 제 2의 재생 가능한 메시지를 결정하게 하는 단계를 포함하는
    의사소통 시 정보 교환 방법.
  13. 제 1 항에 있어서,
    상기 수신 사용자의 상기 아바타에 대해 행위된 상기 송신 사용자의 상기 대화형 접촉 행동을 모니터하는 단계는,
    상기 송신 사용자의 단말의 터치 스크린의 지정된 영역에서 행위된 상기 송신 사용자의 접촉 행위를 모니터하는 단계를 포함하는
    의사소통 시 정보 교환 방법.
  14. 제 1 항에 있어서,
    상기 수신 사용자의 상기 아바타에 대해 행위된 상기 송신 사용자의 상기 대화형 접촉 행동을 모니터하는 단계는,
    상기 송신 사용자의 단말에 내장된 가속 센서를 사용하여 상기 송신 사용자의 단말을 흔드는 상기 송신 사용자의 행동을 모니터하는 단계를 포함하는
    의사소통 시 정보 교환 방법.
  15. 제 1 항에 있어서,
    상기 제 2의 재생 가능한 메시지와 함께 상기 송신 사용자의 녹음된 음성 메시지를 상기 수신 사용자의 단말에서 재생하는 단계를 더 포함하되, 상기 녹음된 음성 메시지는 상기 송신 사용자의 단말에서 녹음되는
    의사소통 시 정보 교환 방법.
  16. 의사소통 시 정보 교환 방법으로서,
    서버 또는 수신 사용자의 단말에서, 상기 수신 사용자의 아바타에 대해 행위된 송신 사용자의 대화형 접촉 행동의 관련 정보를 수신하는 단계와,
    상기 서버 또는 상기 수신 사용자의 단말에서, 상기 대화형 접촉 행동의 상기 관련 정보에 따라 재생 가능한 메시지를 결정하는 단계 - 상기 재생 가능한 메시지는 상기 아바타와 관련되고 상기 대화형 접촉 행동과 대응성을 가짐 - 와,
    상기 재생 가능한 메시지를 상기 수신 사용자의 단말에서 재생하는 단계를 포함하는
    의사소통 시 정보 교환 방법.
  17. 제 16 항에 있어서,
    상기 대화형 접촉 행동에 따라 상기 재생 가능한 메시지를 결정하는 단계는,
    대화형 접촉 행동과 액션 코드 간의 매칭 관계에 기초하여 상기 대화형 접촉 행동에 대응하는 액션 코드를 결정하는 단계와,
    액션 코드와 재생 가능한 메시지 간의 매칭 관계에 기초하여 상기 액션 코드에 대응하는 상기 재생 가능한 메시지를 결정하는 단계를 포함하는
    의사소통 시 정보 교환 방법.
  18. 제 16 항에 있어서,
    송신 사용자와 수신 사용자의 미리 저장된 관계 속성 데이터에 기초하여 상기 송신 사용자와 상기 수신 사용자의 관계 속성을 결정하는 단계와,
    상기 송신 사용자와 상기 수신 사용자의 상기 관계 속성에 따라 상기 재생 가능한 메시지를 결정하는 단계를 더 포함하는
    의사소통 시 정보 교환 방법.
  19. 의사소통 시 정보 교환을 위한 컴퓨터 기반 장치로서,
    프로세서, 메모리, 및 I/O 디바이스를 갖는 컴퓨터를 포함하되,
    상기 컴퓨터는,
    송신 사용자의 단말 상에 수신 사용자의 아바타를 보여주는 것과,
    상기 수신 사용자의 아바타에 대해 행위된 상기 송신 사용자의 대화형 접촉 행동을 모니터하는 것과,
    상기 대화형 접촉 행동에 따라 제 1의 재생 가능한 메시지를 결정하는 것 - 상기 제 1의 재생 가능한 메시지는 상기 아바타와 관련되고 상기 대화형 접촉 행동과 대응성을 가짐 - 과,
    상기 제 1의 재생 가능한 메시지를 상기 송신 사용자의 단말에서 재생하는 것과,
    상기 대화형 접촉 행동의 관련 정보를 서버 또는 상기 수신 사용자의 단말에 전송하여 상기 서버 또는 상기 수신 사용자의 단말로 하여금 상기 대화형 접촉 행동의 관련 정보에 따라 제 2의 재생 가능한 메시지를 결정하게 하는 것 - 상기 제 2의 재생 가능한 메시지는 상기 아바타와 관련되고, 상기 대화형 접촉 행동과 대응성을 가지며, 상기 수신 사용자의 단말 상에서 재생될 수 있음 - 을 포함하는 기능을 수행하도록 프로그램되는
    의사소통 시 정보 교환을 위한 컴퓨터 기반 장치.
  20. 제 19 항에 있어서,
    상기 대화형 접촉 행동에 따라 상기 제 1의 재생 가능한 메시지를 결정하는 것은,
    대화형 접촉 행동과 액션 코드 간의 매칭 관계에 기초하여 상기 대화형 접촉 행동에 대응하는 액션 코드를 결정하는 것과,
    액션 코드와 재생 가능한 메시지 간의 매칭 관계에 기초하여 상기 액션 코드에 대응하는 상기 제 1의 재생 가능한 메시지를 결정하는 것을 포함하는
    의사소통 시 정보 교환을 위한 컴퓨터 기반 장치.
KR1020157032518A 2013-05-22 2014-05-22 의사소통 시 정보 교환을 위한 방법, 사용자 단말 및 서버 KR102173479B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201310192855.4 2013-05-22
CN201310192855.4A CN104184760B (zh) 2013-05-22 2013-05-22 通讯过程中的信息交互方法、客户端及服务器
PCT/US2014/039189 WO2014190178A2 (en) 2013-05-22 2014-05-22 Method, user terminal and server for information exchange communications

Publications (2)

Publication Number Publication Date
KR20160010449A true KR20160010449A (ko) 2016-01-27
KR102173479B1 KR102173479B1 (ko) 2020-11-04

Family

ID=50977131

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157032518A KR102173479B1 (ko) 2013-05-22 2014-05-22 의사소통 시 정보 교환을 위한 방법, 사용자 단말 및 서버

Country Status (8)

Country Link
US (1) US20140351720A1 (ko)
EP (1) EP3000010A4 (ko)
JP (1) JP6616288B2 (ko)
KR (1) KR102173479B1 (ko)
CN (1) CN104184760B (ko)
HK (1) HK1202727A1 (ko)
TW (1) TW201445414A (ko)
WO (1) WO2014190178A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210026966A (ko) * 2019-09-02 2021-03-10 주식회사 인터포 증강현실 및 빅데이터를 이용한 가상객체 관리 방법 및 그를 수행하는 모바일 단말
KR20230059672A (ko) * 2021-10-26 2023-05-03 주식회사 쓰리디팩토리 대규모 트래픽 처리 메타버스 서버 및 그를 위한 프로그램

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
CN104780093B (zh) * 2014-01-15 2018-05-01 阿里巴巴集团控股有限公司 即时通讯过程中的表情信息处理方法及装置
CN104731448A (zh) * 2015-01-15 2015-06-24 杜新颜 一种基于人像识别的即时通信触控反馈方法和系统
CN104618223B (zh) * 2015-01-20 2017-09-26 腾讯科技(深圳)有限公司 一种信息推荐的管理方法、装置和系统
KR101620050B1 (ko) * 2015-03-03 2016-05-12 주식회사 카카오 인스턴트 메시지 서비스를 통한 시나리오 이모티콘 표시 방법 및 이를 위한 사용자 단말
US11797172B2 (en) * 2015-03-06 2023-10-24 Alibaba Group Holding Limited Method and apparatus for interacting with content through overlays
CN104901873A (zh) * 2015-06-29 2015-09-09 曾劲柏 一种基于场景和动作的网络社交系统
CN105516638B (zh) * 2015-12-07 2018-10-16 掌赢信息科技(上海)有限公司 一种视频通话方法、装置和系统
CN105763420B (zh) * 2016-02-04 2019-02-05 厦门幻世网络科技有限公司 一种自动回复信息的方法及装置
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
DK201670608A1 (en) 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
US20170357672A1 (en) 2016-06-12 2017-12-14 Apple Inc. Relating digital assets using notable moments
CN117193617A (zh) * 2016-09-23 2023-12-08 苹果公司 头像创建和编辑
CN107885317A (zh) * 2016-09-29 2018-04-06 阿里巴巴集团控股有限公司 一种基于手势的交互方法及装置
US11616745B2 (en) * 2017-01-09 2023-03-28 Snap Inc. Contextual generation and selection of customized media content
CN108984087B (zh) * 2017-06-02 2021-09-14 腾讯科技(深圳)有限公司 基于三维虚拟形象的社交互动方法及装置
DK180078B1 (en) 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11243996B2 (en) 2018-05-07 2022-02-08 Apple Inc. Digital asset search user interface
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11086935B2 (en) 2018-05-07 2021-08-10 Apple Inc. Smart updates from historical database changes
US10846343B2 (en) 2018-09-11 2020-11-24 Apple Inc. Techniques for disambiguating clustered location identifiers
US10803135B2 (en) 2018-09-11 2020-10-13 Apple Inc. Techniques for disambiguating clustered occurrence identifiers
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
JP6644928B1 (ja) * 2019-03-29 2020-02-12 株式会社ドワンゴ 配信サーバ、視聴者端末、配信者端末、配信方法、情報処理方法及びプログラム
CN110324156B (zh) * 2019-07-24 2022-08-26 广州趣丸网络科技有限公司 虚拟房间信息交流方法、装置、设备及系统
DK202070624A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
CN113709020B (zh) * 2020-05-20 2024-02-06 腾讯科技(深圳)有限公司 消息发送方法、消息接收方法、装置、设备及介质
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
US20230136578A1 (en) * 2021-11-04 2023-05-04 Roderick Jeter Interactive reationship game

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236290A (ja) * 2000-02-22 2001-08-31 Toshinao Komuro アバタを利用したコミュニケーション・システム
JP2006352309A (ja) * 2005-06-14 2006-12-28 Mitsubishi Electric Corp 電話機
KR20080085767A (ko) * 2007-03-19 2008-09-24 제미니 모바일 테크놀로지스, 인크. 모션-기반 커뮤니케이션을 위한 방법 및 장치
JP2011147070A (ja) * 2010-01-18 2011-07-28 Panasonic Corp 通信装置および通信サーバ
KR20120107293A (ko) * 2011-03-21 2012-10-02 김주연 발신자 또는 수신자의 선택에 의한 캐릭터, 음성 기반의 메시지 전송시스템 및 전송방법

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109560A (ja) * 2000-10-02 2002-04-12 Sharp Corp アニメーション再生装置、アニメーション再生システム、アニメーション再生方法、アニメーション再生方法を実行するプログラムを記録したコンピュータ読み取り可能な記録媒体
US20020198009A1 (en) * 2001-06-26 2002-12-26 Asko Komsi Entity reply mechanism
US20070113181A1 (en) * 2003-03-03 2007-05-17 Blattner Patrick D Using avatars to communicate real-time information
US20070168863A1 (en) * 2003-03-03 2007-07-19 Aol Llc Interacting avatars in an instant messaging communication session
US20050163379A1 (en) * 2004-01-28 2005-07-28 Logitech Europe S.A. Use of multimedia data for emoticons in instant messaging
JP2007520005A (ja) * 2004-01-30 2007-07-19 コンボッツ プロダクト ゲーエムベーハー ウント ツェーオー.カーゲー 仮想代理を用いた電気通信の方法及びシステム
JP4268539B2 (ja) * 2004-02-27 2009-05-27 株式会社野村総合研究所 アバター制御システム
CN100417143C (zh) * 2004-12-08 2008-09-03 腾讯科技(深圳)有限公司 基于即时通信平台的个人虚拟形象互动娱乐系统及方法
GB2423905A (en) * 2005-03-03 2006-09-06 Sean Smith Animated messaging
US7836088B2 (en) * 2006-10-26 2010-11-16 Microsoft Corporation Relationship-based processing
US9665563B2 (en) * 2009-05-28 2017-05-30 Samsung Electronics Co., Ltd. Animation system and methods for generating animation based on text-based data and user information
US20120327091A1 (en) * 2010-03-08 2012-12-27 Nokia Corporation Gestural Messages in Social Phonebook
US8588825B2 (en) * 2010-05-25 2013-11-19 Sony Corporation Text enhancement
CN101931621A (zh) * 2010-06-07 2010-12-29 上海那里网络科技有限公司 一种借助虚拟形象进行情感交流的装置和方法
US20120069028A1 (en) * 2010-09-20 2012-03-22 Yahoo! Inc. Real-time animations of emoticons using facial recognition during a video chat
US20120162350A1 (en) * 2010-12-17 2012-06-28 Voxer Ip Llc Audiocons
US8989786B2 (en) * 2011-04-21 2015-03-24 Walking Thumbs, Llc System and method for graphical expression during text messaging communications
US9990770B2 (en) * 2011-12-20 2018-06-05 Intel Corporation User-to-user communication enhancement with augmented reality
WO2013152453A1 (en) * 2012-04-09 2013-10-17 Intel Corporation Communication using interactive avatars
US9154456B2 (en) * 2012-04-17 2015-10-06 Trenda Innovations, Inc. Messaging system and method
CN102707835B (zh) * 2012-04-26 2015-10-28 赵黎 一种手持终端、交互系统及其交互方法
JP5844298B2 (ja) * 2012-06-25 2016-01-13 株式会社コナミデジタルエンタテインメント メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム
US9911222B2 (en) * 2012-07-06 2018-03-06 Tangome, Inc. Animation in threaded conversations
US10410180B2 (en) * 2012-11-19 2019-09-10 Oath Inc. System and method for touch-based communications
US9472013B2 (en) * 2013-04-01 2016-10-18 Ebay Inc. Techniques for displaying an animated calling card

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236290A (ja) * 2000-02-22 2001-08-31 Toshinao Komuro アバタを利用したコミュニケーション・システム
JP2006352309A (ja) * 2005-06-14 2006-12-28 Mitsubishi Electric Corp 電話機
KR20080085767A (ko) * 2007-03-19 2008-09-24 제미니 모바일 테크놀로지스, 인크. 모션-기반 커뮤니케이션을 위한 방법 및 장치
JP2011147070A (ja) * 2010-01-18 2011-07-28 Panasonic Corp 通信装置および通信サーバ
KR20120107293A (ko) * 2011-03-21 2012-10-02 김주연 발신자 또는 수신자의 선택에 의한 캐릭터, 음성 기반의 메시지 전송시스템 및 전송방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210026966A (ko) * 2019-09-02 2021-03-10 주식회사 인터포 증강현실 및 빅데이터를 이용한 가상객체 관리 방법 및 그를 수행하는 모바일 단말
KR20230059672A (ko) * 2021-10-26 2023-05-03 주식회사 쓰리디팩토리 대규모 트래픽 처리 메타버스 서버 및 그를 위한 프로그램

Also Published As

Publication number Publication date
KR102173479B1 (ko) 2020-11-04
WO2014190178A3 (en) 2015-02-26
JP2016521929A (ja) 2016-07-25
EP3000010A4 (en) 2017-01-25
TW201445414A (zh) 2014-12-01
HK1202727A1 (en) 2015-10-02
CN104184760B (zh) 2018-08-07
WO2014190178A2 (en) 2014-11-27
CN104184760A (zh) 2014-12-03
EP3000010A2 (en) 2016-03-30
US20140351720A1 (en) 2014-11-27
JP6616288B2 (ja) 2019-12-04

Similar Documents

Publication Publication Date Title
KR102173479B1 (ko) 의사소통 시 정보 교환을 위한 방법, 사용자 단말 및 서버
US10210002B2 (en) Method and apparatus of processing expression information in instant communication
US10860345B2 (en) System for user sentiment tracking
CN110609620B (zh) 基于虚拟形象的人机交互方法、装置及电子设备
CN107632706B (zh) 多模态虚拟人的应用数据处理方法和系统
JP6467554B2 (ja) メッセージ送信方法、メッセージ処理方法及び端末
KR20170085422A (ko) 가상 에이전트 동작 방법 및 장치
JP2020039029A (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
JP2020537206A (ja) ロボットインタラクションのための方法及びデバイス
US20220165013A1 (en) Artificial Reality Communications
KR20130022434A (ko) 통신단말장치의 감정 컨텐츠 서비스 장치 및 방법, 이를 위한 감정 인지 장치 및 방법, 이를 이용한 감정 컨텐츠를 생성하고 정합하는 장치 및 방법
WO2022252866A1 (zh) 一种互动处理方法、装置、终端及介质
CN109857311A (zh) 生成人脸三维模型的方法、装置、终端及存储介质
WO2017157174A1 (zh) 一种信息处理方法、设备和终端设备
US10965629B1 (en) Method for generating imitated mobile messages on a chat writer server
CN112151041B (zh) 基于录音机程序的录音方法、装置、设备及存储介质
CN109039851B (zh) 交互数据处理方法、装置、计算机设备和存储介质
WO2023246275A1 (zh) 语音消息的播放方法、装置、终端及存储介质
US11412968B2 (en) System and method for a digital therapeutic delivery of generalized clinician tips (GCT)
US20160154948A1 (en) Managing companionship data
KR20220081090A (ko) 감정 기반 멀티미디어 컨텐츠 생성 방법 및 시스템
TW201108151A (en) Instant communication control system and its control method
US20240220752A1 (en) Artificial Reality System for Code Recognition and Health Metrics
WO2023071556A1 (zh) 基于虚拟形象的数据处理方法、装置、计算机设备及存储介质
US20240024783A1 (en) Contextual scene enhancement

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant