CN104780093B - 即时通讯过程中的表情信息处理方法及装置 - Google Patents

即时通讯过程中的表情信息处理方法及装置 Download PDF

Info

Publication number
CN104780093B
CN104780093B CN201410018262.0A CN201410018262A CN104780093B CN 104780093 B CN104780093 B CN 104780093B CN 201410018262 A CN201410018262 A CN 201410018262A CN 104780093 B CN104780093 B CN 104780093B
Authority
CN
China
Prior art keywords
user
expression
information
expression picture
response message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410018262.0A
Other languages
English (en)
Other versions
CN104780093A (zh
Inventor
郑元拢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201410018262.0A priority Critical patent/CN104780093B/zh
Priority to TW103118595A priority patent/TWI650977B/zh
Priority to PCT/US2015/011243 priority patent/WO2015108878A1/en
Priority to JP2016544859A priority patent/JP6510536B2/ja
Priority to US14/596,019 priority patent/US9584455B2/en
Priority to EP15737748.2A priority patent/EP3095091B1/en
Publication of CN104780093A publication Critical patent/CN104780093A/zh
Priority to HK15108417.1A priority patent/HK1207767A1/zh
Priority to US15/408,812 priority patent/US10210002B2/en
Application granted granted Critical
Publication of CN104780093B publication Critical patent/CN104780093B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/08Annexed information, e.g. attachments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/18Commands or executable codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/52User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了即时通讯过程中的表情信息处理方法及装置,预先在第一表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,所述方法包括:在即时通讯对话窗口中提供一表情图片;获得用户对所述表情图片发出的用户操作行为信息;根据所述表情图片以及获得到的用户操作行为信息,检索所述第一表情数据库,生成检索到的表情图片在该用户操作行为下对应的第一响应信息;将检索到的所述表情图片的信息以及获得到的用户操作行为信息发送到接收方用户对应的接收方客户端,以便接收方客户端生成该表情图片在该用户操作行为下对应的第二响应信息。通过本申请,能够使得即时通讯工具对现实世界用户之间的模拟度也得到提高。

Description

即时通讯过程中的表情信息处理方法及装置
技术领域
本申请涉及即时通讯技术领域,特别是涉及即时通讯过程中的表情信息处理方法及装置。
背景技术
随着通信技术的不断发展,人们可以通过移动终端进行随时随地的沟通。最初,通过终端设备进行沟通的方式主要有:短信、彩信和电话,但是,对于用户来说资费成本比较高。随着3G(3rd-generation,第三代移动通信技术)、WiFi(wireless fidelity,无线保真)等技术的推广,网络流量费用的降低,以及智能移动终端的迅速扩张,在移动终端通讯领域催生了很多产品,其中包括移动终端版的通讯产品(包括即时通讯产品或者带有即时通讯功能的游戏等其他产品等)。
与短信、电话等沟通方式不同,移动终端上的通讯产品可以将用户组织成虚拟的社交网络,用户之间可以在社交网络中进行,包括发送文字/语音信息、发送图片或者互相传递一些文件,等等,并且只要对方联网,信息就可以实时到达。这种虚拟的社交网络使得人与人之间的沟通变得更加方便,也降低了沟通成本。
传统的通讯产品在用户之间进行信息传递的载体主要是文字,有些场景下还可以配以简单的表情图片,用以帮助用户对感情色彩的表达。表情图片的使用让交互过程增加了更多的趣味性,但现有技术中,表情往往都只是各自情绪的表达,比如,某用户甲发了一个很“得瑟”的表情,对方一般只能发一个“鄙视”的表情来回应,表情之间是各自独立的。这使得用户对感情色彩的表达受到很大程度的限制。因此,迫切需要本领域技术人员解决的技术问题就在于:如何通过对通讯产品进行改进,以更加方便用户在使用过程中更形象地表达其感情色彩,提高对现实世界中用户面对面沟通方式的模拟度。
发明内容
本申请提供了即时通讯过程中的表情信息处理方法及装置,能够使得即时通讯工具对现实世界用户之间的模拟度也得到提高。
本申请提供了如下方案:
一种即时通讯过程中发送方客户端的表情信息处理方法,预先在第一表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,所述方法包括:
在即时通讯对话窗口中提供一表情图片;
获得用户对所述表情图片发出的用户操作行为信息;
根据所述表情图片以及获得到的用户操作行为信息,检索所述第一表情数据库,生成检索到的表情图片在该用户操作行为下对应的第一响应信息;
将检索到的所述表情图片的信息以及获得到的用户操作行为信息发送到接收方用户对应的接收方客户端,以便接收方客户端生成该表情图片在该用户操作行为下对应的第二响应信息。
一种即时通讯过程中接收方客户端的表情信息处理方法,预先在第二表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,所述方法包括:
在即时通讯对话窗口中提供一表情图片;
获得对方客户端发送的对方用户对所述表情图片进行了操作的消息,所述消息中携带有表情图片的信息以及用户操作行为信息;
根据所述的表情图片的信息以及用户操作行为信息检索所述第二表情数据库,生成该表情图片在该用户操作行为下对应的第二响应信息。
一种即时通讯过程中发送方客户端的表情信息处理方法,预先在服务器端设置第三表情数据库,所述第三表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,包括:
在即时通讯对话窗口中提供一表情图片;
获得用户对所述表情图片发出的用户操作行为信息;
将获得到的用户操作行为信息、表情图片的信息、用户的标识信息以及接收方用户的标识信息上传到服务器,以便服务器根据接收到用户操作行为的信息检索所述第三表情数据库,生成该表情图片在该用户操作行为下对应的第一响应信息以及第二响应信息,并将第一响应信息返回给用户对应的发送方客户端,将第二响应信息发送给接收方用户对应的接收方客户端。
一种即时通讯过程中的表情信息处理方法,预先在第四表情数据库中设置有表情图片、响应信息、以及响应信息的启动条件之间的对应关系,包括:
在即时通讯对话窗口中提供一表情图片;
如果该表情图片出现在所述第四表情数据库中,则检测所述即时通讯对话消息中是否存在符合该表情图片对应的响应信息启动条件的目标内容;
如果存在,则生成该表情图片对应的响应信息。
一种即时通讯过程中的表情信息处理方法,预先在第五表情数据库中设置有文本通讯内容之间的关联关系、以及相互关联的文本通讯内容对应的表情图片,所述方法包括:
在即时通讯窗口中提供一文本通讯内容;
通过检索所述第五表情数据库,检测所述即时通讯窗口中是否存在与该文本通讯内容关联的其他文本通讯内容;
如果存在,则在所述即时通讯窗口中提供对应的表情图片。
一种即时通讯过程中发送方客户端的表情信息处理装置,预先在第一表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,所述装置包括:
第一表情图片提供单元,用于在即时通讯对话窗口中提供一表情图片;
第一操作行为信息获得单元,用于获得用户对所述表情图片发出的用户操作行为信息;
第一检索单元,用于根据所述表情图片以及获得到的用户操作行为信息,检索所述第一表情数据库,生成检索到的表情图片在该用户操作行为下对应的第一响应信息;
第一发送单元,用于将检索到的所述表情图片的信息以及获得到的用户操作行为信息发送到接收方用户对应的接收方客户端,以便接收方客户端生成该表情图片在该用户操作行为下对应的第二响应信息。
一种即时通讯过程中接收方客户端的表情信息处理装置,预先在第二表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,所述装置包括:
第二表情图片提供单元,用于在即时通讯对话窗口中提供一表情图片;
第二操作行为信息获得单元,用于获得对方客户端发送的对方用户对所述表情图片进行了操作的消息,所述消息中携带有表情图片的信息以及用户操作行为信息;
第二检索单元,用于根据所述的表情图片的信息以及用户操作行为信息检索所述第二表情数据库,生成该表情图片在该用户操作行为下对应的第二响应信息。
一种即时通讯过程中发送方客户端的表情信息处理装置,预先在服务器端设置第三表情数据库,所述第三表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,所述装置包括:
第三表情图片提供单元,用于在即时通讯对话窗口中提供一表情图片;
第三操作行为信息获得单元,用于获得用户对所述表情图片发出的用户操作行为信息;
信息上传单元,用于将获得到的用户操作行为信息、表情图片的信息、用户的标识信息以及接收方用户的标识信息上传到服务器,以便服务器根据接收到用户操作行为的信息检索所述第三表情数据库,生成该表情图片在该用户操作行为下对应的第一响应信息以及第二响应信息,并将第一响应信息返回给用户对应的发送方客户端,将第二响应信息发送给接收方用户对应的接收方客户端。
一种即时通讯过程中的表情信息处理装置,预先在第四表情数据库中设置有表情图片、响应信息、以及响应信息的启动条件之间的对应关系,所述装置包括:
第四表情图片提供单元,用于在即时通讯对话窗口中提供一表情图片;
检测单元,用于如果该表情图片出现在所述第四表情数据库中,则检测所述即时通讯对话消息中是否存在符合该表情图片对应的响应信息启动条件的目标内容;
响应信息生成单元,用于如果存在,则生成该表情图片对应的响应信息。
一种即时通讯过程中的表情信息处理装置,预先在第五表情数据库中设置有文本通讯内容之间的关联关系、以及相互关联的文本通讯内容对应的表情图片,所述装置包括:
文本通讯内容提供单元,用于在即时通讯窗口中提供一文本通讯内容;
第三检索单元,用于通过检索所述第五表情数据库,检测所述即时通讯窗口中是否存在与该文本通讯内容关联的其他文本通讯内容;
第五表情图片提供单元,用于如果存在,则在所述即时通讯窗口中提供对应的表情图片。
根据本申请提供的具体实施例,本申请公开了以下技术效果:
通过本申请实施例,在用户对表情图片执行操作时,可以确定出对应的响应信息并进行播放,因此,相当于表情图片可以响应用户的操作,使得用户发送的表情图片能更好地表达用户的感情等,即时通讯工具对现实世界用户之间的模拟度也得到提高。
当然,实施本申请的任一产品并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的第一方法的流程图;
图2是本申请实施例提供的第一界面示意图;
图3是本申请实施例提供的第二界面示意图;
图4是本申请实施例提供的第二方法的流程图;
图5是本申请实施例提供的第三方法的流程图;
图6是本申请实施例提供的第四方法的流程图;
图7-1是本申请实施例提供的第三界面示意图;
图7-2是本申请实施例提供的第四界面示意图;
图8-1是本申请实施例提供的第五界面示意图;
图8-2是本申请实施例提供的第六界面示意图;
图9是本申请实施例提供的第五方法的流程图
图10是本申请实施例提供的第一装置的示意图;
图11是本申请实施例提供的第二装置的示意图;
图12是本申请实施例提供的第三装置的示意图;
图13是本申请实施例提供的第四装置的示意图;
图14是本申请实施例提供的第五装置的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本申请保护的范围。
在本申请实施例中,为了使得用户在使用即时通讯工具进行交互的过程中,更好的与对方用户进行互动,更方便用户的通过即时通讯工具进行情感的表达,可以在即时通讯工具的表情库中添加一些特殊的表情图片,在用户发送了该表情图片之后,可以响应用户对该表情图片执行的操作,播放相应的动画或者音乐,例如,当用户甲向用户乙发送了一个“伤心流泪”的表情之后,用户乙可以通过在触摸屏上滑动等方式发出操作,相应的,可以在该表情上出现一只“手”,并做“抚摸”动作,就像现实世界中真的在安抚对方一样。这样,使得即时通讯工具对现实世界中人与人之间的模拟度更高,更能表达用户的情感。
需要说明的是,在本申请实施例中,关于表情可以有两种具体的实现方式,一种是用户与表情的,也就是,由用户在表情上发出滑动、点击等操作,表情图片做出相应的响应;另一种是表情与表情/文字的,例如,当一个用户发出一个表情图片之后,对方用户可以回复另一个表情图片,如果这两个表情图片之间相互关联,则可以再做出响应。下面首先对“用户与表情”的具体实现方式进行详细地介绍。
实施例一
在该实施例一中,首先从发送方客户端角度进行介绍。这里需要说明的是,所谓的发送方客户端是指,执行用户操作行为的用户所在的客户端;相应地,对话的另一方称为接收方客户端。需要说明的是,在即时通讯过程中,发送方与接收方并不是固定的,对话双方在一次通讯过程中既有可能是发送方也有可能是接收方,并且角色也会不断在发生互换。另外,从客户端程序而言,用户在安装客户端程序时,同一个客户端程序既可以实现发送的功能,也可以实现接收的功能。因此,在本申请实施例中,从信息处理主体的角度,区分发送方与接收方的概念,以清楚描述交互过程。
参见图1,本申请实施例一提供的即时通讯过程中发送方客户端的表情信息处理方法可以包括以下步骤:
S101:在即时通讯对话窗口中提供一表情图片;
即时通讯对话窗口一般包括两部分,其中一部分为信息编辑区域,用于接收用户输入的文字、选择的表情图片等;另一部分为信息显示区域,用于显示用户发送出去的文字、表情图片,以及对方用户发送的文字、表情图片等。该步骤S101中所谓的提供出的表情图片,可以是用户选择并发送一个表情图片,也可以是接收到对方用户发送的一个表情图片。也就是说,用户在对表情图片进行操作时,可以是对对方用户发送的一个表情图片进行操作,也可以对自己发送的表情图片进行操作,还可以是对自己将要发送的表情图片进行操作。
其中,如果是自己发送的表情图片,则在即时通讯对话窗口中进行提供时,直接将用户选择的表情图片进行提供即可。并且还可以将该表情图片的信息发送给对方用户,以便对方用户的客户端也在其即时通讯对话窗口中显示出该表情图片。
如果是对方用户发送的表情图片,则根据对方用户客户端发送的表情图片的信息的不同,在进行表情图片的提供时,可以有不同的处理。例如,如果对方用户客户端直接发送的是表情图片本身,则可以直接在当前的即时通讯对话窗口中显示该表情图片。如果对方用户客户端发送的是表情图片的ID等标识信息,则可以首先根据该标识信息在第一表情库中查找到对应的表情图片,然后再在当前的即时通讯对话窗口中显示该查找到的表情图片。
S102:获得用户对所述表情图片发出的用户操作行为信息;
该步骤中,获得的用户操作行为信息可以是用户在终端设备的执行各种不同的操作行为,以下分别举例说明。在终端设备配备了触摸屏的情况下,用户发出的用户操作行为一般可以是滑动操作或者点击的操作,对应的操作行为信息可以是由触摸屏接收到用户操作后,输出的用户操作行为信息。在滑动操作类型下,根据滑动行为的位置、方向和/或轨迹的不同,将产生不同的用户操作行为信息。在点击操作类型下,根据点击行为的位置和/或次数的不同,也可以产生不同的用户操作行为信息。
在终端设备配备了重力感应器的情况下,用户发出的用户操作行为还可以是摇动终端等操作,对应的操作行为信息可以是由重力感应器接收到用户操作后,输出的用户操作行为信息。在摇动操作类型下,根据摇动行为的方向和/或幅度的不同,可以产生不同的用户操作行为信息。
在终端设备配备了红外感应器的情况下,当用户靠近终端设备时,可以由红外感应器感应到用户脸部、手部等靠近终端的行为,此时,对应的操作行为信息可以是由红外感应器感应到用户操作后,输出的用户操作行为信息。
需要说明的是,本申请实施例不限于触摸屏、重力感应器、红外感应器等,只要能够获得用户对表情图片发出的用户操作行为信息即可。并且这些不同用户操作,还可以相互组合,以生成组合的用户操作行为信息。例如,用户可以同时执行滑动、点击、摇动、靠近等操作行为之一或任意组合,并且获得的用户操作行为信息可以是组合的操作行为信息。例如,点击+滑动,滑动+摇动,靠近+点击,滑动+点击+摇动等等。
S103:根据所述表情图片以及获得到的用户操作行为信息,检索所述第一表情数据库,生成该表情图片在该用户操作行为下对应的第一响应信息;
该步骤中需要用到第一表情数据库,在该第一表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息三者之间的对应关系。其中,第一表情数据库中的操作行为信息可以由用户定义或者系统设定。并且,第一表情数据库中一个表情图片可以对应了一个响应信息,也可以对应多个响应信息。
其中,用于启动该响应信息的操作行为信息具体用于与获得的用户操作行为信息进行匹配,当获得的用户对所述表情图片的用户操作行为信息与启动该响应信息的操作行为信息匹配时,生成该表情图片在该用户操作行为下对应的第一响应信息。本申请实施例中,由于用户操作行为信息可能存在各种情形,为提高互动效果,只要用户对应的用户操作行为信息与启动该响应信息的操作行为信息相近似即可。
具体实现时,第一表情数据库中记录的操作行为信息可以是操作类型信息,并且,同一表情图片在不同的操作类型下可对应有相同或不同的响应信息。具体地,所述第一表情数据库中保存的用于启动该响应信息的操作行为信息还可包括操作类型信息,所述操作类型包括在终端设备上执行的以下操作之一或组合:滑动操作类型、点击操作类型、摇动操作类型、靠近终端操作类型。对应的,第一表情数据库中设置的表情图片、响应信息以及用于启动该响应信息的操作行为信息三者之间的对应关系如表1所示:
表1
也就是说,在用户对人像A执行操作时,在获取用户操作行为信息时,可以获取具体的操作类型信息,然后通过查询第一表情数据库中的上述表1,确定出该操作类型对应的响应信息。例如,当前获得的用户操作行为信息中,对应的操作类型是滑动操作类型,则可以确定出对应的响应信息是人像A动画X1,当前获得的用户操作行为信息中,对应的操作类型是点击操作类型,则可以确定出对应的响应信息是人像A动画X2,以此类推。
另外,在实际应用中,还可以对用户的操作类型进行更细粒度的划分,以便对用户的操作进行更好的拟合。例如,假设用户在该人像A表情图片上执行了滑动操作,则用户在表情图片A的不同部位、沿着不同方向、轨迹进行滑动时,对应的响应信息都可以是不同的。在这种情况下,假设在即时通讯对话窗口中提供的表情图片为一人像A的表情图片,则在第一表情数据库中设置的表情图片、响应信息以及用于启动该响应信息的操作行为信息三者之间的对应关系可以如表2所示:
表2
由于可以设置的对应关系可以有很多种,在此只是用于举例说明,并不限于上述对应关系。通过表1中对应关系可知,当用户在人像A的头部滑动时,通过第一表情数据库生成的响应信息为表情图片的头部随之运动,当用户在人像A的手部滑动时,通过第一表情数据库生成的响应信息为表情图片的手部随之运动;或者,用户在人像A的表情图片上横向滑动与竖向滑动或者其他角度的滑动,对应的响应信息都可以是不同的,例如,对应的是表情图片被横向劈开,或者竖向劈开,或者沿其他角度劈开等动画。类似的,还可以获得到点击行为的位置和/或次数等信息,根据具体信息的不同对应不同的响应。例如,在某表情图片上点击一次时,表情图片做出“笑脸”,点击两次时笑得更开等等。
需要说明的是,在上述所介绍的方式下,同一表情图片在不同的操作类型下对应的响应信息都可以是分别进行保存的,无论对操作类型的划分有多细。例如,同一表情图片,在滑动、点击、摇动、接近等操作类型下需要对应不同的响应信息;同一操作类型下,对应不同的属性(例如滑动操作中的位置、方向、轨迹等,点击操作中的位置、次数等,摇动操作中的方向、幅度等)如果还需要对应不同的响应信息,则还需要对不同的属性以及属性组合定义各自对应的响应信息,如表2所示。这会使得表情数据库的规模非常大,不利于在存储空间有限的移动通信终端中本地进行存储。另外,对用户操作的拟合程度也可能不够高,也就是说,针对同一操作类型下不同属性,一般只能保存几个代表性的属性值对应的响应信息,其他的属性值则只能取近似的值,例如,用户是在表情图片中的头部偏上的位置执行了滑动操作,但是最终只能识别出是对头部执行了操作,然后显示的动画效果是头部从中间劈开,而没有对应的用户实际执行操作的位置处,等等。
为了解决上述问题,在本申请实施例中,第一表情数据库中保存的操作行为信息中,对应的操作类型还可以仅从较粗的粒度上划分为表1中所述的几种,但在响应信息中还可以包括操作类型对应的计算方式信息。其中,该计算方式可以采用公式等方式进行保存,公式中的参数就可以是具体操作类型下的具体属性信息。也就是说,在这种实现方式下,第一表情数据库中设置的表情图片、响应信息以及用于启动该响应信息的操作行为信息三者之间的对应关系可以如表3所示:
表3
通过上述表3,在获得用户操作行为信息时,可以获得用户对表情图片发出的操作的操作类型,并获得该操作类型下操作的属性值(其中,滑动行为的属性信息包括滑动的位置、方向和/或轨迹信息,点击行为的属性信息包括点击的位置和/或次数信息,摇动终端设备的行为的属性信息包括摇动的方向和/或幅度信息等),在获得到这些操作行为信息后,可以首先根据获得到的操作类型调取第一数据库中对应的响应信息中的计算方式,然后将该操作类型下获得到的属性值,带入到该计算方式中,计算检索到的表情图片在该用户操作行为信息下对应的响应数据,根据该响应数据,生成拟合了用户操作行为信息的第一响应信息。也就是说,在这种实现方式下,在第一表情数据库中只需要定义好同一表情图片在不同的操作类型下分别对应的不同的计算方式。例如,对于某表情图片,在滑动操作类型下,对应的动画是用一把“刀”将该表情图片劈开,则在在第一表情数据库的响应信息中只需要在定义好“刀”的图片以及对应的计算方式即可,关于最终的响应信息中具体从表情图片的何处、何种方向劈开,则根据实时获得到的用户操作的属性信息以及计算方式来确定,再基于实时确定出的位置、方向将表情图片切分成两部分,然后将第一表情数据库中定义的“刀”的图片与切分后的表情图片组合在一起,再生成动画效果,即可作为对应的第一响应信息向用户播放。
例如,用户在表情图片上横向滑动与竖向滑动或者其他角度的滑动,将该滑动操作行为信息与对应的表情图片拟合,例如根据滑动的位置、方向等,计算对应表情图片在对应的位置、方向上被劈开的对应的动画;类似的,还可以获得到点击行为的位置和/或次数等信息,根据与对应的表情图片拟合用户操作行为信息的不同,计算对应的表情图片对应的动画。
需要说明的是,在该实施例一中,用户可以预先将该第一表情数据库中的部分或全部数据下载到用户的终端设备本地。
另外需要说明的是,在具体实现时,可以在显示出表情图片时,向显示提示信息,该提示信息用于提示用户可对表情图片发出用户操作行为,以及操作方式信息。例如,参见图2,在对方用户发送了一个表情图片之后,提示的信息可以是“试着滑动或敲击表情试试”,这样用户就可以知晓可以对该表情图片进行操作。当用户在表情图片区域执行了滑动或点击操作之后,即时通讯客户端就可以获得并确定用户对表情图片发出的用户操作行为信息。
具体在向用户提供相应信息时,如果响应信息是音频信息,则直接播放即可,如果是视频、动画、图片等需要展示的信息,则可以是在即时通讯对话窗口中被操作的表情图片所在的位置,播放与该表情图片相关的响应信息。如图3所示,在对方用户发送了图2所示的表情图片之后,如果用户在该表情图片上执行了滑动操作,则可以显示出如图3所示的效果,也即在图2表情图片的上方出现“手”的形状的图片,并且该手形的图片在不断的从左向右移动,表现出抚摸的动作。同时,还可以为操作预先设置一定的文本信息,该文本信息也可以是在前述第一表情数据库中设置好的,也即,可以预先在第一表情数据中设置表情图片-操作行为信息-第一响应信息-文本信息这四者之间的对应关系,在播放第一响应信息的同时,还可以显示该第一文本信息。该文本信息一般是用于对用户已发出的操作行为对应的响应信息进行文字描述。如图3中所示的“你正在努力安慰表情”,等等。另外,第一表情数据库中还可以保存有表情图片在对应操作行为信息下待提供的道具动画信息,在用户操作行为执行的过程中,还可以为用户播放道具动画,例如,用户在哭的表情图片上滑动时,显示出正在抚摸的“小手”,或者点击某表情图片时显示出“锤子”等等。
另外,在用户对某表情图片执行了某操作之后,还可以播放一个音乐。例如,假设对方用户发送了一个乐器的表情图片,则滑动可以拨动音乐,比如吉他、二胡、小提琴,点击可以敲击乐器。例如,用户A发了个键盘图片,用户B可以在上面点击发出音乐。让用户B为用户A表演音乐。用户B文字提示:你正在为对方演奏乐曲。
需要说明的是,在具体实现时,同一个表情图片在同一个操作行为信息下可能会对应多个响应信息,此时,可以向用户提供一个提示信息,提示用户从多个响应信息之选择其中一个进行播放。另外,用户对同一个表情图片执行的操作行为可能是多个动作组合而成,不同的动作可能还分别对应一个或者多个响应信息,此时,还可以以部分或全部各第一响应信息,生成组合的响应信息向用户进行播放。例如,不同的动作分别对应一个动画,可以将这些动画组合在一起进行连续播放,等等。
另外需要说明的是,对于第一响应信息而言,当第一响应信息为音频、视频、动画信息时,由于这些信息是在时间维度上具有连续播放性的信息,而用户如果执行的是滑动操作、摇动操作等,也是一个过程,在时间上具有一定的连续性,能够体现出操作行为持续的时间长度。因此,在本申请实施例中,如果检测到用户对表情图片执行的是滑动操作(可能是一次滑动操作,也可能是连续的多次滑动操作的组合)或者摇动操作等,则还可以获得用户操作行为的起始时间点以及结束时间点,并根据起始时间点以及结束时间点计算出用户操作行为的持续时间长度;这样,就可以根据用户操作行为的持续时间长度,向用户播放第一响应信息。也即,如果用户操作行为的持续时间比较长,则播放的第一响应信息的时间也比较长,如果用户操作行为的持续时间比较短,则播放的第一响应信息的时间也比较短。具体的,假设某响应信息为一个动画,动画包括多个连续的图片帧,也即一串图片合集,相邻图片帧之间具有预置的显示时间间隔,在检测到一次滑动操作,并获得到用户操作行为的持续时间长度之后,可以首先比较用户操作行为的持续时间长度以及动画的总时间长度,如果前者小于后者,则根据用户操作行为的持续时间长度以及相邻图片帧之间的显示时间间隔,确定出需要播放到动画的哪一帧结束,进而在即时通讯对话窗口中播放该动画时,播放到这一帧就可以停止播放。如果用户操作行为的持续时间长度大于或等于动画的总时间长度,则在即时通讯对话窗口中播放该动画时,可以直到动画播放结束为止。
例如,某动画是由①②③④⑤图片组成的集合,从①到⑤的动画演示为0.5秒,图片间动画为0.1秒。当用户只滑动一次就停止滑动,如果花费的时间为0.3秒,则动画演示到③就停止,保持在③的动画状态。在一定时间后,如果用户继续滑动,则继续下面动画,直至动画结束。根据表情要求,动画可以循环。并且,一旦用户停止,则可以不再提示文字语料和道具动画,提示和动画内容,并进行传递。类似的,如果第一响应信息是一段音频文件,则音频文件的播放时间长度和动画的方式一样,当用户滑动停止,音频文件的播放也停下来。
S104:将检索到的所述表情图片的信息以及获得到的用户操作行为信息发送到接收方用户对应的接收方客户端,以便接收方客户端生成该表情图片在该用户操作行为下对应的第二响应信息。
对于发送方客户端而言,在发送方客户端生成第一响应信息时,可将表情图片的信息、获得到的用户操作行为信息发送到接收方用户对应的接收方客户端,这样,接收方客户端可以生成该表情图片在该用户操作行为下对应的第二响应信息。接收方用户可根据该第二响应信息生成对应的第二互动响应信息,并播放该第二互动响应信息。其中,发送方客户端可以通过服务器的中转将互动操作的消息发送到接收方客户端,或者也可能是通过点对点等方式直接发送到接收方客户端。
需要说明的是,在具体实现时,如果用户操作行为是多个动作组成的组合操作,则可以在每检测到一个动作后,就将表情图片的信息以及获得到的用户操作行为信息发送到接收方用户对应的接收方客户端;或者,在另一种实现方式下,为了使得接收方客户端播放的第二响应信息更流畅,也可以在检测到多个动作组成的组合操作后,再将表情图片的信息以及获得到的各个动作对应的用户操作行为信息发送到接收方用户对应的接收方客户端。当然,在这种实现方式下,接收方客户端相对应发送方客户端而言,在播放响应信息时可能会有一定的延迟。
其中,对于接收方客户端而言,在接收到表情图片的信息、用户操作行为信息之后,具体生成第二响应信息以及播放的方式,与发送方客户端是类似的。下面通过实施例二对接收方客户端的实现过程进行详细地介绍。
实施例二
该实施例二是与实施例一对应的接收方客户端侧的实现,参见图4,该实施例二提供的即时通讯过程中接收方客户端的表情信息处理方法可以包括以下步骤:
S401:在即时通讯对话窗口中提供一表情图片;
S402:获得对方客户端发送的对方用户对所述表情图片进行了互动操作的消息,所述消息中携带有表情图片的信息以及用户操作行为信息;
S403:根据所述的表情图片的信息以及用户操作行为信息,检索所述第二表情数据库,生成该表情图片在该用户操作行为下对应的第二响应信息;
由于接收到的消息中携带了表情图片的信息以及用户操作行为信息,也即相当于知晓了发送方用户对哪个表情图片执行了何种操作行为,同时,对接收方客户端而言,同样可以预先将一第二表情数据库下载到终端设备本地,该在第二表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,这样,在知晓了发送方用户对哪个表情图片执行了何种操作行为之后,就可以通过查询该第二表情数据库,确定对应的第二响应信息。这里的第二响应信息同样可以包括与表情图片相关的音频、视频、动画、图片等,并且该第二响应信息同样还可以是与用户操作行为信息进行实时拟合的方式来生成。也即,在用户对某表情图片执行了某操作之后,还可以将用户操作行为信息与动画拟合。当检索到的第二响应信息为用户操作行为信息与动画拟合时,将接收到的用户操作行为信息与对应的表情图片拟合。例如,当接收到的用户操作行为信息为滑动的位置、方向等,则计算对应表情图片在对应的位置、方向上被劈开的对应的动画;当接收到的用户操作行为信息为点击行为的位置和/或次数等信息时,根据接收到的用户操作行为信息,计算对应的表情图片对应的点击等相关动画。
S404:根据确定的该第二响应信息,生成对应的第二响应信息。
在生成对应的第二互动响应信息后,接收方客户端可播放该第二响应信息。在播放时,当第二响应信息为与所述表情图片相关的动画、视频、图片等时,也可以在即时通讯对话窗口中表情图片所在的位置,显示与表情图片相关的动画、视频、图片,这相当于对即使通讯对话窗口中的信息显示区域进行刷新显示。另外,由于第二响应信息也可以是动画或者音频视频等,并且具有一定播放时长,因此,在发送方用户执行了滑动的操作时,发送方客户端也可以将滑动操作的持续时间长度信息发送到接收方客户端,这样,接收方客户端可以根据滑动操作的持续时间长度,向用户播放第二响应信息。
另外,接收方客户端也同样可以获得被操作的表情图片在用户操作行为下对应的第二文本信息,并在信息显示区域内进行显示。也就是说,对于接收方用户而言,也可以在看到操作后的动画或者听到相应的音频的同时,在信息显示区域中看到相应的文本信息,用于解释对方用户正在执行的操作。例如,“对方正在努力安慰你的表情”,“对方正在殴打你的表情”等等。
需要说明的是,对于同一表情图片以及相同的用户操作行为而言,发送方客户端的第一响应信息与接收方客户端的第二响应信息可以是相同的也可以只是不同的,用户可以根据自己的偏好选择对应的响应信息,如不同的表情图片、动画、拟合方式等。并且对应地,发送方客户端的第一响应信息与接收方客户端的第二响应信息可以是相同的也可以是不同的。另外需要说明的是,该实施例二与实施例一是相对应的,仅仅是描述的角度有所不同,尤其是具体在进行响应信息的播放等相关内容,可以参见实施例一中的介绍,这里不再赘述。
实施例三
在以上实施例一以及实施例二中,前提都是已经将表情数据库下载到了终端设备本地,但在具体实现时,由于响应信息一般都是动画、音频等,可能会对终端设备存储资源的占用会比较大,因此,为减轻终端的资源占用,可将表情数据库在服务器端进行保存,而不是下载到终端设备本地。这样,在客户端用户在对某表情图片执行互动操作时,发送方客户端可以将表情图片的信息以及用户操作行为信息上传到服务器,由服务器根表情数据库确定出对应的第一响应信息以及第二响应信息,然后再发送给发送方客户端以及接收方客户端。下面对具体的实现方式进行详细的介绍。
参见图5,本申请实施例三提供了另一种即时通讯过程中发送方客户端的表情信息处理方法,该方法可以包括以下步骤:
S501:在即时通讯对话窗口中提供一表情图片;
S502:获得用户对所述表情图片发出的用户操作行为信息;
该步骤S501、S502与实施例一中的步骤S101、S102相同。
S503:将获得到的用户操作行为信息、表情图片的信息、用户的标识信息以及接收方用户的标识信息上传到服务器,以便服务器根据接收到用户操作行为的信息检索所述第三表情数据库,生成该表情图片在该用户操作行为下对应的第一响应信息以及第二响应信息,并将第一响应信息返回给用户对应的发送方客户端,将第二响应信息发送给接收方用户对应的接收方客户端;
由于终端设备本地并没有保存表情数据库,因此在获得到用户对表情图片发出的用户操作行为信息之后,就可以上传到服务器。其中,具体的用户操作行为信息与实施例一中是相同的,因此,服务器在确定具体的第一响应信息时,与实施例一中步骤S103是相同的,在确定具体的第二响应信息时,与实施例二者步骤S403是相同的,只不过执行的主体有所不同。其中,如果第一响应信息与第二响应信息相同,则服务器只需要确定一次即可。在确定出具体的第一响应信息以及第二响应信息之后,就可以将第一响应信息返回给发送方客户端,将第二响应信息发送到接收方客户端。
S504:根据服务器返回的第一响应信息向用户进行播放。
对于发送方客户端而言,在接收到服务器返回的第一响应信息之后,就可以生成对应的第一互动响应信息,并且还可以向用户进行播放。相应的,接收方客户端在接收方服务器发送的第二响应信息之后,可生成对应的第二互动响应信息,并且可向接收方用户进行播放。
其中,具体的响应信息的形式,以及向用户进行播放过程的实现细节都可以与实施例一以及实施例二中相同,因此,可以参见实施例一以及实施例二中的记载,这里不再赘述。
总之,上述实施例一至实施例三介绍了用户与表情之间的互动,通过这种方式,相当于表情图片可以响应用户的互动操作,使得用户发送的表情图片能更好地表达用户的感情等,即时通讯工具对现实世界用户之间互动的模拟度也得到提高。
例如,用户A发起哭的表情,如果用户B滑动表情,表情上方有道具手的安抚动画,B界面文字提示:你正在努力安慰表情。A界面文字提示:对方正在努力安慰你的表情。表情在安慰的过程中,根据设计有动画变化,A的终端设备还可以有震动。如果用户B手指点击表情,则表情上方可以有“锤子”道具打的动画,文字提示:你正在殴打表情。表情由哭的稍微更厉害点。同理用户A也能看到,文字提示:对方正在殴打你的表情。
再如,用户A发了个键盘表情图片出来,用户B可以在该表情图片上点击发出音乐,相当于用户B为用户A表演音乐。用户B文字提示:你正在为对方演奏乐曲。用户A文字提示:对方正在为你深情演奏中。
另外,用户也可以对自己发送的表情图片进行互动操作,例如,用户A发送了一个哭的表情图片,之后用户在自己发送的表情图片上进行滑动,之后的响应图片中泪水少一些,如果在自己发送的表情图片上进行点击,则显示哭得更凶的动画或图片。
实施例四
本申请实施例四对表情与表情/文字之间的互动进行详细地介绍。
首先,该实施例四首先仍然需要预先将一第四表情数据库下载到用户的终端设备本地,在第四表情数据库中设置有表情图片、响应信息、以及响应信息的启动条件之间的对应关系。参见图6,本申请实施例四提供的即时通讯过程中的表情信息处理方法,可以包括以下步骤:
S601:在即时通讯对话窗口中提供一表情图片;
该步骤与实施例一中的步骤S101类似,该表情图片即可能是用户发送的,也可能是对方用户发送的。
S602:如果该表情图片出现在所述第四表情数据库中,则检测所述即时通讯对话消息中是否存在符合该表情图片对应的响应信息启动条件的目标内容;
在确定出窗口中提供的是哪张表情图片之后,还需要判断即时通讯对话消息中是否存在符合该表情图片对应的响应信息启动条件的目标内容。即时通讯对话消息可以是用户之间的当前即时通讯对话窗口中的消息(当前聊天记录等)、历史聊天记录等。具体实现时,第四表情数据库中记录有哪些表情图片具有响应信息,以及对应怎样的响应信息。因此,就可以通过查询该第四表情数据库,确定是否具有响应信息。例如,石头、刀、箭、砖头、大象喷水、狮子、导弹发射、拖鞋、妇人骂街等动画或音频、视频等,都可以出现在该第四表情数据库中,与其他表情图片或者文字关联,并且预先配置好对应的响应信息是什么,例如,同样可以是一些动画或者某段音乐等。
为避免判断信息过多导致系统资源的占用,影响用户体验,本申请实施例中,在判断即时通讯对话消息中是否存在符合该表情图片对应的响应信息启动条件的目标内容时,可以只判断即时通讯对话窗口中是否存在符合该表情图片对应的响应信息启动条件的目标内容,以下各步骤的具体描述中,仅以即时通讯对话窗口中是否存在符合该表情图片对应的响应信息启动条件的目标内容为例进行说明。
S603:如果存在,则在所述目标内容所在的位置处播放该表情图片对应的响应信息。
确定出响应信息之后,就可以向用户进行播放。其中,响应信息可以是与的表情图片相关的动画,在确定出与的表情图片关联的目标内容之后,就可以在目标内容所在的位置处播放该表情图片对应的响应信息。由于相关的动画一般都是一些动作,例如,射箭、用石头扔等,因此,所谓的在目标内容处显示相关的动画,也就是说将这种相关的动画作用于这些目标内容上。
具体实现时,第四表情数据库中保存的与第一表情图片对应的响应信息的启动条件可以包括:即时通讯对话窗口中显示有与该第一表情图片关联的第二表情图片。例如,具体实现时,第四表情数据库中设置的表情图片、响应信息、以及响应信息的启动条件之间的对应关系可以如表4所示:
表4
这样,可以判断即时通讯对话窗口中是否存在与第一表情图片关联的第二表情图片,如果是,则判定即时通讯对话窗口中存在符合该表情图片对应的响应信息启动条件的目标内容。例如,如图7-1所示,假设之前在信息显示区域已经显示了一个表示“得瑟”的表情图片,之后,用户发送了一个“箭”的图片,此时,客户端判断出该“得瑟”的表情图片与“箭”的表情图片关联,并且对应的响应信息是动画X1,也即将箭头射向“得瑟”表情图片,因此,就可以在信息显示区域显示出图7-2所示的效果。
或者,第四表情数据库中保存的与某表情图片对应的响应信息的启动条件也可以包括:即时通讯对话窗口中显示有与该表情图片关联的文字。例如,具体实现时,第四表情数据库中设置的表情图片、响应信息、以及响应信息的启动条件之间的对应关系可以如表5所示:
表5
这样,如果即时通讯对话窗口中未显示出与表情图片关联的另一表情图片,则还可以对即时通讯对话窗口中显示的文字内容进行分析,判断是否存在于该表情图片关联的目标文字,如果存在,则判定即时通讯对话窗口中存在符合该表情图片对应的响应信息启动条件的目标内容。如图8-1所示,假设对方用户之前发送了“哈哈,我真是太帅了”,用户发送了一个射箭的表情图片之后,就可以将对方用户的这句话以及对方的头像确定为响应信息的目标内容,也即将箭头射向这句话以及对方的头像,如图8-2所示。
当然,在具体实现时,由于是即时通讯客户端或者服务器主动为用户的表情图片匹配的响应信息,因此,在播放响应信息之前,还可以首先发送提示信息,该提示信息用于询问用户是否播放所述响应信息,如果用户选择需要播放再向用户播放,避免造成用户的反感。
另外,在即时通讯窗口中显示了某一表情图片的情况下,该即时通讯窗口中可能已经显示了很多条通讯内容,因此,可能存在即时通讯窗口中符合该表情图片对应的响应信息启动条件的目标内容为多条的情况。在这种情况下,可以将各条目标内容提示给用户供用户选择,如果用户选择了其中某一条通讯内容,则将该条通讯内容确定为最终相匹配的目标内容。
再者,如上文所述,在即时通讯窗口中显示了某一表情图片的情况下,该即时通讯窗口中可能已经显示了很多条通讯内容,但在具体实现时,可以仅检测即时通讯对话窗口中表情图片之前或之后的预置条目的显示内容中,是否存在符合该表情图片对应的响应信息启动条件的目标内容。例如,可以检测即时通讯对话窗口中该表情图片的前N条或后M条消息中,是否存在符合该表情图片对应的响应信息启动条件的目标内容。其中,N可以等于M,也可以不相等。更为具体的,还可以仅检测即时通讯对话窗口中该表情图片的前一条显示内容是否符合该表情图片对应的响应信息启动条件。这样可以降低检测工作的工作量,并且也更符合实际场景的需要。
需要说明的是,一般是在将用户发送的表情图片显示到即时通讯对话窗口之后,再进行响应信息的显示,因此,在具体实现时,可以在即时通讯对话窗口的上层创建一透明浮层,然后在该透明浮层中播放与表情图片相关的动画,这样可以避免动画的显示对信息显示区域中其他的内容造成遮挡。
另外需要说明的是,在实施例四中,各步骤的操作可以是由客户端完成的,也可以是由服务器来完成的。也即,第四表情数据库可以预先下载到客户端所在的终端设备本地,也可以仅在服务器端进行保存。并且,对于发送方客户端而言,可以在用户发送了一个表情图片之后,来检测即时通信窗口中是否显示有与该表情图片关联的内容,如果存在则进行响应;对于接收方客户端而言,也可以是在接收到对方发送的表情图片之后,检测即时通信窗口中是否显示有与该表情图片关联的内容,如果存在则进行响应。也就是说,无论是发送方客户端还是接收方客户端,在即时通信窗口中提供了一个表情图片的情况下,后续的处理都可以是相同,因此,这里不再单独从某一端的角度进行介绍。
总之,通过表情与表情之间的,使得表情之间不再相互独立,而是相互关联,一个表情图片可以作用于另一个表情图片,这样可以更贴近于现实世界中用户之间的过程,对现实世界的模拟度更高。
实施例五
在前述各个实施例中,均是讲用户与表情之间的互动,或者表情与表情/文字之间的互动,在该实施例五中,还可以实现通过文字来启动对应的表情图片。下面进行详细的介绍。
参见图9,该实施例五提供了一种即时通讯过程中的表情信息处理方法,在该方法中,需要预先在第五表情数据库中设置有文本通讯内容之间的关联关系、以及相互关联的文本通讯内容对应的表情图片,具体的,该方法可以包括以下步骤:
S901:在即时通讯窗口中提供一文本通讯内容;
文本通讯内容可以是用户发送的一句话,或者也可以是对方用户发送的一句话。
S902:通过检索所述第五表情数据库,检测所述即时通讯窗口中是否存在与该文本通讯内容关联的其他文本通讯内容;
S903:如果存在,则在所述即时通讯窗口中提供对应的表情图片。
也就是说,在本实施例五中,虽然用户没有主动的发送一个表情图片,但是客户端或者服务器可以根据用户的文本通讯内容匹配出相关的表情图片,并在即时通讯窗口中进行显示。当然,在实际应用中,还可以在第五表情数据库中定义表情图片的启动条件,也即,可能并不是只要即时通讯窗口中出现关联的文本通讯内容,就显示对应的表情图片,而是还要满足一定的启动条件才可以。例如,某用户连续发送了三次“哈哈”,则可以自动在即时通讯窗口中显示出一个大笑的表情图片。从技术实现角度来看,就可以预先在第五表情数据库中定义“哈哈”与“哈哈”之间存在关联关系,并将对应的表情图片的启动条件设定为连续出现三次,这样,就可以在检测到存在关联关系的文本通讯内容之后,再检测是否连续出现三次,如果是,才会启动对应的表情图片,否则,如果只出现了两次,或者其中有一次是对方用户发送的,则不会启动对应的表情图片。
进一步地,由于及时通讯对话窗口中可能已经存在多条通讯内容,为避免检测内容过多,造成系统资源的占用,以及为避免对用户输入消息的干扰,此时,可以仅检测即时通讯对话窗口中该文本通讯内容之前或之后的预置数量的消息中,是否存在与该文本通讯内容关联的其他文本通讯内容。具体的,可以检测即时通讯对话窗口中该文本通讯内容的前N条或后M条消息中,是否存在与该文本通讯内容关联的其他文本通讯内容。其中,N可以等于M,也可以不等于。优先地,N等1,和/或,M等于1。
需要说明的是,在本实施例五中,各步骤的操作可以是由客户端完成的,也可以是由服务器来完成的。也即,第五表情数据库可以预先下载到客户端所在的终端设备本地,也可以仅在服务器端进行保存。并且,对于发送方客户端而言,可以在用户发送了一个文本通讯内容之后,来检测即时通信窗口中是否显示有与该文本通讯内容关联的内容,如果存在则进行响应;对于接收方客户端而言,也可以是在接收到对方发送的文本通讯内容之后,检测即时通信窗口中是否显示有与该文本通讯内容关联的内容,如果存在则进行响应。也就是说,无论是发送方客户端还是接收方客户端,在即时通信窗口中提供了一个文本通讯内容的情况下,后续的处理都可以是相同,因此,这里不再单独从某一端的角度进行介绍。
总之,通过该实施例五,可以实现通过文本通讯内容之间的关联关系其启动表情图片,提高表情图片的利用率,并且也可以使得在用户没有意识到可以使用图片表情来表达其情感的情况下,自动帮助用户更贴切更直观地表达其情感。
与本申请实施例一提供的即时通讯过程中发送方客户端的表情信息处理方法相对应,本申请实施例还提供了一种即时通讯过程中发送方客户端的表情信息处理装置,预先在第一表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,参见图10,所述装置包括:
第一表情图片提供单元1001,用于在即时通讯对话窗口中提供一表情图片;
第一操作行为信息获得单元1002,用于获得用户对所述表情图片发出的用户操作行为信息;
第一检索单元1003,用于根据所述表情图片以及获得到的用户操作行为信息,检索所述第一表情数据库,生成检索到的表情图片在该用户操作行为下对应的第一响应信息;
第一发送单元1004,用于将检索到的所述表情图片的信息以及获得到的用户操作行为信息发送到接收方用户对应的接收方客户端,以便接收方客户端生成该表情图片在该用户操作行为下对应的第二响应信息。
其中,所述第一表情数据库中保存的用于启动该响应信息的操作行为信息包括操作类型信息,所述操作类型包括在终端设备上执行的以下操作之一或组合:滑动操作类型、点击操作类型、摇动操作类型、靠近终端操作类型。
所述第一表情数据库中保存的响应信息中包括操作类型对应的计算方式信息,所述第一检索单元1003具体包括:
计算方式信息获得子单元,用于确定用户对所述表情图片发出的操作的类型,并获得该操作类型对应的计算方式信息;
计算子单元,用于根据确定的该用户操作行为信息的操作类型的计算方式信息,计算检索到的表情图片在该用户操作行为信息下对应的响应数据;
响应信息生成子单元,用于根据该响应数据,生成拟合了用户操作行为信息的第一响应信息。
其中,所述计算方式由具体操作类型以及对应操作类型下的操作属性信息参数确定。
所述第一操作行为信息获得单元1002具体用于:
获得用户对所述表情图片发出的操作类型信息,以及该操作类型下的操作属性信息;
所述计算子单元具体用于:
根据所获得的操作类型信息以及对应的操作类型下的属性信息,确定出计算方式;
根据确定出的计算方式,计算检索到的表情图片在该用户操作行为信息下对应的响应数据。
其中,所述第一响应信息包括在时间维度上具有连续播放性的信息,
所述装置还可以包括:
时间点获得单元,用于获得所述用户操作行为的起始时间点以及结束时间点;
持续时间长度计算单元,用于根据起始时间点以及结束时间点计算所述用户操作行为的持续时间长度;
播放单元,用于根据所述用户操作行为的持续时间长度,在所述即时通讯对话窗口中播放所述第一响应信息。
其中,所述在时间维度上具有连续播放性的信息包括动画,所述动画包括多个连续的图片帧,相邻图片帧之间具有预置的显示时间间隔,所述播放单元包括:
比较子单元,用于比较所述用户操作行为的持续时间长度以及所述动画的总时间长度;
结束帧确定子单元,用于如果用户操作行为的持续时间长度小于动画的总时间长度,则根据所述用户操作行为的持续时间长度以及所述相邻图片帧之间的显示时间间隔,确定需播放到的结束帧;
播放子单元,用于在即时通讯对话窗口中播放所述动画,直到播放到所述结束帧为止。
另外,播放子单元还可以用于:
如果用户操作行为的持续时间长度大于或等于动画的总时间长度,则在即时通讯对话窗口中播放所述动画,直到所述动画播放结束为止。
所述获得用户对所述表情图片发出的用户操作行为信息为多个,对应从所述第一表情数据库中检索到的第一响应信息也为多个,此时,所述装置还可以包括:
组合单元,用于以部分或全部各第一响应信息,生成组合的第一响应信息。
其中,所述发送单元1004具体可以用于:
将检索到的所述表情图片的信息以及部分或全部获得到的用户操作行为信息发送到接收方用户对应的接收方客户端,以便接收方客户端生成该表情图片在该部分或全部用户操作行为下对应的第二响应信息。
如果检索到的表情图片在该用户操作行为下对应的第一响应信息为多个,则所述装置还可以包括:
第一提示单元,用于提供提示信息,所述提示信息用于提示用户从多个第一响应信息中选择其中一个。
所述装置还可以包括:
第二提示单元,用于在即时通讯对话窗口中提供一表情图片之后,在即时通讯对话窗口中显示提示信息,所述提示信息用于提示用户可对所述表情图片发出操作,以及与该表情图片对应的操作方式信息。
与本申请实施例二提供的即时通讯过程中接收方客户端的表情信息处理方法相对应,本申请实施例还提供了一种即时通讯过程中接收方客户端的表情信息处理装置,预先在第二表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,参见图11,所述装置可以包括:
第二表情图片提供单元1101,用于在即时通讯对话窗口中提供一表情图片;
第二操作行为信息获得单元1102,用于获得对方客户端发送的对方用户对所述表情图片进行了操作的消息,所述消息中携带有表情图片的信息以及用户操作行为信息;
第二检索单元1103,用于根据所述的表情图片的信息以及用户操作行为信息检索所述第二表情数据库,生成该表情图片在该用户操作行为下对应的第二响应信息。
与本申请实施例三提供的即时通讯过程中发送方客户端的表情信息处理方法相对应,本申请实施例还提供了一种即时通讯过程中发送方客户端的表情信息处理装置,预先在服务器端设置第三表情数据库,所述第三表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,参见图12,所述装置包括:
第三表情图片提供单元1201,用于在即时通讯对话窗口中提供一表情图片;
第三操作行为信息获得单元1202,用于获得用户对所述表情图片发出的用户操作行为信息;
信息上传单元1203,用于将获得到的用户操作行为信息、表情图片的信息、用户的标识信息以及接收方用户的标识信息上传到服务器,以便服务器根据接收到用户操作行为的信息检索所述第三表情数据库,生成该表情图片在该用户操作行为下对应的第一响应信息以及第二响应信息,并将第一响应信息返回给用户对应的发送方客户端,将第二响应信息发送给接收方用户对应的接收方客户端。
通过上述各装置,在用户对表情图片执行操作时,可以确定出对应的响应信息并进行播放,因此,相当于表情图片可以响应用户的操作,使得用户发送的表情图片能更好地表达用户的感情等,即时通讯工具对现实世界用户之间的模拟度也得到提高。
与本申请实施例四提供的即时通讯过程中的表情信息处理方法相对应,本申请实施例还提供了一种即时通讯过程中的表情信息处理装置,预先在第四表情数据库中设置有表情图片、响应信息、以及响应信息的启动条件之间的对应关系,参见图13,所述装置可以包括:
第四表情图片提供单元1301,用于在即时通讯对话窗口中提供一表情图片;
检测单元1302,用于如果该表情图片出现在所述第四表情数据库中,则检测所述即时通讯对话消息中是否存在符合该表情图片对应的响应信息启动条件的目标内容;
响应信息生成单元1303,用于如果存在,则生成该表情图片对应的响应信息。
其中,所述即时通讯对话消息为即时通讯对话窗口中的消息,所述第四表情数据库中保存的与第一表情图片对应的响应信息的启动条件包括:即时通讯对话窗口中包括有与该第一表情图片关联的第二表情图片,所述检测单元1302具体用于:
检测所述即时通讯对话窗口中是否存在与第一表情图片关联的第二表情图片,如果是,则判定即时通讯对话窗口中存在符合该表情图片对应的响应信息启动条件的目标内容。
或者,所述第四表情数据库中保存的与某表情图片对应的响应信息的启动条件包括:即时通讯对话窗口中包括有与该表情图片关联的文字,所述检测单元1302具体可以用于:
对即时通讯对话窗口中显示的文字内容进行分析,判断是否存在于该表情图片关联的目标文字,如果存在,则判定所述即时通讯对话窗口中存在符合该表情图片对应的响应信息启动条件的目标内容。
另外,该装置还可以包括:
第三提示单元,用于如果即时通讯窗口中符合该表情图片对应的响应信息启动条件的目标内容为多条,则将各条目标内容或者各条目标内容对应的响应信息提示给用户供用户选择。
具体的,为了降低工作量,所述检测单元1302具体可以用于:
检测所述即时通讯对话窗口中该表情图片之前或之后的预置数量的消息中,是否存在符合该表情图片对应的响应信息启动条件的目标内容。
更为具体的,可以检测所述即时通讯对话窗口中该表情图片的前一条或后一条消息中,是否存在符合该表情图片对应的响应信息启动条件的目标内容。
通过上述各装置,在用户发送了一个表情图片之后,可以确定出该图片是否预设了响应信息,如果有,则可以播放,实现了表情与表情或者表情与文字之间的互动。
另外,与本申请实施例五提供的即时通讯过程中的表情信息处理方法相对应,本申请实施例还提供了一种即时通讯过程中的表情信息处理装置,预先在第五表情数据库中设置有文本通讯内容之间的关联关系、以及相互关联的文本通讯内容对应的表情图片,参见图14,所述装置具体可以包括:
文本通讯内容提供单元1401,用于在即时通讯窗口中提供一文本通讯内容;
第三检索单元1402,用于通过检索所述第五表情数据库,检测所述即时通讯窗口中是否存在与该文本通讯内容关联的其他文本通讯内容;
第五表情图片提供单元1403,用于如果存在,则在所述即时通讯窗口中提供对应的表情图片。
其中,所述第三检索单元1402具体可以用于:
检测所述即时通讯对话窗口中该文本通讯内容之前或之后的预置数量的消息中,是否存在与该文本通讯内容关联的其他文本通讯内容。
更为具体的,第三检索单元1402可以检测所述即时通讯对话窗口中该文本通讯内容的前N条或后M条消息中,是否存在与该文本通讯内容关联的其他文本通讯内容。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上对本申请所提供的即时通讯过程中的表情信息处理方法及装置,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本申请的限制。

Claims (17)

1.一种即时通讯过程中发送方客户端的表情信息处理方法,其特征在于,预先在第一表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,所述方法包括:
在即时通讯对话窗口中提供一表情图片;
获得用户对所述表情图片发出的用户操作行为信息;
根据所述表情图片以及获得到的用户操作行为信息,检索所述第一表情数据库,生成检索到的表情图片在该用户操作行为下对应的第一响应信息;
将检索到的所述表情图片的信息以及获得到的用户操作行为信息发送到接收方用户对应的接收方客户端,以便接收方客户端生成该表情图片在该用户操作行为下对应的第二响应信息。
2.根据权利要求1所述的方法,其特征在于,所述第一表情数据库中保存的用于启动该响应信息的操作行为信息包括操作类型信息,所述操作类型包括在终端设备上执行的以下操作之一或组合:滑动操作类型、点击操作类型、摇动操作类型、靠近终端操作类型。
3.根据权利要求2所述的方法,其特征在于,所述第一表情数据库中保存的响应信息中包括操作类型对应的计算方式信息,
所述生成检索到的表情图片在该用户操作行为下对应的第一响应信息,具体包括:
确定用户对所述表情图片发出的操作的类型,并获得该操作类型对应的计算方式信息;
根据确定的该用户操作行为信息的操作类型的计算方式信息,计算检索到的表情图片在该用户操作行为信息下对应的响应数据;
根据该响应数据,生成拟合了用户操作行为信息的第一响应信息。
4.根据权利要求3所述的方法,其特征在于,所述计算方式由具体操作类型以及对应操作类型下的操作属性信息参数确定。
5.根据权利要求4所述的方法,其特征在于:
所述获得用户对所述表情图片发出的用户操作行为信息,包括:
获得用户对所述表情图片发出的操作类型信息,以及该操作类型下的操作属性信息;
所述根据确定的该用户操作行为信息的操作类型的计算方式信息,计算检索到的表情图片在该用户操作行为信息下对应的响应数据,包括:
根据所获得的操作类型信息以及对应的操作类型下的属性信息,确定出计算方式;
根据确定出的计算方式,计算检索到的表情图片在该用户操作行为信息下对应的响应数据。
6.根据权利要求1所述的方法,其特征在于,所述第一响应信息包括在时间维度上具有连续播放性的信息,
所述方法还包括:
获得所述用户操作行为的起始时间点以及结束时间点;
根据起始时间点以及结束时间点计算所述用户操作行为的持续时间长度;
根据所述用户操作行为的持续时间长度,在所述即时通讯对话窗口中播放所述第一响应信息。
7.根据权利要求6所述的方法,其特征在于,所述在时间维度上具有连续播放性的信息包括动画,所述动画包括多个连续的图片帧,相邻图片帧之间具有预置的显示时间间隔,所述根据所述用户操作行为的持续时间长度,在所述即时通讯对话窗口中播放所述第一响应信息,包括:
比较所述用户操作行为的持续时间长度以及所述动画的总时间长度;
如果用户操作行为的持续时间长度小于动画的总时间长度,则根据所述用户操作行为的持续时间长度以及所述相邻图片帧之间的显示时间间隔,确定需播放到的结束帧;
在即时通讯对话窗口中播放所述动画,直到播放到所述结束帧为止。
8.根据权利要求7所述的方法,其特征在于,还包括:
如果用户操作行为的持续时间长度大于或等于动画的总时间长度,则在即时通讯对话窗口中播放所述动画,直到所述动画播放结束为止。
9.根据权利要求1至8任一项所述的方法,其特征在于,所述获得用户对所述表情图片发出的用户操作行为信息为多个,对应从所述第一表情数据库中检索到的第一响应信息也为多个,所述方法还包括:
以部分或全部各第一响应信息,生成组合的第一响应信息。
10.根据权利要求9所述的方法,其特征在于,
所述将检索到的所述表情图片的信息以及获得到的用户操作行为信息发送到接收方用户对应的接收方客户端,包括:
将检索到的所述表情图片的信息以及部分或全部获得到的用户操作行为信息发送到接收方用户对应的接收方客户端,以便接收方客户端生成该表情图片在该部分或全部用户操作行为下对应的第二响应信息。
11.根据权利要求1至8任一项所述的方法,其特征在于,如果检索到的表情图片在该用户操作行为下对应的第一响应信息为多个,则所述方法还包括:
提供提示信息,所述提示信息用于提示用户从多个第一响应信息中选择其中一个。
12.根据权利要求1至8任一项所述的方法,其特征在于,所述在即时通讯对话窗口中提供一表情图片之后还包括:
在即时通讯对话窗口中显示提示信息,所述提示信息用于提示用户可对所述表情图片发出操作,以及与该表情图片对应的操作方式信息。
13.一种即时通讯过程中接收方客户端的表情信息处理方法,其特征在于,预先在第二表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,所述方法包括:
在即时通讯对话窗口中提供一表情图片;
获得对方客户端发送的对方用户对所述表情图片进行了操作的消息,所述消息中携带有表情图片的信息以及用户操作行为信息;
根据所述的表情图片的信息以及用户操作行为信息检索所述第二表情数据库,生成该表情图片在该用户操作行为下对应的第二响应信息。
14.一种即时通讯过程中发送方客户端的表情信息处理方法,其特征在于,预先在服务器端设置第三表情数据库,所述第三表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,包括:
在即时通讯对话窗口中提供一表情图片;
获得用户对所述表情图片发出的用户操作行为信息;
将获得到的用户操作行为信息、表情图片的信息、用户的标识信息以及接收方用户的标识信息上传到服务器,以便服务器根据接收到用户操作行为的信息检索所述第三表情数据库,生成该表情图片在该用户操作行为下对应的第一响应信息以及第二响应信息,并将第一响应信息返回给用户对应的发送方客户端,将第二响应信息发送给接收方用户对应的接收方客户端。
15.一种即时通讯过程中发送方客户端的表情信息处理装置,其特征在于,预先在第一表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,所述装置包括:
第一表情图片提供单元,用于在即时通讯对话窗口中提供一表情图片;
第一操作行为信息获得单元,用于获得用户对所述表情图片发出的用户操作行为信息;
第一检索单元,用于根据所述表情图片以及获得到的用户操作行为信息,检索所述第一表情数据库,生成检索到的表情图片在该用户操作行为下对应的第一响应信息;
第一发送单元,用于将检索到的所述表情图片的信息以及获得到的用户操作行为信息发送到接收方用户对应的接收方客户端,以便接收方客户端生成该表情图片在该用户操作行为下对应的第二响应信息。
16.一种即时通讯过程中接收方客户端的表情信息处理装置,其特征在于,预先在第二表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,所述装置包括:
第二表情图片提供单元,用于在即时通讯对话窗口中提供一表情图片;
第二操作行为信息获得单元,用于获得对方客户端发送的对方用户对所述表情图片进行了操作的消息,所述消息中携带有表情图片的信息以及用户操作行为信息;
第二检索单元,用于根据所述的表情图片的信息以及用户操作行为信息检索所述第二表情数据库,生成该表情图片在该用户操作行为下对应的第二响应信息。
17.一种即时通讯过程中发送方客户端的表情信息处理装置,其特征在于,预先在服务器端设置第三表情数据库,所述第三表情数据库中设置有表情图片、响应信息以及用于启动该响应信息的操作行为信息,所述装置包括:
第三表情图片提供单元,用于在即时通讯对话窗口中提供一表情图片;
第三操作行为信息获得单元,用于获得用户对所述表情图片发出的用户操作行为信息;
信息上传单元,用于将获得到的用户操作行为信息、表情图片的信息、用户的标识信息以及接收方用户的标识信息上传到服务器,以便服务器根据接收到用户操作行为的信息检索所述第三表情数据库,生成该表情图片在该用户操作行为下对应的第一响应信息以及第二响应信息,并将第一响应信息返回给用户对应的发送方客户端,将第二响应信息发送给接收方用户对应的接收方客户端。
CN201410018262.0A 2014-01-15 2014-01-15 即时通讯过程中的表情信息处理方法及装置 Active CN104780093B (zh)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CN201410018262.0A CN104780093B (zh) 2014-01-15 2014-01-15 即时通讯过程中的表情信息处理方法及装置
TW103118595A TWI650977B (zh) 2014-01-15 2014-05-28 即時通訊過程中的表情信息處理方法及裝置
JP2016544859A JP6510536B2 (ja) 2014-01-15 2015-01-13 インスタント通信において表現情報を処理する方法及び装置
US14/596,019 US9584455B2 (en) 2014-01-15 2015-01-13 Method and apparatus of processing expression information in instant communication
PCT/US2015/011243 WO2015108878A1 (en) 2014-01-15 2015-01-13 Method and apparatus of processing expression information in instant communication
EP15737748.2A EP3095091B1 (en) 2014-01-15 2015-01-13 Method and apparatus of processing expression information in instant communication
HK15108417.1A HK1207767A1 (zh) 2014-01-15 2015-08-31 即時通訊過程中的表情信息處理方法及裝置
US15/408,812 US10210002B2 (en) 2014-01-15 2017-01-18 Method and apparatus of processing expression information in instant communication

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410018262.0A CN104780093B (zh) 2014-01-15 2014-01-15 即时通讯过程中的表情信息处理方法及装置

Publications (2)

Publication Number Publication Date
CN104780093A CN104780093A (zh) 2015-07-15
CN104780093B true CN104780093B (zh) 2018-05-01

Family

ID=53522315

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410018262.0A Active CN104780093B (zh) 2014-01-15 2014-01-15 即时通讯过程中的表情信息处理方法及装置

Country Status (7)

Country Link
US (2) US9584455B2 (zh)
EP (1) EP3095091B1 (zh)
JP (1) JP6510536B2 (zh)
CN (1) CN104780093B (zh)
HK (1) HK1207767A1 (zh)
TW (1) TWI650977B (zh)
WO (1) WO2015108878A1 (zh)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104780093B (zh) 2014-01-15 2018-05-01 阿里巴巴集团控股有限公司 即时通讯过程中的表情信息处理方法及装置
KR101620050B1 (ko) * 2015-03-03 2016-05-12 주식회사 카카오 인스턴트 메시지 서비스를 통한 시나리오 이모티콘 표시 방법 및 이를 위한 사용자 단말
CN105049318B (zh) 2015-05-22 2019-01-08 腾讯科技(深圳)有限公司 消息发送方法和装置、消息处理方法和装置
US10191920B1 (en) * 2015-08-24 2019-01-29 Google Llc Graphical image retrieval based on emotional state of a user of a computing device
CN105119812B (zh) * 2015-08-26 2018-05-18 小米科技有限责任公司 在聊天界面更改表情符号的方法、装置及终端设备
CN106502554B (zh) 2015-09-08 2021-09-17 腾讯科技(深圳)有限公司 一种显示控制方法及装置
US20170236318A1 (en) * 2016-02-15 2017-08-17 Microsoft Technology Licensing, Llc Animated Digital Ink
CN105763431B (zh) 2016-05-06 2019-03-26 腾讯科技(深圳)有限公司 一种信息推送方法、装置及系统
CN107370656B (zh) * 2016-05-12 2020-10-09 腾讯科技(深圳)有限公司 即时通信方法和装置
CN105871695B (zh) * 2016-05-19 2019-03-26 腾讯科技(深圳)有限公司 表情发送方法和装置
CN105933535A (zh) * 2016-06-16 2016-09-07 惠州Tcl移动通信有限公司 一种基于移动终端的亲情关怀信息共享方法及系统
CN106231573B (zh) * 2016-07-29 2017-08-01 广东欧珀移动通信有限公司 基于mems的信息提示方法、装置和移动终端
CN106059907A (zh) * 2016-08-04 2016-10-26 深圳市大熊动漫文化有限公司 表情交互方法及装置
CN106445283A (zh) * 2016-09-09 2017-02-22 深圳市金立通信设备有限公司 一种表情符号获取方法及终端
CN106412309A (zh) * 2016-10-12 2017-02-15 珠海市魅族科技有限公司 一种输入数据的方法及移动终端
CN106657650B (zh) * 2016-12-26 2020-10-30 中船舰客教育科技(北京)有限公司 一种系统表情推荐方法、装置及终端
CN106919332B (zh) * 2017-02-14 2020-09-11 北京小米移动软件有限公司 信息传输方法及设备
WO2018152778A1 (en) 2017-02-24 2018-08-30 Immersion Corporation Virtual affective touch
US11237635B2 (en) 2017-04-26 2022-02-01 Cognixion Nonverbal multi-input and feedback devices for user intended computer control and communication of text, graphics and audio
US11402909B2 (en) 2017-04-26 2022-08-02 Cognixion Brain computer interface for augmented reality
CN107340964A (zh) * 2017-06-02 2017-11-10 武汉斗鱼网络科技有限公司 一种视图的动画效果实现方法及装置
US11265270B2 (en) * 2017-07-07 2022-03-01 Samchat, Inc. Systems, methods and computer program products for providing enhanced chat services
CN107566243B (zh) 2017-07-11 2020-07-24 阿里巴巴集团控股有限公司 一种基于即时通信的图片发送方法和设备
CN109388297B (zh) * 2017-08-10 2021-10-22 腾讯科技(深圳)有限公司 表情展示方法、装置、计算机可读存储介质及终端
KR102430528B1 (ko) * 2017-12-27 2022-08-09 삼성전자주식회사 이모지가 포함된 메시지를 송수신하는 전자 장치 및 그 전자 장치를 제어하는 방법
CN108322383B (zh) * 2017-12-27 2022-02-25 广州市百果园信息技术有限公司 表情交互显示方法、计算机可读存储介质及终端
CN108173747B (zh) * 2017-12-27 2021-10-22 上海传英信息技术有限公司 信息交互方法及装置
CN110119293A (zh) * 2018-02-05 2019-08-13 阿里巴巴集团控股有限公司 会话处理方法、装置及电子设备
CN110300049B (zh) * 2018-03-23 2022-05-27 阿里巴巴集团控股有限公司 一种基于即时通讯的消息屏蔽方法、设备以及系统
CN109412934A (zh) * 2018-09-30 2019-03-01 北京达佳互联信息技术有限公司 表情发送方法、装置、电子设备及存储介质
CN109412935B (zh) * 2018-10-12 2021-12-07 北京达佳互联信息技术有限公司 即时通信的发送方法和接收方法、发送装置和接收装置
CN109903359B (zh) * 2019-03-15 2023-05-05 广州市百果园网络科技有限公司 一种粒子的显示方法、装置、移动终端和存储介质
CN110417640A (zh) * 2019-07-22 2019-11-05 北京达佳互联信息技术有限公司 消息发送和接收方法、装置、电子设备及存储介质
CN110554782B (zh) * 2019-07-25 2023-06-27 北京智慧章鱼科技有限公司 一种表情输入的图像合成方法和系统
US11308110B2 (en) 2019-08-15 2022-04-19 Rovi Guides, Inc. Systems and methods for pushing content
US10943380B1 (en) * 2019-08-15 2021-03-09 Rovi Guides, Inc. Systems and methods for pushing content
CN110609723B (zh) * 2019-08-21 2021-08-24 维沃移动通信有限公司 一种显示控制方法及终端设备
CN110780955B (zh) * 2019-09-05 2023-08-22 连尚(新昌)网络科技有限公司 一种用于处理表情消息的方法与设备
CN110851035B (zh) * 2019-11-12 2021-06-18 北京字节跳动网络技术有限公司 一种会话消息显示方法、装置、电子设备及存储介质
CN110955482B (zh) * 2019-11-27 2023-12-05 维沃移动通信有限公司 弹窗显示的方法、装置、电子设备及介质
CN111010335A (zh) * 2019-12-18 2020-04-14 网易(杭州)网络有限公司 聊天表情发送方法、装置、电子设备及介质
CN111162993B (zh) * 2019-12-26 2022-04-26 上海连尚网络科技有限公司 信息融合方法和设备
CN111369645B (zh) * 2020-02-28 2023-12-05 北京百度网讯科技有限公司 表情信息的展现方法、装置、设备及介质
CN113709020B (zh) * 2020-05-20 2024-02-06 腾讯科技(深圳)有限公司 消息发送方法、消息接收方法、装置、设备及介质
CN111835621A (zh) * 2020-07-10 2020-10-27 腾讯科技(深圳)有限公司 会话消息处理方法、装置、计算机设备及可读存储介质
CN111966804A (zh) * 2020-08-11 2020-11-20 深圳传音控股股份有限公司 一种表情处理方法、终端及存储介质
CN112235180A (zh) * 2020-08-29 2021-01-15 上海量明科技发展有限公司 语音消息处理方法、设备及即时通信客户端
CN116437034A (zh) * 2020-09-25 2023-07-14 荣耀终端有限公司 视频特效添加方法、装置及终端设备
CN112732099B (zh) * 2020-12-31 2023-02-10 福建星网视易信息系统有限公司 一种表情实现方法及终端
CN113453051B (zh) * 2021-06-30 2024-05-10 广州酷狗计算机科技有限公司 虚拟道具的显示方法、装置、终端及计算机可读存储介质
CN113438150B (zh) * 2021-07-20 2022-11-08 网易(杭州)网络有限公司 一种表情发送方法和装置
CN113867876B (zh) * 2021-10-08 2024-02-23 北京字跳网络技术有限公司 表情显示的方法、装置、设备及存储介质
CN115190093B (zh) * 2022-08-07 2024-04-09 王桂英 一种简化即时通信操作的方法、装置、计算机设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004023336A2 (en) * 2002-09-06 2004-03-18 Saw-You.Com Limited Improved communication using avatars
CN101420393A (zh) * 2008-12-10 2009-04-29 腾讯科技(深圳)有限公司 基于即时通信实现表情编辑的方法及基于即时通信的终端
WO2011110727A1 (en) * 2010-03-08 2011-09-15 Nokia Corporation Gestural messages in social phonebook
CN102236676A (zh) * 2010-05-06 2011-11-09 腾讯科技(深圳)有限公司 一种会话窗口获取图片信息的方法及装置
CN102904799A (zh) * 2012-10-12 2013-01-30 上海量明科技发展有限公司 即时通信中图标触发流媒体数据录制的方法及客户端
CN103384871A (zh) * 2010-11-05 2013-11-06 苹果公司 用于操纵软键盘的装置、方法和图形用户接口

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6990452B1 (en) * 2000-11-03 2006-01-24 At&T Corp. Method for sending multi-media messages using emoticons
JP4382304B2 (ja) * 2001-05-30 2009-12-09 日本電気株式会社 Wap−wmlブラウザにおけるアニメーション表示方法及びシステム
US20030093576A1 (en) * 2001-11-13 2003-05-15 International Business Machines Corporation Method and system for message management
US7185285B2 (en) * 2003-02-19 2007-02-27 Microsoft Corporation User interface and content enhancements for real-time communication
US7913176B1 (en) 2003-03-03 2011-03-22 Aol Inc. Applying access controls to communications with avatars
US20040179037A1 (en) * 2003-03-03 2004-09-16 Blattner Patrick D. Using avatars to communicate context out-of-band
US20070168863A1 (en) 2003-03-03 2007-07-19 Aol Llc Interacting avatars in an instant messaging communication session
US20070113181A1 (en) * 2003-03-03 2007-05-17 Blattner Patrick D Using avatars to communicate real-time information
US7908554B1 (en) * 2003-03-03 2011-03-15 Aol Inc. Modifying avatar behavior based on user action or mood
US20050163379A1 (en) * 2004-01-28 2005-07-28 Logitech Europe S.A. Use of multimedia data for emoticons in instant messaging
JP2006352309A (ja) * 2005-06-14 2006-12-28 Mitsubishi Electric Corp 電話機
JP4854424B2 (ja) * 2006-08-02 2012-01-18 株式会社コナミデジタルエンタテインメント チャットシステム、通信装置、その制御方法及びプログラム
TWI454955B (zh) 2006-12-29 2014-10-01 Nuance Communications Inc 使用模型檔產生動畫的方法及電腦可讀取的訊號承載媒體
GB0712880D0 (en) * 2007-07-03 2007-08-08 Skype Ltd Instant messaging communication system and method
US8930463B2 (en) * 2007-07-09 2015-01-06 Yahoo! Inc. Super-emoticons
US20090016617A1 (en) * 2007-07-13 2009-01-15 Samsung Electronics Co., Ltd. Sender dependent messaging viewer
TWI379205B (en) * 2009-03-12 2012-12-11 Ind Tech Res Inst Instant communication interacting system and method thereof
US8881030B2 (en) * 2009-08-24 2014-11-04 Disney Enterprises, Inc. System and method for enhancing socialization in virtual worlds
CN102289339B (zh) * 2010-06-21 2013-10-30 腾讯科技(深圳)有限公司 一种显示表情信息的方法及装置
US8620850B2 (en) * 2010-09-07 2013-12-31 Blackberry Limited Dynamically manipulating an emoticon or avatar
US20120130717A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Real-time Animation for an Expressive Avatar
US20120162350A1 (en) * 2010-12-17 2012-06-28 Voxer Ip Llc Audiocons
US8989786B2 (en) * 2011-04-21 2015-03-24 Walking Thumbs, Llc System and method for graphical expression during text messaging communications
US9191713B2 (en) * 2011-09-02 2015-11-17 William R. Burnett Method for generating and using a video-based icon in a multimedia message
US20130147933A1 (en) * 2011-12-09 2013-06-13 Charles J. Kulas User image insertion into a text message
US20140088954A1 (en) * 2012-09-27 2014-03-27 Research In Motion Limited Apparatus and method pertaining to automatically-suggested emoticons
IL226047A (en) * 2013-04-29 2017-12-31 Hershkovitz Reshef May A method and system for giving personal expressions
CN104184760B (zh) * 2013-05-22 2018-08-07 阿里巴巴集团控股有限公司 通讯过程中的信息交互方法、客户端及服务器
US20150149925A1 (en) * 2013-11-26 2015-05-28 Lenovo (Singapore) Pte. Ltd. Emoticon generation using user images and gestures
CN104780093B (zh) 2014-01-15 2018-05-01 阿里巴巴集团控股有限公司 即时通讯过程中的表情信息处理方法及装置
US9576175B2 (en) * 2014-05-16 2017-02-21 Verizon Patent And Licensing Inc. Generating emoticons based on an image of a face
DK201670539A1 (en) * 2016-03-14 2017-10-02 Apple Inc Dictation that allows editing
US20170344224A1 (en) * 2016-05-27 2017-11-30 Nuance Communications, Inc. Suggesting emojis to users for insertion into text-based messages

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004023336A2 (en) * 2002-09-06 2004-03-18 Saw-You.Com Limited Improved communication using avatars
CN101420393A (zh) * 2008-12-10 2009-04-29 腾讯科技(深圳)有限公司 基于即时通信实现表情编辑的方法及基于即时通信的终端
WO2011110727A1 (en) * 2010-03-08 2011-09-15 Nokia Corporation Gestural messages in social phonebook
CN102236676A (zh) * 2010-05-06 2011-11-09 腾讯科技(深圳)有限公司 一种会话窗口获取图片信息的方法及装置
CN103384871A (zh) * 2010-11-05 2013-11-06 苹果公司 用于操纵软键盘的装置、方法和图形用户接口
CN102904799A (zh) * 2012-10-12 2013-01-30 上海量明科技发展有限公司 即时通信中图标触发流媒体数据录制的方法及客户端

Also Published As

Publication number Publication date
JP2017505949A (ja) 2017-02-23
US20150200881A1 (en) 2015-07-16
TWI650977B (zh) 2019-02-11
EP3095091A4 (en) 2017-09-13
TW201528728A (zh) 2015-07-16
US10210002B2 (en) 2019-02-19
EP3095091A1 (en) 2016-11-23
WO2015108878A1 (en) 2015-07-23
US9584455B2 (en) 2017-02-28
EP3095091B1 (en) 2021-04-07
CN104780093A (zh) 2015-07-15
US20170123823A1 (en) 2017-05-04
JP6510536B2 (ja) 2019-05-08
HK1207767A1 (zh) 2016-02-05

Similar Documents

Publication Publication Date Title
CN104780093B (zh) 即时通讯过程中的表情信息处理方法及装置
TWI778477B (zh) 互動方法、裝置、電子設備以及儲存媒體
CN105989165B (zh) 在即时聊天工具中播放表情信息的方法、装置及系统
US20190332400A1 (en) System and method for cross-platform sharing of virtual assistants
Greenhalgh Large scale collaborative virtual environments
CN104184760B (zh) 通讯过程中的信息交互方法、客户端及服务器
CN107294837A (zh) 采用虚拟机器人进行对话交互的方法和系统
CN110400251A (zh) 视频处理方法、装置、终端设备及存储介质
CN110413841A (zh) 多态交互方法、装置、系统、电子设备及存储介质
US20090128567A1 (en) Multi-instance, multi-user animation with coordinated chat
CN103797761B (zh) 通信方法、客户端和终端
WO2019165877A1 (zh) 消息推送方法、装置、设备及存储介质
CN110534108A (zh) 一种语音交互方法及装置
WO2017157174A1 (zh) 一种信息处理方法、设备和终端设备
WO2022170848A1 (zh) 人机交互方法、装置、系统、电子设备以及计算机介质
JP2023551476A (ja) ビデオゲームのコンテンツに含めるためのグラフィックインターチェンジフォーマットファイル識別
CN107480766A (zh) 多模态虚拟机器人的内容生成的方法和系统
CN107623622A (zh) 一种发送语音动画的方法及电子设备
CN112215062A (zh) 基于虚拟智能角色的交互方法、客户端及系统
CN107623830A (zh) 一种视频通话方法及电子设备
CN114979682A (zh) 多主播虚拟直播方法以及装置
Vilhjálmsson Avatar augmented online conversation
EP2269140A2 (en) System and method for providing tangible feedback according to a context and personality state
CN110166351A (zh) 一种基于即时通讯的交互方法、装置和电子设备
CN105578107B (zh) 多媒体通话呼叫建立过程和游戏的互动融合方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1207767

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant