CN108268583B - 表情符号含义展示的方法及设备 - Google Patents

表情符号含义展示的方法及设备 Download PDF

Info

Publication number
CN108268583B
CN108268583B CN201710719812.5A CN201710719812A CN108268583B CN 108268583 B CN108268583 B CN 108268583B CN 201710719812 A CN201710719812 A CN 201710719812A CN 108268583 B CN108268583 B CN 108268583B
Authority
CN
China
Prior art keywords
information
emoticon
meaning
interaction interface
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710719812.5A
Other languages
English (en)
Other versions
CN108268583A (zh
Inventor
李成
汪慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba China Co Ltd
Original Assignee
Alibaba China Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba China Co Ltd filed Critical Alibaba China Co Ltd
Priority to CN201710719812.5A priority Critical patent/CN108268583B/zh
Publication of CN108268583A publication Critical patent/CN108268583A/zh
Application granted granted Critical
Publication of CN108268583B publication Critical patent/CN108268583B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种表情符号含义展示方法,其包括:获取用户的手势操作输入信息;根据所述手势操作输入信息获取信息交互界面中的表情符号信息;根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;向用户呈现所提取的表情符号含义信息。与现有技术相比,本发明通过获取和识别用户输入的操作手势,根据不同的手势对页面中的表情符号实施操作,返回相应的表情符号含义,简化了用户操作步骤,提高了信息获取的效率,减少了终端电能的消耗,提升了用户体验。

Description

表情符号含义展示的方法及设备
技术领域
本发明涉及计算机软件技术领域,更具体地,涉及一种表情符号含义展示的方法及设备。
背景技术
表情符号是各种网络评论、网络文章、即时聊天信息中用于表达情感心情的静态图、动态图等。表情符号的出现极大丰富了交流的内容,使得沟通不再是单调的文字叙述,特别是各种幽默图片的出现,使得交流沟通变得丰富多彩、充满乐趣。
表情符号虽然形象生动,但由于包括emoji表情、动态表情、自制表情在内的表情符号数量众多、应用场景广泛,且不同系统、不同来源的表情设计存在差别,因此在使用过程中可能会使得用户理解存在困难,甚至导致用户产生误解。比如,一张“笑”的emoj表情,A认为是苦笑,发给B,B以为是奸笑,造成对A的误解。表情符号不被用户理解造成信息获取效率低,用户需要实施发送信息、查询等多个操作步骤来获取表情符号含义,导致计算机系统资源占用和消耗,影响系统运行效率,同时消耗了终端有限的电量资源。
有鉴于此,有必要提供一种能够解决上述技术问题的表情符号含义展示方法及设备。
发明内容
本发明的目的在于:克服现有技术的不足,提供一种操作简便、能够有效展示表情符号含义的方法及设备。
为了实现上述目的,本发明提供了一种表情符号含义展示方法,其包括以下步骤:
获取用户的手势操作输入信息;
根据所述手势操作输入信息获取信息交互界面中的表情符号信息;
根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;
向用户呈现所提取的表情符号含义信息。
优选地,所述手势操作输入信息包括接触位置信息;所述根据手势操作输入信息获取信息交互界面中的表情符号信息,根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息,包括:
若接触位置信息指示手势位于信息交互界面中的某个表情符号显示的区域内,则获取该表情符号信息,并根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;
若接触位置信息指示手势位于信息交互界面中的单条短信显示区域内,则获取该单条短信显示区域内的所有表情符号信息,并根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;
若接触位置信息指示手势位于信息交互界面中的空白区域内,则获取信息交互界面中的所有表情符号信息,并根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。
优选地,所述手势操作输入信息包括若干参变量;所述根据手势操作输入信息获取信息交互界面中的表情符号信息,根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息,包括:
若参变量A的当前值X与第一量值X1、第二量值X2之间满足关系X1≤X<X2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第一映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;
若参变量A的当前值X与第二量值X2之间满足关系X≥X2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第二映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。
优选地,所述手势操作输入信息包括接触时间长度信息;所述根据手势操作输入信息获取信息交互界面中的表情符号信息,根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息,包括:
若接触时间长度信息指示手势按压时长T与第一时间T1、第二时间T2之间满足关系T1≤T<T2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第一映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;
若接触时间长度信息指示手势按压时长T与第二时间T2之间满足关系T≥T2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第二映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。
优选地,所述手势操作输入信息包括按压力度信息;所述根据手势操作输入信息获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息,包括:
若按压力度信息指示手势压力F与第一压力F1、第二压力F2之间满足关系F1≤F<F2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第一映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;
若按压力度信息指示手势压力F与第二压力F2之间满足关系F≥F2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第二映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。
优选地,所述手势操作包括与传感装置不接触的手势操作。
优选地,所述手势操作输入信息包括接触时间信息、接触位置信息、接触面积信息及按压力度信息中的至少一项。
优选地,所述获取当前信息交互界面中的表情符号信息,包括:获取当前信息交互界面中的一个或多个表情符号信息。
优选地,所述获取当前信息交互界面中的表情符号信息,包括:获取当前信息交互界面中的所有表情符号信息。
优选地,所述表情符号含义信息包括文字信息和/或富媒体信息。
优选地,所述根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息,包括:
根据预设的表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;
根据从远程服务器实时查询到的表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。
优选地,所述预设的表情符号信息与表情符号含义信息的映射关系,包括:基于用户输入预设的表情符号信息与表情符号含义信息的映射关系。
优选地,所述向用户呈现所提取的表情符号含义信息,包括:在信息交互界面上预设的位置显示所提取的表情符号含义信息。
优选地,所述向用户呈现所提取的表情符号含义信息之后,包括:在信息交互界面上表情符号上方显示对应该表情符号的类似表情符号。
优选地,所述向用户呈现所提取的表情符号含义信息之后,包括:在信息交互界面上轻触手势操作输入所对应的表情符号上方显示对应该表情符号的类似表情符号。
优选地,所述在信息交互界面上表情符号上方显示对应该表情符号的类似表情符号之后,包括:接收用户对所述类似表情符号的选择信息,并在信息交互界面上用用户所选择的类似表情符号替换原表情符号。
优选地,所述向用户呈现所提取的表情符号含义信息,包括:以发声的方式向用户呈现所提取的表情符号含义信息。
为了实现上述目的,本发明还提供了一种计算机设备,其特征在于:包括:
一个或多个处理器;
存储器;
一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个计算机程序配置用于:执行前述的表情符号含义展示方法。
与现有技术相比,本发明的技术效果包括但不限于:通过获取和识别用户输入的操作手势,根据不同的手势对页面中的表情符号实施操作,返回相应的表情符号含义,简化了用户操作步骤,提高了信息获取的效率,减少了终端电能的消耗。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明表情符号含义展示方法的流程图。
图2为本发明评论类型的信息交互界面的示意图。
图3为本发明即时通讯聊天类型的信息交互界面的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的说明书和权利要求书及上述附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如101、102等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。
本发明应用于能够接收手势操作输入信息的各种计算机设备,特别是能够在双向通讯链路上执行双向通讯的接收和发送功能的便携式终端、移动终端等设备。
请参阅图1,图1示出了本发明表情符号含义展示方法的步骤。
步骤101,获取用户的手势操作输入信息。
手势操作包括与传感装置不接触的手势操作,以及与传感装置接触的手势操作。手势操作输入信息指用户使用手势操作输入时传感器接收到的信息。
与传感装置不接触的手势操作亦可称为隔空手势操作或体感手势操作等,其输入信息包括通过电磁波信号接收装置、摄像头等传感设备获取的电磁波信号信息、图片图像视频信息等。
与传感装置接触的手势操作输入是在允许用户进行输入操作的区域进行的,该区域是指定的输入区,例如可以是触屏的部分或者全部,甚至可以是锁屏状态下的终端输入界面,当用户在锁屏状态下的界面看到消息预览时,可以直接在锁屏界面上输入手势,在不对终端解锁的情况下快速获取消息中的表情符号的含义。
用户在允许其进行输入操作的区域与传感装置接触进行手势操作输入,用户随时序进行输入,这些输入动作被硬件感应接收,并转换为传感器信号。终端根据检测到的用户输入动作,获得与输入动作相关的参量值的集合,即与传感装置接触的手势操作输入信息。这些信息可以是发生触屏操作的时刻值、与该时刻对应的触屏位置、触屏力度、触屏面积、与触屏接触的时间长度,以及根据触屏时刻值、触屏位置和触屏力度获得的触屏手指数、触屏轨迹等等,终端可以根据上述一种或多种信息,或者根据上述一种或多种信息经过处理后的结果,进行下一步的操作。
步骤102,根据手势操作输入信息获取信息交互界面中的表情符号信息。
请参阅图2和图3,信息交互界面可以为前述的允许用户进行输入操作的区域,也可以是该区域中某个具有特定功能的部分等,例如显示网络文章的区域、显示新闻评论等各种评论的区域、显示即时通讯往来聊天内容的区域、评论区域中单个注册用户评论的内容所在的区域(单条短信显示区域)、聊天内容区域中单个用户发送的单条消息所在的区域(单条短信显示区域)、显示即时通讯中编辑输入的区域、某一个或几个表情符号显示所在的区域等等。
对于不同的手势操作输入信息,可以对应不同的表情符号信息获取方式。
例如,根据接触位置信息获取表情符号信息,以下给出几个例子。
若接触位置信息指示手势位于某个表情符号显示的区域内,则获取该表情符号信息,这种情况允许用户对需要获取含义的单个表情符号单独操作,当用户仅对显示页面中的某个表情符号不理解时,可以点击或以其他可以将接触位置定位于某个表情符号上的手势操作输入方式,指示获取该表情符号的含义,这种情况系统处理所需资源少,速度快。
若接触位置信息指示手势位于单条短信显示区域内,则获取该单条短信显示区域内的所有表情符号信息,比如,用户浏览新闻评论时,对评论区域中某评论人发布的一条评论信息中的多个表情符号不理解,这时用户只需实施一次手势操作,并使手势操作的接触位置位于单条短信显示区域内,便可一次性获取这条评论信息中所有表情符号的含义,避免用户针对每个表情符号进行的多次操作,减少了终端电量的消耗。
若接触位置信息指示手势位于信息交互界面中的空白区域内,则获取信息交互界面中的所有表情符号信息。这里空白区域可以是信息交互界面中排除具有特定功能部分的其它部分。当用户阅读新闻文章,或其它带有表情符号的文章内容、评论内容、或即时通信的聊天对话内容,对这些内容中的多个位置相距较远、分布较分散的表情符号不理解时,只需要实施一次接触位置位于上述空白区域内的手势操作,即可一次性获取这些文章内容、评论内容、聊天对话内容中所有的表情符号的含义,这种方式简化了用户操作步骤,极大提高了信息获取的效率。
又如,根据接触时间长度信息或按压力度信息获取表情符号信息,并根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息,详细内容在下文中阐述。
需要说明的是,根据手势操作输入获取表情符号的方式可以预先设定(默认设定),也可以由用户自行定义(自定义),或者预先设定部分关系并允许用户添加新定义、更改预先的设定等。这样用户可以自行设置手势及手势所对应的操作,如预先定义的默认手势长按、重压对应获取单条短信显示区域中所有的表情符号,如由用户自定义字母、隔空手势等对应获取信息交互界面中所有表情符号等。
步骤103,根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。
表情符号含义可以表现为能够解释表情符号的含义的各种形式,简单的如对表情符号所作的文字说明,较详细的如图片、视频、音频等便于用户理解的富媒体介绍等,甚至也可以包括能够帮助用户加深理解的表情符号的历史版本和相似表情符号。
在获取了信息交互界面中的表情符号信息后,可以根据映射关系,例如查找关系表等,提取相应的表情符号含义,以下给出几个例子。
在一个例子中,获取表情符号,根据接触时间长度信息选择映射关系,并根据表情符号以及映射关系确定对应的表情符号含义。若接触时间长度信息指示手势按压时长T与第一时间T1、第二时间T2之间满足关系T1≤T<T2,则获取信息交互界面中的表情符号,并根据表情符号与表情符号含义的第一映射关系,提取与所获取的表情符号相匹配的表情符号含义;若接触时间长度信息指示手势按压时长T与第二时间T2之间满足关系T≥T2,则获取信息交互界面中的表情符号,并根据表情符号与表情符号含义的第二映射关系,提取与所获取的表情符号相匹配的表情符号含义。
例如,用户长按触屏,终端接收用户的手势操作输入信息,并根据其中的接触位置信息指示,以步骤102中所述的方式,获取单个表情符号、单条短信显示区域内的所有表情符号、或信息交互界面中的所有表情符号。若手势操作输入信息中的接触时间长度信息指示,按压时长在0.1秒至0.5秒之间,则调用第一映射关系,根据所获取的表情符号提取简化版的表情符号含义,简化版的表情符号含义即对表情符号的简单文字说明。若手势操作输入信息中的接触时间长度信息指示,按压时长大于0.5秒,则调用第二映射关系,根据所获取的表情符号提取详细版的表情符号含义,详细版的表情符号含义例如前述的图片、视频、音频或其他形式的富媒体信息。
上述的第一映射关系和第二映射关系,作为示例,可以为表1和表2的形式。
表1
表情符号 表情符号含义
表情符号1 奸笑
表情符号2 傻笑
表情符号3 不明觉厉
表情符号4 酒精考验
表情符号5 热成狗
表2
表情符号 表情符号含义
表情符号1 视频1
表情符号2 视频2
表情符号3 视频3
表情符号4 视频4
表情符号5 视频5
另外,表情符号与表情符号含义的映射关系也可以是表3和表4的形式,或者表1-4中的类型的组合,例如某表情符号对应的表情符号含义包括文字说明、历史版本和相似表情符号。
表3
Figure BDA0001384699360000091
Figure BDA0001384699360000101
表4
表情符号 表情符号含义
表情符号1 相似表情符号11、相似表情符号12……
表情符号2 相似表情符号21、相似表情符号22、相似表情符号23……
在另一个例子中,获取表情符号,根据按压力度信息选择映射关系,并根据表情符号以及映射关系确定对应的表情符号含义。若按压力度信息指示手势压力F与第一压力F1、第二压力F2之间满足关系F1≤F<F2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第一映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。若按压力度信息指示手势压力F与第二压力F2之间满足关系F≥F2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第二映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。
例如,用户按压触屏,终端接收用户的手势操作输入信息,并根据其中的按压力度信息指示,以步骤102中所述的方式,获取单个表情符号、单条短信显示区域内的所有表情符号、或信息交互界面中的所有表情符号。若手势操作输入信息中的按压力度信息指示,按压时长在1N至5N之间,则调用第一映射关系,根据所获取的表情符号提取简化版的表情符号含义,简化版的表情符号含义即对表情符号的简单文字说明。若手势操作输入信息中的按压力度信息指示,按压力度大于5N,则调用第二映射关系,根据所获取的表情符号提取详细版的表情符号含义,详细版的表情符号含义例如前述的图片、视频、音频或其他形式的富媒体信息。其中,第一映射关系、第二映射关系的形式可以类似于前述表1-表4的情形,这里不再赘述。
上面的两个例子介绍了手势操作输入信息为接触时间长度和按压力度时的情况,实际上,手势操作输入信息也可以为其它的参变量(如接触面积)。当某参变量A的当前值X与第一量值X1、第二量值X2之间满足关系X1≤X<X2时,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第一映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;当参变量A的当前值X与第二量值X2之间满足关系X≥X2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第二映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。
需要说明的是,表情符号与表情符号含义的映射关系可以预先设定(默认设定),也可以由用户自行定义(自定义),或者预先设定部分关系并允许用户添加新定义、更改预先的设定等。这样用户可以自行设置某个表情符号所对应的表情符号含义,以提供个性化的设置功能。如允许用户添加或修订表情注释,添加或修订的注释可以与系统默认注释以不同形式呈现,例如有特定标识等。
此外,当用户对若干个表情符号输入查询指令,且已有的映射关系中找不到匹配的表情符号含义时,可以通过向某个特定的远程服务器,或者向不特定的若干远程服务器实时查询的方式,获取相应的表情符号含义。这种方式能够减少映射关系在终端中的存储占用空间,同时保证了表情符号含义信息的即时性。
步骤104,向用户呈现所提取的表情符号含义信息。
表情符号含义显示的位置可以预先设定(默认设定),也可以由用户自行定义(自定义),或者预先设定部分关系并允许用户添加新定义、更改预先的设定等。这样用户可以自行设置某种手势或某种状态所对应的表情符号含义显示位置。
例如,某字母符号的手势对应获取信息交互界面中的所有表情符号,并将对应的所有表情符号含义集中显示于信息交互界面靠近下方边界处或某特定区域的下方边界处等。
又如,某轻触手势对应获取某个表情符号,并在该表情符号上方显示对应的若干个类似表情符号或历史版本表情符号,此时,接收用户对显示的若干类似表情符号或历史版本表情符号的选择信息,并用用户所选择的类似表情符号替换原来的表情符号,这种情况可以用于即时通讯过程中用户输入信息的场景,避免了用户点击并弹出表情符号列表进行浏览查找和选择的繁琐操作步骤。
易于理解的是,除以视觉显示的方式向用户呈现表情符号含义外,也可以采取例如听觉,以发声的方式呈现表情符号含义,这种方式可以用于针对年纪较大不方便阅读的用户,用户只需要输入手势,便可以听到终端对某个或某些表情符号含义的文字说明作发声朗读,或各种更加形象的拟声发生等。
本发明的计算机设备包括:一个或多个处理器;存储器;一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个计算机程序配置用于:执行本发明的表情符号含义展示方法。
结合以上对本发明的详细描述可以看出,与现有技术相比,本发明至少具有以下有益的技术效果:
第一,通过获取和识别用户输入的操作手势,根据不同的手势对页面中的表情符号实施操作,返回相应的表情符号含义,简化了用户操作步骤,提高了信息获取的效率,减少了终端电能的消耗。
第二,通过一次手势输入操作获取显示区域内的所有表情符号的含义,进一步减少了操作步骤,避免多步骤操作造成的系统资源占用和消耗,提升了系统运行的效率。
第三,将特定手势与获取表情符号的方式、返回的表情符号含义内容类型相匹配,增加了信息获取的灵活性,拓展了通过手势获取表情符号含义的使用场景,显著提升了用户体验。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁盘或光盘等。
以上对本发明的方法和装置进行了详细介绍,对于本领域的一般技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (17)

1.一种表情符号含义展示方法,其特征在于:所述方法包括以下步骤:
获取用户的手势操作输入信息,其中,手势操作包括与传感装置不接触的手势操作,以及与传感装置接触的手势操作,所述手势操作输入信息包括若干参变量;
根据所述手势操作输入信息获取信息交互界面中的表情符号信息;
根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息,其中,所述表情符号含义信息由参变量A的当前值与第一量值X1、第二量值X2,或者与第二量值X2之间的关系确定;
向用户呈现所提取的表情符号含义信息。
2.如权利要求1所述的表情符号含义展示方法,其特征在于:所述手势操作输入信息包括接触位置信息;
所述根据手势操作输入信息获取信息交互界面中的表情符号信息,根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息,包括:
若接触位置信息指示手势位于信息交互界面中的某个表情符号显示的区域内,则获取该表情符号信息,并根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;
若接触位置信息指示手势位于信息交互界面中的单条短信显示区域内,则获取该单条短信显示区域内的所有表情符号信息,并根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;
若接触位置信息指示手势位于信息交互界面中的空白区域内,则获取信息交互界面中的所有表情符号信息,并根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。
3.如权利要求1所述的表情符号含义展示方法,其特征在于:所述手势操作输入信息包括若干参变量;
所述根据手势操作输入信息获取信息交互界面中的表情符号信息,根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息,包括:
若参变量A的当前值X与第一量值X1、第二量值X2之间满足关系X1≤X<X2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第一映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;
若参变量A的当前值X与第二量值X2之间满足关系X≥X2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第二映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。
4.如权利要求1所述的表情符号含义展示方法,其特征在于:所述手势操作输入信息包括接触时间长度信息;
所述根据手势操作输入信息获取信息交互界面中的表情符号信息,根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息,包括;
若接触时间长度信息指示手势按压时长T与第一时间T1、第二时间T2之间满足关系T1≤T<T2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第一映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;
若接触时间长度信息指示手势按压时长T与第二时间T2之间满足关系T≥T2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第二映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。
5.如权利要求1所述的表情符号含义展示方法,其特征在于:所述手势操作输入信息包括按压力度信息;
所述根据手势操作输入信息获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息,包括:
若按压力度信息指示手势压力F与第一压力F1、第二压力F2之间满足关系F1≤F<F2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第一映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;
若按压力度信息指示手势压力F与第二压力F2之间满足关系F≥F2,则获取信息交互界面中的表情符号信息,并根据表情符号信息与表情符号含义信息的第二映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。
6.如权利要求1所述的表情符号含义展示方法,其特征在于:所述手势操作包括与传感装置不接触的手势操作。
7.如权利要求1所述的表情符号含义展示方法,其特征在于:所述手势操作输入信息包括接触时间信息、接触位置信息、接触面积信息及按压力度信息中的至少一项。
8.如权利要求1所述的表情符号含义展示方法,其特征在于:所述获取信息交互界面中的表情符号信息,包括:获取当前信息交互界面中的一个或多个表情符号信息。
9.如权利要求1所述的表情符号含义展示方法,其特征在于:所述获取信息交互界面中的表情符号信息,包括:获取当前信息交互界面中的所有表情符号信息。
10.如权利要求1所述的表情符号含义展示方法,其特征在于:所述表情符号含义信息包括文字信息和/或富媒体信息。
11.如权利要求1所述的表情符号含义展示方法,其特征在于:所述根据表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息,包括:
根据预设的表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息;
根据从远程服务器实时查询到的表情符号信息与表情符号含义信息的映射关系,提取与所获取的表情符号信息相匹配的表情符号含义信息。
12.如权利要求11所述的表情符号含义展示方法,其特征在于:所述预设的表情符号信息与表情符号含义信息的映射关系,包括:基于用户输入预设的表情符号信息与表情符号含义信息的映射关系。
13.如权利要求1所述的表情符号含义展示方法,其特征在于:所述向用户呈现所提取的表情符号含义信息,包括:在信息交互界面上预设的位置显示所提取的表情符号含义信息。
14.如权利要求13所述的表情符号含义展示方法,其特征在于:所述向用户呈现所提取的表情符号含义信息之后,包括:在信息交互界面上表情符号上方显示对应该表情符号的类似表情符号。
15.如权利要求14所述的表情符号含义展示方法,其特征在于:所述在信息交互界面上表情符号上方显示对应该表情符号的类似表情符号之后,包括:接收用户对所述类似表情符号的选择信息,并在信息交互界面上用用户所选择的类似表情符号替换原表情符号。
16.如权利要求1所述的表情符号含义展示方法,其特征在于:所述向用户呈现所提取的表情符号含义信息,包括:以发声的方式向用户呈现所提取的表情符号含义信息。
17.一种计算机设备,其特征在于:包括:
一个或多个处理器;
存储器;
一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个计算机程序配置用于:执行权利要求1至16中任一项所述的表情符号含义展示方法。
CN201710719812.5A 2017-08-21 2017-08-21 表情符号含义展示的方法及设备 Active CN108268583B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710719812.5A CN108268583B (zh) 2017-08-21 2017-08-21 表情符号含义展示的方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710719812.5A CN108268583B (zh) 2017-08-21 2017-08-21 表情符号含义展示的方法及设备

Publications (2)

Publication Number Publication Date
CN108268583A CN108268583A (zh) 2018-07-10
CN108268583B true CN108268583B (zh) 2022-06-14

Family

ID=62770927

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710719812.5A Active CN108268583B (zh) 2017-08-21 2017-08-21 表情符号含义展示的方法及设备

Country Status (1)

Country Link
CN (1) CN108268583B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109412935B (zh) * 2018-10-12 2021-12-07 北京达佳互联信息技术有限公司 即时通信的发送方法和接收方法、发送装置和接收装置
CN110765300B (zh) * 2019-10-14 2022-02-22 四川长虹电器股份有限公司 一种基于emoji的语义解析方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102103617A (zh) * 2009-12-22 2011-06-22 华为终端有限公司 获取表情含义的方法和装置
CN102467536A (zh) * 2010-11-12 2012-05-23 深圳市快易典电子技术有限公司 一种字符处理装置及其处理方法
CN102750555A (zh) * 2012-06-28 2012-10-24 北京理工大学 一种应用于即时通讯工具的表情机器人
CN106649128A (zh) * 2016-12-30 2017-05-10 上海二三四五网络科技有限公司 一种自动控制终端运行的方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2014147672A1 (ja) * 2013-03-22 2017-02-16 富士通株式会社 圧縮装置、圧縮方法、辞書生成装置、辞書生成方法、伸長装置、伸長方法、伸長プログラムおよび情報処理システム
US9395911B2 (en) * 2014-03-28 2016-07-19 Lenovo (Singapore) Pte. Ltd. Computer input using hand drawn symbols
US10353542B2 (en) * 2015-04-02 2019-07-16 Facebook, Inc. Techniques for context sensitive illustrated graphical user interface elements
US10546015B2 (en) * 2015-12-01 2020-01-28 Facebook, Inc. Determining and utilizing contextual meaning of digital standardized image characters

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102103617A (zh) * 2009-12-22 2011-06-22 华为终端有限公司 获取表情含义的方法和装置
CN102467536A (zh) * 2010-11-12 2012-05-23 深圳市快易典电子技术有限公司 一种字符处理装置及其处理方法
CN102750555A (zh) * 2012-06-28 2012-10-24 北京理工大学 一种应用于即时通讯工具的表情机器人
CN106649128A (zh) * 2016-12-30 2017-05-10 上海二三四五网络科技有限公司 一种自动控制终端运行的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
网络表情符号浅析;吴阳;《决策与信息》;20160827;全文 *

Also Published As

Publication number Publication date
CN108268583A (zh) 2018-07-10

Similar Documents

Publication Publication Date Title
US10984226B2 (en) Method and apparatus for inputting emoticon
CN104753766A (zh) 表情发送方法及装置
CN104410911B (zh) 基于视频情感标注辅助识别面部表情的方法
CN110069738B (zh) 信息处理方法、装置、终端设备及服务器
CN111158924B (zh) 内容分享方法、装置、电子设备及可读存储介质
CN101727472A (zh) 图像识别系统以及图像识别方法
CN107102786B (zh) 一种信息处理方法及客户端
CN111565143B (zh) 即时通信方法、设备及计算机可读存储介质
KR20140035160A (ko) 모바일 메시지 애플리케이션의 이미지 이모티콘 검색 방법
CN112579935B (zh) 页面显示方法、装置及设备
CN103294748A (zh) 摘录并编辑互联网内容的方法
US20140372541A1 (en) System and method for action-based input text messaging communication
CN110324676A (zh) 数据处理方法、媒体内容投放方法、装置及存储介质
KR101567555B1 (ko) 이미지가 이용되는 소셜 네트워크 서비스 시스템 및 방법
CN107786432A (zh) 信息展示方法、装置、计算机装置及计算可读存储介质
CN112947807A (zh) 显示方法、装置及电子设备
CN108268583B (zh) 表情符号含义展示的方法及设备
CN106126033A (zh) 一种信息发送方法及装置
CN112269504B (zh) 信息展示方法、装置及电子设备
CN113961828A (zh) 消息展示方法及其装置
CN109525725B (zh) 一种基于情绪状态的信息处理方法和装置
CN111010335A (zh) 聊天表情发送方法、装置、电子设备及介质
TW200913579A (en) Instant message system having personification object and method thereof
KR20180044381A (ko) 압력을 사용하여 대상을 필터링하기 위한 방법 및 장치
CN112487164A (zh) 一种人工智能交互方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20200423

Address after: 310052 room 508, floor 5, building 4, No. 699, Wangshang Road, Changhe street, Binjiang District, Hangzhou City, Zhejiang Province

Applicant after: Alibaba (China) Co.,Ltd.

Address before: 510627 Guangdong city of Guangzhou province Whampoa Tianhe District Road No. 163 Xiping Yun Lu Yun Ping B radio square 14 storey tower

Applicant before: GUANGZHOU UCWEB COMPUTER TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right
CB02 Change of applicant information

Address after: Room 554, 5 / F, building 3, 969 Wenyi West Road, Wuchang Street, Yuhang District, Hangzhou City, Zhejiang Province

Applicant after: Alibaba (China) Co.,Ltd.

Address before: 310052 room 508, 5th floor, building 4, No. 699 Wangshang Road, Changhe street, Binjiang District, Hangzhou City, Zhejiang Province

Applicant before: Alibaba (China) Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant