CN104933113B - 一种基于语义理解的表情输入方法和装置 - Google Patents

一种基于语义理解的表情输入方法和装置 Download PDF

Info

Publication number
CN104933113B
CN104933113B CN201510303341.0A CN201510303341A CN104933113B CN 104933113 B CN104933113 B CN 104933113B CN 201510303341 A CN201510303341 A CN 201510303341A CN 104933113 B CN104933113 B CN 104933113B
Authority
CN
China
Prior art keywords
expression
text
corresponding
resource data
content
Prior art date
Application number
CN201510303341.0A
Other languages
English (en)
Other versions
CN104933113A (zh
Inventor
顾思宇
刘华生
张阔
Original Assignee
北京搜狗科技发展有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to CN201410251399.0A priority Critical patent/CN104063427A/zh
Priority to CN2014102513990 priority
Application filed by 北京搜狗科技发展有限公司 filed Critical 北京搜狗科技发展有限公司
Priority to CN201510303341.0A priority patent/CN104933113B/zh
Publication of CN104933113A publication Critical patent/CN104933113A/zh
Application granted granted Critical
Publication of CN104933113B publication Critical patent/CN104933113B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/247Thesauruses; Synonyms
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/53Processing of non-Latin text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00Arrangements for user-to-user messaging in packet-switching networks, e.g. e-mail or instant messages
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Real-time or near real-time messaging, e.g. instant messaging [IM] interacting with other applications or services

Abstract

本发明实施例提供了一种基于语义理解的表情输入方法和装置,其中的方法具体包括:获取输入序列对应的文本内容;对所述文本内容进行分词,并基于分词的结果,提取文本特征;以所述文本特征构建输入向量,利用情感分类模型进行分类,以确定所述文本内容所属的情感标签;获取表情资源数据中与所述情感标签对应的第一表情;将获取的所述第一表情排序后,作为候选项在客户端展示。本发明方便用户输入表情,提高了表情输入效率,并且为用户提供了丰富、广范围的表情资源。

Description

一种基于语义理解的表情输入方法和装置

本发明实施例要求在2014年6月6日提交中国专利局、申请号为201410251399.0、发明名称为“一种基于语义理解的表情输入方法和装置”的中国专利申请的优先权,其全部内容通过引用结合在本发明实施例中。

技术领域

本发明涉及输入法技术领域,具体涉及一种基于语义理解的表情输入方法和装置。

背景技术

输入法是为将各种符号输入计算机或其他设备(如手机)而采用的编码方法。常见的输入法包括搜狗输入法,微软输入法等等。

传统的表情输入大致有几种情况:其一是平台本身具有表情输入模块,比如qq等聊天工具嵌入的表情输入模块,其自带默认的输入表情,也可以安装第三方表情包,用户也可以自定义图片资源作为表情,当用户输入表情时,点击表情的输入按钮,选择表情进行输入;但是该种情况与输入法完全脱离,用户在输入过程中需要单独点击表情输入按钮,逐页翻找并点击自己需要和喜欢的表情来完成输入过程;

其二,是输入法自带简单的符号表情,当用户输入到相应字符时,比如(“哈哈”对应的符号表情“O(∩_∩)O~”),符号表情以候选项的形式供用户选择。但这种情况的候选表情简单,无法给用户提供丰富多彩的表情输入。

其三,是输入法提供加载的第三方表情包,提供用户表情输入的入口,当用户有需求输入表情时,需要点击进入该应用程序表情输入的入口,然后在大量的表情资源中,逐页翻找并点击自己需要或喜欢的表情完成输入过程。

以按钮接口的形式嵌入在应用程序中,提供给用户进行表情输入,这种方法存在多种问题:

1.用户的聊天行为属于即时通信,时效性极强。因此,表情输入的时效性非常重要。如果用户喜欢并安装的各种主题表情库有多个(包括阿狸、嘻哈猴、轻松熊、冷兔等等),每个表情库又包含上百种表情符号或图片(如微笑、哈哈大笑、猥琐的笑、抹眼泪、嚎啕大哭等等)。那么,有限的时间内,在众多表情库中逐一翻找到合适的表情所花费的时间成本,会成为用户有效使用各种表情增强沟通效果的瓶颈。

2.因为考虑到用户使用表情的操作成本,表情包制作方也会酌情精简表情内容,这也从某种程度上制约了聊天表情的发展和广泛使用。

3.大多数聊天工具只会提供默认表情。默认表情相对比较单调,更多丰富的多元化的主题聊天表情资源可以有效提高与朋友聊天的好感度,但是为了使用这些表情,用户需要经过很多网上操作步骤,从各种渠道获取表情包信息并将表情包下载到本地,有时还需要进行手工加载才可以正常使用表情包。对于操作生疏或者没有足够耐心的用户,在网络资源中成功获取并安装合适的表情包所花费的时间成本,可能会导致他们选择放弃。

4.对于下载好的表情包,如果用户切换聊天平台等输入场景,表情包需要重新下载或更新,用户的常用表情收藏信息也同样面临移植的问题。

输入的候选表情内容仅限于第三方制作好的表情包。若非特意整理,很多明星人物、政治人物的夸张表情照片、GIF等多媒体资源并不能够及时的作为候选表情,输入的内容过于单一,而且无法快速精准契合用户当前的输入,降低了用户的输入效率。

发明内容

鉴于上述问题,本发明提供一种克服上述问题或者至少部分地解决上述问题的基于语义理解的表情输入方法和装置。

依据本发明的一个方面,提供了一种基于语义理解的表情输入方法,包括:

获取输入序列对应的文本内容;

对所述文本内容进行分词,并基于分词的结果,提取文本特征;

以所述文本特征构建输入向量,利用情感分类模型进行分类,以确定所述文本内容所属的情感标签;

获取表情资源数据中与所述情感标签对应的第一表情;

将获取的所述第一表情排序后,作为候选项在客户端展示。

根据本发明的另一方面,提供了一种基于语义理解的表情输入装置,包括:

内容获取模块,配置为获取输入序列对应的文本内容;

分词特征提取模块,配置为对所述文本内容进行分词,并基于分词的结果,提取文本特征;

情感标签确定模块,配置为以所述文本特征构建输入向量,利用情感分类模型进行分类,以确定所述文本内容所属的情感标签;

表情获取模块,配置为获取表情资源数据中与所述情感标签对应的第一表情;及

展示模块,配置为将获取的所述第一表情排序后,作为候选项在客户端展示。

相对现有技术,本发明实施例具有如下优点:

本发明实施例将各种来源的表情资源数据,利用语聊资源数据,比如聊天日志(如匿名获取qq、微信等聊天工具有表情输入的聊天日志)、社区评论(如京东、大众点评等有表情输入的评论内容)、社交内容(如qq空间、新浪微博、人人网等有表情输入的状态或评论内容),对所有获取的表情资源数据进行分析,以构建情感标签与各主题中的表情的对应关系。然后即可针对由用户输入序列得到的文本内容,进行语义理解,得到对应的文本特征,然后基于预先构建的情感分类模型对所述文本特征进行分类,以确定用户输入对应的情感标签,进而根据情感标签和第一表情的对应关系,从表情资源数据中提取对应的第一表情作为候选项以供用户选择。

上述过程中,

其一,将表情作为输入法的词库,可直接对由用户的输入序列得到的文本内容进行语义理解,根据语义理解得到的情感标签与表情资源数据中的第一表情的对应关系,获取表情资源数据中的第一表情作为候选项在输入法中进行展示,直接提供给用户选择;

其二,上述过程能够精确匹配用户的表情输入需求,因此能够提高表情的使用效率,从而能够降低用户在表情输入过程中翻找待输入的表情所花费的时间成本;

其三,该种方式不用考虑表情包的制作成本和内容,可以任意发挥制作方的创造力,降低对聊天表情的发展和广泛使用的制约;

其四,由于本发明实施例将各主题的表情进行集中分类处理,用户不用到处下载各主题的表情包,因此能够降低用户寻找表情包的时间成本;

其五,由于本发明实施例的第一表情是输入法的候选项,用户在切换聊天平台等输入场景时,不需要重新下载或更新表情包,也避免用户的常用表情收藏信息的移植问题;

其六,本发明实施例表情资源数据中的第一表情范围广,覆盖面积大,可以给用户提供更多、更丰富的输入语料。

附图说明

通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:

图1示出了根据本发明一个实施例的一种基于语义理解的表情输入方法的流程示意图;

图2示出了根据本发明一个实施例的构建情感标签与各主题中的表情之间对应关系的流程示意图;

图3示出了根据本发明一个实施例的语聊资源的示例;

图4示出了根据本发明一个实施例的构建情感分类模型的流程示意图;

图5示出了根据本发明一个实施例的构建情感分类模型的流程示意图;

图6示出了根据本发明一个实施例的表情展示示例;

图7示出了根据本发明一个实施例的一种基于语义理解的表情输入方法的流程示意图;

图8示出了根据本发明一个实施例的一种基于语义理解的表情输入方法的流程示意图;

图9示出了根据本发明一个实施例的一种基于语义理解的表情输入装置的结构示意图;

图10示出了根据本发明一个实施例的一种基于语义理解的表情输入装置的结构示意图;及

图11示出了根据本发明一个实施例的一种基于语义理解的表情输入系统的结构示意图。

具体实施方式

为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。

本发明将收集的各种来源的表情资源数据,比如互联网中各主题的表情包资源(如qq的阿狸、嘻哈猴、郭德纲真人夸张表情照片集等的表情包)、第三方合作的表情包资源(输入法直接与卡通表情生产方进行合作并搭建获取流程)、用户产生的自定义的表情内容(输入法直接开放接口是用户可以添加自定义表情并共享)等表情资源数据,利用语聊资源数据,比如聊天日志(如匿名获取qq、微信等聊天工具有表情输入的聊天日志)、社区评论(如京东、大众点评等有表情输入的评论内容)、社交内容(如qq空间、新浪微博、人人网等有表情输入的状态或评论内容),对所有获取的表情资源数据进行分析,确定表情类别的情感标签与表情资源数据中的第一表情之间的对应关系,并利用情感标签与表情资源数据中的第一表情之间的对应关系构建情感分类模型,然后即可在用户使用输入法的过程中,使用情感分类模型对用户输入的文本内容进行语义识别,然后基于识别结果直接提供表情候选项给客户端,给用户提供更方便、更快捷、更丰富的表情输入。

实施例一

首先,本发明实施例中,构建用于语义分析的情感分类模型,以及情感标签与表情的对应关系;其中,上述情感标签可用于表示表情所能表达的语义情感,其包括但不限于快乐情感标签、称赞情感标签等;上述情感分类模型具有多种情感标签的分类能力,假设情感标签的种类为N,则情感分类模型也可以输出N种分类结果。

即步骤S100,根据语聊资源数据和各主题的表情资源数据构建表情资源数据中包括的第一表情与情感标签之间的对应关系。

在本发明实施例中,情感标签与表情资源数据中的第一表情之间的对应关系可以通过收集语聊资源数据和表情资源数据,并利用语聊资源数据对表情资源数据进行分析得到。在本发明实施例中,可在线或线下构建情感标签与表情资源数据中的第一表情之间的对应关系。在本发明实施例中各种来源的表情资源数据具体可以包括各种来源下的各种主题的表情资源,比如阿狸、嘻哈猴、郭德纲等真人夸张表情照片集等主题的表情包。

由上所述,该情感标签可用于表示表情所能表达的语义情感。本发明实施例中,构建表情资源数据中包括的第一表情与情感标签之间的对应关系,即为根据表情资源数据中包括的每个第一表情所表达的语义情感,确定该第一表情对应的情感标签,并建立该第一表情与对应的情感标签之间的对应关系。

在本发明实施例中,可以从不同的途径获取表情资源数据,比如网络中的各种主题的表情资源(包括自定义主题的表情资源等)。然后利用语聊资源,也即利用海量用户在实际的评论、聊天过程中输入的文本内容与其输入的第二表情的对应关系,通过表情匹配,从而得到该文本内容与上述第一表情的对应关系;从所述文本内容中挖掘出相应的第一关键词,结合该第一关键词,对表情资源数据中的第一表情进行分类,确定该第一表情对应的情感标签,构建该情感标签与该第一表情的对应关系。

由上所述,用户在发表社区评论或和好友聊天时,经常输入带有表情的语聊信息,例如“今天玩的很开心:)”。其中,“今天玩的很开心”为当前输入的文本内容,“:)”为当前输入的文本内容对应的第二表情。本发明实施例中,可以通过上述用户输入的文本内容(今天玩的很开心)和该文本内容对应的第二表情(:)),确定该第二表情“:)”对应的相关文本内容为“开心”。同时,根据表情资源数据可知,该第二表情“:)”属于某个主题的表情包,则可以确定该主题的表情包中对应的第一表情“:)”对应的相关文本内容为“开心”。

优选的,参照图2,其示出了本发明的构建情感标签与各主题中的表情之间对应关系的方法流程,该方法可以包括步骤S101至步骤S102。

如图2所示,上述步骤S100可以包括:

步骤S101,获取语聊资源数据和各主题的表情资源数据;其中,所述语聊资源数据具体可以包括第二表情及其对应的文本内容。

本发明实施例可以从多个方面获取语聊资源数据,本发明所述的语聊资源数据可以是指用户在聊天、评论等过程中产生的、带有表情的数据。

例如,用户可能在输入文字时输入与文字相关的表情,比如:聊天日志(如获取qq、微信等聊天工具中带有表情输入的聊天日志,当然在获取时可将用户名等私人信息进行匿名加密处理),社区评论(如京东、大众点评等有表情输入的评论内容),社交内容(如qq空间、新浪微博、人人网等有表情输入的状态或评论内容)。那么本发明实施例则可通过获取各种来源的语聊资源数据,以收集里面的文本内容和与该文本内容相关的第二表情,以备后续分析。

本发明实施例也可从多个方面获取表情资源数据,比如:可以从互联网中获取各主题的表情包资源(如qq的阿狸、嘻哈猴、郭德纲真人夸张表情照片集等主题表情包,用户可以通过自定义表情接口添加的自定义表情包,该自定义表情包可以理解为自定义主题表情包);又如,可以与第三方合作,直接获取第三方合作的主题表情包资源(输入法直接与卡通表情生产方进行合作并搭建获取流程)等。

优选的,在获取所述表情资源数据之后,所述方法还可以包括:将所述表情资源数据中的表情转换为统一系统平台下的标准格式的表情。由于获取的原始表情资源数据与各个输入环境之间存在兼容性的问题,因此,需要对各种渠道来源的表情制定标准,通过转换和转码,实现规格和编码在同一系统平台的统一(即移动软件平台、PC软件平台均设立不同的标准)。

步骤S102,结合所述语聊资源数据包括的第二表情和第二表情对应的文本内容,对所述表情资源数据中的第一表情进行分类,并基于第一表情的分类结果,构建情感标签与第一表情之间的对应关系。

在本发明实施例中,从各种来源获取的各种主题的表情资源中包括的表情可以理解为本发明实施例所述的第一表情;而从各种来源获取的用户输入的语聊资源中包括的表情可以理解为本发明实施例所述的第二表情。

本发明实施例中,可以对各主题的表情资源数据中包括的第一表情进行分类,以确定每个第一表情所属的表情类别,从而可以将属于同一表情类别的不同主题的第一表情放入同一个表情类别中。比如“:)”是属于字符画主题的表情资源,而笑脸是属于图形主题的表情资源,但是在分类时,可以将“:)”和笑脸确定为同一表情类别。需要说明的是,所述确定第一表情所属的表情类别的具体方法会在下述子步骤A13中具体介绍。

另外,在本发明实施例中,可以预先设置表情类别,比如微笑,大笑,冷笑等表情类别,每个表情类别下会预先设置对应的第二关键词;需要说明的是,由于人的情感表现是存在强弱区别的,因此每个表情类别可以包括一个或多个第二关键词。例如,表情类别为“开心”,该表情类别可以包括多个第二关键词,如微笑、大笑、哈哈大笑等。

本发明实施例中,可以依据表情资源数据中的第一表情所属的表情类别,结合语聊资源数据中与之匹配的第二表情的文本内容、以及该第一表情所属表情类别包括的第二关键词,确定该第一表情对应的情感标签。优选的,上述步骤S102所述的结合所述语聊资源数据包括的第二表情和第二表情对应的文本内容,对所述各主题的表情资源数据中的每个第一表情分别进行分类,可以包括如下子步骤S1021至子步骤S1022:

子步骤S1021,根据所述语聊资源数据包括的第二表情和该第二表情对应的文本内容,挖掘所述表情资源数据中每个第一表情对应的第一关键词。

在本发明实施例中,从各种来源获取的各种主题的表情资源中包括的表情均可以理解为本发明所述的第一表情。因此,语聊资源数据中的第二表情基本上都可以被包含于表情资源数据中的第一表情中。那么本发明实施例中,可通过表情匹配的方式,确定表情资源数据中包括的、与语聊资源数据中的第二表情相匹配的第一表情。

同时,本发明实施例中,能够获取语聊资源数据包括的第二表情和该第二表情对应的原始文本内容,从该文本内容中提取出与该第二表情相关的文本内容;通过表情匹配,从表情资源数据中查找到与该第二表情匹配的第一表情;从而建立该第一表情和与之匹配的第二表情相关的文本内容之间的对应关系,并对该相关的文本内容进行挖掘,得到第一关键词,即为与所述第一表情对应的第一关键词。

优选的,本子步骤S1021可以包括下述子步骤A11至子步骤A12:

子步骤A11,使用符号匹配规则和图片内容判断规则从所述语聊资源数据中提取所述第二表情和所述第二表情相关的文本内容;

对于收集到的各种来源的语聊资源数据,其中可能存在大量与表情无关的文本内容,那么本发明实施例可通过符号匹配规则和图片内容判断规则从所述语聊资源数据包括的第二表情和文本内容中,提取出第二表情和与所述第二表情相关的文本内容,即为将原文本内容中与第二表情无关的内容删除,仅保留与该第二表情相关的文本内容。

比如对于符号表情“:)”,则可通过符号匹配规则获取其前或者其后出现的文本内容(比如聊天内容,或者评论内容等),将其前或其后出现的一定字符长度的文本内容作为与该符号表情相关的文本内容。例如,“今天玩的很开心:)”,获取得到其前出现的文本内容为“很开心”,则可以将“很开心”作为符号表情“:)”相关的文本内容。

对于图片,则可通过图片内容判断规则去判断图片是否为表情图片,如果是,则提取该图片之前和/或者之后的文本内容。其中,图片内容判断规则采用通用的图片内容判断方法即可,本发明实施例对其不加以限制,比如对各种类别的表情图片,收集大量样本进行像素矩阵训练(训练方法可以采用任意一种,本发明实施例不对其加以限制),获得表情图片识别模型,那么对于语聊资源数据中的图片表情,则可获取其像素矩阵,然后输入表情图片识别模型进行识别。

子步骤A12,将表情资源数据中的第一表情与从所述语聊资源数据中提取的第二表情进行匹配,匹配成功后,关联第一表情和与该第一表情匹配的第二表情相关的文本内容,并从与该第一表情匹配的第二表情相关的文本内容中挖掘出与该第一表情对应的第一关键词。

具体的,本步骤可以将所述表情资源数据中的第一表情与从所述语聊资源数据中提取的第二表情进行匹配。即在本发明实施例中,在提取了第二表情及与第二表情相关的文本内容后,即可将第二表情和各主题的表情资源数据中的第一表情进行匹配,该匹配可以是一一匹配,也可以是模糊匹配(即对相似度高于阈值的图片也进行匹配)。

然后,对于匹配成功的第一表情,则建立该第一表情和与之匹配的第二表情相关的文本内容之间的关联,并从所述文本内容中挖掘出第一关键词。

例如,子步骤A11中从语聊资源数据中提取得到第二表情“:)”相关的文本内容为“很开心”。且通过匹配,确定表情资源数据中某个表情包中的第一表情为“:)”和子步骤A11中提取得到的第二表情“:)”相匹配,则建立第一表情“:)”与文本内容“很开心”之间的关联,并从该文本内容“很开心”中中挖掘出第一关键词,例如可以为“开心”,作为与该第一表情“:)”对应的第一关键词。

子步骤S1022,根据步骤S1021中挖掘得到的所述第一表情对应的第一关键词和所述表情资源数据中每个表情类别包括的第二关键词,获取该第一表情所属的表情类别。

在本发明实施例中,可以根据各主题表情包中的各表情的标签预置各种上述表情类别。获取上述第二关键词的过程可以为:通过人工标注的方法,针对上述表情类别(如快乐类别)确定所有的标志性的、细分的标签(包括微笑、哈哈大笑、猥琐的笑等等),并将该标签作为上述表情类别对应的第二关键词。然后,结合第一表情对应的第一关键词和预置的每个表情类别包括的第二关键词,利用预测算法确定第一表情所属的表情类别,并确定所述第一表情对应的情感标签。

优选的,所述子步骤S1022可以包括下述子步骤A13和子步骤A14:

子步骤A13,针对子步骤A12中匹配成功的第一表情,基于表情资源数据中每个表情类别包括的第二关键词,结合该第一表情对应的第一关键词进行情感分类预测,确定所述第一表情所属的表情类别。

在本发明实施例中,可以使用通用的情感分析分类的方法,基于第一表情对应的第一关键词进行预测,以对第一表情进行分类,从而确定每个第一表情所属的表情类别。

情感分析分类方法的原理大致为:利用每个表情类别的标注样本(例如可以为第二表情,还可以是搜集的其它表情样本)训练分类器,比如利用朴素贝叶斯方法(NaiveBayes,NB)构建分类器,然后针对每个分类对象的分类特征(在本发明实施例中,第一表情为分类对象,第一表情对应的第一关键词即为分类特征)利用所述分类器进行识别。在本发明实施例中,为每个表情类别分别设置一个情感分值,比如大笑为+5,微笑+4,猥琐的笑+3等,分别与分类器的分类结果对应。

子步骤A14,针对步骤A12中未匹配成功的第一表情,所述第一表情对应的第一关键词为空,则基于表情资源数据中每个表情类别包括的第二关键词,确定所述第一表情所属的表情类别。

而对于表情资源数据中的未匹配成功的第一表情,即没有文本内容以挖掘第一关键词的第一表情,本发明实施例可以通过人工标注的方法为未匹配成功的第一表情确定所述的表情类别。

在分类完毕后,根据第一表情所属的表情类别包括的第二关键词、以及挖掘得到的与第一表情对应的第一关键词,确定该第一表情的情感标签。

优选的,步骤S102中所述基于第一表情的分类结果,结合所述语聊资源数据包括的第二表情和第二表情对应的文本内容,构建情感标签与每个主题的第一表情之间的对应关系可以包括下述子步骤S1023:

子步骤S1023,获取第一表情所属表情类别包括的第二关键词,将第一表情对应的第一关键词和第二关键词合并为所述第一表情的情感标签,从而获得情感标签与该第一表情的对应关系。

在本发明实施例中,可将分析得到的每个第一表情对应的第一关键词和该第一表情所述表情类别包括的第二关键词合并为该第一表情的情感标签,那么即可获得情感标签与每个主题中的第一表情的对应关系。

在其他实施例中,在确定了第一表情的情感标签后,所述方法还可以包括步骤S103:

步骤S103,根据情感标签的近义词和所述近义词分别在表情资源数据中对应的表情,构建所述情感标签与各主题中的第一表情之间的对应关系。

在具体实现中,可以确定所述情感标签的近义词;获取所述近义词在所述表情资源数据中对应的表情;结合所述近义词对应的表情,构建所述情感标签与所述第一表情之间的对应关系。例如,可以通过预置的词典查找所述情感标签的近义词,并将各近义词分别在各主题的表情包中进行检索,获取各近义词分别对应的表情,从而得到所述情感标签与各主题的表情的对应关系。

比如,可以预先针对每一个表情类别选定一个基础的情感标签,然后针对每个表情类别的基础的情感标签,通过查询预置的词典,获得该基础情感标签的近义词,然后基于每个近义词获取各主题的表情资源中对应的表情,那么即可以该基础的情感标签对应到不同近义词的表情。

当然,本发明还可以人工配置情感标签和第一表情之间的对应关系,即选择情感标签,然后人工将各主题中的相应表情与该情感标签对应。

优选的,在将第一表情对应的第一关键词和第二关键词合并为所述第一表情的情感标签之前,所述方法还可以包括:根据语聊资源数据中各第一关键词的使用频率,对第一关键词进行筛选,将筛选后的使用频率较高的第一关键词和第二关键词合并为该第一表情的情感标签。

在实际应用中,可以将使用频率大于预设阈值的第一关键词保留,然后和第二关键词合并为该第一表情的情感标签。当然,对于不存在第一关键词的第一表情,直接采用第二关键词作为该第一表情的情感标签。

优选的,本发明实施例的方法还可以包括:对表情资源数据中各表情类别包括的第二关键词进行优化。具体的,可以将表情资源数据中各表情类别包括的所有第一表情对应的的第一关键词和该表情类别包括的第二关键词进行汇总后,在语聊资源数据中查找各关键词的词频,并将词频大于预设阈值的关键词作为优化后的第二关键词。本步骤可优化各表情类别包括的关键词,使其更精准。

当然,本发明实施例还可将各第一表情的情感标签进行汇总,并依据汇总后的情感标签构建索引;所述索引用于索引到各情感标签对应的第一表情,其可以为倒排索引等。

下面以一个实际例子一说明上述过程:

1,从微博默认表情,我们知道“V5”这个符号是一种表情。

2,从新浪微博获取带有表情图片的微博。例如,网友称赞李娜获得澳网冠军的微博。参照图3。

3,利用微博数据接口获得诸如此类的微博内容,利用原始表情资源数据的内容记录,可以将微博识别成文字部分“李娜实在是太棒了!骄傲!”和表情“V5”以及李冰冰微博的文字部分“你是我们李家的骄傲……”和表情“V5”。于是,这两段文字都可以作为表情“V5”的描述文字。抽取其中的形容词,可以发现“骄傲”出现了2次,“太棒了”出现了1次。提取其中的高频词汇可知,“骄傲”是所有类似微博所表达的核心情感的文字。因此,可以建立文字“骄傲”和表情“V5”之间的关系,并存入表情标签关系库。同理,更多包含表情“V5”的微博内容集中在一起可以获得“V5”表情的描述关键词集合。那么即可将V5的关键词作为其情感标签,即得到情感标签和表情的对应关系。

其次,本发明实施例中,会构建情感分类模型。所述情感分类模型利用前述收集的语聊资源数据和各主题的表情资源数据进行分析,构建情感分类模型。即利用语聊资源数据对表情资源数据中的表情进行分类,然后根据分类结果去训练情感分类模型。优选的,参照图4,本发明实施例的情感分类模型可以通过以下步骤S104至步骤S106构建:

S104,针对每个主题的第一表情,根据第一表情和第二表情的匹配关系,从所述语聊资源数据中获取该第一表情相关的文本内容;

如前所述,本发明实施例可以从多个方面获取语聊资源数据和各主题的表情资源数据,并构建情感标签和各主题的第一表情之间的对应关系。在构建情感分类模型时,还可利用前述构建的情感标签和各主题的表情之间的对应关系去获取训练样本。

在本步骤中,对于语聊资源数据中包括的第二表情及与其相关的文本内容,将第一表情与第二表情进行匹配,匹配上即可获得与第一表情相关的文本内容。

在本发明实施例中,可以针对构建好情感标签和第一表情之间的对应关系之后的第一表情,去为其匹配文本内容。当然,本发明实施例还可对前述获得的情感标签和第一表情之间的对应关系进行人工整理和标注,确定所有情感的细分标签,及其确定的表情样例,比如高兴、哈哈大笑、得瑟等等。然后基于整理后的情感标签和表情之间的对应关系以步骤S104-S106构建情感模型。

优选的,本步骤S104可以包括下述步骤A15至步骤A16:

子步骤A15,使用符号匹配规则和图片内容判断规则从所述语聊资源数据中提取所述第二表情和与所述第二表情相关的文本内容;

子步骤A16,在所述各主题的表情资源数据中,分别将所述第一表情与提取的第二表情进行匹配,匹配成功则分别将第一表情与第二表情相关的文本内容进行关联,从而建立该文本内容与第一表情的情感标签之间的对应关系。

S105,从与第一表情相关的文本内容中,提取自然语言的文本特征。

在本发明实施例中,自然语言的文本特征具体可以包括N元语法、词类特征、混合单词特征、否定词特征、情感修饰特征等。

其中,n元语法是利用前面已经出现的n-1个词,来预测第n个词。词类特征比如词性,如分词的名词、动词、形容词等。混合单词特征包括词的组合,连续词语组合的。否定词特征,即短语前缀为否定词的。情感修饰特征是指通过统计的手段,计算并标注语言中副词和形容词使用对情感表达的影响。情感转移特征是指同一句话在上下文环境中表达不同情感。例如,语句“真讨厌!”,如果聊天的上下文情感属于正面的态度,则这句话表达含义仍然是很可能正面的态度,如果上下文情感属于负面态度,则这句话更可能是负面的意思,因此,可以标注并统计在上下文分别为正面和负面态度时,该语句表达正面态度和负面态度的频次,从而计算该语句在特定上下文情感下属于某个情感态度的概率。

S106,根据所述第一表情对应的情感标签和文本特征,训练情感分类模型。

步骤S105得到文本特征后,结合对应的情感标签,以文本特征为输入的训练样本,以情感标签所属类别为输出的训练样本,训练情感分类模型。在本发明实施例中可以使用朴素贝叶斯,k最近邻(k-Nearest Neighbor,k-NN),最大熵和支持向量机等经典机器学习方法,训练针对表情类别的文本分类器,从而生成情感分类模型。

以简单的支持向量机为例,假如函数为:

其中,θTx=θ01x12x2+…+θnxn,然后以θ0替换为b,替换θ1x12x2+…+θnxn为w1x1+w2x2+…+wnxn即wTx,然后即可定义单个函数样本函数间隔为:(x(i),y(i))是训练样本,在本发明实施例中x是输入的由文本特征,y是情感标签。

那么以所述第一表情对应的情感标签和各文本特征,构建上述训练样本,即可训练情感分析模型。也即训练前述公式中的参数wT和b,从而以备后续使用。在使用支持向量机时,一个分类器可以对应一个表情类别,本发明可针对不同表情类别构建多个分类器,然后以上述多个分类器构建整个的情感分类模型。

下面结合图5对情感分类模型进行说明:

在本发明实施例中,表情标签关系库201可用于存储预置的表情类别与各主题的第一表情的对应关系,情感标签库203可用于存储情感标签与各主题的第一表情的对应关系,情感分类模型208具有多种情感标签的分类能力。图5所示202中,首先对表情标签关系库201中的表情类别与各主题的第一表情进行人工整理和标注,然后将整理和标注的结果存入情感标签库203。比如通过人工标注的方法,针对上述表情类别(如称赞类别)确定所有的标志性的、细分的标签(包括骄傲、太棒、真不容易等等),将该标签作为上述表情类别对应的第二关键词,并将第二关键词和第一表情的关系存入情感标签库203。

图5所示204中,可以获取各种来源的语聊资源数据;并在图5所示的205中,提取上述语聊资源数据中第二表情和对应的文本内容;比如从新浪微博获取带有表情图片的微博,如网友称赞李娜获得澳网冠军的微博。利用微博数据接口获得诸如此类的微博内容,利用原始表情库的内容记录,可以将微博识别成文字部分“李娜实在是太棒了!骄傲!”。当然还可以从其他数据来源中获取语聊资源数据。当然还可以直接利用构建情感标签与表情资源数据中的第一表情的对应关系时的语聊资源数据。

图5所示206中,可以将情感标签库203中的第一表情和从语聊资源数据中得到的第二表情进行匹配,从而获得第一表情对应的情感标签和文本内容。其中,获取第一表情对应的情感标签的过程可以为:匹配成功后,关联第一表情和与该第一表情匹配的第二表情相关的文本内容,并从与该第一表情匹配的第二表情相关的文本内容中挖掘出与该第一表情对应的第一关键词;根据挖掘得到的所述第一表情对应的第一关键词和预置的每个表情类别包括的第二关键词,获取该第一表情对应的表情类别;获取第一表情所属表情类别对应的第二关键词,将第一表情对应的第一关键词和第二关键词合并为所述第一表情的情感标签,从而获得情感标签与表情资源数据中的第一表情的对应关系;此时还可以将获得的情感标签与表情资源数据中的第一表情的对应关系存入情感标签库203。

图5所示207中,可以对文本内容切词并抽取对应的文本特征,例如获得“李娜”“实在是”“太棒了”“不简单”“简单”“夺冠”“李娜夺冠”这样的N元文本特征,获得“真不”这样的否定词特征等特征。将这些特征由于通过表情“v5”和“大拇指”与情感标签关联,那么可将上述文本特征及其对应的“称赞”等情感标签对应的表情类别一起构成训练样本,然后利用朴素贝叶斯,k最近邻(k-Nearest Neighbor,k-NN),最大熵和支持向量机等经典机器学习方法训练情感分类器,从而构建得到情感分类模型208。

可以理解,本发明实施例的情感分析模型和情感标签与第一表情之间的对应关系是基于各种来源的语聊资源数据和表情资源数据的,而这些语聊资源数据和表情资源数据可能随着时间的变化而变化,因此,本发明实施例可不断更新语聊资源数据和表情资源数据,并通过前述步骤循环优化情感分析模型和情感标签与第一表情之间的对应关系。

优选的,在本发明实施例中情感分析模型和情感标签与各主题中的表情的对应关系的构建可以在云端服务器执行。

在建立上述情感分类模型和情感标签与各主题中的表情的对应关系之后,即可执行本发明基于语义理解的表情输入方法。参照图1,其示出了本发明一种基于语义理解的表情输入方法的流程示意图。图1所示方法包括以下步骤110至步骤150:

步骤110,获取输入序列对应的文本内容。

用户启用输入法后,按下字符按键,输入法会得到输入序列(即字符序列),然后输入法会对输入序列进行匹配解析,获得输入序列对应的汉字候选项,本发明实施例可获取各候选项的文本内容。在其他实施例中,还可以取刚上屏的输入序列对应的文字作为输入序列对应的文本内容。本发明实施例中优选为首位候选项的文本内容。当然也可后台获取文本内容,即输入法在识别转换得到字词后,还未展现在输入法界面之前即可获取该字词。

比如结合图6所示,根据用户输入得到的文本内容为“李娜这个年纪又这么些伤病能拿到冠军实在不容易”。

步骤120,对所述文本内容进行分词,并基于分词的结果,提取文本特征。

得到文本内容后,可提取自然语言的文本特征,包括N元语法、词类特征,和混合单词特征,否定词特征,情感修饰特征等。其原理与训练情感分类模型时提取文本特征的过程相同。

输入法获取输入的整句信息,在云端服务器切词获得“李娜”、“这么”……“拿到”、“冠军”、“真”、“不”和“容易”等词,还有否定词“真不”。抽取三元特征进一步获得“真不容易”等文本特征。

步骤130,以所述文本特征构建输入向量,利用情感分类模型进行分类,以确定所述文本内容所属的情感标签。

由于前述步骤构建的情感分类模型为模型参数确定的情感分类模型,故将以上述文本特征对应输入向量输入情感分类模型进行计算,即可获得对应的分类结果,从而可确定上述文本内容所属的情感标签有哪些。例如,结合图6,将上述文本特征输入情感分类模型,获得用户表达的情感标签是“称赞”。

步骤140,获取表情资源数据中与所述情感标签对应的第一表情。

在具体实现中,可根据前述的情感标签与表情资源数据中的第一表情之间的对应关系,从表情资源数据中获取所述情感标签对应的第一表情。在具体实现中,所述表情资源数据可以表情词库的形式保存至输入法的客户端或者服务器;例如,可以依据“称赞”在上述表情词库中检索到相关的各主题的第一表情,如图6所示。

步骤150,将获取的所述第一表情排序后,作为候选项在客户端展示。

参照图6,示出了根据本发明一个实施例的表情展示示例,其中,在用户上屏首个候选项“能拿到冠军实在不容易”后,可以得到用户输入的整句文本内容“李娜这个年纪又这么些伤病能拿到冠军实在不容易”,并通过上述步骤120-150得到上述文本内容对应的“称赞”情感标签、以及该“称赞”情感标签对应的4个表情,该4个表情都能够表达“称赞”的语义,也即能够适合当前语境;图6还示出了对该4个表情对应表情候选项进行排序展示的示例,以方便用户通过快捷键将所需的表情候选项上屏。

优选的,所述将各表情候选项进行排序的步骤具体可以包括下述子步骤S151:

子步骤S151,针对每个表情类别包括的第一表情,根据所述第一表情在语聊资源数据中出现的次数和/或用户的个性化信息对相应表情候选项进行排序。

在本发明实施例中,同一个字词、字符表情对应的第一表情的表情候选项可能有多个,故本发明可利用各第一表情在语聊资源数据中的使用次数,(通过与第一表情对应的第二表情进行统计)对表情候选项进行排序;或者利用用户的个性化信息(包括性别、爱好等)对表情候选项进行排序,即在本发明中对于第一表情本身可预先设置其排序类别,这些排序类别与用户的偏好进行对应,比如依据性别预置排序类别(年轻男士经常使用的,年轻女性经常使用的,中年男性经常使用的,中年女性经常使用的等等排序类别),那么在排序时,获取用户的个性化信息,并将该个性化信息与预置的排序类别进行比较分析,将与个性化信息相似度更高的排序类别排在前面。

在具体实现中,可以将排好序的表情候选项展示在输入法的合适位置,供用户选择或翻页查看更多,本发明实施例对表情候选项的具体展示位置不加以限制。

本发明实施例以海量用户产生的语聊资源为分析的数据源头,对各种表情资源数据(包括各种主题的表情资源数据)进行分类,构建情感标签与每个主题的各表情之间的对应关系,用户在后续使用输入法的过程中,可以获得不同主题的、不同风格的相应表情作为候选项,本发明表情的范围广,覆盖面积大,可以给用户提供更多、更丰富的表情。另外,将表情作为输入法的词库,可直接对用户的输入,根据语义理解得到的情感标签与每个主题的各表情之间的对应关系检索到表情作为候选项在输入法中进行展示,直接提供给用户选择。上述过程是通过精确匹配用户表情输入需求,提高表情的使用效率,降低用户在表情输入过程中翻找表情所花费的时间成本。该种方式不用考虑表情包的制作成本和内容,可以任意发挥制作方的创造力,降低对聊天表情的发展和广泛使用的制约。由于本发明将各种表情进行集中分类处理,用户不用到处下载各种安装包,降低用户寻找安装包的时间成本。由于本发明的表情是输入法的候选项,用户在切换聊天平台等输入场景时,不需要重新下载或更新表情包,也避免用户的常用表情收藏信息的移植问题。并且,本发明通过语义理解用户输入,解决表情标签对用户自然语言表述感情覆盖较差的问题,本发明是以情感标签为单位对各表情进行结构化关联,用户输入字符序列时,对首位候选项或刚上屏的文本进行语义分析,得到对应的表情标签,调用标签对应的各表情包中的表情加载至候选项,从而推荐不同主题的表达相同意义的对应表情作为候选,能够速精准契合用户当前的输入,丰富了用户的输入内容。

实施例二

参照图7,其示出了本发明其示出了本发明一种基于语义理解的表情输入方法的流程示意图,具体包括:

步骤710,获取对应输入序列的文本内容;

步骤720,判断客户端输入法当前的输入环境是否需要表情输入;如果需要表情输入,则进入步骤730;如果不需要,则进入传统输入方式。

即输入法识别用户正在输入的环境。如果是聊天环境、网页输入等较大可能有表情输入需求的环境,则执行步骤730。如果不需要,则直接对文本内容生成候选项展示给用户。

步骤730,对所述文本内容进行分词,并基于分词的结果,提取文本特征;

步骤740,以所述文本特征构建输入向量,利用情感分类模型进行分类,以确定所述文本内容所属的情感标签;

步骤750,根据情感分类模型计算所述文本内容所属情感标签的置信度,并判断该置信度是否大于阈值,如果大于阈值,则进入步骤760;如果小于阈值,则转入传统输入方式。

情感模型中的各个情感分类器在计算时,可得到一个值,比如前述支持向量机中的hθ(x)值,该值如果大于0.8,则可认为属于对应情感分类的置信度高,则可进入后续处理。在本发明的一种优选实施例中,还可以在本步骤中判断情感强度和质量,即当情感强度和质量符合要求时,才会进入后续步骤。

步骤760,获取表情资源数据中与所述情感标签对应的第一表情;

根据语聊资源数据和各主题的表情资源数据构建所述情感标签与各主题中的表情之间的对应关系;或者根据情感标签的近义词和所述近义词分别在各主题中的对应表情的构建所述情感标签与各主题中的表情之间的对应关系。

步骤770,将获取的所述第一表情排序后,作为候选项在客户端展示。

本发明实施例也会预先构建情感标签与各主题中的表情之间的对应关系,以及情感分类模型,其原理与实施例一中的描述类似。当然本发明实施例具有其他与实施例一相同的步骤,其原理参见实施例一的描述,在此不再详述。

实施例三

参照图8,其示出了本发明其示出了本发明一种基于语义理解的表情输入方法的流程示意图,具体包括:

步骤810,在客户端获取对应输入序列的文本内容;

步骤820,判断客户端输入法当前的输入环境是否需要表情输入;如果需要表情输入,则进入步骤830;如果不需要,则进入传统输入方式。

步骤830,客户端将文本内容发送至云端服务器;

步骤840,云端服务器对所述文本内容进行分词,并基于分词的结果,提取文本特征;

步骤850,云端服务器以所述文本特征构建输入向量,利用情感分类模型进行分类,以确定所述文本内容所属的情感标签;

步骤860,云端服务器根据情感分类模型计算所述文本内容所属情感标签的置信度,并判断该置信度是否大于阈值,如果大于阈值,则进入步骤870;如果小于阈值,则通知客户端进入传统输入方式。

步骤870,云端服务器获取表情资源数据中与所述情感标签对应的第一表情;

步骤880,云端服务器将获取的所述第一表情排序后,向客户端返回排好序的第一表情;

步骤890,客户端将排好序的第一表情作为候选项在客户端展示。

当然,在本发明实施例中,可根据实际情况将某些步骤放置于云端服务器进行处理,不必限定于上述过程中的描述。其中,可在云端服务器构建情感标签与各主题中的表情之间的对应关系,以及情感分类模型。本发明实施例将大量需要运算的步骤放置于云端服务器中执行,减少客户端的运算,降低客户端资源的占用。

实施例四

参照图9,其示出了本发明其示出了本发明一种基于语义理解的表情输入装置的结构示意图,具体包括:

内容获取模块910,配置为获取对应输入序列的文本内容;

分词特征提取模块920,配置为对所述文本内容进行分词,并基于分词的结果,提取文本特征;

情感标签确定模块930,配置为以所述文本特征构建输入向量,利用情感分类模型进行分类,以确定所述文本内容所属的情感标签;

表情获取模块940,配置为获取表情资源数据中与所述情感标签对应的第一表情;及

展示模块950,配置为将获取的所述第一表情排序后,作为候选项在客户端展示。

优选的,所述展示模块950包括:

排序模块,配置为根据所述第一表情在语聊资源数据中出现的次数和/或用户的个性化信息对相应候选项进行排序。

优选的,所述装置还可以包括关系构建模块,配置为根据语聊资源数据和所述表情资源数据构建所述情感标签与所述第一表情之间的对应关系。

在本发明的一种优选实施例中,所述关系构建模块具体可以包括:

资源获取模块,配置为获取所述语聊资源数据和所述表情资源数据;其中,所述语聊资源数据包括第二表情及其对应的文本内容;

第一构建模块,配置为结合所述语聊资源数据包括的第二表情和所述第二表情对应的文本内容,对所述表情资源数据中的第一表情进行分类,并基于所述第一表情的分类结果,构建所述情感标签与所述第一表情之间的对应关系。

优选的,所述第一构建模块具体可以包括:

关键词挖掘模块,配置为根据所述语聊资源数据包括的第二表情和所述第二表情对应的文本内容,挖掘所述表情资源数据中每个第一表情对应的第一关键词;

分类模块,配置为根据所述第一表情对应的第一关键词和预置的每个表情类别包括的各第二关键词,确定所述第一表情所属的表情类别。

优选的,所述关键词挖掘模块具体可以包括:

第一内容提取模块,配置为使用符号匹配规则和图片内容判断规则,从所述语聊资源数据中提取所述第二表情和所述第二表情相关的文本内容;

匹配模块,配置为从所述表情资源数据中查找到与所述第二表情匹配的第一表情;

关联模块,配置为关联所述第一表情和所述第二表情相关的文本内容;及

挖掘模块,配置为从所述相关的文本内容中挖掘出与所述第一表情对应的第一关键词。

优选的,所述分类模块具体可以包括:

第一分类模块,配置为对于匹配成功的第一表情,则基于所述表情资源数据中每个表情类别包括的第二关键词,对所述第一表情对应的第一关键词进行情感分类预测,确定所述第一表情所属的表情类别;

第二分类模块,配置为对于未匹配成功的第一表情,所述第一表情对应的第一关键词为空,则基于所述表情资源数据中每个表情类别包括的第二关键词,确定所述第一表情所属的表情类别。

优选的,所述第一构建模块具体可以包括:

合并模块,配置为将所述第一表情对应的第一关键词和所述第一表情所属的表情类别包括的第二关键词合并后,确定为所述第一表情的情感标签;

第二构建模块,用于构建所述情感标签与所述第一表情之间的对应关系。

在本发明的一种优选实施例中,所述装置还包括:

确定模块,用于在所述确定为所述第一表情的情感标签之后,构建所述情感标签与所述第一表情之间的对应关系之前,确定所述情感标签的近义词;

表情获取模块,用于获取所述近义词在所述表情资源数据中对应的表情;

第三构建模块,用于结合所述近义词对应的表情,构建所述情感标签与所述第一表情之间的对应关系。

优选的,所述装置还可以包括情感分类模型构建模块,所述情感分类模型构建模块具体包括:

第二内容提取模块,配置为根据所述第一表情和所述第二表情的匹配关系,从所述语聊资源数据中获取所述第一表情相关的文本内容;

文本特征提取模块,配置为从所述第一表情相关的文本内容中,提取自然语言的文本特征;

模型训练模块,配置为根据所述第一表情对应的情感标签和文本特征生成训练样本,训练情感分类模型。

实施例五

参照图10,其示出了本发明其示出了本发明一种基于语义理解的表情输入装置的结构示意图,具体包括:

内容获取模块1010,配置为获取对应输入序列的文本内容;

环境判断模块1020,配置为判断客户端输入法当前的输入环境是否需要表情输入;如果需要表情输入,则进入分词特征提取模块1030,并基于分词的结果,提取文本特征;如果不需要,则进入传统输入过程模块。

分词特征提取模块1030,配置为对所述文本内容进行分词,并基于分词的结果,提取文本特征;

情感标签确定模块1040,配置为以所述文本特征构建输入向量,利用情感分类模型进行分类,以确定所述文本内容所属的情感标签;

置信度判断模块1050,配置为在利用情感分类模型确定文本内容所属的情感标签后,根据情感分类模型计算所述文本内容所属情感标签的置信度,判断是否进入表情获取模块1060;

当所述置信度大于阈值时,进入表情获取模块1060;反之,则转入传统输入过程模块。

表情获取模块1060,配置为获取表情资源数据中与所述情感标签对应的第一表情;

展示模块1070,配置为将获取的所述第一表情排序后,作为候选项在客户端展示。

实施例六

参照图11,示出了本发明实施例的一种基于语义理解的表情输入系统的结构示意图,具体包括:

云端服务器1110和客户端1120;

所述云端服务器具体可以包括:

分词特征提取模块1111,配置为对文本内容进行分词,并基于分词的结果,提取文本特征;

情感标签确定模块1112,配置为以所述文本特征构建输入向量,利用情感分类模型进行分类,以确定所述文本内容所属的情感标签;

置信度判断模块1113,配置为在利用情感分类模型确定文本内容所属的情感标签后,根据情感分类模型计算所述文本内容所属情感标签的置信度,判断是否进入表情获取模块1114。

当所述置信度大于阈值时,进入表情获取模块1114;反之,则通知客户端转入传统输入过程模块。

表情获取模块1114,配置为获取表情资源数据中与所述情感标签对应的第一表情;

排序模块1115,配置为将获取的所述第一表情排序后,向客户端返回排好序的第一表情;

所述客户端1120包括:

内容获取模块1121,配置为获取对应输入序列的文本内容;

环境判断模块1122,配置为判断客户端输入法当前的输入环境是否需要表情输入;如果需要表情输入,则将文本内容发送至云端服务器;

展示模块1123,配置为接收所述云服务器返回的排好序的第一表情,并将其作为候选项在客户端展示。

对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。

本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。

本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。

本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。

最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。

以上对本发明所提供的一种基于语义理解的表情输入方法和一种基于语义理解的表情输入装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (23)

1.一种基于语义理解的表情输入方法,其特征在于,包括:
获取输入序列对应的文本内容;
对所述文本内容进行分词,并基于分词的结果,提取文本特征;
以所述文本特征构建输入向量,利用情感分类模型进行分类,以确定所述文本内容所属的情感标签;
获取表情资源数据中与所述情感标签对应的第一表情;
将获取的所述第一表情排序后,作为候选项在客户端展示。
2.如权利要求1所述的方法,其特征在于,还包括:
根据语聊资源数据和所述表情资源数据构建所述情感标签与所述第一表情之间的对应关系。
3.如权利要求2所述的方法,其特征在于,所述根据语聊资源数据和所述表情资源数据构建所述情感标签与所述第一表情之间的对应关系包括:
获取所述语聊资源数据和所述表情资源数据;其中,所述语聊资源数据包括第二表情及其对应的文本内容;
结合所述语聊资源数据包括的第二表情和所述第二表情对应的文本内容,对所述表情资源数据中的第一表情进行分类,并基于所述第一表情的分类结果,构建所述情感标签与所述第一表情之间的对应关系。
4.如权利要求3所述的方法,其特征在于,所述结合所述语聊资源数据包括的第二表情和所述第二表情对应的文本内容,对所述表情资源数据中的第一表情进行分类,包括:
根据所述语聊资源数据包括的第二表情和所述第二表情对应的文本内容,挖掘所述表情资源数据中每个第一表情对应的第一关键词;
根据所述第一表情对应的第一关键词和预置的每个表情类别包括的第二关键词,确定所述第一表情所属的表情类别。
5.如权利要求4所述的方法,其特征在于,所述根据所述语聊资源数据包括的第二表情和所述第二表情对应的文本内容,挖掘所述表情资源数据中每个第一表情对应的第一关键词,包括:
使用符号匹配规则和图片内容判断规则从所述语聊资源数据中提取所述第二表情和所述第二表情相关的文本内容;
从所述表情资源数据中查找到与所述第二表情匹配的第一表情;
关联所述第一表情和所述第二表情相关的文本内容;
从所述相关的文本内容中挖掘出与所述第一表情对应的第一关键词。
6.如权利要求5所述的方法,其特征在于,所述根据所述第一表情对应的第一关键词和所述表情资源数据中每个表情类别包括的第二关键词,确定所述第一表情所属的表情类别,包括:
对于匹配成功的第一表情,则基于所述表情资源数据中每个表情类别包括的第二关键词,对所述第一表情对应的第一关键词进行情感分类预测,确定所述第一表情所属的表情类别;
对于未匹配成功的第一表情,所述第一表情对应的第一关键词为空,则基于所述表情资源数据中每个表情类别包括的第二关键词,确定所述第一表情所属的表情类别。
7.如权利要求3所述的方法,其特征在于,所述基于所述第一表情的分类结果,构建所述情感标签与所述第一表情之间的对应关系,包括:
将所述第一表情对应的第一关键词和所述第一表情所属的表情类别包括的第二关键词合并后,确定为所述第一表情的情感标签;
构建所述情感标签与所述第一表情之间的对应关系。
8.如权利要求7所述的方法,其特征在于,在所述确定为所述第一表情的情感标签之后,所述构建所述情感标签与所述第一表情之间的对应关系之前,所述方法还包括:
确定所述情感标签的近义词;
获取所述近义词在所述表情资源数据中对应的表情;
结合所述近义词对应的表情,构建所述情感标签与所述第一表情之间的对应关系。
9.如权利要求5所述的方法,其特征在于,所述情感分类模型通过以下步骤构建:
根据所述第一表情和所述第二表情的匹配关系,从所述语聊资源数据中获取所述第一表情相关的文本内容;
从所述第一表情相关的文本内容中,提取自然语言的文本特征;
根据所述第一表情对应的情感标签和文本特征生成训练样本,训练情感分类模型。
10.如权利要求1或9所述的方法,其特征在于,所述确定所述文本内容所属的情感标签之后,所述方法还包括:
根据情感分类模型计算所述文本内容所属情感标签的置信度;
当所述置信度高于预设阈值时,执行所述获取表情资源数据中与所述情感标签对应的第一表情的步骤。
11.如权利要求1所述的方法,其特征在于,所述将获取的所述第一表情排序包括:
根据所述第一表情在语聊资源数据中出现的次数和/或用户的个性化信息对相应候选项进行排序。
12.一种基于语义理解的表情输入装置,其特征在于,包括:
内容获取模块,配置为获取输入序列对应的文本内容;
分词特征提取模块,配置为对所述文本内容进行分词,并基于分词的结果,提取文本特征;
情感标签确定模块,配置为以所述文本特征构建输入向量,利用情感分类模型进行分类,以确定所述文本内容所属的情感标签;
表情获取模块,配置为获取表情资源数据中与所述情感标签对应的第一表情;及
展示模块,配置为将获取的所述第一表情排序后,作为候选项在客户端展示。
13.如权利要求12所述的装置,其特征在于,还包括关系构建模块,
配置为根据语聊资源数据和所述表情资源数据构建所述情感标签与所述第一表情之间的对应关系。
14.如权利要求13所述的装置,其特征在于,所述关系构建模块包括:
资源获取模块,配置为获取所述语聊资源数据和所述表情资源数据;其中,所述语聊资源数据包括第二表情及其对应的文本内容;
第一构建模块,配置为结合所述语聊资源数据包括的第二表情和所述第二表情对应的文本内容,对所述表情资源数据中的第一表情进行分类,并基于所述第一表情的分类结果,构建所述情感标签与所述第一表情之间的对应关系。
15.如权利要求14所述的装置,其特征在于,所述第一构建模块包括:
关键词挖掘模块,配置为根据所述语聊资源数据包括的第二表情和所述第二表情对应的文本内容,挖掘所述表情资源数据中每个第一表情对应的第一关键词;
分类模块,配置为根据所述第一表情对应的第一关键词和预置的每个表情类别包括的各第二关键词,确定所述第一表情所属的表情类别。
16.如权利要求15所述的装置,其特征在于,所述关键词挖掘模块包括:
第一内容提取模块,配置为使用符号匹配规则和图片内容判断规则,从所述语聊资源数据中提取所述第二表情和所述第二表情相关的文本内容;
匹配模块,配置为从所述表情资源数据中查找到与所述第二表情匹配的第一表情;
关联模块,配置为关联所述第一表情和所述第二表情相关的文本内容;及
挖掘模块,配置为从所述相关的文本内容中挖掘出与所述第一表情对应的第一关键词。
17.如权利要求16所述的装置,其特征在于,所述分类模块包括:
第一分类模块,配置为对于匹配成功的第一表情,则基于所述表情资源数据中每个表情类别包括的第二关键词,对所述第一表情对应的第一关键词进行情感分类预测,确定所述第一表情所属的表情类别;
第二分类模块,配置为对于未匹配成功的第一表情,所述第一表情对应的第一关键词为空,则基于所述表情资源数据中每个表情类别包括的第二关键词,确定所述第一表情所属的表情类别。
18.如权利要求14所述的装置,其特征在于,所述第一构建模块包括:
合并模块,配置为将所述第一表情对应的第一关键词和所述第一表情所属的表情类别包括的第二关键词合并后,确定为所述第一表情的情感标签;
第二构建模块,用于构建所述情感标签与所述第一表情之间的对应关系。
19.如权利要求18所述的装置,其特征在于,所述装置还包括:
确定模块,用于在所述确定为所述第一表情的情感标签之后,构建所述情感标签与所述第一表情之间的对应关系之前,确定所述情感标签的近义词;
表情获取模块,用于获取所述近义词在所述表情资源数据中对应的表情;
第三构建模块,用于结合所述近义词对应的表情,构建所述情感标签与所述第一表情之间的对应关系。
20.如权利要求16所述的装置,其特征在于,还包括情感分类模型构建模块,所述情感分类模型构建模块具体包括:
第二内容提取模块,配置为根据所述第一表情和所述第二表情的匹配关系,从所述语聊资源数据中获取所述第一表情相关的文本内容;
文本特征提取模块,配置为从所述第一表情相关的文本内容中,提取自然语言的文本特征;及
模型训练模块,配置为根据所述第一表情对应的情感标签和文本特征生成训练样本,训练情感分类模型。
21.如权利要求12或者20所述的装置,其特征在于,所述装置还包括:
置信度判断模块,配置为在利用情感分类模型确定文本内容所属的情感标签后,根据情感分类模型计算所述文本内容所属情感标签的置信度;
当所述置信度大于阈值时,触发所述表情获取模块执行所述获取表情资源数据中与所述情感标签对应的第一表情。
22.如权利要求12所述的装置,其特征在于,所述展示模块包括:
排序模块,配置为根据所述第一表情在语聊资源数据中出现的次数和/或用户的个性化信息对相应候选项进行排序。
23.一种计算机可读可读介质,其上存储有指令,当由一个或多个处理器执行时,使得装置执行如权利要求1至11中一个或多个所述的方法。
CN201510303341.0A 2014-06-06 2015-06-05 一种基于语义理解的表情输入方法和装置 CN104933113B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201410251399.0A CN104063427A (zh) 2014-06-06 2014-06-06 一种基于语义理解的表情输入方法和装置
CN2014102513990 2014-06-06
CN201510303341.0A CN104933113B (zh) 2014-06-06 2015-06-05 一种基于语义理解的表情输入方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510303341.0A CN104933113B (zh) 2014-06-06 2015-06-05 一种基于语义理解的表情输入方法和装置

Publications (2)

Publication Number Publication Date
CN104933113A CN104933113A (zh) 2015-09-23
CN104933113B true CN104933113B (zh) 2019-08-02

Family

ID=51551142

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201410251399.0A CN104063427A (zh) 2014-06-06 2014-06-06 一种基于语义理解的表情输入方法和装置
CN201510303341.0A CN104933113B (zh) 2014-06-06 2015-06-05 一种基于语义理解的表情输入方法和装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201410251399.0A CN104063427A (zh) 2014-06-06 2014-06-06 一种基于语义理解的表情输入方法和装置

Country Status (3)

Country Link
US (1) US20170052946A1 (zh)
CN (2) CN104063427A (zh)
WO (1) WO2015185019A1 (zh)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104063427A (zh) * 2014-06-06 2014-09-24 北京搜狗科技发展有限公司 一种基于语义理解的表情输入方法和装置
US20150381534A1 (en) * 2014-06-25 2015-12-31 Convergence Acceleration Solutions, Llc Systems and methods for indicating emotions through electronic self-portraits
US9613033B2 (en) * 2014-08-29 2017-04-04 Yahoo!, Inc. Emotionally relevant content
CN104298429B (zh) * 2014-09-25 2018-05-04 北京搜狗科技发展有限公司 一种基于输入的信息展示方法和输入法系统
CN104317476B (zh) * 2014-09-26 2018-03-06 百度在线网络技术(北京)有限公司 输入法程序界面的控制方法及装置
CN104618222B (zh) * 2015-01-07 2017-12-08 腾讯科技(深圳)有限公司 一种匹配表情图像的方法及装置
CN104598644A (zh) * 2015-02-12 2015-05-06 腾讯科技(深圳)有限公司 用户喜好标签挖掘方法和装置
CN105988992B (zh) * 2015-03-02 2020-02-07 腾讯科技(深圳)有限公司 图标推送方法及装置
CN104836726B (zh) * 2015-04-01 2019-03-26 网易(杭州)网络有限公司 一种显示聊天表情的方法及装置
CN104834677A (zh) * 2015-04-13 2015-08-12 苏州天趣信息科技有限公司 一种基于属性类别的表情图片显示方法、装置和终端
CN104765472B (zh) * 2015-04-20 2018-06-05 百度在线网络技术(北京)有限公司 输入信息的展示方法和装置
CN106257415A (zh) * 2015-06-19 2016-12-28 阿里巴巴集团控股有限公司 实现动态图片预览的方法和装置、表情包展示方法和装置
CN105119812B (zh) * 2015-08-26 2018-05-18 小米科技有限责任公司 在聊天界面更改表情符号的方法、装置及终端设备
CN106599737A (zh) * 2015-10-19 2017-04-26 北京奇虎科技有限公司 信息显示方法、信息显示装置和终端
CN106886396A (zh) * 2015-12-16 2017-06-23 北京奇虎科技有限公司 表情管理方法及装置
CN105701182A (zh) * 2016-01-07 2016-06-22 百度在线网络技术(北京)有限公司 信息推送方法和装置
WO2017120925A1 (zh) * 2016-01-15 2017-07-20 李强生 插入聊天表情的方法和表情插入系统
CN105677060A (zh) * 2016-02-02 2016-06-15 百度在线网络技术(北京)有限公司 通过输入法进行输入的方法和装置
CN107423277A (zh) * 2016-02-16 2017-12-01 中兴通讯股份有限公司 一种表情输入方法、装置及终端
CN105867802A (zh) * 2016-03-24 2016-08-17 努比亚技术有限公司 根据压力信息输出信息的方法及装置
CN105975100B (zh) * 2016-04-28 2019-07-30 百度在线网络技术(北京)有限公司 输入法中表情包的拓展方法和装置
CN106020504B (zh) * 2016-05-17 2018-11-27 百度在线网络技术(北京)有限公司 信息输出方法和装置
CN105929976A (zh) * 2016-05-25 2016-09-07 广州市久邦数码科技有限公司 一种基于输入法的动态表情输入方法及其系统
CN106028052A (zh) * 2016-05-30 2016-10-12 徐文波 即时视频中连续发送特效的方法和装置
CN106201184A (zh) * 2016-06-29 2016-12-07 腾讯科技(深圳)有限公司 一种sns消息的编辑方法、装置和终端
CN106202056B (zh) * 2016-07-26 2019-01-04 北京智能管家科技有限公司 中文分词场景库更新方法和系统
CN106293120A (zh) * 2016-07-29 2017-01-04 维沃移动通信有限公司 表情输入方法及移动终端
CN106547850A (zh) * 2016-10-18 2017-03-29 北京小米移动软件有限公司 表情注释方法及装置
CN106484139B (zh) * 2016-10-19 2019-01-29 北京新美互通科技有限公司 表情符号推荐方法及装置
CN106503744A (zh) * 2016-10-26 2017-03-15 长沙军鸽软件有限公司 对聊天过程中的输入表情进行自动纠错的方法及装置
CN106528694B (zh) * 2016-10-31 2019-12-06 百度在线网络技术(北京)有限公司 基于人工智能的语义判定处理方法和装置
CN106557463A (zh) * 2016-10-31 2017-04-05 东软集团股份有限公司 情感分析方法及装置
CN106570106A (zh) * 2016-11-01 2017-04-19 北京百度网讯科技有限公司 一种输入过程中将语音信息转化为表情的方法和装置
CN108241621B (zh) * 2016-12-23 2019-12-10 北京国双科技有限公司 法律知识的检索方法及装置
CN106919661A (zh) * 2017-02-13 2017-07-04 腾讯科技(深圳)有限公司 一种情感类型识别方法及相关装置
CN107038214A (zh) * 2017-03-06 2017-08-11 北京小米移动软件有限公司 表情信息处理方法及装置
CN107133224A (zh) * 2017-04-25 2017-09-05 中国人民大学 一种基于主题词的语言生成方法
CN107357889A (zh) * 2017-07-11 2017-11-17 北京工业大学 一种基于内容或情感相似性的跨社交平台图片推荐算法
US20190034412A1 (en) * 2017-07-31 2019-01-31 Ebay Inc. Emoji Understanding in Online Experiences
US10348659B1 (en) * 2017-12-21 2019-07-09 International Business Machines Corporation Chat message processing

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101183294A (zh) * 2007-12-17 2008-05-21 腾讯科技(深圳)有限公司 表情输入方法及装置
CN102193620A (zh) * 2010-03-02 2011-09-21 三星电子(中国)研发中心 一种基于表情识别的输入方法
CN103064826A (zh) * 2012-12-31 2013-04-24 百度在线网络技术(北京)有限公司 一种用于表情输入的方法、装置与系统
CN103577534A (zh) * 2013-08-30 2014-02-12 百度在线网络技术(北京)有限公司 搜索方法和搜索引擎
CN103605658A (zh) * 2013-10-14 2014-02-26 北京航空航天大学 一种基于文本情感分析的搜索引擎系统
CN103761239A (zh) * 2013-12-09 2014-04-30 国家计算机网络与信息安全管理中心 一种利用表情符号对微博进行情感倾向分类的方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4310916B2 (ja) * 2000-11-08 2009-08-12 コニカミノルタホールディングス株式会社 映像表示装置
KR100689355B1 (ko) * 2004-04-23 2007-03-02 삼성전자주식회사 휴대단말기의 상태 표시장치 및 방법
KR100785067B1 (ko) * 2005-12-06 2007-12-12 삼성전자주식회사 휴대단말기의 화면 표시장치 및 방법
US7983910B2 (en) * 2006-03-03 2011-07-19 International Business Machines Corporation Communicating across voice and text channels with emotion preservation
CN100579267C (zh) * 2007-04-10 2010-01-06 华为技术有限公司 表情符号调用方法和装置
TWI379205B (en) * 2009-03-12 2012-12-11 Ind Tech Res Inst Instant communication interacting system and method thereof
TWI430189B (zh) * 2009-11-10 2014-03-11 Inst Information Industry 訊息擬真處理系統、裝置及方法
US20170098122A1 (en) * 2010-06-07 2017-04-06 Affectiva, Inc. Analysis of image content with associated manipulation of expression presentation
KR101310929B1 (ko) * 2010-10-28 2013-09-25 (주)아크릴 지능형 감성단어 확장장치 및 그 확장방법
US9063927B2 (en) * 2011-04-06 2015-06-23 Citizennet Inc. Short message age classification
US20120330869A1 (en) * 2011-06-25 2012-12-27 Jayson Theordore Durham Mental Model Elicitation Device (MMED) Methods and Apparatus
KR101830767B1 (ko) * 2011-07-14 2018-02-22 삼성전자주식회사 사용자의 감정 인식 장치 및 방법
CN102955830A (zh) * 2011-08-31 2013-03-06 腾讯科技(深圳)有限公司 表情搜索开放平台、表情搜索方法及系统
US9207755B2 (en) * 2011-12-20 2015-12-08 Iconicast, LLC Method and system for emotion tracking, tagging, and rating and communication
US9767789B2 (en) * 2012-08-29 2017-09-19 Nuance Communications, Inc. Using emoticons for contextual text-to-speech expressivity
US20140088954A1 (en) * 2012-09-27 2014-03-27 Research In Motion Limited Apparatus and method pertaining to automatically-suggested emoticons
US9202142B1 (en) * 2013-01-24 2015-12-01 Google Inc. Automatic assessment of books to determine suitability for audio book conversion
US9002755B2 (en) * 2013-02-05 2015-04-07 scenarioDNA System and method for culture mapping
US8918339B2 (en) * 2013-03-15 2014-12-23 Facebook, Inc. Associating an indication of user emotional reaction with content items presented by a social networking system
US9495620B2 (en) * 2013-06-09 2016-11-15 Apple Inc. Multi-script handwriting recognition using a universal recognizer
US20150100537A1 (en) * 2013-10-03 2015-04-09 Microsoft Corporation Emoji for Text Predictions
US9515968B2 (en) * 2014-02-05 2016-12-06 Facebook, Inc. Controlling access to ideograms
CN104063427A (zh) * 2014-06-06 2014-09-24 北京搜狗科技发展有限公司 一种基于语义理解的表情输入方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101183294A (zh) * 2007-12-17 2008-05-21 腾讯科技(深圳)有限公司 表情输入方法及装置
CN102193620A (zh) * 2010-03-02 2011-09-21 三星电子(中国)研发中心 一种基于表情识别的输入方法
CN103064826A (zh) * 2012-12-31 2013-04-24 百度在线网络技术(北京)有限公司 一种用于表情输入的方法、装置与系统
CN103577534A (zh) * 2013-08-30 2014-02-12 百度在线网络技术(北京)有限公司 搜索方法和搜索引擎
CN103605658A (zh) * 2013-10-14 2014-02-26 北京航空航天大学 一种基于文本情感分析的搜索引擎系统
CN103761239A (zh) * 2013-12-09 2014-04-30 国家计算机网络与信息安全管理中心 一种利用表情符号对微博进行情感倾向分类的方法

Also Published As

Publication number Publication date
WO2015185019A1 (zh) 2015-12-10
CN104933113A (zh) 2015-09-23
US20170052946A1 (en) 2017-02-23
CN104063427A (zh) 2014-09-24

Similar Documents

Publication Publication Date Title
US9876751B2 (en) System and method for analyzing messages in a network or across networks
US10530723B2 (en) Automatic suggestions for message exchange threads
Noh Imagining library 4.0: Creating a model for future libraries
US20160224687A1 (en) Content-based automatic input protocol selection
Bontcheva et al. Making sense of social media streams through semantics: a survey
Welbers et al. Text analysis in R
Gokulakrishnan et al. Opinion mining and sentiment analysis on a twitter data stream
CN105068661B (zh) 基于人工智能的人机交互方法和系统
US9245001B2 (en) Content processing systems and methods
Gu et al. " What Parts of Your Apps are Loved by Users?"(T)
CN104573054B (zh) 一种信息推送方法和设备
US20150074112A1 (en) Multimedia Question Answering System and Method
Hu et al. Text analytics in social media
Jung Online named entity recognition method for microtexts in social networking services: A case study of twitter
Abello et al. Computational folkloristics
WO2017041370A1 (zh) 基于人工智能的人机聊天方法和装置
CN104063683B (zh) 一种基于人脸识别的表情输入方法和装置
US8543532B2 (en) Method and apparatus for providing a co-creation platform
CN104471571B (zh) 事件驱动架构下对Web活动索引、排序和分析的系统和方法
CN104254852B (zh) 用于混合信息查询的方法和系统
KR101708508B1 (ko) 향상된 개체 발췌에 기초하여 메시지 및 대화 간의 의미 유사성을 계산하는 방법
US8528018B2 (en) System and method for evaluating visual worthiness of video data in a network environment
US9990368B2 (en) System and method for automatic generation of information-rich content from multiple microblogs, each microblog containing only sparse information
DE112013004082T5 (de) Suchsystem der Emotionsentität für das Microblog
CN104899273B (zh) 一种基于话题和相对熵的网页个性化推荐方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant