CN106484139B - 表情符号推荐方法及装置 - Google Patents
表情符号推荐方法及装置 Download PDFInfo
- Publication number
- CN106484139B CN106484139B CN201610910534.7A CN201610910534A CN106484139B CN 106484139 B CN106484139 B CN 106484139B CN 201610910534 A CN201610910534 A CN 201610910534A CN 106484139 B CN106484139 B CN 106484139B
- Authority
- CN
- China
- Prior art keywords
- probability
- paraphrase
- classification
- emoticon
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本申请提供一种表情符号推荐方法及装置,其先对各个表情符号对应的训练语句进行聚类,基于聚类得到的释义类别进行语料训练,可以避免因一个表情符号对应多个语义不相关的训练语句造成的混乱,提高语料训练的准确性;同时,在进行语料训练的过程中,计算得到每个释义类别对应的第一概率,以及每个释义类别中每个单词对应的第三概率,进而根据该第一概率和第三概率,结合贝叶斯公式,对用户实时输入的目标语句进行精确到单词的语义匹配概率分析,既可避免现有推荐方式下推荐触发几率极低的问题,也可保证最终分析所确定的目标释义类别为与目标语句的实际含义最相近的释义类别,提高推荐准确性,提高用户对表情符号的输入效率,提升用户体验。
Description
技术领域
本申请涉及输入法技术领域,尤其涉及一种表情符号推荐方法及装置。
背景技术
随着社交和网络的不断发展,以及智能移动终端的普及,表情符号由于可以更简洁直观的体现人们的语义、语气、心情等,故在人们日常交流沟通中的使用频率越来越高;相应的,表情符号输入也成为输入法的一个重要组成部分。
现有输入法中的表情符号输入方式主要包括以下两种。第一种方式是在需要输入表情符号时,由用户主动点击预设的表情图标,从而显示具有多个表情符号的列表界面,用户通过翻页操作或滑动操作,在该列表界面中选择并点击需要的表情符号,实现该表情符号的输入。第二种方式是预先为每个表情符号设置一个或多个的标签(tag),每个标签对应该表情符号的一种含义,在用户输入文本时,实时检测是否存在与当前输入文本相同的标签,如果存在,则将与检测到的标签对应的表情符号推荐给用户,用户点击所推荐的该表情符号,即可实现其输入。
发明人在本申请的研究过程中发现,上述第一种表情符号输入方式,需要用户从大量表情符号中手动选择自己需要的表情符号,输入效率低;上述第二种表情符号输入方式,根据用户当前输入的文本和预设的标签主动为用户推荐表情符号,虽然可以在一定程度上简化表情符号输入过程,提高输入效率,但由于其依赖每个表情符号的标签,只有在用户输入的单个字词或单词与所述标签相同或相匹配时才会为触发表情符号推荐,导致触发表情符号推荐的概率较低,导致用户大多数时候还是要通过第一种方式输入表情符号,很难有效提高表情符号输入效率。
发明内容
本申请提供了一种表情符号推荐方法及装置,以解决现有表情符号输入方法输入效率低的问题。
为了解决上述技术问题,本申请实施例公开了如下技术方案:
本申请实施例的第一方面,提供一种表情符号推荐方法,包括:
获取各个表情符号对应的各个训练语句;其中,每个训练语句包括一个或多个单词;
对所述训练语句进行聚类,得到多个释义类别;
根据每个释义类别中所包含训练语句的总个数,计算每个释义类别对应的第一概率;
根据训练语句与表情符号的对应关系,确定每个释义类别中所包含的表情符号,并计算每个释义类别中每个表情符号对应的第二概率;
根据每个释义类别中每个单词出现的次数,计算每个释义类别中每个单词对应的第三概率;
根据所述第一概率和第三概率,利用贝叶斯公式计算用户输入的目标语句属于任一释义类别的第四概率;其中,所述目标语句包括一个或多个目标单词;
根据所述第四概率确定所述目标语句对应的目标释义类别;
根据所述目标释义类别所包含的各个表情符号对应的第二概率进行表情符号推荐。
可选的,根据每个释义类别中所包含训练语句的总个数,计算每个释义类别对应的第一概率,包括:
分别统计每个释义类别Ci中所包含的训练语句的总个数
根据如下公式计算各个释义类别Ci对应的第一概率其中,i=1,2,...,m;m为释义类别的总个数。
可选的,计算每个释义类别中每个表情符号对应的第二概率,包括:
统计每个释义类别Ci中每个表情符号ek出现的次数
根据如下公式计算每个释义类别Ci中每个表情符号ek对应的第二概率其中,i=1,2,...,m,m为释义类别的总个数;k=1,2,...,p,p为表情符号的总个数。
可选的,根据每个释义类别中每个单词出现的次数,计算每个释义类别中每个单词对应的第三概率,包括:
统计每个释义类别Ci中每个单词wj出现的次数
根据如下公式计算每个释义类别Ci中每个单词wj对应的第三概率其中,i=1,2,...,m,m为释义类别的总个数;j=1,2,...,q,q为单词的总个数。
可选的,根据所述第四概率确定所述目标语句对应的目标释义类别,包括:
判断所述第四概率的最大值是否大于第一阈值;
当所述第四概率的最大值大于第一阈值时,将所述第四概率的最大值对应的释义类别作为目标释义类别。
可选的,根据所述第四概率确定所述目标语句对应的目标释义类别,包括:
按照第四概率由大到小的顺序对各个释义类别排序;
根据排序结果计算前S个释义类别的第四概率之和;
判断所述第四概率的最大值与所述第四概率之和的比值是否大于第二阈值;
当所述比值大于第二阈值时,将所述第四概率的最大值对应的释义类别作为目标释义类别。
可选的,在根据所述第一概率和第三概率,利用贝叶斯公式计算用户输入的目标语句属于任一释义类别的第四概率之前,还包括:
判断当前输入场景是否为预设场景;
当所述当前输入场景不是预设场景时,执行所根据所述第一概率和第三概率,利用贝叶斯公式计算用户输入的目标语句属于任一释义类别的第四概率。
可选的,在计算每个单词在相应释义类别中对应的第三概率之前,还包括:
当所述训练语句为第一语言类型时,对所述训练语句进行分词处理;
和/或,对所述训练语句中所包含的单词进行停用词过滤处理。
本申请实施例的第二方面,提供一种表情符号推荐装置,包括:语料训练单元和实时推荐单元;
其中,所述语料训练单元包括:
聚类处理单元,用于获取各个表情符号对应的各个训练语句,并对所述训练语句进行聚类,得到多个释义类别;其中,每个训练语句包括一个或多个单词;
第一计算单元,用于根据每个释义类别中所包含训练语句的总个数,计算每个释义类别对应的第一概率;
第二计算单元,用于根据训练语句与表情符号的对应关系,确定每个释义类别中所包含的表情符号,并计算每个释义类别中每个表情符号对应的第二概率;
第三计算单元,用于根据每个释义类别中每个单词出现的次数,计算每个释义类别中每个单词对应的第三概率;
所述实时推荐单元包括:
第四计算单元,用于根据所述第一概率和第三概率,利用贝叶斯公式计算用户输入的目标语句属于任一释义类别的第四概率;其中,所述目标语句包括一个或多个目标单词;
目标类别确定单元,用于根据所述第四概率确定所述目标语句对应的目标释义类别;
实时推荐执行单元,用于根据所述目标释义类别所包含的各个表情符号对应的第二概率进行表情符号推荐。
可选的,所述目标类别确定单元,包括以下至少一种:
第一确定单元,用于判断所述第四概率的最大值是否大于第一阈值,并在所述第四概率的最大值大于第一阈值时,将所述第四概率的最大值对应的释义类别作为目标释义类别;
第二确定单元,用于按照第四概率由大到小的顺序对各个释义类别排序,根据排序结果计算前S个释义类别的第四概率之和,判断所述第四概率的最大值与所述第四概率之和的比值是否大于第二阈值,并在所述比值大于第二阈值时,将所述第四概率的最大值对应的释义类别作为目标释义类别。
可选的,所述实时推荐单元还包括:
场景判断单元,用于判断当前输入场景是否为预设场景,并在所述当前输入场景不是预设场景时,触发所述第四计算单元。
可选的,所述语料训练单元还包括:
分词处理单元,用于在计算每个单词在相应释义类别中对应的第三概率之前,当所述训练语句为第一语言类型时,对所述训练语句进行分词处理;
和/或,停用词过滤单元,用于在计算每个单词在相应释义类别中对应的第三概率之前,对所述训练语句中所包含的单词进行停用词过滤处理。
由以上技术方案可知,相对于现有技术,本申请实施例先对各个表情符号对应的训练语句进行聚类,基于聚类得到的释义类别进行语料训练,可以避免因一个表情符号对应多个语义不相关的训练语句造成的混乱,提高语料训练的准确性;同时,在进行语料训练的过程中,计算得到每个释义类别对应的第一概率,以及每个释义类别中每个单词对应的第三概率,进而根据该第一概率和第三概率,并结合贝叶斯公式,可以对用户实时输入的目标语句进行精确到单词的语义匹配概率分析,既可以避免现有基于表情标签绝对匹配的推荐方式下推荐触发几率极低的问题,也可以保证最终分析所确定的目标释义类别为与目标语句的实际含义最相近的释义类别,保证推荐出来的表情符号更符合用户当前的需求,进而可以提高推荐准确性,提高用户对表情符号的输入效率,提升用户体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例提供的一种表情符号推荐方法的流程图;
图2为本申请实施例提供的另一种表情符号推荐方法的流程图;
图3为本申请实施例提供的一种表情符号推荐装置的结构示意图。
具体实施方式
为了使本领域的技术人员更好地理解本申请实施例中的技术方案,并使本申请实施例的上述目的、特征和优点能够更加明显易懂,下面结合附图对本申请实施例中技术方案作进一步详细的说明。
本申请实施例提供了一种表情符号推荐方法及装置,以解决现有表情符号输入方法输入效率低的问题。
图1为本申请实施例提供的一种表情符号推荐方法的流程图。本申请实施例提供的表情符号推荐方法可以应用于任一种输入法中,如中文拼音输入法、中文五笔输入法、英文输入法等,用于辅助用户输入表情符号,提高表情符号输入效率。
参照图1所示流程图,该表情符号推荐方法至少包括如下步骤:
S11、获取各个表情符号对应的各个训练语句,并对所述训练语句进行聚类,得到多个释义类别。
上述训练语句,即用于解释相应的表情符号所表示的含义的语句。每个训练语句包括一个或多个单词。可选的,对于不同的语言,所述训练语句具体可以为中文语句、日文语句、英文语句、法文语句等。
实际应用中,一个表情符号可以有多种含义,每种含义可以通过多个训练语句进行描述,即一个表情符号对应大量的训练语句。例如,手掌符号对应的含义可以有3种:举手、停止、击掌;其中,“举手”这一含义对应的训练语句可以有500个,如“A hand heldup showing its palm”;“停止”这一含义对应的训练语句可以有600个,如“stop”;“击掌”这一含义对应的训练语句可以有550个,如“as a high-five”。即,手掌符号对应的训练语句共500+600+550=1650个,对这1650个训练语句及其他表情符号对应的训练语句进行聚类,得到多个释义类别,每个释义类别中可以包括含义相似的多个不同的表情符号。
本申请实施例提供的表情符号推荐方法基于语料训练得到的推荐模型实现,因此,为保证推荐结果的准确性,首先要保证语料训练过程的准确性。由以上手掌符号的释义举例可知,一个表情符号对应的多各训练语句,从字面意思上看可能是完全不相关的,如果直接以表情符号为类别进行训练,则该表情符号的多个不相关的训练语句也都被放在同一类别中,这会导致混乱、训练模型结果不准确,从而难以保证训练准确率。有鉴于此,本申请实施例,先对所有的训练语句进行聚类,使得具有相似语义的句子聚成一类,即一个释义类别,再基于该释义类别进行训练,即可保证训练的准确性。
具体的,本实施例可以采用现有任一种无监督距离方法,如k-means聚类法等。其中,聚类过程中,两个训练语句之间的相似性可以通过其余弦距离来表示,即其中,dij表示两个训练语句之间的余弦距离,ni、nj分别表示两个训练语句单词的个数,sij表示两个训练语句中相同单词的个数。
可选的,在对各个训练语句聚类后,可以为得到的每个释义类别设置相应的编号,以便于数据处理及调用。例如,可以将释义类别分别记为Ci;其中,i=1,2,...,m;m为聚类得到的释义类别的总个数。
以下举例说明对训练语句进行聚类操作的效果。假设表情符号e1共有E11、E12、E13三个训练语句,表情符号e2共有E21、E22三个训练语句,表情符号e3只有E31一个训练语句,根据聚类算法得知,E11和E21语义相似,聚为同一类C1,E12、E13和E31语义相似,聚为同一类C2,E22自成同一类C3,在训练模型中记录该聚类结果,如下表所示。
表1聚类前后表情符号及训练语句记录表
S12、根据每个释义类别中所包含训练语句的总个数,计算每个释义类别对应的第一概率。
可选的,本申请实施例中,计算所述第一概率的具体方法为:
S121、分别统计每个释义类别Ci中所包含的训练语句的总个数
S122、根据如下公式计算各个释义类别Ci对应的第一概率P(Ci):
其中,i=1,2,...,m;m为释义类别的总个数。
仍以上表1所示假设情况为例(m=3),经过步骤S121统计可得,三个释义类别C1、C2、C3中所包含的训练语句总个数分别为:进而经过步骤S122可以计算得到:三个释义类别C1、C2、C3对应的第一概率分别为:
释义类别C1对应的第一概率为P(C1)=2/(2+3+1)=1/3;
释义类别C2对应的第一概率为P(C2)=3/(2+3+1)=1/2;
释义类别C3对应的第一概率为P(C3)=1/(2+3+1)=1/6。
S13、根据训练语句与表情符号的对应关系,确定每个释义类别中所包含的表情符号,并计算每个释义类别中每个表情符号对应的第二概率。
可选的,上述第二概率的具体计算方法可以为:
S131、统计每个释义类别中每个表情符号出现的次数
S132、根据如下公式计算每个释义类别Ci中每个表情符号ek对应的第二概率:
其中,i=1,2,...,m,m为释义类别的总个数;k=1,2,...,p,p为表情符号的总个数。
仍以上表1所示假设情况为例(m=3,p=3),经过步骤S131统计可得:
在释义类别C1中(即i=1时),e1出现的次数为e2出现的次数为e3出现的次数为(即C1中不存在e3);
在释义类别C2中(即i=2时),e1出现的次数为e2出现的次数为e3出现的次数为
在释义类别C3中(即i=3时),e1出现的次数为e2出现的次数为e3出现的次数为
进而经过步骤S132计算可得:
在释义类别C1中(即i=1时),e1对应的第二概率为e2对应的第二概率为P(e2|C1)=1/2,e3对应的第二概率为P(e3|C1)=0(由于C1中不存在e3,故实际应用中可以不计算P(e3|C1));
在释义类别C2中(即i=2时),e1对应的第二概率为P(e1|C2)=2/(2+0+1)=2/3,e2对应的第二概率为P(e2|C2)=0,e3对应的第二概率为P(e3|C2)=1/(2+0+1)=1/3;
在释义类别C3中(即i=3时),e1对应的第二概率为P(e1|C3)=0,e2对应的第二概率为P(e2|C3)=1,e3对应的第二概率为P(e3|C3)=0。
S14、根据每个释义类别中每个单词出现的次数,计算每个释义类别中每个单词对应的第三概率。
所有训练语句所涉及的单词可以依次编号为wj,其中,j=1,2,...,q,q为单词的总个数;对于任一训练语句而言,其可由上述q个单词中的一个或多个组成;对于任一单词而言,其可出现在一个或多个训练语句中,且在同一训练语句中出现的次数也可以为一次或多次。因此,在某一释义类别中,某一单词可以出现一次或多次,步骤S14即统计每个释义类别Ci中每个单词wj出现的次数(其中,i=1,2,...,m,m为释义类别的总个数),根据这些次数,可以计算得到每个释义类别中每个单词对应的第三概率P(wj|Ci)。
可选的,根据如下公式计算每个释义类别Ci中每个单词wj对应的第三概率
本申请实施例中,上述步骤S11至S14完成了语料训练过程;可选的,可以将上述步骤得到的释义类别、第一概率、第二概率和第三概率都保存至推荐模型中,在用户输入文字时,调用该推荐模型,来为用户推荐表情符号,具体步骤如下述S15至S17。
S15、根据所述第一概率和第三概率,利用贝叶斯公式计算用户输入的目标语句属于任一释义类别的第四概率。
其中,用户输入的目标语句可以由一个或多个目标单词构成。
假设所述目标语句由n个目标单词构成,分别为w1,w2,w3,...,wn,则根据贝叶斯(Bayes)公式可以计算该目标语句属于任一释义类别Ci的概率,即上述第四概率,为:
S16、根据所述第四概率确定所述目标语句对应的目标释义类别。
在本申请一个可行的实施例中,可以直接将第四概率最大值对应的释义类别作为所述目标释义类别。其中,由于在w1,w2,w3,...,wn固定的前提下,上述第四概率的计算公式中的分母部分P(w1,w2,w3,...,wn)为固定值,故实际应用中,步骤S15中只需计算分子部分(对于任一释义类别,该分子部分表示该释义类别中各个目标单词对应的第三概率与该释义类别对应的第一概率之积的连续乘积),并通过比较该分子部分的大小来确定哪个释义类别对应的第四概率最大,也即确定哪个释义类别为目标释义类别。
S17、根据所述目标释义类别所包含的各个表情符号对应的第二概率进行表情符号推荐。
本申请实施例中,所述第四概率越高,说明n个单词w1,w2,w3,...,wn的整体含义与该第四概率对应的释义类别中的各个表情符号更匹配,故将第四概率的最大值对应的释义类别为目标释义类别,推荐该目标释义类别中的表情符号后,被用户使用的概率越高,从而可以更有效地提高用户输入表情符号的速度。
本申请实施例中,可以按照第二概率由高到低的顺序,将所述目标释义类别所包含的一个或多个表情符号作为候选表情符号显示出来(也即推荐目标释义类别中第二概率最大的一个或多个表情符号),以待用户进行选择;进而在接收到用户的输入确认操作(如直接点击某个候选表情符号、按下与某个候选表情符号对应的显示编号相同的数字键等)后,即可将该输入确认操作对应的候选表情符号输入当前的文字框中。
由以上技术方案可知,本申请实施例首先以各个表情符号对应的训练语句为语料,进行语料训练,包括对所述训练语句进行聚类,得到多个释义类别,以及基于该释义类别分别计算上述第一概率、第二概率和第三概率;然后在用户输入文字时,根据上述第一概率和第三概率对用户输入的目标语句进行实时分析,确定与所述目标语句最匹配的目标释义类别,最后根据所述第二概率将目标释义类别中的一个或多个表情符号推荐给用户,从而用户通过对被推荐的表情符号进行简单的输入确认操作,即可完成对相应表情符号的输入。相对于现有技术,本申请实施例先对各个表情符号对应的训练语句进行聚类,基于聚类得到的释义类别进行语料训练,可以避免因一个表情符号对应多个语义不相关的训练语句造成的混乱,提高语料训练的准确性;同时,在进行语料训练的过程中,计算得到每个释义类别对应的第一概率,以及每个释义类别中每个单词对应的第三概率,进而根据该第一概率和第三概率,并结合贝叶斯公式,可以对用户实时输入的目标语句进行精确到单词的语义匹配概率分析,既可以避免现有基于表情标签绝对匹配的推荐方式下推荐触发几率极低的问题,也可以保证最终分析所确定的目标释义类别为与目标语句的实际含义最相近的释义类别,保证推荐出来的表情符号更符合用户当前的需求,进而可以提高推荐准确性,提高用户对表情符号的输入效率,提升用户体验。
本申请实施例中,为提高表情符号推荐的准确性,上述步骤S16所述的根据所述第四概率确定所述目标语句对应的目标释义类别,具体可以有多种实施方式,以下分别阐述两种常用实施方式。
在一个可行的实施例中,上述步骤S16具体可以包括:
S1611、判断所述第四概率的最大值是否大于第一阈值;
S1612、当所述第四概率的最大值大于第一阈值时,将所述第四概率的最大值对应的释义类别作为目标释义类别。
上述第一阈值为一概率值,其取值区间为开区间(0,1),即第一阈值大于0且小于1。本申请实施例中,步骤S1611中与第一阈值比较的对象可以为第四概率,也可以为第四概率计算公式中的分子部分。
假设通过比较各个释义类别对应的第四概率P(Ci|w1,w2,w3,...,wn)得知其最大值为P(C1|w1,w2,w3,...,wn),则再比较P(C1|w1,w2,w3,...,wn)是否大于预设的第一阈值,如果是,则将其对应的释义类别C1作为目标释义类别;或者只比较第四概率计算公式的分子部分得知其最大值为则再比较是否大于预设的第一阈值,如果是,则将其对应的释义类别C1作为目标释义类别。
反之,当所述第四概率(或其分子部分)的最大值不大于第一阈值时,则不再执行后续步骤,即不进行表情符号推荐。这样可以保证当且仅当存在与目标语句的匹配度(也即第四概率)高于预设程度(即第一阈值对应的匹配度)的释义类别时才执行表情符号推荐,而由于当各个释义类别与目标语句的匹配度都较低时,即使推荐表情符号,用户选择输入被推荐的表情符号的概率也很低,故本申请实施例在此情况下不执行表情符号推荐,可以避免推荐操作对用户的输入操作的影响。
上述第一阈值的具体取值可以根据表情符号推荐的精确度要求来设置,精确度要求越高,所设置的第一阈值越大。另外,针对步骤S1611中比较对象为第四概率,和比较对象为第四概率计算公式中的分子部分两种具体实施方式,所采用的第一阈值也可以不同。
在另一个可行的实施例中,上述步骤S16具体可以包括:
S1621、按照第四概率由大到小的顺序对各个释义类别排序;
S1622、根据排序结果计算前S个释义类别的第四概率之和;
S1623、判断所述第四概率的最大值与所述第四概率之和的比值是否大于第二阈值;
S1624、当所述比值大于第二阈值时,将所述第四概率的最大值对应的释义类别作为目标释义类别。
其中,s为一预设的正整数,步骤S1621至S1624所针对的比较对象可以为第四概率,也可以为第四概率计算公式中的分子部分(即步骤S15中可以只计算该分子部分,不必计算出真正的第四概率的数值)。
例如,假设预设的第二阈值为0.5,按照第四概率或者第四概率计算公式中的分子部分由大到小的顺序队各个释义类别排序,得知:第四概率(或其分子部分)的最大值为0.3,前5个(假设s=5)释义类别对应的第四概率(或其分子部分)之和为0.5,计算二者比值为0.3/0.5=0.6,大于预设的第二阈值0.5,则将第四概率(或其分子部分)的最大值对应的释义类别作为目标释义类别,并继续执行后续步骤S17完成表情符号推荐。
反之,当步骤S1623中判断得到所述比值不大于第二阈值,则不再执行后续步骤,即不进行表情符号推荐。例如,第四概率(或其分子部分)的最大值为0.2,前5个(假设s=5)释义类别对应的第四概率(或其分子部分)之和为0.5,则其比值为0.2/0.5=0.4,小于预设阈值0.5,则说明不存在与目标语句的匹配度高于预设程度(即第二阈值对应的匹配度)的释义类别,故本实施例在此情况下禁止表情符号推荐,以避免不恰当的表情符号推荐影响用户的正常输入。
以上实施例介绍了两种常用的基于第四概率确定是否存在与目标语句之间匹配度满足要求的训练语句,且仅在存在与目标语句之间匹配度满足要求的训练语句时,才将其作为目标训练语句,并进一步基于目标训练语句中表情符号的第二概率来执行表情符号推荐,可以避免不恰当的表情符号推荐影响用户的正常输入。实际应用中,本领域技术人员还可以想到其他基于第四概率确定目标训练语句的实施方式,均属于本申请的保护范畴。
图2为本申请实施例提供的另一种表情符号推荐方法的流程图。参照图2,该表情推荐方法包括以下步骤:
S21、获取各个表情符号对应的各个训练语句,并对所述训练语句进行聚类,得到多个释义类别。
S22、根据每个释义类别中所包含训练语句的总个数,计算每个释义类别对应的第一概率。
S23、根据训练语句与表情符号的对应关系,确定每个释义类别中所包含的表情符号,并计算每个释义类别中每个表情符号对应的第二概率。
S24、根据每个释义类别中每个单词出现的次数,计算每个释义类别中每个单词对应的第三概率。
上述步骤S21至S24完成了语料训练过程,得到推荐模型,该推荐模型中记录了上述释义类别、第一概率、第二概率和第三概率等训练数据,具体原理可参照前文中步骤S11至S14的相关文字描述,此处不再赘述。
S25、判断当前输入场景是否为预设场景,如果是,则重新执行步骤S25(或结束本次推荐流程),否则执行步骤S26。
S26、根据所述第一概率和第三概率,利用贝叶斯公式计算用户输入的目标语句属于任一释义类别的第四概率。
S27、根据所述第四概率确定所述目标语句对应的目标释义类别。
S28、根据所述目标释义类别所包含的各个表情符号对应的第二概率进行表情符号推荐。
可选的,上述预设场景可以包括商业信函编辑场景、合同书编辑场景等不宜出现表情符号的正式场景。
本申请实施例通过步骤S25限定表情符号推荐的触发时机,仅在适合出现表情符号的非正式场景下执行步骤S26至S28,辅助用户快速输入表情符号,同时避免在不适宜出现表情符号的场景下频繁推荐表情符号影响正常文字的输入效率。
在本申请一个可行的实施例中,为保证上述计算第三概率的准确性,在计算第三概率之前(即执行步骤S14或S24之前),还可以执行以下步骤:
当所述训练语句为第一语言类型时,对所述训练语句进行分词处理。
上述第一语言包括中文、日文等不能直观的区分一个语句中包含的各个单词的语言;当训练语句为第一语言时,本申请实施例先通过分词处理,将训练语句中包含的各个单词区分开来。而对于英语、法语等,可以直接通过空格符号区分不同的单词。
在本申请另一个可行的实施例中,为保证上述计算第三概率的准确性,在计算第三概率之前(即执行步骤S14或S24之前),还可以执行以下步骤:
对所述训练语句中所包含的单词进行停用词过滤处理。
所述停用词,指使用频率很高但又没有实际意义的词,主要包括语气助词、副词、介词、连词等,如英文中的“the”、“a”、“an”、“that”、“is”、“what”等。如果将这些停用词也应用于语料训练,则极有可能影响其他有实际意义的单词的第三概率的准确性,并最终影响对目标语言所述目标释义类别的判断准确性,故本申请实施例在计算第三概率前,先对各个训练语句执行停用词过滤处理。进一步的,对于用户实时输入的目标语句,也可以先执行停用词过滤处理,再根据过滤后的目标语句计算所述第四概率。
同样基于提高推荐准确性的目的,在对训练语句或目标语句执行停用词处理时,还可以去除其中的标点符号。
本领域的技术人员可以清楚地了解到本发明实施例中的技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案可以以软件产品(包括程序或代码等)的形式体现出来,该计算机软件产品可以存储在图像采集设备的图像处理芯片中,当图像处理芯片执行该计算机软件产品时,可以实现上文实施例所述的任一种表情符号推荐方法。
相应的,本申请实施例还提供一种表情符号推荐装置。参照图3所示结构示意图,该装置包括:语料训练单元100和实时推荐单元200。
其中,所述语料训练单元100包括:
聚类处理单元101,用于获取各个表情符号对应的各个训练语句,并对所述训练语句进行聚类,得到多个释义类别;其中,每个训练语句包括一个或多个单词;
第一计算单元102,用于根据每个释义类别中所包含训练语句的总个数,计算每个释义类别对应的第一概率;
第二计算单元103,用于根据训练语句与表情符号的对应关系,确定每个释义类别中所包含的表情符号,并计算每个释义类别中每个表情符号对应的第二概率;
第三计算单元104,用于根据每个释义类别中每个单词出现的次数,计算每个释义类别中每个单词对应的第三概率;
所述实时推荐单元200包括:
第四计算单元201,用于根据所述第一概率和第三概率,利用贝叶斯公式计算用户输入的目标语句属于任一释义类别的第四概率;其中,所述目标语句包括一个或多个目标单词;
目标类别确定单元202,用于根据所述第四概率确定所述目标语句对应的目标释义类别;
实时推荐执行单元203,用于根据所述目标释义类别所包含的各个表情符号对应的第二概率进行表情符号推荐。
由以上技术方案可知,相对于现有技术,本申请实施例先对各个表情符号对应的训练语句进行聚类,基于聚类得到的释义类别进行语料训练,可以避免因一个表情符号对应多个语义不相关的训练语句造成的混乱,提高语料训练的准确性;同时,在进行语料训练的过程中,计算得到每个释义类别对应的第一概率,以及每个释义类别中每个单词对应的第三概率,进而根据该第一概率和第三概率,并结合贝叶斯公式,可以对用户实时输入的目标语句进行精确到单词的语义匹配概率分析,既可以避免现有基于表情标签绝对匹配的推荐方式下推荐触发几率极低的问题,也可以保证最终分析所确定的目标释义类别为与目标语句的实际含义最相近的释义类别,保证推荐出来的表情符号更符合用户当前的需求,进而可以提高推荐准确性,提高用户对表情符号的输入效率,提升用户体验。
可选的,上述第一计算单元、第二计算单元、第三计算单元、第四计算单元所采用的具体计算原理及计算公式可参照上文方法实施例中步骤S12至S15所述,此处不再赘述。
可选的,所述目标类别确定单元202,具体可以包括下述第一确定单元和第二确定单元中的至少一种:
所述第一确定单元,用于判断所述第四概率的最大值是否大于第一阈值,并在所述第四概率的最大值大于第一阈值时,将所述第四概率的最大值对应的释义类别作为目标释义类别;
所述第二确定单元,用于按照第四概率由大到小的顺序对各个释义类别排序,根据排序结果计算前S个释义类别的第四概率之和,判断所述第四概率的最大值与所述第四概率之和的比值是否大于第二阈值,并在所述比值大于第二阈值时,将所述第四概率的最大值对应的释义类别作为目标释义类别。
所述第一确定单元和第二确定单元所采用的具体计算原理及计算公式可参照上文方法实施例中步骤S1611、S1612,以及S1621至S1624,此处不再赘述。
在本申请一个可行的实施例中,上述实时推荐单元200还可以包括:
场景判断单元,用于判断当前输入场景是否为预设场景,并在所述当前输入场景不是预设场景时,触发所述第四计算单元。
可见,本申请实施例通过场景判断单元来限定表情符号推荐的触发时机,仅在适合出现表情符号的非正式场景下执行步骤S26至S28,辅助用户快速输入表情符号,同时避免在不适宜出现表情符号的场景下频繁推荐表情符号影响正常文字的输入效率。
在本申请一个可行的实施例中,上述语料训练单元还包括:
分词处理单元,用于在计算每个单词在相应释义类别中对应的第三概率之前,当所述训练语句为第一语言类型时,对所述训练语句进行分词处理;
和/或,停用词过滤单元,用于在计算每个单词在相应释义类别中对应的第三概率之前,对所述训练语句中所包含的单词进行停用词过滤处理。
本申请实施例中,对于中文、日文等不能直观的区分一个语句中包含的各个单词的第一语言,通过上述分词处理单元可以将训练语句中包含的各个单词准确区分开来,以提高上述计算第三计算单元的计算准确性,进而提高表情符号推荐准确性。而对于英语、法语等,可以直接通过空格符号区分不同的单词。
本申请实施例中,通过上述停用词过滤单元来讲训练语句中没有实际意义的停用词去除,使得上述第三计算单元仅基于具有实际意义的单词进行第三概率计算,提高计算准确性,进而提高表情符号推荐准确性。
另外,为进一步提高表情符号推荐准确性,在本申请其他实施例中,还可以同时在实时推荐单元中设置另一分词处理单元,用于在计算第四概率之前,当所述目标语句为第一语言类型时,对所述目标语句进行分词处理;同样的,还可以在实时推荐单元中设置另一停用词过滤单元,用于在计算第四概率之前,对所述目标语句中所包含的单词进行停用词过滤处理。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其它实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (12)
1.一种表情符号推荐方法,其特征在于,包括:
获取各个表情符号对应的各个训练语句;其中,每个训练语句包括一个或多个单词;
对所述训练语句进行聚类,得到多个释义类别;
根据每个释义类别中所包含训练语句的总个数,计算每个释义类别对应的第一概率;
根据训练语句与表情符号的对应关系,确定每个释义类别中所包含的表情符号,并计算每个释义类别中每个表情符号对应的第二概率;
根据每个释义类别中每个单词出现的次数,计算每个释义类别中每个单词对应的第三概率;
根据所述第一概率和第三概率,利用贝叶斯公式计算用户输入的目标语句属于任一释义类别的第四概率;其中,所述目标语句包括一个或多个目标单词;
根据所述第四概率确定所述目标语句对应的目标释义类别;
根据所述目标释义类别所包含的各个表情符号对应的第二概率进行表情符号推荐;
其中,根据所述第一概率和第三概率,利用贝叶斯公式计算用户输入的目标语句属于任一释义类别的第四概率,包括:
根据以下公式计算所述第四概率:
其中,P(Ci|w1,w2,w3,...,wn)为第四概率,Ci为释义类别,i=1,2,...,m,m为释义类别的总个数;wj为所述目标语句包括的目标单词,j=1,2,...,n,n为所述目标单词的总个数;P(Ci)为所述第一概率;P(wj|Ci)为所述第三概率。
2.根据权利要求1所述的方法,其特征在于,根据每个释义类别中所包含训练语句的总个数,计算每个释义类别对应的第一概率,包括:
分别统计每个释义类别Ci中所包含的训练语句的总个数
根据如下公式计算各个释义类别Ci对应的第一概率其中,i=1,2,...,m;m为释义类别的总个数。
3.根据权利要求1所述的方法,其特征在于,计算每个释义类别中每个表情符号对应的第二概率,包括:
统计每个释义类别Ci中每个表情符号ek出现的次数
根据如下公式计算每个释义类别Ci中每个表情符号ek对应的第二概率其中,i=1,2,...,m,m为释义类别的总个数;k=1,2,...,p,p为表情符号的总个数。
4.根据权利要求1所述的方法,其特征在于,根据每个释义类别中每个单词出现的次数,计算每个释义类别中每个单词对应的第三概率,包括:
统计每个释义类别Ci中每个单词wj出现的次数
根据如下公式计算每个释义类别Ci中每个单词wj对应的第三概率其中,i=1,2,...,m,m为释义类别的总个数;j=1,2,...,q,q为单词的总个数。
5.根据权利要求1至4任一项所述的方法,其特征在于,根据所述第四概率确定所述目标语句对应的目标释义类别,包括:
判断所述第四概率的最大值是否大于第一阈值;
当所述第四概率的最大值大于第一阈值时,将所述第四概率的最大值对应的释义类别作为目标释义类别。
6.根据权利要求1至4任一项所述的方法,其特征在于,根据所述第四概率确定所述目标语句对应的目标释义类别,包括:
按照第四概率由大到小的顺序对各个释义类别排序;
根据排序结果计算前S个释义类别的第四概率之和;
判断所述第四概率的最大值与所述第四概率之和的比值是否大于第二阈值;
当所述比值大于第二阈值时,将所述第四概率的最大值对应的释义类别作为目标释义类别。
7.根据权利要求1至4任一项所述的方法,其特征在于,在根据所述第一概率和第三概率,利用贝叶斯公式计算用户输入的目标语句属于任一释义类别的第四概率之前,还包括:
判断当前输入场景是否为预设场景;
当所述当前输入场景不是预设场景时,执行所根据所述第一概率和第三概率,利用贝叶斯公式计算用户输入的目标语句属于任一释义类别的第四概率。
8.根据权利要求1至4任一项所述的方法,其特征在于,在计算每个单词在相应释义类别中对应的第三概率之前,还包括:
当所述训练语句为第一语言类型时,对所述训练语句进行分词处理;
和/或,对所述训练语句中所包含的单词进行停用词过滤处理。
9.一种表情符号推荐装置,其特征在于,包括:语料训练单元和实时推荐单元;
其中,所述语料训练单元包括:
聚类处理单元,用于获取各个表情符号对应的各个训练语句,并对所述训练语句进行聚类,得到多个释义类别;其中,每个训练语句包括一个或多个单词;
第一计算单元,用于根据每个释义类别中所包含训练语句的总个数,计算每个释义类别对应的第一概率;
第二计算单元,用于根据训练语句与表情符号的对应关系,确定每个释义类别中所包含的表情符号,并计算每个释义类别中每个表情符号对应的第二概率;
第三计算单元,用于根据每个释义类别中每个单词出现的次数,计算每个释义类别中每个单词对应的第三概率;
所述实时推荐单元包括:
第四计算单元,用于根据所述第一概率和第三概率,利用贝叶斯公式计算用户输入的目标语句属于任一释义类别的第四概率;其中,所述目标语句包括一个或多个目标单词;
目标类别确定单元,用于根据所述第四概率确定所述目标语句对应的目标释义类别;
实时推荐执行单元,用于根据所述目标释义类别所包含的各个表情符号对应的第二概率进行表情符号推荐;
其中,所述第四计算单元包括:
第四计算子单元,用于根据以下公式计算所述第四概率:
其中,P(Ci|w1,w2,w3,...,wn)为第四概率,Ci为释义类别,Ci为释义类别,i=1,2,...,m,m为释义类别的总个数;wj为所述目标语句包括的目标单词,j=1,2,...,n,n为所述目标单词的总个数;P(Ci)为所述第一概率;P(wj|Ci)为所述第三概率。
10.根据权利要求9所述的装置,其特征在于,所述目标类别确定单元,包括以下至少一种:
第一确定单元,用于判断所述第四概率的最大值是否大于第一阈值,并在所述第四概率的最大值大于第一阈值时,将所述第四概率的最大值对应的释义类别作为目标释义类别;
第二确定单元,用于按照第四概率由大到小的顺序对各个释义类别排序,根据排序结果计算前S个释义类别的第四概率之和,判断所述第四概率的最大值与所述第四概率之和的比值是否大于第二阈值,并在所述比值大于第二阈值时,将所述第四概率的最大值对应的释义类别作为目标释义类别。
11.根据权利要求9所述的装置,其特征在于,所述实时推荐单元还包括:
场景判断单元,用于判断当前输入场景是否为预设场景,并在所述当前输入场景不是预设场景时,触发所述第四计算单元。
12.根据权利要求9所述的装置,其特征在于,所述语料训练单元还包括:
分词处理单元,用于在计算每个单词在相应释义类别中对应的第三概率之前,当所述训练语句为第一语言类型时,对所述训练语句进行分词处理;
和/或,停用词过滤单元,用于在计算每个单词在相应释义类别中对应的第三概率之前,对所述训练语句中所包含的单词进行停用词过滤处理。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610910534.7A CN106484139B (zh) | 2016-10-19 | 2016-10-19 | 表情符号推荐方法及装置 |
US15/398,753 US11093854B2 (en) | 2016-10-19 | 2017-01-05 | Emoji recommendation method and device thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610910534.7A CN106484139B (zh) | 2016-10-19 | 2016-10-19 | 表情符号推荐方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106484139A CN106484139A (zh) | 2017-03-08 |
CN106484139B true CN106484139B (zh) | 2019-01-29 |
Family
ID=58271047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610910534.7A Active CN106484139B (zh) | 2016-10-19 | 2016-10-19 | 表情符号推荐方法及装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11093854B2 (zh) |
CN (1) | CN106484139B (zh) |
Families Citing this family (105)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
EP3809407A1 (en) | 2013-02-07 | 2021-04-21 | Apple Inc. | Voice trigger for a digital assistant |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10057358B2 (en) * | 2016-12-09 | 2018-08-21 | Paypal, Inc. | Identifying and mapping emojis |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
CN108875758B (zh) * | 2017-05-09 | 2022-01-11 | 富士通株式会社 | 信息处理方法和装置以及信息检测方法和装置 |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10311144B2 (en) * | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10788900B1 (en) * | 2017-06-29 | 2020-09-29 | Snap Inc. | Pictorial symbol prediction |
CN108255316B (zh) * | 2018-01-23 | 2021-09-10 | Oppo广东移动通信有限公司 | 动态调整表情符号的方法、电子装置及计算机可读存储介质 |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US10871877B1 (en) * | 2018-11-30 | 2020-12-22 | Facebook, Inc. | Content-based contextual reactions for posts on a social networking system |
CN109766013A (zh) * | 2018-12-28 | 2019-05-17 | 北京金山安全软件有限公司 | 诗词语句输入推荐方法、装置和电子设备 |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11132511B2 (en) * | 2019-02-05 | 2021-09-28 | International Business Machines Corporation | System for fine-grained affective states understanding and prediction |
CN110058776A (zh) * | 2019-02-13 | 2019-07-26 | 阿里巴巴集团控股有限公司 | Web页面的消息发布方法及装置和电子设备 |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
WO2020232279A1 (en) * | 2019-05-14 | 2020-11-19 | Yawye | Generating sentiment metrics using emoji selections |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
DK201970511A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Voice identification in digital assistant systems |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
CN110765300B (zh) * | 2019-10-14 | 2022-02-22 | 四川长虹电器股份有限公司 | 一种基于emoji的语义解析方法 |
CN111258435B (zh) * | 2020-01-15 | 2024-05-07 | 北京达佳互联信息技术有限公司 | 多媒体资源的评论方法、装置、电子设备及存储介质 |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN112052334B (zh) * | 2020-09-02 | 2024-04-05 | 广州极天信息技术股份有限公司 | 一种文本释义方法、装置及存储介质 |
US11960845B2 (en) | 2021-10-20 | 2024-04-16 | International Business Machines Corporation | Decoding communications with token sky maps |
US20230129314A1 (en) * | 2021-10-26 | 2023-04-27 | Microsoft Technology Licensing, Llc | Multilingual Content Recommendation Pipeline |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7584189B2 (en) * | 2005-06-21 | 2009-09-01 | Yamatake Corporation | Sentence classification device and method |
CN102750274A (zh) * | 2011-01-04 | 2012-10-24 | 张越峰 | 一种初具人类思维的现场智能引导服务系统及方法 |
CN103761254A (zh) * | 2013-12-26 | 2014-04-30 | 清华大学 | 多领域服务主题匹配推荐方法 |
CN104063427A (zh) * | 2014-06-06 | 2014-09-24 | 北京搜狗科技发展有限公司 | 一种基于语义理解的表情输入方法和装置 |
CN104076944A (zh) * | 2014-06-06 | 2014-10-01 | 北京搜狗科技发展有限公司 | 一种聊天表情输入的方法和装置 |
CN104298429A (zh) * | 2014-09-25 | 2015-01-21 | 北京搜狗科技发展有限公司 | 一种基于输入的信息展示方法和输入法系统 |
CN104360759A (zh) * | 2014-11-21 | 2015-02-18 | 百度在线网络技术(北京)有限公司 | 候选字排序方法、装置和文字输入方法、设备 |
CN106021599A (zh) * | 2016-06-08 | 2016-10-12 | 维沃移动通信有限公司 | 一种表情符号推荐方法及移动终端 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150302436A1 (en) * | 2003-08-25 | 2015-10-22 | Thomas J. Reynolds | Decision strategy analytics |
JP2011095905A (ja) * | 2009-10-28 | 2011-05-12 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US8650136B2 (en) * | 2011-02-24 | 2014-02-11 | Ketera Technologies, Inc. | Text classification with confidence grading |
US10664657B2 (en) * | 2012-12-27 | 2020-05-26 | Touchtype Limited | System and method for inputting images or labels into electronic devices |
US9852138B2 (en) * | 2014-06-30 | 2017-12-26 | EMC IP Holding Company LLC | Content fabric for a distributed file system |
CN106611015B (zh) * | 2015-10-27 | 2020-08-28 | 北京百度网讯科技有限公司 | 标签的处理方法及装置 |
US10049087B2 (en) * | 2016-07-19 | 2018-08-14 | International Business Machines Corporation | User-defined context-aware text selection for touchscreen devices |
-
2016
- 2016-10-19 CN CN201610910534.7A patent/CN106484139B/zh active Active
-
2017
- 2017-01-05 US US15/398,753 patent/US11093854B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7584189B2 (en) * | 2005-06-21 | 2009-09-01 | Yamatake Corporation | Sentence classification device and method |
CN102750274A (zh) * | 2011-01-04 | 2012-10-24 | 张越峰 | 一种初具人类思维的现场智能引导服务系统及方法 |
CN103761254A (zh) * | 2013-12-26 | 2014-04-30 | 清华大学 | 多领域服务主题匹配推荐方法 |
CN104063427A (zh) * | 2014-06-06 | 2014-09-24 | 北京搜狗科技发展有限公司 | 一种基于语义理解的表情输入方法和装置 |
CN104076944A (zh) * | 2014-06-06 | 2014-10-01 | 北京搜狗科技发展有限公司 | 一种聊天表情输入的方法和装置 |
CN104298429A (zh) * | 2014-09-25 | 2015-01-21 | 北京搜狗科技发展有限公司 | 一种基于输入的信息展示方法和输入法系统 |
CN104360759A (zh) * | 2014-11-21 | 2015-02-18 | 百度在线网络技术(北京)有限公司 | 候选字排序方法、装置和文字输入方法、设备 |
CN106021599A (zh) * | 2016-06-08 | 2016-10-12 | 维沃移动通信有限公司 | 一种表情符号推荐方法及移动终端 |
Also Published As
Publication number | Publication date |
---|---|
US11093854B2 (en) | 2021-08-17 |
US20180107945A1 (en) | 2018-04-19 |
CN106484139A (zh) | 2017-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106484139B (zh) | 表情符号推荐方法及装置 | |
CN110717339B (zh) | 语义表示模型的处理方法、装置、电子设备及存储介质 | |
Chen et al. | Ikm at semeval-2017 task 8: Convolutional neural networks for stance detection and rumor verification | |
CN108984530A (zh) | 一种网络敏感内容的检测方法及检测系统 | |
Williams et al. | A broad-coverage challenge corpus for sentence understanding through inference | |
WO2020125445A1 (zh) | 分类模型训练方法、分类方法、设备及介质 | |
Huang et al. | Detecting suicidal ideation in Chinese microblogs with psychological lexicons | |
CN109522419B (zh) | 会话信息补全方法及装置 | |
Ahmad et al. | Select, extract and generate: Neural keyphrase generation with layer-wise coverage attention | |
US11593566B2 (en) | Determining topics and action items from conversations | |
CN106355446B (zh) | 一种网络和手机游戏的广告推荐系统 | |
CN111179935B (zh) | 一种语音质检的方法和设备 | |
CN105183717A (zh) | 一种基于随机森林和用户关系的osn用户情感分析方法 | |
CN112631436B (zh) | 输入法敏感词的过滤方法及装置 | |
Riadi | Detection of cyberbullying on social media using data mining techniques | |
CN108959265A (zh) | 跨领域文本情感分类方法、装置、计算机设备及存储介质 | |
CN103678460B (zh) | 用于识别适于在多语言环境中进行通信的非文本元素的方法和系统 | |
CN110688455A (zh) | 基于人工智能过滤无效评论的方法、介质及计算机设备 | |
CN110457595A (zh) | 突发事件报警方法、装置、系统、电子设备及存储介质 | |
Tembhurnikar et al. | Topic detection using BNgram method and sentiment analysis on twitter dataset | |
Azmi et al. | Sentiment Analysis on MySejahtera Application during COVID-19 Pandemic | |
Wang et al. | Early signals of trending rumor event in streaming social media | |
CN116501960B (zh) | 内容检索方法、装置、设备及介质 | |
CN109033078B (zh) | 语句类别识别方法及装置、存储介质、处理器 | |
CN104933097B (zh) | 一种用于检索的数据处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |