CN112698736A - 信息输出方法、装置、电子设备及计算机存储介质 - Google Patents
信息输出方法、装置、电子设备及计算机存储介质 Download PDFInfo
- Publication number
- CN112698736A CN112698736A CN202011640275.3A CN202011640275A CN112698736A CN 112698736 A CN112698736 A CN 112698736A CN 202011640275 A CN202011640275 A CN 202011640275A CN 112698736 A CN112698736 A CN 112698736A
- Authority
- CN
- China
- Prior art keywords
- information
- model
- sample
- frequency modulation
- word classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Abstract
本申请提供了一种信息输出方法、装置、电子设备及计算机存储介质。该信息输出方法,包括:获取用户输入的第一信息;将第一信息输入预设的预测词分类调频排序模型,输出与第一信息相关联的第二信息;其中,预测词分类调频排序模型是利用训练样本集对深度学习模型进行模型训练得到的,训练样本集中的每个训练样本包括样本信息和样本信息的类别信息,样本信息和类别信息分别设有对应的概率系数。根据本申请实施例,能够既提高词的覆盖范围,又减小模型尺寸。
Description
技术领域
本申请属于输入法调频排序技术领域,尤其涉及一种信息输出方法、装置、电子设备及计算机存储介质。
背景技术
目前,相关技术中输入法的预测词调频排序方法,主要是利用针对每一种信息训练出来的模型。但是,该模型由于受到客户端内存、性能等限制,模型的尺寸限制很厉害,导致模型涉及到的词的覆盖范围很受限制,一般只能涉及到一些高频的词。
因此,如何既提高词的覆盖范围,又减小模型尺寸是本领域技术人员亟需解决的技术问题。
发明内容
本申请实施例提供一种信息输出方法、装置、电子设备及计算机存储介质,能够既提高词的覆盖范围,又减小模型尺寸。
第一方面,本申请实施例提供一种信息输出方法,包括:
获取用户输入的第一信息;
将第一信息输入预设的预测词分类调频排序模型,输出与第一信息相关联的第二信息;
其中,预测词分类调频排序模型是利用训练样本集对深度学习模型进行模型训练得到的,训练样本集中的每个训练样本包括样本信息和样本信息的类别信息,样本信息和类别信息分别设有对应的概率系数。
可选的,在将第一信息输入预设的预测词分类调频排序模型,输出与第一信息相关联的第二信息之前,方法还包括:
获取多个样本信息;
利用多个样本信息进行聚类,确定各个样本信息的类别信息;
利用多个样本信息及其类别信息对深度学习模型进行模型训练,得到预测词分类模型;
利用预测词分类模型进行调频排序,得到预测词分类调频排序模型。
可选的,将第一信息输入预设的预测词分类调频排序模型,输出与第一信息相关联的第二信息,包括:
将第一信息输入预测词分类调频排序模型,得到与第一信息相关联的至少一个候选信息;
根据候选信息的概率系数和候选信息所属类别的概率系数,计算各个候选信息的分数;
根据各个候选信息的分数,对各个候选信息进行排序,并作为第二信息进行输出。
可选的,将第一信息输入预测词分类调频排序模型,得到与第一信息相关联的至少一个候选信息,包括:
将第一信息输入预测词分类调频排序模型,根据第一信息的上下文信息、用户使用习惯信息、所在地域信息、输入应用程序App信息,得到与第一信息相关联的至少一个候选信息。
第二方面,本申请实施例提供了一种信息输出装置,包括:
第一获取模块,用于获取用户输入的第一信息;
输出模块,用于将第一信息输入预设的预测词分类调频排序模型,输出与第一信息相关联的第二信息;
其中,预测词分类调频排序模型是利用训练样本集对深度学习模型进行模型训练得到的,训练样本集中的每个训练样本包括样本信息和样本信息的类别信息,样本信息和类别信息分别设有对应的概率系数。
可选的,装置还包括:
第二获取模块,用于获取多个样本信息;
聚类模块,用于利用多个样本信息进行聚类,确定各个样本信息的类别信息;
模型训练模块,用于利用多个样本信息及其类别信息对深度学习模型进行模型训练,得到预测词分类模型;
调频排序模块,用于利用预测词分类模型进行调频排序,得到预测词分类调频排序模型。
可选的,输出模块,包括:
获取单元,用于将第一信息输入预测词分类调频排序模型,得到与第一信息相关联的至少一个候选信息;
计算单元,用于根据候选信息的概率系数和候选信息所属类别的概率系数,计算各个候选信息的分数;
排序单元,用于根据各个候选信息的分数,对各个候选信息进行排序,并作为第二信息进行输出。
可选的,获取单元,包括:
获取子单元,用于将第一信息输入预测词分类调频排序模型,根据第一信息的上下文信息、用户使用习惯信息、所在地域信息、输入应用程序(Application,App)信息,得到与第一信息相关联的至少一个候选信息。
第三方面,本申请实施例提供了一种电子设备,电子设备包括:处理器以及存储有计算机程序指令的存储器;
处理器执行计算机程序指令时实现如第一方面所示的信息输出方法。
第四方面,本申请实施例提供了一种计算机存储介质,计算机存储介质上存储有计算机程序指令,计算机程序指令被处理器执行时实现如第一方面所示的信息输出方法。
本申请实施例的信息输出方法、装置、电子设备及计算机存储介质,能够既提高词的覆盖范围,又减小模型尺寸。该信息输出方法,获取用户输入的第一信息;将第一信息输入预设的预测词分类调频排序模型,输出与第一信息相关联的第二信息。该预测词分类调频排序模型是利用训练样本集对深度学习模型进行模型训练得到的,训练样本集中的每个训练样本包括样本信息和样本信息的类别信息,样本信息和类别信息分别设有对应的概率系数,相比于现有技术该预测词分类调频排序模型不针对每一个词,而是针对每一种分类,故能够既提高词的覆盖范围,又减小模型尺寸。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单的介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个实施例提供的信息输出方法的流程示意图;
图2是本申请一个实施例提供的信息输出装置的结构示意图;
图3是本申请一个实施例提供的电子设备的结构示意图。
具体实施方式
下面将详细描述本申请的各个方面的特征和示例性实施例,为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本申请进行进一步详细描述。应理解,此处所描述的具体实施例仅意在解释本申请,而不是限定本申请。对于本领域技术人员来说,本申请可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本申请的示例来提供对本申请更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
为了解决现有技术问题,本申请实施例提供了一种信息输出方法、装置、电子设备及计算机存储介质。下面首先对本申请实施例所提供的信息输出方法进行介绍。
图1示出了本申请一个实施例提供的信息输出方法的流程示意图。如图1所示,该信息输出方法包括:
S101、获取用户输入的第一信息。
S102、将第一信息输入预设的预测词分类调频排序模型,输出与第一信息相关联的第二信息;其中,预测词分类调频排序模型是利用训练样本集对深度学习模型进行模型训练得到的,训练样本集中的每个训练样本包括样本信息和样本信息的类别信息,样本信息和类别信息分别设有对应的概率系数。
该信息输出方法,获取用户输入的第一信息;将第一信息输入预设的预测词分类调频排序模型,输出与第一信息相关联的第二信息。该预测词分类调频排序模型是利用训练样本集对深度学习模型进行模型训练得到的,训练样本集中的每个训练样本包括样本信息和样本信息的类别信息,样本信息和类别信息分别设有对应的概率系数,相比于现有技术该预测词分类调频排序模型不针对每一个词,而是针对每一种分类,故能够既提高词的覆盖范围,又减小模型尺寸。
在一个实施例中,在将第一信息输入预设的预测词分类调频排序模型,输出与第一信息相关联的第二信息之前,该方法还包括:获取多个样本信息;利用多个样本信息进行聚类,确定各个样本信息的类别信息;利用多个样本信息及其类别信息对深度学习模型进行模型训练,得到预测词分类模型;利用预测词分类模型进行调频排序,得到预测词分类调频排序模型。
在一个实施例中,将第一信息输入预设的预测词分类调频排序模型,输出与第一信息相关联的第二信息,包括:将第一信息输入预测词分类调频排序模型,得到与第一信息相关联的至少一个候选信息;根据候选信息的概率系数和候选信息所属类别的概率系数,计算各个候选信息的分数;根据各个候选信息的分数,对各个候选信息进行排序,并作为第二信息进行输出。
在一个实施例中,将第一信息输入预测词分类调频排序模型,得到与第一信息相关联的至少一个候选信息,包括:将第一信息输入预测词分类调频排序模型,根据第一信息的上下文信息、用户使用习惯信息、所在地域信息、输入App信息,得到与第一信息相关联的至少一个候选信息。
下面以一个实施例对上述技术方案进行具体说明。该实施例的方法包括如下步骤:
(1)对词进行分类。分类方法有很多,主要两种方法:一种是人工分类的方法,比如分成日常用语、人名、地名等等;另一种是机器自动进行分类,对整个词的集合进行聚类,可以聚成N个类。
(2)基于以上分类,训练一个预测分类的方法,方法如下:
抽取训练语料数据,数据分为两部分,用户的输入序列作为模型的输入,下一个词的分类作为模型的输出;使用深度学习模型进行训练,一般用RNN相关的模型,最终得到一个可以根据上文信息预测一下词的分类的模型。
(3)利用词分类预测模型进行调频,具体方法如下:将用户的输入内容输入到模型中,预测用户想要输入的下一个词的分类的概率分布,即每个分类都有一个概率Pi;对候选词进行分类调频,每个候选词都对应一个词分类,候选词本身的得分Sj*Pi(Pi是该词对应分类的概率),就是最终的得分,然后进行排序。
(4)在一个实施例中,该模型还可以综合上文信息、输入App信息、所在地域信息等,进行下一个词的分类的预测,具体方法如下:训练预测分类的模型时,训练数据中增加这些信息,与用户的输入序列一起作为模型的输入;预测用户下一个词的分类时,将用户已输入的序列以及用户所在地域信息、输入App信息等一起输入到模型中;对候选词进行分类调频也是一样的操作。
本实施例首先进行预测词分类,然后对分类中的词进行调频,这样调频模型就不用针对每一个词,而是针对每一种分类,故能够既提高词的覆盖范围,又减小模型尺寸,使得候选词的排序更加精准。
如图2所示,本申请实施例还提供一种信息输出装置,包括:
第一获取模块201,用于获取用户输入的第一信息;
输出模块202,用于将第一信息输入预设的预测词分类调频排序模型,输出与第一信息相关联的第二信息;
其中,预测词分类调频排序模型是利用训练样本集对深度学习模型进行模型训练得到的,训练样本集中的每个训练样本包括样本信息和样本信息的类别信息,样本信息和类别信息分别设有对应的概率系数。
在一个实施例中,该装置还包括:
第二获取模块,用于获取多个样本信息;
聚类模块,用于利用多个样本信息进行聚类,确定各个样本信息的类别信息;
模型训练模块,用于利用多个样本信息及其类别信息对深度学习模型进行模型训练,得到预测词分类模型;
调频排序模块,用于利用预测词分类模型进行调频排序,得到预测词分类调频排序模型。
在一个实施例中,输出模块202,包括:
获取单元,用于将第一信息输入预测词分类调频排序模型,得到与第一信息相关联的至少一个候选信息;
计算单元,用于根据候选信息的概率系数和候选信息所属类别的概率系数,计算各个候选信息的分数;
排序单元,用于根据各个候选信息的分数,对各个候选信息进行排序,并作为第二信息进行输出。
在一个实施例中,获取单元,包括:
获取子单元,用于将第一信息输入预测词分类调频排序模型,根据第一信息的上下文信息、用户使用习惯信息、所在地域信息、输入应用程序App信息,得到与第一信息相关联的至少一个候选信息。
图2所示装置中的各个模块/单元具有实现图1中各个步骤的功能,并能达到其相应的技术效果,为简洁描述,在此不再赘述。
图3示出了本申请实施例提供的电子设备的结构示意图。
电子设备可以包括处理器301以及存储有计算机程序指令的存储器302。
具体地,上述处理器301可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
存储器302可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器302可包括硬盘驱动器(Hard Disk Drive,HDD)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(Universal Serial Bus,USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器302可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器302可在电子设备的内部或外部。在特定实施例中,存储器302可以是非易失性固态存储器。
在一个实例中,存储器302可以是只读存储器(Read Only Memory,ROM)。在一个实例中,该ROM可以是掩模编程的ROM、可编程ROM(PROM)、可擦除PROM(EPROM)、电可擦除PROM(EEPROM)、电可改写ROM(EAROM)或闪存或者两个或更多个以上这些的组合。
处理器301通过读取并执行存储器302中存储的计算机程序指令,以实现上述实施例中的任意一种信息输出方法。
在一个示例中,电子设备还可包括通信接口303和总线310。其中,如图3所示,处理器301、存储器302、通信接口303通过总线310连接并完成相互间的通信。
通信接口303,主要用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。
总线310包括硬件、软件或两者,将在线数据流量计费设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(AGP)或其他图形总线、增强工业标准架构(EISA)总线、前端总线(FSB)、超传输(HT)互连、工业标准架构(ISA)总线、无限带宽互连、低引脚数(LPC)总线、存储器总线、微信道架构(MCA)总线、外围组件互连(PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(SATA)总线、视频电子标准协会局部(VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线310可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
另外,本申请实施例可提供一种计算机存储介质来实现。该计算机存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种信息输出方法。
需要明确的是,本申请并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本申请的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本申请的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
以上所述的结构框图中所示的功能模块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本申请的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、ROM、闪存、可擦除ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
还需要说明的是,本申请中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或系统。但是,本申请不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
上面参考根据本申请的实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本申请的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。
以上所述,仅为本申请的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。
Claims (10)
1.一种信息输出方法,其特征在于,包括:
获取用户输入的第一信息;
将所述第一信息输入预设的预测词分类调频排序模型,输出与所述第一信息相关联的第二信息;
其中,所述预测词分类调频排序模型是利用训练样本集对深度学习模型进行模型训练得到的,所述训练样本集中的每个训练样本包括样本信息和所述样本信息的类别信息,所述样本信息和所述类别信息分别设有对应的概率系数。
2.根据权利要求1所述的信息输出方法,其特征在于,在所述将所述第一信息输入预设的预测词分类调频排序模型,输出与所述第一信息相关联的第二信息之前,所述方法还包括:
获取多个所述样本信息;
利用多个所述样本信息进行聚类,确定各个所述样本信息的所述类别信息;
利用多个所述样本信息及其所述类别信息对所述深度学习模型进行模型训练,得到预测词分类模型;
利用所述预测词分类模型进行调频排序,得到所述预测词分类调频排序模型。
3.根据权利要求1所述的信息输出方法,其特征在于,所述将所述第一信息输入预设的预测词分类调频排序模型,输出与所述第一信息相关联的第二信息,包括:
将所述第一信息输入所述预测词分类调频排序模型,得到与所述第一信息相关联的至少一个候选信息;
根据所述候选信息的概率系数和所述候选信息所属类别的概率系数,计算各个所述候选信息的分数;
根据各个所述候选信息的分数,对各个所述候选信息进行排序,并作为所述第二信息进行输出。
4.根据权利要求3所述的信息输出方法,其特征在于,所述将所述第一信息输入所述预测词分类调频排序模型,得到与所述第一信息相关联的至少一个候选信息,包括:
将所述第一信息输入所述预测词分类调频排序模型,根据所述第一信息的上下文信息、用户使用习惯信息、所在地域信息、输入应用程序App信息,得到与所述第一信息相关联的至少一个所述候选信息。
5.一种信息输出装置,其特征在于,包括:
第一获取模块,用于获取用户输入的第一信息;
输出模块,用于将所述第一信息输入预设的预测词分类调频排序模型,输出与所述第一信息相关联的第二信息;
其中,所述预测词分类调频排序模型是利用训练样本集对深度学习模型进行模型训练得到的,所述训练样本集中的每个训练样本包括样本信息和所述样本信息的类别信息,所述样本信息和所述类别信息分别设有对应的概率系数。
6.根据权利要求5所述的信息输出装置,其特征在于,所述装置还包括:
第二获取模块,用于获取多个所述样本信息;
聚类模块,用于利用多个所述样本信息进行聚类,确定各个所述样本信息的所述类别信息;
模型训练模块,用于利用多个所述样本信息及其所述类别信息对所述深度学习模型进行模型训练,得到预测词分类模型;
调频排序模块,用于利用所述预测词分类模型进行调频排序,得到所述预测词分类调频排序模型。
7.根据权利要求5所述的信息输出装置,其特征在于,所述输出模块,包括:
获取单元,用于将所述第一信息输入所述预测词分类调频排序模型,得到与所述第一信息相关联的至少一个候选信息;
计算单元,用于根据所述候选信息的概率系数和所述候选信息所属类别的概率系数,计算各个所述候选信息的分数;
排序单元,用于根据各个所述候选信息的分数,对各个所述候选信息进行排序,并作为所述第二信息进行输出。
8.根据权利要求7所述的信息输出装置,其特征在于,所述获取单元,包括:
获取子单元,用于将所述第一信息输入所述预测词分类调频排序模型,根据所述第一信息的上下文信息、用户使用习惯信息、所在地域信息、输入应用程序App信息,得到与所述第一信息相关联的至少一个所述候选信息。
9.一种电子设备,其特征在于,所述电子设备包括:处理器以及存储有计算机程序指令的存储器;
所述处理器执行所述计算机程序指令时实现如权利要求1-4任意一项所述的信息输出方法。
10.一种计算机存储介质,其特征在于,所述计算机存储介质上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现如权利要求1-4任意一项所述的信息输出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011640275.3A CN112698736A (zh) | 2020-12-31 | 2020-12-31 | 信息输出方法、装置、电子设备及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011640275.3A CN112698736A (zh) | 2020-12-31 | 2020-12-31 | 信息输出方法、装置、电子设备及计算机存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112698736A true CN112698736A (zh) | 2021-04-23 |
Family
ID=75513994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011640275.3A Pending CN112698736A (zh) | 2020-12-31 | 2020-12-31 | 信息输出方法、装置、电子设备及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112698736A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102640089A (zh) * | 2009-10-09 | 2012-08-15 | 触摸式有限公司 | 电子设备的文本输入系统及文本输入方法 |
CN102722483A (zh) * | 2011-03-29 | 2012-10-10 | 百度在线网络技术(北京)有限公司 | 用于确定输入法的候选项排序的方法、装置和设备 |
CN103870000A (zh) * | 2012-12-11 | 2014-06-18 | 百度国际科技(深圳)有限公司 | 一种对输入法所产生的候选项进行排序的方法及装置 |
CN103869999A (zh) * | 2012-12-11 | 2014-06-18 | 百度国际科技(深圳)有限公司 | 对输入法所产生的候选项进行排序的方法及装置 |
CN104268166A (zh) * | 2014-09-09 | 2015-01-07 | 北京搜狗科技发展有限公司 | 一种输入方法、装置和电子设备 |
CN110874145A (zh) * | 2018-08-30 | 2020-03-10 | 北京搜狗科技发展有限公司 | 一种输入方法、装置及电子设备 |
-
2020
- 2020-12-31 CN CN202011640275.3A patent/CN112698736A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102640089A (zh) * | 2009-10-09 | 2012-08-15 | 触摸式有限公司 | 电子设备的文本输入系统及文本输入方法 |
CN102722483A (zh) * | 2011-03-29 | 2012-10-10 | 百度在线网络技术(北京)有限公司 | 用于确定输入法的候选项排序的方法、装置和设备 |
CN103870000A (zh) * | 2012-12-11 | 2014-06-18 | 百度国际科技(深圳)有限公司 | 一种对输入法所产生的候选项进行排序的方法及装置 |
CN103869999A (zh) * | 2012-12-11 | 2014-06-18 | 百度国际科技(深圳)有限公司 | 对输入法所产生的候选项进行排序的方法及装置 |
CN104268166A (zh) * | 2014-09-09 | 2015-01-07 | 北京搜狗科技发展有限公司 | 一种输入方法、装置和电子设备 |
CN110874145A (zh) * | 2018-08-30 | 2020-03-10 | 北京搜狗科技发展有限公司 | 一种输入方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108280542B (zh) | 一种用户画像模型的优化方法、介质以及设备 | |
CN112200273B (zh) | 数据标注方法、装置、设备及计算机存储介质 | |
CN116543221B (zh) | 关节病变智能检测方法、装置、设备及可读存储介质 | |
CN111538823A (zh) | 信息处理方法、模型训练方法、装置、设备及介质 | |
CN116108149A (zh) | 智能问答方法及其装置、设备、介质及产品 | |
CN111385659B (zh) | 一种视频推荐方法、装置、设备及存储介质 | |
CN114491244A (zh) | 基于大数据优化资源配置的方法、装置、设备及存储介质 | |
CN112698736A (zh) | 信息输出方法、装置、电子设备及计算机存储介质 | |
CN109993381B (zh) | 基于知识图谱的需求管理应用方法、装置、设备及介质 | |
CN114417830A (zh) | 风险评价方法、装置、设备及计算机可读存储介质 | |
CN111461118B (zh) | 兴趣特征确定方法、装置、设备及存储介质 | |
CN114090643A (zh) | 招聘信息推荐方法、装置、设备及存储介质 | |
CN111144575A (zh) | 舆情预警模型的训练方法、预警方法、装置、设备及介质 | |
CN112214675A (zh) | 用户购机的确定方法、装置、设备及计算机存储介质 | |
CN112684915A (zh) | 候选词输出方法、装置、电子设备及计算机存储介质 | |
CN113051400A (zh) | 标注数据确定方法、装置、可读介质及电子设备 | |
CN114547101B (zh) | 数据中台的数据质量评估方法、装置、设备及存储介质 | |
CN114202494A (zh) | 基于细胞分类模型分类细胞的方法、装置及设备 | |
CN109996274B (zh) | Lte小区参数的调整方法、装置、设备及介质 | |
CN113112102A (zh) | 优先级确定方法、装置、设备及存储介质 | |
CN114255743A (zh) | 语音识别模型的训练方法、语音识别方法及装置 | |
CN112329423A (zh) | Icp备案公司分类方法、装置、电子设备及计算机存储介质 | |
CN112417959A (zh) | 图片生成方法、装置、电子设备及计算机存储介质 | |
CN113496288B (zh) | 用户稳定性确定方法、装置、设备及存储介质 | |
CN116887257B (zh) | 车联网卡的滥用识别方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210423 |