CN108280104A - 目标对象的特征信息提取方法及装置 - Google Patents

目标对象的特征信息提取方法及装置 Download PDF

Info

Publication number
CN108280104A
CN108280104A CN201710076121.8A CN201710076121A CN108280104A CN 108280104 A CN108280104 A CN 108280104A CN 201710076121 A CN201710076121 A CN 201710076121A CN 108280104 A CN108280104 A CN 108280104A
Authority
CN
China
Prior art keywords
virtual objects
packet
vector
target object
objects packet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710076121.8A
Other languages
English (en)
Other versions
CN108280104B (zh
Inventor
户保田
陈谦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201710076121.8A priority Critical patent/CN108280104B/zh
Priority to PCT/CN2018/074795 priority patent/WO2018145596A1/zh
Publication of CN108280104A publication Critical patent/CN108280104A/zh
Priority to US16/439,089 priority patent/US11436430B2/en
Application granted granted Critical
Publication of CN108280104B publication Critical patent/CN108280104B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data

Abstract

本发明是关于一种目标对象的特征信息提取方法及装置。该方法包括:获取目标对象的至少两个虚拟物品包各自对应的包属性向量,并获取目标对象的对象属性向量,对至少两个虚拟物品包各自对应的包属性向量进行机器训练,获得至少两个虚拟物品包各自对应的特征向量,并对至少两个虚拟物品包各自对应的特征向量以及目标对象的对象属性向量进行机器训练,获得至少两个虚拟物品包各自对应的重要性分数,根据至少两个虚拟物品包各自对应的特征向量以及至少两个虚拟物品包各自对应的重要性分数,提取目标对象的特征信息,充分考虑了不同属性的用户在使用虚拟物品包时的区别,从而提高了特征信息提取的准确性。

Description

目标对象的特征信息提取方法及装置
技术领域
本发明涉及网络应用技术领域,特别涉及一种目标对象的特征信息提取方法及装置。
背景技术
随着网络应用技术的发展,越来越多的用户使用社交网络应用中的虚拟物品包来赠送或接受货币、积分、网络游戏中的装备以及虚拟宠物等资源。
随着用户使用虚拟物品包的行为的不断增多,虚拟物品包的使用行为在用户的网络行为中所占的比重也越来越高,相应的,通过提取单个用户或群组用户使用虚拟物品包的行为的特征信息,来对单个用户或群组进行分析,比如对用户或群组进行分类,也越来越受到网络服务商的重视。
在相关技术中,网络服务商的服务器在提取单个用户或群组用户使用虚拟物品包的行为的特征信息时,对于一个用户或者群组,通常会统计该用户或群组对应的虚拟物品包的各项属性的属性信息,比如数量、总资源数、平均资源数以及资源数方差等等,再由服务器的管理人员从上述各项属性的属性信息中人工确定出异常的属性信息,作为对应的用户或群组的特征信息。
在上述提取特征信息的过程中,需要管理人员人工确定提取用户或群组使用虚拟物品包的哪些属性,这对管理人员的人工经验的要求很高,导致特征信息提取的准确性较低。
发明内容
为了解决现有技术中需要管理人员人工确定提取用户或群组使用虚拟物品包的哪些属性,对管理人员的人工经验的要求高,导特征信息提取的准确性较低的问题,本发明实施例提供了一种目标对象的特征信息提取方法及装置,技术方案如下:
第一方面,提供了一种目标对象的特征信息提取方法,所述方法包括:
获取目标对象的至少两个虚拟物品包各自对应的包属性向量,并获取所述目标对象的对象属性向量,所述包属性向量中的每个元素指示对应的虚拟物品包的一种属性,所述对象属性向量中的每个元素指示所述目标对象的一种属性;
通过第一机器训练模型对所述至少两个虚拟物品包各自对应的包属性向量进行机器训练,获得所述至少两个虚拟物品包各自对应的特征向量;
通过第二机器训练模型对所述至少两个虚拟物品包各自对应的特征向量以及所述目标对象的对象属性向量进行机器训练,获得所述至少两个虚拟物品包各自对应的重要性分数;
根据所述至少两个虚拟物品包各自对应的特征向量以及所述至少两个虚拟物品包各自对应的重要性分数,提取所述目标对象的特征信息。
第二方面,提供了一种目标对象的特征信息提取装置,所述装置包括:
第一向量获取模块,用于获取目标对象的至少两个虚拟物品包各自对应的包属性向量,所述包属性向量中的每个元素指示对应的虚拟物品包的一种属性;
第二向量获取模块,用于获取所述目标对象的对象属性向量,所述对象属性向量中的每个元素指示所述目标对象的一种属性;
特征向量获得模块,用于通过第一机器训练模型对所述至少两个虚拟物品包各自对应的包属性向量进行机器训练,获得所述至少两个虚拟物品包各自对应的特征向量;
分数获得模块,用于通过第二机器训练模型对所述至少两个虚拟物品包各自对应的特征向量以及所述目标对象的对象属性向量进行机器训练,获得所述至少两个虚拟物品包各自对应的重要性分数;
特征提取模块,用于根据所述至少两个虚拟物品包各自对应的特征向量以及所述至少两个虚拟物品包各自对应的重要性分数,提取所述目标对象的特征信息。
本发明实施例提供的技术方案可以包括以下有益效果:
在提取用户或者群组的特征信息时,结合用户或者群组的属性对该用户或群组使用的虚拟物品包的特征向量进行机器训练,获得用户或群组使用的各个虚拟物品包各自对应的重要性,并结合各个虚拟物品包各自对应的重要性来进行特征信息的提取,充分考虑了不同属性的用户在使用虚拟物品包时的区别,从而提高了特征信息提取的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种目标对象的特征信息提取系统的结构示意图;
图2是根据一示例性实施例示出的一种目标对象的特征信息提取方法的流程图;
图3是图2所示的实施例涉及的方案的实现示意图;
图4是根据一示例性实施例示出的一种目标对象的特征信息提取方法的流程图;
图5是图4所示的实施例涉及的方案的实现示意图;
图6是根据一示例性实施例示出的一种目标对象的特征信息提取装置的结构方框图;
图7是根据一示例性实施例示出的一种服务器的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1是本发明一示例性实施例示出的一种目标对象的特征信息提取系统的结构示意图。该系统包括:若干个用户终端120和服务器集群140。
用户终端120可以是手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExperts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPicture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
用户终端120与服务器集群140之间通过通信网络相连。可选的,通信网络是有线网络或无线网络。
服务器集群140是一台服务器,或者由若干台服务器,或者是一个虚拟化平台,或者是一个云计算服务中心。可选的,服务器集群140可以包括特征信息管理平台142,可选的,服务器集群140还包括社交网络平台144;可选的,服务器集群140还包括用户操作记录管理服务器146。
可选的,特征信息管理平台142包括:用于实现特征信息提取的服务器以及用于实现基于特征信息的应用(比如,对用户或群组进行分类)的服务器。
可选的,社交网络平台144包括:用于实现虚拟物品包收发的服务器、用于实现社交信息收发的服务器、用于管理和存储各个用户账号的服务器、用于管理和存储各个群组账号的服务器、用于管理各个用户账号或群组账号的联系人列表的服务器。社交网络平台144与用户操作记录管理服务器146之间通过通信网络相连。
可选的,用户操作记录管理服务器146包括:用于统计用户对虚拟物品包的历史使用记录的服务器、用于存储用户对虚拟物品包的历史使用记录的服务器。
可选的,用户操作记录管理服务器146在用户授权认可的前提下,可以从本地的社交网络平台144,或者,从其它关联的社交网络应用平台中获取用户对虚拟物品包的操作记录数据,并根据获取到的操作记录统计用户对虚拟物品包的历史使用记录。
可选的,该系统还可以包括管理设备160,该管理设备160与服务器集群140之间通过通信网络相连。可选的,通信网络是有线网络或无线网络。
可选的,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(Extensible MarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Trassport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(Internet ProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
在本发明实施例中,虚拟物品包还可以称为虚拟红包、电子红包,虚拟物品包是一种在至少两个用户之间以赠送形式转移资源(或称为虚拟物品)的虚拟载体。该至少两个用户在客户端和/或真实世界中具有好友关系,也可以不具有好友关系。虚拟物品包中所涉及的资源(或称为虚拟物品)可以是货币、游戏装备、游戏材料、游戏宠物、游戏币、图标、会员、称号、增值业务、积分、元宝、金豆、礼金券、兑换券、优惠券、贺卡等等。本发明实施例对资源类型不作限定。
本发明的各个实施例涉及的方案可以由上述图1所示的系统中的服务器集群来执行,具体的,在提取目标对象(可以是用户或者包含多个用户的群组)的特征信息时,可以获取目标对象的至少两个虚拟物品包各自对应的包属性向量,并获取该目标对象的对象属性向量,该包属性向量中的每个元素指示对应的虚拟物品包的一种属性,该对象属性向量中的每个元素指示该目标对象的一种属性,通过第一机器训练模型对该至少两个虚拟物品包各自对应的包属性向量进行机器训练,获得该至少两个虚拟物品包各自对应的特征向量,并通过第二机器训练模型对该至少两个虚拟物品包各自对应的特征向量以及该目标对象的对象属性向量进行机器训练,获得该至少两个虚拟物品包各自对应的重要性分数,再根据该至少两个虚拟物品包各自对应的特征向量以及该至少两个虚拟物品包各自对应的重要性分数,提取该目标对象的特征信息。
上述方案中,服务器集群在提取用户或者群组的特征信息时,结合用户或者群组的属性对该用户或群组使用的虚拟物品包的特征向量进行机器训练,获得用户或群组使用的各个虚拟物品包各自对应的重要性,并结合各个虚拟物品包各自对应的重要性来进行特征信息的提取,充分考虑了不同属性的用户在使用虚拟物品包时的区别,从而提高了特征信息提取的准确性。
在本发明各个实施例所示的方案,可以结合循环神经网络以及注意力机制来实现上述特征信息提取的方案,即上述第一机器训练模型是循环神经网络模型,第二机器训练模型是注意力机制模型。本发明下面的实施例将以这两种模型的结合为例进行说明。
图2是根据一示例性实施例示出的一种目标对象的特征信息提取方法的流程图,以应用于如图1所示的系统中的服务器集群为例,该目标对象的特征信息提取方法可以包括如下几个步骤:
步骤201,获取目标对象的至少两个虚拟物品包各自对应的包属性向量。
其中,该包属性向量中的每个元素指示对应的虚拟物品包的一种属性。
在本发明实施例中,目标对象可以是一个用户,或者,该目标对象也可以是由至少两个用户组成的群组;其中,虚拟物品包的属性可以包括目标对象操作虚拟物品包的行为(比如接收虚拟物品包或者发送虚拟物品包)、虚拟物品包的类型(比如,群发的虚拟物品包或者私发的虚拟物品包)、虚拟物品包的资源数值(比如货币金额)、虚拟物品包被分为的份数、虚拟物品包涉及的用户之间的关系(比如与目标对象是否为好友关系)、虚拟物品包对应的时间、虚拟物品包的留言等。
可选的,上述获取包属性向量的过程可以由图1所示的服务器集群中的特征信息管理平台142来执行。比如,特征信息管理平台142可以从用户操作记录管理服务器146获取目标对象(可以是单个用户或群组)对至少两个虚拟物品包的历史使用记录,并根据该历史使用记录,从社交网络平台144获取对应的至少两个虚拟物品包的各项属性,并按照预定的包属性向量表示规则将该至少两个虚拟物品包的各项属性表示成维度固定的向量,即上述包属性向量,其中,每个虚拟物品包对应一个包属性向量。
可选的,特征信息管理平台142在按照预定的规则将该虚拟物品包的各项属性表示成维度固定的向量时,可以按照第一数值化规则(即上述包属性向量表示规则)将各项属性分别进行数值化,并将数值化之后的各项属性作为对应的虚拟物品包的包属性向量中的各个维度的值。比如,第一数值化规则如下:
包属性向量中的第1个元素对应目标对象操作虚拟物品包的行为,接收行为对应数值1,发送行为对应数值2。
包属性向量中的第2个元素对应虚拟物品包的类型,群发的虚拟物品包对应数值1,私发的虚拟物品包对应数值2。
包属性向量中的第3个元素对应虚拟物品包的资源数值,比如货币金额,对应的数值为货币数值。
包属性向量中的第4个元素对应虚拟物品包被分为的份数,对应的数值就是该份数的数值。
包属性向量中的第5个元素对应虚拟物品包涉及的用户之间的关系,若虚拟物品包涉及的其他用户与目标对象是好友关系,则对应的数值为1,若虚拟物品包涉及的其他用户与目标对象不是好友关系,则对应的数值为2,若虚拟物品包涉及的其他用户中,部分用户与目标对象是好友关系,而其他部分用户与目标对象不是好友关系,则对应的数值为3。
包属性向量中的第6个元素对应虚拟物品包对应的时间,对应的数值为该时间的数值,比如,2016年12月5日16点17分08秒发送的虚拟物品包,对应的时间的数值为20161205161708。
包属性向量中的第7个元素对应虚拟物品包的留言,不同类型的留言对应不同的数值,比如,无留言对应数值0,节日祝福留言对应数值1,生日祝福留言对应数值2,新婚祝福留言对应数值3,其它留言对应数值5。
以上述第一数值化规则为例,假设某个虚拟物品包是目标对象群发的红包,红包总金额为2元,分成5份,接收到该红包的其他用户与目标对象都是好友关系,发送时间为2016年12月5日16点17分08秒,留言为“新春快乐!”,则特征信息管理平台142按照上述数值化规则,获得该虚拟物品包对应的包属性向量为(2,1,2,5,1,20161205161708,1)。
需要说明的是,本发明实施例仅以上述几种虚拟物品包的属性为例进行说明,在实际应用中,可以根据实际情况设置虚拟物品包的具体属性,本发明实施例对于虚拟物品包的属性的数量和种类不做限定。
步骤202,获取该目标对象的对象属性向量。
其中,该对象属性向量中的每个元素指示该目标对象的一种属性。
在本发明实施例中,不同类型的目标对象所对应的属性也可能不同。比如,当目标对象是单个用户时,该目标对象的属性可以包括用户的年龄、学历、职业、性别、是否通过了邮箱验证以及所在地域等;当目标对象是群组时,该目标对象的属性可以包括群组成员的数量、平均年龄、平均学历、性别分布、群组活跃时间、以及群组名称关键词等等。
可选的,上述获取包属性向量的过程可以由图1所示的服务器集群中的特征信息管理平台142来执行。比如,特征信息管理平台142可以从社交网络平台144获取目标对象的各项属性,并按照预定的对象属性向量表示规则将该目标对象的各项属性表示成维度固定的向量,即上述对象属性向量。
可选的,特征信息管理平台142在按照预定的规则将该虚拟物品包的各项属性表示成维度固定的向量时,可以按照第二数值化规则(即上述对象属性向量表示规则)将各项属性分别进行数值化,并将数值化之后的各项属性作为对象属性向量中的各个维度的值。
具体比如,当目标对象为单个用户时,第二数值化规则如下:
对象属性向量中的第1个元素对应用户的年龄,对应的数值为年龄的数值。
对象属性向量中的第2个元素对应用户的学历,无学历对应的数值为0,小学学历对应的数值为1,中学学历对应的数值为2,本科/大专学历对应的数值为3,硕士学历对应的数值为4,博士及以上学历对应的数值为5。
对象属性向量中的第3个元素对应用户的职业,比如,公务员对应数值1,专业技术人员对应数值2,管理人员对应数值3,商业/服务业人员对应数值4,生产人员对应数值5,军人对应数值6,其它人员对应数值7。
对象属性向量中的第4个元素对应用户的性别,男性对应数值1,女性对应数值2。
对象属性向量中的第5个元素对应用户是否通过了邮箱验证,通过邮箱验证对应数值1,未通过邮箱验证对应数值2。
对象属性向量中的第6个元素对应用户的所在地域,比如,北京对应数值001,上海对应数值002,广州对应数值003,深圳对应数值004等等。
假设目标对象是用户A,年龄25,学历本科,职业为专业技术人员,性别男,未通过邮箱验证,所在地域为上海,则特征信息管理平台142按照上述第二数值化规则,获得该用户A对应的对象属性向量为(25,3,2,1,2,002)。
或者,比如当目标对象为群组时,第二数值化规则如下:
对象属性向量中的第1个元素对应群组成员的总数量,对应的数值为群组成员的总数量的数值。
对象属性向量中的第2个元素对应群组成员的平均年龄,对应的数值为平均年龄的数值。
对象属性向量中的第3个元素对应群组成员的平均学历,无学历对应的数值为0,小学学历对应的数值为1,中学学历对应的数值为2,本科/大专学历对应的数值为3,硕士学历对应的数值为4,博士及以上学历对应的数值为5。
对象属性向量中的第4个元素对应群组成员的性别分布,对应的数值为男性群组成员的数量与群组成员总数量之间的比值,或者,也可以是女性群组成员的数量与群组成员总数量之间的比值。
对象属性向量中的第5个元素对应群组活跃时间,比如,将一天的时间划分为四个时间段,分别为上午(凌晨6点至中午12点)、下午(中午12点至下午6点)、晚上(下午6点至晚上12点)以及夜间(晚上12点至凌晨6点),对应每个时间段,活跃状态对应数值为1,非活跃状态对应数值为2,比如,某群组在上午和晚上这两个时间段活跃,则对应的数值为1010。
对象属性向量中的第6个元素对应群组名称关键词,比如,群组名称关键词包含“家”或者“家庭”等词语时,对应数值为1,包含“友”或者“朋友”等词语时,对应数值为2,包含“同事”或者公司名称等词语时,对应数值为3,其它词语对应数值为4。
假设目标对象是群组A,群组成员总数量为30,平均年龄31,平均学历为本科/大专,男性群成员数量与群成员总数量的比值为0.8,群组活跃时间为上午,群组名称为“XX公司小分队”,则特征信息管理平台142按照上述第二数值化规则,获得该群组A对应的对象属性向量为(30,31,3,0.8,1000,3)。
需要说明的是,本发明实施例仅以上述用户或群组的几种属性为例进行说明,在实际应用中,可以根据实际情况设置目标对象的具体属性,本发明实施例对于目标对象的属性的数量和种类不做限定。
步骤203,通过循环神经网络模型对该至少两个虚拟物品包各自对应的包属性向量进行机器训练,获得该至少两个虚拟物品包各自对应的特征向量。
其中,在对上述包属性向量进行训练时,服务器集群可以按照该至少两个虚拟物品包的时间顺序,将该至少两个虚拟物品包各自对应的包属性向量依次输入该循环神经网络模型进行机器训练,获得该至少两个虚拟物品包各自对应的特征向量。
RNN(Recurrent Neural Network,循环神经网络)是一种对序列化的数据进行建模的人工神经网络结构,即对一个序列中当前输出的数据的训练结果与前面输出的数据也有关。具体的表现形式为循环神经网络会对前面输入的数据进行记忆,并应用于当前输出的数据的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。
在本发明实施例中,至少两个虚拟物品包各自对应的包属性向量可以看作是一个按照时间顺序(即虚拟物品包的发送时间或接收时间)排列的向量队列,该向量队列中的每一个包属性向量是一个待输入循环神经网络模型的数据,在进行机器训练时,服务器集群将至少两个虚拟物品包各自对应的包属性向量按照各自对应的时间顺序依次输入循环神经网络模型,获得该至少两个虚拟物品包各自对应的特征向量。
可选的,该循环神经网络模型可以为LSTM(Long Short Term Memory,长短记忆)循环神经网络模型。
比如,假设该至少两个虚拟物品包的数量为n,各自对应的包属性向量分别为x1、x2、x3……xn,且x1至xn按照各自对应的虚拟物品包的时间从先到后的顺序进行排列,服务器集群将x1至xn依次输入LSTM循环神经网络模型,对于第t个(其中,1≤t≤n,且t为整数)虚拟物品包对应的包属性向量xt,服务器集群将xt输入LSTM循环神经网络模型后,该LSTM循环神经网络模型按照下述公式计算获得第t个虚拟物品包对应的特征向量ht
it=tanh(Wxixt+Whiht-1+Wcict-1+bi);
ft=sigm(Wxfxt+Whfht-1+Wcfct-1+bf);
ct=ftct-1+ittanh(Wxcxt+Whcht-1+Wcict-1+bc);
ot=tanh(Wxoxt+Whoht-1+Wcoct-1+bo);
ht=ottanh(ct)。
其中,Wxi、Whi、Wci、Wxf、Whf、Wcf、Wxc、Whc、Wxo、Who以及Wco为预先设置的参数矩阵,bi、bf、bc以及bo为预先设置的偏置向量,ht-1为n个虚拟物品包中,按照时间从先到后的顺序排列的第t-1个虚拟物品包对应的特征向量。
将x1至xn依次输入LSTM循环神经网络模型,即可以获得至少两个虚拟物品包对应的特征向量:h1……ht……hn
可选的,在本发明实施例上述方案,仅以循环神经网络模型为LSTM循环神经网络模型为例进行说明,在实际应用中,也可以使用其它类型的循环神经网络模型,比如门限循环神经网络等。本发明实施例对于循环神经网络模型的具体类型不做限定。
步骤204,通过注意力机制模型对该至少两个虚拟物品包各自对应的特征向量以及该目标对象的对象属性向量进行机器训练,获得该至少两个虚拟物品包各自对应的重要性分数。
其中,服务器集群可以将该目标对象的对象属性向量以及该至少两个虚拟物品包各自对应的特征向量输入该注意力机制模型,获得该至少两个虚拟物品包各自对应的重要性数值;对该至少两个虚拟物品包各自对应的重要性数值进行归一化,获得该至少两个虚拟物品包各自对应的重要性分数。
注意力机制指通过外来信号对输入注意力机制模型的信号进行选择的机制。注意力机制对输入信号的选择,不仅能够对相关应用的性能进行显著的提升,同时也便于分析预测目标与输入信号的关联性,为相关应用的分析提供了帮助。在本发明实施例中,服务器集群将目标对象的对象属性向量作为外来信号,通过注意力机制模型对至少两个虚拟物品包各自对应的特征向量进行训练,以获得至少两个虚拟物品包各自对应的重要性分数。
比如,在一种可能的实现方式中,服务器集群通过注意力机制模型进行训练时,对于上述第t个虚拟物品包,可以将该第t个虚拟物品包对应的特征向量为ht以及对象属性向量a输入下述公式,获得第t个虚拟物品包的重要性数值mt
mt=tanh(Waa+Whht);
其中,Wa以及Wh分别为预先设置的参数矩阵。
通过上述公式,服务器集群获得至少两个虚拟物品包各自对应的重要性数值(记为m1,…,mt,…mn),并对至少两个虚拟物品包各自对应的重要性数值进行归一化,获得至少两个虚拟物品包各自对应的重要性分数(记为s1,…,st,…sn)。
且,∑si=1。
步骤205,根据该至少两个虚拟物品包各自对应的特征向量以及该至少两个虚拟物品包各自对应的重要性分数,提取该目标对象的特征信息。
其中,服务器集群可以根据该至少两个虚拟物品包各自对应的重要性分数对该至少两个虚拟物品包各自对应的特征向量进行加权求和,将加权求和获得的向量提取为该目标对象的特征信息。
比如,以至少两个虚拟物品包各自对应的重要性分数为s1,…,st,…sn为例,服务器集群可以通过(s1,…,st,…sn)对至少两个虚拟物品包对应的特征向量(h1……ht……hn)进行加权求和,将得到向量h作为目标对象的特征信息。
其中,h=∑sihi,i∈[1,n]。
或者,在另一种可能的实现方式中,服务器集群还可以按照对应的重要性分数从高到低的顺序对该至少两个虚拟物品包各自对应的特征向量进行排序,并将排序后的前j个特征向量的平均值提取为该目标对象的特征信息,1≤j≤n,且j、n为整数,且n为该至少两个虚拟物品的个数。
比如,服务器集群在上述步骤204中计算获得至少两个虚拟物品包各自对应的重要性分数后,可以将至少两个虚拟物品包的特征向量按照对应重要性分数从高到低的顺序进行排列,并将其中前j个特征向量进行平均值计算,获得目标对象的特征信息。需要说明的是,当上述j=1时,即服务器集群将重要性分数最高的一个虚拟物品包所对应的特征向量获取为目标对象的特征信息。
可选的,在本发明实施例中,服务器集群提取到目标对象的特征信息之后,还可以将目标对象的特征信息应用到具体的业务中,比如,服务器集群可以按照目标对象的特征信息对目标对象进行分类(具体的,该分类可以是预测单个用户的信用的好坏,或者,判断群组是否为赌博群等等),或者,服务器集群还可以将目标对象的特征信息作为样本来训练相关的机器训练模型(比如上述循环神经网络以及注意力机制模型等)。
请参考图3,其示出了本发明实施例涉及的方案的实现示意图。以该方案由图1所示的系统中的服务器集群执行为例,如图3所示,服务器集群中的特征信息管理平台142从用户操作记录管理服务器146获取目标对象(用户或群组)对虚拟物品包的历史使用记录,从中提取出目标对象使用的虚拟物品包的标识,并根据目标对象使用的虚拟物品包的标识从社交网络平台144的服务器中提取这些虚拟物品包的属性,特征信息管理平台142对应每一个虚拟物品包,生成该虚拟物品包的属性向量x,并将各个虚拟物品包的属性向量按照各自对应的时间从先到后的顺序排列获得向量序列x1,…,xt,…,xn;同时,特征信息管理平台142还从社交网络平台144的服务器中目标对象的属性,并根据目标对象的属性生成对象属性向量a。特征信息管理平台142将向量序列x1,…,xt,…,xn按照从先到后的顺序依次输入LSTM循环神经网络模型,获得每个虚拟物品包各自对应的特征向量,即图3中的h1,…,ht,…,hn,特征信息管理平台142将各个虚拟物品包各自对应的特征向量以及对象属性向量a输入注意力机制模型,该注意力机制模型根据各个虚拟物品包各自对应的特征向量以及对象属性向量a计算出各个虚拟物品包的重要性分数,并根据计算获得的重要性分数对各个虚拟物品包各自对应的特征向量进行加权求和,并将加权求和获得的向量h输出为目标对象的特征信息。
通过本发明实施例上述的方案,可以有效的利用虚拟物品包序列(即上述包属性向量组成的序列)的时序信息以及目标对象(用户或群组)的基础画像信息(即上述对象属性向量)对虚拟物品包序列进行建模,不仅不需要复杂的人工特征提取工作,而且还可以有效的提取到虚拟物品包的特征向量中,与目标对象的属性相匹配的重要的特征信息,从而实现基于目标对象的基础画像来提取目标对象的特征信息。比如,对于相同的至少两个虚拟物品包,如果目标对象是年龄为12岁的用户,则该至少两个虚拟物品包中由用户发送的大额的虚拟物品包就可能是异常的虚拟物品包,在通过上述方法,服务器集群在提取该用户的特征信息时,使用该用户的年龄等属性作为注意力信号时,可以将该用户发送的虚拟物品包中的大额虚拟物品包对应的特征向量提取出来。
另外,社交网络平台上的用户或群组的历史收发虚拟物品包的数据,可以看作是一种典型的社交行为序列数据,其背后反映了用户或者群组的行为特点,对虚拟物品包的序列数据进行合理的建模可以被广泛用于用户或群组信用预测,群组特性预测以及用户或群组行为特点分析等。而不同年龄、性别、学历的用户之间,或者不同年龄、性别、学历分布的群组之间,或者不同主题的群组之间,其虚拟物品包的序列数据的表现也并不相同,因此,用户或群组的基础画像信息对发现其虚拟物品包的序列数据中的异常或重要数据具有重要的价值。基于此,本发明实施例上述方案使用循环神经网络对虚拟物品包的序列数据进行建模,并通过用户或群组的基础画像信息作为注意力信号对虚拟物品包的序列数据对应的不同时点状态(即上述虚拟物品包的特征向量)进行选择,从而根据不同的用户或群组的基础画像信息对其使用的虚拟物品包的序列数据中,的不同重要程度的信息进行建模,以提高特征信息提取的准确性。
综上所述,本发明实施例提供的特征信息提取方法,服务器集群在提取用户或者群组的特征信息时,结合用户或者群组的属性对该用户或群组使用的虚拟物品包的特征向量进行机器训练,获得用户或群组使用的各个虚拟物品包各自对应的重要性,并结合各个虚拟物品包各自对应的重要性来进行特征信息的提取,充分考虑了不同属性的用户在使用虚拟物品包时的区别,从而提高了特征信息提取的准确性。
此外,本发明实施例提供的方法,将用户或者群组对应虚拟物品包的包属性向量按照各自对应的时间顺序依次输入循环神经网络模型,获得各个虚拟物品包对应的特征向量,在通过用户或者群组的属性对这些虚拟物品包的特征向量进行机器训练,充分考虑了虚拟物品包的时序信息对特征信息提取的影响,进一步提高特征信息提取的准确性。
另外,本发明实施例提供的方法,可以按照目标对象的特征信息对目标对象进行分类,或者,将目标对象的特征信息作为样本来训练相关的机器训练模型,以提高目标对象的分类或机器训练的准确性。
上述图2所示的实施例中,服务器集群在提取到目标对象的特征信息后,可以将该目标对象的特征信息输入到其它应用中,比如,将目标对象的特征信息输入到分类器中,以对目标对象进行分类。进一步的,当已知该目标对象的分类时,还可以对该分类器以及上述图2所示的实施例中的训练模型(包括第一机器训练模型和第二机器训练模型)进行修正,以提高特征提取和分类的准确性。具体比如,以上述第一机器训练模型是循环神经网络模型,第二机器训练模型是注意力机制模型为例,请参考图4所示的方案。
图4是根据一示例性实施例示出的一种目标对象的特征信息提取方法的流程图,以应用于如图1所示的系统中的服务器集群为例,该目标对象的特征信息提取方法可以包括如下几个步骤:
步骤401,获取目标对象的至少两个虚拟物品包各自对应的包属性向量。
其中,该包属性向量中的每个元素指示对应的虚拟物品包的一种属性。
步骤402,获取该目标对象的对象属性向量。
其中,该对象属性向量中的每个元素指示该目标对象的一种属性。
上述步骤401和步骤402的执行过程可以参考图2所示的实施例中的步骤201和步骤202下的描述,此处不再赘述。
步骤403,通过第一机器训练模型对该至少两个虚拟物品包各自对应的包属性向量进行机器训练,获得该至少两个虚拟物品包各自对应的特征向量。
其中,第一机器训练模型可以是循环神经网络模型。在对上述包属性向量进行训练时,服务器集群可以按照该至少两个虚拟物品包的时间顺序,将该至少两个虚拟物品包各自对应的包属性向量依次输入该循环神经网络模型进行机器训练,获得该至少两个虚拟物品包各自对应的特征向量。
可选的,该循环神经网络模型包括第一循环神经网络模型和第二循环神经网络模型,服务器集群可以按照至少两个虚拟物品包各自对应的时间从先到后的顺序,将至少两个虚拟物品包各自对应的包属性向量依次输入第一循环神经网络模型进行机器训练,获得至少两个虚拟物品包各自对应的第一部分特征向量;并按照至少两个虚拟物品包各自对应的时间从后到先的顺序,将至少两个虚拟物品包各自对应的包属性向量依次输入第二循环神经网络模型进行机器训练,获得至少两个虚拟物品包各自对应的第二部分特征向量;对于至少两个虚拟物品包中的任一虚拟物品包,将虚拟物品包的第一部分特征向量和虚拟物品包的第二部分特征向量进行拼接,获得虚拟物品包的特征向量。
为了更为有效的对每个虚拟物品包进行建模,除了将至少两个虚拟物品包各自对应的包属性向量按照对应的时间从先到后的顺序依次输入一个循环神经网络模型(比如上述LSTM循环神经网络模型)之外,还可以将该至少两个虚拟物品包各自对应的包属性向量按照对应的时间从后到先的顺序依次输入另一个同类型的循环神经网络模型,并将每一个虚拟物品包两次经过循环神经网络模型训练获得的向量进行拼接,获得该虚拟物品包的特征向量。比如,以上述第t个虚拟物品包为例,假设按照时间从先到后的顺序依次输入时,将该第t个虚拟物品包对应的包属性向量xt输入一个LSTM循环神经网络模型获得的向量为ht-1,按照时间从后到先的顺序依次输入时,将该第t个虚拟物品包对应的包属性向量xt输入另一个LSTM循环神经网络模型获得的向量为ht-2,则该第t个虚拟物品包对应的特征向量为ht=[ht-1,ht-2]。
可选的,在本发明实施例上述方案,仅以循环神经网络模型为LSTM循环神经网络模型为例进行说明,在实际应用中,也可以使用其它类型的循环神经网络模型,比如门限循环神经网络等。本发明实施例对于循环神经网络模型的具体类型不做限定。
步骤404,通过第二机器训练模型对该至少两个虚拟物品包各自对应的特征向量以及该目标对象的对象属性向量进行机器训练,获得该至少两个虚拟物品包各自对应的重要性分数。
其中,第二机器训练模型可以是注意力机制模型。服务器集群可以将该目标对象的对象属性向量以及该至少两个虚拟物品包各自对应的特征向量输入该注意力机制模型,获得该至少两个虚拟物品包各自对应的重要性数值;对该至少两个虚拟物品包各自对应的重要性数值进行归一化,获得该至少两个虚拟物品包各自对应的重要性分数。
步骤405,根据该至少两个虚拟物品包各自对应的特征向量以及该至少两个虚拟物品包各自对应的重要性分数,提取该目标对象的特征信息。
其中,服务器集群可以根据该两个虚拟物品包各自对应的重要性分数对该至少两个虚拟物品包各自对应的特征向量进行加权求和,将加权求和获得的向量提取为该目标对象的特征信息。
或者,在另一种可能的实现方式中,服务器集群还可以将该至少两个虚拟物品包各自对应的特征向量中,对应的重要性分数最高的j个特征向量提取为该目标对象的特征信息,1≤j≤k,且j、k为整数,且k为该至少两个虚拟物品的个数。
步骤406,将该目标对象的特征信息输入机器分类模型,获得该目标对象的分类信息,该目标对象的分类信息用于指示该目标对象对应的类别。
服务器集群可以将上述h输入机器分类模型,例如逻辑回归分类器或者支持向量机分类器等,以确定目标对象的类别,比如,确定单个用户的信用等级(比如极好、好、中、差以及极差等),或者,确定群组是否为赌博群等。
比如,以目标对象为单个用户,该机器分类模型为用于判别单个用户的信用好坏的逻辑回归分类器模型,其中,信用好的用户对应该机器分类模型的输出值为0,信用坏的用户对应该机器分类模型的输出值为1。假设该用户的特征信息为h,则服务器集群将h输入到逻辑回归分类器模型,得到该用户u的信用好的概率为p(u=0),该用户u的信用坏的概率为p(u=1),且
其中,这里W为逻辑回归分类器模型的参数。
步骤407,获取目标对象的实际类别,根据目标对象的实际类别以及目标对象的分类信息,对第一机器训练模型、第二机器训练模型以及机器分类模型进行修正。
可选的,当目标对象的实际类别已知时,上述目标对象的特征信息也可以用于通过相关的训练算法(例如,随机梯度下降算法)对上述各个机器学习模型中的参数进行修正,比如,对上述循环神经网络模型、注意力机制模型以及机器分类模型中的参数(比如上述参数矩阵和偏置向量等)进行修正。
具体比如,以机器分类模型为上述逻辑回归分类器模型为例,若已知用户的实际分类(即信用好还是信用坏),则通过上述目标对象的分类信息即p(u=0)以及p(u=1),可以获得上述第一机器训练模型(即LSTM循环神经网络模型)、第二机器训练模型(即上述注意力机制模型)以及机器分类模型(即上述逻辑回归分类器模型)的损失函数为:
L=y·p(u=0)+(1-y)·p(u=1);
其中,y为用户的实际分类,当用户的信用好时,y=0,当用户的信用坏时,y=1。
服务器集群通过随机梯度下降算法,通过上述损失函数对第一机器训练模型(即LSTM循环神经网络模型)、第二机器训练模型(即上述注意力机制模型)以及机器分类模型(即上述逻辑回归分类器模型)的参数E进行修正,修正公式如下:
其中,参数E是本方案中的第一机器训练模型(即LSTM循环神经网络模型)、第二机器训练模型(即上述注意力机制模型)以及机器分类模型(即上述逻辑回归分类器模型)的所有参数,比如,参数E可以包括上述LSTM循环神经网络模型中的Wxi、Whi、Wci、Wxf、Whf、Wcf、Wxc、Whc、Wxo、Who、Wco、bi、bf、bc和bo,以及上述注意力机制模型中的Wa和Wh,以及上述逻辑回归分类器模型中的参数W。为损失函数L对参数E的导数。
通过上述对参数E的修正后,对于新的用户u’,服务器集群通过修正后的参数E,按照上述步骤401至步骤406计算该新用户u’的分类信息y’,具体的:
其中,p(u’=0)是用户u’的信用好的概率,p(u’=1)是该用户u’的信用坏的概率。
请参考图5,其示出了本发明实施例涉及的方案的实现示意图。以该方案由图1所示的系统中的服务器集群执行为例,如图5所示,服务器集群中的特征信息管理平台142从用户操作记录管理服务器146获取目标对象(用户或群组)对虚拟物品包的历史使用记录,从中提取出目标对象使用的虚拟物品包的标识,并根据目标对象使用的虚拟物品包的标识从社交网络平台144的服务器中提取这些虚拟物品包的属性,特征信息管理平台142对应每一个虚拟物品包,生成该虚拟物品包的属性向量x,并将各个虚拟物品包的属性向量按照各自对应的时间从先到后的顺序排列获得向量序列x1,…,xt,…,xn;同时,特征信息管理平台142还从社交网络平台144的服务器中目标对象的属性,并根据目标对象的属性生成对象属性向量a。特征信息管理平台142将向量序列x1,…,xt,…,xn按照从先到后的顺序依次输入第一LSTM循环神经网络模型,获得每个虚拟物品包各自对应的特征向量,即图5中h1-1的h1-1,…,ht-1,…,hn-1,同时,特征信息管理平台142将向量序列x1,…,xt,…,xn按照从后到先的顺序依次输入第二LSTM循环神经网络模型,获得每个虚拟物品包各自对应的特征向量,即图5中的h1-2,…,ht-2,…,hn-2;特征信息管理平台142将各个虚拟物品包各自对应的的两特征向量进行拼接后,将各个虚拟物品包各自对应的拼接后的特征向量以及对象属性向量a输入注意力机制模型,该注意力机制模型根据各个虚拟物品包各自对应的拼接后的特征向量以及对象属性向量a计算出各个虚拟物品包的重要性分数,并根据计算获得的重要性分数对各个虚拟物品包各自对应的拼接后的特征向量进行加权求和,并将加权求和获得的向量输出为目标对象的特征信息,特征信息管理平台142将目标对象的特征信息输入逻辑回归分类器模型,获得该目标对象的分类信息。
综上所述,本发明实施例提供的特征信息提取方法,服务器集群在提取用户或者群组的特征信息时,结合用户或者群组的属性对该用户或群组使用的虚拟物品包的特征向量进行机器训练,获得用户或群组使用的各个虚拟物品包各自对应的重要性,并结合各个虚拟物品包各自对应的重要性来进行特征信息的提取,充分考虑了不同属性的用户在使用虚拟物品包时的区别,从而提高了特征信息提取的准确性。
此外,本发明实施例提供的方法,将各个包属性向量按照各自对应的时间从先到后的顺序依次输入一个循环神经网络模型,并将各个虚拟物品包的包属性向量按照各自对应的时间从后到先的顺序依次输入另一个循环神经网络模型,对于每一个包属性向量,将两个循环神经网络模型输出该包属性向量对应的特征向量进行拼接,从而更为有效的对每个虚拟物品包的特征向量进行建模,提高后续特征信息提取的准确性。
另外,本发明实施例提供的方法,可以根据目标对象的特征信息,通过机器分类模型对目标对象进行分类,并且,当目标对象的实际分类已知时,还可以根据目标对象的分类信息对第一机器训练模型、第二机器训练模型以及机器分类模型进行修正。
图6是根据一示例性实施例示出的一种目标对象的特征信息提取装置的结构方框图。该目标对象的特征信息提取装置可以通过硬件或者软硬结合的方式实现为服务器集群中的部分或全部,以执行图2或图4所示实施例中的全部或者部分步骤。该目标对象的特征信息提取装置可以包括:
第一向量获取模块601,用于获取目标对象的至少两个虚拟物品包各自对应的包属性向量,所述包属性向量中的每个元素指示对应的虚拟物品包的一种属性;
第二向量获取模块602,用于获取所述目标对象的对象属性向量,所述对象属性向量中的每个元素指示所述目标对象的一种属性;
特征向量获得模块603,用于通过第一机器训练模型对所述至少两个虚拟物品包各自对应的包属性向量进行机器训练,获得所述至少两个虚拟物品包各自对应的特征向量;
分数获得模块604,用于通过第二机器训练模型对所述至少两个虚拟物品包各自对应的特征向量以及所述目标对象的对象属性向量进行机器训练,获得所述至少两个虚拟物品包各自对应的重要性分数;
特征提取模块605,用于根据所述至少两个虚拟物品包各自对应的特征向量以及所述至少两个虚拟物品包各自对应的重要性分数,提取所述目标对象的特征信息。
可选的,所述第一机器训练模型为循环神经网络模型,
所述特征向量获得模块,用于按照所述至少两个虚拟物品包的时间顺序,将所述至少两个虚拟物品包各自对应的包属性向量依次输入所述循环神经网络模型进行机器训练,获得所述至少两个虚拟物品包各自对应的特征向量。
可选的,所述循环神经网络模型包括第一循环神经网络模型和第二循环神经网络模型,所述特征向量获得模块,包括:
第一向量获得单元,用于按照所述至少两个虚拟物品包各自对应的时间从先到后的顺序,将所述至少两个虚拟物品包各自对应的包属性向量依次输入所述第一循环神经网络模型进行机器训练,获得所述至少两个虚拟物品包各自对应的第一部分特征向量;
第二向量获得单元,用于按照所述至少两个虚拟物品包各自对应的时间从后到先的顺序,将所述至少两个虚拟物品包各自对应的包属性向量依次输入所述第二循环神经网络模型进行机器训练,获得所述至少两个虚拟物品包各自对应的第二部分特征向量;
拼接单元,用于对于所述至少两个虚拟物品包中的任一虚拟物品包,将所述虚拟物品包的第一部分特征向量和所述虚拟物品包的第二部分特征向量进行拼接,获得所述虚拟物品包的特征向量。
可选的,所述循环神经网络模型为长短记忆循环神经网络模型或者门限循环神经网络。
可选的,所述第二机器训练模型为注意力机制模型,所述分数获得模块,包括:
数值获得单元,用于将所述目标对象的对象属性向量以及所述至少两个虚拟物品包各自对应的特征向量输入所述注意力机制模型,获得所述至少两个虚拟物品包各自对应的重要性数值;
归一化单元,用于对所述至少两个虚拟物品包各自对应的重要性数值进行归一化,获得所述至少两个虚拟物品包各自对应的重要性分数。
可选的,所述特征提取模块,用于
根据所述至少两个虚拟物品包各自对应的重要性分数对所述至少两个虚拟物品包各自对应的特征向量进行加权求和,将加权求和获得的向量提取为所述目标对象的特征信息;
或者,
按照对应的重要性分数从高到低的顺序对所述至少两个虚拟物品包各自对应的特征向量进行排序,将排序后的前j个特征向量的平均值提取为所述目标对象的特征信息,1≤j≤n,且j、n为整数,且n为所述至少两个虚拟物品的个数。
可选的,所述装置还包括:
分类模块,用于将所述目标对象的特征信息输入机器分类模型,获得所述目标对象的分类信息,所述目标对象的分类信息用于指示所述目标对象对应的类别。
可选的,所述装置还包括:
类别获取模块,用于获取所述目标对象的实际类别;
修正模块,用于根据所述目标对象的实际类别以及所述目标对象的分类信息,对所述第一机器训练模型、所述第二机器训练模型以及所述机器分类模型进行修正。
综上所述,本发明实施例提供的特征信息提取装置,服务器集群在提取用户或者群组的特征信息时,结合用户或者群组的属性对该用户或群组使用的虚拟物品包的特征向量进行机器训练,获得用户或群组使用的各个虚拟物品包各自对应的重要性,并结合各个虚拟物品包各自对应的重要性来进行特征信息的提取,充分考虑了不同属性的用户在使用虚拟物品包时的区别,从而提高了特征信息提取的准确性。
此外,本发明实施例提供的装置,将用户或者群组对应虚拟物品包的包属性向量按照各自对应的时间顺序依次输入循环神经网络模型,获得各个虚拟物品包对应的特征向量,在通过用户或者群组的属性对这些虚拟物品包的特征向量进行机器训练,充分考虑了虚拟物品包的时序信息对特征信息提取的影响,进一步提高特征信息提取的准确性。
另外,本发明实施例提供的装置,将各个包属性向量按照各自对应的时间从先到后的顺序依次输入一个循环神经网络模型,并将各个虚拟物品包的包属性向量按照各自对应的时间从后到先的顺序依次输入另一个循环神经网络模型,对于每一个包属性向量,将两个循环神经网络模型输出该包属性向量对应的特征向量进行拼接,从而更为有效的对每个虚拟物品包的特征向量进行建模,提高后续特征信息提取的准确性。
另外,本发明实施例提供的装置,可以根据目标对象的特征信息,通过机器分类模型对目标对象进行分类,并且,当目标对象的实际分类已知时,还可以根据目标对象的分类信息对第一机器训练模型、第二机器训练模型以及机器分类模型进行修正。
图7是根据一示例性实施例示出的一种服务器的结构示意图。所述服务器700包括中央处理单元(CPU)701、包括随机存取存储器(RAM)702和只读存储器(ROM)703的系统存储器704,以及连接系统存储器704和中央处理单元701的系统总线705。所述服务器700还包括帮助计算机内的各个器件之间传输信息的基本输入/输出系统(I/O系统)706,和用于存储操作系统713、应用程序714和其他程序模块715的大容量存储设备707。
所述基本输入/输出系统706包括有用于显示信息的显示器708和用于用户输入信息的诸如鼠标、键盘之类的输入设备709。其中所述显示器708和输入设备709都通过连接到系统总线705的输入输出控制器710连接到中央处理单元701。所述基本输入/输出系统706还可以包括输入输出控制器710以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器710还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备707通过连接到系统总线705的大容量存储控制器(未示出)连接到中央处理单元701。所述大容量存储设备707及其相关联的计算机可读介质为服务器700提供非易失性存储。也就是说,所述大容量存储设备707可以包括诸如硬盘或者CD-ROM驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM、EEPROM、闪存或其他固态存储其技术,CD-ROM、DVD或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器704和大容量存储设备707可以统称为存储器。
根据本发明的各种实施例,所述服务器700还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即服务器700可以通过连接在所述系统总线705上的网络接口单元711连接到网络712,或者说,也可以使用网络接口单元711来连接到其他类型的网络或远程计算机系统(未示出)。
所述存储器还包括一个或者一个以上的程序,所述一个或者一个以上程序存储于存储器中,中央处理器701通过执行该一个或一个以上程序来实现图2或4所示的目标对象的特征信息提取方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器,上述指令可由服务器的处理器执行以完成本发明各个实施例所示的目标对象的特征信息提取方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (16)

1.一种目标对象的特征信息提取方法,其特征在于,所述方法包括:
获取目标对象的至少两个虚拟物品包各自对应的包属性向量,并获取所述目标对象的对象属性向量,所述包属性向量中的每个元素指示对应的虚拟物品包的一种属性,所述对象属性向量中的每个元素指示所述目标对象的一种属性;
通过第一机器训练模型对所述至少两个虚拟物品包各自对应的包属性向量进行机器训练,获得所述至少两个虚拟物品包各自对应的特征向量;
通过第二机器训练模型对所述至少两个虚拟物品包各自对应的特征向量以及所述目标对象的对象属性向量进行机器训练,获得所述至少两个虚拟物品包各自对应的重要性分数;
根据所述至少两个虚拟物品包各自对应的特征向量以及所述至少两个虚拟物品包各自对应的重要性分数,提取所述目标对象的特征信息。
2.根据权利要求1所述的方法,其特征在于,所述第一机器训练模型为循环神经网络模型,所述通过第一机器训练模型对所述至少两个虚拟物品包各自对应的包属性向量进行机器训练,获得所述至少两个虚拟物品包各自对应的特征向量,包括:
按照所述至少两个虚拟物品包的时间顺序,将所述至少两个虚拟物品包各自对应的包属性向量依次输入所述循环神经网络模型进行机器训练,获得所述至少两个虚拟物品包各自对应的特征向量。
3.根据权利要求2所述的方法,其特征在于,所述循环神经网络模型包括第一循环神经网络模型和第二循环神经网络模型,所述按照所述至少两个虚拟物品包的时间顺序,将所述至少两个虚拟物品包各自对应的包属性向量依次输入所述循环神经网络模型进行机器训练,获得所述至少两个虚拟物品包各自对应的特征向量,包括:
按照所述至少两个虚拟物品包各自对应的时间从先到后的顺序,将所述至少两个虚拟物品包各自对应的包属性向量依次输入所述第一循环神经网络模型进行机器训练,获得所述至少两个虚拟物品包各自对应的第一部分特征向量;
按照所述至少两个虚拟物品包各自对应的时间从后到先的顺序,将所述至少两个虚拟物品包各自对应的包属性向量依次输入所述第二循环神经网络模型进行机器训练,获得所述至少两个虚拟物品包各自对应的第二部分特征向量;
对于所述至少两个虚拟物品包中的任一虚拟物品包,将所述虚拟物品包的第一部分特征向量和所述虚拟物品包的第二部分特征向量进行拼接,获得所述虚拟物品包的特征向量。
4.根据权利要求2所述的方法,其特征在于,所述循环神经网络模型为长短记忆循环神经网络模型或者门限循环神经网络。
5.根据权利要求1所述的方法,其特征在于,所述第二机器训练模型为注意力机制模型,所述通过第二机器训练模型对所述至少两个虚拟物品包各自对应的特征向量以及所述目标对象的对象属性向量进行机器训练,获得所述至少两个虚拟物品包各自对应的重要性分数,包括:
将所述目标对象的对象属性向量以及所述至少两个虚拟物品包各自对应的特征向量输入所述注意力机制模型,获得所述至少两个虚拟物品包各自对应的重要性数值;
对所述至少两个虚拟物品包各自对应的重要性数值进行归一化,获得所述至少两个虚拟物品包各自对应的重要性分数。
6.根据权利要求1所述的方法,其特征在于,所述根据所述至少两个虚拟物品包各自对应的特征向量以及所述至少两个虚拟物品包各自对应的重要性分数,提取所述目标对象的特征信息,包括:
根据所述至少两个虚拟物品包各自对应的重要性分数对所述至少两个虚拟物品包各自对应的特征向量进行加权求和,将加权求和获得的向量提取为所述目标对象的特征信息;
或者,
按照对应的重要性分数从高到低的顺序对所述至少两个虚拟物品包各自对应的特征向量进行排序,将排序后的前j个特征向量的平均值提取为所述目标对象的特征信息,1≤j≤n,且j、n为整数,且n为所述至少两个虚拟物品的个数。
7.根据权利要求1至6任一所述的方法,其特征在于,所述方法还包括:
将所述目标对象的特征信息输入机器分类模型,获得所述目标对象的分类信息,所述目标对象的分类信息用于指示所述目标对象对应的类别。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
获取所述目标对象的实际类别;
根据所述目标对象的实际类别以及所述目标对象的分类信息,对所述第一机器训练模型、所述第二机器训练模型以及所述机器分类模型进行修正。
9.一种目标对象的特征信息提取装置,其特征在于,所述装置包括:
第一向量获取模块,用于获取目标对象的至少两个虚拟物品包各自对应的包属性向量,所述包属性向量中的每个元素指示对应的虚拟物品包的一种属性;
第二向量获取模块,用于获取所述目标对象的对象属性向量,所述对象属性向量中的每个元素指示所述目标对象的一种属性;
特征向量获得模块,用于通过第一机器训练模型对所述至少两个虚拟物品包各自对应的包属性向量进行机器训练,获得所述至少两个虚拟物品包各自对应的特征向量;
分数获得模块,用于通过第二机器训练模型对所述至少两个虚拟物品包各自对应的特征向量以及所述目标对象的对象属性向量进行机器训练,获得所述至少两个虚拟物品包各自对应的重要性分数;
特征提取模块,用于根据所述至少两个虚拟物品包各自对应的特征向量以及所述至少两个虚拟物品包各自对应的重要性分数,提取所述目标对象的特征信息。
10.根据权利要求9所述的装置,其特征在于,所述第一机器训练模型为循环神经网络模型,
所述特征向量获得模块,用于按照所述至少两个虚拟物品包的时间顺序,将所述至少两个虚拟物品包各自对应的包属性向量依次输入所述循环神经网络模型进行机器训练,获得所述至少两个虚拟物品包各自对应的特征向量。
11.根据权利要求10所述的装置,其特征在于,所述循环神经网络模型包括第一循环神经网络模型和第二循环神经网络模型,所述特征向量获得模块,包括:
第一向量获得单元,用于按照所述至少两个虚拟物品包各自对应的时间从先到后的顺序,将所述至少两个虚拟物品包各自对应的包属性向量依次输入所述第一循环神经网络模型进行机器训练,获得所述至少两个虚拟物品包各自对应的第一部分特征向量;
第二向量获得单元,用于按照所述至少两个虚拟物品包各自对应的时间从后到先的顺序,将所述至少两个虚拟物品包各自对应的包属性向量依次输入所述第二循环神经网络模型进行机器训练,获得所述至少两个虚拟物品包各自对应的第二部分特征向量;
拼接单元,用于对于所述至少两个虚拟物品包中的任一虚拟物品包,将所述虚拟物品包的第一部分特征向量和所述虚拟物品包的第二部分特征向量进行拼接,获得所述虚拟物品包的特征向量。
12.根据权利要求10所述的装置,其特征在于,所述循环神经网络模型为长短记忆循环神经网络模型或者门限循环神经网络。
13.根据权利要求9所述的装置,其特征在于,所述第二机器训练模型为注意力机制模型,所述分数获得模块,包括:
数值获得单元,用于将所述目标对象的对象属性向量以及所述至少两个虚拟物品包各自对应的特征向量输入所述注意力机制模型,获得所述至少两个虚拟物品包各自对应的重要性数值;
归一化单元,用于对所述至少两个虚拟物品包各自对应的重要性数值进行归一化,获得所述至少两个虚拟物品包各自对应的重要性分数。
14.根据权利要求9所述的装置,其特征在于,所述特征提取模块,用于根据所述至少两个虚拟物品包各自对应的重要性分数对所述至少两个虚拟物品包各自对应的特征向量进行加权求和,将加权求和获得的向量提取为所述目标对象的特征信息;
或者,
按照对应的重要性分数从高到低的顺序对所述至少两个虚拟物品包各自对应的特征向量进行排序,将排序后的前j个特征向量的平均值提取为所述目标对象的特征信息,1≤j≤n,且j、n为整数,且n为所述至少两个虚拟物品的个数。
15.根据权利要求9至14任一所述的装置,其特征在于,所述装置还包括:
分类模块,用于将所述目标对象的特征信息输入机器分类模型,获得所述目标对象的分类信息,所述目标对象的分类信息用于指示所述目标对象对应的类别。
16.根据权利要求15所述的装置,其特征在于,所述装置还包括:
类别获取模块,用于获取所述目标对象的实际类别;
修正模块,用于根据所述目标对象的实际类别以及所述目标对象的分类信息,对所述第一机器训练模型、所述第二机器训练模型以及所述机器分类模型进行修正。
CN201710076121.8A 2017-02-13 2017-02-13 目标对象的特征信息提取方法及装置 Active CN108280104B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201710076121.8A CN108280104B (zh) 2017-02-13 2017-02-13 目标对象的特征信息提取方法及装置
PCT/CN2018/074795 WO2018145596A1 (zh) 2017-02-13 2018-01-31 特征信息提取方法、装置、服务器集群及存储介质
US16/439,089 US11436430B2 (en) 2017-02-13 2019-06-12 Feature information extraction method, apparatus, server cluster, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710076121.8A CN108280104B (zh) 2017-02-13 2017-02-13 目标对象的特征信息提取方法及装置

Publications (2)

Publication Number Publication Date
CN108280104A true CN108280104A (zh) 2018-07-13
CN108280104B CN108280104B (zh) 2020-06-02

Family

ID=62801115

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710076121.8A Active CN108280104B (zh) 2017-02-13 2017-02-13 目标对象的特征信息提取方法及装置

Country Status (3)

Country Link
US (1) US11436430B2 (zh)
CN (1) CN108280104B (zh)
WO (1) WO2018145596A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214003A (zh) * 2018-08-29 2019-01-15 陕西师范大学 基于多层注意力机制的循环神经网络生成标题的方法
CN110490304A (zh) * 2019-08-21 2019-11-22 上海哲锦信息科技有限公司 一种数据处理方法及设备
CN110659701A (zh) * 2019-10-09 2020-01-07 京东数字科技控股有限公司 信息处理方法、装置、电子设备及介质
CN110827138A (zh) * 2019-10-31 2020-02-21 北京芯盾时代科技有限公司 一种推送信息确定方法及装置
CN111562963A (zh) * 2020-04-30 2020-08-21 中国银行股份有限公司 一种个性化展示的方法及装置
CN116186020A (zh) * 2023-04-28 2023-05-30 中信证券股份有限公司 特征信息处理方法、装置、电子设备和计算机可读介质

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11475236B2 (en) * 2019-05-22 2022-10-18 Google Llc Minimum-example/maximum-batch entropy-based clustering with neural networks
CN110752942B (zh) * 2019-09-06 2021-09-17 平安科技(深圳)有限公司 告警信息的决策方法、装置、计算机设备及存储介质
US11676013B2 (en) * 2019-12-30 2023-06-13 International Business Machines Corporation Job-launch time reduction by node pre-configuration
CN111860630B (zh) * 2020-07-10 2023-10-13 深圳无域科技技术有限公司 基于特征重要性的模型建立方法及系统
US20220263680A1 (en) * 2021-02-15 2022-08-18 International Business Machines Corporation Smart refrigerator for smart consumption of food
US11860908B2 (en) * 2021-05-28 2024-01-02 Keep Company, Inc. Method, apparatus, and computer readable medium for quantitatively grouping a set of persons into a plurality of groups of three or more persons using computational clustering
CN114417161B (zh) * 2022-01-21 2023-04-07 杭州碧游信息技术有限公司 基于异构图的虚拟物品时序推荐方法、装置、介质及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101957859A (zh) * 2010-10-15 2011-01-26 西安电子科技大学 基于集成支撑矢量机排序的信息检索方法
CN104462241A (zh) * 2014-11-18 2015-03-25 北京锐安科技有限公司 基于url中锚文字和周边文本的人口属性分类方法及装置
CN106126578A (zh) * 2016-06-17 2016-11-16 清华大学 一种Web服务推荐方法以及装置
CN106204106A (zh) * 2016-06-28 2016-12-07 武汉斗鱼网络科技有限公司 一种特定用户识别方法及系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049552A (ja) 2000-05-24 2002-02-15 Sony Computer Entertainment Inc 広告情報供給システム
US7389208B1 (en) * 2000-06-30 2008-06-17 Accord Solutions, Inc. System and method for dynamic knowledge construction
KR20020089117A (ko) * 2001-05-21 2002-11-29 가부시키가이샤 소니 컴퓨터 엔터테인먼트 광고정보 공급시스템
US9533215B1 (en) * 2013-04-24 2017-01-03 Kabam, Inc. System and method for predicting in-game activity at account creation
CN105809481B (zh) * 2014-01-29 2021-06-18 腾讯科技(深圳)有限公司 虚拟物品发送方法、接收方法、装置和系统
CN105701498B (zh) * 2015-12-31 2021-09-07 腾讯科技(深圳)有限公司 一种用户分类方法及服务器
CN106056444A (zh) * 2016-05-25 2016-10-26 腾讯科技(深圳)有限公司 数据处理方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101957859A (zh) * 2010-10-15 2011-01-26 西安电子科技大学 基于集成支撑矢量机排序的信息检索方法
CN104462241A (zh) * 2014-11-18 2015-03-25 北京锐安科技有限公司 基于url中锚文字和周边文本的人口属性分类方法及装置
CN106126578A (zh) * 2016-06-17 2016-11-16 清华大学 一种Web服务推荐方法以及装置
CN106204106A (zh) * 2016-06-28 2016-12-07 武汉斗鱼网络科技有限公司 一种特定用户识别方法及系统

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214003A (zh) * 2018-08-29 2019-01-15 陕西师范大学 基于多层注意力机制的循环神经网络生成标题的方法
CN109214003B (zh) * 2018-08-29 2019-08-09 陕西师范大学 基于多层注意力机制的循环神经网络生成标题的方法
CN110490304A (zh) * 2019-08-21 2019-11-22 上海哲锦信息科技有限公司 一种数据处理方法及设备
CN110659701A (zh) * 2019-10-09 2020-01-07 京东数字科技控股有限公司 信息处理方法、装置、电子设备及介质
CN110659701B (zh) * 2019-10-09 2022-08-12 京东科技控股股份有限公司 信息处理方法、装置、电子设备及介质
CN110827138A (zh) * 2019-10-31 2020-02-21 北京芯盾时代科技有限公司 一种推送信息确定方法及装置
CN110827138B (zh) * 2019-10-31 2022-07-05 北京芯盾时代科技有限公司 一种推送信息确定方法及装置
CN111562963A (zh) * 2020-04-30 2020-08-21 中国银行股份有限公司 一种个性化展示的方法及装置
CN116186020A (zh) * 2023-04-28 2023-05-30 中信证券股份有限公司 特征信息处理方法、装置、电子设备和计算机可读介质
CN116186020B (zh) * 2023-04-28 2023-07-04 中信证券股份有限公司 特征信息处理方法、装置、电子设备和计算机可读介质

Also Published As

Publication number Publication date
US20190303709A1 (en) 2019-10-03
WO2018145596A1 (zh) 2018-08-16
CN108280104B (zh) 2020-06-02
US11436430B2 (en) 2022-09-06

Similar Documents

Publication Publication Date Title
CN108280104A (zh) 目标对象的特征信息提取方法及装置
US20220351016A1 (en) Presentation module for webinterface production and deployment system
US11070643B2 (en) Discovering signature of electronic social networks
CN112148987B (zh) 基于目标对象活跃度的消息推送方法及相关设备
TW201946013A (zh) 基於lstm模型的信用風險預測方法及裝置
US20160117721A1 (en) Network-aware Product Rollout in Online Social Networks
CN109976997A (zh) 测试方法和装置
CN110401844A (zh) 视频直播策略的生成方法、装置、设备及可读介质
CN110598070B (zh) 应用类型识别方法及装置、服务器及存储介质
CN110378474A (zh) 对抗样本生成方法、装置、电子设备和计算机可读介质
CN108520470A (zh) 用于生成用户属性信息的方法和装置
CN112925911B (zh) 基于多模态数据的投诉分类方法及其相关设备
CN112070310A (zh) 基于人工智能的流失用户预测方法、装置及电子设备
CN109272402A (zh) 评分卡的建模方法、装置、计算机设备及存储介质
CN108073672A (zh) 业务对象推荐方法、装置和电子设备
CN112365007A (zh) 模型参数确定方法、装置、设备及存储介质
Gul et al. A systematic analysis of link prediction in complex network
Peng et al. Tdsrc: A task-distributing system of crowdsourcing based on social relation cognition
CN110326005A (zh) 信息处理设备、信息处理方法及程序
JP6608061B2 (ja) Sns情報に基づくリスクイベント認識システム、方法、電子装置及び記憶媒体
CN115049397A (zh) 识别社交网络中的风险账户的方法及装置
Parmar A multidisciplinary approach to ICT development
CN113569162A (zh) 数据处理方法、装置、设备及存储介质
CN115545088B (zh) 模型构建方法、分类方法、装置和电子设备
CN110070264A (zh) 合同评价方法、平台、设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant