CN116051155A - 用户识别方法、装置、设备、存储介质和程序产品 - Google Patents
用户识别方法、装置、设备、存储介质和程序产品 Download PDFInfo
- Publication number
- CN116051155A CN116051155A CN202310323660.2A CN202310323660A CN116051155A CN 116051155 A CN116051155 A CN 116051155A CN 202310323660 A CN202310323660 A CN 202310323660A CN 116051155 A CN116051155 A CN 116051155A
- Authority
- CN
- China
- Prior art keywords
- user
- model
- data
- intervention
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2465—Query processing support for facilitating data mining operations in structured databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0202—Market predictions or forecasting for commercial activities
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Entrepreneurship & Innovation (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Business, Economics & Management (AREA)
- Databases & Information Systems (AREA)
- Marketing (AREA)
- Computational Linguistics (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Probability & Statistics with Applications (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Fuzzy Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种用户识别方法、装置、设备、存储介质和程序产品。所述方法包括:通过获取目标用户的用户数据,将用户数据输入至预先训练的用户识别模型中,得到用户识别模型输出的识别结果,再根据识别结果确定目标用户是否为干预转化用户,其中,用户识别模型是根据用户拉新业务的因果推断数据训练得到的。由于因果推断数据中具有确定的采用干预后用户才转化为平台用户的因果特性,这样,采用因果推断数据训练得到的用户识别模型将能够更加准确的识别出干预转化用户,达到提高干预转化用户识别准确性的目的。
Description
技术领域
本申请涉及数据处理技术领域,特别是涉及一种用户识别方法、装置、设备、存储介质和程序产品。
背景技术
挖掘出潜在用户并将其转化为平台用户这个过程被称之为拉新,其是提高平台用户数量的有效手段。在拉新过程中,往往会采用一些干预策略,如发送短信、App(Application,应用程序)的推送消息、打电话、发优惠券等。通常一部分潜在用户本身就对平台有较大需求且对平台品牌有认知,即使在平台不采用干预策略的情况下,也会大概率自己转化成平台用户,这种称之为自然转化用户;而与之相反,另一部分潜在用户是只有当平台采用干预策略时,才能将其转化成平台用户,这种称之为干预转化用户。对于平台而言,干预策略往往需要消耗一定的成本,如发短信的通信费等,因此,准确的识别出潜在用户且是干预转化用户是有必要的。
传统技术中,用大量平台用户数据训练神经网络模型,然后用训练好的神经网络模型识别干预转化用户,其中平台用户数据包括干预转化用户数据。
但是,干预转化用户数据中的用户往往是不能完全确定其是干预转化用户,因为用户收到短信转化为平台用户,不代表用户未收到短信就不会转化为平台用户,所以,传统技术中训练得到神经网络模型识别干预转化用户的准确性较低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高干预转化用户识别准确性的用户识别方法、装置、设备、存储介质和程序产品。
第一方面,本申请提供了一种用户识别方法。该方法包括:获取目标用户的用户数据;将用户数据输入至预先训练的用户识别模型中,得到用户识别模型输出的识别结果;根据识别结果确定目标用户是否为干预转化用户;其中,用户识别模型是根据用户拉新业务的因果推断数据训练得到的。
在其中一个实施例中,因果推断数据包括观测数据和随机数据,用户识别模型的训练方法包括:根据观测数据对初始神经网络模型进行预训练,得到预训练神经网络模型,并根据随机数据对预训练神经网络模型进行精调训练,得到精调神经网络模型;根据精调神经网络模型得到用户识别模型。
在其中一个实施例中,根据观测数据对初始神经网络模型进行预训练,得到预训练神经网络模型,并根据随机数据对预训练神经网络模型进行精调训练,得到精调神经网络模型,包括:将观测数据分别输入至训练好的第一树模型和第二树模型中,通过第一树模型和第二树模型进行特征提取得到观测特征;将随机数据分别输入至第一树模型和第二树模型中,通过第一树模型和第二树模型进行特征提取得到随机特征;根据观测特征对初始神经网络模型进行预训练,得到预训练神经网络模型,并根据随机特征对预训练神经网络模型进行精调训练,得到精调神经网络模型。
在其中一个实施例中,用户识别方法还包括:根据观测数据对第一初始树模型进行训练,得到第一树模型;根据随机数据对第二初始树模型进行训练,得到第二树模型。
在其中一个实施例中,根据精调神经网络模型得到用户识别模型,包括:将第一树模型、第二树模型以及精调神经网络模型作为用户识别模型。
在其中一个实施例中,将用户数据输入至预先训练的用户识别模型中,得到用户识别模型输出的识别结果,包括:将用户数据输入至用户识别模型中,得到用户识别模型输出的第一识别结果和第二识别结果;第一识别结果是用户识别模型针对向目标用户施加干预的情况所输出的结果,第二识别结果是用户识别模型针对不向目标用户施加干预的情况所输出的结果。
在其中一个实施例中,将用户数据输入至用户识别模型中,得到用户识别模型输出的第一识别结果和第二识别结果,包括:根据用户数据生成干预数据和不干预数据,干预数据用于表征向目标用户施加干预的情况的特征,不干预数据用于表征不向目标用户施加干预的情况的特征;将干预数据输入至用户识别模型中,得到第一识别结果,并将不干预数据输入至用户识别模型中,得到第二识别结果。
在其中一个实施例中,将干预数据输入至用户识别模型中,得到第一识别结果,包括:将干预数据分别输入至用户识别模型包括的第一树模型和第二树模型中,通过第一树模型和第二树模型对干预数据进行特征提取得到第一特征;将第一特征输入至用户识别模型包括的精调神经网络模型中,得到精调神经网络模型输出的第一识别结果。
在其中一个实施例中,将不干预数据输入至用户识别模型中,得到第二识别结果,包括:将不干预数据分别输入至用户识别模型包括的第一树模型和第二树模型中,通过第一树模型和第二树模型对不干预数据进行特征提取得到第二特征;将第二特征输入至用户识别模型包括的精调神经网络模型中,得到精调神经网络模型输出的第二识别结果。
在其中一个实施例中,根据用户数据生成干预数据和不干预数据,包括:获取干预特征值,将干预特征值与用户数据进行拼接,得到干预数据;获取不干预特征值,将不干预特征值与用户数据进行拼接,得到不干预数据。
在其中一个实施例中,根据识别结果确定目标用户是否为干预转化用户,包括:根据第一识别结果和第二识别结果确定向目标用户施加干预和不向目标用户施加干预的两种情况下目标用户的转化差异;根据转化差异确定目标用户是否为干预转化用户。
在其中一个实施例中,根据转化差异确定目标用户是否为干预转化用户,包括:若转化差异大于预设差异阈值,则确定目标用户为干预转化用户。
第二方面,本申请还提供了一种用户识别装置。该装置包括:获取模块,用于获取目标用户的用户数据;识别模块,用于将用户数据输入至预先训练的用户识别模型中,得到用户识别模型输出的识别结果;确定模块,用于根据识别结果确定目标用户是否为干预转化用户;其中,用户识别模型是根据用户拉新业务的因果推断数据训练得到的。
在其中一个实施例中,因果推断数据包括观测数据和随机数据,用户识别装置还包括训练模块,用于根据观测数据对初始神经网络模型进行预训练,得到预训练神经网络模型,并根据随机数据对预训练神经网络模型进行精调训练,得到精调神经网络模型;根据精调神经网络模型得到用户识别模型。
在其中一个实施例中,训练模块,用于将观测数据分别输入至训练好的第一树模型和第二树模型中,通过第一树模型和第二树模型进行特征提取得到观测特征;将随机数据分别输入至第一树模型和第二树模型中,通过第一树模型和第二树模型进行特征提取得到随机特征;根据观测特征对初始神经网络模型进行预训练,得到预训练神经网络模型,并根据随机特征对预训练神经网络模型进行精调训练,得到精调神经网络模型。
在其中一个实施例中,训练模块,还用于根据观测数据对第一初始树模型进行训练,得到第一树模型;根据随机数据对第二初始树模型进行训练,得到第二树模型。
在其中一个实施例中,训练模块,还用于将第一树模型、第二树模型以及精调神经网络模型作为用户识别模型。
在其中一个实施例中,识别模块,用于将用户数据输入至用户识别模型中,得到用户识别模型输出的第一识别结果和第二识别结果;第一识别结果是用户识别模型针对向目标用户施加干预的情况所输出的结果,第二识别结果是用户识别模型针对不向目标用户施加干预的情况所输出的结果。
在其中一个实施例中,识别模块,还用于根据用户数据生成干预数据和不干预数据,干预数据用于表征向目标用户施加干预的情况的特征,不干预数据用于表征不向目标用户施加干预的情况的特征;将干预数据输入至用户识别模型中,得到第一识别结果,并将不干预数据输入至用户识别模型中,得到第二识别结果。
在其中一个实施例中,识别模块,还用于将干预数据分别输入至用户识别模型包括的第一树模型和第二树模型中,通过第一树模型和第二树模型对干预数据进行特征提取得到第一特征;将第一特征输入至用户识别模型包括的精调神经网络模型中,得到精调神经网络模型输出的第一识别结果。
在其中一个实施例中,识别模块,还用于将不干预数据分别输入至用户识别模型包括的第一树模型和第二树模型中,通过第一树模型和第二树模型对不干预数据进行特征提取得到第二特征;将第二特征输入至用户识别模型包括的精调神经网络模型中,得到精调神经网络模型输出的第二识别结果。
在其中一个实施例中,识别模块,还用于获取干预特征值,将干预特征值与用户数据进行拼接,得到干预数据;获取不干预特征值,将不干预特征值与用户数据进行拼接,得到不干预数据。
在其中一个实施例中,确定模块,还用于根据第一识别结果和第二识别结果确定向目标用户施加干预和不向目标用户施加干预的两种情况下目标用户的转化差异;根据转化差异确定目标用户是否为干预转化用户。
在其中一个实施例中,确定模块,还用于若转化差异大于预设差异阈值,则确定目标用户为干预转化用户。
第三方面,本申请还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述第一方面任一项所述的方法的步骤。
第四方面,本申请还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面任一项所述的方法的步骤。
第五方面,本申请还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述第一方面任一项所述的方法的步骤。
上述用户识别方法、装置、设备、存储介质和程序产品,通过获取目标用户的用户数据,将用户数据输入至预先训练的用户识别模型中,得到用户识别模型输出的识别结果,再根据识别结果确定目标用户是否为干预转化用户,其中,用户识别模型是根据用户拉新业务的因果推断数据训练得到的。由于因果推断数据中具有确定的采用干预后用户才转化为平台用户的因果特性,这样,采用因果推断数据训练得到的用户识别模型将能够更加准确的识别出干预转化用户,达到提高干预转化用户识别准确性的目的。
附图说明
图1为一个实施例中一种用户识别方法的流程示意图;
图2为一个实施例中一种得到第一树模型和第二树模型的流程示意图;
图3为一个实施例中一种精调训练方法的流程示意图;
图4为另一个实施例中一种观测数据进行特征提取的流程示意图;
图5为一个实施例中一种随机数据进行特征提取的流程示意图;
图6为一个实施例中一种根据观测特征和随机特征训练得到精调神经网络模型的流程示意图;
图7为一个实施例中一种用户识别装置的结构框图;
图8为一个实施例中一种计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
目前,提升平台业务最有效的办法就是拉新,而在拉新过程中,准确识别出干预转化用户可以极大降低拉新过程中产生的成本。传统技术中是用大量平台用户数据训练神经网络模型,然后用训练好的神经网络模型识别干预转化用户,其中平台用户数据包括干预转化用户数据。但是,干预转化用户数据中的用户往往是不能完全确定其是干预转化用户,因为用户收到短信转化为平台用户,不代表用户未收到短信就不会转化为平台用户,所以,传统技术中训练得到神经网络模型识别干预转化用户的准确性较低。因此,有必要提出有效的技术手段来提高干预转化用户识别的准确性。
本公开实施例提供的用户识别方法应用于服务器,得到的用户识别模型可以应用于打车平台等有拉新需求的平台,其中,服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图1所示,提供了一种用户识别方法的流程示意图,本实施例以该方法应用于服务器进行举例说明。该方法包括以下步骤:
步骤101,获取目标用户的用户数据。
其中,目标用户指的是非平台用户,用户数据包括性别、邮箱、年龄、教育水平、职业和爱好等。
可选的,通过向目标用户使用的软件界面、邮箱、短信等发送用户数据收集表,进而来收集用户数据,其中,用户数据收集表中注明收集这些数据的用途,以及承诺不对外公开等信息,目标用户可以根据自身情况考虑是否填写用户数据收集表。需要说明的是,本申请中获取用户数据的途径和使用用户数据均在合规范围内。
步骤102,将用户数据输入至预先训练的用户识别模型中,得到用户识别模型输出的识别结果;其中,用户识别模型是根据用户拉新业务的因果推断数据训练得到的。
其中,用户识别模型可以是神经网络模型和树模型中的至少一种,神经网络模型如DNN(Deep Neural Networks,深度神经网络)、CNN(Convolutional Neural Networks,卷积神经网络)或LSTM(Longshort-term memory,长短期记忆)等,树模型如XGBoost等。拉新业务指的挖掘潜在的非平台用户,对其施加干预,如发送短信、APP推送消息、打电话、发优惠券等,使其转化为平台用户的业务。
因果推断数据可以是采用因果模型预测或运营策略挑选出的非平台用户,对该非平台用户实施干预,产生的干预转化用户所对应的数据;因果推断数据也可以是对非平台用户随机实施干预,不受因果模型或运营策略的影响下,产生的干预转化用户所对应的数据。其中,因果模型可以是预先训练好的能够预测非平台用户是否能够在受到干预的情况下转化为平台用户的模型。运营策略可以是长期跟进非平台用户的浏览踪迹,预测非平台用户的需求是否涉及平台。
识别结果可以是概率数值,识别结果有两种,一种是对目标用户施加干预后,将用户数据输入至用户识别模型得到一个结果;另一种是对目标用户不施加干预,将用户数据输入至用户识别模型得到一个结果,识别结果可以是概率数值
可选的,用因果数据训练未训练好的用户识别模型,得到预先训练好的用户识别模型,将施加干扰的用户数据和不施加干扰的用户数据均输入用户识别模型中,用户识别模型就可以得到两个识别结果。
步骤103,根据识别结果确定目标用户是否为干预转化用户。
可选的,比较步骤102中的两个识别结果,若差距较大,说明该目标用户是干预转化用户,若差距较小,说明该目标用户不是干预转化用户。
综上所述,通过获取目标用户的用户数据,将用户数据输入至预先训练的用户识别模型中,得到用户识别模型输出的识别结果,再根据识别结果确定目标用户是否为干预转化用户,其中,用户识别模型是根据用户拉新业务的因果推断数据训练得到的。由于因果推断数据中具有确定的采用干预后用户才转化为平台用户的因果特性,这样,采用因果推断数据训练得到的用户识别模型将能够更加准确的识别出干预转化用户,达到提高干预转化用户识别准确性的目的。
在其中一个实施例中,因果推断数据包括观测数据和随机数据,用户识别模型的训练方法包括:根据观测数据对初始神经网络模型进行预训练,得到预训练神经网络模型,并根据随机数据对预训练神经网络模型进行精调训练,得到精调神经网络模型;根据精调神经网络模型得到用户识别模型。
其中,观测数据是通过采用因果模型或运营策略挑选出的非平台用户,然后对该非平台用户实施干预,产生的干预转化用户所对应的数据。例如,通过因果模型预测发现某个用户(非平台用户)很可能需要平台的服务,于是向该用户发送邮件或者短信,希望该用户能体验平台,几个小时后,若该用户完成了一笔订单,或者注册了该平台,那么该用户的数据样本就可以作为观测数据。
随机数据是不采用因果模型或运营策略,随机对非平台用户实施干扰,产生的干预转化用户所对应的数据。
由于观测数据是有针对性的实施干预,实施干预后转化为平台用户的概率相对较高,因此,观测数据相对来说数据量较多。而随机数据由于对非平台用户随机实施干预,最终的平台用户转化的投入产出比很低,因此,不能大量采用随机干预来收集随机数据,因此,随机数据相对来说数据量较少。但是,观测数据往往准确性不高,因为用户受到干预转化为平台用户,不代表该用户如果没收到短信就不会转化,即无法判断干预与转化平台用户之间的因果性。而随机数据由于是随机向非平台用户实施干扰得到的数据,其能够更好的判断干预与转化平台之间的因果性。
另外,初始神经网络模型可以是DNN、CNN或LSTM等。
可选的,训练神经网络模型需要大量的数据,用少数据量训练神经网络会发生模型过拟合,导致神经网络模型学习不准确,进而导致识别的准确性较低,因此,先采用数据量较大的观测数据训练初始神经网络得到预训练神经网络模型,再通过数据量较少的随机数据训练预训练神经网络模型,得到精调神经网络模型,将该精调神经网络模型作为用户识别模型,则该用户识别模型由于是用具有因果关系的随机数据得到,因此其识别干预转化用户的准确性会较高。
在其中一个实施例中,如图2所示,提供了一种得到第一树模型和第二树模型的流程示意图,用户识别方法还包括:根据观测数据对第一初始树模型进行训练,得到第一树模型;根据随机数据对第二初始树模型进行训练,得到第二树模型。
其中,第一初始树模型和第二初始树模型均可以是XGBoost,由此第一树模型和第二树模型也均为XGBoost。
可选的,将观测数据数据和标签样本输入第一初始树模型中,其中标签样本为观测数据的真实情况,即是否为干预转化用户,第一初始树模型会输出一个识别结果,即干预转化用户或非干预转化用户,当识别结果与标签样本不一致时,第一初始树模型进行调参,重新进行重复上述步骤的训练,直至训练时间到达预设时间阈值停止训练,得到第一树模型。随机数据对第二初始树模型进行训练的过程与观测数据对第一初始树模型进行训练的过程相同,在此不再赘述。
在其中一个实施例中,如图3所示,提供了一种精调训练方法的流程示意图,根据观测数据对初始神经网络模型进行预训练,得到预训练神经网络模型,并根据随机数据对预训练神经网络模型进行精调训练,得到精调神经网络模型,步骤如下:
步骤301,将观测数据分别输入至训练好的第一树模型和第二树模型中,通过第一树模型和第二树模型进行特征提取得到观测特征。
其中,特征提取是将第一树模型和第二树模型的叶子节点作为特征,各叶子节点可以用1或0表示。
可选的,将观测数据输入训练好的第一树模型,进行特征提取,得到第一特征,如[1,0,0,1,1],再将观测数据输入训练好的第二树模型,进行特征提取,得到第二特征,如[1,1,1,1,0],然后将第一特征和第二特征相加或拼接得到观测特征。
步骤302,将随机数据分别输入至第一树模型和第二树模型中,通过第一树模型和第二树模型进行特征提取得到随机特征。
可选的,将随机数据输入训练好的第一树模型,进行特征提取,得到第三特征,如[1,1,0,0,0],再将随机数据输入训练好的第二树模型,进行特征提取,得到第四特征,如[1,0,1,1,0],然后将第三特征和第四特征相加或拼接得到观测特征。
步骤303,根据观测特征对初始神经网络模型进行预训练,得到预训练神经网络模型,并根据随机特征对预训练神经网络模型进行精调训练,得到精调神经网络模型。
可选的,将步骤301得到的观测特征以及观测特征对应的样本标签输入至初始神经网络模型,再对初始神经网络模型的参数随机初始化,然后初始神经网络模型根据观测特征会输出一个观测结果,若该观测结果与样本标签不一致,或者差异较大,则调整初始神经网络模型的参数,重复上述步骤的训练,直至训练时间到达预设时间阈值停止训练,得到预训练神经网络模型。
再将步骤302得到的随机特征以及随机特征对应的样本标签输入至预训练神经网络模型,然后预训练神经网络模型根据随机特征会输出一个随机结果,若该随机结果与样本标签不一致,或者差异较大,则调整预训练神经网络模型的参数,重复上述步骤的训练,直至训练时间到达预设时间阈值停止训练,得到精调神经网络模型。即用户识别模型。
可选的,还可以将训练好的预训练神经网络模型中的神经网络参数导入至另一个未被训练的神经网络模型中,使得未被训练的神经网络模型中的参数更改为训练好的预训练神经网络模型中的神经网络参数,然后将随机特征以及以及随机特征对应的样本标签,输入至导入了训练好的预训练神经网络模型中的神经网络参数的另一个未被训练的神经网络模型,然后该另一个未被训练的神经网络模型进行训练,每一步得到的随机结果若与样本标签不一致或差距较大,则重新调参,直至训练时间到达预设时间阈值停止训练,该过程称为精调训练,通过精调训练后,得到的精调神经网络模型可以更准确的识别用户为干预转化用户或非干预转化用户。
为了便于理解,如图4所示,提供了一种观测数据进行特征提取的流程示意图,与上述步骤301对应。如图5所示,提供了一种随机数据进行特征提取的流程示意图,与上述步骤302对应,如图6所示,提供了一种根据观测特征和随机特征训练得到精调神经网络模型的流程示意图,与上述步骤303对应。
在其中一个实施例中,根据精调神经网络模型得到用户识别模型,包括:将第一树模型、第二树模型以及精调神经网络模型作为用户识别模型。
可选的,用户识别模型包括第一树模型、第二树模型以及精调神经网络模型,具体这些模型是如何训练得到的,上述已详细描述,在此不再赘述。
下面实施例为如何使用用户识别模型进行识别干预转化用户。
在其中一个实施例中,将用户数据输入至用户识别模型中,得到用户识别模型输出的第一识别结果和第二识别结果,包括:根据用户数据生成干预数据和不干预数据,干预数据用于表征向目标用户施加干预的情况的特征,不干预数据用于表征不向目标用户施加干预的情况的特征;将干预数据输入至用户识别模型中,得到第一识别结果,并将不干预数据输入至用户识别模型中,得到第二识别结果。
在其中一个实施例中,将用户数据输入至预先训练的用户识别模型中,得到用户识别模型输出的识别结果,包括:将用户数据输入至用户识别模型中,得到用户识别模型输出的第一识别结果和第二识别结果;第一识别结果是用户识别模型针对向目标用户施加干预的情况所输出的结果,第二识别结果是用户识别模型针对不向目标用户施加干预的情况所输出的结果。
在其中一个实施例中,根据用户数据生成干预数据和不干预数据,包括:获取干预特征值,将干预特征值与用户数据进行拼接,得到干预数据;获取不干预特征值,将不干预特征值与用户数据进行拼接,得到不干预数据。
其中,干预数据包括用户数据和干预特征值,用户数据如表征用户特点的矩阵,如[1,1,0,1],干预特征值是表征向目标用户施加干预的量,如1,则将用户数据和干预特征值进行拼接,得到干预数据,如[1,1,0,1,1]。
不干预数据包括用户数据和不干预值,用户数据如表征用户特点的矩阵,如[1,1,0,1],不干预特征值是表征不向目标用户施加干预的量,如0,则不干预数据就是[1,1,0,1,0]。
可选的,将干预数据和不干预数据分别输入用户识别模型,得到第一识别结果和第二识别结果,则第一识别结果就具有目标用户施加干预的特性,第二识别结果就具有目标用户不施加干预的特性,因此,从而对比第一识别结果和第二识别结果,就可以准确的确定出目标用户是否为干预转化用户。
在其中一个实施例中,将干预数据输入至用户识别模型中,得到第一识别结果,包括:将干预数据分别输入至用户识别模型包括的第一树模型和第二树模型中,通过第一树模型和第二树模型对干预数据进行特征提取得到第一特征;将第一特征输入至用户识别模型包括的精调神经网络模型中,得到精调神经网络模型输出的第一识别结果。
可选的,将包含有用户数据和干预特征值的干预数据分别输入第一树模型和第二树模型,第一树模型和第二树模型均会对干预数据进行特征提取,然后将第一树模型的特征提取结果和第二树模型的特征提取结果进行相加或拼接,得到第一特征,再将第一特征输入至精调神经网络模型中,就可以得到第一识别结果。
在其中一个实施例中,将不干预数据输入至用户识别模型中,得到第二识别结果,包括:将不干预数据分别输入至用户识别模型包括的第一树模型和第二树模型中,通过第一树模型和第二树模型对不干预数据进行特征提取得到第二特征;将第二特征输入至用户识别模型包括的精调神经网络模型中,得到精调神经网络模型输出的第二识别结果。
可选的,将包含有用户数据和不干预数据的不干预数据分别输入第一树模型和第二树模型,第一树模型和第二树模型均会对不干预数据进行特征提取,然后将第一树模型的特征提取结果和第二树模型的特征提取结果进行相加或拼接,得到第二特征,再将第二特征输入至精调神经网络模型中,就可以得到第二识别结果。
在其中一个实施例中,根据识别结果确定目标用户是否为干预转化用户,包括:根据第一识别结果和第二识别结果确定向目标用户施加干预和不向目标用户施加干预的两种情况下目标用户的转化差异;根据转化差异确定目标用户是否为干预转化用户。
在其中一个实施例中,根据转化差异确定目标用户是否为干预转化用户,包括:若转化差异大于预设差异阈值,则确定目标用户为干预转化用户。
可选的,第一识别结果减去第二识别结果,取绝对值,得到一个差值,该差值能够表征向目标用户施加干预和不向目标用户施加干预的两种情况下目标用户的转化差异,若该转化差异大于预设差异阈值,则说明目标用户不施加干预,是无法转化为平台用户的;若该转化差异小于等于预设差异阈值,则说明目标用户是自然转化用户,无需施加干预,该目标用户就能够转化为平台用户。
综上所述,最详细的实施例如下:
(1)进行模型训练。根据观测数据对第一初始树模型进行训练,得到第一树模型;根据随机数据对第二初始树模型进行训练,得到第二树模型。其中观测数据和随机数据为因果推断数据。
(2)将观测数据分别输入至训练好的第一树模型和第二树模型中,通过第一树模型和第二树模型进行特征提取得到观测特征;将随机数据分别输入至第一树模型和第二树模型中,通过第一树模型和第二树模型进行特征提取得到随机特征;根据观测特征对初始神经网络模型进行预训练,得到预训练神经网络模型,并根据随机特征对预训练神经网络模型进行精调训练,得到精调神经网络模型。
(3)得到了用户识别模型,用户识别模型包括第一树模型、第二树模型以及精调神经网络模型。
(4)获取目标用户的用户数据。
(5)获取干预特征值,将干预特征值与用户数据进行拼接,得到干预数据;获取不干预特征值,将不干预特征值与用户数据进行拼接,得到不干预数据。其中,干预数据用于表征向目标用户施加干预的情况的特征,不干预数据用于表征不向目标用户施加干预的情况的特征。
(6)将干预数据分别输入至用户识别模型包括的第一树模型和第二树模型中,通过第一树模型和第二树模型对干预数据进行特征提取得到第一特征;将第一特征输入至用户识别模型包括的精调神经网络模型中,得到精调神经网络模型输出的第一识别结果。
(7)将不干预数据输入至用户识别模型中,得到第二识别结果,包括:将不干预数据分别输入至用户识别模型包括的第一树模型和第二树模型中,通过第一树模型和第二树模型对不干预数据进行特征提取得到第二特征;将第二特征输入至用户识别模型包括的精调神经网络模型中,得到精调神经网络模型输出的第二识别结果。
(8)根据第一识别结果和第二识别结果确定向目标用户施加干预和不向目标用户施加干预的两种情况下目标用户的转化差异,若转化差异大于预设差异阈值,则确定目标用户为干预转化用户。
本申请的技术优点如下:
(1)树模型能更好的刻画连续特征信息,其中连续特征如年龄这样的数据。神经网络通常能够先用大规模的不准确的数据进行训练,得到预神经网络模型,然后再用少量的准确的数据进行训练预神经网络模型,可以得到精调神经网阔模型,这个过程称之为迁移学习。而树模型无法使用迁移学习的框架,神经网络无法很好的刻画连续特征信息。本申请通过上述方法实现了利用树模型的优点和神经网络的优点,完成了对用户识别模型的训练,使得训练好的用户识别模型能够更准确的识别出干预转化用户。
(2)本申请中训练用户识别模型所用的数据为因果推断数据,因果推断数据包括观测数据和随机数据,使得用户识别模型在学习的过程中,学习到了因果关系,进而提升了用户识别模型识别干预转化用户的准确性,从而对干预转化用户实施干预,则该干预转化用户大概率会转化为平台用户,降低了拉新的成本,提高了平台的收益。
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的用户识别方法的用户识别装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个用户识别装置实施例中的具体限定可以参见上文中对于用户识别方法的限定,在此不再赘述。
在一个实施例中,如图7所示,提供了一种用户识别装置,该用户识别装置700包括:获取模块701、识别模块702和确定模块703,其中:
获取模块701,用于获取目标用户的用户数据;
识别模块702,用于将用户数据输入至预先训练的用户识别模型中,得到用户识别模型输出的识别结果;其中,用户识别模型是根据用户拉新业务的因果推断数据训练得到的
确定模块703,用于根据识别结果确定目标用户是否为干预转化用户。
在其中一个实施例中,因果推断数据包括观测数据和随机数据,用户识别装置700还包括训练模块,用于根据观测数据对初始神经网络模型进行预训练,得到预训练神经网络模型,并根据随机数据对预训练神经网络模型进行精调训练,得到精调神经网络模型;根据精调神经网络模型得到用户识别模型。
在其中一个实施例中,训练模块,用于将观测数据分别输入至训练好的第一树模型和第二树模型中,通过第一树模型和第二树模型进行特征提取得到观测特征;将随机数据分别输入至第一树模型和第二树模型中,通过第一树模型和第二树模型进行特征提取得到随机特征;根据观测特征对初始神经网络模型进行预训练,得到预训练神经网络模型,并根据随机特征对预训练神经网络模型进行精调训练,得到精调神经网络模型。
在其中一个实施例中,训练模块,还用于根据观测数据对第一初始树模型进行训练,得到第一树模型;根据随机数据对第二初始树模型进行训练,得到第二树模型。
在其中一个实施例中,训练模块,还用于将第一树模型、第二树模型以及精调神经网络模型作为用户识别模型。
在其中一个实施例中,识别模块702,用于将用户数据输入至用户识别模型中,得到用户识别模型输出的第一识别结果和第二识别结果;第一识别结果是用户识别模型针对向目标用户施加干预的情况所输出的结果,第二识别结果是用户识别模型针对不向目标用户施加干预的情况所输出的结果。
在其中一个实施例中,识别模块702,还用于根据用户数据生成干预数据和不干预数据,干预数据用于表征向目标用户施加干预的情况的特征,不干预数据用于表征不向目标用户施加干预的情况的特征;将干预数据输入至用户识别模型中,得到第一识别结果,并将不干预数据输入至用户识别模型中,得到第二识别结果。
在其中一个实施例中,识别模块702,还用于将干预数据分别输入至用户识别模型包括的第一树模型和第二树模型中,通过第一树模型和第二树模型对干预数据进行特征提取得到第一特征;将第一特征输入至用户识别模型包括的精调神经网络模型中,得到精调神经网络模型输出的第一识别结果。
在其中一个实施例中,识别模块702,还用于将不干预数据分别输入至用户识别模型包括的第一树模型和第二树模型中,通过第一树模型和第二树模型对不干预数据进行特征提取得到第二特征;将第二特征输入至用户识别模型包括的精调神经网络模型中,得到精调神经网络模型输出的第二识别结果。
在其中一个实施例中,识别模块702,还用于获取干预特征值,将干预特征值与用户数据进行拼接,得到干预数据;获取不干预特征值,将不干预特征值与用户数据进行拼接,得到不干预数据。
在其中一个实施例中,确定模块703,还用于根据第一识别结果和第二识别结果确定向目标用户施加干预和不向目标用户施加干预的两种情况下目标用户的转化差异;根据转化差异确定目标用户是否为干预转化用户。
上述用户识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质和内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储用户数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种用户识别方法。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random AccessMemory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。
Claims (16)
1.一种用户识别方法,其特征在于,所述方法包括:
获取目标用户的用户数据;
将所述用户数据输入至预先训练的用户识别模型中,得到所述用户识别模型输出的识别结果;
根据所述识别结果确定所述目标用户是否为干预转化用户;
其中,所述用户识别模型是根据用户拉新业务的因果推断数据训练得到的。
2.根据权利要求1所述的方法,其特征在于,所述因果推断数据包括观测数据和随机数据,所述用户识别模型的训练方法包括:
根据所述观测数据对初始神经网络模型进行预训练,得到预训练神经网络模型,并根据所述随机数据对所述预训练神经网络模型进行精调训练,得到精调神经网络模型;
根据所述精调神经网络模型得到所述用户识别模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述观测数据对初始神经网络模型进行预训练,得到预训练神经网络模型,并根据所述随机数据对所述预训练神经网络模型进行精调训练,得到精调神经网络模型,包括:
将所述观测数据分别输入至训练好的第一树模型和第二树模型中,通过所述第一树模型和所述第二树模型进行特征提取得到观测特征;
将所述随机数据分别输入至所述第一树模型和所述第二树模型中,通过所述第一树模型和所述第二树模型进行特征提取得到随机特征;
根据所述观测特征对所述初始神经网络模型进行预训练,得到所述预训练神经网络模型,并根据所述随机特征对所述预训练神经网络模型进行精调训练,得到所述精调神经网络模型。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
根据所述观测数据对第一初始树模型进行训练,得到所述第一树模型;
根据所述随机数据对第二初始树模型进行训练,得到所述第二树模型。
5.根据权利要求4所述的方法,其特征在于,所述根据所述精调神经网络模型得到所述用户识别模型,包括:
将所述第一树模型、所述第二树模型以及所述精调神经网络模型作为所述用户识别模型。
6.根据权利要求1至5任一所述的方法,其特征在于,所述将所述用户数据输入至预先训练的用户识别模型中,得到所述用户识别模型输出的识别结果,包括:
将所述用户数据输入至所述用户识别模型中,得到所述用户识别模型输出的第一识别结果和第二识别结果;
所述第一识别结果是所述用户识别模型针对向所述目标用户施加干预的情况所输出的结果,所述第二识别结果是所述用户识别模型针对不向所述目标用户施加干预的情况所输出的结果。
7.根据权利要求6所述的方法,其特征在于,所述将所述用户数据输入至所述用户识别模型中,得到所述用户识别模型输出的第一识别结果和第二识别结果,包括:
根据所述用户数据生成干预数据和不干预数据,所述干预数据用于表征向所述目标用户施加干预的情况的特征,所述不干预数据用于表征不向所述目标用户施加干预的情况的特征;
将所述干预数据输入至所述用户识别模型中,得到所述第一识别结果,并将所述不干预数据输入至所述用户识别模型中,得到所述第二识别结果。
8.根据权利要求7所述的方法,其特征在于,所述将所述干预数据输入至所述用户识别模型中,得到所述第一识别结果,包括:
将所述干预数据分别输入至所述用户识别模型包括的第一树模型和第二树模型中,通过所述第一树模型和所述第二树模型对所述干预数据进行特征提取得到第一特征;
将所述第一特征输入至所述用户识别模型包括的精调神经网络模型中,得到所述精调神经网络模型输出的所述第一识别结果。
9.根据权利要求7所述的方法,其特征在于,所述将所述不干预数据输入至所述用户识别模型中,得到所述第二识别结果,包括:
将所述不干预数据分别输入至所述用户识别模型包括的第一树模型和第二树模型中,通过所述第一树模型和所述第二树模型对所述不干预数据进行特征提取得到第二特征;
将所述第二特征输入至所述用户识别模型包括的精调神经网络模型中,得到所述精调神经网络模型输出的所述第二识别结果。
10.根据权利要求7所述的方法,其特征在于,所述根据所述用户数据生成干预数据和不干预数据,包括:
获取干预特征值,将所述干预特征值与所述用户数据进行拼接,得到所述干预数据;
获取不干预特征值,将所述不干预特征值与所述用户数据进行拼接,得到所述不干预数据。
11.根据权利要求6所述的方法,其特征在于,所述根据所述识别结果确定所述目标用户是否为干预转化用户,包括:
根据所述第一识别结果和所述第二识别结果确定向所述目标用户施加干预和不向所述目标用户施加干预的两种情况下所述目标用户的转化差异;
根据所述转化差异确定所述目标用户是否为干预转化用户。
12.根据权利要求11所述的方法,其特征在于,所述根据所述转化差异确定所述目标用户是否为干预转化用户,包括:
若所述转化差异大于预设差异阈值,则确定所述目标用户为干预转化用户。
13.一种用户识别装置,其特征在于,所述装置包括:
获取模块,用于获取目标用户的用户数据;
识别模块,用于将所述用户数据输入至预先训练的用户识别模型中,得到所述用户识别模型输出的识别结果;
确定模块,用于根据所述识别结果确定所述目标用户是否为干预转化用户;
其中,所述用户识别模型是根据用户拉新业务的因果推断数据训练得到的。
14.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至12中任一项所述的方法的步骤。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至12中任一项所述的方法的步骤。
16.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至12中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310323660.2A CN116051155B (zh) | 2023-03-29 | 2023-03-29 | 用户识别方法、装置、设备、存储介质和程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310323660.2A CN116051155B (zh) | 2023-03-29 | 2023-03-29 | 用户识别方法、装置、设备、存储介质和程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116051155A true CN116051155A (zh) | 2023-05-02 |
CN116051155B CN116051155B (zh) | 2023-07-14 |
Family
ID=86118486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310323660.2A Active CN116051155B (zh) | 2023-03-29 | 2023-03-29 | 用户识别方法、装置、设备、存储介质和程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116051155B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110125565A1 (en) * | 2009-11-24 | 2011-05-26 | Visa U.S.A. Inc. | Systems and Methods for Multi-Channel Offer Redemption |
CN110782043A (zh) * | 2019-10-29 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 模型优化方法、装置、存储介质及服务器 |
CN111340210A (zh) * | 2020-02-18 | 2020-06-26 | 深圳市腾讯信息技术有限公司 | 用户位置识别模型的构建方法和用户位置识别方法 |
CN111598118A (zh) * | 2019-12-10 | 2020-08-28 | 中山大学 | 一种视觉问答任务实现方法及系统 |
CN115049068A (zh) * | 2022-05-18 | 2022-09-13 | 支付宝(杭州)信息技术有限公司 | 一种模型处理方法、装置、存储介质及电子设备 |
-
2023
- 2023-03-29 CN CN202310323660.2A patent/CN116051155B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110125565A1 (en) * | 2009-11-24 | 2011-05-26 | Visa U.S.A. Inc. | Systems and Methods for Multi-Channel Offer Redemption |
CN110782043A (zh) * | 2019-10-29 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 模型优化方法、装置、存储介质及服务器 |
CN111598118A (zh) * | 2019-12-10 | 2020-08-28 | 中山大学 | 一种视觉问答任务实现方法及系统 |
CN111340210A (zh) * | 2020-02-18 | 2020-06-26 | 深圳市腾讯信息技术有限公司 | 用户位置识别模型的构建方法和用户位置识别方法 |
CN115049068A (zh) * | 2022-05-18 | 2022-09-13 | 支付宝(杭州)信息技术有限公司 | 一种模型处理方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN116051155B (zh) | 2023-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816032B (zh) | 基于生成式对抗网络的无偏映射零样本分类方法和装置 | |
US20220215209A1 (en) | Training machine learning models using unsupervised data augmentation | |
CN109272332B (zh) | 一种基于递归神经网络的客户流失预测方法 | |
CN112905876B (zh) | 基于深度学习的信息推送方法、装置和计算机设备 | |
CN113408706B (zh) | 训练用户兴趣挖掘模型、用户兴趣挖掘的方法和装置 | |
CN114330966A (zh) | 一种风险预测方法、装置、设备以及可读存储介质 | |
US9436912B1 (en) | Symmetric schema instantiation method for use in a case-based reasoning system | |
CN111915086A (zh) | 异常用户预测方法和设备 | |
CN116051155B (zh) | 用户识别方法、装置、设备、存储介质和程序产品 | |
CN117095460A (zh) | 基于长短时关系预测编码的自监督群体行为识别方法及其识别系统 | |
CN113872703B (zh) | 对量子通信网络中多网元数据进行预测的方法及系统 | |
CN116151369A (zh) | 一种公共审计的拜占庭鲁棒联邦学习系统及方法 | |
CN111935259B (zh) | 目标帐号集合的确定方法和装置、存储介质及电子设备 | |
CN112463964B (zh) | 文本分类及模型训练方法、装置、设备及存储介质 | |
CN114898339B (zh) | 驾驶行为预测模型的训练方法、装置、设备、存储介质 | |
CN115102852B (zh) | 物联网业务开通方法、装置、电子设备及计算机介质 | |
CN113609933B (zh) | 一种基于后缀树的故障检测方法、系统、装置及存储介质 | |
CN117216668B (zh) | 一种基于机器学习的数据分类分级处理方法和系统 | |
US20240062051A1 (en) | Hierarchical data labeling for machine learning using semi-supervised multi-level labeling framework | |
CN115130474A (zh) | 命名实体识别方法、装置、设备及存储介质 | |
CN117609864A (zh) | 一种基于双通道图对比学习的虚假信息检测方法及系统 | |
CN117994018A (zh) | 模型生成方法、借贷意愿预估方法、装置以及电子设备 | |
CN116881122A (zh) | 测试案例生成方法、装置、设备、存储介质和程序产品 | |
CN115424160A (zh) | 小样本视频动作识别方法及装置 | |
CN117195056A (zh) | 恶意软件家族分类的方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |