CN109492772A - 生成信息的方法和装置 - Google Patents
生成信息的方法和装置 Download PDFInfo
- Publication number
- CN109492772A CN109492772A CN201811438674.4A CN201811438674A CN109492772A CN 109492772 A CN109492772 A CN 109492772A CN 201811438674 A CN201811438674 A CN 201811438674A CN 109492772 A CN109492772 A CN 109492772A
- Authority
- CN
- China
- Prior art keywords
- data
- machine learning
- learning model
- initial data
- multidimensional characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000010801 machine learning Methods 0.000 claims abstract description 91
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 76
- 238000012549 training Methods 0.000 claims abstract description 52
- 238000004458 analytical method Methods 0.000 claims description 24
- 238000013481 data capture Methods 0.000 claims description 11
- 238000003062 neural network model Methods 0.000 claims description 9
- 238000007637 random forest analysis Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 108091026890 Coding region Proteins 0.000 claims description 4
- 210000005036 nerve Anatomy 0.000 claims 1
- 230000006399 behavior Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000006854 communication Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- BASFCYQUMIYNBI-UHFFFAOYSA-N platinum Chemical compound [Pt] BASFCYQUMIYNBI-UHFFFAOYSA-N 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000002513 implantation Methods 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 229910052697 platinum Inorganic materials 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0202—Market predictions or forecasting for commercial activities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Software Systems (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Human Resources & Organizations (AREA)
- Game Theory and Decision Science (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了生成信息的方法和装置。该生成信息的方法包括:获取原始数据以及原始数据对应的标签数据;采用多种编码算法对原始数据和标签数据进行编码,得到多维特征编码序列;采用多维特征编码序列预先训练机器学习模型;基于对预先训练的机器学习模型的评估数据,确定原始数据所对应的用于训练机器学习模型的多维特征编码。该方法基于预先训练的机器学习模型的结果,确定原始数据所对应的用于训练机器学习模型的多维特征编码,提高了对原始数据进行多维特征编码的准确性和针对性,从而可以提高训练机器学习模型的效率。
Description
技术领域
本申请涉及计算机技术领域,具体涉及计算机网络技术领域,尤其涉及生成信息的方法和装置。
背景技术
随着科技的不断发展,越来越多的领域采用机器模型来预测用户的未来行为、业务的发展趋势以及事态的发展趋势等。在采用机器模型进行预测的过程中,需要收集用户特征并生成符合预测需求的特征编码数据。
用户特征的收集和特征编码数据的生成是个复杂的过程,传统的用户画像和知识图谱基于规则和统计的无监督学习方法,生成的用户特征编码数据在个性化业务场景下的拟合模型效果往往较弱,这使得模型的线上效果低于预期,并且业务建模的效果差异很大,经常出现过拟合。
发明内容
本申请实施例提供了生成信息的方法和装置。
第一方面,本申请实施例提供了一种生成信息的方法,包括:获取原始数据以及原始数据对应的标签数据;采用多种编码算法对原始数据和标签数据进行编码,得到多维特征编码序列;采用多维特征编码序列预先训练机器学习模型;基于对预先训练的机器学习模型的评估数据,确定原始数据所对应的用于训练机器学习模型的多维特征编码。
在一些实施例中,基于对预先训练的机器学习模型的评估数据,确定原始数据所对应的用于训练机器学习模型的多维特征编码包括:基于训练机器学习模型所需的特征,对多维特征编码进行重要性分析;基于对预先训练的机器学习模型的评估数据和重要性分析的结果,确定原始数据所对应的用于训练机器学习模型的多维特征编码。
在一些实施例中,获取原始数据对应的标签数据包括:基于原始数据,生成结构化数据;获取结构化数据对应的标签数据;以及采用多种编码算法对原始数据和标签数据进行编码,得到多维特征编码序列包括:采用多种编码算法对结构化数据和标签数据进行编码,得到多维特征编码序列。
在一些实施例中,获取原始数据对应的标签数据包括:基于业务标签生成规则,生成原始数据对应的标签数据;和/或采用人工标注原始数据对应的标签。
在一些实施例中,多种编码算法包括以下至少两种:词袋编码算法,TF-IDF编码算法,时序化编码算法,证据权重编码算法,熵编码算法和梯度提升树编码算法。
在一些实施例中,预先训练的机器学习模型包括以下至少一项:逻辑回归模型,梯度提升树模型,随机森林模型和深层神经网络模型。
第二方面,本申请实施例提供了一种生成信息的装置,包括:数据获取单元,被配置成获取原始数据以及原始数据对应的标签数据;数据编码单元,被配置成采用多种编码算法对原始数据和标签数据进行编码,得到多维特征编码序列;模型预训单元,被配置成采用多维特征编码序列预先训练机器学习模型;编码确定单元,被配置成基于对预先训练的机器学习模型的评估数据,确定原始数据所对应的用于训练机器学习模型的多维特征编码。
在一些实施例中,编码确定单元包括:重要性分析子单元,被配置成基于训练机器学习模型所需的特征,对多维特征编码进行重要性分析;编码确定子单元,被配置成基于对预先训练的机器学习模型的评估数据和重要性分析的结果,确定原始数据所对应的用于训练机器学习模型的多维特征编码。
在一些实施例中,数据获取单元进一步被配置成:基于原始数据,生成结构化数据;获取结构化数据对应的标签数据;以及数据编码单元进一步被配置成:采用多种编码算法对结构化数据和标签数据进行编码,得到多维特征编码序列。
在一些实施例中,数据获取单元中获取原始数据对应的标签数据包括:基于业务标签生成规则,生成原始数据对应的标签数据;和/或采用人工标注原始数据对应的标签。
在一些实施例中,数据编码单元所采用的多种编码算法包括以下至少两种:词袋编码算法,TF-IDF编码算法,时序化编码算法,证据权重编码算法,熵编码算法和梯度提升树编码算法。
在一些实施例中,模型预训单元中预先训练的机器学习模型包括以下至少一项:逻辑回归模型,梯度提升树模型,随机森林模型和深层神经网络模型。
第三方面,本申请实施例提供了一种设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上任一所述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上任一所述的方法。
本申请实施例提供的生成信息的方法和装置,首先,获取原始数据以及原始数据对应的标签数据;之后,采用多种编码算法对原始数据和标签数据进行编码,得到多维特征编码序列;之后,采用多维特征编码序列预先训练机器学习模型;最后,基于对预先训练的机器学习模型的评估数据,确定原始数据所对应的用于训练机器学习模型的多维特征编码。在这一过程中,基于预先训练的机器学习模型的结果,确定原始数据所对应的用于训练机器学习模型的多维特征编码,提高了对原始数据进行多维特征编码的准确性和针对性,从而可以提高训练机器学习模型的效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的生成信息的方法的一个实施例的流程示意图;
图3是根据本申请实施例的生成信息的方法的一个应用场景的示意图;
图4是根据本申请的生成信息的方法的又一个实施例的流程示意图;
图5是本申请的生成信息的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105、106。网络104用以在终端设备101、102、103和服务器105、106之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户110可以使用终端设备101、102、103通过网络104与服务器105、106交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如视频采集类应用、视频播放类应用、即时通信工具、邮箱客户端、社交平台软件、搜索引擎类应用、购物类应用等。
终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio LayerIII,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group AudioLayer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105、106可以是提供各种服务的服务器,例如对终端设备101、102、103提供支持的后台服务器。后台服务器可以对终端提交的数据进行分析、存储或计算等处理,并将分析、存储或计算结果推送给终端设备。
需要说明的是,在实践中,本申请实施例所提供的生成信息的方法一般由服务器105、106执行,相应地,生成信息的装置一般设置于服务器105、106中。然而,当终端设备的性能可以满足该方法的执行条件或该设备的设置条件时,本申请实施例所提供的生成信息的方法也可以由终端设备101、102、103执行,生成信息的装置也可以设置于终端设备101、102、103中。
应该理解,图1中的终端、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端、网络和服务器。
继续参考图2,示出了根据本申请的生成信息的方法的一个实施例的流程200。该生成信息的方法,包括以下步骤:
步骤201,获取原始数据以及原始数据对应的标签数据。
在本实施例中,上述生成信息的方法运行于其上的电子设备(例如图1所示的服务器或终端)可以从数据库或其它终端获取原始数据。
这里的原始数据是指基于大数据获取的用户行为数据。例如,用户的搜索日志、地理位置、业务交易和行为埋点数据等。数据埋点分为初级、中级、高级三种方式,分别为:初级:在产品、服务转化关键点植入统计代码,据其独立ID确保数据采集不重复(如购买按钮点击率);中级:植入多段代码,追踪用户在平台每个界面上的系列行为,事件之间相互独立(如打开商品详情页——选择商品型号——加入购物车——下订单——购买完成);高级:联合公司工程、ETL采集分析用户全量行为,建立用户画像,还原用户行为模型,作为产品分析、优化的基础。
在获取原始数据之后,可以根据原始数据获取对应的标签数据。原始数据对应的标签数据,可以为基于业务标签生成规则生成的原始数据对应的标签数据。例如,标签数据可以为用户是否响应、是否活跃等。备选地或附加地,也可以采用人工标注原始数据对应的标签。例如,标签数据可以为职业、兴趣等。
步骤202,采用多种编码算法对原始数据和标签数据进行编码,得到多维特征编码序列。
在本实施例中,多种编码算法包括以下至少两种:词袋编码算法,TF-IDF编码算法,时序化编码算法,证据权重编码算法,熵编码算法和梯度提升树编码算法。
在采用多种编码算法分别对原始数据和标签数据进行编码时,对于每一种编码算法,可以得到一组多维特征编码。从而,对于多种编码算法,可以得到多组多维特征编码序列。
步骤203,采用多维特征编码序列预先训练机器学习模型。
在本实施例中,对于每一组多维特征编码,可以预先训练机器学习模型,以便在后续步骤中得到使用各组多维特征编码所训练的机器学习模型的评估数据。进而,可以从各组多维特征编码中选出更为符合机器学习模型的需求的多维特征编码。
这里的机器学习模型,可以通过样本学习具备鉴别能力。机器学习模型可以采用神经网络模型、支持向量机或者逻辑回归模型等。神经网络模型比如卷积神经网络、反向传播神经网络、反馈神经网络、径向基神经网络或者自组织神经网络等。
在一个具体的示例中,预先训练的机器学习模型可以包括以下至少一项:逻辑回归模型,梯度提升树模型,随机森林模型和深层神经网络模型。
步骤204,基于对预先训练的机器学习模型的评估数据,确定原始数据所对应的用于训练机器学习模型的多维特征编码。
在本实施例中,预先训练机器学习模型之后,可以对预先训练后的机器学习模型进行评估,并根据评估数据,确定适应该机器学习模型的多维特征编码,并存储该多维特征编码。例如,存储该适应该机器学习模型的多维特征编码至存储和计算集群。
以下结合图3,描述本申请的生成信息的方法的示例性应用场景。
如图3所示,图3示出了根据本申请的生成信息的方法的一个应用场景的示意性流程图。
如图3所示,生成信息的方法300运行于电子设备310中,可以包括:
首先,获取原始数据301以及原始数据301对应的标签数据302。
其次,采用多种编码算法303对原始数据301和标签数据302进行编码,得到多维特征编码序列304;在这里,多种编码算法包括词袋编码算法,TF-IDF编码算法,时序化编码算法,证据权重编码算法,熵编码算法和梯度提升树编码算法。
再次,采用多维特征编码序列304预先训练机器学习模型305;
最后,基于对预先训练的机器学习模型305的评估数据,确定原始数据301所对应的用于训练机器学习模型的多维特征编码306。
应当理解,上述图3中所示出的生成信息的方法的应用场景,仅为对于生成信息的方法的示例性描述,并不代表对该方法的限定。例如,上述图3中示出的各个步骤,可以进一步采用更为细节的实现方法。
本申请上述实施例提供的生成信息的方法,首先获取原始数据以及原始数据对应的标签数据;之后采用多种编码算法对原始数据和标签数据进行编码,得到多维特征编码序列;之后采用多维特征编码序列预先训练机器学习模型;最后基于对预先训练的机器学习模型的评估数据,确定原始数据所对应的用于训练机器学习模型的多维特征编码。在这一过程中,基于预先训练的机器学习模型的结果,确定原始数据所对应的用于训练机器学习模型的多维特征编码,提高了对原始数据进行多维特征编码的准确性和针对性,从而可以提高训练机器学习模型的效率。
请参考图4,其示出了根据本申请的生成信息的方法的又一个实施例的流程图。
如图4所示,本实施例的生成信息的方法的流程400,可以包括以下步骤:
在步骤401中,获取原始数据。
在本实施例中,上述生成信息的方法运行于其上的电子设备(例如图1所示的服务器或终端)可以从数据库或其它终端获取原始数据。
这里的原始数据是指基于大数据获取的用户行为数据。例如,用户的搜索日志、地理位置、业务交易和行为埋点数据等。数据埋点分为初级、中级、高级三种方式,分别为:初级:在产品、服务转化关键点植入统计代码,据其独立ID确保数据采集不重复(如购买按钮点击率);中级:植入多段代码,追踪用户在平台每个界面上的系列行为,事件之间相互独立(如打开商品详情页——选择商品型号——加入购物车——下订单——购买完成);高级:联合公司工程、ETL采集分析用户全量行为,建立用户画像,还原用户行为模型,作为产品分析、优化的基础。
在一个具体的示例中,获取的原始数据可以包括如下内容:
搜索日志:
100001,我想办信用卡,https://www.uAB.com,card.cgbXXXXX.com
100002,信用卡网站,http://www.ABC123.com,http://www.ABD.com
100001,申请AB银行信用卡,http://www.ABC123.com
100001,如何办理AC信用卡,http://market.cmbXXXXX.com
100002,如何申请信用卡,http://www.AB.com,https://www.uAB.com
地理位置:
100001,北京,北京
100002,广东,深圳
业务交易数据:
100001,200,逾期
100002,100,未逾期
用户行为埋点:
100001,查看BA信用卡中心,查看ACyoung卡,点击信用卡申请
100002,查看BA信用卡中心,查看CC白金卡
在步骤402中,基于原始数据,生成结构化数据。
在本实施例中,在获取原始数据之后,可以基于原始数据生成结构化数据。结构化数据是指可以使用关系型数据库表示和存储,表现为二维形式的数据。一般特点是:数据以行为单位,一行数据表示一个实体的信息,每一行数据的属性是相同的。此外,结构化数据还可以是包含相关标记,用来分隔语义元素以及对记录和字段进行分层。因此,它也被称为自描述的结构。例如,基于原始数据生成XML格式或JSON格式的结构化数据。
在一个具体的示例中,对应步骤401中原始数据的示例,JSON结构化后的数据为:
{"100001":{"query":["我想办信用卡","申请AC信用卡","如何办理AC信用卡"],"url":["www.uAB.com","www.ABC123.com","card.cgbXXXXX.com.cn","www.ABC123.com","www.ABD.com","www.uAB.com","www.AB.com","market.cmbXXXXX.com"],"event":["查看BA信用卡中心","查看ACyoung卡","点击信用卡申请"],"province":"北京","city":"北京","amount":200,"status":"逾期"}
{"100002":{"query":["信用卡网站","如何申请信用卡"],"url":["www.ABC123.com","www.ABD.com","www.uAB.com","www.AB.com"],"event":["查看BA信用卡中心","查看CC白金卡"],"province":"广东","city":"深圳","amount":100,"status":"未逾期"}
在步骤403中,获取结构化数据对应的标签数据。
在本实施例中,在获取结构化数据之后,可以根据结构化数据获取对应的标签数据。结构化数据对应的标签数据,可以为基于业务标签生成规则生成的结构化数据对应的标签数据。例如,标签数据可以为用户是否响应、是否活跃等。备选地或附加地,也可以采用人工标注结构化数据对应的标签。例如,标签数据可以为职业、兴趣等。
在一个具体的示例中,对应上述步骤402中的结构化数据,可以得到上述步骤402中的结构化数据所对应的标签为“预测用户是否申请X行young卡”。
在步骤404中,采用多种编码算法对结构化数据和标签数据进行编码,得到多维特征编码序列。
在本实施例中,多种编码算法包括以下至少两种:词袋编码算法,TF-IDF编码算法,时序化编码算法,证据权重编码算法,熵编码算法和梯度提升树编码算法。
在采用多种编码算法分别对结构化数据和标签数据进行编码时,对于每一种编码算法,可以得到一组多维特征编码。从而,对于多种编码算法,可以得到多组多维特征编码序列。
在一个具体的示例中,对应上述步骤402中的结构化数据的示例和步骤403中的标签的示例,可以得到上述步骤402中的结构化数据和步骤403中的标签采用TF-IDF编码的多维特征编码:
在分词后,统计和金融相关的词频,这里有“信用卡”,“AC”,“申请”(“办”“办理”同义)。统计和金融相关的url频率,这里有www.uAB.com www.ABC123.commarket.cmbXXXXX.com card.cgbXXXXX.com。行为埋点对每个行为做一个特征,有该行为取1,否则取0。
将这些数据按列按列拼接,得到特征编码如下:
100001 3 2 3 2 2 1 1 1 1 1 0 1 1 200 1
100002 2 0 1 1 1 0 0 1 0 0 1 3 4 100 0
从埋点中提取标签,如,预测用户是否申请ACyoung卡:
100001 1
100002 0
标签和特征按照用户ID融合,得到训练样本:
1 3 2 3 2 2 1 1 1 1 1 0 1 1 200 1
0 2 0 1 1 1 0 0 1 0 0 1 3 4 100 0
在步骤405中,采用多维特征编码序列预先训练机器学习模型。
在本实施例中,采用步骤405中的多为特征编码作为训练样本,可以预先训练机器学习模型。对于每一组多维特征编码,可以预先训练机器学习模型,以便在后续步骤中得到使用各组多维特征编码所训练的机器学习模型的评估数据。进而,可以从各组多维特征编码中选出更为符合机器学习模型的需求的多维特征编码。
这里的机器学习模型,可以通过样本学习具备鉴别能力。机器学习模型可以采用神经网络模型、支持向量机或者逻辑回归模型等。神经网络模型比如卷积神经网络、反向传播神经网络、反馈神经网络、径向基神经网络或者自组织神经网络等。
在一个具体的示例中,预先训练的机器学习模型可以包括:逻辑回归模型,梯度提升树模型,随机森林模型和深层神经网络模型。
在步骤406中,基于训练机器学习模型所需的特征,对多维特征编码进行重要性分析。
在本实施例中,基于训练机器学习模型所需要的特征,可以对多为特征编码的重要性进行分析。在进行重要性分析时,可以分析机器学习模型所需的特征与多为特征编码的特征的相似性,相似性较高的多为特征编码,可以认为其较为重要。
在步骤407中,基于对预先训练的机器学习模型的评估数据和重要性分析的结果,确定原始数据所对应的用于训练机器学习模型的多维特征编码。
在本实施例中,可以对步骤405中预先训练的机器学习模型进行评估,得到评估数据。之后根据跟评估数据和重要性分析的结果,确定适用于该预先训练的机器模型的多维特征编码。应当理解,对于不同的机器学习模型,本申请中需要根据多维特征编码是否适应该机器学习模型来确定多维特征编码。那么对于不同的机器学习模型,所确定的多维特征编码可能相同,也可能不同。
应当理解,上述图4中所示出的生成信息的方法的应用场景,仅为对于生成信息的方法的示例性描述,并不代表对该方法的限定。例如,上述图4中所示出的步骤405之后,也可以直接采用步骤204所述的步骤来确定原始数据所对应的用于训练机器学习模型的多维特征编码。
本申请上述实施例的生成信息的方法,与图2中所示的实施例不同的是:通过采用多种编码算法对结构化数据和标签进行编码,可以将原始数据规范化,并且在进行编码时添加了标签,提升了编码的准确性。进一步地,基于对预先训练的机器学习模型的评估数据和重要性分析的结果,确定原始数据所对应的用于训练机器学习模型的多维特征编码。在这一过程中,参考了重要性分析的结果,提高了最终所确定的编码的准确性。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种生成信息的装置的一个实施例,该装置实施例与图2-图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的生成信息的装置500可以包括:数据获取单元510,被配置成获取原始数据以及原始数据对应的标签数据;数据编码单元520,被配置成采用多种编码算法对原始数据和标签数据进行编码,得到多维特征编码序列;模型预训单元530,被配置成采用多维特征编码序列预先训练机器学习模型;编码确定单元540,被配置成基于对预先训练的机器学习模型的评估数据,确定原始数据所对应的用于训练机器学习模型的多维特征编码。
在本实施例的一些可选实现方式中,编码确定单元540包括:重要性分析子单元(图中未示出),被配置成基于训练机器学习模型所需的特征,对多维特征编码进行重要性分析;编码确定子单元(图中未示出),被配置成基于对预先训练的机器学习模型的评估数据和重要性分析的结果,确定原始数据所对应的用于训练机器学习模型的多维特征编码。
在本实施例的一些可选实现方式中,数据获取单元510进一步被配置成:基于原始数据,生成结构化数据;获取结构化数据对应的标签数据;以及数据编码单元进一步被配置成:采用多种编码算法对结构化数据和标签数据进行编码,得到多维特征编码序列。
在本实施例的一些可选实现方式中,数据获取单元510中获取原始数据对应的标签数据包括:基于业务标签生成规则,生成原始数据对应的标签数据;和/或采用人工标注原始数据对应的标签。
在本实施例的一些可选实现方式中,数据编码单元520所采用的多种编码算法包括以下至少两种:词袋编码算法,TF-IDF编码算法,时序化编码算法,证据权重编码算法,熵编码算法和梯度提升树编码算法。
在本实施例的一些可选实现方式中,模型预训单元530中预先训练的机器学习模型包括以下至少一项:逻辑回归模型,梯度提升树模型,随机森林模型和深层神经网络模型。
应当理解,装置500中记载的诸单元可以与参考图2-图4描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作和特征同样适用于装置500及其中包含的单元,在此不再赘述。
下面参考图6,其示出了适于用来实现本申请实施例的服务器的计算机系统600的结构示意图。图6示出的终端设备或服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括数据获取单元、数据编码单元、模型预训单元和编码确定单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,数据获取单元还可以被描述为“获取原始数据以及原始数据对应的标签数据的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取原始数据以及原始数据对应的标签数据;采用多种编码算法对原始数据和标签数据进行编码,得到多维特征编码序列;采用多维特征编码序列预先训练机器学习模型;基于对预先训练的机器学习模型的评估数据,确定原始数据所对应的用于训练机器学习模型的多维特征编码。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (14)
1.一种生成信息的方法,包括:
获取原始数据以及原始数据对应的标签数据;
采用多种编码算法对所述原始数据和所述标签数据进行编码,得到多维特征编码序列;
采用所述多维特征编码序列预先训练机器学习模型;
基于对预先训练的机器学习模型的评估数据,确定所述原始数据所对应的用于训练所述机器学习模型的多维特征编码。
2.根据权利要求1所述的方法,其中,所述基于对预先训练的机器学习模型的评估数据,确定所述原始数据所对应的用于训练所述机器学习模型的多维特征编码包括:
基于训练所述机器学习模型所需的特征,对所述多维特征编码进行重要性分析;
基于对预先训练的机器学习模型的评估数据和重要性分析的结果,确定所述原始数据所对应的用于训练所述机器学习模型的多维特征编码。
3.根据权利要求1-2任意一项所述的方法,其中,所述获取所述原始数据对应的标签数据包括:基于所述原始数据,生成结构化数据;获取所述结构化数据对应的标签数据;以及
所述采用多种编码算法对所述原始数据和所述标签数据进行编码,得到多维特征编码序列包括:采用多种编码算法对所述结构化数据和所述标签数据进行编码,得到多维特征编码序列。
4.根据权利要求1-3任意一项所述的方法,其中,所述获取所述原始数据对应的标签数据包括:
基于业务标签生成规则,生成所述原始数据对应的标签数据;和/或
采用人工标注所述原始数据对应的标签。
5.根据权利要求1-4任意一项所述的方法,其中,所述多种编码算法包括以下至少两种:词袋编码算法,TF-IDF编码算法,时序化编码算法,证据权重编码算法,熵编码算法和梯度提升树编码算法。
6.根据权利要求1-5任意一项所述的方法,其中,所述预先训练的机器学习模型包括以下至少一项:逻辑回归模型,梯度提升树模型,随机森林模型和深层神经网络模型。
7.一种生成信息的装置,包括:
数据获取单元,被配置成获取原始数据以及原始数据对应的标签数据;
数据编码单元,被配置成采用多种编码算法对所述原始数据和所述标签数据进行编码,得到多维特征编码序列;
模型预训单元,被配置成采用所述多维特征编码序列预先训练机器学习模型;
编码确定单元,被配置成基于对预先训练的机器学习模型的评估数据,确定所述原始数据所对应的用于训练所述机器学习模型的多维特征编码。
8.根据权利要求7所述的装置,其中,所述编码确定单元包括:
重要性分析子单元,被配置成基于训练所述机器学习模型所需的特征,对所述多维特征编码进行重要性分析;
编码确定子单元,被配置成基于对预先训练的机器学习模型的评估数据和重要性分析的结果,确定所述原始数据所对应的用于训练所述机器学习模型的多维特征编码。
9.根据权利要求7-8任意一项所述的装置,其中,所述数据获取单元进一步被配置成:基于所述原始数据,生成结构化数据;获取所述结构化数据对应的标签数据;以及
所述数据编码单元进一步被配置成:采用多种编码算法对所述结构化数据和所述标签数据进行编码,得到多维特征编码序列。
10.根据权利要求7-9任意一项所述的装置,其中,所述数据获取单元中获取所述原始数据对应的标签数据包括:
基于业务标签生成规则,生成所述原始数据对应的标签数据;和/或
采用人工标注所述原始数据对应的标签。
11.根据权利要求7-10任意一项所述的装置,其中,所述数据编码单元所采用的多种编码算法包括以下至少两种:词袋编码算法,TF-IDF编码算法,时序化编码算法,证据权重编码算法,熵编码算法和梯度提升树编码算法。
12.根据权利要求7-11任意一项所述的装置,其中,所述模型预训单元中预先训练的机器学习模型包括以下至少一项:逻辑回归模型,梯度提升树模型,随机森林模型和深层神经网络模型。
13.一种服务器,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811438674.4A CN109492772B (zh) | 2018-11-28 | 2018-11-28 | 生成信息的方法和装置 |
US16/564,562 US20190392258A1 (en) | 2018-11-28 | 2019-09-09 | Method and apparatus for generating information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811438674.4A CN109492772B (zh) | 2018-11-28 | 2018-11-28 | 生成信息的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109492772A true CN109492772A (zh) | 2019-03-19 |
CN109492772B CN109492772B (zh) | 2020-06-23 |
Family
ID=65698521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811438674.4A Active CN109492772B (zh) | 2018-11-28 | 2018-11-28 | 生成信息的方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190392258A1 (zh) |
CN (1) | CN109492772B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110805A (zh) * | 2019-05-15 | 2019-08-09 | 南京大学 | 一种基于机器学习的动态二维码识别方法和设备 |
CN110750653A (zh) * | 2019-10-22 | 2020-02-04 | 中国工商银行股份有限公司 | 信息处理方法、装置、电子设备及介质 |
CN111797126A (zh) * | 2019-04-08 | 2020-10-20 | 阿里巴巴集团控股有限公司 | 数据的处理方法、装置及设备 |
CN111949867A (zh) * | 2020-08-10 | 2020-11-17 | 中国平安人寿保险股份有限公司 | 跨app的用户行为分析模型训练方法、分析方法及相关设备 |
CN112201308A (zh) * | 2020-10-12 | 2021-01-08 | 哈尔滨工业大学(深圳) | LncRNA预测方法、装置、计算设备及计算机可读存储介质 |
CN112200592A (zh) * | 2020-10-26 | 2021-01-08 | 支付宝(杭州)信息技术有限公司 | 一种空壳公司识别方法、装置及设备 |
CN112580706A (zh) * | 2020-12-11 | 2021-03-30 | 北京地平线机器人技术研发有限公司 | 应用于数据管理平台的训练数据处理方法、装置和电子设备 |
CN112860986A (zh) * | 2019-11-27 | 2021-05-28 | 卡巴斯基实验室股份制公司 | 向服务的用户生成单独内容的系统和方法 |
CN113516556A (zh) * | 2021-05-13 | 2021-10-19 | 支付宝(杭州)信息技术有限公司 | 基于多维时间序列数据进行预测或训练模型的方法和系统 |
CN114510305A (zh) * | 2022-01-20 | 2022-05-17 | 北京字节跳动网络技术有限公司 | 模型训练方法、装置、存储介质及电子设备 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113495906B (zh) * | 2020-03-20 | 2023-09-26 | 北京京东振世信息技术有限公司 | 数据处理方法与装置、计算机可读存储介质、电子设备 |
CN114978310B (zh) * | 2021-02-22 | 2024-02-20 | 广州视源电子科技股份有限公司 | 使用光谱进行通信的方法、装置、处理器与电子设备 |
CN115115995A (zh) * | 2022-08-29 | 2022-09-27 | 四川天启智能科技有限公司 | 一种基于自学习模型的麻将博弈决策方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200228A (zh) * | 2014-09-02 | 2014-12-10 | 武汉睿智视讯科技有限公司 | 一种安全带识别方法与系统 |
CN104318271A (zh) * | 2014-11-21 | 2015-01-28 | 南京大学 | 一种基于适应性编码和几何平滑汇合的图像分类方法 |
CN105913083A (zh) * | 2016-04-08 | 2016-08-31 | 西安电子科技大学 | 基于稠密sar-sift和稀疏编码的sar分类方法 |
CN105939383A (zh) * | 2016-06-17 | 2016-09-14 | 腾讯科技(深圳)有限公司 | 一种位置信息确定的方法以及服务器 |
CN107820085A (zh) * | 2017-10-31 | 2018-03-20 | 杭州电子科技大学 | 一种基于深度学习的提高视频压缩编码效率的方法 |
EP3327583A1 (en) * | 2015-07-22 | 2018-05-30 | Hangzhou Hikvision System Technology Co., Ltd. | Method and device for searching a target in an image |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7711673B1 (en) * | 2005-09-28 | 2010-05-04 | Trend Micro Incorporated | Automatic charset detection using SIM algorithm with charset grouping |
US20170193335A1 (en) * | 2015-11-13 | 2017-07-06 | Wise Athena Inc. | Method for data encoding and accurate predictions through convolutional networks for actual enterprise challenges |
CN107992982B (zh) * | 2017-12-28 | 2019-05-21 | 上海氪信信息技术有限公司 | 一种基于深度学习的非结构化数据的违约概率预测方法 |
-
2018
- 2018-11-28 CN CN201811438674.4A patent/CN109492772B/zh active Active
-
2019
- 2019-09-09 US US16/564,562 patent/US20190392258A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200228A (zh) * | 2014-09-02 | 2014-12-10 | 武汉睿智视讯科技有限公司 | 一种安全带识别方法与系统 |
CN104318271A (zh) * | 2014-11-21 | 2015-01-28 | 南京大学 | 一种基于适应性编码和几何平滑汇合的图像分类方法 |
EP3327583A1 (en) * | 2015-07-22 | 2018-05-30 | Hangzhou Hikvision System Technology Co., Ltd. | Method and device for searching a target in an image |
CN105913083A (zh) * | 2016-04-08 | 2016-08-31 | 西安电子科技大学 | 基于稠密sar-sift和稀疏编码的sar分类方法 |
CN105939383A (zh) * | 2016-06-17 | 2016-09-14 | 腾讯科技(深圳)有限公司 | 一种位置信息确定的方法以及服务器 |
CN107820085A (zh) * | 2017-10-31 | 2018-03-20 | 杭州电子科技大学 | 一种基于深度学习的提高视频压缩编码效率的方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797126A (zh) * | 2019-04-08 | 2020-10-20 | 阿里巴巴集团控股有限公司 | 数据的处理方法、装置及设备 |
CN111797126B (zh) * | 2019-04-08 | 2024-04-02 | 阿里巴巴集团控股有限公司 | 数据的处理方法、装置及设备 |
CN110110805A (zh) * | 2019-05-15 | 2019-08-09 | 南京大学 | 一种基于机器学习的动态二维码识别方法和设备 |
CN110750653B (zh) * | 2019-10-22 | 2023-01-06 | 中国工商银行股份有限公司 | 信息处理方法、装置、电子设备及介质 |
CN110750653A (zh) * | 2019-10-22 | 2020-02-04 | 中国工商银行股份有限公司 | 信息处理方法、装置、电子设备及介质 |
CN112860986A (zh) * | 2019-11-27 | 2021-05-28 | 卡巴斯基实验室股份制公司 | 向服务的用户生成单独内容的系统和方法 |
CN111949867A (zh) * | 2020-08-10 | 2020-11-17 | 中国平安人寿保险股份有限公司 | 跨app的用户行为分析模型训练方法、分析方法及相关设备 |
CN112201308A (zh) * | 2020-10-12 | 2021-01-08 | 哈尔滨工业大学(深圳) | LncRNA预测方法、装置、计算设备及计算机可读存储介质 |
CN112200592A (zh) * | 2020-10-26 | 2021-01-08 | 支付宝(杭州)信息技术有限公司 | 一种空壳公司识别方法、装置及设备 |
CN112580706A (zh) * | 2020-12-11 | 2021-03-30 | 北京地平线机器人技术研发有限公司 | 应用于数据管理平台的训练数据处理方法、装置和电子设备 |
CN112580706B (zh) * | 2020-12-11 | 2024-05-17 | 北京地平线机器人技术研发有限公司 | 应用于数据管理平台的训练数据处理方法、装置和电子设备 |
CN113516556A (zh) * | 2021-05-13 | 2021-10-19 | 支付宝(杭州)信息技术有限公司 | 基于多维时间序列数据进行预测或训练模型的方法和系统 |
CN114510305A (zh) * | 2022-01-20 | 2022-05-17 | 北京字节跳动网络技术有限公司 | 模型训练方法、装置、存储介质及电子设备 |
CN114510305B (zh) * | 2022-01-20 | 2024-01-23 | 北京字节跳动网络技术有限公司 | 模型训练方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109492772B (zh) | 2020-06-23 |
US20190392258A1 (en) | 2019-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109492772A (zh) | 生成信息的方法和装置 | |
CN106446228B (zh) | 一种web页面数据的采集分析方法及装置 | |
CN108090162A (zh) | 基于人工智能的信息推送方法和装置 | |
CN109961080B (zh) | 终端识别方法及装置 | |
CN112418292B (zh) | 一种图像质量评价的方法、装置、计算机设备及存储介质 | |
CN107145485A (zh) | 用于压缩主题模型的方法和装置 | |
CN111931061A (zh) | 标签映射方法、装置、计算机设备及存储介质 | |
CN113011889A (zh) | 账号异常识别方法、系统、装置、设备及介质 | |
CN108256078B (zh) | 信息获取方法和装置 | |
CN117217710A (zh) | 一种虚拟商品与快捷服务的智能化管理方法及系统 | |
CN115409041B (zh) | 一种非结构化数据提取方法、装置、设备及存储介质 | |
CN113362852A (zh) | 一种用户属性识别方法和装置 | |
CN113837216B (zh) | 数据分类方法、训练方法、装置、介质及电子设备 | |
CN112989167B (zh) | 搬运账号的识别方法、装置、设备及计算机可读存储介质 | |
CN115114519A (zh) | 基于人工智能的推荐方法、装置、电子设备及存储介质 | |
CN115168609A (zh) | 一种文本匹配方法、装置、计算机设备和存储介质 | |
CN115329183A (zh) | 数据处理方法、装置、存储介质及设备 | |
CN116911304B (zh) | 一种文本推荐方法及装置 | |
CN111460300A (zh) | 网络内容推送方法、装置及存储介质 | |
CN113254635B (zh) | 数据处理方法、装置及存储介质 | |
CN111784377A (zh) | 用于生成信息的方法和装置 | |
CN117649117B (zh) | 处置方案的确定方法、装置以及计算机设备 | |
CN113706204B (zh) | 基于深度学习的权益发放方法、装置、设备及存储介质 | |
CN114417944B (zh) | 识别模型训练方法及装置、用户异常行为识别方法及装置 | |
US20070033198A1 (en) | Data representation architecture for media access |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |