CN111626762A - 计算机可读记录介质、确定方法以及信息处理设备 - Google Patents
计算机可读记录介质、确定方法以及信息处理设备 Download PDFInfo
- Publication number
- CN111626762A CN111626762A CN202010120417.7A CN202010120417A CN111626762A CN 111626762 A CN111626762 A CN 111626762A CN 202010120417 A CN202010120417 A CN 202010120417A CN 111626762 A CN111626762 A CN 111626762A
- Authority
- CN
- China
- Prior art keywords
- behavior
- state
- combination
- target
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000010365 information processing Effects 0.000 title claims abstract description 7
- 230000006399 behavior Effects 0.000 claims abstract description 114
- 238000012549 training Methods 0.000 claims abstract description 68
- 238000010801 machine learning Methods 0.000 claims abstract description 21
- 230000008569 process Effects 0.000 claims description 16
- 230000009471 action Effects 0.000 description 43
- 238000010586 diagram Methods 0.000 description 42
- 238000012545 processing Methods 0.000 description 42
- 230000007704 transition Effects 0.000 description 37
- 238000006243 chemical reaction Methods 0.000 description 14
- 238000012937 correction Methods 0.000 description 11
- 238000012552 review Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000003066 decision tree Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000007477 logistic regression Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013145 classification model Methods 0.000 description 3
- 230000001737 promoting effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000003867 tiredness Effects 0.000 description 2
- 208000016255 tiredness Diseases 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000000746 purification Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 102200081477 rs1554102559 Human genes 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0226—Incentive systems for frequent usage, e.g. frequent flyer miles programs or point systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0222—During e-commerce, i.e. online transactions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0239—Online discounts or incentives
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0255—Targeted advertisements based on user history
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Data Mining & Analysis (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了计算机可读记录介质、确定方法以及信息处理设备。服务器将目标的行为信息输入至训练的机器学习模型,该训练的机器学习模型学习通过将根据多个训练数据项中包括的多个行为生成的行为组合与指示行为组合处于特定状态下的确定性的可能性相关联而获得的多个关联关系,已经通过使用通过将与特定状态相对应的人的行为组合进行关联而获得的多个训练数据项对训练的机器学习进行了训练。服务器基于训练的机器学习模型的输出结果,指定多个关联关系中的每一个中的行为组合与目标的行为信息之间的差异,以及基于该可能性和该差异来确定用于使目标转变为特定状态的附加行为。
Description
技术领域
本文讨论的实施方式涉及确定程序、确定方法以及信息处理设备。
背景技术
在数字营销中,为了提高营销效果,对具有各种目的的人访问网页的行为日志进行分析。具体地,可以将直到用户购买产品的用户行为的状态转变表示为时间序列。例如,用户的行为从最初兴趣很小的“小兴趣”状态开始,逐渐转变为兴趣大的“大兴趣”状态,并最终转变为用户决定购买产品的“购买意向”状态。基本上,状态具有顺序,并且行为可以例如从“大兴趣”状态转变为“购买意向”状态,但是反之,行为不会从“购买意向”状态转换为“大兴趣”状态。
因此,可以通过快速获悉用户处于哪种状态以及用户将要采取哪种动作来鼓励用户采取用于促进状态转变的操作以便转变为另一状态,并且可以提高营销效果。因此,管理员根据用户的行为历史来区分当前状态,并生成用于决定动作的规则。例如,针对访问10次或大于10次并且访问产品价格页面的用户,使用用于分发优惠券的规则。
非专利文献1:Kim Jong-hwa,MORITAKA Masahiro,FUKUDA Susumu和YOON Seong-jung,“A Structure Analysis of Consumer Purchasing Perceptions in the InternetShopping”,Food System Research,2012年,卷19,第4号,第382-393页,2013/12/05。
然而,难以以手动方式根据行为历史考虑动作以使用户转变为下一状态。成本可能高,规则的生成可能被泄漏,并且实时特性可能不利。
如上所述,由于难以通过手动分析来促进用户状态转变,因此还考虑使用根据行为历史来预测状态的决策树的方法。例如,通过将状态i的标签添加到直到每个用户的每个状态i的数据来生成训练数据项。生成用于确定每个状态j是否为状态j的决策树模型。此时,生成与状态的数量一样多的模型(决策树)。此后,当给出用户数据和状态i时,列出特征的校正,以便将用于确定状态i的决策树确定为正。
然而,决策树校正方法有很多模式,但是由于有效的校正方法并不明显并且不清楚决策树的哪部分重要,因此最终以手动方式搜索要校正的部分。如上所述,手动分析方法或者使用决策树的方法都不是有效的方法。
因此,本发明的实施方式的一个方面的目的是提供一种能够有效地促进用户的状态转变的确定程序、确定方法以及信息处理设备。
发明内容
根据实施方式的一个方面,计算机可读记录介质在其中存储使计算机执行如下处理的确定程序,所述处理包括:将待确定的目标的行为信息输入至学习模型,该学习模型通过使用通过使与特定状态相对应的人的行为组合与特定状态相关联而获得的多个训练数据项,对通过使根据多个训练数据项中包括的多个行为生成的行为组合与指示行为组合处于多个状态中的特定状态下的确定性的可能性相关联而获得的多个关联关系进行学习;基于学习模型的输出结果,指定多个关联关系中的每一个中的行为组合与待确定的目标的行为信息之间的差异;以及,基于与行为组合相关联的可能性以及行为组合与行为信息之间的差异,确定用于使待确定的目标转变为特定状态的附加行为。
附图说明
图1是示出根据第一实施方式的系统的整体配置示例的图;
图2是根据第一实施方式的用于描述状态转变和动作的图;
图3是根据第一实施方式的模型生成服务器的功能配置的功能框图;
图4是用于描述假定的状态转变的图;
图5是用于描述训练数据的生成示例的图;
图6是用于描述每个模型的学习的图;
图7是用于描述学习方法的图;
图8是用于描述学习方法的图;
图9是用于描述从用户日志到特征值的转换的图;
图10是用于描述状态确定的图;
图11是用于指定转变目的地的状态的图;
图12是用于指定推荐给用户的动作内容的图。
图13是示出学习处理的流程的流程图;
图14是示出动作确定处理的流程的流程图;
图15是用于描述在根据第二实施方式的状态已知时的确定方法的示例的图;
图16是示出训练数据的示例的说明图;
图17是用于描述假设的生成的说明图;
图18是用于描述假设的生成的说明图;
图19是用于描述假设的生成的说明图;
图20是示出已生成的假设的示例的说明图;
图21是用于描述适于输入数据的假设的说明图;
图22是用于描述使用逻辑回归进行加权的说明图;以及
图23是用于描述硬件配置示例的图。
具体实施方式
将参照附图对优选实施方式进行说明。本发明不限于实施方式。实施方式可以在一致的范围内适当地组合。
[a][第一实施方式]
整体配置
图1是示出根据第一实施方式的系统的整体配置示例的图。如图1所示,在该系统中,用户终端5、Web服务器6、数据库服务器7和模型生成服务器10经由网络N连接以便彼此通信。可以采用诸如因特网和专用线的各种通信网络——无论是有线方式还是无线方式——作为网络N。
用户终端5是通过使用Web浏览器访问Web服务器6的用户所使用的终端的示例,并且例如是诸如智能电话、移动电话或个人计算机的计算机装置。例如,用户终端5访问Web服务器6以搜索产品或购买产品。
Web服务器6是向用户终端5提供Web服务的服务器装置的示例。例如,Web服务器6向正在访问的用户终端5提供Web购物和搜索服务。
数据库服务器7是使用Web服务器6累积每个用户终端的行为历史的数据库服务器的示例。即,数据库服务器7存储多个用户中的每一个的访问历史。
模型生成服务器10是如下服务器装置的示例:该服务器装置分析数据库服务器7中存储的用户的行为历史并且生成指定用户状态的模型。模型生成服务器10是如下服务器装置的示例:该服务器装置从Web服务器6获取用户的日志、通过使用所生成的模型来估计用户状态以及指定用于转变用户状态的动作。生成模型的服务器装置和指定动作的服务器装置也可以通过单独的服务器装置来实现。
图2是根据第一实施方式的用于描述状态转变和动作的图。如图2所示,通常,通过访问Web服务器6来购买产品的用户在从访问开始到购买的时间期间顺序地转变为对产品的兴趣小的“小兴趣”状态、对产品的兴趣大的“大兴趣”状态、以及购买意向增强的“购买意向”状态,并最终购买了产品。
然而,用户不一定毫不犹豫地从“小兴趣”状态转变为“购买意向”状态。例如,用户查看另一产品并回顾该产品,或者回顾用户是否确实需要该产品。因此,如图2所示,模型生成服务器10确定用户状态,并且指定可以使用户转变为“购买意向”状态的下一动作。例如,模型生成服务器10通过对处于“大兴趣”状态下的用户执行“弹出”动作或“优惠券分发”动作来确定用户可以转变为“购买意向”状态。
之后,模型生成服务器10向Web服务器6通知关于指定动作的信息。接收到该动作的信息的Web服务器6对用户终端5执行该动作。例如,Web服务器6在由用户终端5使用以进行访问的Web浏览器上分发优惠券。
如上所述,由于模型生成服务器10可以手动地根据行为历史自动指定动作以使用户转变为下一状态,因此可以有效地促进用户的状态转变。
功能配置
图3是根据第一实施方式的模型生成服务器10的功能配置的功能框图。如图3所示,模型生成服务器10包括通信单元11、存储单元12和控制单元20。
通信单元11是控制与其他装置的通信的处理单元,并且是例如通信接口。例如,通信单元11从Web服务器6接收指示用户的当前访问状态的用户日志,从数据库服务器7接收每个用户的行为历史,并且将与用于使用户转变为下一状态的动作有关的信息发送至Web服务器6。
存储单元12是存储数据或由控制单元20执行的程序的存储装置的示例,并且是例如存储器或硬盘。存储单元12存储行为历史DB 13、训练数据DB 14和模型DB 15。
行为历史DB 13是存储每个用户的行为历史的数据库。例如,行为历史DB 13针对每个用户以彼此关联的方式存储指示访问日期和时间的“日期和时间”以及指示所访问的Web页面的“访问页面”。
训练数据DB 14是针对用于区分每个状态的每个模型存储用于学习(即训练)每个模型的训练数据的数据库。例如,训练数据DB 14存储所谓的示教数据,在示教数据中,作为目标变量(标签)的“类别”和作为说明变量的“特征值”与每个模型相关联。
模型DB 15是存储与用于区分每个状态的每个模型相关的信息的数据库。例如,模型DB 15存储学习结果和用于构建每个学习模型(即,每个训练模型)的各种参数。
控制单元20是控制整个模型生成服务器10的处理单元,并且是例如处理器。控制单元20包括学习处理单元30和确定处理单元40,并且执行学习指定用户的状态的模型的处理以及指定促进状态转变的动作的确定处理。学习处理单元30和确定处理单元40是包括在处理器中的电子电路的示例以及由处理器执行的处理的示例。
学习处理单元30包括获取单元31、生成单元32和学习单元33,并且是执行学习指定用户的状态的模型的处理的处理单元。此处,将描述本实施方式中假定的用户状态。图4是用于描述假定的状态转变的图。如图4所示,从用户开始访问Web服务器6到购买产品,用户转变为“小兴趣”状态、“大兴趣”状态、“与另一公司比较回顾”状态、“购买意向”状态以及“无兴趣”状态。
此处,状态从“小兴趣”状态转变为“大兴趣”状态,从“大兴趣”状态转变为“与另一公司比较回顾”状态或“购买意向”状态,并且从“与另一公司比较回顾”状态转变为“购买意向”状态或“无兴趣”状态。从这些状态转变可以看出,由于状态从“大兴趣”状态转变为两种状态,因此可以通过快速指定用户状态并采取用于促进用户转变为“购买意向”状态的动作来提高营销效果。
获取单元31是获取每个用户的行为历史的处理单元。例如,获取单元31在诸如学习开始定时的任何定时处从数据库服务器7获取每个用户的行为历史,并且将所获取的行为历史存储在行为历史DB 13中。
生成单元32是根据每个用户的行为历史生成每个模型的训练数据的处理单元。具体地,生成单元32生成直到表征每个状态的访问内容的行为历史作为用于确定每个状态的模型的训练数据,并将所生成的行为历史存储在训练数据DB 14中。
图5是用于描述训练数据的生成示例的图。如图5所示,生成单元32在参照特定用户的行为历史的同时,将从作为行为历史的顶部的“2019/01/04首页访问”到表征“小兴趣”状态的行为“研讨会参与”的行为历史设置为数据1。生成单元32将数据1中包括的行为历史转换成特征值,并且生成与指示状态的标签的“类别”相关联的训练数据。例如,生成单元32将“小兴趣”设置为数据1的“类别”,并且生成如下训练数据:在该训练数据中,“Y,Y,N,Y,N”被设置为特征值“首页访问,研讨会参与,访问产品价格页面,5次或大于5次的页面访问,20次或大于20次的页面访问”。
生成单元32在参照特定用户的行为历史的同时,将从作为行为历史的顶部的“2019/01/04首页访问”到表征“大兴趣”状态的行为“产品价格页面访问”的行为历史设置为数据2。生成单元32将“大兴趣”设置为数据2的“类别”,并且生成如下训练数据:在该训练数据中,“Y,Y,Y,Y,Y”被设置为特征值“首页访问,研讨会参与,访问产品价格页面,5次或大于5次的页面访问,20次或大于20次的页面访问”。
表征状态的行为是示例,并且可以任意更改。设置内容的转换和标签的特征值是示例,并且可以任意更改。作为特征值的项,在条件满足时设置“Y”,并且在条件不满足时设置“N”。例如,当在行为历史中包括“首页访问”的历史时,对特征值“首页访问”设置“Y”,并且当在行为历史中包括四次“页面访问”的历史时,对特征值“5次或大于5次的页面访问”设置“N”。
学习单元33是通过使用由生成单元32生成的训练数据来执行对确定每个状态的每个模型的学习的处理单元。图6是用于描述每个模型的学习的图。如图6所示,学习单元33从训练数据DB 14读出诸如其中“小兴趣”被设置为“类别”的数据1的数据,并且通过使用作为目标变量的“类别”和作为说明变量的“特征值”来学习确定“小兴趣”状态的小兴趣确定模型。
类似地,学习单元33从训练数据DB 14中读出诸如其中“大兴趣”被设置为“类别”的数据2的数据,并且学习确定“大兴趣”状态的大兴趣确定模型。如上所述,学习单元33通过使用与“小兴趣”状态、“大兴趣”状态、“与另一公司比较回顾”状态、“购买意向”状态和“无兴趣”状态中的每个状态(类别)相对应的每个示教数据来学习每个状态的确定模型。学习单元33将用于构建模型的各种参数作为学习结果存储在模型DB 15中。
此处,将描述学习单元33的学习方法的示例。图7和图8是用于描述学习方法的图。通常,由于通过将模仿人类大脑的神经回路的结构的神经网络分成若干层并精炼一个模型而实现了准确性的提高,因此深度学习是人类无法理解的复杂模型。同时,如图7所示,作为机器学习之一,学习单元33通过组合数据项来提取大量假设,并且通过调整假设(知识块(在下文中简称为“块”))的影响程度来执行机器学习以构建高精度的分类模型。知识块是人类可以理解的简单模型,并且是以逻辑表达式对可能被建立为输入和输出关系的假设进行描述的模型。
具体地,学习单元33通过使用输入数据的所有数据项的组合模式作为假设(块),针对每种假设以分类标签的命中率来判断假设的重要性。学习单元33基于提取的多个知识块和标签来构建分类模型。此时,当构成知识块的项与构成另一知识块的项极大地交叠时,学习单元33执行控制以减小对分类模型的影响程度。
将参照图8描述特定示例。在此,考虑当期望对购买特定产品或服务的顾客进行判断时的示例。顾客数据包括各种项,例如“性别”、“拥有许可证”、“婚姻”、“年龄”和“年收入”。通过使用这些项的所有组合作为假设来考虑每种假设的重要性。例如,数据中有10个与假设(a)相对应的顾客,假设(a)是项“‘男性’、‘拥有’和‘已婚’”的组合。当这10个人中有9个人购买产品时,假设“与项“男性”、“拥有”和“已婚”的组合对应的人购买产品”被用作具有高命中率的假设,并且被提取为知识块。
同时,数据中有100个与假设(b)相对应的顾客,假设(b)是项“‘男性’和‘拥有’”的组合。当这100个人中仅60个人购买产品时,由于购买命中率是60%并且小于阈值(例如80),因此假设“与项“男性”和“拥有”的组合对应的人购买产品”被用作具有低命中率的假设,并且不会被提取为知识块。
数据中有20个与假设(c)相对应的顾客,假设(c)是项“‘男性’、‘不拥有’和‘未婚’”的组合。当这20个人中有18个人未购买产品时,由于未购买命中率是90%并且等于或大于阈值(例如80),因此假设“与项“男性”、“不拥有”和“未婚”的组合对应的人不购买产品”被用作具有高命中率的假设,并且被提取为知识块。
如上所述,学习单元33提取支持购买和支持不购买的数千万或数亿的知识块,并执行模型的学习。以这种方式学习的模型通过枚举特征的组合作为假设(块)来给出权重——该权重是指示每种假设的确定性的可能性的示例,计算在输入数据中出现的假设的权重之和作为得分,并且在得分等于或大于阈值时输出正的示例。
即,得分是指示状态的确定性的指标,并且是由每个模型所生成的块(假设)中满足所有所属特征的块的权重之和。例如,在块A与“权重:20,特征(A1,A2)”相关联、块B与“权重:5,特征(B1)”相关联并且块C与“权重:10,特征(C1,C2)”相关联的状态下,假定在用户日志中存在行为(A1,A2,B1,C1)。此时,由于块A和块B的所有特征均出现,因此得分为“20+5=25”。本文的特征对应于用户的行为。
返回图3,确定处理单元40包括转换单元41、确定单元42和动作决定单元43,并且是使用所学习的模型来决定促进状态确定或状态转变的动作的处理单元。
转换单元41是将用户日志转换成特征值的处理单元。具体地,转换单元41从Web服务器6获取指示用户的当前行为的用户日志作为状态确定目标,并且通过使用与学习处理单元30的标准和方法相同的标准和方法将所获取的用户日志转换成特征值。转换单元41将特征值输出至确定单元42。
图9是用于描述从用户日志转换成特征值的图。如图9所示,转换单元41获取包括“2019/01/04首页访问”到“2019/01/08研讨会参与”的用户日志作为状态未知的用户日志。转换单元41对用户日志中包括的访问内容进行计数,并且将所计数的访问内容转换成具有与学习处理单元30中使用的项相同的项的特征值“(首页访问,研讨会参与,访问产品价格页面,5次或大于5次的页面访问,20次或大于20次的页面访问)”。此处,假定转换单元41将用户日志转换成特征值“Y,Y,N,Y,N”。
确定单元42是通过使用每个所学习的确定模型和由转换单元41转换的用户日志的特征值来确定用户状态的处理单元。具体地,确定单元42从模型DB 15获取每个确定模型的参数,并且构建每个所学习的确定模型。确定单元42将从转换单元41获取的特征值输入至每个所学习的模型,并且获取每个模型的确定结果。此后,确定单元42基于每个模型的确定结果来确定用户状态,指定用户状态的下一个转变目的地,并将其结果输出至动作决定单元43。
图10是用于描述状态确定的图。如图10所示,确定单元42将用户日志的特征值输入至小兴趣确定模型、大兴趣确定模型、购买意向确定模型以及与另一公司比较回顾模型中的每一个模型。确定单元42从小兴趣确定模型获取确定结果“正”、从大兴趣确定模型获取确定结果“负”、从购买意向确定模型获取确定结果“负”,并且从与另一公司比较回顾模型获取确定结果“负”。
此处,每个确定模型根据输入的特征值生成包括特征值的项(特征)的组合作为假设,计算作为输入数据中出现的假设的权重之和的得分,并且在得分等于或大于阈值时输出正的示例。在图10的示例中,由于仅小兴趣确定模型的确定结果为“正”,因此确定单元42确定用户状态为“小兴趣”状态,并且将确定结果与输入数据相关联。当多个确定模型的输出结果为“正”时,选择接近最终目标状态的确定模型的结果。
确定单元42基于每个模型的确定结果来指定用户状态的下一个转变目的地。图11是用于指定转变目的地的状态的图。如图11所示,确定单元42根据每个模型的确定结果来确定状态改变容易度(容易度)。此处,在当前状态模型的确定结果为“正”或者先前状态模型的确定结果为“正”的情况下,状态改变容易度输出为“容易”,并且在其他情况下状态改变容易度输出为“困难”。
在图11的示例中,由于小兴趣确定模型的确定结果为“正”,因此确定单元42确定容易度为“容易”。此外,由于大兴趣确定模型的确定结果为“负”而确定先前状态的小兴趣确定模型的确定结果为“正”,因此确定单元42确定容易度为“容易”。由于购买意向确定模型的确定结果和与另一公司比较回顾确定模型的确定结果均为“负”,并且先前状态的确定结果也为“负”,因此确定单元42确定容易度为“困难”。当确定多个状态的容易度为“容易”时,确定单元42从容易度为“容易”的状态中选择最接近最终目标状态的状态。
动作决定单元43是决定用于使用户转变为如下状态的动作的处理单元:在该状态下,确定单元42确定容易度为“容易”(在下文中称为“下一状态”)。具体地,动作决定单元43按照权重大且校正数量少的块的顺序,优先列出被与下一状态相对应的确定模型确定为正的块。
图12是用于指定推荐给用户的动作内容的图。如图12所示,动作决定单元43获取与被确定为转变目的地的下一状态相对应的大兴趣确定模型的块(假设)的结果。此处,权重被设置为“80”的块A包括“研讨会参与、20次或大于20次的页面访问、访问产品价格页面”作为特征。“研讨会参与”已经出现在用户日志中,并且“20次或大于20次的页面访问、访问产品价格页面”没有出现在用户日志中。即,在块的特征中已经出现的特征的比例是三分之一。
权重被设置为“10”的块B包括“研讨会参与、访问产品价格页面”作为特征。“研讨会参与”已经出现在用户日志中,并且“访问产品价格页面”没有出现在用户日志中。权重被设置为“1”的块C包括“研讨会参与”作为特征,并且已经出现在用户日志中。
例如,动作决定单元43从具有10或大于10的权重的块中枚举校正数量最少的块。在图12的情况下,动作决定单元43为块A和块B指定10或大于10的权重。随后,动作决定单元43确定在块A中存在用户日志中没有出现的两个特征“20次或大于20次的页面访问”和“访问产品价格页面”,并且在块B存在用户日志中没有出现的一个特征“访问产品价格页面”。
结果,动作决定单元43按照块B和块A的顺序将每个块、特征列表以及在用户日志中未出现的特征作为校正提议输出至Web服务器6。接收到校正提议的Web服务器6根据校正提议执行弹出和优惠券分发。
例如,由于指定了需要“访问产品价格页面”以满足块B的特征,因此Web服务器6将优惠券分发分配给用户终端,并且鼓励用户访问产品价格页面。由于指定了至少需要“20次或大于20次的页面访问”以满足块A的特征,因此Web服务器6以弹出的方式在用户终端上显示产品页面,并且鼓励用户访问页面。
动作决定单元43还可以向Web服务器6仅呈现一个校正提议。在上述示例的情况下,动作决定单元43将具有少量校正并且仅具有未出现的特征“访问产品价格页面”的块B呈现给Web服务器6。
动作决定单元43可以将要执行的动作而不是校正提议呈现给Web服务器6。在上述示例的情况下,动作决定单元43将作为用于鼓励用户访问产品价格页面的动作的“优惠券分发”作为推荐行为呈现给Web服务器6。
学习处理的流程
图13是示出学习处理的流程的流程图。如图13所示,当由于接收到管理员的指示或周期性定时的到来而使学习开始的定时到来时(S101:是),学习处理单元30的获取单元31从数据库服务器7获取每个用户的行为历史(S102)。
随后,生成单元32根据每个用户的行为历史生成每个状态的训练数据(S103)。学习单元33通过使用训练数据执行对每个状态的学习(S104),并且生成每个状态的确定模型(S105)。
确定处理的流程
图14是示出动作确定处理的流程的流程图。如图14所示,当根据管理员的指示而使确定处理开始的定时到来时(S201:是),确定处理单元40的转换单元41从Web服务器6获取待确定的用户日志(S202)。随后,转换单元41以与学习中相同的方式将用户日志转换成特征值(S203)。
确定单元42将用户日志的特征值输入至每个所学习的确定模型,并获取每个确定结果(S204)。随后,确定单元42根据每个确定结果来确定用户状态以及该状态向每个状态转变的容易度(S205)。此后,确定单元42基于用户的当前状态和容易度来确定状态转变目的地(S206)。
动作决定单元43根据与被确定为下一转变目的地的状态相对应的确定模型的输出结果指定要校正的块(S207),并且将要校正的块输出至Web服务器6(S208)。
效果
如上所述,当给出用户数据时,模型生成服务器10可以检测多个状态中接近最终目标状态并且最容易改变的状态,并且可以按照在校正特征方面具有高有效性的状态的降序顺序列出状态,以使得其状态被确定为正。因此,由于不以手动方式根据行为历史考虑动作以使用户进行状态转变,因此可以降低成本,并且可以实时地执行处理,因此模型生成服务器10可以有效地鼓励用户进行状态转变。
[b]第二实施方式
顺便提及,尽管在第一实施方式中已经描述了用户状态未知,但是本发明不限于此,并且即使在用户状态已知的情况下也可以执行相同的处理。因此,在第二实施方式中,将描述在用户状态已知的情况下决定用于使用户转变为下一状态的动作的示例。学习方法与第一实施方法中的方法相同。
图15是用于描述在根据第二实施方式的状态已知的情况下的确定方法的示例的图。如图15所示,模型生成服务器10将其状态(类别)为“小兴趣”的用户的用户日志转换成特征值“(首页访问,研讨会参与,访问产品价格页面,5次或大于5次的页面访问,20次或大于20次的页面访问)=(Y,Y,N,Y,N)”。
随后,模型生成服务器10将用户日志的特征值(Y,Y,N,Y,N)输入至小兴趣确定模型、大兴趣确定模型、购买意向确定模型以及与另一公司比较回顾确定模型中的每个所学习的确定模型。
模型生成服务器10从每个所学习的模型获取确定结果。此处,模型生成服务器10从小兴趣确定模型获取得分“80”,从大兴趣确定模型获取得分“30”,从购买意向确定模型获取得分“20”并且从与另一公司比较回顾确定模型获取得分“5”。
其后,模型生成服务器10获取与作为已知状态的“小兴趣”状态的下一状态相对应的大兴趣确定模型的确定结果。模型生成服务器10将通过大兴趣确定模型获得的块中未达到的块及其特征呈现给Web服务器6。此时,模型生成服务器10可以呈现所有未达到的块,并且可以呈现未实现的块中具有最大权重的块。模型生成服务器10可以将除了作为已知状态的“小兴趣”状态之外的每个状态的得分和未达到的块列表呈现给Web服务器6。
模型生成服务器10可以呈现以下信息:该信息指示哪些行为(动作)要进行校正以便转变为除了作为已知状态的“小兴趣”状态以外的状态的得分的状态。例如,由于购买意向确定模型的得分是“20”,因此模型生成服务器10确定直到可以以被确定为“正”的阈值(例如80)之前还需要“60”的权重。模型生成服务器10从未达到的块中选择总值为“60”的块。此后,模型生成服务器10呈现所选择的块以及该块的未达到的行为(特征)。
如上所述,由于可以指定用于使用户从当前状态转变为每个状态的动作,因此模型生成服务器10可以执行与用户的行为相对应的动作。例如,模型生成服务器10还可以鼓励获得若干天访问权限的谨慎用户立即转变为更接近最终目标状态的状态。模型生成服务器10还可以鼓励获得少量时间或天数的访问权限的用户逐步转变为最终目标状态。
[c]第三实施方式
此处,对于上述实施方式中的每一个实施方式中使用的假设的生成和权重的计算,可以采用公知的方法,并且将描述该方法的示例。
假设的生成
图16是示出训练数据的示例的说明图。训练数据是针对多种情况中的每一种情况的示教数据,并且包括说明数据的性质的说明变量A至D,以及作为分类为+或-的结果(正确答案信息)的目标变量。
训练数据项(P1至P4,N1至N3)包括说明数据的性质的说明变量A至D(用于预测的信息)和作为将类别(分类)指示为+或-的正确答案信息的目标变量(待预测的信息)。例如,训练数据项P1至P4是目标变量A至D为0或1并且被分类为+的数据项。类似地,训练数据项N1至N3是目标变量A至D为0或1并且被分类为-的数据项。
例如,在医学领域,在用于生成根据检查数据来对检查结果进行分类的预测模型的训练数据(P1至P4,N1至N3)的情况下,说明变量A至D是每个检查项的检查值。目标变量对应于检查结果,例如正或负。
随后,模型生成服务器10详尽列出要获得的值(未使用=*,值=1,值=0)的组合,即,针对训练数据项(P1至P4,N1至N3)中包括的说明变量的假设。
要组合的说明变量的数量可以具有预定数量或小于预定数量的限制(条件)。例如,在四个说明变量A至D的情况下,要组合的说明变量的数量可以被限制为2或小于2(将具有“未使用=*”的四个说明变量中的至少两个组合)。因此,可以预先抑制组合的增加。
接下来,模型生成服务器10从列出的组合中选择预定组合。随后,模型生成服务器10基于训练数据项(P1至P4,N1至N3)的说明变量和目标变量将所选择的组合分类为训练数据项(P1至P4,N1至N3)之一,并且确定所选择的组合是否是满足特定条件的有效组合。
图17是用于描述假设的生成的说明图。在图17中,将四个说明变量A至D全部为“*”的组合C01到具有说明变量C和D(A和B为“*”)的组合C09作为示例示出。
如图17所示,模型生成服务器10基于训练数据项(P1至P4,N1至N3)的说明变量列出与组合C01至C09的假设(规则)相对应的训练数据项(P1至P4,N1至N3)。
例如,训练数据项P2、N1和N2对应于组合C02的的规则(剩余三个说明变量为“未使用=*”)。在组合CO2的规则中,目标变量为+的训练数据(P2)和目标变量为-的训练数据项(N1,N2)混合。因此,组合CO2作为正确地说明分类成特定类别的假设的可能性小,并且不是有效组合。
此处,目标变量为+的训练数据项(P1,P3,P4)对应于组合C04的规则即,组合C04的规则成为正确地说明被分类成+类别的训练数据项(P1,P3,P4)的数量或比例等于或大于预定值的规则的可能性高,并且被分类成+类别。因此,模型生成服务器10确定组合C04是要被分类成+类别的有效组合(假设)。类似地,模型生成服务器10确定组合C05和C06是要被分类成+类别的有效组合(假设)。
目标变量为-的训练数据项(N1,N2)对应于组合C08的规则即,组合C08的规则成为正确地说明被分类成-类别的训练数据项(N1,N2)的数量或比例等于或大于预定值的规则的可能性高,并且被分类为-类别。因此,模型生成服务器10确定组合C08是要被分类为-类的有效组合(假设)。
可以任意设置被分类为预定类别的训练数据项(P1至P4,N1至N3)的数量或比例,其是用于确定有效组合的条件。例如,由于训练数据项与噪声混合,因此可以设置成允许与预定类别(例如,+)相反的预定数量的类别(例如,-)。
例如,当对一个训练数据允许噪声时,组合C03(D)被确定为分类成+类别的有效组合(假设)。类似地,组合C07(C)被确定为分类成-类别的有效组合(假设)
当组合无效时,模型生成服务器10在不将所选择的组合添加到假设集的情况下进行处理。同时,当组合有效时,模型生成服务器10确定所选择的组合是否是假设集中包括的另一假设的特殊情况。
当组合不是特殊情况时,模型生成服务器10将所选择的组合添加到假设集数据23的假设集中。随后,模型生成服务器10确定所有列出的组合是否都被选择。重复上述处理,因此,在假设集中列出了所有可能正确地说明与训练数据项的目标变量相对应的预测的假设,没有遗漏。
图19是用于描述假设的生成的说明图,并且具体地是用于通过使用卡诺(Karnaugh)图来描述图17和图18的内容的图。如图19所示,模型生成服务器10检查A的组合(剩余的3个说明变量为“未使用=*”)(S31)、的组合(剩余3个说明变量为“未使用=*”)、……是否为有效组合,同时按照该顺序改变组合(S31至S35...)。
此处,S33中的的组合对应于目标变量为+的训练数据项(P1,P3,P4)。即,在S33中,分类成+类的训练数据项(P1,P3,P4)的数量或比例大于或等于预定值。因此,将S33中的的组合确定为分类成+类别的有效组合(假设)。在以下处理中,排除了向添加文字的组合。
随后,在检查了其中三个说明变量为“未使用=*”的所有组合之后,开始检查其中两个说明变量为“未使用=*”的组合(S34)。此处,目标变量为+的训练数据项(P1,P2)对应于S35中的的组合。即,在S35中,分类成+类别的训练数据项(P1,P2)的数量或比例等于或大于预定值。因此,将S35中的的组合确定为分类成+类别的有效组合(假设)。
图20是示出所生成的假设的示例的说明图。如图20所示,根据训练数据项(P1至P4,N1至N3),生成分类结果为+或-的假设H1至H11,并将其作为假设集数据存储在存储单元中。
这些假设H1至H11中的每一个都是要求正确地说明训练数据项(P1至P4,N1至N3)的分类结果为+或-的独立假设。因此,可以包括诸如假设H2和假设H6的矛盾假设。
对于未包括在训练数据项(P1至P4,N1至N3)中的输入数据项(IN1,IN2,IN3),可以根据假设H1至H11中的适当假设来获得预测结果。
权重的计算
在不存在未选择的组合的情况下,模型生成服务器10基于是否针对训练数据项(P1至P4,N1至N3)建立了被包括在假设集数据的假设集中的假设(H1至H11),来计算假设(H1至H11)的权重,并且将计算结果作为权重数据存储在存储单元中。
模型生成服务器10中的权重计算可以是例如以下三种方法中的任一种。
·假定所有规则(H1至H11)的权重均为1(基于规则数量的多数决定)。
·假定规则具有与支持(对应于)规则(H1到H11)的训练数据项(P1至P4,N1至N3)的数量相对应的权重。
·使用向其应用训练数据项(P1至P4,N1至N3)的逻辑回归进行加权。
图22是用于描述使用逻辑回归进行加权的说明图。在逻辑回归中,如图22所示,将训练数据项(P1至P4,N1至N3)应用于模型公式,并且获得与假设H1至H11有关的权重(β1至β11)。此处,可以根据通过逻辑回归获得的假设(H1至H11)的权重来选择假设。
由于使用上述方法,因此模型生成服务器10从训练数据项中选择假设,计算假设的权重,并且执行对确定每个状态的每个确定模型的学习。
[d]第四实施方式
尽管已经描述了本发明的实施方式,但是本发明可以以除了上述实施方式之外的各种不同形式实现。
学习
例如,可以任意地设置学习处理完成的定时,例如使用预定数量或大于预定数量的训练数据项的学习完成的时间点或者每个模型的损失小于阈值的时间点。通用机器学习可以用作学习方法。在前述实施方式中描述的特征、块和动作内容仅是示例,并且可以任意改变。
处理目标
尽管在前述实施方式中已经描述了Web服务器上的访问日志用作示例,但是本发明不限于此,并且例如,可以使用行走日志或系统日志。在行走日志的情况下,将微微疲倦或非常疲倦确定为状态,并且在系统日志的情况下,将正常操作、故障征兆或故障确定为状态。
确定模型
尽管在前述实施方式中已经描述了使用与多个状态相对应的多个确定模型,但是本发明不限于此。例如,当期望转变为诸如“购买意向”状态的特定状态时,仅可以使用与该特定状态相对应的确定模型。此时,模型生成服务器10可以显示表征确定模型的假设列表(权重、特征),作为确定模型的确定结果。针对具有等于或大于阈值的权重的假设,模型生成服务器10可以向Web服务器6仅呈现缺少的特征。每个确定模型都是学习模型的示例。
系统
除非另有说明,否则可以任意更改上述文档和附图中所示的处理过程、控制过程、特定名称以及包括各种数据和参数的信息。
所示设备和装置的部件是功能上的概念部件,不必一定是物理部件。即,设备和装置的分布和集成的具体形式不限于所示出的形式。即,根据各种负载和使用情况,可以在任意单元中在功能上或物理上分布和集成全部或部分部件。例如,学习处理单元30和确定处理单元40可以通过单独的装置来实现。确定单元42是输入单元和指定单元的示例,并且动作决定单元43是确定单元的示例。
在装置中执行的处理功能的全部或任何部分可以通过CPU以及由CPU分析和执行的程序来实现,或者可以被实现为有线逻辑硬件。
硬件
图23是用于描述硬件配置示例的图。如图23所示,模型生成服务器10包括通信装置10a、硬盘驱动器(HDD)10b、存储器10c和处理器10d。图23中所示的单元通过总线相互连接。
通信装置10a是网络接口卡,并且与其他服务器通信。HDD 10b存储用于操作图3所示的功能的程序和DB。
处理器10d通过从HDD 10b中读出执行与图3所示的处理单元的处理相同的处理的程序并将该程序加载到存储器10c中,来操作执行参照图3描述的功能的处理。即,这些处理执行与模型生成服务器10中包括的处理单元的功能相同的功能。具体地,处理器10d从HDD10b中读出具有与学习处理单元30和确定处理单元40的功能相同的功能的程序。处理器10d执行进行与学习处理单元30和确定处理单元40的处理相同的处理的处理。
如上所述,模型生成服务器10用作通过读出并执行程序来执行模型生成方法的信息处理设备。通过由介质读取装置从记录介质中读出程序并执行所读出的程序,模型生成服务器10可以实现与上述实施方式的功能相同的功能。在其他实施方式中涉及的程序不限于由模型生成服务器10执行。例如,当另一计算机或服务器执行程序时,或者当另一计算机和另一服务器彼此协作地执行程序时,本发明可以类似地应用。
根据一方面,可以有效地促进用户的状态转变。
Claims (8)
1.一种计算机可读记录介质,其中存储有使计算机执行处理的确定程序,所述处理包括:
将目标的行为信息输入至训练的机器学习模型,所述训练的机器学习模型学习通过将根据多个训练数据项中包括的多个行为生成的行为组合与指示所述行为组合处于多个状态中的特定状态下的确定性的可能性相关联而获得的多个关联关系,已经通过使用通过将与所述特定状态相对应的人的行为组合与所述特定状态相关联而获得的所述多个训练数据项对所述训练的机器学习进行了训练;
基于所述训练的机器学习模型的输出结果,指定所述多个关联关系中的每一个中的所述行为组合与所述目标的行为信息之间的差异;以及
基于与所述行为组合相关联的所述可能性以及所述行为组合与所述行为信息之间的所述差异,确定用于使所述目标转变为所述特定状态的附加行为。
2.根据权利要求1所述的计算机可读记录介质,
其中,所述确定包括:指定所述附加行为以及针对待确定的目标决定推荐行为,所述附加行为包括与等于或大于阈值的所述可能性相关联的所述行为组合,通过所述阈值所述待确定的目标的行为信息被确定为指定的特定状态。
3.根据权利要求1所述的计算机可读记录介质,其中,所述处理还包括:
从所述训练的机器学习模型获取所述行为组合、所述可能性以及所述行为组合与待确定的目标的行为信息之间的差异作为所述输出结果;以及
将所述输出结果输出至向所述待确定的目标提供服务的服务器装置。
4.根据权利要求1所述的计算机可读记录介质,其中,所述处理还包括:
将待确定的目标的行为信息输入至与所述多个状态相对应的所述训练的机器学习模型;
从所述训练的机器学习模型获取通过将与包括所述待确定的目标的行为信息的所述行为组合相关联的所述可能性相加而获得的得分;以及
基于从所述训练的机器学习模型获得的所述得分,来指定所述待确定的目标的状态。
5.根据权利要求4所述的计算机可读记录介质,
其中,所述多个状态是从初始状态到最终目标状态顺序地转变的状态,以及
所述指定包括:将具有从与所述多个状态相对应的所述训练的机器学习模型获取的所述得分中的等于或大于阈值的得分并且最接近指定的最终目标状态的状态指定为所述待确定的目标的状态。
6.根据权利要求5所述的计算机可读记录介质,
其中,所述指定包括:从与作为被指定为所述待确定的目标的状态的第一状态的下一状态的第二状态相对应的所述训练的机器学习模型获取比例,通过所述比例使所述待确定的目标的行为信息包括在关于所述可能性与表征所述第二状态的所述行为组合之间的关联关系而获取的行为组合中,以及
所述确定包括:指定所述可能性等于或大于阈值的所述行为组合之中具有指定的最高比例的组合;以及将未包括在所确定的待确定的目标的行为信息中的行为确定为所指定的组合中的所述附加行为。
7.一种确定方法,包括:
将目标的行为信息输入至训练的机器学习模型,所述训练的机器学习模型学习通过将根据多个训练数据项中包括的多个行为生成的行为组合与指示所述行为组合处于多个状态中的特定状态下的确定性的可能性相关联而获得的多个关联关系,已经通过使用通过将与所述特定状态相对应的人的行为组合与所述特定状态相关联而获得的所述多个训练数据项对所述训练的机器学习进行了训练;
基于所述训练的机器学习模型的输出结果,指定所述多个关联关系中的每一个中的所述行为组合与所述目标的行为信息之间的差异;以及
基于与所述行为组合相关联的所述可能性以及所述行为组合与所述行为信息之间的所述差异,确定用于使所述目标转变为所述特定状态的附加行为。
8.一种信息处理设备,包括:
输入单元,其将目标的行为信息输入至训练的机器学习模型,所述训练的机器学习模型学习通过将根据多个训练数据项中包括的多个行为生成的行为组合与指示所述行为组合处于多个状态中的特定状态下的确定性的可能性相关联而获得的多个关联关系,已经通过使用通过将与所述特定状态相对应的人的行为组合与所述特定状态相关联而获得的所述多个训练数据项对所述训练的机器学习进行了训练;
指定单元,其基于所述训练的机器学习模型的输出结果,指定所述多个关联关系中的每一个中的所述行为组合与所述目标的行为信息之间的差异;以及
确定单元,其基于与所述行为组合相关联的所述可能性以及所述行为组合与所述行为信息之间的所述差异,确定用于使所述目标转变为所述特定状态的附加行为。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019-036604 | 2019-02-28 | ||
JP2019036604A JP2020140540A (ja) | 2019-02-28 | 2019-02-28 | 判定プログラム、判定方法および情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111626762A true CN111626762A (zh) | 2020-09-04 |
Family
ID=69804414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010120417.7A Pending CN111626762A (zh) | 2019-02-28 | 2020-02-26 | 计算机可读记录介质、确定方法以及信息处理设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11416892B2 (zh) |
EP (1) | EP3702994A1 (zh) |
JP (1) | JP2020140540A (zh) |
CN (1) | CN111626762A (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7004886B1 (ja) * | 2021-03-09 | 2022-01-21 | 合同会社Famc | ユーザに好適な商品またはサービスを決定するためのシステム、方法、およびプログラム |
JP7046332B1 (ja) | 2021-06-28 | 2022-04-04 | カラクリ株式会社 | プログラム、方法、およびシステム |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090164395A1 (en) * | 2007-12-21 | 2009-06-25 | Heck Larry P | Modeling, detecting, and predicting user behavior with hidden markov models |
US20140222503A1 (en) * | 2013-02-07 | 2014-08-07 | 24/7 Customer, Inc. | Dynamic prediction of online shopper's intent using a combination of prediction models |
US20150269609A1 (en) * | 2014-03-18 | 2015-09-24 | Staples, Inc. | Clickstream Purchase Prediction Using Hidden Markov Models |
US20160239857A1 (en) * | 2013-01-04 | 2016-08-18 | PlaceIQ, Inc. | Inferring consumer affinities based on shopping behaviors with unsupervised machine learning models |
WO2017140222A1 (zh) * | 2016-02-19 | 2017-08-24 | 阿里巴巴集团控股有限公司 | 机器学习模型的建模方法及装置 |
CN107578332A (zh) * | 2017-09-22 | 2018-01-12 | 深圳乐信软件技术有限公司 | 一种推荐现金商品的方法、装置、设备及存储介质 |
CN107578281A (zh) * | 2017-08-31 | 2018-01-12 | 湖南大学 | 电子商务环境下用户优惠券行为预测方法及模型构建方法 |
CN108140143A (zh) * | 2015-11-06 | 2018-06-08 | 谷歌有限责任公司 | 正则化机器学习模型 |
CN109325541A (zh) * | 2018-09-30 | 2019-02-12 | 北京字节跳动网络技术有限公司 | 用于训练模型的方法和装置 |
CN109345302A (zh) * | 2018-09-27 | 2019-02-15 | 腾讯科技(深圳)有限公司 | 机器学习模型训练方法、装置、存储介质和计算机设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9460401B2 (en) * | 2012-08-20 | 2016-10-04 | InsideSales.com, Inc. | Using machine learning to predict behavior based on local conditions |
JP6015959B2 (ja) * | 2013-11-28 | 2016-10-26 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 情報処理装置、情報処理方法、及び、プログラム |
US10867269B2 (en) * | 2015-04-29 | 2020-12-15 | NetSuite Inc. | System and methods for processing information regarding relationships and interactions to assist in making organizational decisions |
-
2019
- 2019-02-28 JP JP2019036604A patent/JP2020140540A/ja active Pending
-
2020
- 2020-02-20 EP EP20158458.8A patent/EP3702994A1/en not_active Withdrawn
- 2020-02-25 US US16/799,925 patent/US11416892B2/en active Active
- 2020-02-26 CN CN202010120417.7A patent/CN111626762A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090164395A1 (en) * | 2007-12-21 | 2009-06-25 | Heck Larry P | Modeling, detecting, and predicting user behavior with hidden markov models |
US20160239857A1 (en) * | 2013-01-04 | 2016-08-18 | PlaceIQ, Inc. | Inferring consumer affinities based on shopping behaviors with unsupervised machine learning models |
US20140222503A1 (en) * | 2013-02-07 | 2014-08-07 | 24/7 Customer, Inc. | Dynamic prediction of online shopper's intent using a combination of prediction models |
US20150269609A1 (en) * | 2014-03-18 | 2015-09-24 | Staples, Inc. | Clickstream Purchase Prediction Using Hidden Markov Models |
CN108140143A (zh) * | 2015-11-06 | 2018-06-08 | 谷歌有限责任公司 | 正则化机器学习模型 |
WO2017140222A1 (zh) * | 2016-02-19 | 2017-08-24 | 阿里巴巴集团控股有限公司 | 机器学习模型的建模方法及装置 |
CN107578281A (zh) * | 2017-08-31 | 2018-01-12 | 湖南大学 | 电子商务环境下用户优惠券行为预测方法及模型构建方法 |
CN107578332A (zh) * | 2017-09-22 | 2018-01-12 | 深圳乐信软件技术有限公司 | 一种推荐现金商品的方法、装置、设备及存储介质 |
CN109345302A (zh) * | 2018-09-27 | 2019-02-15 | 腾讯科技(深圳)有限公司 | 机器学习模型训练方法、装置、存储介质和计算机设备 |
CN109325541A (zh) * | 2018-09-30 | 2019-02-12 | 北京字节跳动网络技术有限公司 | 用于训练模型的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
US11416892B2 (en) | 2022-08-16 |
EP3702994A1 (en) | 2020-09-02 |
JP2020140540A (ja) | 2020-09-03 |
US20200279290A1 (en) | 2020-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230153857A1 (en) | Recommendation model training method, recommendation method, apparatus, and computer-readable medium | |
CN109544197B (zh) | 一种用户流失预测方法和装置 | |
Ma et al. | Learning to recommend with social trust ensemble | |
Liu et al. | CPLR: Collaborative pairwise learning to rank for personalized recommendation | |
JP7160980B2 (ja) | 情報提供装置、情報提供方法、およびプログラム | |
US10977448B2 (en) | Determining personality profiles based on online social speech | |
US20220114680A1 (en) | System and method for evaluating the true reach of social media influencers | |
US10831809B2 (en) | Page journey determination from web event journals | |
JP7215324B2 (ja) | 予測プログラム、予測方法及び予測装置 | |
US10678831B2 (en) | Page journey determination from fingerprint information in web event journals | |
CN112633690B (zh) | 服务人员信息分配方法、装置、计算机设备和存储介质 | |
KR101639656B1 (ko) | 광고 제공 방법 및 서버 장치 | |
Zhang et al. | Learning user credibility for product ranking | |
CN111626762A (zh) | 计算机可读记录介质、确定方法以及信息处理设备 | |
Wang et al. | Modeling uncertainty to improve personalized recommendations via Bayesian deep learning | |
Wang et al. | Toward dual roles of users in recommender systems | |
Khan et al. | Comparative analysis on Facebook post interaction using DNN, ELM and LSTM | |
KR20240111294A (ko) | 미리 학습된 평가모델을 이용한 사용자의 피드백 반영 제품계획 결정 장치 | |
CN117974234A (zh) | 信息推荐方法、装置、电子设备及存储介质 | |
CN114358807A (zh) | 基于可预测用户特征属性的用户画像方法及系统 | |
Parmentier et al. | Personalized multi-faceted trust modeling in social networks | |
Song et al. | A dog food recommendation system based on nutrient suitability | |
KR20200029647A (ko) | 사용자 개인화에 의한 큐레이터 전자상거래 시스템의 일반화 방법 | |
Mianowska et al. | A method for collaborative recommendation in document retrieval systems | |
Shahrezaye et al. | Estimating the political orientation of twitter users using network embedding algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200904 |
|
WD01 | Invention patent application deemed withdrawn after publication |