CN103679496A - 状态推荐方法及系统 - Google Patents

状态推荐方法及系统 Download PDF

Info

Publication number
CN103679496A
CN103679496A CN201210349848.6A CN201210349848A CN103679496A CN 103679496 A CN103679496 A CN 103679496A CN 201210349848 A CN201210349848 A CN 201210349848A CN 103679496 A CN103679496 A CN 103679496A
Authority
CN
China
Prior art keywords
state
length
user
initial state
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201210349848.6A
Other languages
English (en)
Other versions
CN103679496B (zh
Inventor
王永庚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHENGQU INFORMATION TECHNOLOGY (SHANGHAI) Co Ltd
Original Assignee
SHENGQU INFORMATION TECHNOLOGY (SHANGHAI) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENGQU INFORMATION TECHNOLOGY (SHANGHAI) Co Ltd filed Critical SHENGQU INFORMATION TECHNOLOGY (SHANGHAI) Co Ltd
Priority to CN201210349848.6A priority Critical patent/CN103679496B/zh
Publication of CN103679496A publication Critical patent/CN103679496A/zh
Application granted granted Critical
Publication of CN103679496B publication Critical patent/CN103679496B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及一种状态推荐方法及系统,所述方法包括:根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数或发生概率,其中N为正整数;获取发生次数或发生概率最高的结束状态并推荐给用户。本发明能够精确统计出用户在当前的开始状态下,在小于等于N个步长内用户最有可能到达的结束状态,然后将这种最有可能到达的结束状态推荐给用户,提高推荐状态的命中率。

Description

状态推荐方法及系统
技术领域
本发明涉及一种状态推荐方法及系统。
背景技术
随着近几年游戏行业的快速发展,游戏物品交易市场也越来越繁荣,但与之不匹配的是目前大多数平台的游戏物品推荐方法还是基于销售量或直接指定白名单的方式进行的,相对于现实商品的推荐技术发展,游戏物品的推荐技术落后了很多。
当前大多数游戏中商品(游戏物品)推荐方法大致有两种:
第一种方法,对于热售物品的推荐,按物品的销售数量(或金额)排行榜,将热售物品推荐给用户,这种方法能够将最活跃的物品推荐给用户,但其缺点在于,热售的商品是部分用户需要的商品,但不一定是当前用户需要的物品。
第二种方法,根据商品之间的关联关系作规则推荐。例如用户购买了某套装中的一个物品,则可推荐套装中的其他物品给用户。这是一种更深入细化的推荐方法,推荐命中率会高一些。
然而,上述第二种方法具有以下缺点:
1)需要不断的学习和认识新的规则;
2)随着规则的增多,需要手动维护规则的任务也越来越多;
3)规则的完善度直接关系到推荐的命中率。
因此,如何降低学习和维护规则带来的成本,如何保证向用户推荐的状态如商品能够命中绝大多数用户行为是目前亟待解决的问题。
发明内容
本发明的目的在于提供一种状态推荐方法及系统,能够精确统计出用户在当前的开始状态下,在小于等于N个步长内用户最有可能到达的结束状态,然后将这种最有可能到达的结束状态推荐给用户,提高推荐状态的命中率。
为解决上述问题,本发明提供一种状态推荐方法,包括:
根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数或发生概率,其中N为正整数;
获取发生次数或发生概率最高的结束状态并推荐给用户。
进一步的,在上述方法中,根据下述公式统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生概率:
其中,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数。
进一步的,在上述方法中,根据下述公式获取发生概率最高的结束状态:
Figure BDA00002161635600022
其中,Y1表示发生概率的最高值,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数。
进一步的,在上述方法中,根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数:
Figure BDA00002161635600023
其中,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数,#Si表示步长为K时结束状态Si的发生次数。
进一步的,在上述方法中,根据下述公式获取发生次数最高的结束状态:
Figure BDA00002161635600031
其中,Y2表示发生次数的最高值,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数,#Si表示步长为K时结束状态Si的发生次数。
进一步的,在上述方法中,所述N大于等于4且小于等于10。
根据本发明的另一面,提供一种状态推荐系统,包括:
统计模块,用于根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数或发生概率,其中N为正整数;
推荐模块,用于获取发生次数或发生概率最高的结束状态并推荐给用户。
进一步的,在上述系统中,
所述统计模块根据下述公式统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生概率:
Figure BDA00002161635600032
其中,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数。
进一步的,在上述系统中,所述推荐模块根据下述公式获取发生概率最高的结束状态:
Figure BDA00002161635600033
其中,Y1表示发生概率的最高值,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数。
进一步的,在上述系统中,所述统计模块根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数:
Figure BDA00002161635600041
其中,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数,#Si表示步长为K时结束状态Si的发生次数。
进一步的,在上述系统中,所述推荐模块根据下述公式获取发生次数最高的结束状态:
其中,Y2表示发生次数的最高值,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数,#Si表示步长为K时结束状态Si的发生次数。
与现有技术相比,本发明根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数或发生概率,其中N为正整数,获取发生次数或发生概率最高的结束状态并推荐给用户,在发生次数或发生概率统计过程中引入了步长的概念,可以精确统计出用户在当前的开始状态下,在小于等于N个步长内用户最有可能到达的结束状态,然后将这种最有可能到达的结束状态推荐给用户,这样不但提高了推荐状态的命中率,而且,由于步长可以自由设定,也使得推荐的方式更灵活,其无需学习物品间的关联规则,也无需维护物品间的关联规则,开发和维护的成本低,可复制性强。
附图说明
图1是本发明实施例一的状态推荐方法的流程图;
图2是本发明实施例一的不包含子事件的状态示意图;
图3是本发明实施例一的包含子事件的状态示意图;
图4是本发明实施例一的A用户和B用户的状态示意图;
图5是本发明实施例一的步长为1的状态示意图;
图6是本发明实施例一的步长为2的状态示意图;
图7是本发明实施例一状态变迁示意图;
图8是本发明实施例二的状态推荐方法的流程图;
图9是本发明实施例三的状态推荐系统的模块示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例一
如图1所示,本发明提供一种状态推荐方法,包括:
步骤S1,根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生概率,其中N为正整数。具体的,可将用户的历史行为建立一个用户行为库,根据用户当前的开始状态到所述用户行为库里找出以当前的开始状态S为出发点且步长小于等于N的每个结束状态Si的发生概率。可以定义每个事件都有一个开始状态S和一个结束状态Si,一个事件可以包括一个或多个子事件,每个子事件也都有一个开始状态和一个结束状态。
其中,可将事件分为直达事件和间接到达事件,所述直达事件是通过一个子事件变迁就可以从起始状态到达结束状态的事件,即该事件的步长为1;所述间接事件是通过多次子事件变迁可以从某开始状态到达某结束状态,即该事件的步长大于1的。
可将用户行为库的数据结构进行如下设置:
Figure BDA00002161635600061
其中,begin_status表示某事件的开始状态,end_status表示某事件的结束状态,step表示从开始状态到结束状态的步长,probability表示某事件发生的概率,即某事件发生的次数/总事件个数。
如图2所示,图2中的事件有个开始状态S1和一个结束状态S2,该事件包括一个子事件,所以其步长为1,该子事件有个开始状态S1和一个结束状态S2。所述事件或子事件可以是游戏购买行为,开始状态S1可以表示用户购买了游戏物品A的状态,结束状态S2可以表示用户购买了游戏物品B的状态。
如图3所示,图3中的事件包含两个子事件,其中子事件(S1,S2)的步长为1,子事件(S2,S3)的步长的为1,所以事件(S1,S3)的步长为2。
如图4所示,图4中的用户A的事件或子事件(S1,S3)的步长为1发生了一次,用户B的子事件(S2,S3)的步长为1发生了一次,用户B的事件(S2,S4)的步长为2发生了一次。
如图5所示,已知用户当前处于开始状态S1,图5中的所有事件的步长均为1,事件(S1,S2)的发生概率为0.5,事件(S1,S3)的发生概率为0.3,事件(S1,S4)的发生概率为0.1,所以1步以内从开始状态S1最有可能会进入的结束状态为S2。
如图6所示,已知用户当前处于开始状态S1,图5中的所有事件的步长均为2,事件(S1,S2)的发生概率为0.5,事件(S1,S3)的发生概率为0.3,事件(S1,S4)的发生概率为0.1,所以2步以内从开始状态S1最有可能会进入的结束状态为S2。
优选的,步骤S1中,可根据下述公式统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生概率:
其中,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数。
例如,如图7所示,步长为1时,所有的状态变迁的事件的发生概率如下:
从S1到S2状态变迁事件发生的概率是1。即,P[(S2|S1),1]=1;
从S2到S3状态变迁事件发生的概率是0.6。即,P[(S3|S2),1]=0.6;
从S2到S4状态变迁事件发生的概率是0.4。即,P[(S4|S2),1]=0.4;
从S3到S3状态变迁事件发生的概率是0.7。即,P[(S3|S3),1]=0.7;
从S3到S4状态变迁事件发生的概率是0.3。即,P[(S4|S3),1]=0.3。
如图7所示,图7中间接事件即步长大于1的事件发生概率如下:
1)步长为2时,所有的状态变迁的事件的发生概率如下:
从S1到S3状态变迁事件发生的概率是:P[(S3|S1),2]=P[(S2|S1),1]×P[(S3|S2),1]=1×0.6=0.6;
从S1到S4状态变迁事件发生的概率是:P[(S4|S1),2]=P[(S2|S1),1]×P[(S4|S2),1]=1×0.4=0.4;
从S2到S3状态变迁事件发生的概率是:P[(S3|S2),2]=P[(S3|S2),1]×P[(S3|S3),1]=0.6×0.7=0.42;
从S2到S4状态变迁事件发生的概率是:P[(S4|S2),2]=P[(S3|S2),1]×P[(S4|S3),1]=0.6×0.3=0.18;
从S3到S4状态变迁事件发生的概率是:P[(S4|S3),2]=P[(S3|S3),1]×P[(S4|S3),1]=0.7×0.3=0.21;
2)步长为3时,所有的状态变迁的事件的发生概率如下:
从S2到S4状态变迁事件发生的概率:P[(S4|S2),3]=P[(S3|S2),1]×P[(S3|S3),1]×P[(S4|S3),1]=0.6×0.7×0.3=0.126;
2步以内从S2到S4状态变迁事件发生的概率是:
Figure BDA00002161635600081
(N=2)=P[(S4|S2),1]+P[(S4|S2),2]=0.4+0.18=0.58;
3步以内从S2到S4状态变迁事件发生的概率是:
Figure BDA00002161635600082
(N=3)=P[(S4|S2),1]+P[(S4|S2),2]+P[(S4|S2),3]=0.58+0.126=0.706。
步骤S2,获取发生概率最高的结束状态并推荐给用户。具体的,已知用户当前的开始状态,找出发生概率最高的结束状态,即以此预测用户下一步最有可能会进入的结束状态,并将该结束状态作为推荐结果。
优选的,步骤S2中,可根据下述公式获取发生概率最高的结束状态,即当Y1达到最大值时求Si:
Figure BDA00002161635600091
其中,Y1表示发生概率的最高值,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数。
本实施例的方法可用于游戏物品的推荐,因为游戏中的商品交易,不同于现实商品交易,它有如下特点:
1)物品种类有限;
2)玩家职业分类较少,相同职业的用户的发展模式大致相同,所以其购买行为模式大致相同的概率很大;
3)随着玩家等级的提升,玩家需要装配的物品的级别也随之提高,一种阶梯式的发展方式;
4)用户近期如接下来的10次内的购买行为中要购买的物品和上一个已经购买的物品相关度较大。例如,用户上一次购买了某套装物品中的一个,那接下来的10次购买行为内,他购买该套装的其他物品的概率会很高。
5)用户短期如接下来的3次内的购买行为中要购买的物品和上一个已经购买的物品相关度较小,这个相关度较小是相对于上述近期的购买行为而言。例如,用户上一次购买了某套装物品中的一个,在下一个购买行为发生之前,用户可能会因为某些事件,而决定买一些和上一次购买行为相关度较小的物品如突然需要一些快速恢复魔法的药水。
在做游戏物品推荐的时候,只需要关心用户近期可能会买些什么东西,即N步以内从开始状态S开始的事件中,哪些事件发生的概率最大,并将这些最大事件的结束状态Si推荐给用户,即当需要预估用户下10次以内的购买行为时,可计算步长10以内事件发生的概率,这里只对10个步长以内的事件做统计,即对状态变迁事件及对应的步长来做分组统计,并计算其发生的概率,基于统计的10个步长内事件发生的概率,就可以对10个步长内的用户行为进行推荐。
N的取值范围:
1)关于N的最大取值,由于只需要关心用户近期会购买些什么,所以N的值不会太大,太大没有意义,相对于半年后需要的物品,用户更关心近期需要的物品;
2)关于N的最小取值,即当N为1时,用户上一次购买了某套装物品中的一个,在下一个购买行为发生之前,用户可能会因为某些事件,而决定买一些和上一次购买行为相关度较小的物品如突然需要一些快速恢复魔法的药水,或者下一个购买行为购买的物品和上上次购买的物品相关度较大,和上次购买的物品的相关度较小,所以推荐命中率可能会有所降低。
N的最佳值可以根据具体情况,进行调节,以达到满意的推荐命中率,一般N取4到8即可。
具体对用户的购买行为的样本数据建立如下统一数据结构的样本数据表:
Figure BDA00002161635600101
该数据结构中,同一用户id的大小也反映了用户所购买物品的先后顺序。越小,表示购买的时间越早,同一用户相邻商品的id差值是1,这样就可将样本数据按照定义的数据结构导入到样本数据表里。
这种基于用户行为的物品推荐方法,由于引入步长的概念,可以统计计算出在购买了A物品后,在下N次购买行为中购买B物品的概率。这样不但提高了推荐命中率,而且由于步长可自由设定,也使得推荐的方式更灵活。本方法基于用户行为,不是商品关联规则白名单的方式,无需学习物品间的关联规则;无需维护物品间的关联规则,其开发和维护的成本低,不同游戏可复制性强。
通过采用本实施例的方法,可以将用户需要的游戏物品放在醒目的位置,刺激用户快速消费;能够将用户需要的物品快速的呈现给用户,免去用户浏览物品筛选的麻烦,减少用户流失,提高用户体验;最终提高PV转换率。
实施例二
如图8所示,本发明提供一种状态推荐方法,本实施例与实施例一的区别在于只统计每个结束状态的发生次数,从而精简了算法,所述方法包括:
步骤S1,根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数,其中N为正整数。具体的,可将用户的历史行为建立一个用户行为库,根据用户当前的开始状态到所述用户行为库里找出以当前的开始状态S为出发点且步长小于等于N的每个结束状态Si的发生概率。可以定义每个事件都有一个开始状态S和一个结束状态Si,一个事件可以包括一个或多个子事件,每个子事件也都有一个开始状态和一个结束状态。其中,可将事件分为直达事件和间接到达事件,所述直达事件是通过一个子事件变迁就可以从起始状态到达结束状态的事件,即该事件的步长为1;所述间接事件是通过多次子事件变迁可以从某开始状态到达某结束状态,即该事件的步长大于1的。
较佳的,所述N大于等于4且小于等于10。
如图2所示,图2中的事件有个开始状态S1和一个结束状态S2,该事件包括一个子事件,所以其步长为1,该子事件有个开始状态S1和一个结束状态S2。所述事件或子事件可以是游戏购买行为,开始状态S1可以表示用户购买了游戏物品A的状态,结束状态S2可以表示用户购买了游戏物品B的状态。
如图3所示,图3中的事件包含两个子事件,其中子事件(S1,S2)的步长为1,子事件(S2,S3)的步长的为1,所以事件(S1,S3)的步长为2。
如图4所示,图4中的用户A的事件或子事件(S1,S3)的步长为1发生了一次,用户B的子事件(S2,S3)的步长为1发生了一次,用户B的事件(S2,S4)的步长为2发生了一次。
优选的,步骤S1中,由于P(Si|S)=#Si/#,其中#Si为事件Si发生的次数,#为全部事件次数,即P(Si|S)总是和#Si成正比关系,所以可根据下述公式统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数:
其中,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数,#Si表示步长为K时结束状态Si的发生次数。
步骤S2,获取发生次数最高的结束状态并推荐给用户。具体的,已知用户当前的开始状态,找出发生概率最高的结束状态,即以此预测用户下一步最有可能会进入的结束状态,并将该结束状态作为推荐结果。
优选的,步骤S2中,可根据下述公式获取发生次数最高的结束状态,即当Y2达到最大值时求Si:
Figure BDA00002161635600131
其中,Y2表示发生次数的最高值,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数,#Si表示步长为K时结束状态Si的发生次数。
Figure BDA00002161635600132
其中,Y1表示发生概率的最高值,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数。
本实施例的方法可用于游戏物品的推荐,因为游戏中的商品交易,不同于现实商品交易,它有如下特点:
1)物品种类有限;
2)玩家职业分类较少,相同职业的用户的发展模式大致相同,所以其购买行为模式大致相同的概率很大;
3)随着玩家等级的提升,玩家需要装配的物品的级别也随之提高,一种阶梯式的发展方式;
4)用户近期如接下来的10次内的购买行为中要购买的物品和上一个已经购买的物品相关度较大。例如,用户上一次购买了某套装物品中的一个,那接下来的10次购买行为内,他购买该套装的其他物品的概率会很高。
5)用户短期如接下来的3次内的购买行为中要购买的物品和上一个已经购买的物品相关度较小,这个相关度较小是相对于上述近期的购买行为而言。例如,用户上一次购买了某套装物品中的一个,在下一个购买行为发生之前,用户可能会因为某些事件,而决定买一些和上一次购买行为相关度较小的物品如突然需要一些快速恢复魔法的药水。
在做游戏物品推荐的时候,只需要关心用户近期可能会买些什么东西,即N步以内从开始状态S开始的事件中,哪些事件发生的次数最大,并将这些最大事件的结束状态Si推荐给用户,即当需要预估用户下10次以内的购买行为时,可计算步长10以内事件发生的次数,这里只对10个步长以内的事件做统计,即对状态变迁事件及对应的步长来做分组统计,并计算其发生的次数,基于统计的10个步长内事件发生的次数,就可以对10个步长内的用户行为进行推荐。
N的取值范围:
1)关于N的最大取值,由于只需要关心用户近期会购买些什么,所以N的值不会太大,太大没有意义,相对于半年后需要的物品,用户更关心近期需要的物品;
2)关于N的最小取值,即当N为1时,用户上一次购买了某套装物品中的一个,在下一个购买行为发生之前,用户可能会因为某些事件,而决定买一些和上一次购买行为相关度较小的物品如突然需要一些快速恢复魔法的药水,或者下一个购买行为购买的物品和上上次购买的物品相关度较大,和上次购买的物品的相关度较小,所以推荐命中率可能会有所降低。
N的最佳值可以根据具体情况,进行调节,以达到满意的推荐命中率,一般N取4到8即可。
具体对用户的购买行为的样本数据建立如下统一数据结构的样本数据表:
Figure BDA00002161635600141
该数据结构中,同一用户id的大小也反映了用户所购买物品的先后顺序。越小,表示购买的时间越早,同一用户相邻商品的id差值是1,这样就可将样本数据按照定义的数据结构导入到样本数据表里。
这种基于用户行为的物品推荐方法,由于引入步长的概念,可以统计计算出在购买了A物品后,在下N次购买行为中购买B物品的次数。这样不但提高了推荐命中率,而且由于步长可自由设定,也使得推荐的方式更灵活。本方法基于用户行为,不是商品关联规则白名单的方式,无需学习物品间的关联规则;无需维护物品间的关联规则,其开发和维护的成本低,不同游戏可复制性强。
通过采用本实施例的方法,可以将用户需要的游戏物品放在醒目的位置,刺激用户快速消费;能够将用户需要的物品快速的呈现给用户,免去用户浏览物品筛选的麻烦,减少用户流失,提高用户体验;最终提高PV转换率。
实施例三
如图9所示,本发明还提供另一种状态推荐系统,包括统计模块1和推荐模块2。
统计模块1用于根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数或发生概率,其中N为正整数。具体的,可将用户的历史行为建立一个用户行为库,根据用户当前的开始状态到所述用户行为库里找出以当前的开始状态S为出发点且步长小于等于N的每个结束状态Si的发生概率。可以定义每个事件都有一个开始状态S和一个结束状态Si,一个事件可以包括一个或多个子事件,每个子事件也都有一个开始状态和一个结束状态。其中,可将事件分为直达事件和间接到达事件,所述直达事件是通过一个子事件变迁就可以从起始状态到达结束状态的事件,即该事件的步长为1;所述间接事件是通过多次子事件变迁可以从某开始状态到达某结束状态,即该事件的步长大于1的。
可将用户行为库的数据结构进行如下设置:
Figure BDA00002161635600161
其中,begin_status表示某事件的开始状态,end_status表示某事件的结束状态,step表示从开始状态到结束状态的步长,probability表示某事件发生的概率,即某事件发生的次数/总事件个数。
推荐模块2用于获取发生次数或发生概率最高的结束状态并推荐给用户。
优选的,所述统计模块1根据下述公式统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生概率:
Figure BDA00002161635600162
其中,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数。
较佳的,所述推荐模块2根据下述公式获取发生概率最高的结束状态:
Figure BDA00002161635600163
其中,Y1表示发生概率的最高值,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数。
优选的,所述统计模块1根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数:
Figure BDA00002161635600171
其中,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数,#Si表示步长为K时结束状态Si的发生次数。
较佳的,所述推荐模块2根据下述公式获取发生次数最高的结束状态:
Figure BDA00002161635600172
其中,Y2表示发生次数的最高值,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数,#Si表示步长为K时结束状态Si的发生次数。
本实施例的系统可用于游戏物品的推荐,因为游戏中的商品交易,不同于现实商品交易,它有如下特点:
1)物品种类有限;
2)玩家职业分类较少,相同职业的用户的发展模式大致相同,所以其购买行为模式大致相同的概率很大;
3)随着玩家等级的提升,玩家需要装配的物品的级别也随之提高,一种阶梯式的发展方式;
4)用户近期如接下来的10次内的购买行为中要购买的物品和上一个已经购买的物品相关度较大。例如,用户上一次购买了某套装物品中的一个,那接下来的10次购买行为内,他购买该套装的其他物品的概率会很高。
5)用户短期如接下来的3次内的购买行为中要购买的物品和上一个已经购买的物品相关度较小,这个相关度较小是相对于上述近期的购买行为而言。例如,用户上一次购买了某套装物品中的一个,在下一个购买行为发生之前,用户可能会因为某些事件,而决定买一些和上一次购买行为相关度较小的物品如突然需要一些快速恢复魔法的药水。
在做游戏物品推荐的时候,只需要关心用户近期可能会买些什么东西,即N步以内从开始状态S开始的事件中,哪些事件发生的概率最大,并将这些最大事件的结束状态Si推荐给用户,即当需要预估用户下10次以内的购买行为时,可计算步长10以内事件发生的概率,这里只对10个步长以内的事件做统计,即对状态变迁事件及对应的步长来做分组统计,并计算其发生的概率,基于统计的10个步长内事件发生的概率,就可以对10个步长内的用户行为进行推荐。
N的取值范围:
1)关于N的最大取值,由于只需要关心用户近期会购买些什么,所以N的值不会太大,太大没有意义,相对于半年后需要的物品,用户更关心近期需要的物品;
2)关于N的最小取值,即当N为1时,用户上一次购买了某套装物品中的一个,在下一个购买行为发生之前,用户可能会因为某些事件,而决定买一些和上一次购买行为相关度较小的物品如突然需要一些快速恢复魔法的药水,或者下一个购买行为购买的物品和上上次购买的物品相关度较大,和上次购买的物品的相关度较小,所以推荐命中率可能会有所降低。
N的最佳值可以根据具体情况,进行调节,以达到满意的推荐命中率,一般N取4到8即可。
具体对用户的购买行为的样本数据建立如下统一数据结构的样本数据表:
Figure BDA00002161635600181
Figure BDA00002161635600191
该数据结构中,同一用户id的大小也反映了用户所购买物品的先后顺序。越小,表示购买的时间越早,同一用户相邻商品的id差值是1,这样就可将样本数据按照定义的数据结构导入到样本数据表里。
这种基于用户行为的物品推荐系统,由于引入步长的概念,可以统计计算出在购买了A物品后,在下N次购买行为中购买B物品的概率。这样不但提高了推荐命中率,而且由于步长可自由设定,也使得推荐的方式更灵活。本方法基于用户行为,不是商品关联规则白名单的方式,无需学习物品间的关联规则;无需维护物品间的关联规则,其开发和维护的成本低,不同游戏可复制性强。
通过采用本实施例的方法,可以将用户需要的游戏物品放在醒目的位置,刺激用户快速消费;能够将用户需要的物品快速的呈现给用户,免去用户浏览物品筛选的麻烦,减少用户流失,提高用户体验;最终提高PV转换率。
本发明根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数或发生概率,其中N为正整数,获取发生次数或发生概率最高的结束状态并推荐给用户,在发生次数或发生概率统计过程中引入了步长的概念,可以精确统计出用户在当前的开始状态下,在小于等于N个步长内用户最有可能到达的结束状态,然后将这种最有可能到达的结束状态推荐给用户,这样不但提高了推荐状态的命中率,而且,由于步长可以自由设定,也使得推荐的方式更灵活,其无需学习物品间的关联规则,也无需维护物品间的关联规则,开发和维护的成本低,可复制性强。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
显然,本领域的技术人员可以对发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。

Claims (11)

1.一种状态推荐方法,其特征在于,包括:
根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数或发生概率,其中N为正整数;
获取发生次数或发生概率最高的结束状态并推荐给用户。
2.如权利要求1所述的状态推荐方法,其特征在于,根据下述公式统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生概率:
Figure FDA00002161635500011
其中,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数。
3.如权利要求2所述的状态推荐方法,其特征在于,根据下述公式获取发生概率最高的结束状态:
Y 1 = arg MAX Σ K = 1 N P [ ( Si | S ) , K ]
其中,Y1表示发生概率的最高值,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数。
4.如权利要求1所述的状态推荐方法,其特征在于,根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数:
Figure FDA00002161635500013
其中,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数,#Si表示步长为K时结束状态Si的发生次数。
5.如权利要求4所述的状态推荐方法,其特征在于,根据下述公式获取发生次数最高的结束状态:
Y 2 = arg MAX Σ K = 1 N # Si [ ( Si | S ) , K ]
其中,Y2表示发生次数的最高值,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数,#Si表示步长为K时结束状态Si的发生次数。
6.如权利要求1所述的状态推荐方法,其特征在于,所述N大于等于4且小于等于10。
7.一种状态推荐系统,其特征在于,包括:
统计模块,用于根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数或发生概率,其中N为正整数;
推荐模块,用于获取发生次数或发生概率最高的结束状态并推荐给用户。
8.如权利要求7所述的状态推荐系统,其特征在于,所述统计模块根据下述公式统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生概率:
Figure FDA00002161635500022
其中,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数。
9.如权利要求8所述的状态推荐系统,其特征在于,所述推荐模块根据下述公式获取发生概率最高的结束状态:
Y 1 = arg MAX Σ K = 1 N P [ ( Si | S ) , K ]
其中,Y1表示发生概率的最高值,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数。
10.如权利要求7所述的状态推荐系统,其特征在于,所述统计模块根据用户的历史行为统计以一预设的开始状态为出发点且步长小于等于N的每个结束状态的发生次数:
Figure FDA00002161635500031
其中,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数,#Si表示步长为K时结束状态Si的发生次数。
11.如权利要求10所述的状态推荐系统,其特征在于,所述推荐模块根据下述公式获取发生次数最高的结束状态:
Y 2 = arg MAX Σ K = 1 N # Si [ ( Si | S ) , K ]
其中,Y2表示发生次数的最高值,K表示步长,S表示开始状态,Si表示从所述开始状态所能到达的某一结束状态,i为正整数,#Si表示步长为K时结束状态Si的发生次数。
CN201210349848.6A 2012-09-19 2012-09-19 状态推荐方法及系统 Active CN103679496B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210349848.6A CN103679496B (zh) 2012-09-19 2012-09-19 状态推荐方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210349848.6A CN103679496B (zh) 2012-09-19 2012-09-19 状态推荐方法及系统

Publications (2)

Publication Number Publication Date
CN103679496A true CN103679496A (zh) 2014-03-26
CN103679496B CN103679496B (zh) 2021-10-08

Family

ID=50316962

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210349848.6A Active CN103679496B (zh) 2012-09-19 2012-09-19 状态推荐方法及系统

Country Status (1)

Country Link
CN (1) CN103679496B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023234869A1 (en) * 2022-06-02 2023-12-07 Garena Online Private Limited Feedback system and method of providing feedback to a user

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101354714A (zh) * 2008-09-09 2009-01-28 浙江大学 一种基于概率潜在语义分析的问题推荐方法
US20090063439A1 (en) * 1999-09-24 2009-03-05 Thalveg Data Flow Llc System and Method for Efficiently Providing a Recommendation
WO2009114649A2 (en) * 2008-03-12 2009-09-17 Aptima, Inc. Probabilistic decision making system and methods of use
CN101770616A (zh) * 2010-02-09 2010-07-07 北京航空航天大学 一种多级协同项目计划管理方法
CN102135999A (zh) * 2011-03-25 2011-07-27 南京财经大学 用户可信度和项目最近邻相结合的互联网推荐方法
CN102262661A (zh) * 2011-07-18 2011-11-30 南京大学 一种基于k阶混合马尔可夫模型的Web页面访问预测方法
JP2011257953A (ja) * 2010-06-08 2011-12-22 Nippon Telegr & Teleph Corp <Ntt> 日時別推薦アイテムフィルタリング方法及び日時別推薦アイテムフィルタリングプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090063439A1 (en) * 1999-09-24 2009-03-05 Thalveg Data Flow Llc System and Method for Efficiently Providing a Recommendation
WO2009114649A2 (en) * 2008-03-12 2009-09-17 Aptima, Inc. Probabilistic decision making system and methods of use
CN101354714A (zh) * 2008-09-09 2009-01-28 浙江大学 一种基于概率潜在语义分析的问题推荐方法
CN101770616A (zh) * 2010-02-09 2010-07-07 北京航空航天大学 一种多级协同项目计划管理方法
JP2011257953A (ja) * 2010-06-08 2011-12-22 Nippon Telegr & Teleph Corp <Ntt> 日時別推薦アイテムフィルタリング方法及び日時別推薦アイテムフィルタリングプログラム
CN102135999A (zh) * 2011-03-25 2011-07-27 南京财经大学 用户可信度和项目最近邻相结合的互联网推荐方法
CN102262661A (zh) * 2011-07-18 2011-11-30 南京大学 一种基于k阶混合马尔可夫模型的Web页面访问预测方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
V NIKULIN 等: "A very fast algorithm for matrix factorization", 《STATISTICS & PROBABILITY LETTERS》 *
张琛: "一种改进的模糊马尔可夫链状预测模型与应用研究", 《中国优秀硕士学位论文全文数据库 (经济与管理科学辑)》 *
王毅等: "基于马尔可夫链的电子商店顾客行为预测模型", 《计算机工程与设计》 *
王虹予等: "基于混合算法的电子商务推荐系统设计研究", 《现代图书情报技术》 *
许海玲等: "互联网推荐系统比较研究", 《软件学报》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023234869A1 (en) * 2022-06-02 2023-12-07 Garena Online Private Limited Feedback system and method of providing feedback to a user

Also Published As

Publication number Publication date
CN103679496B (zh) 2021-10-08

Similar Documents

Publication Publication Date Title
Oh et al. Mechanism design for capacity planning under dynamic evolutions of asymmetric demand forecasts
US20230050802A1 (en) System and Method of Simultaneous Computation of Optimal Order Point and Optimal Order Quantity
Neale et al. Managing inventory in supply chains with nonstationary demand
US20080288327A1 (en) Store management system and program
EP1413967A4 (en) PURCHASING PROSPECTS USING A CLIENT VALUE REPRESENTED BY THREE INDEX AXES AS CRITERIA
CN108376299A (zh) 一种设备运行趋势的预测方法及装置
CN106663228A (zh) 用于商业应用系统的规则到约束翻译器
Perla Product awareness, industry life cycles, and aggregate profits
CN107093081A (zh) 服务策略制定方法和装置
CN108256924A (zh) 一种产品销售预测装置
Goldfisher Modified Delphi: A concept for new product forecasting
CN107958404A (zh) 一种基于网络平台的销售系统及销售方法
Dominey et al. Performance of approximations for compound Poisson distributed demand in the newsboy problem
CN103679496A (zh) 状态推荐方法及系统
Gilbukh et al. Firm dynamics and pricing under customer capital accumulation
CN116579570A (zh) 产品生产排产方法、装置、设备及介质
CN108122171A (zh) 一种电力需求侧竞价策略确定方法及系统
CN110210880A (zh) 数据处理方法、装置以及计算机可读存储介质
US20120253880A1 (en) Simulating dependency of token arrival on process performance
Hung The Effects of Digitalization, Energy Intensity, and the Demographic Dividend on Viet Nam’s Economic Sustainability Goals
JP2003016245A (ja) 売上予測システム、売上予測プログラムおよび売上予測方法
Kara Micro-data on nominal rigidity, inflation persistence and optimal monetary policy
JP2014081845A (ja) プロモーション管理システムおよびプロモーション管理用プログラム
Nørrelykke et al. Self-organized critical system with no stationary attractor state
CN106408332A (zh) 一种模型构建和目标对象处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant