CN108364190A - 结合信誉更新的移动群智感知在线激励方法 - Google Patents
结合信誉更新的移动群智感知在线激励方法 Download PDFInfo
- Publication number
- CN108364190A CN108364190A CN201810015963.7A CN201810015963A CN108364190A CN 108364190 A CN108364190 A CN 108364190A CN 201810015963 A CN201810015963 A CN 201810015963A CN 108364190 A CN108364190 A CN 108364190A
- Authority
- CN
- China
- Prior art keywords
- user
- value
- task
- platform
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0202—Market predictions or forecasting for commercial activities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
Landscapes
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Engineering & Computer Science (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Data Mining & Analysis (AREA)
- Economics (AREA)
- Marketing (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明适用于充分考虑数据质量的移动群智感知在线激励方法。本发明将整个移动群智感知过程建模成在线随机到达的拍卖模型,并在其中考虑用户提交数据的质量。现存的很多在线激励机制的设计,忽略了用户提交数据的质量问题,导致任务发布方的效益不能达到实际预期。基于此,本发明结合任务发布方对每个用户的信誉评分反馈,并根据上传数据的一些属性计算客观评价分值。综合考虑主客观分值,计算用户信誉分,并结合用户历史和现实信誉记录的情况,设计了结合信誉更新的在线激励方案。采用我们的发明,可以明显提高任务发布方的总效用。
Description
技术领域
本发明涉及移动群智感知技术领域,特别是涉及结合信誉更新的移动群智感知在线激励方法。
背景技术
随着移动互联网技术和应用的迅速发展,移动智能终端得到广泛普及,移动智能终端设备应用更为广泛。对于移动群智感知系统而言,一个很重要的挑战是如何激励移动设备用户参与到移动群智感知任务中去。然而早期的研究主要集中在离线的激励机制,用户统一提交资料去平台处理,等待平台统一反馈结果。然而对于实际情况来说,用户并不是集中到达统一提交资料,并且给予系统足够多的时间做出决策。更多的是在线随机到达。平台及时给出是否选择用户的决断。
对于移动群智感知系统来说,除了需要设计合理的激励机制吸引更多的用户参与工作,对于任务发布者来说,收集到的用户的质量也是一个很重要的考虑因素。然而现阶段的考虑质量问题的激励机制主要集中在平台知晓每一个用户信息,对用户提交的信息进行统一处理的离线场景。在在线情况下的用户提交数据质量问题,当前还没有很好的解决方案。
本专利针对在线的场景,充分考虑参与用户提交的数据问题,建立了用户信誉机制更新模型,将用户的信誉与用户的质量关联,提高了平台收集用户提交数据的质量,从而大大减少恶意数据行为,整体提高平台的效用。
发明内容
现存的在线激励机制没有考虑提交数据质量的问题,造成用户提交的数据的质量很差,并且会有恶意的用户行为等等,这些对任务发布方的效用有很大的负面影响。本发明综合考虑用户的历史和现实信誉记录的更新机制,设计了一种基于信誉更新的多阶段在线激励机制,最终达到提高任务发布方效用的目标,为达此目的,本发明提供结合信誉更新的移动群智感知在线激励方法,具体步骤如下:
1)系统建模;
对于一个移动群智感知系统,主要有三种角色:任务发布方,平台方和用户;任务发布方首先向平台方提交需要发布的一系列公开的异构感知任务Q={q1,q2,...,qm},以及完成任务的总预为B和雇佣用户的截止时间T以及一些有关质量评分的要求,平台方接受到需要的采集任务信息之后,向广大用户发布感知任务以及用户需要提交的信息内容说明。对此次感知任务感兴趣的用户U={1,2,...,n}在线随机到达,并向平台方提交他们参与完成任务的资料信息,用户通过无线网络或蜂窝网络与平台进行通信;
每个用户i若初次到达系统,则会赋予一个初始的信誉值ηi,平台唯一化记录用户i∈U的id,再用户下一次到达系统时读取用户上一次参与选择后的信誉记录,并按照更新法则进行更新,参与此次竞标,如果用户宣称完成了任务,并通过算法筛选,被平台选择,平台方会接受任务发布方对用户提供数据质量的反馈,并以此为依据,在用户下一次登录系统竞标时更新其信誉值,作为参与完成任务的资料信息之一;
平台所要求的用户i提交的参与任务资料是一个五元函数θi={ai,di,ci,vi,ηi},这里 ai∈{1,2,...,T}表示到达时间,di∈{1,2,...,T}表示离开时间,ci是完成一个感知任务真实的成本,vi表示用户i可以为任务发布方带来的价值,ηi为用户i当前的信誉值,用户参与感知任务以及平台选择用户子集的过程可以建模成一个在线的拍卖过程,用户决定参与此次任务之后,会向平台端提交参与任务的资料信息,接着,平台需要做一个在线的及时判断,决定是否雇佣该用户,如果该用户被选择,平台需要支付给用户的报酬pi,同时接受任务发布方反馈的用户提供数据质量打分,并根据上传数据的一些属性计算客观评价分值,综合考虑主客观的分值,以供下次更新信誉值,注意任务发布方有一个总的预算B作为可以支付给选择用户的最大报酬,任务发布方期望在给定的预算和得到一定数据质量保证的前提下,最大化从用户方得到的总价值;
用户在线到达参与竞标的过程可以看成是一场博弈,用户会有策略的提交他们的竞标资料去最大化可能得到的回报,当与任务发布方互动时,用户i真实的成本和到达、离开时间是非公开的,仅被用户本身所知,用户i只能有策略地操作自己的竞标价格以获得更高的效用,平台端基于用户的竞标资料通过激励算法选择获胜用户,并通过计算,给予获胜用户报酬pi;
2)信誉评价机制;
对于平台方而言,存在每次选择用户的信誉值的阈值标准,平台选择用户信誉值的阈值为对于初次参与感知任务的用户来说,将初始化的信誉值设定系统在当前时刻的信誉值的阈值规定用户的信誉值η的取值是有上下界的,即η∈[0,ξ],ξ为用户信誉值的上界,用户如果更新完信誉值之后信誉值为负数,认为该用户的信誉值为最小值0,φ(ηi,Rm)表示更新后用户的信誉值ηi *,其中ηi为用户i当前的信誉值,Rm为用户上一次参与竞标后得到的基于数据质量的信誉综合评分,用户参与此次竞标的信誉值ηi *=φ(ηi,Rm) 的评定需要综合任务发布方对用户的打分反馈ζi,以及客观影响因素:完成时间可靠性ωi,和图片收集任务要求的图片大小可靠性共同决定,采用主客观因素综合考虑,分类分级赋值,建立信誉评价规则,为了使信誉分更加具有直观的现实意义,将信誉分计算体系建模成一个模糊系统;
(a)任务发布方打分ζi;
ζi为任务发布方对用户完成质量的考量,其中ζi∈[0,1],ζi越大表示任务发布方对用户的满意度越高,由任务发布方反馈的打分,作为综合评定的主观因素之一,考虑了任务发布方的主观反馈,对数据质量的把控上起到了主观选择的作用,在[0,1]中定义三个集合:其中打分分值落在[0,0.3)表示“低”用L代替,分值落在[0.3,0.7)表示“中”用M 代替,分值落在[0.7,1]表示“高”用H代替;
(b)完成任务时间的可靠性ωi;
用户在参与任务之前会提交自己相关参与资料,由于考虑的是在线场景,所以资料中需包含用户的到达时间ai∈{1,2,...,T}和离开时间di∈{1,2,...,T},时间的可靠性ωi定义为用户完成时间与任务发布方要求的总的完成时长的重叠时间的比值,该值越大,表明用户花费了相对更多的时间完成任务,因此可靠性相应的也应越大,定义客观的完成任务时间可靠性为;
其中T表示整个过程的截止时间。显然ωi的取值范围在[0,1],同样,将ωi的取值范围定义成三个集合模糊建模:其中ωi∈[0,0.3)表示“低”用L代替,ωi∈[0.3,0.7)表示“中”用M代替,ωi∈[0.7,1]表示“高”用H代替;
(c)图像大小可靠性
针对一些具体的情况,例如收集图片的感知任务,了解收集图片的质量一个很重要的方面就是图像的大小以及像素等指标,假设任务要求上传的图片的大小为将实际用户的上传图片的大小χi与要求的大小的距离占要求大小的比例表示为图片大小的可靠性;
显然的取值范围在[0,1],同样,将的取值范围定义成三个集合模糊建模:其中表示“低”用L代替,表示“中”用M代替,表示“高”用H代替;
则计算更新的用户信誉分数Rm可以使用如下模糊规则,其中为系统当前时间阶段的信誉阈值;
平台统计上述三个方面的分数,并根据取值范围进行模糊对应,统计L和H的个数,并根据模糊规则计算信誉分数,用户带着自己的参与资料,参与平台的选择,每次用户到达平台,提交数据的时候,平台会根据上一次用户的质量记录,更新用户的信誉值作为参与后续竞选的参数之一,其具体的更新规则如下所示,其中Rm表示若存在的之前的信誉更新值:
每当用户到达提交竞标资料,信誉值ηi *作为竞标资料之一,提交给平台,若用户之前参与过竞标且被任务发布方选中,有相应信誉值更新情况,平台在竞标前根据更新法则计算用户新的信誉值ηi *参与此次的竞标,若之前没有参与过提交资料过程,则信誉值设置为初始值若上一轮的竞标未获胜,信誉值维持不变。
本发明的进一步改进,步骤一筛选算法如下:
用户i在线的到达参与竞标,提交竞标资料θi={ai,di,ci,vi,ηi},平台需要在用户离开时间di之前,根据用户提供的竞标资料决定是否雇佣该用户,获胜者用户的集合表示为 W,用V(W)表示任务发布方选择用户子集W的价值函数,那么;
对于任务发布方来说,希望在预算B限制的情况下,通过选取用户子集,尽可能获得最大的价值,即,
本发明的进一步改进,步骤二标准算法如下:
(1)密度阈值更新算法:
为了给平台在选择用户时有提供一个统一的标准,在每一阶段开始的时候需要执行阈值更新算法,算法的核心在于从采样集合中分析计算,在每个时间阶段开始的时候,根据密度阈值更新算法计算该阶段的密度阈值,平台将每个用户的效率值与计算得到的该阶段的密度阈值进行比较,作为选择用户子集的标准,对于平台方来说,目标是最大化能获得的价值,因此在选择用户时,倾向于选择有着更高效率值的用户,具体的密度阈值更新算法如下所示;
密度阈值更新算法:
输入:阶段-预算B',采样集合S′,当前时间阶段Tk;
输出:密度阈值ρ;
首先赋值
符合条件时;
则
如果满足
那么
否则退出循环;
返回阈值
在密度阈值算法中,输入的参数是任务发布方提交的预算B',采样的集合S',还有当前阶段的开始时间Tk定义用户的效率为效率越大越有可能被平台选中,假定每一个用户的效率是有上下边界的,假设阈值更新算法依次选择效用值高的用户将用户集合放入在选择效用值高的用户需要满足预算受限的条件,即;
本算法的根本目的是计算每一阶段的阈值,在这里定义阈值为和每一阶段的平均效用值成一个比例;
定义1:如果按照效用进行排列的用户满足并且此场拍卖的预算为B,那么如果对于两个用户x和y,满足并且那么
证明:因为所以成立;
那么;
从定义1可以知道,在阈值算法中,如果while循环在用户i处不再满足预算条件,则不需要再考虑其他效用值比用户i低的用户j,因为可以推断出
(2)信誉值阈值的更新;
想要参与竞标的用户的信誉值更新后,将会与参与竞标选择的阈值进行比较,只有高于该阈值的用户才能继续参与竞标,由于考虑的是用户可以多次参与竞标的情况,因此初次来到系统参与竞标的用户赋予的初始化信誉值为系统的信誉值阈值,当获胜集合中,重复来到的用户的个数占总用户个数的50%及以上时,需要更新信誉值阈值,信誉值的阈值定义为选中集合中所有用户信誉值的平均值,即;
(3)QOM算法;
计算密度阈值后指导平台选择用户的子集,首先,把时间T划分成l个时间段每一阶段以结尾,相应的,每一个阶段分配的预算是 Bk=2- kB。其中Ti表示在该时刻之前用户到达的概率是2-k,对于每一个时间段Ti,按照上述的阈值更新算法计算阈值,具体的基于质量的在线激励算法如下所示;
基于质量在线激励算法;
输入:阶段预算B,截止时间T
首先赋初始值
从t=1到T做循环;
如果满足用户i在t时刻到达then;
那么将用户加入集合O中,即O←O∪{i};
对于每一个在结合O中的用户i来说;
如果储存用户信誉值数据库存在更新记录;
那么更新信誉值ηi=ηi *;
如果满足那么;
给予用户报酬
在获胜集合中加入用户i,W←W∪{i};
更新在线集合O,O←O\W;
若有用户在时间t离开,从o中移除该用户,并将该用户加入采样集合S';
如果时间满足
则使用密度更新算法更新阈值ρ←密度阈值更新(Bk,Tk,S');
赋值Tk=2Tk,Bk=2Bk继续循环;
如果W集合中重复到达的用户占所有被选中用户比例≥0.5;
更新信誉值密度
在每一个阶段内,如果有用户到达,将其加入集合O中,这里,集合O中包含的用户是已经到达但是还没有被选择或者已经离开此次竞拍活动,并从数据库中读取是否存在此用户上次参与此次感知任务的信誉值更新数据,若有的话,将新的信誉值赋值给该用户之后再进行后续选择过程,如果没有更新信誉值信息,则以之前不变的信誉值和价值参与选择过程,如果当前用户满足效率值高于阈值,并且目前平台总的花费没有超过预算B,同时用户的信誉值高于阈值则选择该用户,将其加入获胜者集合W,并给该用户支付报酬如果上述三个条件中有一项没有满足的话,则该用户则会等待下一时刻的选择判断,如果当前时间等于则按照之前所述的阈值更新算法更新密度阈值。如果当前已经选择的用户,即集合W中的重复到达用户占所有被选中用户的比例≥0.5,则更新信誉值阈值为重复该过程,直到t=T。
本发明通过设计一套基于信誉值更新的在线激励机制算法,充分考虑移动群智感知系统中用户提交数据的质量,通过仿真,在预算一定的前提下,提高了平台的效用,减少了恶意用户参与系统的次数。仿真结果表明,该算法能够帮助平台获得更好的效用,提高雇佣效率。
附图说明
图1为本发明整个信誉更新机制的流程图;
图2为本发明考虑信誉机制在线激励机制系统信息流示意图;
图3为本发明MATLAB仿真得到给定环境下总花费与任务的关系图;
图4为本发明MATLAB仿真得到给定环境下时间与雇佣人数的关系图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明通过设计一套基于信誉值更新的在线激励机制算法,充分考虑移动群智感知系统中用户提交数据的质量,通过仿真,在预算一定的前提下,提高了平台的效用,减少了恶意用户参与系统的次数。仿真结果表明,该算法能够帮助平台获得更好的效用,提高雇佣效率。
本发明涉及结合信誉更新的移动群智感知在线激励方法具体步骤如下:
1)系统建模;
对于一个移动群智感知系统,主要有三种角色:任务发布方,平台方和用户。任务发布方首先向平台方提交需要发布的一系列公开的异构感知任务Q={q1,q2,...,qm},以及完成任务的总预为B和雇佣用户的截止时间T以及一些有关质量评分的要求。平台方接受到需要的采集任务信息之后,向广大用户发布感知任务以及用户需要提交的信息内容说明。对此次感知任务感兴趣的用户U={1,2,...,n}在线随机到达,并向平台方提交他们参与完成任务的资料信息。用户通过无线网络或蜂窝网络与平台进行通信,整个模型的信息流如附图2所示。
每个用户i若初次到达系统,则会赋予一个初始的信誉值ηi,平台唯一化记录用户i∈U的id,再用户下一次到达系统时读取用户上一次参与选择后的信誉记录,并按照更新法则进行更新,参与此次竞标。如果用户宣称完成了任务,并通过算法筛选,被平台选择,平台方会接受任务发布方对用户提供数据质量的反馈,并以此为依据,在用户下一次登录系统竞标时更新其信誉值,作为参与完成任务的资料信息之一。
平台所要求的用户i提交的参与任务资料是一个五元函数θi={ai,di,ci,vi,ηi},这里 ai∈{1,2,...,T}表示到达时间,di∈{1,2,...,T}表示离开时间,ci是完成一个感知任务真实的成本,vi表示用户i可以为任务发布方带来的价值,ηi为用户i当前的信誉值。用户参与感知任务以及平台选择用户子集的过程可以建模成一个在线的拍卖过程。用户决定参与此次任务之后,会向平台端提交参与任务的资料信息。接着,平台需要做一个在线的及时判断,决定是否雇佣该用户。如果该用户被选择,平台需要支付给用户的报酬pi,同时接受任务发布方反馈的用户提供数据质量打分,并根据上传数据的一些属性计算客观评价分值,综合考虑主客观的分值,以供下次更新信誉值。注意任务发布方有一个总的预算B作为可以支付给选择用户的最大报酬。任务发布方期望在给定的预算和得到一定数据质量保证的前提下,最大化从用户方得到的总价值。
用户在线到达参与竞标的过程可以看成是一场博弈,用户会有策略的提交他们的竞标资料去最大化可能得到的回报。当与任务发布方互动时,用户i真实的成本和到达、离开时间是非公开的,仅被用户本身所知。用户i只能有策略地操作自己的竞标价格以获得更高的效用,平台端基于用户的竞标资料通过激励算法选择获胜用户,并通过计算,给予获胜用户报酬pi。
2)信誉评价机制;
对于平台方而言,存在每次选择用户的信誉值的阈值标准,平台选择用户信誉值的阈值为对于初次参与感知任务的用户来说,将初始化的信誉值设定系统在当前时刻的信誉值的阈值我们规定用户的信誉值η的取值是有上下界的,即η∈[0,ξ],ξ为用户信誉值的上界,用户如果更新完信誉值之后信誉值为负数,认为该用户的信誉值为最小值0。φ(ηi,Rm)表示更新后用户的信誉值ηi *,其中ηi为用户i当前的信誉值,Rm为用户上一次参与竞标后得到的基于数据质量的信誉综合评分。用户参与此次竞标的信誉值ηi *=φ(ηi,Rm)的评定需要综合任务发布方对用户的打分反馈ζi,以及客观影响因素:完成时间可靠性ωi,和图片收集任务要求的图片大小可靠性共同决定,采用主客观因素综合考虑,分类分级赋值,建立信誉评价规则,为了使信誉分更加具有直观的现实意义,我们将信誉分计算体系建模成一个模糊系统。
(a)任务发布方打分ζi;
ζi为任务发布方对用户完成质量的考量,其中ζi∈[0,1],ζi越大表示任务发布方对用户的满意度越高。由任务发布方反馈的打分,作为综合评定的主观因素之一,考虑了任务发布方的主观反馈,对数据质量的把控上起到了主观选择的作用。我们在[0,1]中定义三个集合:其中打分分值落在[0,0.3)表示“低”用L代替,分值落在[0.3,0.7)表示“中”用M代替,分值落在[0.7,1]表示“高”用H代替。
(b)完成任务时间的可靠性ωi;
用户在参与任务之前会提交自己相关参与资料,由于考虑的是在线场景,所以资料中需包含用户的到达时间ai∈{1,2,...,T}和离开时间di∈{1,2,...,T}。时间的可靠性ωi定义为用户完成时间与任务发布方要求的总的完成时长的重叠时间的比值。该值越大,表明用户花费了相对更多的时间完成任务,因此可靠性相应的也应越大。我们定义客观的完成任务时间可靠性为;
其中T表示整个过程的截止时间。显然ωi的取值范围在[0,1]。同样,将ωi的取值范围定义成三个集合模糊建模:其中ωi∈[0,0.3)表示“低”用L代替,ωi∈[0.3,0.7)表示“中”用M代替,ωi∈[0.7,1]表示“高”用H代替。
(c)图像大小可靠性
针对一些具体的情况,例如收集图片的感知任务,了解收集图片的质量一个很重要的方面就是图像的大小以及像素等指标。假设任务要求上传的图片的大小为将实际用户的上传图片的大小χi与要求的大小的距离占要求大小的比例表示为图片大小的可靠性;
显然的取值范围在[0,1]。同样,将的取值范围定义成三个集合模糊建模:其中表示“低”用L代替,表示“中”用M代替,表示“高”用H代替。
则计算更新的用户信誉分数Rm可以使用如下模糊规则,其中为系统当前时间阶段的信誉阈值。
平台统计上述三个方面的分数,并根据取值范围进行模糊对应,统计L和H的个数,并根据模糊规则计算信誉分数。用户带着自己的参与资料,参与平台的选择。每次用户到达平台,提交数据的时候,平台会根据上一次用户的质量记录,更新用户的信誉值作为参与后续竞选的参数之一。其具体的更新规则如下所示,其中Rm表示若存在的之前的信誉更新值:
每当用户到达提交竞标资料,信誉值ηi *作为竞标资料之一,提交给平台,若用户之前参与过竞标且被任务发布方选中,有相应信誉值更新情况,平台在竞标前根据更新法
则计算用户新的信誉值ηi *参与此次的竞标。若之前没有参与过提交资料过程,则信誉值设置为初始值若上一轮的竞标未获胜,信誉值维持不变。
整个信誉更新机制的流程图可由图1所示。
具体算法描述如下:
用户i在线的到达参与竞标,提交竞标资料θi={ai,di,ci,vi,ηi}。平台需要在用户离开时间di之前,根据用户提供的竞标资料决定是否雇佣该用户。获胜者用户的集合表示为 W,用V(W)表示任务发布方选择用户子集W的价值函数,那么;
对于任务发布方来说,希望在预算B限制的情况下,通过选取用户子集,尽可能获得最大的价值,即,
为了实现在线处理用户的参与资料,我们参考秘书问题的多阶段选择的思想,设计了一种多阶段的采样-接受过程。该机制动态的增加采样的容量,并且动态的为将来用户子集的选择学习密度阈值,密度阈值结合之前所述的信誉更新机制得出的信誉分,为平台选取用户提供了标准。该算法需要满足a)计算有效性,即该算法要在多项式时间内完成;b)个体合理性,即被选择的用户所得到的报酬大于等于其成本;c)预算可行性,即支付给所有选择用户的总报酬要小于给定的预算B;d)策略真实性,即保证如果用户谎报其参与资料的话他不会获得更多的报酬。
(1)密度阈值更新算法:
为了给平台在选择用户时有提供一个统一的标准,在每一阶段开始的时候需要执行阈值更新算法。算法的核心在于从采样集合中分析计算,在每个时间阶段开始的时候,根据密度阈值更新算法计算该阶段的密度阈值。平台将每个用户的效率值与计算得到的该阶段的密度阈值进行比较,作为选择用户子集的标准。对于平台方来说,目标是最大化能获得的价值,因此在选择用户时,倾向于选择有着更高效率值的用户。具体的密度阈值更新算法如下所示。
密度阈值更新算法:
输入:阶段-预算B',采样集合S′,当前时间阶段Tk
输出:密度阈值ρ
在密度阈值算法中,输入的参数是任务发布方提交的预算B',采样的集合S',还有当前阶段的开始时间Tk定义用户的效率为效率越大越有可能被平台选中。在本文中,我们假定每一个用户的效率是有上下边界的,现实情况中也更加符合,同时也为了我们后续的属性证明。我们假设阈值更新算法依次选择效用值高的用户将用户集合放入在选择效用值高的用户需要满足预算受限的条件,即;
本算法的根本目的是计算每一阶段的阈值,在这里,我们定义阈值为和每一阶段的平均效用值成一个比例。
定义1:如果按照效用进行排列的用户满足并且此场拍卖的预算为B,那么如果对于两个用户x和y,满足并且那么
证明:因为所以成立。
那么;
从定义1可以知道,在阈值算法中,如果while循环在用户i处不再满足预算条件,则不需要再考虑其他效用值比用户i低的用户j。因为可以推断出
(2)信誉值阈值的更新;
想要参与竞标的用户的信誉值更新后,将会与参与竞标选择的阈值进行比较,只有高于该阈值的用户才能继续参与竞标。由于本发明考虑的是用户可以多次参与竞标的情况,因此初次来到系统参与竞标的用户赋予的初始化信誉值为系统的信誉值阈值,当获胜集合中,重复来到的用户的个数占总用户个数的50%及以上时,需要更新信誉值阈值,信誉值的阈值定义为选中集合中所有用户信誉值的平均值,即;
(3)QOM算法(Quality-Based Online Mechanisms);
前面介绍了计算阈值的方法,是为了在每个阶段开始的时候,计算密度阈值,指导平台选择用户的子集。首先,把时间T划分成l个时间段每一阶段以结尾。相应的,每一个阶段分配的预算是Bk=2-kB。其中Ti表示在该时刻之前用户到达的概率是2-k。对于每一个时间段Ti,按照上述的阈值更新算法计算阈值。具体的基于质量的在线激励算法如下所示。
基于质量在线激励算法;
输入:阶段预算B,截止时间T
在每一个阶段内,如果有用户到达,将其加入集合O中,这里,集合O中包含的用户是已经到达但是还没有被选择或者已经离开此次竞拍活动。并从数据库中读取是否存在此用户上次参与此次感知任务的信誉值更新数据。若有的话,将新的信誉值赋值给该用户之后再进行后续选择过程。如果没有更新信誉值信息,则以之前不变的信誉值和价值参与选择过程。如果当前用户满足效率值高于阈值,并且目前平台总的花费没有超过预算B,同时用户的信誉值高于阈值则选择该用户,将其加入获胜者集合W,并给该用户支付报酬如果上述三个条件中有一项没有满足的话,则该用户则会等待下一时刻的选择判断。如果当前时间等于则按照之前所述的阈值更新算法更新密度阈值。如果当前已经选择的用户,即集合W中的重复到达用户占所有被选中用户的比例≥0.5,则更新信誉值阈值为重复该过程,直到t=T。
本发明具体实施例如下:
实施例1:本例根据提出的基于信誉的在线激励机制,在Eclipse和Matlab环境下进行了如下的仿真,研究预算B与平台获得的总价值之间的关系。
实验环境:Eclipse、MATLAB2017b Windows10,
实验数据:
设置截止时间T=50为,人数n=500,时间阶段l=4,用户的效率上下界分别为P=1,Q=2,初始密度阈值为ε=0.9,初始信誉值阈值μ=0.5。对每一个用户i而言,设置在T内随机产生到达和离开时间。并设置用户可以在离开之后再次进入系统。ci服从均匀分布U[1,10]。平台模拟对已选择数据进行[0,1]随机打分,用户的完成任务时间可靠性和图像大小可靠性也由收集数据的平台算出,综合考虑后计算出新的信誉值。此次模拟的预算取值范围是B∈[0,20000]。
实验分析:
我们将本文提出的基于质量的在线激励机制与离线算法,随机选择算法以及不考虑质量的在线激励算法进行了仿真比较。实验结果图如图3中所示。离线的模型,由于事先知道所有用户的信息进行计算,在离线条件下有着最好的性能,本发明提出的考虑信誉更新的在线激励机制,在同样预算的情况下,较之于一般的在线激励机制来说,能获得更大的价值增益,而且随着预算的增加,价值的增益差距也越来越大,这是由于预算越大,能够选择的高质量用户响应比例也会提高。因此能够为平台带来更大的价值。
实施例2:本例根据提出的基于信誉的在线激励机制,为了验证本发明提出的信誉机制在甄别恶意用户上比一般的在线激励机制有更好的效果,在MATLAB环境下进行了如下仿真
实验环境:Eclipse,MATLAB2017b Windows10
实验数据:
截止时间T=180s;任务数m=5;预算B=60
用户依据泊松过程到达,到达率为λ,初始设定λ=0.2。对于每一个用户i,设置ai=di, ci服从均匀分布U[1,10],初始设置δ=2。
平台模拟每10s生成一个信誉值很低的用户模拟恶意用户,该用户竞标资料可以表示为θi={10n,10n,1,Qi,0}0≤n≤18且n∈Z+生成该恶意用户可以看成是检验平台对低质量用户的处理能力。
实验分析:
实验结果如图4所示,本发明提出的给予信誉更新的在线激励机制在过滤恶意用户方面有着很好的结果,能识别出恶意的用户,减少其对系统的损害,从而提高雇佣效率。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。
Claims (3)
1.结合信誉更新的移动群智感知在线激励方法,具体步骤如下,其特征在于:
1)系统建模;
对于一个移动群智感知系统,主要有三种角色:任务发布方,平台方和用户;任务发布方首先向平台方提交需要发布的一系列公开的异构感知任务Q={q1,q2,...,qm},以及完成任务的总预为B和雇佣用户的截止时间T以及一些有关质量评分的要求,平台方接受到需要的采集任务信息之后,向广大用户发布感知任务以及用户需要提交的信息内容说明。对此次感知任务感兴趣的用户U={1,2,...,n}在线随机到达,并向平台方提交他们参与完成任务的资料信息,用户通过无线网络或蜂窝网络与平台进行通信;
每个用户i若初次到达系统,则会赋予一个初始的信誉值ηi,平台唯一化记录用户i∈U的id,再用户下一次到达系统时读取用户上一次参与选择后的信誉记录,并按照更新法则进行更新,参与此次竞标,如果用户宣称完成了任务,并通过算法筛选,被平台选择,平台方会接受任务发布方对用户提供数据质量的反馈,并以此为依据,在用户下一次登录系统竞标时更新其信誉值,作为参与完成任务的资料信息之一;
平台所要求的用户i提交的参与任务资料是一个五元函数θi={ai,di,ci,vi,ηi},这里ai∈{1,2,...,T}表示到达时间,di∈{1,2,...,T}表示离开时间,ci是完成一个感知任务真实的成本,vi表示用户i可以为任务发布方带来的价值,ηi为用户i当前的信誉值,用户参与感知任务以及平台选择用户子集的过程可以建模成一个在线的拍卖过程,用户决定参与此次任务之后,会向平台端提交参与任务的资料信息,接着,平台需要做一个在线的及时判断,决定是否雇佣该用户,如果该用户被选择,平台需要支付给用户的报酬pi,同时接受任务发布方反馈的用户提供数据质量打分,并根据上传数据的一些属性计算客观评价分值,综合考虑主客观的分值,以供下次更新信誉值,注意任务发布方有一个总的预算B作为可以支付给选择用户的最大报酬,任务发布方期望在给定的预算和得到一定数据质量保证的前提下,最大化从用户方得到的总价值;
用户在线到达参与竞标的过程可以看成是一场博弈,用户会有策略的提交他们的竞标资料去最大化可能得到的回报,当与任务发布方互动时,用户i真实的成本和到达、离开时间是非公开的,仅被用户本身所知,用户i只能有策略地操作自己的竞标价格以获得更高的效用,平台端基于用户的竞标资料通过激励算法选择获胜用户,并通过计算,给予获胜用户报酬pi;
2)信誉评价机制;
对于平台方而言,存在每次选择用户的信誉值的阈值标准,平台选择用户信誉值的阈值为对于初次参与感知任务的用户来说,将初始化的信誉值设定系统在当前时刻的信誉值的阈值规定用户的信誉值η的取值是有上下界的,即η∈[0,ξ],ξ为用户信誉值的上界,用户如果更新完信誉值之后信誉值为负数,认为该用户的信誉值为最小值0,φ(ηi,Rm)表示更新后用户的信誉值ηi *,其中ηi为用户i当前的信誉值,Rm为用户上一次参与竞标后得到的基于数据质量的信誉综合评分,用户参与此次竞标的信誉值ηi *=φ(ηi,Rm)的评定需要综合任务发布方对用户的打分反馈ζi,以及客观影响因素:完成时间可靠性ωi,和图片收集任务要求的图片大小可靠性共同决定,采用主客观因素综合考虑,分类分级赋值,建立信誉评价规则,为了使信誉分更加具有直观的现实意义,将信誉分计算体系建模成一个模糊系统;
(a)任务发布方打分ζi;
ζi为任务发布方对用户完成质量的考量,其中ζi∈[0,1],ζi越大表示任务发布方对用户的满意度越高,由任务发布方反馈的打分,作为综合评定的主观因素之一,考虑了任务发布方的主观反馈,对数据质量的把控上起到了主观选择的作用,在[0,1]中定义三个集合:其中打分分值落在[0,0.3)表示“低”用L代替,分值落在[0.3,0.7)表示“中”用M代替,分值落在[0.7,1]表示“高”用H代替;
(b)完成任务时间的可靠性ωi;
用户在参与任务之前会提交自己相关参与资料,由于考虑的是在线场景,所以资料中需包含用户的到达时间ai∈{1,2,...,T}和离开时间di∈{1,2,...,T},时间的可靠性ωi定义为用户完成时间与任务发布方要求的总的完成时长的重叠时间的比值,该值越大,表明用户花费了相对更多的时间完成任务,因此可靠性相应的也应越大,定义客观的完成任务时间可靠性为;
其中T表示整个过程的截止时间。显然ωi的取值范围在[0,1],同样,将ωi的取值范围定义成三个集合模糊建模:其中ωi∈[0,0.3)表示“低”用L代替,ωi∈[0.3,0.7)表示“中”用M代替,ωi∈[0.7,1]表示“高”用H代替;
(c)图像大小可靠性
针对一些具体的情况,例如收集图片的感知任务,了解收集图片的质量一个很重要的方面就是图像的大小以及像素等指标,假设任务要求上传的图片的大小为将实际用户的上传图片的大小χi与要求的大小的距离占要求大小的比例表示为图片大小的可靠性;
显然的取值范围在[0,1],同样,将的取值范围定义成三个集合模糊建模:其中表示“低”用L代替,表示“中”用M代替,表示“高”用H代替;
则计算更新的用户信誉分数Rm可以使用如下模糊规则,其中为系统当前时间阶段的信誉阈值;
平台统计上述三个方面的分数,并根据取值范围进行模糊对应,统计L和H的个数,并根据模糊规则计算信誉分数,用户带着自己的参与资料,参与平台的选择,每次用户到达平台,提交数据的时候,平台会根据上一次用户的质量记录,更新用户的信誉值作为参与后续竞选的参数之一,其具体的更新规则如下所示,其中Rm表示若存在的之前的信誉更新值:
每当用户到达提交竞标资料,信誉值ηi *作为竞标资料之一,提交给平台,若用户之前参与过竞标且被任务发布方选中,有相应信誉值更新情况,平台在竞标前根据更新法则计算用户新的信誉值ηi *参与此次的竞标,若之前没有参与过提交资料过程,则信誉值设置为初始值若上一轮的竞标未获胜,信誉值维持不变。
2.根据权利要求1所述的结合信誉更新的移动群智感知在线激励方法,其特征在于:步骤一筛选算法如下:
用户i在线的到达参与竞标,提交竞标资料θi={ai,di,ci,vi,ηi},平台需要在用户离开时间di之前,根据用户提供的竞标资料决定是否雇佣该用户,获胜者用户的集合表示为W,用V(W)表示任务发布方选择用户子集W的价值函数,那么;
对于任务发布方来说,希望在预算B限制的情况下,通过选取用户子集,尽可能获得最大的价值,即,
3.根据权利要求1所述的结合信誉更新的移动群智感知在线激励方法,其特征在于:步骤二标准算法如下:
(1)密度阈值更新算法:
为了给平台在选择用户时有提供一个统一的标准,在每一阶段开始的时候需要执行阈值更新算法,算法的核心在于从采样集合中分析计算,在每个时间阶段开始的时候,根据密度阈值更新算法计算该阶段的密度阈值,平台将每个用户的效率值与计算得到的该阶段的密度阈值进行比较,作为选择用户子集的标准,对于平台方来说,目标是最大化能获得的价值,因此在选择用户时,倾向于选择有着更高效率值的用户,具体的密度阈值更新算法如下所示;
密度阈值更新算法:
输入:阶段-预算B',采样集合S′,当前时间阶段Tk;
输出:密度阈值ρ;
首先赋值
符合条件时;
则
如果满足
那么
否则退出循环;
返回阈值
在密度阈值算法中,输入的参数是任务发布方提交的预算B',采样的集合S',还有当前阶段的开始时间Tk定义用户的效率为效率越大越有可能被平台选中,假定每一个用户的效率是有上下边界的,假设 阈值更新算法依次选择效用值高的用户将用户集合放入在选择效用值高的用户需要满足预算受限的条件,即;
本算法的根本目的是计算每一阶段的阈值,在这里定义阈值为和每一阶段的平均效用值成一个比例;
定义1:如果按照效用进行排列的用户满足并且此场拍卖的预算为B,那么如果对于两个用户x和y,满足并且那么
证明:因为所以成立;
那么;
从定义1可以知道,在阈值算法中,如果while循环在用户i处不再满足预算条件,则不需要再考虑其他效用值比用户i低的用户j,因为可以推断出
(2)信誉值阈值的更新;
想要参与竞标的用户的信誉值更新后,将会与参与竞标选择的阈值进行比较,只有高于该阈值的用户才能继续参与竞标,由于考虑的是用户可以多次参与竞标的情况,因此初次来到系统参与竞标的用户赋予的初始化信誉值为系统的信誉值阈值,当获胜集合中,重复来到的用户的个数占总用户个数的50%及以上时,需要更新信誉值阈值,信誉值的阈值定义为选中集合中所有用户信誉值的平均值,即;
(3)QOM算法;
计算密度阈值后指导平台选择用户的子集,首先,把时间T划分成l个时间段每一阶段以结尾,相应的,每一个阶段分配的预算是Bk=2-kB。其中Ti表示在该时刻之前用户到达的概率是2-k,对于每一个时间段Ti,按照上述的阈值更新算法计算阈值,具体的基于质量的在线激励算法如下所示;
基于质量在线激励算法;
输入:阶段预算B,截止时间T
首先赋初始值
从t=1到T做循环;
如果满足用户i在t时刻到达then;
那么将用户加入集合O中,即O←O∪{i};
对于每一个在结合O中的用户i来说;
如果储存用户信誉值数据库存在更新记录;
那么更新信誉值ηi=ηi *;
如果满足那么;
给予用户报酬
在获胜集合中加入用户i,W←W∪{i};
更新在线集合O,O←O\W;
若有用户在时间t离开,从o中移除该用户,并将该用户加入采样集合S';
如果时间满足
则使用密度更新算法更新阈值ρ←密度阈值更新(Bk,Tk,S');
赋值Tk=2Tk,Bk=2Bk继续循环;
如果W集合中重复到达的用户占所有被选中用户比例≥0.5;
更新信誉值密度
在每一个阶段内,如果有用户到达,将其加入集合O中,这里,集合O中包含的用户是已经到达但是还没有被选择或者已经离开此次竞拍活动,并从数据库中读取是否存在此用户上次参与此次感知任务的信誉值更新数据,若有的话,将新的信誉值赋值给该用户之后再进行后续选择过程,如果没有更新信誉值信息,则以之前不变的信誉值和价值参与选择过程,如果当前用户满足效率值高于阈值,并且目前平台总的花费没有超过预算B,同时用户的信誉值高于阈值则选择该用户,将其加入获胜者集合W,并给该用户支付报酬如果上述三个条件中有一项没有满足的话,则该用户则会等待下一时刻的选择判断,如果当前时间等于则按照之前所述的阈值更新算法更新密度阈值。如果当前已经选择的用户,即集合W中的重复到达用户占所有被选中用户的比例≥0.5,则更新信誉值阈值为重复该过程,直到t=T。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810015963.7A CN108364190B (zh) | 2018-01-08 | 2018-01-08 | 结合信誉更新的移动群智感知在线激励方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810015963.7A CN108364190B (zh) | 2018-01-08 | 2018-01-08 | 结合信誉更新的移动群智感知在线激励方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108364190A true CN108364190A (zh) | 2018-08-03 |
CN108364190B CN108364190B (zh) | 2021-08-13 |
Family
ID=63011142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810015963.7A Active CN108364190B (zh) | 2018-01-08 | 2018-01-08 | 结合信誉更新的移动群智感知在线激励方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108364190B (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109272193A (zh) * | 2018-08-13 | 2019-01-25 | 华中师范大学 | 一种基于众智任务的用户置信度分析方法及系统 |
CN109408228A (zh) * | 2018-09-30 | 2019-03-01 | 陕西师范大学 | 基于预算调配的群智感知任务分配方法 |
CN109447489A (zh) * | 2018-11-02 | 2019-03-08 | 华东交通大学 | 群智感知用户的选择方法、装置、电子设备及存储介质 |
CN109711720A (zh) * | 2018-12-25 | 2019-05-03 | 西安交通大学深圳研究院 | 一种应用于群智感知的数据质量评估方法 |
CN109784741A (zh) * | 2019-01-23 | 2019-05-21 | 北京理工大学 | 一种基于信誉预测的移动群智感知系统奖励分发方法 |
CN109960583A (zh) * | 2019-01-28 | 2019-07-02 | 福建师范大学 | 一种面向任务需求的选择激励的方法及终端 |
CN110210903A (zh) * | 2019-05-31 | 2019-09-06 | 南京邮电大学 | 一种基于用户位置与信誉度的群智感知激励方法 |
CN111400485A (zh) * | 2018-12-28 | 2020-07-10 | 罗伯特·博世有限公司 | 用于诊断和维修的进入半众源非结构化数据摘录中的领域知识注入 |
CN111985856A (zh) * | 2020-09-11 | 2020-11-24 | 武汉空心科技有限公司 | 一种基于互联网平台的交付结果评估系统及评估方法 |
CN112288241A (zh) * | 2020-10-14 | 2021-01-29 | 南京邮电大学 | 一种基于细粒度声誉系统的群智感知激励方法 |
CN112950251A (zh) * | 2021-05-11 | 2021-06-11 | 北京航空航天大学 | 一种基于信誉的车辆群智感知节点反向组合拍卖激励优化方法 |
CN113077327A (zh) * | 2021-04-09 | 2021-07-06 | 东华大学 | 一种去中心化群智感知系统中的分布式最优拍卖方法 |
CN113139792A (zh) * | 2021-04-27 | 2021-07-20 | 陕西师范大学 | 基于群智感知技术的特定物资收集方法 |
CN113222720A (zh) * | 2021-05-17 | 2021-08-06 | 陕西师范大学 | 一种基于信誉的隐私保护激励机制方法、装置及存储介质 |
CN113592610A (zh) * | 2021-05-14 | 2021-11-02 | 南京航空航天大学 | 基于模糊控制的信誉更新移动群智感知激励方法 |
CN113592327A (zh) * | 2021-08-05 | 2021-11-02 | 中国地质大学(武汉) | 车联网中针对任务分发的在线车辆选择方法、系统及终端 |
CN114742583A (zh) * | 2022-03-30 | 2022-07-12 | 西安电子科技大学 | 一种质量保障型的车联网群智感知激励方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103870990A (zh) * | 2014-03-31 | 2014-06-18 | 上海交通大学 | 移动群智感知系统中覆盖问题的激励机制实现方法 |
CN104657133A (zh) * | 2015-01-28 | 2015-05-27 | 南京邮电大学 | 移动群智感知中一种用于单时间窗口任务的激励方法 |
-
2018
- 2018-01-08 CN CN201810015963.7A patent/CN108364190B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103870990A (zh) * | 2014-03-31 | 2014-06-18 | 上海交通大学 | 移动群智感知系统中覆盖问题的激励机制实现方法 |
CN104657133A (zh) * | 2015-01-28 | 2015-05-27 | 南京邮电大学 | 移动群智感知中一种用于单时间窗口任务的激励方法 |
Non-Patent Citations (2)
Title |
---|
吴垚: "群智感知激励机制研究综述", 《软件学报》 * |
张宁 等: "基于信誉模型的群智感知网络用户参与激励机制", 《计算机应用与软件》 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109272193A (zh) * | 2018-08-13 | 2019-01-25 | 华中师范大学 | 一种基于众智任务的用户置信度分析方法及系统 |
CN109408228A (zh) * | 2018-09-30 | 2019-03-01 | 陕西师范大学 | 基于预算调配的群智感知任务分配方法 |
CN109408228B (zh) * | 2018-09-30 | 2019-10-15 | 陕西师范大学 | 基于预算调配的群智感知任务分配方法 |
CN109447489A (zh) * | 2018-11-02 | 2019-03-08 | 华东交通大学 | 群智感知用户的选择方法、装置、电子设备及存储介质 |
CN109447489B (zh) * | 2018-11-02 | 2020-10-30 | 华东交通大学 | 群智感知用户的选择方法、装置、电子设备及存储介质 |
CN109711720B (zh) * | 2018-12-25 | 2021-03-09 | 西安交通大学深圳研究院 | 一种应用于群智感知的数据质量评估方法 |
CN109711720A (zh) * | 2018-12-25 | 2019-05-03 | 西安交通大学深圳研究院 | 一种应用于群智感知的数据质量评估方法 |
CN111400485A (zh) * | 2018-12-28 | 2020-07-10 | 罗伯特·博世有限公司 | 用于诊断和维修的进入半众源非结构化数据摘录中的领域知识注入 |
CN109784741A (zh) * | 2019-01-23 | 2019-05-21 | 北京理工大学 | 一种基于信誉预测的移动群智感知系统奖励分发方法 |
CN109960583A (zh) * | 2019-01-28 | 2019-07-02 | 福建师范大学 | 一种面向任务需求的选择激励的方法及终端 |
CN109960583B (zh) * | 2019-01-28 | 2022-10-28 | 福建师范大学 | 一种面向任务需求的选择激励的方法及终端 |
CN110210903A (zh) * | 2019-05-31 | 2019-09-06 | 南京邮电大学 | 一种基于用户位置与信誉度的群智感知激励方法 |
CN110210903B (zh) * | 2019-05-31 | 2022-07-29 | 南京邮电大学 | 一种基于用户位置与信誉度的群智感知激励方法 |
CN111985856A (zh) * | 2020-09-11 | 2020-11-24 | 武汉空心科技有限公司 | 一种基于互联网平台的交付结果评估系统及评估方法 |
CN112288241A (zh) * | 2020-10-14 | 2021-01-29 | 南京邮电大学 | 一种基于细粒度声誉系统的群智感知激励方法 |
CN112288241B (zh) * | 2020-10-14 | 2022-08-26 | 南京邮电大学 | 一种基于细粒度声誉系统的群智感知工人选择方法 |
CN113077327A (zh) * | 2021-04-09 | 2021-07-06 | 东华大学 | 一种去中心化群智感知系统中的分布式最优拍卖方法 |
CN113139792A (zh) * | 2021-04-27 | 2021-07-20 | 陕西师范大学 | 基于群智感知技术的特定物资收集方法 |
CN113139792B (zh) * | 2021-04-27 | 2023-05-26 | 陕西师范大学 | 基于群智感知技术的特定物资收集方法 |
CN112950251A (zh) * | 2021-05-11 | 2021-06-11 | 北京航空航天大学 | 一种基于信誉的车辆群智感知节点反向组合拍卖激励优化方法 |
CN112950251B (zh) * | 2021-05-11 | 2024-01-26 | 北京航空航天大学 | 一种基于信誉的车辆群智感知节点反向组合拍卖激励优化方法 |
CN113592610A (zh) * | 2021-05-14 | 2021-11-02 | 南京航空航天大学 | 基于模糊控制的信誉更新移动群智感知激励方法 |
CN113222720A (zh) * | 2021-05-17 | 2021-08-06 | 陕西师范大学 | 一种基于信誉的隐私保护激励机制方法、装置及存储介质 |
CN113222720B (zh) * | 2021-05-17 | 2023-10-17 | 陕西师范大学 | 一种基于信誉的隐私保护激励机制方法、装置及存储介质 |
CN113592327A (zh) * | 2021-08-05 | 2021-11-02 | 中国地质大学(武汉) | 车联网中针对任务分发的在线车辆选择方法、系统及终端 |
CN114742583A (zh) * | 2022-03-30 | 2022-07-12 | 西安电子科技大学 | 一种质量保障型的车联网群智感知激励方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108364190B (zh) | 2021-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108364190A (zh) | 结合信誉更新的移动群智感知在线激励方法 | |
Ketter et al. | A multiagent competitive gaming platform to address societal challenges | |
Tellidou et al. | Agent-based analysis of capacity withholding and tacit collusion in electricity markets | |
CN103647671B (zh) | 一种基于Gur Game的群智感知网络管理方法及其系统 | |
CN109583904A (zh) | 异常操作检测模型的训练方法、异常操作检测方法及装置 | |
Xie et al. | Incentive mechanism and protocol design for crowdsourcing systems | |
CN107958317A (zh) | 一种众包项目中选取众包参与人的方法和装置 | |
CN104573998B (zh) | 求职数据的处理方法和装置 | |
CN107547214A (zh) | 基于电子书的群组阅读方法、电子设备及计算机存储介质 | |
CN109068288A (zh) | 一种基于多属性用户选择移动群智感知激励机制的方法及系统 | |
Chen et al. | An approach to complex agent-based negotiations via effectively modeling unknown opponents | |
CN107784561A (zh) | 一种移动众包系统中在线激励机制的实现方法 | |
CN108038622A (zh) | 一种群智感知系统推荐用户方法 | |
CN112950251A (zh) | 一种基于信誉的车辆群智感知节点反向组合拍卖激励优化方法 | |
CN106776941A (zh) | 一种基于众包模式的推荐有效解答者的方法 | |
CN108364198A (zh) | 一种基于社交网络的移动众包在线激励方法 | |
CN114971819A (zh) | 基于多智能体强化学习算法在联邦学习下的用户竞价方法及装置 | |
Chaudhari et al. | Analyzing participant behaviors in design crowdsourcing contests using causal inference on field data | |
Niu et al. | A grey-box approach to automated mechanism design | |
Xie et al. | Incentive and reputation mechanisms for online crowdsourcing systems | |
CN109636484A (zh) | 一种基于行为经济学偏好理论的群智感知系统的激励方法 | |
Noori et al. | An agent-based model for water allocation optimization and comparison with the game theory approach | |
Du et al. | A review of cooperation in multi-agent learning | |
Peleteiro et al. | Using reputation and adaptive coalitions to support collaboration in competitive environments | |
CN108764985A (zh) | 打赏方法、装置及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |