CN109242533A - 基于拍卖理论的车联网群智感知用户的在线激励方法 - Google Patents
基于拍卖理论的车联网群智感知用户的在线激励方法 Download PDFInfo
- Publication number
- CN109242533A CN109242533A CN201810880642.3A CN201810880642A CN109242533A CN 109242533 A CN109242533 A CN 109242533A CN 201810880642 A CN201810880642 A CN 201810880642A CN 109242533 A CN109242533 A CN 109242533A
- Authority
- CN
- China
- Prior art keywords
- user
- winner
- threshold value
- remuneration
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008447 perception Effects 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims abstract description 19
- 230000006855 networking Effects 0.000 title claims abstract description 17
- 230000006870 function Effects 0.000 claims abstract description 14
- 230000007246 mechanism Effects 0.000 claims description 29
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000001568 sexual effect Effects 0.000 claims description 6
- 230000009897 systematic effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 10
- 230000008901 benefit Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 230000001681 protective effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0208—Trade or exchange of goods or services in exchange for incentives or rewards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0225—Avoiding frauds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0239—Online discounts or incentives
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/08—Auctions
-
- G06Q50/40—
Abstract
本发明涉及一种基于拍卖理论的车联网群智感知用户的在线激励方法,包括S1:根据车辆为基础的群智感知场景进行数学建模;S2:设计系统收益、用户收益以及约束下的目标函数;S3:在第一个时隙预设一个作为挑选用户依据的阈值,对于进入模型的车辆用户,根据用户的报价和用户的贡献率之比得到的性价比与阈值进行比较,挑选性价比大于阈值且系统剩余预算足够支付用户报酬的赢家,并以用户的贡献率与阈值的乘积作为用户该轮的报酬;S4:在每一个时隙结束时,将离开系统的车辆用户作为样本计算作为新的阈值;S5:将尚未离开系统且不是赢家的用户重新加入一个候选集,用新的阈值在下一轮开始之前继续挑选赢家,并重新计算赢家报酬,使得赢家得到最高报酬。
Description
技术领域
本发明涉及一种基于拍卖理论的车联网群智感知用户的在线激励方法.
背景技术
移动群智感知是一种新的感知模式,每个连接到它的感知设备都能通过网络传输数据给它,此外,它能够通过雇佣一批几乎不需要专业知识的普通用户就能实现大量感知数据的收集,完成大规模、较复杂的感知任务。
为群智感知情景设计的激励机制主要分为在线激励机制和离线激励机制两种。在离线激励机制中,系统能够提前获得所用参与用户的信息,系统在获取用户信息根据目标函数选择一批用户完成感知任务。近些年来,在线激励机制颇受关注。在在线激励机制中,系统不能提前知道用户的信息,陆续进入系统的用户在进入系统之后才报上信息,系统只能在不知道未来进入系统的用户信息的情况下决定是否雇佣这个用户。显然,相对于离线激励机制,在线激励机制雇佣用户的风险更高,计算报酬的难度更大,但是在线激励机制也更符合实际情况。
发明内容
有鉴于此,本发明的目的在于提供一种基于拍卖理论的车联网群智感知用户的在线激励方法,结合拍卖理论,以提高群智感知中系统的收益。
为实现上述目的,本发明采用如下技术方案:
一种基于拍卖理论的车联网群智感知用户的在线激励方法,包括以下步骤:
步骤S1:根据车辆为基础的群智感知场景进行数学建模,建立有限定时间和预算且系统要求完成的任务有空间和时间维度的模型;
步骤S2:结合包括任务具有时间和空间维度、用户能够在不同时间完成不同任务、系统具有时间和预算约束,设计系统收益、用户收益以及约束下的目标函数;
步骤S3:在第一个时隙预设一个作为挑选用户依据的阈值,对于进入模型的车辆用户,根据用户的报价和用户的贡献率之比得到的性价比与阈值进行比较,挑选性价比大于阈值且系统剩余预算足够支付用户报酬的赢家,并以用户的贡献率与阈值的乘积作为用户该轮的报酬;
步骤S4:在每一个时隙结束时,将离开系统的车辆用户作为样本计算作为新的阈值;
步骤S5:将尚未离开系统且不是赢家的用户重新加入一个候选集,用新的阈值在下一轮开始之前继续挑选赢家,并重新计算赢家报酬,使得赢家得到最高报酬。
进一步的,所述步骤S1具体为:
步骤S11:群智感知中的数据采集部分分为三个部分:
(1)、群智感知平台发布具有时间和空间维度的任务;
(2)、平台收集感兴趣且能够做任务的用户的类型;
(3)、使用含有挑选赢家部分和报酬计算部分的激励机制选择赢家并计算给赢家的报酬;
步骤S12:群智感知平台发布的任务建模成一共有T个时隙,m个任务点,建模成一个T行m列的矩阵。
进一步的,所述步骤2具体为:
步骤S21:设定用户的收益函数是:
其中S表示赢家集合,pi是平台给赢家i的报酬,ci是用户做任务的成本;
步骤S22:设定赢家的总贡献率函数:
其中Rtj表示任务j在时隙t要求被覆盖的次数;
步骤S23:收集能够做任务的用户的类型数据
步骤S24:用户的边际贡献率记为:r'i(D)=R(D∪{i})-R(D),其中R(D∪{i})表示用户集合D和用户i完成的贡献率,R(D)表示用户集合D完成的贡献率;
步骤S25:得到目标函数:
max imize R(S)
表示在系统预算有限且用户收益大于0的约束下最大化所有赢家的贡献率之和。
进一步的,所述类型数据包括:到达时间ai,离开时间di,能做的任务矩阵vi,报价bi;其中vi是一个T行m列的矩阵,表示用户i能否在时隙t内覆盖任务点j。
进一步的,所述步骤S3具体为:
步骤S31:进入系统的新用户加入集合O,候选用户集为O'=O\S,其中集合S为赢家用户集合;
步骤S32:迭代选择贡献率ri'(S)最高的用户,将此用户的性价比与预设的阈值ρ对比,当性价比高于阈值且系统将要支付给这个赢家的报酬小于系统剩余预算时系统选择以价格雇佣此用户;
步骤S33:在每个时隙最后把离开系统的用户加入样本集S',用这个样本集S'和本阶段的阶段预算更新计算下一阶段的阈值,更新阶段预算为
步骤S34:对于还留在系统的用户,用更新后的阈值选择赢家并计算报酬当时,用户i被选为赢家且报酬为r'i(S\{i})/ρ。
进一步的,所述步骤S4具体为:
步骤S41:将离开系统的用户加入样本集记为S’;
步骤S42:依次选择性价比最高的用户即选择值最大的用户,把相应用户的性价比与赢家集D整体性价比进行对比,若用户性价比高于赢家集D整体性价比则该用户被选入赢家集D.
步骤S43:依次选择直到用户性价比低于赢家集D的整体性价;得到赢家数为|D|的赢家集合,记最后一个赢家的性价比为则阈值
本发明与现有技术相比具有以下有益效果:
本发明基于拍卖理论面向时间敏感型车联网群智感知用户的在线激励机制具有计算有效性,个体理性,用户权益有保障性,预算有效性,真实性,提高实际经济效益。
附图说明
图1是本发明车辆群智感知系统与用户交互过程的图示。
图2是本发明的机制与其他算法机制在系统预算B的情况下的对比示意图。
图3是本发明一实施例中的满足真实性的示意图
图4是本发明一实施例中的满足真实性的示意图。
图5是本发明的机制与其他算法机制在不同的到达率的情况下的对比示意图。
图6是本发明总体设计路线图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种基于拍卖理论的车联网群智感知用户的在线激励方法,包括以下步骤:
步骤S1:对以车辆为基础的群智感知场景进行数学建模,建立出系统有限定时间和预算且系统要求完成的任务有空间和时间维度的模型。
群智感知中的数据采集部分主要分为三个步骤:
阶段1:群智感知平台发布具有时间和空间维度的任务。
阶段2:感兴趣且能够做任务的用户向平台汇报自己的类型。
阶段3:使用含有挑选赢家部分和报酬计算部分的机制选择赢家并计算给赢家的报酬。
群智感知平台发布的任务建模成一共有T个时隙,m个任务点,建模成一个T行m列的矩阵Γ=[[τ11,τ12,...,τ1m],...,[τT1,τT2,...,τTm]]。感兴趣且能够做任务的用户向平台汇报自己的类型其中表示用户i汇报的到达时间,但是由于用户具有博弈思维,因此这个到达时间并不一定等于用户的真实到达时间ai,同样的,用户汇报的离开时间也不需要等于真实离开时间di,bi表示用户的报价也不一定等于用户完成所有汇报的任务的成本ci。另外,vi表示表示用户i能完成的任务,是一个T行m列的矩阵 表示用户能够在时间t经过地点j即完成这个任务。
步骤S2:结合包括任务具有时间和空间维度、用户能够在不同时间完成不同任务、系统具有时间和预算约束等实际情况设计系统收益、用户收益以及约束下的目标函数。以及确定所设计的机制应该满足的性质。
用户的收益函数是:其中S表示赢家集合,pi是平台给赢家i的报酬,ci是用户做任务的成本。
赢家的总贡献率函数:其中S表示赢家集合,Rtj表示任务j在时隙t要求被覆盖的次数。用户在表明自己能够做任务的时候需要向系统汇报自己的类型,类型包括:到达时间ai,离开时间di,能做的任务矩阵vi,报价bi。vi也是一个T行m列的矩阵,表示用户i能否在时隙t内覆盖任务点j。
用户的边际贡献率记为:r'i(D)=R(D∪{i})-R(D),其中R(D∪{i})表示用户集合D和用户i完成的贡献率,R(D)表示用户集合D完成的贡献率。
目标函数:表示在系统预算有限且用户收益大于0的约束下最大化所有赢家的贡献率之和。
步骤S3:对于进入系统的车辆用户,根据用户的报价和用户的贡献率之比得到的性价比与阈值进行比较,挑选性价比大于阈值且系统剩余预算足够支付用户报酬的赢家,并以用户的贡献率与阈值的乘积作为用户该轮的报酬。
进入系统的新用户被加入集合O,候选用户集为O'=O\S,其中集合S为赢家用户集合。
迭代选择贡献率ri'(S)最高的用户,将此用户的性价比与阈值ρ对比,当性价比高于阈值且系统将要支付给这个赢家的报酬小于系统剩余预算时系统选择以价格雇佣此用户。
在每个时隙最后把离开系统的用户加入样本集S',用这个样本集S'和本阶段的阶段预算更新计算下一阶段的阈值,更新阶段预算为
对于还留在系统的用户,用更新后的阈值选择赢家并计算报酬当时,用户i被选为赢家且报酬为r'i(S\{i})/ρ。
步骤S4:以离开系统的车辆用户作为样本计算作为下一轮挑选用户的性价比参考值的阈值。
离开系统的用户加入样本集记为S’,依次选择性价比最高的用户即选择值最大的用户,把相应用户的性价比与赢家集D整体性价比进行对比,若性价比较高则该用户被选入赢家集D。依次选择直到用户性价比低于赢家集D的整体性价比。得到赢家数为|D|的赢家集合,记最后一个赢家的性价比为则阈值
步骤S5:在每一个时隙(轮)结束后,把离开系统的用户加入样本集,使用步骤S3中的阈值算法更新阈值。用更新后的阈值重新计算每个未离开系统的用户是否达到性价比高于阈值的要求,并重新计算赢家报酬以保证赢家在离开系统之前得到的最高报酬。
为了让本领域技术人员进一步了解本发明所提出的激励方法,下面结合具体实施例作详细说明。
实施例1:
本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程。
如图1所示,为车辆群智感知系统与车辆用户的交互过程。
如图2所示,为发明的机制与其他算法机制在系统预算B的情况下的对比示意图。
本实施例包括如下具体步骤:
步骤一:在信息采集过程中,由云端的群智感知平台发布任务,这个一系列具有时间维度和空间维度的任务。总时隙为T=10,任务为m=20,系统预算为B取值从100到1600,每隔100取值一次,用户的到达时间满足泊松分布,λ=0.0125,用户的停留时间和要价分别满足均值分布(di-ai)~U[0,3],ci~U[1,9]。阈值初始值为ε=6。
步骤二:在每个时隙开始,进入系统的新用户被加入集合O,候选用户集为O'=O\S,其中集合S为赢家用户集合。迭代选择贡献率ri'(S)最高的用户,将此用户的性价比与阈值ρ对比,当性价比高于阈值且系统将要支付给这个赢家的报酬小于系统剩余预算时系统选择以价格雇佣此用户。在每个时隙最后把离开系统的用户加入样本集S',用这个样本集S'和本阶段的阶段预算更新计算下一阶段的阈值,更新阶段预算为对于还留在系统的用户,用更新后的阈值选择赢家并计算报酬当时,用户i被选为赢家且报酬为r'i(S\{i})/ρ。
步骤三:在每一个时隙(轮)结束后,把离开系统的用户加入样本集记为S’,依次选择性价比最高的用户即选择值最大的用户,把相应用户的性价比与赢家集D整体性价比进行对比,若性价比较高则该用户被选入赢家集D。依次选择直到用户性价比低于赢家集D的整体性价比。得到赢家数为|D|的赢家集合,记最后一个赢家的性价比为则阈值至此阈值得到更新。用更新后的阈值重新计算每个未离开系统的用户是否达到性价比高于阈值的要求,并重新计算赢家报酬以保证赢家在离开系统之前得到的最高报酬。
对比算法包括在线算法一随机在线算法、离线算法二为文献“The budgetedmaximum coverage problem”中的一个被改进过的贪心算法(离线)、离线算法三为文献“Budget feasible mechanisms”作者提出的算法(离线)。与其他算法对比,离线算法接近满足完成系统要求的所有任务,而我们的算法在脱离提前知道所有用户的这种相对不切合实际的假设之后依然能够在预算大于900以后保持大于160/200即80%以上的任务完成率,说明本发明的在线激励机制在面对时间敏感型的车联网群智感知场景时表现很好,具有一定的参考价值和实际经济效益。
如图3和图4所示,为反映本发明满足真实性的示意图。
本实施例包括如下具体步骤:
步骤一:本实施例中设置的预算B=1200,选取用户ID=150和ID=200的用户允许他们谎报自己的报价,其中他们的真实成本为c150=3,c200=4。示例图3中的曲线表明,用户150汇报真实价格b150=3时能够获得最高收益,同样的,用户200汇报真实价格b200=4时能够获得最高收益。而对于用户150当他的报价过高即报价为9时会出现因为性价比太低等原因被淘汰的情况,而当用户200报价太低即报价为1时虽然会因此成为赢家却只能获得负收益。因此,本发明的机制能够满足报价真实性这一性质。
步骤二:允许ID=300和ID=127的用户分别谎报到来时间和离开时间。其中用户300的真实到达时间是3,用户127的真实离开时间是6。示意图4(a)表明用户300真实汇报到达时间时能够获得最高收益,而示意图4(b)表明用户127汇报真实离开时间能获得最高收益。因此本发明的在线激励机制能够满足时间真实性这一性质。
如图5所示,为本发明的机制与其他算法机制在不同的到达率的情况下的对比示意图。
本实施例包括如下具体步骤:
步骤一:用户的到达时间同样满足泊松分布,为了表现用户到达率对机制的影响,设置取值为4到48,每隔4取一次。如图5所示,用户数越多任务贡献率越高,而且本发明的算法在用户数足够多的时候与完成所有任务的离线算法相比能够达到80%,说明我们的在线激励机制在用户数足够多的车联网群智感知场景下表现良好,具有一定的参考价值和实际经济效益。
上述分析说明,本发明所提出的基于拍卖理论面向时间敏感型车联网群智感知用户的在线激励机制具有计算有效性,个体理性,用户权益有保障性,预算有效性,真实性,具有一定的参考价值和实际经济效益。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (6)
1.一种基于拍卖理论的车联网群智感知用户的在线激励方法,其特征在于:包括以下步骤:
步骤S1:根据车辆为基础的群智感知场景进行数学建模,建立有限定时间和预算且系统要求完成的任务有空间和时间维度的模型;
步骤S2:结合包括任务具有时间和空间维度、用户能够在不同时间完成不同任务、系统具有时间和预算约束,设计系统收益、用户收益以及约束下的目标函数;
步骤S3:在第一个时隙预设一个作为挑选用户依据的阈值,对于进入模型的车辆用户,根据用户的报价和用户的贡献率之比得到的性价比与阈值进行比较,挑选性价比大于阈值且系统剩余预算足够支付用户报酬的赢家,并以用户的贡献率与阈值的乘积作为用户该轮的报酬;
步骤S4:在每一个时隙结束时,将离开系统的车辆用户作为样本计算作为新的阈值;
步骤S5:将尚未离开系统且不是赢家的用户重新加入一个候选集,用新的阈值在下一轮开始之前继续挑选赢家,并重新计算赢家报酬,使得赢家得到最高报酬。
2.根据权利要求1所述的基于拍卖理论的车联网群智感知用户的在线激励方法,其特征在于:所述步骤S1具体为:
步骤S11:群智感知中的数据采集部分分为三个部分:
(1)、群智感知平台发布具有时间和空间维度的任务;
(2)、平台收集感兴趣且能够做任务的用户的类型;
(3)、使用含有挑选赢家部分和报酬计算部分的激励机制选择赢家并计算给赢家的报酬;
步骤S12:群智感知平台发布的任务建模成一共有T个时隙,m个任务点,建模成一个T行m列的矩阵。
3.根据权利要求1所诉的基于拍卖理论的车联网群智感知用户的在线激励方法,其特征在于:所述步骤2具体为:
步骤S21:设定用户的收益函数是:
其中S表示赢家集合,pi是平台给赢家i的报酬,ci是用户做任务的成本;
步骤S22:设定赢家的总贡献率函数:
其中Rtj表示任务j在时隙t要求被覆盖的次数;
步骤S23:收集能够做任务的用户的类型数据
步骤S24:用户的边际贡献率记为:r'i(D)=R(D∪{i})-R(D),其中R(D∪{i})表示用户集合D和用户i完成的贡献率,R(D)表示用户集合D完成的贡献率;
步骤S25:得到目标函数:
max imize R(S)
表示在系统预算有限且用户收益大于0的约束下最大化所有赢家的贡献率之和。
4.根据权利要求3所述的基于拍卖理论的车联网群智感知用户的在线激励方法,其特征在于:所述类型数据包括:到达时间ai,离开时间di,能做的任务矩阵vi,报价bi;其中vi是一个T行m列的矩阵,表示用户i能否在时隙t内覆盖任务点j。
5.根据权利要求1所述的基于拍卖理论的车联网群智感知用户的在线激励方法,其特征在于:所述步骤S3具体为:
步骤S31:进入系统的新用户加入集合O,候选用户集为O'=O\S,其中集合S为赢家用户集合;
步骤S32:迭代选择贡献率ri'(S)最高的用户,将此用户的性价比与预设的阈值ρ对比,当性价比高于阈值且系统将要支付给这个赢家的报酬小于系统剩余预算时系统选择以价格雇佣此用户;
步骤S33:在每个时隙最后把离开系统的用户加入样本集S',用这个样本集S'和本阶段的阶段预算更新计算下一阶段的阈值,更新阶段预算为
步骤S34:对于还留在系统的用户,用更新后的阈值选择赢家并计算报酬当时,用户i被选为赢家且报酬为r'i(S\{i})/ρ。
6.根据权利要求1所述的基于拍卖理论的车联网群智感知用户的在线激励方法,其特征在于:所述步骤S4具体为:
步骤S41:将离开系统的用户加入样本集记为S’;
步骤S42:依次选择性价比最高的用户即选择值最大的用户,把相应用户的性价比与赢家集D整体性价比进行对比,若用户性价比高于赢家集D整体性价比则该用户被选入赢家集D.
步骤S43:依次选择直到用户性价比低于赢家集D的整体性价;得到赢家数为|D|的赢家集合,记最后一个赢家的性价比为则阈值
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810880642.3A CN109242533A (zh) | 2018-08-04 | 2018-08-04 | 基于拍卖理论的车联网群智感知用户的在线激励方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810880642.3A CN109242533A (zh) | 2018-08-04 | 2018-08-04 | 基于拍卖理论的车联网群智感知用户的在线激励方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109242533A true CN109242533A (zh) | 2019-01-18 |
Family
ID=65070693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810880642.3A Pending CN109242533A (zh) | 2018-08-04 | 2018-08-04 | 基于拍卖理论的车联网群智感知用户的在线激励方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109242533A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109872058A (zh) * | 2019-01-31 | 2019-06-11 | 南京工业大学 | 一种用于机器学习系统的多媒体群智感知激励方法 |
CN112950251A (zh) * | 2021-05-11 | 2021-06-11 | 北京航空航天大学 | 一种基于信誉的车辆群智感知节点反向组合拍卖激励优化方法 |
CN113379286A (zh) * | 2021-06-25 | 2021-09-10 | 华南理工大学 | 一种高精地图众包中基于参与者贡献的反向拍卖方法 |
CN114360244A (zh) * | 2021-12-21 | 2022-04-15 | 陕西师范大学 | 基于智能交通系统的多任务协同群智感知方法 |
CN115099535A (zh) * | 2022-08-24 | 2022-09-23 | 东南大学 | 一种双目标群智感知激励机制方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310349A (zh) * | 2013-06-14 | 2013-09-18 | 清华大学 | 一种基于在线激励机制的感知数据获取方法 |
CN107203934A (zh) * | 2017-05-26 | 2017-09-26 | 福州大学 | 群智感知不对称信息场景中的激励方法 |
CN107784561A (zh) * | 2017-11-10 | 2018-03-09 | 东南大学 | 一种移动众包系统中在线激励机制的实现方法 |
-
2018
- 2018-08-04 CN CN201810880642.3A patent/CN109242533A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310349A (zh) * | 2013-06-14 | 2013-09-18 | 清华大学 | 一种基于在线激励机制的感知数据获取方法 |
CN107203934A (zh) * | 2017-05-26 | 2017-09-26 | 福州大学 | 群智感知不对称信息场景中的激励方法 |
CN107784561A (zh) * | 2017-11-10 | 2018-03-09 | 东南大学 | 一种移动众包系统中在线激励机制的实现方法 |
Non-Patent Citations (3)
Title |
---|
DONG ZHAO等: "Budget-Feasible Online Incentive Mechanisms for Crowdsourcing Tasks Truthfully", 《IEEE/ACM TRANSACTIONS ON NETWORKING (TON)》 * |
ZHUOJUN DUAN等: "Practical Incentive Mechanisms for IoT-Based Mobile Crowdsensing Systems", 《IEEE ACCESS》 * |
赵东: "移动群智感知网络中数据收集与激励机制研究", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109872058A (zh) * | 2019-01-31 | 2019-06-11 | 南京工业大学 | 一种用于机器学习系统的多媒体群智感知激励方法 |
CN109872058B (zh) * | 2019-01-31 | 2022-12-13 | 南京工业大学 | 一种用于机器学习系统的多媒体群智感知激励方法 |
CN112950251A (zh) * | 2021-05-11 | 2021-06-11 | 北京航空航天大学 | 一种基于信誉的车辆群智感知节点反向组合拍卖激励优化方法 |
CN112950251B (zh) * | 2021-05-11 | 2024-01-26 | 北京航空航天大学 | 一种基于信誉的车辆群智感知节点反向组合拍卖激励优化方法 |
CN113379286A (zh) * | 2021-06-25 | 2021-09-10 | 华南理工大学 | 一种高精地图众包中基于参与者贡献的反向拍卖方法 |
CN114360244A (zh) * | 2021-12-21 | 2022-04-15 | 陕西师范大学 | 基于智能交通系统的多任务协同群智感知方法 |
CN114360244B (zh) * | 2021-12-21 | 2023-02-03 | 陕西师范大学 | 基于智能交通系统的多任务协同群智感知方法 |
CN115099535A (zh) * | 2022-08-24 | 2022-09-23 | 东南大学 | 一种双目标群智感知激励机制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109242533A (zh) | 基于拍卖理论的车联网群智感知用户的在线激励方法 | |
Perry et al. | The political economy of reform in post-Mao China | |
CN104851023B (zh) | 一种实时竞价在线反馈控制方法及系统 | |
CN108364190B (zh) | 结合信誉更新的移动群智感知在线激励方法 | |
CN107633317A (zh) | 建立行程规划模型以及规划出游行程的方法、装置 | |
CN112950251B (zh) | 一种基于信誉的车辆群智感知节点反向组合拍卖激励优化方法 | |
JP2004529406A (ja) | 動的なリアルタイムマーケットセグメンテーションのための方法および装置 | |
CN107784561A (zh) | 一种移动众包系统中在线激励机制的实现方法 | |
CN107103408A (zh) | 一种众包环境下复杂任务分配方法 | |
CN104252680B (zh) | 关键字自动化出价方法及搜索引擎营销系统 | |
CN103034963B (zh) | 一种基于相关性的服务选择系统及选择方法 | |
CN112580801A (zh) | 一种强化学习训练方法及基于强化学习的决策方法 | |
CN107766996A (zh) | 云家政平台的服务分配系统 | |
CN109784741A (zh) | 一种基于信誉预测的移动群智感知系统奖励分发方法 | |
CN114971819A (zh) | 基于多智能体强化学习算法在联邦学习下的用户竞价方法及装置 | |
CN110097190A (zh) | 一种基于双时间限制的群智感知任务分配方法 | |
CN111028080A (zh) | 基于多臂老虎机和Shapley值的群智感知数据动态交易方法 | |
CN114581140A (zh) | 一种广告投放楼盘的推荐方法、装置及电子设备 | |
Louviere | Modeling single individuals: the journey from psych lab to the app store | |
CN109872058B (zh) | 一种用于机器学习系统的多媒体群智感知激励方法 | |
CN107844999A (zh) | 基于拍卖机制的网络租车车辆资源分配及定价方法 | |
KR20210047147A (ko) | 인공지능 기반의 추천 호텔 정보 생성 장치 및 방법 | |
CN115438871A (zh) | 一种融合偏好消除流行度偏差的冰雪景点推荐方法及系统 | |
CN113139792B (zh) | 基于群智感知技术的特定物资收集方法 | |
CN114118472A (zh) | 基于任务分发和用户定价机制的共享设备维护系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190118 |