CN109784741A - 一种基于信誉预测的移动群智感知系统奖励分发方法 - Google Patents
一种基于信誉预测的移动群智感知系统奖励分发方法 Download PDFInfo
- Publication number
- CN109784741A CN109784741A CN201910061638.9A CN201910061638A CN109784741A CN 109784741 A CN109784741 A CN 109784741A CN 201910061638 A CN201910061638 A CN 201910061638A CN 109784741 A CN109784741 A CN 109784741A
- Authority
- CN
- China
- Prior art keywords
- worker
- task
- data
- weight
- prestige
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明涉及一种基于信誉预测的移动群智感知系统奖励分发方法,属于移动群智感知技术领域,其核心为:任务平台上的每名数据提供者,即“工人”,都被赋予信誉,该信誉基于“工人”过去在任务中的行为。基于信誉来预测“工人”未来的行为,并在下一个任务开始前为“工人”分发基本工资。“工人”不断努力以争取更好的信誉,从而获得优先受到对待的权利,并因此获得更多的报酬。同时,在“工人”实际参与任务后,衡量其实际表现与基于信誉预测值的差异,并在已有工资基础上对报酬进行二次奖惩。本发明方法能够准确地监测和评估“工人”的质量,并将信誉与质量相结合,激励机制具有奖励最优性,并有效防止了新加入者攻击和开关攻击。
Description
技术领域
本发明涉及一种移动群智感知系统激励方法,尤其涉及一种基于信誉预测的移动群智感知系统奖励分发方法,属于移动群智感知技术领域。
背景技术
近年来,随着无线通信和传感器技术的快速发展以及无线移动智能终端设备的快速普及,市场上的智能手机和平板电脑集成了全球定位系统(global positioningsystem,GPS)、加速度计、陀螺仪、麦克风、摄像头等计算和感知功能强大的感知模块,使得人们可以随时随地感知和获取周围环境信息。大量的基于感知信息的应用也不断涌现,如:环境监测、交通监测和社交网络应用等。这些不断增加的应用促进了移动群智感知(mobilecrowd sensing,MCS)的诞生和发展。
移动群智感知将普通用户的移动智能终端(如手机、平板电脑、智能可穿戴设备等)作为基本感知单元,通过移动互联网进行有意识或无意识的协作,形成移动群智感知网络,实现感知任务分配与感知数据收集,然后在云端对这些数据汇集及融合,最终用于群智提取以及以人为中心服务的数据交付。作为一种多用户协作感知的数据收集模式,移动群智感网络将每个携带感知设备的用户看作是一个独立的传感器,并利用他们之间有意识或无意识的协作完成大规模、复杂的社会感知任务。移动群智感知网络最重要的特点是人将参与数据感知、传输、分析、应用等整个系统的每个过程,既是感知数据的“消费者”,也是感知数据的“生产者”。这种“以人为中心”的感知模式可以充分发挥“人多力量大”、“众人拾柴火焰高”的特点,对未来普适计算(ubiq-uitous computing)具有重要意义。相对于传统的传感器网络,移动群智感知具有数据收集成本低、设备维护简单、系统可扩展性强等优势。
移动群智感知应用实现的前提在于大量用户的参与。然而,这种“以人为中心”的感知方式也因人的自私性、随机性使移动群智感知的数据收集过程存在一定的困难:很多是基于自私性造成的问题。在感知过程中,往往需要用户的移动终端收集大量的感知信息,这将会消耗用户终端的资源(电量、流量等),数据上传会造成花费,导致了用户不愿意无偿参与感知活动。为此,研究人员提出了移动群智感知的激励机制,通过将感知活动与娱乐游戏、信誉值或报酬支付结合等手段,提高用户参与感知活动的积极性和数据收集的质量。因此,研究移动群智感知激励机制,以提高用户参与感知活动的积极性,对于保证移动群智感知应用的服务质量,具有重要的意义。
近年来,移动群智感知激励方法的研究,成为移动群智感知网络的热点研究方向,并获得了较多的研究成果。根据激励方式的不同,将现有的激励机制分为非货币式激励(如基于信誉的激励)和基于报酬支付的货币式激励两大类。
目前,与货币报酬激励机制相关的一个问题是缺乏有效的定价方案。因为采用传统的统一定价方案是不公平的,虽然采取拍卖并按次付费定价方案常被提及,但因实施复杂并且会导致高延迟,在大规模分布式网络中很难应用。还有一些基于质量的定价方案,是根据贡献奖励数据提供者。数据提供者可称之为“工人”,“工人”只需要在当前行为中表现优秀,就会被直接分配较高的报酬。但是,数据请求者和“工人”之间存在困境。比如,在事前支付报酬方案中,数据请求者预先决定报酬总额,这是一个固定值,无论“工人”的实际表现如何,都不会再追加任何奖励。而在事后支付报酬方案中,数据请求者可能会谎称“工人”的实际贡献很少,甚至会因此拒绝支付。
另外,在一次性交互中,针对如何衡量感测数据的质量,过去常常考虑感测的精度。具体而言,这些方案认为“工人”可借助智能传感器对感测精度进行智能调整,从而控制数据的质量。但是,由于一些高精度的数据毫无价值,其并不是数据请求者需要的,甚至数据本身是错误的,因此限制性太强。同时,这些错误的数据有些是因为传感器的误差造成的,还有一些是因为用户的恶意行为导致的。所以,单纯由误差值一个参数来控制数据质量是不够准确的,恶意数据应该被及时发现并排除掉。
发明内容
本发明的目的在于针对现有技术存在的缺陷,提出一种基于信誉预测的移动群智感知系统奖励分发方法。
本发明方法的核心为:任务平台上的每名数据提供者,即“工人”,都被赋予信誉,该信誉基于“工人”过去在任务中的行为。基于信誉来预测“工人”未来的行为,并在下一个任务开始前为“工人”分发基本工资。“工人”不断努力以争取更好的信誉,从而获得优先受到对待的权利,并因此获得更多的报酬。同时,在“工人”实际参与任务后,衡量其实际表现与基于信誉预测值的差异,并在已有工资基础上对报酬进行二次奖惩。
有益效果
本发明方法,与现有技术相比,具有如下优点:
1.利用原始数据设计任务评估机制,获得每个“工人”的贡献,并测量“工人”的报告的时间价值,准确地监测和评估“工人”的质量。与此同时,通过其过去的贡献正式确定用于预测未来质量的信誉。
2.提出了一种新的定价方案,最初将信誉与质量相结合,激励“工人”参与和贡献。拟议的计划对执行搭便车或攻击的恶意“工人”实施惩罚,并奖励制定流程的“工人”,这些“工人”在实施过程中具有灵活性。
3.激励机制具有奖励最优性,用户提交感测数据的单次和长期可信性,用户的个人理性,并有效防止了新加入者攻击和开关攻击。
附图说明
图1为本发明方法的总体模型图;
图2为本发明的“工人”在数据质量优先场景下的评估权重图;
图3为本发明方法的“工人”在响应时间优先场景下的评估权重图;
图4为本发明方法的遗忘因子对信誉值的影响图;
图5为本发明方法的根据“工人”实际表现的奖励分发图。
具体实施方式
下面结合附图和实施例对本发明方法的具体实施方式做进一步详细说明。
如图1所示,一种基于信誉预测的移动群智感知系统奖励分发方法,包括:
在移动群智感知系统中,建立三个主体对象:数据请求者、任务平台和数据提供者,其中,数据提供者称为“工人”。
数据请求者通过支付报酬获取感测数据,并在任务开始前,将总报酬提前支付给任务平台。
任务平台作为数据请求者和“工人”之间的第三方,负责收集来自双方的信息,并对“工人”上传的感测数据进行评判,同时,负责分发报酬。
“工人”利用传感设备收集感测数据,并将其上交给任务平台以换取报酬。“工人”独立完成任务,之间没有合作。
具体实现步骤如下:
步骤1:数据请求者在任务平台上发布任务信息,并提前将报酬支付给任务平台。
步骤2:任务平台招募“工人”参与任务。
步骤3:“工人”向任务平台发送是否要执行任务的应答。
步骤4:设“工人”参与任务的概率为pi,如果任务平台确认“工人”参与任务,则“工人”提交关于感测数据的报告。
步骤5:任务平台基于信誉和数据质量,评估“工人”每次的表现并计算权重,根据评估结果支付报酬。具体包括:任务完成质量评估、“工人”未来表现预测和支付报酬三个部分。
其中,任务完成质量评估部分,将数据请求者的需求分为两种类型,分别定义为“数据质量”分量和“响应时间”分量。这是因为,在环境监控等应用场景中,数据请求者更关注数据准确性,需要收集并分析来自“工人”的感测数据以推断出近似结果;而在实时流量监控等应用场景中,响应时间比数据准确性更为重要,因为超时信息无价值,要求“工人”尽快上传感测数据。
任务完成质量评估的具体实现步骤如下:
步骤a:在数据质量分量下,“工人”上传自己的感测数据xi到任务平台。由于任务平台无法保证所有“工人”上传的数据都是真实可信的,使用真值发现算法评估感测数据的真实性,并排除恶意数据,表现为给予恶意数据低权重。任务平台进行数据处理,得到每个“工人”的权重wi,同时更新真值TRκ,真值TRκ表示根据所有收集到的感测数据得到的实际数据最可能的推断值。权重wi在迭代过程中逐渐收敛,表现为wκ←wκ+1,其中κ为迭代轮次,最终对每个“工人”的评价趋于真实状态。
在响应时间分量下,在给定时间窗内,数据请求者需要“工人”进行更快响应。定义感测时间窗其中Ts和Te分别表示感测时间窗的开始时间节点和结束时间节点,其根据数据请求者的要求设定。例如,在实时交通监控场景中,读取交通流量需要至少维持一段时间,即定义“工人”ui的响应时间窗为响应时长为ti=ei-si。“工人”的响应时间窗应覆盖如果实际的响应时长认定为此“工人”没有完成任务。当满足时,低的响应时长更符合数据请求者的期望。由此计算“工人”在响应时间优先型场景下的权重wi(t):
其中,χ表示对响应时间的容忍程度,底数越大表示对更长的响应时间容忍度越高。
步骤b:以上两种场景的处理过程中,均会过滤掉与真实度偏差过大的数据,同时根据一个权重参数λ,得到“工人”的整体权重:
wi=λwi(d)+(1-λ)wi(t) (3)
其中,wi表示“工人”ui的权重;wi(d)表示数据质量分量下的权重;wi(t)表示响应时间分量下的权重。
步骤c:根据权重wi,得到最终的任务完成质量
其中,系数σ为遗忘因子,0<σ<1;Δt表示“工人”从上个任务结束,到开始现在这个任务之间的时间间隔。如果“工人”长时间不参加任务,将降低对其任务完成质量的评估。
“工人”未来表现预测部分,针对“工人”参加多次任务累积的历史权重,利用狄利克雷分布来预测“工人”将来可能的行为,即信誉值这一过程发生在下一个任务开始之前。同时根据更新对“工人”ui任务完成质量的期望下限。
步骤a:将每次“工人”表现得到的权重定义为一个多元变量。“工人”每次的表现都是不确定的,但权重始终在“工人”的能力区间内波动,可以将每次权重的出现情况看作一个独立同分布,由于“工人”连续参加了连续K次任务,模型抽象成基于每次表现权重概率分布的连续概率分布,即狄利克雷分布,其概率密度函数为:
其中,为狄利克雷分布的参数,即多次任务中每种权重分布出现的概率分布;为权重的概率分布,此处将权重的取值区间等分为L段,zl为权重在第l段出现的概率。是归一化常数。k表示第k项任务。
想得到在未来的任务中“工人”最可能得到的权重,即信誉值等同于求狄利克雷分布的期望在哪个参数处达到最大,即,哪个权重取值区间z出现的概率最高。所得信誉值为区间取中值:
步骤b:由于“工人”的实际行为存在正常的波动区间,使用衰减系数c来控制在任务k中对“工人”ui任务完成质量的期望下限,即,在信誉值的基础上进行适量衰减:
其中,表示“工人”的初始信誉值,表示更新后的信誉值。初始信誉值越高,“工人”完成质量可能出现的波动越大,相对的衰减程度也越高;c为衰减系数,c越大,衰减速度越快。
支付报酬部分,是将数据请求者事先预支给任务平台的报酬Y分为两部分,一部分作为基础工资,另一部分作为动态奖金放入奖金池中,其中基础工资的比例记为pa。由“工人”的完成质量与信誉值的差值,决定在基础工资上对“工人”进行惩罚还是奖励。
支付报酬的具体实现步骤所示:
步骤a:在任务k开始之前,根据由工人历史信息预测的未来表现,即信誉值的高低,为“工人”ui分发基础工资si:
步骤b:对表现变差的“工人”进行罚款。此时,对正常范围内的数据表现表示容忍,如果完成质量出现正常波动,仍在期望上限之上,即则不会对稍差的数据表现进行惩罚。罚款罚金fi为:
其中,θ是惩罚系数,表示对“工人”的惩罚力度,θ越高,代表惩罚越严厉。
罚金将重新汇入到奖金池中,并用更新过的奖金池对“工人”发放奖金。当时,“工人”满足领取奖金的条件,认为的大小正比于在此基础上取得进步的难度,按照工人的信誉值进行分级,并为不同的等级分配不同的权重,代表每个等级被分配总奖金的百分比。设共分为v个等级,不同等级{l1,l2,…,lV}的权重分别为参数满足:
|lv|≤|lv+1| (14)
即“工人”ui所在的等级lv对应的信誉值越高,区间|lv|越小,权重越高。
则ui的奖金ri为:
其中,re为汇入罚金后的奖金总量,对于工人ui∈lv,首先争取自己的信誉进步程度在整个分层中相对较高。然后,考虑进阶到更高的等级中以获得更高的采取这种机制,保证只要“工人”进步就会获得更多奖励,无论是在等级内的进步,还是实现了从lv+1到lv之间的等级跳跃。
步骤6:数据请求者从任务平台获得感测数据的汇总结果。
实施例
本实施例详细阐述了本发明所述一种基于信誉预测的移动群智感知系统奖励分发方法的实例,对该方法的有效性进行验证。
在任务完成质量评估部分,首先验证TD的数据收集功能。有500名工人参加了一项任务,他们将在一定时间段内提交自己的感测数据报告,具有较大偏差的感测数据和响应时间较长的报告将获得较低的权重,“数据质量”分量下的实验结果如图2。可以发现,大多数权重集中在从最小值0.3到中位数0.4的范围内,只有近100名工人的权重高于0.5。图3描述了权重与“响应时间”分量的关系,设置的响应时间上限为50秒,意味着数据请求者将等待不超过50秒,为给定时间窗,即数据请求者要求的最低响应时间。当工人的响应时间小于时,对应的权重为0。图中的三条线对应于χ的不同值,在χ=1.5的条件下,权重下限接近0.3。
在用户未来表现预测部分,衰减系数的效果如图4所示。略高的线表示原始信誉值另一条线表示更新过的衰减系数在削减峰值方面起重要作用。低水平信誉值在更新后数值几乎不受影响,同时有效地削减高水平信誉值。
在支付报酬部分,设定总报酬Y=500000,基础工资百分比pa=0.7。实验结果为,除了满足的15名工人外,还有410名工人获得奖金,75名工人受到惩罚。得到奖励的工人比例接近0.8,符合实际。在奖励部分,设定信誉值一共分为v=4个等级,等级区间|lv|从最小值0.3到最大值1的范围内,大小依次设置为0.3,0.15,0.15,0.10。并且每个级别的权重按上述顺序设置为0.1,0.2,0.3,0.4,最终的奖励分发如图5所示,可以发现有明显的头部集中化趋势。在获得奖金的410名工人中,只有10%的工人奖金高于1000,而近一半的工人奖金低于100。工人之间的巨大差异与现实情况相同。结果表明,工人会努力维持更高的信誉值。在此基础上,工人希望通过不断提高任务完成质量,以获得更多奖励。
Claims (4)
1.一种基于信誉预测的移动群智感知系统奖励分发方法,包括:
在移动群智感知系统中,建立三个主体对象:数据请求者、任务平台和数据提供者,其中,数据提供者称为“工人”;
数据请求者通过支付报酬获取感测数据,并在任务开始前,将总报酬提前支付给任务平台;
任务平台作为数据请求者和“工人”之间的第三方,负责收集来自双方的信息,并对“工人”上传的感测数据进行评判,同时,负责分发报酬;
“工人”利用传感设备收集感测数据,并将其上交给任务平台以换取报酬;“工人”独立完成任务,之间没有合作;
其特征在于,实现步骤如下:
步骤1:数据请求者在任务平台上发布任务信息,并提前将报酬支付给任务平台;
步骤2:任务平台招募“工人”参与任务;
步骤3:“工人”向任务平台发送是否要执行任务的应答;
步骤4:设“工人”参与任务的概率为pi,如果任务平台确认“工人”参与任务,则“工人”提交关于感测数据的报告;
步骤5:任务平台基于信誉和数据质量,评估“工人”每次的表现并计算权重,根据评估结果支付报酬,包括任务完成质量评估、“工人”未来表现预测和支付报酬三个部分;
其中,任务完成质量评估部分,将数据请求者的需求分为两种类型,分别定义为“数据质量”分量和“响应时间”分量;
“工人”未来表现预测部分,针对“工人”参加多次任务累积的历史权重,利用狄利克雷分布来预测“工人”将来可能的行为,即信誉值这一过程发生在下一个任务开始之前,同时根据更新对“工人”ui任务完成质量的期望下限;
支付报酬部分,是将数据请求者事先预支给任务平台的报酬Y分为两部分,一部分作为基础工资,另一部分作为动态奖金放入奖金池中,其中基础工资的比例记为pa;由“工人”的完成质量与信誉值的差值,决定在基础工资上对“工人”进行惩罚还是奖励;
步骤6:数据请求者从任务平台获得感测数据的汇总结果。
2.如权利要求所述的一种基于信誉预测的移动群智感知系统奖励分发方法,其特征在于,所述任务完成质量评估的具体实现步骤如下:
步骤a:在数据质量分量下,“工人”上传自己的感测数据xi到任务平台;由于任务平台无法保证所有“工人”上传的数据都是真实可信的,使用真值发现算法评估感测数据的真实性,并排除恶意数据,表现为给予恶意数据低权重;任务平台进行数据处理,得到每个“工人”的权重wi,同时更新真值TRκ,真值TRκ表示根据所有收集到的感测数据得到的实际数据最可能的推断值;权重wi在迭代过程中逐渐收敛,表现为wk←wk+1,其中κ为迭代轮次,最终对每个“工人”的评价趋于真实状态;
在响应时间分量下,在给定时间窗内,数据请求者需要“工人”进行更快响应,定义感测时间窗其中Ts和Te分别表示感测时间窗的开始时间节点和结束时间节点,其根据数据请求者的要求设定;定义“工人”ui的响应时间窗为响应时长为ti=ei-si,“工人”的响应时间窗应覆盖如果实际的响应时长认定为此“工人”没有完成任务;当满足时,低的响应时长更符合数据请求者的期望;由此计算“工人”在响应时间优先型场景下的权重wi(t):
其中,χ表示对响应时间的容忍程度,底数越大表示对更长的响应时间容忍度越高;
步骤b:以上两种场景的处理过程中,均会过滤掉与真实度偏差过大的数据,同时根据一个权重参数λ,得到“工人”的整体权重:
wi=λwi(d)+(1-λ)wi(t) (3)
其中,wi表示“工人”ui的权重;wi(d)表示数据质量分量下的权重;wi(t)表示响应时间分量下的权重;
步骤c:根据权重wi,得到最终的任务完成质量
其中,系数σ为遗忘因子,0<σ<1;Δt表示“工人”从上个任务结束,到开始现在这个任务之间的时间间隔;如果“工人”长时间不参加任务,将降低对其任务完成质量的评估。
3.如权利要求所述的一种基于信誉预测的移动群智感知系统奖励分发方法,其特征在于,所述“工人”未来表现预测的具体实现步骤如下:
步骤a:将每次“工人”表现得到的权重定义为一个多元变量;“工人”每次的表现都是不确定的,但权重始终在“工人”的能力区间内波动,将每次权重的出现情况看作一个独立同分布,由于“工人”连续参加了连续K次任务,模型抽象成基于每次表现权重概率分布的连续概率分布,即狄利克雷分布,其概率密度函数为:
其中,为狄利克雷分布的参数,即多次任务中每种权重分布出现的概率分布;为权重的概率分布,此处将权重的取值区间等分为L段,为权重在第l段出现的概率;是归一化常数;k表示第k项任务;
获得在未来的任务中“工人”最可能得到的权重,即信誉值等同于求狄利克雷分布的期望在哪个参数处达到最大,即,哪个权重取值区间出现的概率最高;所得信誉值为区间取中值:
步骤b:由于“工人”的实际行为存在正常的波动区间,使用衰减系数c来控制在任务k中对“工人”ui任务完成质量的期望下限,即,在信誉值的基础上进行适量衰减:
其中,表示“工人”的初始信誉值,表示更新后的信誉值;初始信誉值越高,“工人”完成质量可能出现的波动越大,相对的衰减程度也越高;c为衰减系数,c越大,衰减速度越快。
4.如权利要求所述的一种基于信誉预测的移动群智感知系统奖励分发方法,其特征在于,所述支付报酬的具体实现步骤如下:
步骤a:在任务k开始之前,根据由工人历史信息预测的未来表现,即信誉值的高低,为“工人”ui分发基础工资si:
步骤b:对表现变差的“工人”进行罚款,此时,对正常范围内的数据表现表示容忍,如果完成质量出现正常波动,仍在期望上限之上,即则不会对稍差的数据表现进行惩罚;罚款罚金fi为:
其中,θ是惩罚系数,表示对“工人”的惩罚力度,θ越高,代表惩罚越严厉;
罚金将重新汇入到奖金池中,并用更新过的奖金池对“工人”发放奖金;当时,“工人”满足领取奖金的条件,认为的大小正比于在此基础上取得进步的难度,按照工人的信誉值进行分级,并为不同的等级分配不同的权重,代表每个等级被分配总奖金的百分比;设分为v个等级,不同等级{l1,l2,...,lV}的权重分别为参数满足:
|lv|≤|lv+1| (14)
即“工人”ui所在的等级lv对应的信誉值越高,区间|lv|越小,权重越高;
则ui的奖金ri为:
其中,re为汇入罚金后的奖金总量,对于工人ui∈lv,首先争取自己的信誉进步程度在整个分层中相对较高;然后,考虑进阶到更高的等级中以获得更高的采取这种机制,保证只要“工人”进步就会获得更多奖励,无论是在等级内的进步,还是实现了从lv+1到lv之间的等级跳跃。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910061638.9A CN109784741A (zh) | 2019-01-23 | 2019-01-23 | 一种基于信誉预测的移动群智感知系统奖励分发方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910061638.9A CN109784741A (zh) | 2019-01-23 | 2019-01-23 | 一种基于信誉预测的移动群智感知系统奖励分发方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109784741A true CN109784741A (zh) | 2019-05-21 |
Family
ID=66501180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910061638.9A Pending CN109784741A (zh) | 2019-01-23 | 2019-01-23 | 一种基于信誉预测的移动群智感知系统奖励分发方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109784741A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112016971A (zh) * | 2020-08-31 | 2020-12-01 | 广东技术师范大学 | 基于以太坊gas原理的移动群智感知数据可靠性保障方法 |
CN112633616A (zh) * | 2019-09-20 | 2021-04-09 | 北京邮电大学 | 一种协调群体智能平台冲突的方法和装置 |
CN113139792A (zh) * | 2021-04-27 | 2021-07-20 | 陕西师范大学 | 基于群智感知技术的特定物资收集方法 |
CN113592610A (zh) * | 2021-05-14 | 2021-11-02 | 南京航空航天大学 | 基于模糊控制的信誉更新移动群智感知激励方法 |
CN115277039A (zh) * | 2022-03-18 | 2022-11-01 | 广州大学 | 针对多轮次数据投毒攻击的Optimized TruthFinder方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104881800A (zh) * | 2015-06-03 | 2015-09-02 | 西北工业大学 | 一种基于移动群智感知的激励机制实现方法 |
CN105045807A (zh) * | 2015-06-04 | 2015-11-11 | 浙江力石科技股份有限公司 | 互联网交易信息的数据清洗算法 |
CN107944947A (zh) * | 2017-11-07 | 2018-04-20 | 南京邮电大学 | 一种利用社交网络的移动群智感知激励方法 |
CN108364190A (zh) * | 2018-01-08 | 2018-08-03 | 东南大学 | 结合信誉更新的移动群智感知在线激励方法 |
CN108494760A (zh) * | 2018-03-14 | 2018-09-04 | 安徽大学 | 一种保护隐私的群智感知真值发现方法 |
-
2019
- 2019-01-23 CN CN201910061638.9A patent/CN109784741A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104881800A (zh) * | 2015-06-03 | 2015-09-02 | 西北工业大学 | 一种基于移动群智感知的激励机制实现方法 |
CN105045807A (zh) * | 2015-06-04 | 2015-11-11 | 浙江力石科技股份有限公司 | 互联网交易信息的数据清洗算法 |
CN107944947A (zh) * | 2017-11-07 | 2018-04-20 | 南京邮电大学 | 一种利用社交网络的移动群智感知激励方法 |
CN108364190A (zh) * | 2018-01-08 | 2018-08-03 | 东南大学 | 结合信誉更新的移动群智感知在线激励方法 |
CN108494760A (zh) * | 2018-03-14 | 2018-09-04 | 安徽大学 | 一种保护隐私的群智感知真值发现方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112633616A (zh) * | 2019-09-20 | 2021-04-09 | 北京邮电大学 | 一种协调群体智能平台冲突的方法和装置 |
CN112016971A (zh) * | 2020-08-31 | 2020-12-01 | 广东技术师范大学 | 基于以太坊gas原理的移动群智感知数据可靠性保障方法 |
CN112016971B (zh) * | 2020-08-31 | 2021-06-01 | 广东技术师范大学 | 基于以太坊gas原理的移动群智感知数据可靠性保障方法 |
CN113139792A (zh) * | 2021-04-27 | 2021-07-20 | 陕西师范大学 | 基于群智感知技术的特定物资收集方法 |
CN113139792B (zh) * | 2021-04-27 | 2023-05-26 | 陕西师范大学 | 基于群智感知技术的特定物资收集方法 |
CN113592610A (zh) * | 2021-05-14 | 2021-11-02 | 南京航空航天大学 | 基于模糊控制的信誉更新移动群智感知激励方法 |
CN115277039A (zh) * | 2022-03-18 | 2022-11-01 | 广州大学 | 针对多轮次数据投毒攻击的Optimized TruthFinder方法 |
CN115277039B (zh) * | 2022-03-18 | 2023-12-12 | 广州大学 | 针对多轮次数据投毒攻击的Optimized TruthFinder防御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109784741A (zh) | 一种基于信誉预测的移动群智感知系统奖励分发方法 | |
Gao et al. | A survey of incentive mechanisms for participatory sensing | |
Liao et al. | Digital twin consensus for blockchain-enabled intelligent transportation systems in smart cities | |
CN110189174A (zh) | 一种基于数据质量感知的移动群智感知激励方法 | |
Wang et al. | QuaCentive: a quality-aware incentive mechanism in mobile crowdsourced sensing (MCS) | |
CN106097043B (zh) | 一种信用数据的处理方法及服务器 | |
CN108269129A (zh) | 一种基于逆向拍卖的移动群智感知网络中用户激励方法 | |
Sing et al. | Dynamic modeling of workforce planning for infrastructure projects | |
Vermillion | The turnover and self management of irrigation institutions in developing countries | |
Navon et al. | Applications of game theory to design and operation of modern power systems: A comprehensive review | |
Peng et al. | When data contributors meet multiple crowdsourcers: Bilateral competition in mobile crowdsourcing | |
Hu et al. | Inexact fuzzy two-stage programming for water resources management in an environment of fuzziness and randomness | |
CN105282246A (zh) | 基于拍卖机制的感知任务分配的方法 | |
Jia et al. | An incentive mechanism in expert-decision-based crowdsensing networks | |
Tian et al. | Stick or carrot for traffic demand management? Evidence from experimental economics | |
CN110599370A (zh) | 一种基于区块链的物业管理方法、装置和存储介质 | |
Sun et al. | The interaction between BIM's promotion and interest game under information asymmetry. | |
Beekman | Social change and water resource planning and development | |
CN110072298B (zh) | 一种基于边缘计算的鲁棒移动群智感知算法 | |
CN109345048B (zh) | 预测方法、装置、电子设备及计算机可读存储介质 | |
Gao et al. | Dynamic Task Pricing in Mobile Crowdsensing: An Age-of-Information-Based Queueing Game Scheme | |
Yang et al. | Evaluating staggered working hours using a multi-agent-based Q-learning model | |
JP2006004362A (ja) | 通信ネットワークを利用した共同出資型オークションシステム、共同入札方法、サーバおよびプログラム | |
Borck | Federalism, fertility, and growth | |
Nursimulu et al. | Excessive volatility is also a feature of individual level forecasts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190521 |
|
WD01 | Invention patent application deemed withdrawn after publication |